快速开始:3分钟制作视频

1

上传

将你的参考图像(角色/风格)拖入 'Image' 标签页。

2

提示词

简单描述动作:'电影镜头,[reference] 在雨中行走。'

3

生成

点击生成。等待约60秒。预览结果,满意则下载。

核心工作流

Seedance 2.0 将视频生成视为导演拍片。你不仅仅是在输入文字;你是在选角(图像),布景(提示词),和配乐(音频)。

1. 素材准备

  • 角色卡:使用清晰、正面的角色照片。避免背景杂乱。
  • 风格参考:(可选)定义色调或光照的图像。

2. 动作参考

上传视频片段来指导动作。在提示词中标记它,例如“使用此视频的运镜”。

提示词最佳实践

结构化你的提示词以获得最大控制权。

公式
[主体定义] + [动作/运动] + [摄像机角度] + [氛围/光照]
示例:
"赛博朋克武士 (@image1) 缓慢拔出武士刀,低角度希区柯克变焦,霓虹雨,体积雾,8k分辨率。"

音频同步

Seedance 2.0 可以从视频生成声音,或者从声音生成视频。

口型同步

上传人声轨道。模型将动画化参考面部以匹配语音。

节拍同步

上传音乐。视频剪辑和动作将与节奏/节拍对齐。

高级:实现一致性

AI 视频的圣杯是角色一致性。Seedance 2.0 通过多重参考标记解决了这个问题。

策略 1:“脸部 + 服装”分离

不要依赖单一图像。分离你的参考素材以指导生成的不同方面。

输入
  • • @image1: 面部特写
  • • @image2: 服装全身照
提示词

“角色脸部来自 @image1,服装来自 @image2,走在街道上...”

多镜头一致性

要在不同场景(例如:场景A:客厅,场景B:公园)中保持角色一致:

  • 每次生成都使用完全相同的 @image 参考。
  • 在提示词中保持“主体描述”完全一致(例如,“一个红发年轻女子”)。
  • 只改变“动作”和“环境”词汇。

动作迁移

想要特定的表演?上传视频参考。

“跟随 @video1 的动作和表演,但将演员替换为 @image1 中的角色。”

常见问题

面部在运动中看起来扭曲

使用更高分辨率的参考图像。尽量避免极度特写结合快速运动。

视频中的文字乱码

AI在此方面仍有困难。避免要在视频中显示标志/文字的提示词,除非使用后期添加。

生成失败 / 超时

服务器负载高。请在非高峰时段重试或检查你的信用额度。