Seedance 2.0 用户指南
精通多模态视频生成艺术。从零开始制作电影级大片。
快速开始:3分钟制作视频
1
上传
将你的参考图像(角色/风格)拖入 'Image' 标签页。
2
提示词
简单描述动作:'电影镜头,[reference] 在雨中行走。'
3
生成
点击生成。等待约60秒。预览结果,满意则下载。
核心工作流
Seedance 2.0 将视频生成视为导演拍片。你不仅仅是在输入文字;你是在选角(图像),布景(提示词),和配乐(音频)。
1. 素材准备
- 角色卡:使用清晰、正面的角色照片。避免背景杂乱。
- 风格参考:(可选)定义色调或光照的图像。
2. 动作参考
上传视频片段来指导动作。在提示词中标记它,例如“使用此视频的运镜”。
提示词最佳实践
结构化你的提示词以获得最大控制权。
公式
[主体定义] + [动作/运动] + [摄像机角度] + [氛围/光照]
示例:
"赛博朋克武士 (@image1) 缓慢拔出武士刀,低角度希区柯克变焦,霓虹雨,体积雾,8k分辨率。"
"赛博朋克武士 (@image1) 缓慢拔出武士刀,低角度希区柯克变焦,霓虹雨,体积雾,8k分辨率。"
音频同步
Seedance 2.0 可以从视频生成声音,或者从声音生成视频。
口型同步
上传人声轨道。模型将动画化参考面部以匹配语音。
节拍同步
上传音乐。视频剪辑和动作将与节奏/节拍对齐。
高级:实现一致性
AI 视频的圣杯是角色一致性。Seedance 2.0 通过多重参考标记解决了这个问题。
策略 1:“脸部 + 服装”分离
不要依赖单一图像。分离你的参考素材以指导生成的不同方面。
输入
- • @image1: 面部特写
- • @image2: 服装全身照
提示词
“角色脸部来自 @image1,服装来自 @image2,走在街道上...”
多镜头一致性
要在不同场景(例如:场景A:客厅,场景B:公园)中保持角色一致:
- 每次生成都使用完全相同的 @image 参考。
- 在提示词中保持“主体描述”完全一致(例如,“一个红发年轻女子”)。
- 只改变“动作”和“环境”词汇。
动作迁移
想要特定的表演?上传视频参考。
“跟随 @video1 的动作和表演,但将演员替换为 @image1 中的角色。”
常见问题
面部在运动中看起来扭曲
使用更高分辨率的参考图像。尽量避免极度特写结合快速运动。
视频中的文字乱码
AI在此方面仍有困难。避免要在视频中显示标志/文字的提示词,除非使用后期添加。
生成失败 / 超时
服务器负载高。请在非高峰时段重试或检查你的信用额度。