DeepSeek V4 Video Official Logo - Next-Gen AI Video SynthesisDeepSeek V4 Video 文档

Seedance 2.0 FAQ

围绕 Seedance 2.0 工作流、credits、一致性、商业使用和提升结果质量的常见问题解答。

这份 FAQ 不是用来替代完整指南的,而是用来回答用户理解产品之后、真正开始使用之前最常见的问题。

如果你需要更完整的方法,答案里都带了对应指南。

我应该先用哪个模式?

先按任务选模式:

  • 做概念探索,用 text-to-video
  • 首帧已经重要了,用 image-to-video
  • 人脸、产品形状或手部必须稳定,用 reference-to-video

如果模式选错了,单纯把 prompt 写更长,通常救不回来。

可继续阅读:

credits 是怎么计算的?

一次生成会消耗 credits,最终准确数字会在你提交前显示出来。

实际消耗通常会受这些因素影响:

  • 时长
  • 分辨率
  • 所选模型档位
  • 你当前使用的工作流类型

继续阅读:价格与 Credits 说明

提升结果质量最快的方法是什么?

最有杠杆的改进,通常不是换模型,而是让请求变得更窄。

优先先把这些写清楚:

  • 一个主体
  • 一个动作
  • 一个运镜
  • 一组明确约束

继续阅读:Prompt 写作指南

什么时候该从纯文本切到 reference?

当你的 prompt 开始频繁依赖这些词时,就该考虑切换了:

  • same face
  • same bottle
  • same outfit
  • same shape

这通常说明连续性已经比自由探索更重要。

reference 用几张更合适?

在当前 reference 工作流里,少而一致的 reference,通常比多而冲突的 reference 更好。

一个常见的稳妥组合是:

  • 一张身份锚点
  • 一张角度或手持补充
  • 一张可选的连续性补充

如果这些图在光线、姿态或比例上彼此冲突,结果通常会更差。

为什么我的商品视频看起来很高级,但不能用?

因为 prompt 很可能在优化“氛围”,而不是“商品正确性”。

做商品视频时,优先保护:

  • 标签可读性
  • 形状一致性
  • 反光行为
  • 主体数量

继续阅读:Seedance 2.0 电商工作流

为什么 UGC 片段最容易在脸和手上出问题?

因为 UGC 天生就在考验最容易被看出漂移的部分:

  • 脸部身份
  • 手指结构
  • 手持产品对位
  • 口播节奏

更常见的修正方式是:

  • 简化手势
  • 收紧构图
  • 保留一个 creator 锚点
  • 强化 negative prompt

继续阅读:Seedance 2.0 UGC 广告工作流

为什么电影感内容还是会显得很泛?

因为很多人把 cinematic 当风格词写,而不是当镜头指令写。

更好的电影感 prompt 会明确:

  • 一个镜头意图
  • 一个主运镜
  • 一套光线逻辑
  • 一个情绪落点

继续阅读:Seedance 2.0 电影感镜头工作流

一运动就闪烁、变形,我该先改什么?

先按最基础的顺序排查:

  1. 缩短片段
  2. 简化动作
  3. 降低运镜复杂度
  4. 强化约束
  5. 如果任务本来就高度依赖连续性,就切模式

继续阅读:闪烁与变形排查

生成结果可以商用吗?

商用取决于你的套餐和实时结账条款,但商业使用从来不只是套餐问题。

你仍然要检查:

  • 输入素材是不是自有或已授权
  • 真人 reference 是否获得同意
  • logo、宣称和品牌风险是否做过审核

继续阅读:商用使用指南

生成失败会怎样?

按当前项目设置,因系统错误导致的失败生成,设计上会退回 credits。最终执行仍以实时服务规则和退款政策为准。

继续阅读:退款政策

我应该做一条长片,还是拆成多条短片?

多数情况下,多条短片更好。

这一点对下面这些场景都成立:

  • 电商
  • UGC
  • 电影感叙事

短片更容易控制、更容易重试,也更容易后期拼成多种交付版本。

我应该先看哪些页面?

如果你是新用户:

如果你是在解决具体问题: