字节跳动于近日正式推出新一代视频创作模型Seedance 2.0,该模型采用统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态输入,集成了目前业界最全面的多模态内容参考与编辑能力。这一技术突破标志着视频生成领域向工业化创作场景迈出重要一步。
相比前代1.5版本,Seedance 2.0在复杂交互和动态场景中的表现显著提升,物理准确性、画面逼真度及用户可控性均达到新高度。字节跳动技术团队透露,新模型特别优化了工业级创作场景的适配性,例如影视特效制作、广告内容生成等领域。不过官方同时承认,当前版本仍存在生成结果瑕疵等问题,技术完善仍需持续迭代。
在模型应用规范方面,抖音集团副总裁李亮通过社交平台强调,用户使用豆包、即梦等平台体验Seedance 2.0时,需完成真人认证方可创建数字分身。平台明确禁止基于真人人脸或知名IP形象(如迪士尼、熊出没等)进行内容生成,目前团队正集中资源强化反侵权技术防护体系,并呼吁用户监督反馈。
值得关注的是,华特迪士尼公司已于当地时间周五正式向字节跳动发出法律函件,指控其在Seedance 2.0的训练开发过程中未经授权使用迪士尼版权作品,要求立即停止侵权行为并承诺不再重犯。截至目前,字节跳动尚未就此指控作出公开回应,但技术团队表示将持续完善版权保护机制。


