字节跳动近日宣布,其自主研发的AI视频生成模型Seedance2.0已开启小范围内部测试。这款具备多模态交互能力的新模型,凭借文本、图片生成电影级视频的突破性表现,迅速成为科技圈热议焦点。用户通过输入文字描述或上传参考图片,即可生成具有专业级光影效果的动态视频内容。
在技术验证环节,Seedance2.0展现出惊人的历史场景还原能力。有测试者使用该模型生成了1670年阿姆斯特丹的城市风貌视频,其建筑细节、街道布局甚至光影变化都精准复现了历史记载。对比谷歌同类型模型Genie3,Seedance2.0在时空还原准确度上获得显著优势,这种突破性进展引发行业专家持续关注。
特斯拉创始人马斯克在社交平台公开评价称:"Seedance2.0的进化速度超出预期"。这位科技界领袖的关注,让这款尚未正式发布的产品获得更多期待。据内部人士透露,模型训练过程中采用了超过2000万小时的视频数据,构建了包含15世纪至今的全球城市演变数据库。
目前该模型已全面接入字节跳动旗下豆包平台,用户可通过App、网页端及PC客户端体验。在操作界面新增的"Seedance2.0"专区,用户输入提示词后可选择生成5秒或10秒视频,系统支持4K分辨率输出。特别开发的"分身视频"功能允许用户通过人脸识别创建数字分身,结合AI生成的动态背景实现创意视频制作。
据开发团队介绍,Seedance2.0采用创新的时空注意力机制,在视频生成过程中实现像素级动态控制。相较于前代模型,新版本在人物动作连贯性、物体交互合理性等维度提升超过40%。目前平台已开放教育、文旅、影视等行业合作通道,首批测试用户涵盖中央电视台、故宫博物院等机构。

