阿里旗下千问App近日迎来重要更新,正式上线万相2.7视频生成模型,为用户提供视频编辑、续写及动作模仿三大核心功能。这一升级标志着AI技术在视频创作领域的应用迈入新阶段,为普通用户和专业创作者带来更高效的创作工具。
在视频编辑方面,万相2.7模型展现出强大的画面修改能力。用户仅需通过自然语言描述,即可实现添加人物、更换服装、调整背景等操作,系统会自动匹配光影效果和细节处理,确保修改后的画面自然流畅。例如,用户可以要求"在画面中添加一位穿红色裙子的舞者",模型会精准生成符合场景氛围的新元素。
风格转换功能支持动画、3D、黏土等多种创意效果,用户可一键切换视频艺术风格。更值得关注的是,模型允许直接修改角色动作、表情甚至台词内容,同时保持口型同步和语气自然。对于拍摄手法,用户也能自由调整机位、镜头焦距等参数,轻松实现专业级的画面表现。
针对视频续写需求,万相2.7突破了传统AI生成的时长限制。通过分析已有内容,模型可将2秒的短视频最长扩展至15秒,并保持情节连贯性。创作过程中,用户可通过首尾帧控制功能确保画面过渡自然,系统会自动维持整体结构稳定,避免出现突兀的跳转。
动作模仿功能是本次更新的亮点之一。基于参考视频,模型能够精准复现人物动作轨迹,包括多人协同动作和复杂肢体变化。运镜方式和特效节奏也可同步迁移,极大降低了创意复现的门槛。例如,用户可以上传一段舞蹈视频,让生成画面中的人物完美复刻专业舞者的动作细节。
同步上线的Wan2.7-image图像模型进一步拓展了创作维度。该模型支持精准编辑视觉元素,可轻松完成多人海报设计、人像骨相级美化等复杂任务。从视频到图像的全链路创作能力,使千问App成为真正意义上的多媒体创作平台。