阿里巴巴达摩院近日在具身智能领域取得重大突破,正式发布具备时空记忆与物理推理能力的RynnBrain基础模型,并同步开源涵盖30B MoE架构在内的7个全尺寸模型。该模型在16项具身智能评测中刷新行业纪录(SOTA),性能超越谷歌Gemini Robotics ER 1.5、英伟达Cosmos Reason 2等国际顶尖模型,标志着机器人认知能力向真实物理世界迈出关键一步。
传统具身模型面临两大核心挑战:动作模型因数据稀缺难以泛化,大脑模型则缺乏动态记忆能力。RynnBrain通过创新架构设计同时解决这两类问题——其引入的时空记忆模块可追溯物体历史位置并预测运动轨迹,物理推理引擎则采用文本与空间定位交替验证机制,将幻觉率降低67%。实验显示,搭载该模型的机器人在执行多任务时,能精准记忆被打断前的时空状态,任务切换准确率达92%。
技术团队基于Qwen3-VL框架开发出RynnScale训练架构,通过参数优化将训练效率提升200%。模型使用超过2000万组高质量训练数据,在环境感知、视觉问答、轨迹预测等场景展现卓越性能。特别值得关注的是30B MoE模型,其通过动态参数激活技术,仅需3B活跃参数即可达到72B模型的推理效果,使机器人动作响应速度提升3倍,运动流畅度显著改善。
开源生态建设方面,达摩院不仅开放全系列模型代码,更推出首个时空细粒度评测基准RynnBrain-Bench。该基准包含2000个复杂场景测试用例,涵盖动态障碍物避让、多模态交互等真实世界挑战,填补行业评测体系空白。基于RynnBrain开发的具身规划模型,经500组场景数据微调后,在复杂环境路径规划任务中超越Gemini 3 Pro表现。
达摩院具身智能实验室负责人赵德丽指出:"RynnBrain实现了认知层与运动层的解耦设计,为通用具身智能构建了可扩展的分层架构。"目前团队正推进模型在工业巡检、家庭服务等场景的落地应用,已开源的WorldVLA世界模型和RynnRCP机器人通信协议,正在形成完整的具身智能技术栈。
