在科技界的瞩目之下,火山引擎于上海成功举办了FORCE原动力大会·冬,此次大会不仅见证了技术的飞跃,更成为了豆包大模型家族全面升级的重要里程碑。其中,全新发布的豆包视觉理解模型无疑是全场焦点,其卓越的表现令人叹为观止。
豆包视觉理解模型凭借其出众的内容识别、理解与推理能力,以及细腻的视觉描述,为大模型领域树立了新的标杆。它如同一双智慧之眼,让大模型得以洞察现实世界,极大地拓展了人机交互的边界与应用范畴。在智源研究院的最新评测中,豆包视觉理解模型在视觉语言模型领域荣获全球第二,仅次于GPT-4o,尤其在中文通用知识与文字识别方面,展现出了显著优势。
豆包视觉理解模型的发布,正如生物进化中的眼睛对于物种爆发的重要性,为人工智能生态的多元化与丰富性奠定了坚实的基础。其领先的内容识别能力,不仅能准确识别图像中的物体、形状与类别,更能深入理解物体间的关系、空间布局及场景意义。例如,在发布会演示中,模型能依据影子形状识别动物,通过光线景象判断丁达尔效应,甚至对陌生物品进行拍照识别。
豆包视觉理解模型还具备行业领先的OCR能力,可精准提取图片中的文本信息,无论是纯文本图像、日常图像还是表格图像,都能游刃有余。它还能基于指令进行视觉内容识别,对中国传统文化信息有着深刻理解。而模型的理解与推理能力更是强大,能轻松应对复杂图片推理任务,如表格图像、数学问题、代码图像等,同时支持参考问答、总结摘要及数学、逻辑、代码推理。
豆包视觉理解模型的细腻视觉描述能力同样不容小觑。它能基于图像信息,细腻描述图像内容,并根据图像状态进行多种文体创作,如产品介绍、宣传文章、视频脚本、故事诗歌等。例如,企业可借助模型为文创产品创作暖心祝福语,或根据指令对画面细节进行描述,甚至根据多张美食图片剖析菜品特色,撰写美食与餐厅点评。
火山引擎在此次大会上还宣布,豆包大模型家族迎来全面升级。豆包通用模型pro已对齐GPT-4o,使用价格仅为后者的1/8;音乐模型从生成60秒简单结构升级至3分钟完整作品;文生图模型2.1版本则首次实现了精准生成汉字与一句话P图的产品化能力。豆包3D生成模型也首次亮相,与火山引擎数字孪生平台veOmniverse结合,成为支持AIGC创作的物理世界仿真模拟器。
字节跳动在大会上透露,2025年春季将推出具备更长视频生成能力的豆包视频生成模型1.5版,以及豆包端到端实时语音模型,解锁多角色演绎、方言转换等新能力。自今年5月发布以来,豆包大模型快速迭代,已成为国内最全面、技术最领先的大模型之一,广泛应用于智能终端、汽车、金融、消费和互联网等领域。
火山引擎总裁谭待在会上表示,豆包大模型虽然发布较晚,但一直在快速迭代进化,目前日均tokens使用量已超过4万亿,较首次发布时增长了33倍,这标志着豆包大模型的能力正在被C端市场充分验证,大模型应用正加速向各行各业渗透。与众多行业客户的共创合作,让豆包大模型在智能终端、汽车、金融、消费等领域大放异彩,与八成主流汽车品牌合作,覆盖终端设备约3亿台,调用量在半年内增长100倍。