近日,一场围绕“AI赋能产业升级与经济发展”的圆桌对话在产联智库举行,来自学界与产业界的众多嘉宾齐聚一堂,就AI智能体热潮、AI与产业融合以及中小企业智能化转型等核心议题展开深入探讨。
北京工业大学教授、IEEE China Council常务理事兼工业合作与创新委员会主席李文正,凭借其在人工智能大模型与高性能异构计算机群计算领域的深厚积累,在对话中分享了诸多前沿观点。他指出,AI大模型本质上是对人类知识的压缩与对齐,赋予了机器通用对话和生成的能力。当前,AI大模型正朝着“Agentic AI”阶段迈进,构建起“大模型+智能体+环境”的协同生态,对物理和数字世界产生深远影响。
2026年伊始,OpenClaw等开源智能体迅速走红,引发了行业对“AI独立上岗”的热烈讨论。业界普遍关注这波热潮究竟会形成巨头垄断的局面,还是开启一场激烈的混战。与此同时,Gartner预测多智能体系统将迎来突破,如何界定智能体的能力边界成为焦点问题。
李文正回顾了人工智能的发展历程,从判别式AI到生成式AI,再到如今的Agentic AI。他强调,智能体的出现标志着AI大模型从单纯的“对话”功能,向“执行真任务”和“解决真问题”转变。在实现这一转变的技术路径上,存在两条主要路线。一条是以OpenAI GPT5.4为代表的大一统模型,将大模型原生深度集成到工作流中,使GPT - 5.4具备原生电脑操作能力,超越人类,将AI大模型从对话工具转变为执行智能体;另一条是以Anthropic Claude Opus 4.6为代表的多AI Agent协同大框架。
在产品形态方面,Manus和OpenClaw备受瞩目。Manus是全球首款通用型AI智能体,定位为数字员工,主要在云端运行;而OpenClaw是开源的本地AI智能体框架,旨在打造用户的数字分身,在数字世界中执行任务,主要运行于本地电脑设备。这两个产品都没有自有模型,而是依靠大框架、工具与生态与强大模型进行适配和优化。
Agentic AI强调AI系统以高度自治、主动、目标驱动的方式运作,其核心特征包括自治性、感知能力、决策/推理能力、行动能力和目标导向。这使得AI大模型从“对话”迈向“执行”,进而进入“多智能体协同”的新阶段,实现从“会说”到“会做”,最终走向“解决真问题,真解决问题”。对于企业而言,这一趋势既带来了挑战,也蕴含着机遇。
李文正认为,AI智能体目前仍处于快速发展的初级阶段,未来需要重点关注数字空间智能与物理世界的深度融合。如何让数字空间智能与现实物理世界建立有意义的联结,解决符号落地问题,是实现从“会说”到“会做”跨越的关键。
在探讨Agentic AI时代对未来智慧城市运营与城市基础设施的影响时,李文正将智慧城市比喻为一个从“能看、能思考”的城市大脑,进化为“能动手、能执行”的城市智能体。这一进化不仅意味着城市运营模式的彻底变革,也对城市智能基础设施提出了更高要求。
智能体的自主决策与执行能力将推动城市运营实现三大跃迁:运营模式从“被动处置”转变为“主动预防”;服务体验从“千人一面”升级为“极致个性化”;管理对象从“物理空间”扩展到“虚实融合”。然而,这些变化也给城市智能基础设施带来了四大核心挑战。
首先是算力架构,需要从“中心化”向“云边端一体化”的实时协同转变。智能体需实时处理海量数据并做出毫秒级响应,这就要求算力下沉。例如,一个城市要处理数万路摄像头的数据,需构建从云端训练到边缘端推理的协同架构,网络需具备高吞吐、低时延能力。其次是数据治理,要从“部门孤岛”走向“全域融合”的语义理解。智能体要理解复杂城市事件,必须打破部门之间的数据壁垒,实现跨模态数据的融合,以便即时检索和理解历史数据并做出精准决策。再者是信任体系,要从“技术工具”转变为“权力代理”的伦理对齐。当智能体自主控制交通信号或派遣应急资源时,它实际上成为了“权力代理”,这带来了尖锐的挑战,即人们是否敢使用它。这就要求基础设施内置可解释性、偏见检测机制,并通过数字孪生沙盘先模拟验证再执行。最后是容错标准,要从“体验降级”转变为“生命攸关”的零故障容忍。对话问答场景出错只是体验问题,但交通指挥或应急调度出错则可能危及生命,这意味着城市核心系统对智能体的容错度极低。
在降低大模型幻觉方面,李文正提到,新加坡国立大学和OpenAI发表的文章指出幻觉是大语言模型固有的局限性。为了减少AI幻觉,增强模型的逻辑推理能力是一种方法,但这会增加对算力的消耗,因此如何减少大模型幻觉成为研究热点。他引用丹尼尔·卡内曼的双系统理论,指出人脑存在直觉思维的“快思考”和理性思维的“慢思考”。受此启发,以OpenAI o1、DeepSeek - R1等为代表的推理模型通过“链式思维”或自我反思机制等技术路径,有效提升了复杂推理任务的解决能力,减少了幻觉。思维链是一种引导AI模型进行分步推理的技术,本质是强迫模型从“快思考”切换到“慢思考”。然而,如何让模型在减少幻觉的同时,降低“思考成本”,成为研究的关键。李文正表示,平衡模型性能与算力成本的关键在于“动态决策”与“架构创新”。具体而言,可以从模型设计、推理策略和工程优化三个层面入手。模型设计上,从“通用全能”转向“专家分工”,混合专家模型(MoE)是目前解决模型性能与成本矛盾的主流范式;推理策略上,从“简单堆算力”转向“动态优化”,结合“快思考”和“慢思考”的思想,让模型优先调用快速模式,遇到逻辑复杂问题场景时再切换至慢速、高精度的推理模式;工程优化上,从“硬件堆料”转向“榨干性能”,在硬件和工程层面进行优化,用“数学补物理”。
李文正还指出,在Agentic AI时代,算力决定速度,内存决定上限。人工智能大模型作为AI基础设施,计算重点正从“浮点运算量”转向“逻辑编排效能”,从“大规模矩阵运算”转向“高频交互式协调计算”,计算范式发生跃迁和结构性变革,CPU已从“通用处理器”转型为Agentic AI时代高频交互式AI推理优化处理器。AI大模型推理需要与大模型推理相适配的处理器,因为在推理的Prefill阶段是计算密集型的,而在Decode阶段则是存储密集型的。当对话达到数万乃至百万token时,KV - Cache会爆炸式增长,系统需要从内存中调取海量历史数据,形成“推理内存墙”,“内存主导型”工作负载,内存决定了计算性能的上限。推理直接面向最终用户,对延迟、吞吐量和成本有极其严苛的要求,因此Agentic AI时代对大模型推理计算相适配的算力芯片低时延提出了极致要求,计算与存储效率成为衡量系统整体性能的重要因素。
为了解决“推理内存墙”和“推理延迟”问题,近存计算成为关注热点。Groq推出的LPU凭借在SRAM片上实现近存计算,消除HBM访存瓶颈,成为AI大模型推理加速的近存计算AI芯片。在Agentic AI元年,英伟达收购Groq,获取其LPU推理技术与Rubin GPU通过极致协同设计,由Rubin GPU负责大规模并行计算的Prefill阶段,LPU专门负责Decode阶段,以实现低延迟的Token生成,精准适配大模型推理计算需求。Cerebras Systems公司通过将海量计算核心和高速片上存储(SRAM)集成在一起,极大减少了芯片间通信开销,在特定AI推理任务中实现了比传统GPU集群高数十倍的运算速度;Taalas公司则专注于开发“模型专用集成电路”(MSIC),将大模型直接固化在硬件中实现极致推理性能,其首款产品HC1芯片在制造过程中将模型权重直接硬编码到芯片的晶体管电路中,使模型成为专用集成电路(ASIC)模型即芯片。
在算力需求呈指数级增长的背景下,如何应对电力供应的挑战,实现算力与电力的可持续发展也是重要议题。全球AI大模型技术发展迅速,模型参数量呈指数级增长。以OpenAI的GPT系列为例,从GPT - 3的1750亿参数发展到GPT - 4的预估1.7万亿参数规模,再到GPT - 5可能达到3至50万亿参数。在Scaling law驱动下,科技巨头持续挑战Scaling Law极限,大模型海量计算对算力需求爆炸式增长,传统的数据中心无法满足需求,数据中心扩展和电力供应成为关注焦点。美国xAI超级计算机Colossus2投入运行,开启全球首个吉瓦级规模的AI训练集群,最近xAI获批部署41台天然气轮机,发电容量约1.2吉瓦为Colossus 2数据中心供电。高性能超级节点及集群是实现大模型scaling laws的最佳方法,高性能计算集群从千卡、万卡迈入十万卡大关,多家AI巨头陆续宣布或者完成10万卡集群。面对10万卡集群,电力与算力深度耦合,电力供应成为新挑战。OpenAI和英伟达联合发布的研究显示,随着AI大模型训练规模急剧扩张至数万GPU集群,其功耗的剧烈波动对数据中心基础设施构成挑战,单个训练任务的功率波动可达数十兆瓦级别,威胁数据中心供电稳定,甚至可能对整个电网系统造成潜在风险。为应对这一挑战,我国推动算力 - 电力协同,实现算力调度与智能化运营,发改委等三部门印发相关行动方案,实施一批算力与电力协同项目。同时,李文正提出“算力与电力协同”的解决方案,建议利用AI赋能电力调度优化,依托“东数西算”战略,探索太空数据中心、海底数据中心等新型数据中心基础设施,通过系统优化积极应对挑战。


