发现者网
产业经济 科技业界 3C数码 文化传媒 移动智能 家电行业 AI大模型 汽车出行 热点资讯

戴尔CEO预测:2028年AI内存需求将达2023年625倍,供给扩张面临挑战

2026-04-10来源:快讯编辑:瑞雪

戴尔创始人兼首席执行官迈克尔·戴尔近日在公开场合对全球人工智能内存市场的发展趋势作出预测:到2028年,全球AI内存总需求量将攀升至2023年的625倍。这一数据源于两个关键因素的叠加效应——单颗AI加速器的内存容量与全球加速器部署规模同步扩张。

以英伟达产品为例,其AI加速器的内存容量增长轨迹印证了这一趋势。2023年发布的H100芯片搭载80GB HBM内存,而后续迭代产品H200、B200、B300的内存容量分别提升至141GB、192GB和288GB。最新一代Vera Rubin平台更通过混合内存架构实现突破性进展——其搭载的288GB HBM4内存与1536GB SOCAMM模块组合,使单颗加速器的内存容量达到1824GB,接近2TB的临界值。

SOCAMM作为一种新型模块化内存标准,由英伟达牵头联合三星、SK海力士、美光等存储巨头共同开发。该技术专为AI服务器和AI PC优化,与传统的HBM内存形成互补:HBM侧重于加速器核心的高速运算需求,而SOCAMM则承担CPU侧的大容量存储任务。在Vera Rubin平台上,SOCAMM模块单颗即可提供1536GB容量,直接推动单加速器系统的内存上限迈向新高度。

从部署规模来看,全球数据中心AI加速器的装机量预计将在五年内扩大25倍。当单颗加速器内存容量同步增长25倍时,两者相乘便催生出625倍的总需求增长。迈克尔·戴尔特别指出,这种指数级增长并非短期波动,当前AI基础设施的建设热潮尚未显现放缓迹象,内存供应体系的扩张仍需数年时间才能匹配需求增速。

这种供需失衡的现状正重塑存储产业格局。存储厂商需要同时应对技术迭代与产能扩张的双重挑战:既要突破HBM和SOCAMM等新型内存的工艺瓶颈,又要投入巨资建设专用生产线。行业观察人士认为,AI内存市场的爆发式增长或将引发新一轮产业整合,具备垂直整合能力的头部企业将在竞争中占据优势地位。

豆包语音交互大升级!告别机械对话,全双工技术开启自然交流新体验
这要是换做是以前的语音模型,早在每一次「um/uh」之后,火急火燎地跳出来接话。而最让人玩味儿的,是团队在「人人对话」基准上的一次测试,看人机对话到底相对真人聊天到了什么程度。 它是在争夺下一件更本质的东…

2026-04-10

Meta超级智能实验室首推Muse Spark:闭源新模型性能卓越,多平台即将上线
在随Spark发布一同公开的技术博客中,Meta列出了一系列AI基准测试结果,其中Muse Spark的标准思考模式在多项指标上与OpenAI、Anthropic、Google和xAI的竞争模型持平甚至略胜…

2026-04-10