OpenAI近日宣布完成一笔高达1100亿美元的新一轮融资,同时与英伟达、亚马逊两大科技巨头深化战略合作关系。其中,与亚马逊的算力合作规模大幅升级,原定7年期380亿美元的GPU云服务协议延长至8年,总金额突破1000亿美元(约合人民币6870.63亿元),成为全球AI领域规模最大的基础设施合作项目之一。
根据协议条款,OpenAI将通过亚马逊云科技(AWS)基础设施部署约2吉瓦(GW)的Trainium专用算力集群,重点支持其有状态运行时系统、Frontier前沿模型研发及其他高复杂度AI工作负载。这一容量相当于为整个纽约市提供夜间用电需求,凸显AI训练对能源的巨大消耗趋势。
合作范围覆盖AWS已商用的Trainium3芯片及尚未发布的下一代产品。技术文档显示,计划于2027年量产的Trainium4将实现三大突破:FP4低精度计算性能较前代提升5倍以上,内存带宽扩展至12TB/s级别,单芯片显存容量突破192GB。这些升级将使单节点训练效率达到当前水平的20倍,显著降低千亿参数模型训练成本。
行业分析师指出,此次合作标志着AI基础设施竞争进入"军备竞赛"阶段。OpenAI通过锁定长期算力供应,为其GPT-5及后续模型的规模化落地奠定基础,而亚马逊则借助头部AI客户的深度绑定,巩固其在专用芯片市场的领先地位。英伟达虽未披露具体合作细节,但作为OpenAI长期GPU供应商,预计将在混合架构训练方案中扮演关键角色。
