OpenAI近日宣布完成新一轮高达1100亿美元的融资,同时与英伟达、亚马逊两大科技巨头深化战略合作关系。其中与亚马逊的协议扩展尤为引人注目,双方将原定7年期的380亿美元算力交易延长至8年,总金额提升至1000亿美元(约合人民币6870.63亿元)。这一调整不仅延长了合作期限,更将交易规模扩大近三倍,凸显AI领域对算力资源的持续渴求。
根据协议内容,OpenAI除继续使用亚马逊云服务(AWS)的GPU算力外,还将通过AWS基础设施部署约2吉瓦(GW)的Trainium专用算力集群。这些算力将专门用于支持有状态运行时系统、Frontier前沿模型研发及其他高复杂度AI工作负载,标志着双方合作从通用算力向定制化AI基础设施的深度转型。
值得关注的是,此次合作全面覆盖AWS已发布的Trainium3芯片及尚未量产的下一代Trainium4。据技术文档披露,Trainium4计划于2027年启动交付,其FP4精度计算性能较前代将实现指数级提升,同时配备更宽的内存带宽和翻倍的显存容量。这种硬件层面的迭代升级,为训练万亿参数规模的生成式AI模型提供了关键支撑。
行业分析指出,OpenAI与亚马逊的算力交易规模跃升,反映出当前AI竞赛已进入"军备竞赛"阶段。2吉瓦的算力需求相当于200万块高端GPU同时运行,这种规模的部署不仅需要突破性的芯片架构设计,更对数据中心供电、散热等基础设施提出革命性要求。随着Trainium4等专用芯片的逐步落地,AI训练成本结构或将迎来新一轮重构。

