发现者网
产业经济 科技业界 3C数码 文化传媒 移动智能 家电行业 AI大模型 汽车出行 热点资讯

月之暗面发布新论文:AttnRes模块亮相,深度学习2.0时代或将来临

2026-03-18来源:快讯编辑:瑞雪

在深度学习领域,一场关于模型架构创新的讨论正愈演愈烈。近日,月之暗面团队发布了一项突破性研究,提出了一种名为注意力残差(Attention Residuals,简称AttnRes)的新型模型模块,为深度学习模型的发展开辟了新路径。这一成果不仅引发了学界和业界的广泛关注,更得到了前OpenAI核心成员Jerry Tworek等知名学者的高度评价。

传统Transformer架构中,残差连接是确保深层网络稳定训练的关键设计。每一层的输出会直接与前一层相加,形成"等权累加"的机制。这种设计虽然解决了梯度消失问题,但随着模型层数增加,历史层信息被简单叠加,导致深层网络表达能力受限。月之暗面的研究团队敏锐地捕捉到了这一局限性,提出用动态注意力机制替代固定残差连接的创新方案。

AttnRes的核心突破在于引入了可学习的权重分配机制。每层网络不再被动接受前层输出,而是通过注意力机制主动"检索"历史层中最有价值的信息。这种设计使模型能够根据当前上下文动态调整信息聚合方式,有效缓解了深层网络中的信息稀释问题。研究团队进一步提出的块级注意力残差(Block AttnRes)结构,通过将网络划分为多个计算块,在保持灵活性的同时显著降低了计算复杂度。

实验数据显示,将AttnRes集成到480亿参数的Kimi Linear架构后,模型在1.4万亿token的预训练中展现出显著优势。在数学推理、科学问答等复杂任务上,新模型性能提升超过20%,特别是在多步推理基准测试GPQA-Diamond中表现尤为突出。更令人瞩目的是,Block AttnRes在验证损失上达到1.692,相比基线模型1.714的成绩,相当于提升了约25%的计算效率。

这项创新不仅体现在理论层面,更在工程实现上取得突破。研究团队针对Block AttnRes带来的通信开销问题,开发了跨阶段缓存机制,将训练阶段的额外开销控制在4%以内。在推理阶段,通过两阶段计算策略和序列分片技术,使内存延迟增加不超过2%,同时显著降低了长上下文场景下的显存需求。这些优化措施确保了新技术在实际应用中的可行性。

据研究团队介绍,该成果是数十名研究员共同协作的结晶,其中Guangyu Chen、Yu Zhang和Jialin Su三位研究员贡献最为突出。这项突破不仅展示了中国研究团队在AI基础架构领域的创新能力,也为全球深度学习社区提供了值得深入探索的新方向。随着相关研究的持续推进,注意力机制在深度维度上的应用有望成为下一代模型架构的关键特征。

青少年电子书阅读器怎么选?科大讯飞S2、Kindle等四款热门产品深度对比
今天,我们将对比几款热门的青少年电子书阅读器,包括科大讯飞青少年阅读本S2邵鑫版、亚马逊Kindle、掌阅iReader和BOOX NovaAir。 性价比方面,科大讯飞S2的价格相对合理,尤其是考虑到其丰…

2026-03-18