当前,AI发展面临严峻挑战。Epoch AI预测模型显示,人类生成的高质量文本存量增长平缓,而AI训练所需的数据量呈指数级上扬。预计2027 - 2028年,高质量数据将被消耗殆尽,剩下的多是AI互喂生成的低质量数据。在此背景下,巨头们陷入“数据成瘾”的困境,不断堆砌芯片、扩大显存,试图通过增加算力提升智力,但效果微乎其微,智力提升无限趋近于零。
Flapping Airplanes实验室的创始人Ben Spector年仅25岁,是斯坦福统计学博士候选人。他极度鄙夷当前“大力出奇迹”的AI发展范式,认为现有模型如同给飞机装上羽毛和引擎,强行让它像鸟一样拍翅膀,而Scaling Law只是在研究如何让翅膀拍得更快,却忽略了空气动力学的本质。他主张AI应像人类幼儿一样,通过少量学习就能理解逻辑,而非吞下整个互联网的数据。
该实验室的核心武器是Megakernels技术。通过将大语言模型(LLM)推理过程中的所有计算与通信融合进单个GPU核,彻底消除指令流转的空隙。以往GPU推理时数据传输如同“便秘”,走走停停;如今拆掉显存“红绿灯”,让数据在光刻机上自由流动。这一技术使推理速度大幅提升6.7倍,对硬件实现了“降维压榨”。
Flapping Airplanes实验室的团队堪称“疯狂天才团”。除Ben Spector外,还有前辩论冠军兼统计学博士Asher Spector,他逻辑思维能力超强;21岁的Thiel Fellow、前Neuralink工程师Aidan Smith,曾直接参与人脑接口研究。这支团队不屑于搞套壳API,而是深入硬件底层进行创新。
回顾AI发展历程,11年前Google大神写下Transformer论文时,谁能想到引爆世界的会是当时只有几百人的OpenAI?如今,巨头们守着万卡集群,在微调中停滞不前;而Flapping Airplanes实验室的这群年轻人,正试图颠覆底层逻辑,开启AI新纪元。这场变革,究竟会带来怎样的未来,值得所有人期待。
