据 SemiAnalysis 最新报告,自2024年5月 GPT-4o 发布以来,OpenAI 尚未完成任何一次“面向下一代前沿模型”的大规模预训练部署,其顶尖团队多次尝试扩展参数与数据规模,均因收敛困难或性能倒挂而中途叫停。这导致被外界寄予厚望的 GPT-5系列实质上仍是 GPT-4o 的优化变体,未能实现架构级突破。
与此同时,谷歌 TPUv7已在 Gemini3等模型上完成大规模预训练验证,同等算力集群的总体拥有成本(TCO)比英伟达方案低约30%。SemiAnalysis 指出,OpenAI 甚至“尚未真正部署 TPU”,仅传出评估消息,就迫使英伟达在现有 GPU 集群报价上让步,为 OpenAI 节省约三成成本——侧面凸显 TPU 的性价比优势。
行业观点认为,预训练 Scaling 定律正遭遇数据、算力与模型配方三重瓶颈:优质互联网数据接近枯竭,合成数据成本高达1亿美元/1TB,十万卡集群故障频发,更大规模 MoE 的超参数亦难摸索。OpenAI 的停滞被视为整个赛道进入“后 Scaling 时代”的标志性信号,各家开始转向推理模型、自博弈 RL 与多模态后训练寻求增量突破。


评论 (0)