人工智能

马斯克的xAI坐拥55万张英伟达GPU加速卡 利用率仅11%

字号+作者:快科技 来源:快科技 2026-05-05 12:13 评论(创建话题) 收藏成功收藏本文

坐拥约55万块英伟达GPU,实际算力利用率仅有11%,这一巨大反差让马斯克旗下xAI近期推向舆论风口浪尖,也引发业界对其算力利用效率的广泛质疑。据外媒《TheIn'...

坐拥约55万块英伟达GPU,实际算力利用率仅有11%,这一巨大反差让马斯克旗下xAI近期推向舆论风口浪尖,也引发业界对其算力利用效率的广泛质疑。据外媒《TheInformation》获取的xAI内部备忘录显示,xAI公司总裁迈克尔·尼科尔斯(MichaelNicolls)向团队坦言,目前公司模型浮点运算利用率(MFU)约为11%。zkv品论天涯网

这一数字背后的含义十分直观:理论上可输出100份训练算力的硬件,实际仅能产出11份,尼科尔斯在备忘录中直白评价其“低得尴尬”,并明确为团队设定了目标——未来几个月内将这一利用率拉升至50%。zkv品论天涯网

据悉,xAI目前拥有约55万颗NVIDIAGPU,涵盖H100和H200系列。尽管这些GPU比最新的Blackwell产品落后了一个世代,但如此庞大的硬件部署规模,仍给市场留下了深刻印象。zkv品论天涯网

需要指出的是,11%这个数字,并非指89%的GPU在完全闲置,而是衡量有效训练吞吐占硬件理论峰值算力比例的严苛指标。zkv品论天涯网

与行业基准相比,xAI的表现差距尤为明显。当前,生产级大模型训练的MFU通常维持在35%至45%之间,其中Meta和谷歌凭借长期积累的深厚软件堆栈,其GPU利用率分别可达约43%和46%;zkv品论天涯网

即便在以“低效”著称的GPT-3训练时期,MFU也能稳定在21%-26%之间。反观xAI的11%,不仅远低于当前行业主流水平,甚至不及AI算力发展史上的“古早”尴尬时期。zkv品论天涯网

值得一提的是,坐拥顶级算力却难以发挥价值, xAI 症结不在硬件,而在软件短板。zkv品论天涯网

据悉,xAI一直照搬英伟达标准部署方案,但软件堆栈、并行策略和模型工程优化,远远跟不上硬件激进扩张速度。zkv品论天涯网

具体来看,HBM显存读取速度远慢于计算芯片,导致芯片大量时间空转等待数据;网络拓扑中的任何一处瓶颈,在数万张卡的同步要求下,都会被急剧放大。zkv品论天涯网

此外,Lambda等机构分析指出,显存压力、过度的激活重计算和张量并行带来的跨GPU通信开销等,都是拖累MFU的系统性因素。zkv品论天涯网

值得注意的是,xAI基建扩张堪称行业奇迹,其Colossus超算仅122天建成,GPU规模短时间内极速扩容,过快的硬件铺摊,也放大了软件优化滞后的致命短板。zkv品论天涯网

zkv品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]