人工智能

AI GPU加速卡功耗有失控趋势 10年内超过15000W

字号+作者:快科技 来源:快科技 2025-06-16 01:49 评论(创建话题) 收藏成功收藏本文

近日,韩国高级科学技术院(KAIST)、TB级互联与封装实验室(TERA)共同展望了未来十年HBM高带宽内存、AIGPU加速卡的发展形势,疯狂得有些难以置信。HBM技术目'...

近日,韩国高级科学技术院(KAIST)、TB级互联与封装实验室(TERA)共同展望了未来十年HBM高带宽内存、AIGPU加速卡的发展形势,疯狂得有些难以置信。HBM技术目前已落地最先进的是HBM3E,NVB300系列、AMDMI350系列都做到了最大288GB。v4b品论天涯网

即将到来的是BHM4,NVIDIARubin系列预计做到最大384GB,AMDMI400系列更是准备冲击432GB。v4b品论天涯网

v4b品论天涯网

后续标准尚未制定,但是预计HBM5的容量可达400-500GB,HBM6能够做到1536-1920GB(1.5-1.9TB),HBM7更是可达5120-6144GB,也就是大约4.2-6TB!v4b品论天涯网

NVIDIARubin预计明年推出,芯片面积728平方毫米,芯片功耗800W,双芯整合封装,中介层面积近2200平方毫米,搭配8颗HBM4,带宽最高32TB/s,整卡功耗预计2200W。v4b品论天涯网

目前的AMDMI350系列风冷1000W、水冷1400W,NVIDIAB300也做到了1400W。v4b品论天涯网

再往后,代号Feyman的再下一代NVIDIAAIGPU预计2029年到来,估计核心面积750平方毫米左右,芯片功耗就有900W左右,四芯整合封装,中介层面积约4800平方毫米,搭配8颗HBM5,带宽48TB/s,整卡功耗4400W。v4b品论天涯网

v4b品论天涯网

v4b品论天涯网

之后的代号都没公布,以下数据也都是纯粹的想象:v4b品论天涯网

Feyman之后下一代2032年推出,单芯片面积缩小到700平方毫米,但是功耗突破1000W,而且通过四芯整合封装,中介层超过6000平方毫米,搭配多达16颗HBM6,带宽256TB/s,整卡巩固好近6000W。v4b品论天涯网

再往后的2035年,又是新一代,单芯片面积继续缩小到600平方毫米,但是功耗达1200W,而且首次八芯片整合封装,中介层超过9000平方毫米,搭配32颗HBM7,带宽1TB/s,功耗15000W!v4b品论天涯网

这么走下去真的好吗?每个数据中心旁边就得搭配一座核电站了!v4b品论天涯网

v4b品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]