资讯

当AI模型参数突破万亿级,HBM已从“配件”升级为“算力核心”。华为8月12日发布的UCM技术以颠覆性架构撕开一道裂缝。
NVIDIA、AMD及Intel三家主要的AI芯片巨头当前及下一代的AI芯片也会进一步提升HBM显存的容量和速度,其中AMD明年的主力产品MI400将使用高达432GB的HBM4,带宽19.6TB/s,对比MI350系列的288GB HEM3E、8TB/s分别增加50%、145%,比竞争对手的产品也高出50%。