资讯
当AI模型参数突破万亿级,HBM已从“配件”升级为“算力核心”。华为8月12日发布的UCM技术以颠覆性架构撕开一道裂缝。
NVIDIA、AMD及Intel三家主要的AI芯片巨头当前及下一代的AI芯片也会进一步提升HBM显存的容量和速度,其中AMD明年的主力产品MI400将使用高达432GB的HBM4,带宽19.6TB/s,对比MI350系列的288GB HEM3E、8TB/s分别增加50%、145%,比竞争对手的产品也高出50%。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果一些您可能无法访问的结果已被隐去。
显示无法访问的结果