美光HBM4已向主要客户出货,驱动下一代AI平台落地

来源:美光科技 #美光# #HBM4#
3766

6月12日,爱达荷州博伊西市——随着数据中心对AI训练与推理工作负载需求的持续增长,高性能内存的重要性达到历史新高。Micron Technology Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)今日宣布已向多家主要客户送样其12层堆叠36GB HBM4内存。这一里程碑再次扩大了美光在AI内存性能和能效方面的领导地位。凭借其成熟的1β(1-beta)DRAM制程、经过验证的12层先进封装技术及功能强大的内存内建自测试(MBIST)功能,美光HBM4为开发下一代AI平台的客户及合作伙伴提供了无缝集成的解决方案。

重要飞跃

随着生成式AI应用的不断增长,高效管理推理能力的重要性与日俱增。美光HBM4内存具备2048位元接口,每个内存堆叠的传输速率超过2.0 TB/s,性能较前一代产品提升超60%1。这样的扩展接口有助于实现高速通信与高吞吐量设计,进而提高大型语言模型和思维链推理系统的推理性能。简而言之,HBM4将使AI加速器响应更迅速、推理更高效。

此外,延续美光前一代HBM3E内存2曾在业界树立的HBM能效新标杆,HBM4的能效再度提升超20%,展现了美光更进一步的技术突破。这项进展能以最低功耗提供更大吞吐量,从而更大限度地提高数据中心的效率2

随着生成式AI应用场景的持续扩展,此颠覆性技术将为社会创造显著价值。HBM4是加速洞察与创新突破的关键推动力,能够促进医疗保健、金融和交通运输等不同领域的进步与变革。

美光高级副总裁暨云端存储事业部总经理Raj Narasimhan表示:“美光HBM4具备卓越的性能、更高的带宽和业界领先的能效,印证了美光在内存技术和产品方面的领导地位。基于此前HBM3E部署所取得的瞩目成就,我们将继续通过HBM4及强大的AI内存和存储解决方案组合引领创新。我们的HBM4生产进程与客户下一代AI平台的准备进度紧密配合,以确保无缝集成与适时扩大产量,满足市场需求。”

1 基于美光内部HBM4测试结果和已发布的HBM3E内存规格(2.0 TB/s对比1.2 TB/s的带宽)

2 根据美光内部模拟预测,以美光12层堆叠36GB HBM3E内存和类似竞争产品进行的比较

加速智慧革新:美光在AI革命中的关键作用

近五十年来,美光不断突破内存和存储创新的边界。如今,美光持续通过提供广泛多元的解决方案,将数据转化为智慧,推动从数据中心到端侧设备的突破,进而加速AI发展。凭借HBM4,美光再次巩固了其作为AI创新领域关键推手的地位,并成为客户应对严苛解决方案的可靠合作伙伴。

责编: 爱集微
来源:美光科技 #美光# #HBM4#
THE END
关闭
加载

PDF 加载中...