随着数据中心对AI训练与推理工作负载需求的持续增长,高性能内存的重要性达到历史新高。Micron Technology Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)今日宣布已向多家主要客户送样其12层堆叠36GB HBM4内存。
美光表示,此里程碑再次扩大美光AI内存性能和能源效率方面的领导地位。凭借成熟1β (1-beta) DRAM制程、经验证12层堆栈先进封装及功能强大内存内置自我测试 (MBIST) 功能,美光HBM4为开发下代AI平台的客户和合作伙伴提供无缝集成的解决方案。
美光指出,HBM4内存有2048位元界面,每个内存堆栈的传输速率超过2.0TB/s,性能较前一代产品提升超过60%。这样的扩展界面有助于实现高速通信和高传输量设计,进而提高大型语言模型和思路链推理系统的推论性能。简而言之,HBM4将使AI加速器具备更快的反应速度与更高效的推理能力。
此外,延续美光前一代HBM3E内存曾在业界树立无与伦比的HBM能源效率新标杆,HBM4的能源效率再提升超过两成,展现了更进一步的技术突破。这项进展能以最低功耗提供最大吞吐量,进而最大限度地提高数据中心的效率。而在生成式AI应用场景不断增加之际,此颠覆性技术有望为整体社会带来可观效益。HBM4是能加速洞察与创新突破的关键推动力,从而促进医疗保健、金融和交通运输等不同领域的进步与变革。
美光科技资深副总裁暨云计算内存业务部门总经理Raj Narasimhan表示,美光HBM4具备卓越的性能、更高的带宽和业界首屈一举的能源效率,证明美光在内存技术和产品方面的领导地位。在HBM3E所创下的重大里程碑基础上,继续以HBM4及强大AI内存和存储解决方案组合引领创新。HBM4生产进程与客户下一代AI平台的准备进度紧密衔接,以确保无缝集成与适时扩大产量,满足市场需求。
近50年来,美光不断突破内存和存储创新的界限。美光持续提供广泛多样的解决方案,使数据转化为智能,推动从数据中心到边缘设备突破,加速AI发展。美光再次巩固AI创新领域关键推手的地位,并在客户开发最严苛解决方案时,证明为值得信赖的合作伙伴。美光HBM4预定2026年量产,配合客户下代AI平台扩产进度。