英伟达全新AI芯片设计引发市场对HBM需求疑虑

手机作者 / 花爷 / 2026-05-16 05:00
"
    编者按:在人工智能浪潮席卷全球的今天,芯片技术的每一次革新都牵动着整个科技产业的神经。近日,有消息称英伟达可能即

  Nvidia CEO Jensen Huang (Reuters-Yonhap)

  编者按:在人工智能浪潮席卷全球的今天,芯片技术的每一次革新都牵动着整个科技产业的神经。近日,有消息称英伟达可能即将推出基于SRAM(静态随机存取存储器)的全新AI推理芯片架构,这一动向瞬间引发了业界关于“HBM(高带宽内存)是否将被取代”的激烈讨论。然而,深入剖析技术本质与市场逻辑后我们发现,这场变革或许并非简单的“替代”,而更像是一场精密的“互补”与“融合”。SRAM以其超低延迟的特性,有望在特定场景中优化AI计算效率,但其固有的成本与面积限制,决定了它难以撼动HBM在大型AI训练与推理系统中的核心地位。未来的内存格局,更可能走向一个由SRAM、HBM和DRAM协同构建的、层次分明的生态系统。本文将为您深度解析这场技术演进背后的真实图景。

  专家称,基于SRAM的架构更可能互补而非取代HBM

  美国芯片巨头英伟达,可能将于本周一在加州圣何塞举行的NVIDIA GTC 2026大会上,揭晓一款围绕片上静态随机存取存储器(SRAM)构建的全新人工智能推理芯片架构。此举引发业界热议:这一设计是否会重塑AI内存市场的格局?

  据周日行业内部消息透露,这项拟议中的基于SRAM的架构,预计将采取与当前AI数据中心所用GPU设计不同的技术路径。现今的GPU通过在处理芯片旁连接多组高带宽内存(HBM)堆栈来处理海量数据集,从而实现极高速的大规模数据吞吐。

  而以SRAM为中心的设计,则会将相对较大的SRAM模块置于芯片内部,从而减少数据移动,并有望改善处理延迟。

  然而,这种方案也存在设计上的权衡。SRAM的显著特点是比动态随机存取存储器(DRAM)体积更大、成本更高,因此难以大规模部署。据行业估算,实现相同容量,SRAM单元所需的硅片面积大约是DRAM单元的5到10倍。

  因此,SRAM传统上在处理器中用作高速缓存或缓冲存储器,而非主内存。相比之下,HBM专为提供极高的内存带宽而设计,已成为AI训练和数据中心工作负载的关键组件。

  一些观察人士担忧,SRAM的更广泛使用可能会削弱对HBM及其他主内存技术的需求。但许多专家指出,SRAM直接取代HBM的可能性仍然很低,因为这两种技术从根本上扮演着不同的角色。

  “将SRAM解读为HBM的替代品有些言过其实,”一位要求匿名的行业人士表示,“SRAM传统上一直被用作位于处理器旁、容量小但昂贵的高速缓存。”

  该消息人士称,结构限制使得SRAM难以取代大容量内存。

  “要达到相同容量,SRAM所需的硅片面积大约是DRAM的5到10倍,”该人士解释道,“它可能在AI芯片某些超低延迟部分发挥作用,但其作为通用内存解决方案的扩展可能仍然有限。”

  “在可预见的未来,HBM将继续作为支持大规模AI训练和推理系统的关键近内存,”该人士补充道。

  市场分析师也认为,基于SRAM的架构更有可能与现有内存技术形成互补,而非取代它们。

  韩国投资证券分析师蔡敏淑表示,引入以SRAM为中心的架构,应被理解为针对特定工作负载增加了一个选项,而非取代HBM或DRAM的策略。

  “更恰当的看法是,这是一种针对某些超低延迟数据中心工作负载或边缘应用的解决方案,”她说。

  “大规模模型训练和通用推理服务器仍将依赖HBM和DRAM作为主内存,”蔡敏淑指出,“随着AI计算的发展,行业可能会朝着由SRAM、HBM和DRAM组成的、层次更分明的内存体系结构演进。”

  学术界也认为,现有内存格局短期内受到的冲击有限。

  祥明大学系统半导体工程学教授李钟焕表示,任何结构性的转变都更可能是渐进的,而非突然的。

  “即使架构发生变化,也不太可能立即造成颠覆,”李教授说,“三星电子和SK海力士等公司主导着全球内存市场,这意味着任何技术过渡都可能以可控的节奏进行。”

  “SRAM仍然是内存的一种类型,因此从内存制造商的角度来看,这不一定构成重大问题,”这位教授补充道。

  本文由路知网原创发布,未经许可,不得转载!

  本文链接:https://m.yrowe.com/ga/101400.html

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读