伊赫巴里
Monday, 16 February 2026
Breaking

内存芯片短缺何时以及如何结束:深度解析人工智能危机

人工智能驱动的 HBM 需求推高价格,专家预测长期短缺

内存芯片短缺何时以及如何结束:深度解析人工智能危机
7dayes
4 days ago
46

韩国 - 艾赫巴里通讯社

内存芯片短缺何时以及如何结束:深度解析人工智能危机

在当今的技术格局中,人工智能(AI)的普遍影响是不可否认的。这一趋势在动态的计算机内存市场中尤为明显。驱动 AI 数据中心运行的图形处理单元(GPU)和加速器所需的高带宽内存(HBM)的需求急剧增长。这种强劲的需求正在将内存供应从其他领域转移出来,导致价格飙升。根据 Counterpoint Research 的数据,仅在本季度,DRAM 的价格就上涨了 80-90%。

据报道,主要的人工智能硬件公司已经确保了直至 2028 年的芯片供应。然而,这使得个人电脑、消费电子产品以及无数其他需要临时数据存储的设备的制造商,在应对稀缺供应和高昂成本方面陷入了争分夺秒的竞赛。科技行业是如何陷入这种困境的?更重要的是,未来的出路是什么?

经济学家和内存行业专家认为,当前形势是多种因素共同作用的结果:半导体行业固有的周期性繁荣与萧条,特别是在 DRAM 市场,以及前所未有的人工智能硬件基础设施建设。除非人工智能领域出现重大下滑,否则新的制造能力和技术进步需要数年时间才能使供应与需求相匹配。即使供应赶上来了,价格也很可能保持在高位。

要充分理解这种供需失衡的动态,理解主要驱动因素——高带宽内存(HBM)——至关重要。HBM 代表了 DRAM 行业通过先进的 3D 芯片封装技术来规避摩尔定律速度放缓的创新方法。每颗 HBM 芯片由多达 12 个薄切的 DRAM 芯片(称为“die”)垂直堆叠而成。每个 die 通过称为“硅通孔”(TSV)的垂直通道相互连接。这些堆叠的 die 然后使用与 TSV 对齐的微型焊球粘合在一起。这个厚度约 750 微米的复杂组件安装在“基座 die”上,该基座 die 管理内存堆栈和主处理器之间的数据传输。

这个复杂的技术组件位于其服务的 GPU 或 AI 加速器仅几毫米的距离内。它通过大量连接(可能多达 2,048 个)进行连接,实现超高速数据传输。HBM 通常安装在处理器的两侧,从而可以将 GPU 和内存封装成一个单一的、连贯的单元。这种紧密集成和密集连接的目的是克服“内存墙”——即大型语言模型(LLM)运行所需的海量数据(每秒 TB 级)输入 GPU 所需的能量和时间造成的性能瓶颈。内存带宽是 LLM 运行速度的关键限制因素。

尽管 HBM 技术已经存在十多年,DRAM 制造商也一直在不断提高其能力,但 AI 模型规模和复杂性的指数级增长极大地放大了其重要性。这些模型日益增长的需求使得 HBM 对于实现必要的性能水平不可或缺。反过来,这种对 HBM 的日益关注也导致了内存资源和生产能力从其他应用中的相对转移,加剧了整体短缺状况。

行业专家强调,解决这场危机并非易事。建造新的半导体制造厂(fabs)需要数十亿美元的投资,并且需要数年时间才能全面投入运营。此外,下一代 HBM 或替代内存技术的开发需要大量的研发努力。即使产量有所增加,AI 需求的持续指数级增长也可能意味着价格在短期内不会恢复到以前的水平。

潜在的解决方案包括增加对 HBM 制造能力的投资,加速先进内存技术的开发,以及提高软件应用程序中内存使用效率。公司还可能采取长期战略来保障其供应链并实现采购来源多元化。然而,最大的挑战仍然是平衡 AI 需求的爆炸式增长与行业供应关键组件(尤其是先进内存芯片)的能力。

总之,当前的内存芯片短缺并非仅仅是暂时的市场波动,而是 AI 对全球经济产生变革性影响的深刻反映。随着行业努力适应,AI 领域之外的消费者和企业将在可预见的未来继续感受到其影响——从设备价格上涨到供应有限。

标签: # 内存芯片短缺 # AI # 人工智能 # DRAM # HBM # 高带宽内存 # 价格上涨 # 半导体行业 # GPU # 数据中心 # 摩尔定律 # 3D芯片封装