HBM 之后是什么?堆叠式 NAND HBF 或将成为 AI 未来的关键

智能计算 时间:2025-09-15来源:TrendForce

根据 The Elec 的报道,KAIST 教授金正浩指出,HBF(高带宽闪存)——像 HBM 一样堆叠的 NAND 闪存——可能成为 AI 未来的决定性因素。正如报道解释的那样,HBF 在结构上与 HBM 相似,芯片堆叠并通过硅通孔(TSV)连接。关键的区别在于 HBF 使用 NAND 闪存代替了 DRAM。

AI 瓶颈主要受限于内存带宽

报告指出,金(Kim)强调当前 AI 受限于内存带宽和容量。他解释说,今天的基于 Transformer 的模型可以处理高达 100 万个 token 的序列,需要 TB 级的数据。当这些数据必须每秒读取和写入数千次时,有限的带宽会导致大型语言模型(LLM)服务如 OpenAI 的 ChatGPT 或 Google 的 Gemini 变慢。

报告引用金的话解释说,瓶颈源于冯·诺依曼架构——现代计算机的基本设计——其中 CPU 或 GPU 与内存物理分离,使得它们之间的数据传输带宽至关重要。

超越 DRAM:HBF 如何为未来 AI 提供动力

为了应对这些挑战——特别是随着未来 AI 需求可能扩展到生成电影长度的视频,这将需要比目前内存容量大 1000 倍以上——金强调,较慢但容量更高的 NAND 闪存可以作为补充。他解释说,虽然 NAND 闪存比 DRAM 慢,但它提供了大约 10 倍的容量,这对于支持下一代 AI 可能至关重要。

金强调,HBF 可以通过直接在 GPU 上存储大型 AI 模型来克服 HBM 的容量限制。在这个框架中,HBM 作为快速数据处理的缓存,而 HBF 存储本身的大型 AI 模型,他如报告所述。

值得注意的是,美国 NAND 存储领导者闪迪今年早些时候宣布,正在开发 HBF 技术,并与 SK 海力士签署了一项具有里程碑意义的谅解备忘录,共同制定规范,根据其新闻稿。闪迪计划在 2026 年下半年提供 HBF 样品,预计最早在 2027 年初推出第一代 AI 推理设备。据报道,其第一代 HBF 将采用 16 层内存,每堆栈高达 512GB——带宽与 HBM 相当,容量增加 8 至 16 倍。


关键词: AI 内存 HBM HBF

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版