就在美光(Micron)刚刚驳斥“HBM4被搁置”的传闻后,另一家存储巨头三星(Samsung)随即宣布已启动HBM4的量产,并开始出货首批商用产品,在这一关键市场中取得先发优势。根据其新闻稿,三星利用先进的第六代10纳米级(1c)DRAM工艺和4纳米逻辑芯片制程,从一开始就实现了高良率与峰值性能,无需任何重新设计。值得注意的是,三星强调其HBM4可稳定提供11.7 Gbps的数据传输速率,比目前行业主流的8 Gbps标准快约46%。这也比上一代HBM3E(最高9.6 Gbps)提升了1.22倍。此外,公
关键字:
三星 HBM
随着英伟达(NVIDIA)计划于2026年3月中旬在GTC大会上推出下一代AI加速器“Vera Rubin”,三星与SK海力士在HBM4(第四代高带宽内存)领域的竞争正引发市场高度关注。据韩联社(Yonhap News)和《韩国经济新闻》(Hankyung)报道,三星有望成为全球首家在农历新年后实现HBM4量产并出货的厂商,但其初期市场份额预计仅在25%左右。《韩国经济新闻》援引业内人士消息称,英伟达已于2025年底初步分配了HBM4的采购份额:SK海力士获得最大份额,约为55%;三星位居第二,占比约25
关键字:
存储 HBM 三星
三星用于人工智能加速器的 HBM3 与 HBM3E 芯片此前均存在性能问题。为获得英伟达的认证许可,三星去年不得不对其 HBM3E 芯片进行重新设计。即便如此,这些经过改版的 HBM3E 芯片也仅用于英伟达在中国市场销售的部分特定人工智能加速器产品中。而如今三星的市场地位得到显著巩固,其研发的 HBM4 芯片据悉已接近通过英伟达的认证。三星 HBM4 芯片即将完成英伟达的认证流程,预计于 2026 年 2 月启动量产。该款芯片已于 2025 年 9 月送交英伟达,目前已进入最终的质量验证阶段。一旦量产启动
关键字:
三星 人工智能 HBM 英伟达
据韩国媒体报道,三星半导体正推进一项针对高带宽内存(HBM)的全新 2
纳米工艺项目,计划为不同客户需求开发定制化 HBM 逻辑芯片。 报道引述业内人士称,尽管具体客户名单尚未披露,但三星 HBM
开发团队已经着手为下一代产品预研使用“先进至 2 纳米”的晶圆代工制程,为未来数代 HBM 解决方案奠定基础。目前尚不清楚该计划最终将采用三星自家代工体系中的 SF2 还是 SF2P 等 2 纳米节点。现有信息显示,三星的第六代
HBM 产品线(HBM4)预计将基于 4 纳米制程,外界普遍推测来自
关键字:
三星 2 纳米 HBM 逻辑芯片
三星正在加大对定制HBM逻辑芯片的开发力度。据ZDNet报道,消息人士称公司正在设计用于定制HBM的逻辑芯片,采用先进的代工工艺节点如2nm。报道补充说,三星电子此前已将4nm工艺应用于HBM4(第六代HBM)所用的逻辑芯片,该芯片将于今年进入商业生产。报告解释说,随着 HBM 技术的进步,逻辑芯片的设计和制造方法也相应演进。自计划于2026年量产的HBM4起,逻辑芯片采用代工工艺制造,而非传统的DRAM工艺,体现了代工制造的性能和能效优势。关于三星电子,报告称该公司采用了4纳米工艺制造HBM4逻辑芯片。
关键字:
三星 HBM
当HBM叠上GPU,散热难题如何成为算力突破的 “拦路虎”?
关键字:
HBM
深入了解AMD或英伟达最先进的AI产品包装,你会发现一个熟悉的布局:GPU两侧被高带宽内存(HBM)覆盖,这是市面上最先进的内存芯片。这些内存芯片尽可能靠近它们所服务的计算芯片,以减少人工智能计算中最大的瓶颈——将数十亿比特每秒从内存转化为逻辑时的能量和延迟。但如果你能通过将 HBM 叠加在 GPU 上,让计算和内存更加紧密结合呢?Imec最近利用先进的热仿真探讨了这一情景,答案在2025年12月的IEEE国际电子器件会议(IEDM)上给出,颇为严峻。3D叠加会使GPU内部的工作温度翻倍,使其无法使用。但
关键字:
Imec GPU HBM 封装
在存储行业深陷人工智能(AI)驱动的繁荣浪潮之际,各大存储厂商正一致将战略重心转向具备高带宽、大容量、低功耗特性的 AI 导向型存储解决方案。随着高带宽内存(HBM)的需求持续激增,部分厂商 2026 年的 HBM 产能已被完全预订一空,这一趋势将使 HBM 相关设备供应商直接受益。由于 HBM 采用多层堆叠式 DRAM 架构,其堆叠层数会随性能需求不断增加。这一特点导致芯片间互连工艺更趋复杂,同时显著增加了所需的加工步骤。除国际设备巨头外,中国设备供应商也在积极布局 HBM 设备领域,产品覆盖刻蚀、沉积
关键字:
HBM 刻蚀设备
HBM(高带宽内存)作为当前 AI 加速器 GPU 的核心配置,凭借垂直堆叠的薄 DRAM 芯片结构,以超高数据带宽为 AI 训练与推理提供了关键支撑,成为 AI 算力爆发的重要基石。然而,HBM 存在两大显著短板:一是成本居高不下,其价格较普通 DDR 内存高出一个数量级;二是容量增长受限,受限于 DRAM 内存密度缩放的技术瓶颈,即便如英伟达 Blackwell GPU 搭载 8 个 24GB HBM3e 芯片堆栈(总容量 192GB),也难以满足模型规模爆炸式增长、上下文长度拓展及 AI
关键字:
HBF HMC HBM
随着人工智能基础设施的逐步扩充,内存供应紧张,价格飙升。《商业时报》援引行业专家的话,预测云高速内存消耗到2026年可能达到3艾字节(EB)。值得注意的是,考虑到高速内存如HBM和GDDR7的“等效晶圆使用量”,报告警告称人工智能实际上可能占全球DRAM供应近20%。报告指出,3EB预计将由三个关键组成部分驱动。首先,跨主要平台——谷歌(Gemini)、AWS(Bedrock)和OpenAI(ChatGPT)——的核心推理工作负载预计实时内存需求将达到约750PB。考虑到实际部署所需的冗余和安全裕度,这一
关键字:
AI DRAM HBM 存储
这项耗资5200万美元的开发项目目标是在本世纪末前完成批量生产。 软银将向Saimemory出资2000万美元。富士通和日本理研国立研究院将出资700万美元。日本政府预计还将补贴部分费用。Saimemory旨在开发存储容量为HBM的2到3倍,且功耗减半且价格相当或更低的内存。它将使用英特尔和东京大学的知识产权和专利。新兴电气工业和Powerchip半导体负责制造和原型制作。英特尔将提供由DARPA资助开发的堆叠技术。Saimemory的方法是利用新颖的互联技术堆叠标准DRAM芯片。另一家采用相同
关键字:
富士通 软银 英特尔 Saimemory HBM 替代方案
近期,关于华为自研存储单元HMC(Hybrid Memory Cube,混合内存立方体)的讨论也在升温,但需要明确的是HMC并非传统意义上的HBM替代方案。华为在存储芯片领域已推出多款自研产品,覆盖高带宽内存、固态存储及AI存储等方向,旨在提升算力效率并降低对外依赖。HBM和HMC两类方案的区别从技术实现上看,HBM依赖中介层实现超宽位宽和极高带宽密度,带宽可达1024-bit甚至更高,但封装复杂、成本高。相较之下,HMC则通过ABF载板实现直接互联,取消中介层,结构更简洁、延迟更低,但带宽能力通常弱于
关键字:
华为 存储 HMC HBM AI
谷歌的TPU作为NVIDIA的有力替代方案正逐渐获得关注,三星也成为ASIC趋势的受益者。据《朝鲜商务》报道,三星电子正在向全球最大的ASIC设计公司博通供应HBM,其第六代HBM(HBM4)据报道已在测试中超过博通的初始性能目标。报告中引用的消息人士指出,三星的HBM4预计将在2026年全面供应,在博通的评估中表现优于其早期的性能目标。继此前几年落后于SK海力士后,三星试图通过增强DRAM和逻辑芯片技术来区分其HBM4产品。报告补充称,迄今为止,半导体行业总体上给予了积极评价。报告指出,三星目前通过博通
关键字:
HBM 谷歌 三星
各大存储器企业正专注于1c DRAM量产的新投资和转换投资。主要内存公司正在加快对 1c(第 6 代 10nm 级)DRAM 的投资。三星电子从今年上半年开始建设量产线,据报道,SK海力士正在讨论其近期转型投资的具体计划。美光本月还获得了日本政府的补贴,用于其新的 1c DRAM 设施。1c DRAM是各大内存公司计划在今年下半年量产的下一代DRAM。三星电子已决定在其 HBM1(第 4 代高带宽内存)中主动采用 6c DRAM。SK海力士和美光计划在包括服务器在内的通用DRAM中使用1c DRAM。三星
关键字:
存储器 1c DRAM AI HBM 三星 SK海力士 美光
hbm介绍
您好,目前还没有人创建词条hbm!
欢迎您创建该词条,阐述对hbm的理解,并与今后在此搜索hbm的朋友们分享。
创建词条
关于我们 -
广告服务 -
企业会员服务 -
网站地图 -
联系我们 -
征稿 -
友情链接 -
手机EEPW
Copyright ©2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《电子产品世界》杂志社 版权所有 北京东晓国际技术信息咨询有限公司
京ICP备12027778号-2 北京市公安局备案:1101082052 京公网安备11010802012473