你的位置:首页 > 市场 > 正文

英伟达2027年试产3nm自研HBM Base Die,破解AI芯片存储瓶颈

发布时间:2025-08-21 来源: 责任编辑:zoe

【导读】2025年8月,全球AI芯片龙头英伟达宣布一项关键战略举措:将于2027年下半年小规模试产自研HBM(高带宽内存)Base Die,采用台积电3nm工艺制造。这一动作直指其长期以来的“短板”——HBM依赖症。作为AI芯片的“数据管道”,HBM的性能与能效已成为制约英伟达GPU/CPU发挥极限算力的核心瓶颈,而此次自研Base Die,不仅是为了降低对SK海力士、三星等存储巨头的依赖,更旨在通过垂直整合存储架构,优化HBM与算力核心的匹配度,巩固其在高性能计算领域的领先地位。


英伟达q.gif



一、痛点倒逼:HBM成AI芯片“成本与性能双瓶颈”

在英伟达从A100到Blackwell Ultra的AI芯片迭代中,HBM的角色愈发关键:其成本占比已从2020年的30%飙升至2024年的50%以上,成为芯片BOM(物料清单)中最贵的组件;而在性能层面,HBM的带宽直接决定了AI模型(如GPT-4、Gemini Ultra)的推理速度——当模型参数从万亿级跃升至十万亿级,HBM的传输速率需同步提升至10Gbps以上(HBM4标准要求),否则会出现“算力过剩、内存 bottleneck”的尴尬。

当前,HBM市场由SK海力士(占比约45%)、三星(30%)、美光(20%)主导,英伟达作为最大采购商,虽能通过规模效应议价,但始终无法突破“存储厂商定义Base Die功能”的限制。例如,SK海力士的HBM3e Base Die采用5nm工艺,虽能满足当前需求,但无法适配英伟达下一代GPU的“能效优化”设计——这也是其决定自研的核心动因。


二、自研路径:3nm工艺+功能定制,强化垂直整合

英伟达此次自研的HBM Base Die,并非简单复制现有产品,而是围绕“适配自身算力架构”做了两大升级:

  • 工艺迭代:采用台积电3nm逻辑制程(当前HBM Base Die多为5-7nm),更适合HBM4时代的高传输速率要求(10Gbps以上),同时降低功耗(预计比5nm工艺减少20%);

  • 功能定制:在Base Die中引入NVLink Fusion协议接口,直接对接英伟达的GPU/CPU核心,提升数据传输效率。例如,传统HBM与GPU的通信需通过第三方中介层,延迟约10ns,而自研Base Die可将延迟缩短至5ns以内,这对需要“低延迟、高并发”的AI推理场景(如自动驾驶、实时翻译)至关重要。


三、战略意图:从“采购者”到“架构定义者”

英伟达自研Base Die的目标,远不止“降低成本”:

  • 打破技术壁垒:当前HBM的Base Die设计由存储厂商主导,英伟达无法深度参与功能优化(如纠错机制、缓存策略)。自研后,可将Base Die与自身GPU的“张量核心”“Transformer引擎”做协同设计,实现“算力-存储”的端到端优化;

  • 强化生态控制:通过Base Die的模组化设计,英伟达可将HBM与NVLink Fusion开放架构绑定,吸引联发科、世芯等合作伙伴采用其存储方案——这些厂商无需自行设计Base Die,只需采购英伟达的模组,即可快速集成到自家AI芯片中,从而扩大英伟达生态的覆盖范围;

  • 提升议价能力:自研Base Die后,英伟达将从“全依赖采购”转变为“部分自研+部分采购”,对SK海力士等厂商的议价权将显著增强——未来,存储厂商的角色可能从“全面HBM提供者”退化为“Base Die组件供应商”。


四、行业影响:HBM市场迎来“算力厂商定义规则”时代

英伟达的入局,将彻底改变HBM市场的竞争格局:

  • 存储厂商的应对:SK海力士已宣布加速HBM4量产(计划2026年推出),并开放Base Die的“定制化接口”,试图挽留英伟达等大客户;三星则联合台积电,推出“7nm HBM Base Die+3nm GPU”的协同设计方案,应对竞争;

  • 上游产业链受益:自研Base Die将带动混合键合(Hybrid Bonding) 、新型中介层(Interposer) 等配套技术的需求增长——这些技术是实现HBM与GPU高密集成的关键,预计2027年全球混合键合市场规模将从2024年的15亿美元增长至30亿美元;

  • AI芯片生态重构:英伟达通过“算力核心+存储核心”的垂直整合,将进一步拉开与AMD、英特尔等竞品的差距——例如,AMD的MI300X芯片虽采用HBM3e,但因无法定制Base Die,其内存能效比英伟达Blackwell Ultra低18%。


五、未来展望:2027年试产,2028年规模化应用

英伟达表示,2027年下半年的试产将重点验证3nm Base Die的良率(目标≥80%) 与功能兼容性(与下一代GPU的匹配度),若进展顺利,2028年将逐步规模化应用于其旗舰AI芯片(如Blackwell 2系列)。届时,英伟达的AI芯片将实现“算力核心(GPU/CPU)+存储核心(自研HBM Base Die)+ 互连核心(NVLink Fusion)”的全栈自主,其在高性能计算领域的竞争力将进一步强化。


结语

英伟达自研HBM Base Die,是其从“算力提供者”向“架构定义者”转型的关键一步。通过解决HBM这个“卡脖子”问题,不仅能降低成本、提升性能,更能通过垂直整合存储架构,巩固其在AI芯片市场的垄断地位。对于整个行业而言,这一举措将推动HBM市场从“存储厂商主导”转向“算力厂商定义”,加速AI芯片的“算力-存储”协同优化,为下一代十万亿参数模型的落地铺平道路。



我爱方案网


推荐阅读:

SiC如何重塑工业充电设计?隔离DC-DC拓扑选型指南

德州仪器电源路径充电技术解析:如何实现电池寿命与系统性能的双赢?

力芯微ET75016激光驱动芯片:重新定义TOF 3D传感精度与效率

多维科技TMR13Nx磁开关芯片:重新定义智能笔360°无死角唤醒体验

Littelfuse推出DO-214AB封装2kA浪涌保护晶闸管,革新电源安全设计


特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索
 

关闭

 

关闭