你的位置:首页 > 市场 > 正文

AI及HPC需求带动,今年HBM需求容量增近6成

发布时间:2023-06-30 责任编辑:lina

【导读】为解决高速运算,内存传输速率受限于DDR SDRAM带宽无法同步成长的问题,高带宽内存(High Bandwidth Memory,HBM)应运而生,革命性传输效率是让核心运算组件充分发挥效能的关键。市调机构研究显示,高阶AI服务器GPU搭载HBM已成主流,2023年全球HBM需求量年增近六成,到2.9亿GB,2024年再成长三成。


为解决高速运算,内存传输速率受限于DDR SDRAM带宽无法同步成长的问题,高带宽内存(High Bandwidth Memory,HBM)应运而生,革命性传输效率是让核心运算组件充分发挥效能的关键。市调机构研究显示,高阶AI服务器GPU搭载HBM已成主流,2023年全球HBM需求量年增近六成,到2.9亿GB,2024年再成长三成。


AI及HPC需求带动,今年HBM需求容量增近6成

市调机构预估到2025年,全球若以等同ChatGPT的超大型AIGC产品五款、Midjourney中型AIGC产品有25款,以及80款小型AIGC产品估算,所需运算资源至少145,600~233,700颗NVIDIA A100 GPU,加上新兴应用如超级计算机、8K影音串流、AR/VR等,也同步提高云端运算系统负载, 显示高速运算需求高涨。

由于HBM拥有比DDR SDRAM更高带宽和较低耗能,无疑是建构高速运算平台的最佳解决方案,2014与2020年发表的DDR4 SDRAM及DDR5 SDRAM便可究其原因,两者带宽仅相差两倍,且不论DDR5或将来DDR6,追求更高传输效能同时,耗电量也同步攀升,势必拖累运算系统效能表现。若进一步以HBM3与DDR5为例,前者带宽是后者15倍,且能透过增加堆叠颗粒数量提升总带宽。HBM可取代部分GDDR SDRAM或DDR SDRAM,更有效控制耗能。

市调机构表示,主要由搭载NVIDIA A100、H100、AMD MI300及大型CSP业者如Google、AWS等自研ASIC的AI服务器成长需求较强劲,今年AI服务器出货量(含搭载GPU、FPGA、ASIC等)出货量预估近120万台,年增率近38%,AI芯片出货量同步看涨,可望成长突破五成。


免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。


推荐阅读:

美光将于2024年推出GDDR7显存,采用1β工艺节点

存储市场遇寒冬 Q1半导体营收英特尔超越三星居第一

台积电:下半年晶圆厂产能利用率将大幅提升,订单数显著增长

折叠屏手机普及推动 OLED显示屏2027年出货达6100万片

美光加大减产力度至30% 减产将持续至2024年

特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索
 

关闭

 

关闭