你的位置:首页 > 市场 > 正文

2023年全球AI服务器出货量将增长38.4%,AI芯片将增长46%!

发布时间:2023-06-29 来源: 责任编辑:wenwei

【导读】5月29日信息,根据市场研究机构TrendForce公布的最新报告显示, 预计2023年AI服务器(含搭载GPU、FPGA、ASIC 等)出货量近 120万台,同比增长38.4%,占整体服务器出货量近 9%,预计到2026年占比将提升至15%,同时上调2022~2026年AI服务器出货量年复合成长率至 22%。另外,预计AI服务器芯片2023年出货量将增长 46%。


2.jpg


TrendForce表示,英伟达(NVIDIA)GPU为AI服务器市场搭载的主流芯片,市占率约60%~70%,其次为云端业者自研的AISC芯片,市占率超过20%。观察NVIDIA市占率高的要原因有三:


3.png


第一,不论美系或中系云端服务业者(CSP),除了采购NVIDIA A100与A800,下半年需求也陆续导入NVIDIA H100与H800,尤其是新的H100与H800平均销售单价约为前代A100与A800的2~2.5倍,再加上NVIDIA积极销售自家整体解决方案。


第二,高端GPU A100及H100的高获利模式也是关键,NVIDIA旗下产品在AI服务器市场已拥有主导权优势,TrendForce研究称,H100本身价差也依买方采购规模,会产生近5千美元差距。


第三,下半年ChatGPT及AI计算风潮将持续渗透各专业领域(云端/电商服务、智能制造、金融保险、 智慧医疗及智能驾驶辅助等)市场,同步带动每台搭配4~8张GPU的云端AI,以及每台搭载2~4张GPU的边缘AI服务器应用需求渐增,今年搭载A100及H100的AI服务器出货量年增率将超过50% 。


此外,从高端GPU搭载的HBM内存来看,NVIDIA高端GPU A100、H100主要采用的是HBM2e、HBM3内存。以今年H100 GPU来说,搭载HBM3技术规格,传输速度也较HBM2e快,提升整体AI服务器系统计算性能。随着高端GPU如NVIDIA A100、H100,AMD MI200、MI300,以及Google自研TPU等需求皆逐步提升,TrendForce预估2023年HBM需求量将年增58%,2024年有望再增长约30%。



免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。


推荐阅读:


预计从6月开始LCD TV面板价格涨幅将有所收窄

这类芯片接近原料成本价?曙光或在前方!

【现货行情】市场复苏仍有难度,DDR5颗粒重回跌势

与美光、SK海力士分道扬镳,传三星不走3D DRAM路线

友达:PC看到急单 面板库存逐渐回健康水准

特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索
 

关闭

 

关闭