【导读】英伟达的H100芯片是当前AI狂潮的核心,但这款处理器少不了搭配使用特殊存储晶芯片来推动秒速的计算,而SK海力士正是英伟达顶级AI处理器芯片最新高频宽存储(HBM)的主要供应商,该公司今年来股价已大涨近60%,涨幅是同业三星电子的近三倍,也远高于美光的约30%涨幅。
英伟达的H100芯片是当前AI狂潮的核心,但这款处理器少不了搭配使用特殊存储晶芯片来推动秒速的计算,而SK海力士正是英伟达顶级AI处理器芯片最新高频宽存储(HBM)的主要供应商,该公司今年来股价已大涨近60%,涨幅是同业三星电子的近三倍,也远高于美光的约30%涨幅。
十年前,SK海力士比同业更积极押注HBM,在其中,动态随机存取存储(DRAM)采取如摩天大厦楼层般的垂直方式堆叠。SKh海力士负责先进存储产品设计的主管朴明在表示,这块领域当时被认为是未知领域。现在,随着仰赖HBM的AI应用崛起,SK海力士已成为早期硬件赢家之一。
SK海力士说,新一代的HBM芯片每秒可处理相当约230部Full HD高画质电影。
ChatGPT等生成式AI工具会消化大量数据,这些数据必须从存储芯片中提取出来并送往处理器进行运算。HBM靠着垂直堆叠式设计,能够密切与英伟达、AMD与英特尔等公司设计的处理器合作,提升性能。
SK海力士与AMD合作,在2013年率先向市场推出HBM,其最新的第四代版本堆叠了12颗传统的DRAM芯片,比先前的8颗更多,并且提供业界最高水准的资料传输效率与散热。
这样的技术需要发明将芯片堆叠和融合在一起的新方法。为了12层的版本,SK海力士使用液体材料来填充每层之间的空间,取代传统采用薄膜的方式。
在SK海力士最新的堆叠制程中,该公司利用高温来确保每个芯片层均匀贴合,并且用701吨的压力来补满间隙。
自2010年来即和SK海力士合作HBM的大学研究人员金正浩表示,大约在十年前,英伟达和AMD便寻求合作伙伴,打造一种能以高速将更大量数据一次传往他们的绘图处理器(CPU)的新型存储芯片。SK海力士以更集中的投资来回应这些请求。
朴明在表示,HBM工作团队起初并不是把AI视为这种新型存储芯片的优先应用领域,而是用来克服“存储墙”,即产业认为运算表现受存储芯片速度限制的难题。他说:“我们当时看好用于高性能运算的HBM最终会促成相关应用。HBM确实为加密货币与稍后的AI发展奠基。”
SK海力士4月表示,预期2023年HBM营收将成长逾50%。花旗分析师表示,在全球DRAM营收中,来自AI需求的占比到2025年将提升至41%,高于今年的16%。
但SK海力士也无法确保维持早期的优先地位,因为三星正准备积极投资,在2024年前将把HBM产量提升一倍。
在这块市场中,三星今年预料将追上SK海力士的市占,两者分别占46%至49%,美光预料拿下约5%的市占。
推荐阅读: