【导读】随着AI模型参数规模呈现指数级增长,全球存储原厂正加速推进下一代高带宽闪存(HBF) 的研发进程。这一创新技术旨在突破HBM在容量与成本方面的天然局限,为AI推理场景提供更优化的存储解决方案。据业界确认,HBF将于2026年下半年提供工程样品,2027年正式进入量产阶段,这一进展被普遍视为AI硬件架构演进的重要里程碑。
随着AI模型参数规模呈现指数级增长,全球存储原厂正加速推进下一代高带宽闪存(HBF) 的研发进程。这一创新技术旨在突破HBM在容量与成本方面的天然局限,为AI推理场景提供更优化的存储解决方案。据业界确认,HBF将于2026年下半年提供工程样品,2027年正式进入量产阶段,这一进展被普遍视为AI硬件架构演进的重要里程碑。
市场影响:或重现HBM颠覆性价值
行业观察家指出,HBF的量产可能引发堪比当年HBM问世时的市场变革。当前AI训练系统主要依赖GPU+HBM的组合架构,但随着2026年AI推理应用的全面普及,行业将正式进入以实时交互、长序列推理和多步骤逻辑为特征的AI Agent时代。在这一趋势下,生成式AI模型的Token处理能力已跃升至百万量级,对存储系统提出了前所未有的要求。
技术瓶颈:HBM面临性能极限挑战
在AI推理过程中,系统需要实时处理TB级别的数据规模,这使得HBM在容量扩展性和成本控制方面均遭遇物理极限。业界共识表明,单一存储方案已无法满足AI模型持续膨胀的算力需求,存储架构的革新势在必行。
未来趋势:HBM+HBF混合架构成主流
技术专家预测,未来的GPU计算平台必须采用HBM与HBF的混合架构,通过优势互补的方式应对AI模型规模的持续增长。HBF将主要承担大容量、高带宽的数据存储任务,而HBM则继续专注于高性能计算场景,二者协同工作将共同推动AI硬件性能的跨越式提升。
推荐阅读:
LG显示强攻电视,三星专注显示器,OLED双雄差异化战略见效
iPhone 17中国销量暴增37%!苹果重夺25%市场份额






