你的位置:首页 > 新品 > 正文

单机架144个GPU!Supermicro全新液冷B300方案实现超大规模无缝扩展

发布时间:2025-12-19 责任编辑:lina

【导读】Supermicro(超微) 近日宣布其基于 NVIDIA Blackwell架构 的产品线实现重大扩展,正式推出并开始批量供货全新的 4U及2-OU(OCP)液冷式NVIDIA HGX B300系统。这不仅是硬件的迭代,更是其 “数据中心建构组件解决方案” 理念的深化实践,旨在为超大规模数据中心和AI工厂提供前所未有的 GPU计算密度 与 能源效率,直接回应了市场对更高性能、更低总拥有成本的迫切需求。


• 本次推出的4U与2-OU(OCP)液冷NVIDIA HGX B300系统,适用于高密度超大规模设施与AI工厂的部署。这两款机型基于Supermicro Data Center Building Block Solutions®架构,并分别采用DLC-2与DLC散热技术。

• 4U液冷NVIDIA HGX B300系统可适用于标准的19英寸EIA机架,可在每机架内支持最高64个GPU,并能通过DLC-2(直接液冷)技术为最高98%的系统热能进行冷却。

• 紧凑、高能效的2-OU(OCP) NVIDIA HGX B300 8-GPU系统针对21英寸OCP Open Rack V3(ORV3)规格所设计,可在单一机架内支持最高144个GPU。 


Supermicro(超微) 近日宣布其基于 NVIDIA Blackwell架构 的产品线实现重大扩展,正式推出并开始批量供货全新的 4U及2-OU(OCP)液冷式NVIDIA HGX B300系统。这不仅是硬件的迭代,更是其 “数据中心建构组件解决方案” 理念的深化实践,旨在为超大规模数据中心和AI工厂提供前所未有的 GPU计算密度 与 能源效率,直接回应了市场对更高性能、更低总拥有成本的迫切需求。


单机架144个GPU!Supermicro全新液冷B300方案实现超大规模无缝扩展

B300 liquid cooled systems


Supermicro总裁兼首席执行官梁见后表示:"全球的AI基础设施需求正迅速提升,而我们的全新液冷式NVIDIA HGX B300系统可提供现今超大规模计算设施与AI工厂所需的性能密度与能源效率。我们推出了业界最紧凑的NVIDIA HGX B300解决方案,可在单一机架中支持最高144个GPU,并能通过我们经认证的直接液冷技术降低电力消耗与散热成本。这是Supermicro借由DCBBS技术,助力客户进行大规模AI部署的模式:更快的上市时程、最大化的每瓦性能,以及从设计到部署的端到端整合。"



全新 2 - OU(OCP)液冷 NVIDIA HGX B300 系统依据 21 英寸 OCP Open Rack V3(ORV3)规格打造,专为超大规模计算设施与云端服务供应商设计。它能在单一机架中容纳最高 144 个 GPU,实现 GPU 密度的最大化,同时节省机房空间,且不影响维护作业。


该系统采用机架级设计,具备盲插式冷却液歧管、模块化 GPU/CPU 托盘架构以及先进的组件液冷解决方案。它通过 8 个 NVIDIA Blackwell Ultra GPU(每个最高 1,100W TDP)运行 AI 工作负载,大幅降低机架占用空间与电力消耗。单一 ORV3 机架可支持最多 18 个节点及 144 个 GPU,还能通过 NVIDIA Quantum - X800 InfiniBand 交换器及 Supermicro 1.8MW 机架列间式冷却液分配单元(CDU)进行无缝扩充。8 个 NVIDIA HGX B300 计算机架、3 个 NVIDIA Quantum - X800 InfiniBand 网络机架以及 2 个 Supermicro 机架列间式 CDU,可整合成一组搭载 1,152 个 GPU 的超级集群可扩充式单元。


4U前置I/O式HGX B300液冷系统作为2-OU(OCP)系统的对应机型,可在传统式19英寸EIA机架架构内提供相同的计算性能,适用于大规模AI工厂部署。此4U系统采用Supermicro DLC-2技术,能通过液冷式配置为最高98%的系统热能进行散热,进而为密集式训练与推论集群实现更佳的能源效率与可维护性,以及更低的噪音等级。


Supermicro NVIDIA HGX B300 系统通过每台机组的 2.1TB HBM3e GPU 内存大幅提升性能,能够以系统层级运行更大规模的模型。2 - OU(OCP)与 4U 平台均能带来集群等级的高度性能提升,通过整合 NVIDIA ConnectX® - 8 SuperNIC,并搭配 NVIDIA Quantum - X800 InfiniBand 或 NVIDIA Spectrum - 4 Ethernet,可使计算网络处理量提升至两倍(最高可达 800Gb/s)。这些优势可加速代理式 AI(Agentic AI)应用、基础模型训练以及 AI 工厂内多模态的大规模推论等大量 AI 工作负载。


Supermicro基于客户在总体拥有成本(TCO)、可维护性与效率等方面的核心需求,开发了这些平台。DLC-2技术堆栈可使数据中心减少最高可达40%的电力消耗1,并通过45°C温水运行降低用水量,以及省去对冷却水与压缩机的需求。Supermicro DCBBS技术可在出货前对这些新系统进行L11与L12的机架式完整验证与测试,协助超大规模设施、企业级客户加速启动上线。


结语


Supermicro此次扩大NVIDIA Blackwell产品系列,并力推液冷解决方案,清晰地指明了下一代AI基础设施的发展方向:更高密度、更优能效、更大规模、更快交付。这不仅是两款新服务器的发布,更是其通过模块化、预制化和液冷化技术,帮助客户应对AI算力规模扩张中总体拥有成本挑战的战略体现。随着这些系统开始大量出货,全球AI算力竞赛的舞台,正迅速转向由液冷技术和极致密度所定义的新战场。

我爱方案网


推荐阅读:

为收藏家而生:微星十周年超神 GODLIKE主板限量千块,售价破9000元

效率高达97.7%!金升阳新推出非隔离通信电源KCR系列内置PMBus的数字掌控力

力芯微推出恒流驱动芯片ET61626,专为LED矩阵显示设计

告别外接桥芯!兆易创新发布750MHz MCU,适用于高端工控与消费电子

思瑞浦TPC2884 DAC实现0.025%全温精度,让PLC输出模块设计事半功倍

特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索

关闭

 

关闭