你的位置:首页 > 新品 > 正文

参数744B、编程能力逼近Claude Opus 4.5:GLM-5发布,海光DCU率先支持

发布时间:2026-02-12 责任编辑:lily

【导读】2026年2月11日,智谱AI正式开源发布其最新一代大模型GLM-5,标志着国产大模型在通用智能、编程能力与智能体(Agent)任务方面迈入新阶段。与此同时,海光DCU凭借自研AI软件栈与开放生态优势,实现对GLM-5的Day0级别适配与深度优化,率先为全球开发者和企业用户提供高效、即用的部署方案。这一“国产算力+国产大模型”的强强联合,不仅显著提升了模型落地效率,也为中国AI技术自主创新注入强劲动能。


20260212100954641.png


GLM-5在Coding与Agent能力上取得开源SOTA表现,在真实编程场景的使用体感逼近Claude Opus 4.5,擅长复杂系统工程与长程Agent任务:


参数规模从355B(激活32B)扩展至744B(激活40B),预训练数据从23T提升至28.5T,大幅提升通用智能水平;

构建全新“Slime”异步强化学习框架,支持更大模型规模及更复杂强化学习任务,可通过异步智能体强化学习算法持续从长程交互中学习;

首次集成DeepSeek Sparse Attention稀疏注意力机制,在维持长文本效果无损的同时,大幅降低模型部署成本、提升Token Efficiency。


在本次Day0适配合作中,海光DCU团队深度协同智谱AI,凭借DTK等自研软件栈优势,重点优化底层算子与硬件加速,使GLM-5在海光DCU上实现高吞吐、低延迟的稳定运行,充分发挥“国产算力+国产大模型”价值。


当前,AI大模型正向更高参数、更优性能、更广场景迈进,底层算力的适配能力成为决定模型落地效率的关键因素。海光DCU通过提前布局、快速响应,实现与GLM-5等顶尖大模型的同步适配,不仅为用户提供高效、可靠、低成本的算力解决方案,也打破了“算力与模型脱节”的行业痛点,推动国产算力与大模型的双向赋能。


总结

GLM-5的发布及其与海光DCU的深度协同,彰显了中国在大模型与底层算力协同创新上的突破性进展。通过提前布局、快速响应与软硬一体优化,海光DCU有效破解了“算力与模型脱节”的行业难题,为大模型的高效部署提供了可靠支撑。展望未来,随着更多前沿模型与国产算力平台的深度融合,中国有望在全球人工智能竞争中构筑起自主可控、高效协同的技术生态,持续引领AI产业高质量发展。


3-958x200_20251021044704_586.png

特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索

关闭

 

关闭