智谱发布了 GLM-5。

随着大模型能力从“写代码”走向“做工程”,行业正由 Vibe Coding 迈向 Agentic Engineering。GLM-5 正是在这一趋势下诞生:在 Coding 与 Agent 能力上达到开源 SOTA,真实编程体验接近 Claude Opus 4.5,尤其擅长复杂系统工程与长程 Agent 任务。

 

在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一。

即日起,GLM-5同步开源,模型权重遵循 MIT License。

 

1. 开源链接

GitHub:https://github.com/zai-org/GLM-5

 

ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-5

 

2. 在线体验

Z.ai:https://chat.z.ai

 

智谱清言APP/网页版:https://chatglm.cn

 

3. 官方 API 接入

BigModel 开放平台:https://docs.bigmodel.cn/cn/guide/models/text/glm-5

 

Z.ai:https://docs.z.ai/guides/llm/glm-5

 

OpenClaw 接入文档:https://docs.bigmodel.cn/cn/coding-plan/tool/openclaw

 

4. Agent

AutoGLM:https://autoglm.zhipuai.cn/?channel=AutoGLM_OpenClaw&redeem_modal_open=1

 

Z Code:https://zcode.z.ai/cn

 

5.Blog:https://z.ai/blog/glm-5

 

模型亮点

更大基座,更强智能

GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:

  • 参数规模扩展:从 355B(激活 32B)扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平。
  • 异步强化学习:构建全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。
  • 稀疏注意力机制:首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency。

Coding 能力:对齐 Claude Opus 4.5

GLM-5 在编程能力上实现了对 Claude Opus 4.5 的对齐,在业内公认的主流基准测试中取得开源模型 SOTA 分数。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.856.2 的开源模型 SOTA 分数,性能超过 Gemini 3 Pro。

 

2026 年,大模型需要从“会写”走到“会完成”,尤其是端到端完成大型任务。GLM-5 是一个“系统架构师”,它不仅为开发精美的 Demo 而生,更为稳定交付生产结果而生。

 

在内部 Claude Code 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7(平均增幅超过 20%),能够以极少的人工干预自主完成 Agentic 长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近 Opus 4.5。

Agent 能力:SOTA 级长程任务执行

GLM-5 在 Agent 能力上实现开源 SOTA,在多个评测基准中取得开源第一:在 BrowseComp(联网检索与信息理解)、MCP-Atlas(工具调用和多步骤任务执行)和 τ²-Bench(复杂多工具场景下的规划和执行)均取得最佳表现。

在衡量模型经营能力的 Vending Bench 2 中,GLM-5 获得开源模型第一的表现。Vending Bench 2 要求模型在一年期内经营一个模拟的自动售货机业务,GLM-5 最终账户余额达到 4432 美元,经营表现接近 Claude Opus 4.5,展现了出色的长期规划和资源管理能力。

 

 

这些能力是 Agentic Engineering 的核心:模型不仅要能写代码、完成工程,还要能在长程任务中保持目标一致性、进行资源管理、处理多步骤依赖关系,成为真正的 Agentic Ready 基座模型。

 

Agenttic Engineering 典型场景

场景一:端到端应用开发

在 OpenRouter 匿名(Pony)上线后,许多开发者使用 GLM-5 完成了真正能用、能玩、能上线的应用。

 

开发者们用 GLM-5 制作出了横版解谜游戏、Agent 交互世界、论文版“抖音”等应用,这些应用已开放下载,或已提交商店审核,详情可关注 GLM-5 案例库(showcase.z.ai)。这些案例展示了 GLM-5 在复杂系统工程中端到端交付可部署产品的能力。

场景二:通用 Agent 助手

GLM-5 较强的 Agentic 工具调用能力,使其成为通用 Agent 助手的理想基座模型。

在 OpenClaw 中接入 GLM-5,用户可以拥有一个智能的实习生,帮你搜索网站、定时整理资讯、发布推文、编程等。官方推出了 AutoGLM 版本的 OpenClaw,支持官网一键完成 OpenClaw 与飞书机器人的一体化配置,帮助用户从数小时缩短到几分钟,极速部署专属 7×24 小时智能助手。

 

场景三:Z Code 全流程编程

当 GLM-5 进化到能跑完整个闭环,编程工具也需要以此为核心重构。为此,智谱推出 Z Code。用户只需把需求说清楚,模型会自动拆解任务,多智能体并发完成代码、跑命令、调试、预览和提交等开发全流程。

在 Z Code 上,用户甚至可以用手机远程指挥桌面端 Agent,解决以往需要很久的工程任务。

 

值得一提的是,Z Code 也是全程由 GLM 模型参与开发完成。

 

场景四:办公文档直接输出

GLM-5 拥有更强大的复杂系统工程和长程智能体能力,可将文本或素材直接转换为 .docx、.pdf 和 .xlsx 文件。

 

在 Z.ai 和智谱清言上,用户可以让 GLM-5 直接输出产品需求文档、教案、试卷、电子表格、财务报告、流程表、菜单等文档。

 

本地部署使用方式

环境准备

 

vLLM, SGLang, and xLLM 均已经在Day0支持GLM-5的部署

  • vLLM

Docker部署:

docker pull vllm/vllm-openai:nightly 

 

或 安装vLLM依赖

pip install -U vllm --pre --index-url https://pypi.org/simple --extra-index-url https://wheels.vllm.ai/nightly

 

然后升级Transformers到最新版本

pip install git+https://github.com/huggingface/transformers.git

 

部署代码

  • vLLM
VLLM_USE_MODELSCOPE=true vllm serve zai-org/GLM-5-FP8 \
     --tensor-parallel-size 8 \
     --gpu-memory-utilization 0.85 \
     --speculative-config.method mtp \
     --speculative-config.num_speculative_tokens 1 \
     --tool-call-parser glm47 \
     --reasoning-parser glm45 \
     --enable-auto-tool-choice \
     --served-model-name glm-5-fp8

 

  • SGLang
SGLANG_USE_MODELSCOPE=true python3 -m sglang.launch_server \
  --model-path zai-org/GLM-5-FP8 \
  --tp-size 8 \
  --tool-call-parser glm47  \
  --reasoning-parser glm45 \
  --speculative-algorithm EAGLE \
  --speculative-num-steps 3 \
  --speculative-eagle-topk 1 \
  --speculative-num-draft-tokens 4 \
  --mem-fraction-static 0.85 \
  --served-model-name glm-5-fp8

 

模型链接:https://modelscope.cn/models/ZhipuAI/GLM-5

Logo

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

更多推荐