今天,GLM-4.7-Flash正式发布并开源。

 

GLM-4.7-Flash是一个混合思考模型,总参数量为30B,激活参数量为3B,作为同级别SOTA模型,为轻量化部署提供了一个兼顾性能与效率的新选择。

 

即日起,GLM-4.7-Flash将替代GLM-4.5-Flash,在智谱开放平台http://BigModel.cn上线,并供免费调用。

 

模型开源:

https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash

小而强

在SWE-bench Verified、τ²-Bench等主流基准测试中,GLM-4.7-Flash的综合表现超过gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在相同和近似尺寸模型系列中取得开源SOTA分数。

 

在内部的编程实测中,GLM-4.7-Flash在前、后端任务上表现出色。在编程场景之外,也推荐大家在中文写作、翻译、长文本、情感/角色扮演等通用场景中体验GLM-4.7-Flash。

 

开始使用

  • 体验中心:
    https://bigmodel.cn/trialcenter/modeltrial/text?modelCode=glm-4.7-flash
  • 使用指南:
    https://docs.bigmodel.cn/cn/guide/models/free/glm-4.7-flash
  • 接口文档:
    https://docs.bigmodel.cn/api-reference/模型-api/对话补全

    上一代免费语言模型GLM-4.5-Flash将于2026年1月30日下线,请及时将模型编码更新为最新版本。GLM-4.5-Flash正式下线后,相关请求将会自动路由至GLM-4.7-Flash。

 

点击即可跳转模型链接:

https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash

 

Logo

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

更多推荐