智谱AI开源GLM-4.7-Flash

智谱AI(Zhipu AI)的GLM-4.7-Flash是其GLM-4.7系列模型的轻量化、免费层版本,主要定位于本地部署和特定场景的高效应用。以下是关于GLM-4.7-Flash的详细介绍:

1. 核心定位与发布

GLM-4.7-Flash是2026年1月20日由智谱AI正式发布并开源的模型。
它是GLM-4.7系列的“免费层”版本,专门针对编码、智能体工作流和创意任务进行了优化。
该模型旨在填补本地LLM生态系统的关键空白,为开发者提供一个既免费又强大的本地大模型解决方案。

2. 技术规格与架构

  • 模型规模:总参数量为300亿(30B),采用混合思考(MoE‍架构。
  • 活跃参数量:约30亿(3B)。这种设计使其在保留强大推理能力的同时,大幅降低了计算负荷。
  • 上下文窗口:支持长达200K(20万)令牌的上下文长度,适合处理长文档或复杂对话。
  • 推理模式:专注于“思考”能力(Thinking),在多步推理和任务分解方面表现尤为突出。

3. 性能表现

GLM-4.7-Flash在多个主流基准测试中表现优异,属于开源SOTA(最优状态)‍水平:

  • 编程能力:在SWE-bench Verified代码修复测试中取得59.2分,显著超越了同级别的Qwen3-30B和GPT-OSS-20B,表现媲美GPT-4.5-110B级别。
  • 通用能力:在τ²-Bench等评测中表现优于Qwen3-30B和GPT-OSS-20B。
  • 语言生成:在中文写作、长文本处理和角色扮演等任务中表现稳定,是一个兼顾性能与效率的全能型模型。

4. 部署与使用

  • 免费调用:该模型在智谱开放平台BigModel.cn上线后,API调用完全免费。它替代了前代的GLM-4.5-Flash,成为用户免费调用的首选模型。
  • 开源权重:权重已开源,托管在Hugging Face和ModelScope等平台上,允许开发者下载本地部署。
  • 量化选项:官方提供了多种量化版本,用户可根据显存选择:
    • FP8:约30GB,最佳质量
    • Q8:约22GB,性能与质量的最佳平衡
    • Q4:约15GB,最快速度。

5. 授权与商业化

  • 许可证:模型在Hugging Face上的授权条款通常允许商业使用(具体需查看模型卡片上的许可证细节),但属于开放权重。
  • 微调友好:由于模型规模相对可控,GLM-4.7-Flash非常适合进行微调。开发者可以使用Unsloth或Axolotl等框架进行高效训练,定制化自己的AI助手

6. 总结

GLM-4.7-Flash是一个‍“小而强”‍的模型:

  • 它比Qwen3-30B更擅长编码和多步工具使用。
  • 它比纯推理模型在复杂逻辑上更具优势。
  • 它在AI编码助手、本地LLM部署和复杂任务自动化方面具有显著优势。

如果你正在寻找一个能够在本地机器上运行,且在编程和多步推理上表现卓越的免费模型,GLM-4.7-Flash是一个非常值得尝试的选项。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!