通义千问(Qwen)在 2026 年 2 月底发布了 Qwen3.5 开源家族 的最新扩容计划,新增了三款中大型模型,并同步上线了 Qwen3.5-Flash 托管服务。这次更新显著丰富了模型矩阵,覆盖了从高性能推理到资源受限场景的需求。
以下是详细的模型介绍与托管服务信息:
1. 新增模型一览
本次扩容主要在旗舰模型 Qwen3.5-397B-A17B 的基础上,推出了更轻量化但性能更均衡的三款新成员:
| 模型名称 | 参数规模 | 关键特点与适用场景 |
|---|---|---|
| Qwen3.5-122B-A10B | 1220 亿 | 具备强大的多步推理与工具调用能力,适用于复杂任务的高效处理。 |
| Qwen3.5-35B-A3B | 350 亿 | 在多模态和长文本处理上表现突出,评测分数超越了前代模型。 |
| Qwen3.5-27B (Dense) | 270 亿 | 参数精简,显存占用低,适合资源受限的部署场景。 |
这些模型均已开源,用户可以通过 GitHub、Hugging Face 或 魔搭社区 下载权重进行本地部署或二次开发。
2. 托管服务 (Qwen3.5-Flash)
除了开源权重,阿里云还上线了对应的 托管服务(API 服务),主要针对企业级应用:
- Qwen3.5-Flash:作为托管服务版本,主要通过 API 或云端提供生产级特性,支持更长的上下文(100 万 Tokens)并内置了工具链,适合企业快速集成和线上部署。
- 平台:该服务已在 阿里云百炼平台 正式上线,开发者可以直接在线体验并接入现有业务。
3. 其他相关信息
- 语言支持:Qwen3.5 系列扩展支持了 201 种语言,词表大小从 15 万扩展到 25 万,大幅提升了小语种的编码效率。
- 发展路线:阿里官方表示,未来还将继续开源不同尺寸、不同功能的 Qwen3.5 系列模型,并计划发布更高性能的旗舰模型 Qwen3.5-Max。
这次更新不仅增强了模型的多样性与适用性,也为开发者提供了更多灵活的部署选择(本地部署 vs 云端托管)。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!