腾讯混元发布1.5版开源翻译模型

AI资讯 6小时前 硕雀
2 0

腾讯混元翻译模型 1.5 版详细介绍

2025年12月30日,腾讯混元正式推出并开源了最新的翻译模型 1.5 版(Tencent-HY-MT1.5),该版本是腾讯混元在机器翻译领域的最新成果,针对实际使用场景(如手机端离线翻译、企业级云部署)进行了深度优化。

以下是该模型的核心特点和详细信息:

1. 版本概览与架构

腾讯混元 1.5 版主要包含两个尺寸的模型,分别针对不同的硬件和场景需求:

  • Tencent-HY-MT1.5-1.8B(轻量级版):
    • 参数规模:1.8B(18亿)
    • 核心特点:主要面向手机等消费级设备。经过量化处理,部署时仅需约 1GB 内存即可运行。
    • 部署优势:支持端侧(离线)直接部署,适用于即时通讯、智能客服等需要快速响应的场景,平均响应时间约 0.18秒。
  • Tencent-HY-MT1.5-7B(旗舰版):
    • 参数规模:7B(70亿)
    • 核心特点:基于 1.8B 版升级,重点提升了翻译准确率,减少了译文中夹带注释和语种混杂的问题。
    • 性能优势:在 WMT25 赛项等专业翻译测试集中表现卓越,仅略低于 Gemini-3.0-Pro(超大尺寸闭源模型),远超其他同等尺寸模型。

2. 语言与方言支持

该模型极大地扩展了语言覆盖范围:

  • 支持语种:覆盖 33 种语言,包括中英文、日语等主流语种。
  • 小语种与方言:新增对 5 种民汉/方言 的支持,涉及捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种,满足跨语言沟通需求。

3. 核心技术与优势

  • 端侧与云侧协同部署:模型设计允许在实际使用中同时使用 1.8B(端侧)和 7B(云侧)两个尺寸模型,实现协同部署。这种架构可以在保证端侧实时性的同时,利用云侧模型提升翻译质量的一致性和稳定性。
  • 生态适配:该模型已完成 Day 0 适配,支持在 vllm 框架下进行高效推理,并与 MXMACA 软件栈生态深度融合。

4. 开源与获取

  • 开源状态:腾讯混元已将该模型 正式开源,开发者可以通过开源社区直接下载使用。
  • 相关链接
    • GitHub 仓库https://github.com/Tencent-Hunyuan/HY-MT
    • Hugging Face 页面https://huggingface.co/collections/tencent/hy-mt15
  • 应用落地:模型已在腾讯混元官网上线,并广泛应用于腾讯会议、企业微信等产品中,为企业级用户提供了强大的多语言翻译能力。

总结

腾讯混元翻译模型 1.5 版通过发布 1.8B 和 7B 两个版本,解决了“离线翻译慢”与“云端翻译贵”的痛点。尤其是 1.8B 版在移动端的极致优化,使得用户在无网络或弱网络环境下,也能享受到接近主流大模型水平的翻译服务。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!