MiniMax Agent 平台上线开源编码和代理模型 MiniMax M2.1

AI解读 2小时前 硕雀
2 0

MiniMax Agent 平台概览
MiniMax Agent 是 MiniMax 在 2025 年底推出的面向开发者和企业的“一站式”智能体工作流平台。平台提供网页端(https://agent.minimax.io/ )和 App 两种入口,用户可以直接在浏览器中创建、调度和管理基于大模型的 Agent,支持 闪电模式(快速对话、轻量编码)和 专业模式(长链工具调用、复杂任务规划)。平台内置了 MiniMax‑M2 驱动的 Agent,实现了从 代码生成 → 多文件编辑 → 编译‑运行‑修复 的完整闭环,亦可用于 PPT/报告生成、网页开发等非编码场景。

开源编码资源

MiniMax M2.1(MiniMax‑M2)模型概述

项目 说明
模型架构 大规模 Mixture‑of‑ExpertsMoE‍,总参数约 230 B,激活参数仅 10 B,实现了“巨型模型思考 + 小模型成本” 的平衡
核心能力 Agent:多步规划、工具调用、长链任务执行;
Coding:支持多文件编辑、自动编译‑运行‑修复、单元测试验证;
深度搜索:可在大规模文档/代码库中进行高效检索
性能表现 在 AASOTA 等公开榜单上,M2.1 的编码与 Agent 能力分别超过 Google Gemini 2.5 Pro、Anthropic Claude 4.1,位列开源模型前五
推理成本 官方定价为 每百万 Token 输入 0.3 美元、输出 1.2 美元TPS(每秒 Token 产出)约 100,成本仅为 OpenAI GPT‑5 的约 1/6、Claude 4.5 Sonnet 的约 1/10
免费使用 发布后两周(截至 2025‑11‑07)对全球用户 限时免费,包括 API 调用和 Agent 平台使用

使用方式与部署

  1. API 接入:在 MiniMax 开放平台(https://platform.minimax.io/ )申请 API Key,即可通过兼容 OpenAI/Anthropic 的 REST 接口调用 M2.1,支持 chat/completionsembeddings 等标准路径。
  2. 本地部署:下载权重后,使用 vLLM 或 SGLang 启动服务,示例脚本已在 GitHub README 中提供,支持 GPU(单卡 40 GB)或多卡分布式部署。
  3. Agent 编排:在 MiniMax Agent 平台的可视化工作流编辑器中拖拽“工具调用”“代码执行”“结果校验”等节点,即可构建完整的 Agentic 编码流水线,无需手写代码即可完成从需求描述到可运行代码的全流程。

关键技术亮点

  • 高效 MoE 设计:通过稀疏激活,仅激活 10 B 参数,显著降低显存占用和推理时延,同时保持大模型的推理质量。
  • 双模式 Agent:闪电模式侧重低延迟、轻量任务;专业模式侧重高吞吐、复杂工具链,满足不同业务场景的需求。
  • 全链路代码闭环:模型能够自动生成、编辑、编译、运行并根据测试结果进行自我修复,提升开发者生产力。
  • 跨平台兼容:支持 OpenAI、Anthropic、vLLM、SGLang 多种调用方式,便于在云端、私有化或边缘环境中灵活部署。

适用场景

  • 企业内部开发助理:自动生成业务系统代码、快速原型搭建、代码审查与修复。
  • 复杂业务流程自动化:多步骤工具调用(如数据抓取 → 分析 → 报告生成),适用于金融、制造、医疗等行业的业务流程优化。
  • 教学与培训:提供交互式编程练习、即时错误诊断与纠正,帮助学生快速掌握编程概念。
  • 内容创作:利用专业模式生成 PPT、技术文档、网页模板等非编码内容,提升内容生产效率。

总结
MiniMax Agent 平台通过 开源的 MiniMax‑M2(M2.1)模型 与 一体化的 Agent 工作流,实现了“高性能 + 低成本 + 易部署”的组合。模型的 MoE 架构保证了在大模型水平的推理质量的同时,显著降低了算力开销;平台的双模式 Agent 则让用户可以根据任务需求自由切换响应速度与计算深度。凭借免费开放的 API、完整的开源代码以及多语言/多框架的兼容性,MiniMax M2.1 已成为 2025 年国内外开发者进行 AI 编码与智能体 实验的首选基座。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!