Liquid AI最新实验性模型LFM2-2.6B-Exp发布

AI资讯 9小时前 硕雀
3 0

Liquid AI LFM2‑2.6B‑Exp(实验性模型)概览


1. 模型定位与背景

LFM2‑2.6B‑Exp 是 Liquid AI 在第二代 Liquid Foundation Model (LFM2) 系列中推出的最大、最新的实验性模型。它在 2.6 B 参数规模下,展示了“小模型也能实现大模型水平”的理念,专为 边缘设备CPU、异构 NPU)以及 多语言全局应用 设计。该模型于 2025 年 9 月在 Liquid AI 官方博客正式发布。


2. 核心架构特点

关键技术 说明
混合骨干网 通过 硬件‑in‑the‑loop 架构搜索,结合 短程门控卷积Gated Convolution‍ 与 分组查询注意力(Grouped‑Query Attention, GQA‍,在保持紧凑参数的同时提升推理速度与 KV 缓存效率
层次化模块 采用 16 块结构:前置 LIV(Linear Input‑Varying)卷积块 → 中间 GQA 块 → 后置 SwiGLU 变体(MoE 版)
上下文长度 支持 32 K token 超长上下文,适配检索增强生成RAG)等长序列任务
稀疏专家扩展 除密集 2.6 B 版本外,还提供 LFM2‑8B‑A1B(8.3 B 总参数、1.5 B 活动参数)MoE 变体,兼顾质量与算力需求

3. 训练数据与多语言能力

  • 训练语料:约 10 万亿 token,覆盖多语言网页、书籍、代码等多模态文本。
  • 语言覆盖:原生优化 英语、日语,在 法、德、意、西、葡、阿、中文、韩语 等 9 种语言上均表现良好,尤其在 中文 与 日语 的指令遵循上接近 80% 以上。

4. 性能评估(主要基准)

基准 结果 说明
GSM8K(数学推理) 82.41% 超越多数 3 B‑级模型
IFEval(指令遵循) 79.56% 与更大模型相当
MMLU(多任务语言理解) 约 55%(1.2 B 版) 仍保持竞争力
CPU 推理 ≈2× 预填充/解码速度提升(相较同规模基线) 受益于混合卷积‑GQA 设计

5. 部署、开源与生态

  • 开源平台:已在 Hugging Face 上以 LFM 开放许可(允许商业使用)发布模型权重。
  • 推理框架:兼容 Transformersllama.cppvLLMExecuTorch 等主流推理后端,提供 量化(int8/4bit)‍ 版本以适配资源受限设备。
  • 边缘适配:在 CPU、ARM、GPU、以及专用 NPU 上均实现 毫秒级延迟,适用于智能手机、嵌入式系统、IoT 设备等场景。

6. 实验性特性(Exp)

LFM2‑2.6B‑Exp 在正式版基础上加入以下实验性功能,供研究者与开发者探索:

  1. 超长上下文微调:针对检索增强生成(RAG)任务的 32 K‑token 微调流程。
  2. 多模态扩展:提供 LFM2‑VL(视觉‑语言)和 LFM2‑Audio(语音)实验分支,复用同一骨干网络实现跨模态推理。
  3. 动态稀疏激活:在推理时可根据输入长度自动切换 稀疏专家 与 密集路径,进一步降低峰值内存。
  4. 工具调用模板:内置 function‑calling 模板,支持在对话中直接调用外部 API(如检索、计算器等)。

这些实验特性均在技术报告的 后训练(post‑training)‍ 阶段进行验证,旨在探索 高效、可扩展的边缘 AI 未来方向。


7. 典型应用场景

场景 价值体现
本地化客服/助理 低延迟、离线运行,保护用户隐私
移动端多语言翻译 支持 9 种语言,适配 2 GB 以下内存设备
边缘检索与问答 32 K 超长上下文,配合 RAG 可实现本地文档搜索
实时视觉‑语言交互 通过 LFM2‑VL 分支实现手机端图像描述、AR 辅助等

8. 获取方式

  • 模型权重:访问 Hugging Face 组织 liquid-ai,搜索 LFM2-2.6B-Exp 即可下载。
  • 文档与示例:官方博客(2025‑09‑08)提供完整的 部署指南、量化脚本 与 API 示例
  • 许可证:采用 LFM 开放许可,允许商业使用但需保留原始版权声明。

小结
LFM2‑2.6B‑Exp 通过 混合卷积‑GQA 架构10 万亿 token 大规模预训练 与 多语言全覆盖,在 2.6 B 参数规模下实现了接近 3 B‑级模型的推理质量,同时保持 边缘设备友好的算力与内存需求。其实验性特性为后续的 跨模态、超长上下文 与 工具调用 提供了可验证的技术路径,是当前最具前瞻性的轻量化大模型之一。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!