随着 Liquid AI 发布其第二代 Liquid Foundation 模型 LFM2,设备端人工智能领域取得了重大飞跃。这一系列全新的生成式 AI 模型代表了边缘计算的范式转变,在保持竞争性质量标准的同时,提供了专为设备端部署而设计的前所未有的性能优化。
性能提升
LFM2 通过在多个维度上实现显著的效率提升,在边缘 AI 领域树立了新的标杆。与 Qwen3 相比,该模型在 CPU 架构上实现了 2 倍的解码和预填充性能提升,这对于实时应用而言至关重要。更令人印象深刻的是,训练过程本身也经过优化,与上一代 LFM 相比,训练速度提升了 3 倍,这使得 LFM2 成为构建高性能通用 AI 系统的最具成本效益的途径。
这些性能提升并非仅仅是渐进式的,而是在资源受限的设备上实现强大 AI 的根本性突破。这些模型经过专门设计,旨在实现毫秒级延迟、离线弹性和数据主权隐私——这些功能对于手机、笔记本电脑、汽车、机器人、可穿戴设备、卫星以及其他必须实时推理的终端至关重要。
混合架构创新
LFM2 的技术基础在于其新颖的混合架构,该架构融合了卷积和注意力机制的优势。该模型采用复杂的 16 块结构,由 10 个双门控短程卷积块和 6 个分组查询注意力 (GQA) 块组成。这种混合方法借鉴了 Liquid AI 在 Liquid 时间常数网络 (LTC) 方面的开创性工作,该工作引入了连续时间循环神经网络,其线性动态系统由非线性输入互连门调制。
该架构的核心是线性输入变化 (LIV) 算子框架,该框架能够根据输入动态生成权重。这使得卷积、递归、注意力机制和其他结构化层能够归入一个统一的输入感知框架。LFM2 卷积模块实现了乘法门和短卷积,从而创建线性一阶系统,该系统在有限时间后收敛于零。
架构选择过程采用了 Liquid AI 的神经架构搜索引擎 STAR,该引擎经过修改,可以评估超越传统验证损失和困惑度指标的语言建模能力。取而代之的是,它采用了一套包含 50 多项内部评估的综合套件,用于评估各种能力,包括知识回忆、多跳推理、对低资源语言的理解、指令遵循和工具使用。

全面的型号阵容
LFM2 有三种战略尺寸配置: 参数分别为 350M、700M 和 1.2B,针对不同的部署场景进行了优化,同时保持了核心效率优势。所有模型都是在精心策划的预训练语料库中提取的 10 万亿个词块上进行训练的,该语料库由大约 75% 的英语、20% 的多语言内容和 5% 的代码数据组成,这些数据均来自网络和授权资料。
训练方法包括使用现有的 LFM1-7B 作为教师模型进行知识提炼,在整个 10T token 训练过程中,将 LFM2 的学生输出和教师输出之间的交叉熵作为主要训练信号。在预训练过程中,上下文长度扩展到 32k,使模型能够有效处理更长的序列。

卓越的基准性能
评估结果表明,LFM2 在多个基准类别中的表现显著优于类似规模的模型。LFM2-1.2B 模型尽管参数减少了 47%,但性能与 Qwen3-1.7B 相当。同样,LFM2-700M 的表现优于 Gemma 3 1B IT,而最小的 LFM2-350M 检查点仍然与 Qwen3-0.6B 和 Llama 3.2 1B Instruct 相当。
除了自动化基准测试之外,LFM2 在多轮对话中展现出卓越的对话能力。使用 WildChat 数据集和 LLM-as-a-Judge 评估框架,LFM2-1.2B 表现出显著优于 Llama 3.2 1B Instruct 和 Gemma 3 1B IT 的优势,同时在体积更小、速度更快的情况下,其性能与 Qwen3-1.7B 相当。

边缘优化部署
这些模型在实际部署场景中表现出色,已导出到多个推理框架,包括 PyTorch 的 ExecuTorch 和开源 llama.cpp 库。在包括三星 Galaxy S24 Ultra 和 AMD Ryzen 平台在内的目标硬件上进行的测试表明,LFM2 在预填充和解码推理速度(相对于模型大小)方面均占据帕累托前沿。
强大的 CPU 性能经过内核优化后,可以有效转化为 GPU 和 NPU 等加速器的性能,使 LFM2 适用于各种硬件配置。这种灵活性对于需要设备端 AI 功能的多样化边缘设备生态系统至关重要。
结论
LFM2 的发布填补了 AI 部署领域中的一个关键空白,即推理从云端向边缘的转变正在加速。通过支持毫秒级延迟、离线操作和数据主权隐私,LFM2 为消费电子、机器人、智能家电、金融、电子商务和教育等领域的 AI 集成开辟了新的可能性。
LFM2 所代表的技术成就标志着边缘 AI 技术的成熟,其模型能力与部署效率之间的权衡正在得到成功优化。随着企业从云端 LLM 转向经济高效、快速、私有且本地化的智能,LFM2 将自身定位为下一代 AI 驱动设备和应用的基础技术。
更多信息请查看:https://www.liquid.ai/blog/liquid-foundation-models-v2-our-second-series-of-generative-ai-models
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/jishu/59723.html