近日,Liquid AI 正式推出了其 Liquid 基础模型系列的新成员——LFM2.5-1.2B-Thinking。这款拥有12亿参数的推理模型在端侧设备部署上取得了显著突破。令人印象深刻的是,该模型在现代手机上的运行占用仅约900MB,这意味着两年前还需要数据中心支撑的推理能力,现在已能完全离线运行在个人移动设备上。

​Liquid AI 发布 1.2B 推理模型:不到 1GB 内存,手机端侧即可运行“思考”模式

与侧重于日常对话的通用模型不同,LFM2.5-1.2B-Thinking专为复杂的逻辑推理、数学运算及工具调用而设计。它在生成最终答案前会先产生内部的“思考痕迹”(thinking traces),这类似于人类的解题过程,能够有效规划步骤并验证中间结果,极大地提升了处理多步骤指令的准确性。

在实际性能表现上,该模型展现了极高的效率。它在 AMD CPU 上的解码速度可达每秒239个字符,而在移动 NPU 上的运行速度也达到了每秒82个字符。通过引入多阶段强化学习(RLVR)等先进训练技术,研发团队成功将推理模型中常见的“循环死机”率从15.74% 降低至0.36%,确保了端侧用户体验的流畅与稳定。