圣诞节当天,知名边缘AI初创公司Liquid AI正式发布了其最新实验性模型LFM2-2.6B-Exp,这一仅有2.6B(26亿)参数的小型开源模型,在多项关键基准测试中表现出色,尤其在指令跟随能力上超越了参数量高达数百亿的DeepSeek R1-0528,引发业界广泛热议,被誉为“最强3B级模型”。

模型背景:纯强化学习驱动的实验突破

LFM2-2.6B-Exp基于Liquid AI第二代Liquid Foundation Models(LFM2)系列的2.6B基础模型,通过纯强化学习(RL)方式进行后训练优化,无需监督微调暖启动或大型教师模型蒸馏。该模型继承了LFM2的混合架构优势,结合短程门控卷积和分组查询注意力(GQA),支持32K上下文长度,专为边缘设备(如手机、笔记本、物联网设备)设计,实现高效本地部署。

Liquid AI强调,该实验检查点主要针对指令跟随、知识问答和数学推理等领域进行优化,适用于代理工作流、RAG检索、数据提取、创意写作和多轮对话等场景。

2.6B参数碾压百亿级巨兽!Liquid AI最新实验性模型LFM2-2.6B-Exp发布

性能亮点:小身材爆发大能量

最新基准测试中,LFM2-2.6B-Exp展现出惊人表现:

– IFBench(指令跟随基准):得分大幅领先同级模型,甚至超越参数量263倍的DeepSeek R1-0528。

– GPQA(研究生级知识问答):达到约42%,远超传统3B模型。

– IFEval(指令严格遵循):超过88%,击败众多10B+参数模型。

– GSM8K(数学推理):得分高达82%以上,优于Llama3.23B和Gemma3系列。

此外,该模型在CPU上的预填充和解码速度是竞品的2倍,内存占用极低,支持bfloat16量化,真正实现“手机级PhD推理”。

开源意义:加速边缘AI普及

LFM2-2.6B-Exp已完全开源,模型权重上传至Hugging Face平台,开发者可免费下载并集成到本地应用中。这不仅证明了强化学习在小模型上的巨大潜力,也进一步推动了边缘AI生态发展,让高性能AI从云端走向人人可及的设备端。

AIbase点评 LFM2-2.6B-Exp的发布标志着小型模型时代加速到来:无需巨量参数,通过智能训练范式即可实现前沿性能。对于追求隐私、低延迟和低成本的开发者与企业,这款模型无疑是当前最佳选择之一。未来,随着RL技术和混合架构的持续迭代,3B级开源模型或将接近AGI水平,并在任何设备上流畅运行。感兴趣的读者可立即前往Hugging Face下载体验,开启边缘智能新篇章。

地址:https://huggingface.co/LiquidAI/LFM2-2.6B-Exp