近日,硅基流动大模型服务平台正式上线了蚂蚁集团百灵团队最新开源的 Ling-mini-2.0。这个新模型在保持先进性能的同时,展现出极高的生成速度,标志着在小体量的同时实现了大能量的突破。

​硅基流动上线线蚂蚁集团Ling-mini-2.0,速度与性能双丰收

Ling-mini-2.0采用了 MoE 架构,总参数达到16B,但在生成过程中每个 Token 仅激活1.4B 的参数,从而大幅提升了生成速度。这一设计不仅使得模型在处理任务时依旧保持卓越性能,还能与10B 以下的 Dense 语言模型以及其他更大规模的 MoE 模型进行有效比较。其最大上下文长度支持达到128K,极大提升了模型的适用范围。

​硅基流动上线线蚂蚁集团Ling-mini-2.0,速度与性能双丰收

在基准测试中,Ling-mini-2.0在多个领域的推理任务中表现优异。无论是编码、数学还是知识密集型推理任务,Ling-mini-2.0都取得了令人满意的成绩,展现出其强大的综合推理能力。特别是在高难度的任务中,该模型的性能优于许多同类产品,表现出色。

此外,Ling-mini-2.0在生成速度上也颇具优势。在2000Token 以内的问答任务中,其生成速度超过300个 Token 每秒,比传统的8B Dense 模型快了2倍以上。随着输出长度的增加,该模型的速度还可以提高,最高可达7倍的相对加速。

为了方便开发者使用,硅基流动平台还提供了多种接入方案和 API 文档,支持开发者在平台上进行模型的对比与组合,帮助他们轻松实现生成式 AI 应用。平台内还有多款大模型 API 供开发者免费使用,进一步推动了 AI 技术的普及和应用。

划重点:

🧠 Ling-mini-2.0总参数16B,每个 Token 仅激活1.4B 参数,实现高效生成。  

🚀 模型支持128K 最大上下文长度,展现出强大的推理能力。  

💻 硅基流动平台提供多种接入方案,支持开发者轻松使用多款大模型 API。