内容持续更新中
传统 MoE(混合专家)架构通过增加专家数量提升模型能力,却常受困于边际收益递减与高昂的通信开销。今日,美团 LongCat 团队发布了全新模型 LongCat-Flash-Lite,通过…