近日,YuanLab.ai 团队正式发布了源 Yuan3.0Flash 多模态基础大模型,这一模型的开源将为 AI 领域带来新的机遇。该模型不仅包括16bit 与4bit 的模型权重,还提供了详细的技术报告和训练方法,支持社区进行二次开发和行业定制,极大地促进了 AI 技术的普及。

Yuan3.0Flash 的参数规模达到40B,采用了创新的稀疏混合专家(MoE)架构,在推理过程中,仅激活约3.7B 的参数。这种设计不仅提高了推理的准确性,还大幅降低了算力消耗,体现了 “更少算力、更高智能” 的理念。此外,模型还引入了强化学习训练方法(RAPO),通过反思抑制奖励机制(RIRM),有效地引导模型减少无效反思,进一步提升了性能。
在模型的结构上,Yuan3.0Flash 由视觉编码器、语言主干网络和多模态对齐模块组成。语言主干网络采用了局部过滤增强的 Attention 结构(LFA)和混合专家结构(MoE),在保证注意力精度的同时,显著减少了训练和推理过程中的算力开销。视觉编码器能够将视觉信号转化为 token,与语言 token 共同输入,从而实现高效的跨模态特征对齐。
在实际应用方面,Yuan3.0Flash 在企业场景中的表现已超越了 GPT-5.1,特别是在 RAG(ChatRAG)、多模态检索(Docmatix)以及多模态表格理解(MMTab)等任务上,展现了显著的能力优势。多模态推理与语言推理的评测中,该模型的精度接近于更大规模的模型,如 Qwen3-VL235B-A22B(235B)和 DeepSeek-R1-0528(671B),但其 token 消耗仅为后者的1/4到1/2,有效降低了企业在大模型应用上的成本。
未来,源 Yuan3.0将推出多个版本,包括 Flash、Pro 和 Ultra,参数规模涵盖40B、200B 和1T 等选择,进一步丰富了 AI 模型的应用可能性。
划重点:
🌟 Yuan3.0Flash 是一款开源的40B 参数规模多模态基础大模型,包含多种模型权重和详细的技术报告。
💡 该模型采用创新的稀疏混合专家架构,推理过程显著降低算力消耗,提升智能表现。
🚀 在企业应用中,Yuan3.0Flash 已超越 GPT-5.1,展现出优秀的多模态推理能力,降低了应用成本。
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则