内容持续更新中
在今天的2025小米人车家全生态合作伙伴大会上,小米新任 Xiaomi MiMO 大模型负责人罗福莉首次亮相,正式发布了最新的 MoE(Mixture of Experts)大模型 ——MiMo-V2…
成立仅三个月的xLLM社区宣布将于 12 月 6 日举办首届线下Meetup,主题“共建开源AI Infra生态”。活动将展示自研推理引擎xLLM-Core,公开对比数据:在同级GPU上,MoE、Te…
在近日举行的科大讯飞全球开发者节上,科大讯飞正式发布了全新深度推理大模型 —— 星火 X1.5。这个基于全国产算力平台的模型不仅在技术上取得了重大突破,还宣称在效率上达到了国际竞争对手的93% 以上,…
高效MoE架构重塑边缘AILiquid AI推出的LFM2-8B-A1B是其LFM2系列的首个混合专家(Mixture-of-Experts, MoE)模型,总参数规模达8.3B,但每token仅激活…
今天,我们正式推出了 Ring-mini-2.0,这是一款基于 Ling-mini-2.0架构深度优化的高性能推理型 MoE 模型。Ring-mini-2.0的总参数量达到16B,但在实际运行中仅需激…
近日,网络上流传出OpenAI即将推出开源模型系列“GPT-OSS”(GPT Open Source Software)的重大信息泄露,引发业界广泛关注。据泄露的配置文件,这一操作系统系列模型参数规模…
Hunyuan-A13B 是一个由腾讯最新开源的大语言模型,它以创新的设计理念,在相对较小的活跃参数规模下,实现了强大的性能表现,特别适用于资源受限的环境。 这款模型采用了细粒度 MoE(Mixtur…
中国人工智能公司DeepSeek在其“开源周”第3天宣布推出DeepGEMM——一款支持FP8通用矩阵乘法(GEMM)的开源库。这一工具专为密集型和混合专家(MoE)矩阵运算设计,为DeepSeek …
字节跳动豆包大模型团队今日宣布,成功研发出全新稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家)模型推理时的高额访存问题,推理速度较MoE提升2-6倍,推理成本最高可降低83%。这一突破…
幻方量化于12月26日晚发布全新一代大模型DeepSeek-V3,展现出惊人的技术突破。这款采用MoE(混合专家)架构的模型不仅在性能上媲美顶级闭源模型,其低成本高效率的特点更是引发业界关注。 从核心…
深圳元象信息科技有限公司近日宣布,公司已成功发布中国最大的Mixture of Experts(MoE)开源大模型——XVERSE-MoE-A36B。这款模型的发布标志着中国在AI领域的一大进步,将国…
在2024年腾讯全球数字生态大会上,腾讯公司副总裁兼云业务总裁邱跃鹏对外宣布——腾讯混元Turbo大模型的正式亮相。 这款新一代的大模型基于MoE(Mixture of Experts)架构设计,相较…
MiniMax 于 2024 年 1 月 16 日发布了国内首个 MoE 大语言模型 abab6,该模型采用 MoE 架构,具备处理复杂任务的能力,并且在单位时间内能够训练更多的数据。评测结果显示,a…