DeepSeek今日正式发布 DeepSeek-Math-V2,这款6850亿参数的混合专家(MoE)模型成为全球首个以开源形式达到国际数学奥林匹克(IMO)金牌水平的数学推理大模型。该模型基于 DeepSeek-V3.2实验版基础架构开发,以 Apache2.0开源协议完整放出权重,在数学推理能力上实现了质的飞跃。

最引人注目的突破在于其开创性的“生成-验证”双模型闭环机制。DeepSeek-Math-V2不再像传统大模型那样“一锤定音”,而是配备了一个专门的验证器(verifier),对生成器输出的每一步证明进行实时逻辑审查。一旦发现漏洞或“侥幸正确”的病态推理,验证器立即反馈,生成器随即自我修正。这种类似人类数学家反复打磨证明的过程,通过强化学习(RL)被完整内化到模型训练中,使其具备了真正的“可自我验证”能力。

DeepSeek-Math-V2 正式发布:开源模型首次以金牌成绩征服国际数学奥林匹克

在最受关注的2025年国际数学奥林匹克竞赛(IMO)中,DeepSeek-Math-V2成功解决6道题中的5道,以83.3% 的正确率获得金牌,折算分数210分(满分252),位列全球第三,仅次于美国和韩国代表队。在2024年中国数学奥林匹克(CMO)中,该模型同样达到金牌水准。而在北美最具含金量的本科生赛事——2024年普特南数学竞赛(Putnam)中,在放开测试时算力的情况下,它取得了118/120的近乎满分成绩,远超人类历史最高分90分。

在谷歌 DeepMind 主导的 IMO-ProofBench 正式推理基准上,DeepSeek-Math-V2在基础难度获得99% 正确率,在高难度部分取得61.9%,全面超越此前所有公开模型,仅略低于 DeepMind 内部的 Gemini Deep Think 增强版。

与 OpenAI 的 o1系列、DeepMind 的 AlphaProof 等闭源系统不同,DeepSeek-Math-V2从模型权重到完整训练细节全部开源,任何研究者和开发者都可在 Hugging Face 直接下载,并在本地或云端自由部署。这意味着全球数学家、计算机科学家可以立即复现、审计甚至改进这一历史性突破。

DeepSeek 方面表示,该模型的训练大量借鉴了人类数学专家对“病态证明”的标注,随后通过动态分配验证算力(最高并行64条推理路径、迭代16轮)实现了从人工到自动的平滑过渡。这一设计不仅大幅提升了证明质量,也为未来在药物设计、密码学、形式化验证等需要极高可信度的场景中部署人工智能奠定了基础。

目前,模型已在 Hugging Face 和 GitHub 正式上线,支持 Transformers 一键加载。DeepSeek 同时公开了其在 IMO、CMO、Putnam 等多项赛事上的完整解题过程与预测结果,接受全球同行检验。

地址:

https://huggingface.co/deepseek-ai/DeepSeek-Math-V2

https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf