内容持续更新中
凌晨两点,OpenAI把最新模型GPT-5.2推上生产环境。没有炫目的发布会,只有一段12分钟的实测视频:一份50页季度汇报,从空白模板到配图、数据、演讲者备注,全程由AI在180秒内自动生成,错误率…
DeepSeek今日正式发布 DeepSeek-Math-V2,这款6850亿参数的混合专家(MoE)模型成为全球首个以开源形式达到国际数学奥林匹克(IMO)金牌水平的数学推理大模型。该模型基于 De…
Deepseek 公布了开源周第二天的产品,首个面向MoE模型的开源EP通信库,支持实现了混合专家模型训练推理的全栈优化。 DeepEP 是一个专为混合专家(MoE)和专家并行(EP)设计的高效通信库…
幻方量化于12月26日晚发布全新一代大模型DeepSeek-V3,展现出惊人的技术突破。这款采用MoE(混合专家)架构的模型不仅在性能上媲美顶级闭源模型,其低成本高效率的特点更是引发业界关注。 从核心…