6月17日,上海的 AI 独角兽公司 MiniMax 发布了其全新研发的 MiniMax-M1系列模型,号称是全球首个开源的大规模混合架构推理模型。这个创新的模型在上下文处理能力和成本控制方面都取得了显著的突破。

MiniMax-M1模型的最大亮点在于其原生支持高达100万 Token 的上下文窗口,甚至在推理输出上支持业内最长的8万 Token。这一技术进步与谷歌的 Gemini2.5Pro 相当,同时在工具使用场景(TAU-bench)中,MiniMax-M1-40k 的表现超过了 Gemini-2.5Pro,展现了其强大的实力。此外,MiniMax 还表示,M1模型的强化训练成本仅为53.5万美元,相比以往减少了一个数量级。

MiniMax 推出全球首个开源混合架构模型 M1,强化训练成本大幅降低!

在定价策略上,MiniMax 采用了阶梯式定价,随着输入文本长度的增加,费用也会相应提高。具体来说,0-32k Token 的输入费用为每百万 Token0.8元,而输出则为每百万 Token8元;32k-128k Token 则为1.2元和16元;128k-1M Token 的输入和输出费用分别为2.4元和24元。这一价格设置使得 MiniMax-M1在市场上更具竞争力,尤其是在前两个档位的定价上,均低于同类产品 DeepSeek-R1。

值得一提的是,MiniMax 此次还推出了 CISPO 算法,其收敛速度比字节跳动最近推出的 DAPO 算法快了一倍,强化学习阶段的算力需求仅为 DeepSeek R1的30%。这使得 MiniMax-M1模型的训练更加高效,使用的算力资源显著减少,进一步降低了运营成本。

在 AI 行业的 “六小虎” 竞争者面前,MiniMax 的这一发布标志着其希望在大模型的竞争中继续前行。随着 DeepSeek R2的即将推出,未来的市场局势将更加复杂。MiniMax 也在持续进行开源技术的更新,预计在接下来的日子里会有更多的技术和产品亮相。