大模型价格战”再掀高潮。阿里云旗下大模型服务平台百炼今日宣布,自2025年11月13日起,面向中国站(北京区域)的通义千问3-Max模型全面降价,核心调用费用直接腰斩,并同步优化缓存计费策略,大幅降低企业与开发者的长期使用成本。此举旨在打破大模型应用的“高门槛”困局,加速AI在中小企业数字化转型中的落地。

三大降价举措,直击用户成本痛点

Batch调用费用减半:企业批量处理文本、日志或客服对话等场景成本立降50%,显著提升高并发应用的经济性;

隐式缓存命中仅收20%费用:对重复或相似请求,系统自动启用缓存,命中部分按输入Token标准单价的20%计费;

显式缓存性价比飙升:创建缓存成本为输入Token单价的125%,但后续命中调用仅需10%费用,高频业务长期使用可节省超90%支出。

从“免费试用”到“可持续普惠”

此次调价并非孤立动作。阿里云此前已将部分模型服务从“限时免费”转为“限时额度”,引导用户合理规划资源。而通义千问3-Max的降价,则标志着其策略进一步升级:通过精细化计费+规模化降本,实现“普惠但可持续”的AI服务模式。

中小企业迎来AI落地黄金窗口

在企业纷纷推进智能化的背景下,高昂的API调用成本仍是主要障碍。阿里云此次降价,尤其利好需要高频调用大模型的场景,如:

智能客服系统(日均万级对话);

电商商品描述自动生成;

金融合规文本审核;

教育个性化习题生成。

一位SaaS服务商技术负责人表示:“调用成本降低50%后,我们的AI功能毛利率可提升15个百分点,终于敢把大模型深度集成到核心产品中。”

行业影响:国产大模型进入“价值竞争”新阶段

继百度、字节等厂商优化模型定价后,阿里云此次大幅调价,反映出国产大模型竞争正从“参数军备竞赛”转向“成本效率与生态价值”的深水区。当头部玩家主动压低价格,行业洗牌或将加速——唯有具备自研芯片、高效推理引擎与规模化落地能力的厂商,才能在“低价高质”时代持续领跑。

AIbase认为,通义千问3-Max的降价不仅是商业策略,更是对“AI民主化”的实质性推动。当大模型从“奢侈品”变为“日用品”,真正的产业智能化浪潮,才刚刚开始。