国产大模型再迎重磅突破。中国电信人工智能研究院(TeleAI)近日正式开源星辰语义大模型TeleChat3系列,包含国内首个基于全国产算力训练的千亿参数细粒度MoE模型——TeleChat3-105B-A4.7B-Thinking,以及稠密架构的TeleChat3-36B-Thinking。该系列模型完全依托上海临港国产万卡算力池训练,基础训练数据达15万亿tokens,标志着我国在超大规模AI模型自主可控方面迈出关键一步。

全栈国产化:从芯片到框架全链路适配
TeleChat3系列深度适配华为昇腾生态:
– 支持昇腾Atlas800T A2训练服务器;
– 基于昇思MindSpore框架开发;
– 训练与推理全流程运行于国产AI算力基础设施。
此举不仅验证了国产软硬件栈支撑千亿级大模型的能力,也为行业提供了一条安全、可靠、可替代的技术路径,对保障AI基础设施供应链安全具有战略意义。

创新“Thinking模式”:让AI推理过程可追溯
TeleChat3全系引入Thinking(思考模式)机制——通过在对话模板中加入特定引导符号,模型可自动生成中间推理步骤,显著提升在复杂任务中的逻辑性与准确性。在知识问答、数学推理、内容创作、代码生成、智能体(Agent) 六大核心维度,其性能已比肩国际主流头部模型。
例如,在数学题求解中,模型不再仅输出答案,而是展示“理解题意→拆解步骤→公式应用→验证结果”的完整思维链,大幅提升可信度与可调试性。
开源开放,赋能产业生态
目前,TeleChat3系列模型权重、推理代码及使用示例已同步上线GitHub与魔搭(ModelScope)平台,支持学术研究与商业应用。中国电信表示,将持续推动模型在政务、通信、能源、金融等关键领域的落地,助力“人工智能+”行动深入行业核心。
AIbase观察:国产大模型进入“全栈自研+能力对标”新阶段
TeleChat3的发布,不仅是一次技术成果展示,更是中国AI产业自主可控战略的实质性落地。当千亿MoE模型能在纯国产算力上高效训练,当“思考模式”逼近国际先进水平,国产大模型正从“可用”走向“好用”乃至“敢用”。
在全球AI竞争日趋“地缘化”的背景下,中国电信以TeleAI为支点,正构建一条安全、开放、高性能的国产AI技术栈。而这条路径的成败,或将决定中国在未来智能时代的话语权。
项目地址:https://github.com/Tele-AI/TeleChat3
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则