面对人工智能技术的迅猛发展及其潜在风险,全球协同治理迈出了关键一步。 2026 年 2 月,联合国正式宣布成立“人工智能安全国际科学专家组”,旨在通过跨国界的科学合作,为全球 AI 治理提供权威的专业指导。值得关注的是,来自中国的两位顶尖科学家凭借在 AI 伦理与技术安全领域的深厚造诣,正式入选该首批专家名单。

该专家组的成立,是落实联合国关于加强 AI 监管倡议的核心举措。其主要职责是定期评估全球 AI 技术的前沿进展,识别可能对人类社会、经济及网络空间造成的系统性风险,并向联合国秘书处及成员国提交基于科学实证的政策建议。专家组的成员构成兼顾了全球多样性与技术专业性,汇聚了计算科学、伦理学、法学等多个领域的顶尖头脑。

中方科学家的加入,不仅体现了中国在 AI 领域的技术实力获得国际认可,也展示了中国积极参与国际 AI 规则制定的态度。这两位入选者长期致力于 AI 安全基准测试、算法鲁棒性以及人机协同中的伦理边界研究。他们的参与,将有助于在国际治理体系中引入更多元化的视角,推动构建一个包容、普惠且安全的全球 AI 生态环境。

据悉,专家组近期将围绕“前沿模型风险评估标准”展开首轮调研,并计划在下届联合国大会期间发布首份全球 AI 安全现状报告,为各国制定相关法律法规提供重要参考。

划重点:

  • 🌐 全球治理新坐标:联合国成立专门的科学专家组,标志着 AI 安全治理从分散的区域共识走向全球化的科学驱动模式。

  • 🇨🇳 中方专家入选:两位中国科学家跻身首批专家组名单,代表中国将在全球 AI 安全标准与政策制定中发挥关键作用。

  • 📑 权威风险评估:专家组将定期发布安全评估报告,重点针对前沿大模型可能带来的系统性风险提供科学应对方案。