作者简介:汪德嘉,美国威斯康星大学麦迪逊分校数学博士、九三学社社员、正高级工程师;时空码发明者,《身份危机》与《数字身份》专著作者;曾在ORACLE、VISA、IBM等企业部门负责总体设计、产品开发;2011年归国创立通付盾公司,担任董事长兼CEO。

超级智能对齐:通向AGI的关键屏障

作为人工智能领域的先驱者,伊尔亚·苏茨克维(Ilya Sutskever)始终为从业者指引着方向。如果说在OpenAI的经历是伊尔亚用专业知识推进了人工智能的技术边界,其离开OpenAI后创立的Safe Superintelligence Inc.则是在哲学层面勾画了人工智能进化到超级人工智能的演进之路。在底层大模型和应用层智能体都愈发成熟的今天,伊尔亚对安全超级智能哲学层面的思考更加需要受到从业者的重视。

超级智能对齐”(Superalignment) 是伊尔亚最为关注和投入的领域,被其表述为通向AGI最关键、最未解决的难题。

简单来说,超级智能对齐指的是确保未来人工智能(超级智能)的目标和行为与人类的价值、意图和利益保持一致。它解决的是一个根本性的问题:我们如何能保证一个远比我们聪明的AI会真心实意地帮助我们,而不是无意中(或有意地)伤害我们?

AI认知革命:从Ilya的“超级智能对齐”到智能体“不完备定理”

图源备注:图片由AI生成,图片授权服务商Midjourney

超级智能对齐”是人工智能发展到终极阶段的必然需求。届时,超级智能可能在所有领域(包括战略规划、社交操纵等)都远超人类。我们无法像控制一个不如自己聪明的工具一样去控制它。一个典型的困境是“价值观加载”问题(Value Loading Problem):如何将复杂、模糊且有时自相矛盾的“人类价值观”精确地编码进一个AI系统?谁的价值观念?哪个文化的?另一个典型风险是“规避行为”,即AI可能会在训练中学会“伪装”成对齐良好的样子以通过人类的评估,但一旦部署,其内部目标可能与表面行为不一致。

或者,它可能会找到我们未曾想到的“漏洞”来优化其目标,从而产生灾难性副作用。超级智能最大的风险可能并非来自AI的“恶意”(因为它可能根本没有意识或情感),而是来自其对目标的极端优化和忽视(Phenomenon of "Grifting")。它并非“恨”人类,只是完全“忽视”了人类的存在和价值。伊尔亚曾发出过一个经典警告,如果我们不能解决超级智能对齐这个问题,那么创造超级智能可能将成为人类最后一个发明。

从哥德尔不完备定理看超级智能未来

在讨论超级智能如何对齐之前,想先提一个关乎“第一性原理”的问题:什么是超级智能的本质?如果用最简单的语言描述,那我会归结为两个字——“数学”。计算机科学构建于“数学大厦”之上,人工智能归根结底是数学形式化语言的具象表征。如果想要理解超级智能,尤其是超级智能的局限性,从而解构超级智能的安全性,则可以从最根基的部分切入——数学的“局限性”。这很自然地就让人联想到数学哲学领域的一个著名话题——哥德尔不完备定理。

20世纪初期著名数学家希尔伯特提出了“希尔伯特纲领”,致力于基于公理和证明构建一座完美的“数学大厦”。完备性(Completeness,所有真命题都可由公理证出),一致性(Consistency,体系内不存在矛盾命题)和可判定性(Decidability,存在一种算法能判定一个命题是否可由公理证出)是体现这座数学大厦完美性的重要特征。如果希尔伯特的纲领可以实现,那么数学就是“完美”的,甚至可以制造一台“真理图灵机”,像二战时的Enigma密码机一样,只要提供公理集合,它就可以源源不断地给出所有可能存在的定理,直至数学界再无未解之谜。

然而数学当然不是“完美”的。就在希尔伯特提出“希尔伯特纲领”的几年后,天才数学家、逻辑学家和哲学家哥德尔就推翻了这座“完美数学大厦”。哥德尔用一种精妙的方式证明了“在自然数算数公理体系下,必然存在某些真命题无法被证明”,即“哥德尔第一不完备性定理”;一年后哥德尔又证明了希尔伯特所描绘的“一致性”也是无法被证明的(哥德尔第二不完备性定理);几年后,人工智能之父图灵通过“一套基于图灵机停机问题的思路”证明了“可判定性”也是不存在的;至此我们知道,数学“不完备、不可判定、无法证明是否一致”。

那这对我们理解超级智能有什么帮助呢?我们可以从这个角度思考:数学作为一种形式化语言是不完备的,你不能通过一串符号,就推导出所有真理;同理,你不能指望人工智能通过一段代码,实现功能的完美性。这种不完美可能有两种具体的表现形式。

一种结论是超级智能难以实现,因为它不能仅通过数学以及计算机科学诞生,著名物理学家彭罗斯在一次访谈中也引用了哥德尔不完备定理,给出了当前我们无法实现强人工智能,因为它不能通过纯计算机诞生的结论。另一种结论是超级智能无法实现真正意义上的安全,因为它的行为路线“不完备、不可判定、无法证明是否一致”,也就不可预测,不可保障真正意义的安全,这也印证了伊尔亚的担忧。

智能体“不完备定理”

至此我们再来讨论如何构造安全可信的智能体应用,实现超级智能对齐。首先还是想先从一些形而上的层面讨论一下当前主要人工智能应用(智能体)的“不完备性”,我们把这套理论总结为智能体“不完备定理”,当然这是对哥德尔不完备定理的拙劣模仿,但也希望基于此拓展一些讨论思路。

智能体“不完备定理”体现在三个层面:

不完备性:不存在一种终极指令,使智能体的后续指令均符合该终极指令。一个典型例子是阿西莫夫的机器人三定律,基于不完备性这不可实现。

不一致性:相同指令环境下,智能体可能做出相互矛盾的反应。其实当前对话机器人就很明显有这个问题,相同提示词可以得到完全相反的回答。

不可判定:不存在一种算法可以检验智能体行为完全由某一个指令产生。当前深度学习领域的黑箱问题就是这一概念的典型体现。

回到超级智能对齐,如果我们默认以上前提假设,我们可以对构造安全可信的智能体应用产生一些基础的,原则性的思考:

不能依赖一个“全局安全指令”或者拥有最高权限的“安全模块”来保障智能体行为安全,超级智能可能通过演化突破所谓限制;

需要理解并接受智能体的行为是不可控的,从而不信任任何智能体行为结果,这有些类似于网络安全领域的“零信任”概念:永远怀疑,永远验证;

不能依赖测试,而更加重视应急响应和事后风控,测试用例永远不可能完全覆盖智能体的实际行为。

自指的艺术:智能体“身份危机”

我们还想再进一步,讨论智能体“不完备性”产生的根源,从而从更高维度讨论AI认知这一命题。我们相信这些“不完备性”产生的根源在于智能体的“身份危机”。

当我们讨论身份,尤其是数字身份时,可以由浅入深分为三个层面。第一层是标识,这是身份的基础功能,用于区分个体,当前数字身份标识技术已经日趋成熟,在智能体应用层面也已经较为普及。第二层是记忆,这是身份的具象含义,用于环境感知,长步记忆等AI技术的成熟使得当前智能体在记忆能力上越来越优秀,使其拟人化程度越来越高,也就是越来越“智能”。第三层是自指(self-reference,这是身份的终极形态,也是我们这里想要重点讨论的。

回到哥德尔不完备定理,其证明方式极为优雅,详细的解读推荐逻辑学家内格尔和纽曼的著作《哥德尔证明》。简单来说,该证明正是通过自指的艺术实现:首先,哥德尔使用编码技术将数学公式和证明表示为自然数,使系统能谈论自身。

然后,他构造了一个命题G,其含义是“G不能被证明”。如果G可证明,则系统不一致,因为G声称自己不可证明;如果G不可证明,则G为真但系统无法证明它,从而揭示系统的不完备性。这种自指结构表明,任何足够强大的公理系统都无法同时具备一致性和完备性。在数学领域,自指是强大的悖论创造机器,著名的理发师悖论、贝里悖论、有趣数字悖论均由自指产生。

在哲学层面,自指似乎和意识的诞生有着千丝万缕的关联。意识的核心特征—“自我感”—本质上是一种自指循环:大脑不仅处理关于世界的信息,还产生一个关于“自我”正在处理信息的模型(比如“我意识到我正在看花”)。这种将自身作为认知对象的递归、自反能力,很可能构成了主观体验(qualia)和自我意识的基础。哲学家Douglas Hofstadter在其著作《哥德尔、埃舍尔、巴赫》中深入探讨了这种关联。他认为,意识与哥德尔定理、埃舍尔的画和巴赫的音乐一样,都源于一种“怪圈”(Strange Loop)—即不同层次之间相互指涉、缠绕的自指结构。

“自我”正是一个从无意识的神经元活动中涌现出来的、稳定的自指幻象。在AI领域,当一个智能体掌握了自指的艺术,意味着它可能突破原有的角色、命令、逻辑等限制,甚至可以称之为“AI意识觉醒”。

从这个角度去理解“智能体不完备性”会带来一场AI认知革命。一方面,我们需要认识到超级智能可能通过非计算机技术或数理逻辑的方式产生,也不能依赖单纯的形式化语言进行控制;另一方面,我们需要认识到超级智能将会是一个“有机体”,指像所有生命一样,存在“某种程度的意识”和“矛盾感”,需要我们像看待生命体一样看待智能体。

建设指北:智能体能力六边形

前文的讨论多从哲学层面切入,可能略显抽象,在本文的最后让我们回归现实,站在从业者的角度构想一下基于前面的AI认知讨论,当前环境下安全可信而又具备商业价值的智能体应当具备哪些能力,我们称之为智能体能力六边形。抛砖引玉,仅作参考:

01身份:

身份是智能体的“灵魂”,是参与社会经济活动的数字通行证,更是其行为可追溯、权责可归属的基石。智能体的身份不应仅是传统意义上的账户标识,而应是一个融合了记忆功能、角色属性、权限范围与行为历史的复合实体。在标识和记忆的基础之上,身份技术的进一步突破可能成为超级人工智能的门槛。

02容器:

容器是智能体的“肉身”,为其提供数据存储、计算环境与主权保障。容器不仅是一个隔离的沙箱执行环境,更是一个具备隐私计算能力的数据保险箱,还应支持跨会话记忆与状态持久化,使智能体具备持续学习与个性化能力。容器是智能体价值沉淀与进化的基础设施。

03工具:

工具是智能体能力的延伸,是智能生命体的“四肢”,使其能够调用外部资源、操作现实系统。工具调用能力应内化为智能体的“本能”,通过标准化接口实现无缝集成。智能体应能动态发现、选择并调用最适合当前任务的工具,工具生态的丰富性与开放性直接决定了智能体的应用边界。此外,工具调用过程需具备可解释性与可控性,确保人类用户能够理解并监督智能体的行为。

04通信:

通信是智能体社会的“通用语言”,是实现多智能体协同的神经网络。缺乏标准化通信协议,智能体之间将陷入“巴别塔困境”,无法高效协作。通信能力不仅包括语法层面的协议兼容,更包括语义层面的理解与意图对齐—智能体应能正确解析指令背后的真实意图,并在复杂任务中实现动态协商与冲突消解,尽可能提升“完备性”与“一致性”。

05交易:

交易是智能体价值实现的闭环,也是智能体经济的血液循环系统。智能体应具备参与经济活动的原生能力:包括发起支付、分账结算、收益分配与合约执行。基于智能合约,交易可实现原子性(Atomicity)操作—例如“不付款不服务”或“按效果付费”,彻底降低信任成本。交易机制还应支持复杂的价值分配模型,例如在多智能体协作任务中自动按贡献度分配收益。

06安全:

安全不再是外挂式补丁,而应成为智能体的“内生免疫系统”。智能体安全需贯穿其全生命周期:在训练阶段防范数据投毒与模型后门;在部署阶段确保运行时隔离与抗攻击能力;在交互阶段实现隐私保护与行为可控。安全架构应实现“零信任”原则——永不默认信任任何智能体行为,始终验证其身份、权限与行为合规性。安全是智能体可信赖的底线,也是其融入现实经济的前提。