近日,人工智能公司Anthropic在其博客上发布了一篇文章,详细介绍了其 Claude AI 聊天机器人在保持 “政治中立” 方面的努力。这一举措是在前总统特朗普颁布禁止 “觉醒 AI” 相关政策的几个月后进行的,显示出科技公司在应对政策变化时的敏感性。

Anthropic表示,Claude 的目标是 “平等地对待对立的政治观点”,确保在分析时保持深度、参与度和质量。虽然特朗普的行政命令仅适用于政府机构,但它对 AI 模型的要求可能会对其他公司产生广泛影响,尤其是在大规模发布的 AI 模型方面。值得注意的是,Anthropic并未在其声明中直接提及特朗普的命令。

Anthropic揭秘 Claude AI 的 “政治中立” 策略

为此,Anthropic制定了一系列系统提示,指示 Claude 避免提供 “未经请求的政治意见”,并确保其回答的准确性,代表 “多个视角”。尽管这并不是确保政治中立的万无一失的方法,但Anthropic认为,这样的指导方针可以在回应中产生 “实质性差异”。

此外,Anthropic还介绍了其使用强化学习的方法,鼓励 Claude 的回答更接近一组预定义的 “特征”。其中一个目标是使 Claude 在回答问题时,既不能被认定为保守派,也不能被认定为自由派。为了测量 Claude 的政治中立性,Anthropic还开发了一款开源工具,最近的测试结果显示,Claude Sonnet4.5和 Claude Opus4.1在中立性方面分别获得了95% 和94% 的高分,远高于 Meta 的 Llama4(66%)和 GPT-5(89%)。

Anthropic在其博客中强调,如果 AI 模型偏袒某些观点,可能会更有说服力地支持一方,或者完全拒绝某些论点,这不仅会损害用户的独立性,也无法有效帮助用户形成自己的判断。

划重点:

🌐 Anthropic致力于确保 Claude AI 在对待政治观点时保持中立,以符合最新政策要求。  

🧠 Claude AI 通过系统提示和强化学习来确保其回答的多元性和准确性。  

📊 最近测试显示,Claude 的政治中立性评分高于其他 AI 模型,显示其在市场上的竞争力。