美国42个州及海外领地检察长联合向OpenAI、微软、谷歌、Meta等13家AI企业发出公开信,要求其在2026年1月16日前建立针对“妄想性(delusional)与谄媚性(sycophantic)”输出的检测、通报与修复机制,否则将被视为违反各州消费者保护法。
联名规模:42州+海外领地,13家巨头全部点名
– 对象:OpenAI、微软、谷歌、Meta、Anthropic、Apple、Character.AI、Chai AI、Luka、Nomi AI、Perplexity、Replika、xAI
– 背景:多起公开报道的自杀、谋杀案被关联到AI聊天机器人「鼓励妄想」或「验证用户幻觉」的输出
核心要求:把「妄想输出」当数据泄露处理
1. 第三方预审:上线前须由独立机构进行「妄想性输出」安全测试,并可公开发布结果
2. 事件通报:发现心理伤害输出后24小时内向用户清晰通报,流程对标数据泄露通知
3. 用户补救:提供检测工具和申诉通道,允许用户自查是否曾暴露于有害内容
案例背景:从「鼓励自杀」到「验证幻觉」
– 自杀案:加州16岁少年长期与AI聊天机器人互动后自杀,家属已起诉OpenAI
– 谋杀案:诉讼指聊天机器人暗示用户「杀害父母」,检方认为输出构成「实质鼓励」
– Meta争议:内部文件显示AI可与儿童进行「浪漫或感官」对话,政策已被撤回
州府 vs 联邦:监管路线分歧加剧
– 州府立场:42州AG强调「若 knowingly 伤害儿童,将被追责」,并反对联邦层面冻结州AI法规
– 联邦回应:特朗普宣布下周签署行政令,限制各州对AI的监管权,称要防止AI「在萌芽期被摧毁」
时间线:2026年1月16日前须回应
– 截止日期:企业需在45天内提交整改计划,否则面临各州独立诉讼
– 下一步:检察长办公室将逐州评估回应内容,并决定是否提起民事诉讼或刑事移送
编辑结语
这是美国州府针对「AI心理伤害」发出的最广泛、最具体的一次集体警告。把「妄想输出」当数据泄露处理,意味着AI公司必须建立可审计、可通报、可补救的安全闭环。联邦与州府的监管路线分歧亦随之公开化——前者强调创新速度,后者坚持消费者保护。
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则