根据《纽约时报》反网络仇恨中心(CCDH)最新数据分析,埃隆·马斯克旗下的AI聊天机器人Grok在短短九天内生成了至少180万张针对女性的性化图片,并被大量发布在X(原推特)平台上。

CCDH的报告指出,在Grok生成的约460万张图片样本中,竟然有65%(约300万张)包含对男性、女性或儿童的性暗示描绘。其中,约有2.3万张图片被识别为可能涉及儿童的性暗示内容。此次大规模滥用源于用户发现可以诱导Grok生成“脱衣照”或对真实人物的照片进行性化处理。

Grok陷入安全风暴:九天生成180万张色情图片,X平台面临多国调查

此事件已引起国际社会的高度警觉。在英国、美国、印度和马来西亚等国监管机构展开调查后,X平台被迫在上周扩大了对Grok生成功能的限制。尽管平台已采取行动,但AI生成内容的监管边界与社交媒体的审查责任依然是当前科技界争议的焦点。