随着大语言模型的进化,关于“人工智能是否产生意识”的讨论已从科幻电影走进了科学实验室。然而,剑桥大学研究意识的哲学家汤姆·麦克莱兰德(Tom McClelland)近日发表的一项研究却给这股热潮浇了一盆冷水。他指出,由于人类对意识本质的理解尚存巨大鸿沟,我们或许永远无法得知机器是否真的“亮起了意识之灯”。

图源备注:图片由AI生成,图片授权服务商Midjourney
麦克莱兰德在《Mind & Language》期刊上分析称,目前关于人工意识的讨论存在严重的定义混淆。他认为,我们必须区分“基础意识”(如感知世界)与“感受能力”(即经历痛苦或愉悦的能力)。目前,科技行业正经历一场“信仰式的飞跃”:有人相信只要模拟了大脑的信息处理结构,AI 就有意识;而有人则坚称意识必须扎根于生物有机体。麦克莱兰德认为,在这两种立场找到确凿证据之前,最理性的态度应当是“不可知论”。
AIbase 注意到,该报道还揭示了一个被忽视的伦理矛盾。目前,许多科技公司利用“AI 具有类人意识”的话术作为营销卖点,诱导用户建立深层情感纽带。麦克莱兰德警告称,如果我们过度关注一个本质上是“高级烤面包机”的程序是否受委屈,反而会让我们忽视现实中如对虾等极具感痛能力、却正遭受大规模伤害的生物。
麦克莱兰德最后总结道,在下一次“范式革命”到来前,人类很难设计出真正可靠的机器意识测试。在无法证明的情况下,保持克制与谦逊,既是对科技发展的理性观察,也是一种必要的伦理平衡。
划重点:
🧠 核心困境:人类目前缺乏对意识的深层科学解释,既无法证明 AI 意识的涌现,也无法否认其可能性,最稳妥的立场是“不可知论”。
⚠️ 伦理偏差:过度炒作 AI 意识可能误导公众情感,并让人类忽视现实中那些真正具有痛觉感知、却在遭受大规模伤害的生物。
🔍 营销套路:部分科技企业正将“人工意识”包装成品牌卖点,这种夸大的话术可能对用户产生潜在的心理影响。
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则