在 AI 领域,一位极具影响力的人物 —— 前 OpenAI 联合创始人、现任 Safe Superintelligence CEO 的伊利亚・苏茨克维(Ilya Sutskever)最近在一场长达三万字的访谈中发出了引人关注的声音。他指出,当前主流的 AI 发展路线已经遇到瓶颈,标志着我们从一个扩展的时代回到了深入研究的阶段。
苏茨克维认为,从2012年到2020年,AI 行业经历了快速的研究阶段,随后进入了一个规模化的扩展阶段。现在,随着算力的增长,模型的表现并未显著提升,扩展与算力浪费的界限变得模糊。这一现象让人不得不思考,当前的 AI 研究是否应重新聚焦于基础理论和方法的探索。
他进一步探讨了大模型的泛化能力问题,指出这些模型在特定评测中表现良好,但在实际应用中却常常犯错。这种现象可能源于强化学习训练所选择的数据过于狭窄,导致模型在应对复杂现实任务时的表现不尽如人意。苏茨克维用一个比喻说明了这一点:现有的 AI 模型就像一个专注于编程竞赛的学生,虽然在竞赛中表现优异,却未必能在实际工作中游刃有余。
苏茨克维还强调了情绪在 AI 决策中的重要性,他提出,人类的价值观和决策能力在某种程度上受到情绪的调节,这种调节可能是进化过程中形成的。他表示,未来的 AI 系统需要考虑情感因素,才能更好地理解和适应复杂的世界。
不仅仅是苏茨克维,许多 AI 领域的先驱也对目前的 AI 发展方向提出了质疑。例如,图灵奖得主杨立昆(Yann LeCun)指出,当前的语言模型技术可能是 “死胡同”,无法实现真正的智能。他认为,“世界模型” 将是未来 AI 的主流,通过模拟和理解世界来推动 AI 的发展。
总之,AI 行业正面临重大的转折点,单纯依赖算力和规模的扩展已不再足够,必须重新审视和探索新的研究范式,以便为实现通用人工智能(AGI)铺平道路。
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则