MIT 的研究团队近日发布了一项创新的计算方法,旨在提高大型语言模型(LLM)的运算效率,同时降低能源消耗。这项名为实例自适应缩放的技术,可以根据提问的复杂程度调整计算资源。研究小组的相关论文于11月初发布,得到了 MIT-IBM 沃森人工智能实验室、MIT-Amazon 科学中心、MIT-Google 计算创新项目以及 MathWorks 的支持。

MIT 推出新方法,显著提升大型语言模型计算效率

图源备注:图片由AI生成,图片授权服务商Midjourney

传统的大型语言模型在处理问题时,往往会使用固定的推理过程奖励模型(PRMs),这使得它们在面对不同复杂度的问题时,计算资源利用率不高,且常常高估成功的概率。MIT 的研究人员通过重新设计 PRMs,使其能够根据不同的问题动态调整推理轨迹的数量。这样,简单的问题可以使用较少的计算资源,而复杂的问题则可以获得更多的推理支持。

研究人员指出,人的思维过程往往是通过分解复杂问题、逐步推理和不断修正来进行的,而 LLM 也同样能从这一过程中获益,能够在推理时获得更多的 “思考” 时间。研究显示,采用这种新方法后,计算资源的使用量减少了一半,同时依然能够提供与现有模型相媲美的准确回答。此外,经过重新校准的 PRMs 也为较小的 LLM 提升了性能。

鉴于这一技术的成功,MIT 团队表示他们将进一步探索该方法在其他应用中的表现,如代码生成和人工智能代理,并计划探索 PRM 校准方法在强化学习等领域的更多应用。

划重点:  

💡 研究团队提出的实例自适应缩放技术可以根据问题复杂性动态调整 LLM 的计算资源。  

🔍 通过重新设计的推理过程奖励模型,计算资源的利用效率大幅提高,简单问题减少计算,复杂问题获得更多支持。  

⚙️ 研究成果显示,该方法能将计算量减半,同时保持相似的准确性,未来将探索其在其他领域的应用潜力。