谷歌公司今天正式推出了 Gemini2.5Flash-Lite,这是其系列中最轻量化、最具成本效益的 AI 模型。随着科技的快速发展,AI 的应用已经深入到编码、翻译和推理等多个领域。Gemini2.5系列的发布,标志着谷歌在推理速度和经济性方面取得了新的突破。

Gemini2.5Flash 和 Flash-Lite 模型已经经过大规模的测试,现已进入稳定阶段。这意味着开发者可以更放心地将其应用于生产环境中。目前,众多知名公司如 Spline 和 Snap 等,已经在实际项目中应用了这两款新模型,取得了良好的效果。

谷歌发布超强AI模型 Gemini 2.5 Flash-Lite:推理速度更快、成本更低!

谷歌在此次发布中强调,Gemini2.5系列的设计理念在于实现 “成本、速度与性能” 的完美平衡。Flash-Lite 的推理速度明显提升,延迟大幅降低,特别适合实时翻译和高吞吐量的分类任务。与前代2.0版本相比,Flash-Lite 在编码、科学计算和多模态分析等方面的综合表现都得到了显著提升。

这款模型不仅保留了 Gemini2.5系列的核心能力,如灵活控制推理预算、连接外部工具(如谷歌搜索、代码执行),还支持处理超长上下文,达到100万 token 的处理能力。这一特性让开发者在构建复杂系统时能够更游刃有余。

开发者现在可以通过 Google AI Studio 和 Vertex AI 平台,访问到 Gemini2.5Flash、Pro 的稳定版本,以及 Flash-Lite 的预览版本。此外,Gemini 的应用端也已集成了这两款新模型,谷歌搜索也同步部署了定制版本,以提升用户服务的效率。

在人工智能迅猛发展的今天,Gemini2.5Flash-Lite 无疑为各类开发者提供了更高效、更经济的 AI 工具,为未来的 AI 应用打下了坚实的基础。