Google 正式发布了稳定版本的 Gemini 2.5 Flash-Lite,这是一个轻量但强大的 AI 模型,旨在以更低的成本为开发者提供高性能计算能力,让构建 AI 应用变得更加经济高效。
开发 AI 应用通常需要在性能、速度和成本之间进行权衡。而 Flash-Lite 模型正是为了解决这些痛点而生。Google 表示,这款新模型不仅比之前的 Flash 系列更快,而且在推理、代码生成、图像理解和音频处理等方面也更智能。
这使得它非常适合以下场景:
- 实时翻译
- 客服聊天机器人
- 互动式 AI 助手
在价格方面,Gemini 2.5 Flash-Lite 更是令人惊喜:每百万输入词仅需 0.10 美元,每百万输出词仅需 0.40 美元。对于初创企业、独立开发者以及小型团队来说,这大大降低了使用门槛,让原本只有大型企业能实现的功能变得触手可及。
更聪明、更快、仍然可扩展 #
尽管名为 “Lite”,该模型依然具备强大的 100 万 token 上下文窗口,可轻松处理大型文档、庞大的代码库或长时间对话,不会出现性能瓶颈。
目前已有多个实际项目正在使用它,例如:
- Satlyt:这家航天技术公司在卫星上运行该模型,用于轨道故障诊断,从而节省能源并减少响应延迟。
- HeyGen:使用该模型将视频翻译成超过 180 种语言。
- DocsHound:通过观看产品演示视频自动生成技术文档,大幅节省人工整理时间。
这些案例证明了 Flash-Lite 在复杂现实场景中的出色表现。
立即可用 #
开发者现可通过 Google AI Studio 和 Vertex AI 访问 Gemini 2.5 Flash-Lite。只需在代码中指定 "gemini-2.5-flash-lite"
即可调用模型。
注意:若你仍在使用预览版,请务必在 8 月 25 日 前切换至新模型名称,旧版本将被正式弃用。
Gemini 2.5 Flash-Lite 不只是一次简单的升级,而是一次真正意义上的“降门槛”。通过将高性能与超低成本结合,Google 正在让更多创作者能够低成本地构建有用的 AI 应用,不再需要庞大的基础设施或预算。