正文

谷歌推出Gemini 3.1 Flash-Lite,GOOGL股价上涨4.3%

编辑:MonoCoin发布时间:5小时前

谷歌发布全新AI模型,性能与价格双重突破

3月3日,谷歌推出了其迄今为止最便宜且最快的AI模型——Gemini 3.1 Flash-Lite。这款模型的输入令牌价格仅为每百万个0.25美元,这一举措可能对整个AI基础设施行业的利润空间造成压力。受此消息推动,谷歌(GOOGL)股价上涨4.3%,达到每股309.20美元,公司市值逼近3.64万亿美元。

性能提升显著,性价比优势突出

根据Artificial Analysis的基准测试,新模型的输出处理速度比其前代产品快45%,同时实现了2.5倍的首次响应时间加速。在Arena.ai排行榜上,Flash-Lite以1432的Elo评分表现优异,尽管其输出令牌价格为每百万个1.50美元,但仍低于大多数竞争模型。这种性能使其能够与更大、更昂贵的替代品相媲美。

开发者为何应关注Flash-Lite?

Flash-Lite并非试图成为“最聪明”的模型,而是专为高频率、重复性任务设计,例如内容审核、批量翻译和实时数据提取等。这些任务通常会产生巨额的令牌费用,而Flash-Lite的经济性在处理数百万次API调用时尤为突出。

该模型在GPQA Diamond基准测试中得分86.9%,在MMMU Pro基准测试中得分76.8%,甚至在多项推理任务中超越了谷歌自家的2.5 Flash模型。这尤其值得注意,因为Flash-Lite定位为成本敏感型工作负载的低级别模型,而非专注于复杂推理。

早期采用者如Latitude、Cartwheel和Whering已开始运行生产工作负载。谷歌展示了其在生成电子商务产品目录、从实时数据构建天气仪表板以及执行多步骤业务自动化等任务中的应用案例。这些场景中,延迟和成本的重要性远超原始智能。

AI市场的更大格局

谷歌的激进定价策略表明,AI基础设施推理层的竞争正在加剧。由于该模型的知识截止日期设定为2025年1月,它显然更适合当前的生产用途,而非前沿研究应用。

“思考层级”功能使开发者能够根据查询复杂度精细控制计算深度,从而灵活调整推理强度。这种灵活性解决了实际痛点:无需为轻量级任务支付高昂的推理成本。

如何获取Flash-Lite?

Flash-Lite目前已通过Google AI Studio和Vertex AI提供预览版。对于运行高负载工作量的开发者来说,测试逻辑很简单:将其与现有技术栈进行对比,看看在大规模使用下是否能实现成本节约。

谷歌推出Gemini 3.1 Flash-Lite,GOOGL股价上涨4.3%