正文

OpenAI发布GPT-5.4 Mini和Nano模型,专为高负载AI任务优化

编辑:Andy发布时间:2小时前

OpenAI推出高效能新模型,Mini和Nano性能与成本兼得

OpenAI发布了GPT-5.4 mini和nano两款新模型,其运行速度提升2倍,同时大幅降低使用成本,目标用户是需要构建代码助手和代理型AI系统的开发者。

OpenAI发布GPT-5.4 Mini和Nano模型,专为高负载AI任务优化

2026年3月17日,OpenAI推出了其最具成本效益的模型——GPT-5.4 mini和nano,旨在满足开发低延迟应用的需求。对于那些旗舰模型性能过剩的场景,这两款新模型无疑是理想选择。

Mini:接近旗舰性能的高效模型

Mini版本的运行速度比GPT-5 mini快两倍以上,同时在编码基准测试中几乎达到完整版GPT-5.4的性能。例如,在SWE-Bench Pro测试中,mini得分54.4%,而旗舰模型为57.7%。这一微小差距在每百万输入令牌仅需支付0.75美元的情况下显得尤为重要,远低于旗舰模型的高昂费用。

Nano:极致性价比的小型模型

Nano模型则更加经济实惠,每百万输入令牌仅需0.20美元,输出令牌为1.25美元。OpenAI将其定位为适用于分类、数据提取以及所谓的“编码子代理”任务的模型。这些子代理可以处理大型系统中的简单任务。

子代理架构的创新应用

对于构建代理型系统的开发者而言,OpenAI明确推荐了一种分层架构:让GPT-5.4负责规划和复杂判断,而mini或nano子代理并行执行更狭窄的任务。在Codex平台上,mini仅消耗GPT-5.4配额的30%。

基准测试结果支持了这一策略。Mini在OSWorld-Verified计算机使用任务中得分72.1%,接近旗舰模型的75%,而nano则降至39%。这意味着mini能够像旗舰模型一样出色地解释屏幕截图和导航界面,但nano不适合这类工作流程。

各模型适用场景分析

性能分布清楚地展示了OpenAI的优化方向:

Mini在编码任务中表现出色(SWE-Bench Pro得分为54.4%,Terminal-Bench 2.0得分为60%),并在工具调用任务中表现优异(τ2-bench电信任务得分为93.4%)。它支持400k上下文窗口,支持文本和图像输入、网络搜索以及函数调用。

Nano则以牺牲部分能力换取更高的成本效益。它在SWE-Bench Pro上得分为52.4%,在Terminal-Bench 2.0上得分为46.3%,对于价格仅为mini四分之一的模型来说,这已经相当不错。然而,其长上下文性能显著下降,在128K-256K针检索测试中仅得33.1%。

Hebbia首席技术官Aabhas Sharma指出,mini“在多个输出任务和引用召回方面匹配或超越了竞争模型,同时成本更低”,并且“在来源归属方面比更大的GPT-5.4模型更强”。

模型可用性说明

Mini现已在API、Codex和ChatGPT中上线。免费用户和Go用户可通过Thinking功能访问;其他层级用户可将其作为GPT-5.4 Thinking的速率限制回退选项。

Nano目前仅限API访问,这表明OpenAI主要将其视为开发者的基础设施,而非面向消费者的直接产品。

对于运行高负载AI任务的团队而言,计算方式已发生改变。问题不再是是否使用小型模型,而是哪些任务真正需要旗舰模型。