更快,更便宜,但别搞错重点

2026年3月17日,OpenAI悄无声息地甩出了两个"小东西"——GPT-5.4 mini和GPT-5.4 nano。

没有发布会,没有Altman的社交媒体狂欢,甚至连个像样的新闻稿都没发。

AI配图

但懂行的人一看就知道:这俩玩意儿,比GPT-5.4本身有意思多了。

因为它们代表了一个残酷但清晰的趋势——AI竞赛的下一个战场,不在"谁更大",而在"谁更快、更便宜、更会干活"。

速度与激情

先说最直观的:快。

根据用户实测,GPT-5.4 mini在API上的推理速度稳定在180-190 tokens/秒。作为对比,GPT-5 mini只有55-60 tokens/秒。

将将两倍。

但等等,GPT-5.4 nano更夸张——200 tokens/秒。

这个数字意味着什么?意味着当你用AI写代码时,它不再是那个"转圈圈等半天"的慢吞吞助手,而是能跟上你思维节奏的搭档。

OpenAI自己说了:这些模型是为"延迟直接塑造产品体验"的场景设计的。

翻译成人话就是——别再让用户盯着屏幕发呆。

性能接近大模型?这事有点魔幻

快不算本事,关键是它还挺能打。

看几个硬指标:

AI配图

在SWE-Bench Pro(代码能力测试)上,GPT-5.4 mini拿了54.4%,GPT-5.4是57.7%。差距不到4个百分点。

在OSWorld-Verified(电脑使用能力)上,GPT-5.4 mini是72.1%,GPT-5.4是75.0%。

在GPQA Diamond(科学推理)上,GPT-5.4 mini是88.0%,GPT-5.4是93.0%。

怎么说呢……这已经不是"够不够用"的问题了,这是"普通人根本分不清谁是谁"的问题。

有意思的是,评论区有用户直接点破:

"SOTA模型之间的差异已经小到几乎无法感知,但小模型的进步往往是飞跃式的。"

一句话总结:顶配旗舰机当然好,但中端机突然也能流畅跑满帧了。

真正的玩法:子代理架构

这才是我,觉得最精彩的部分。

OpenAI在博客里提到了一个场景:在Codex中,可以让GPT-5.4负责"规划、协调、最终判断",然后把搜索代码库、审查大文件、处理文档这些"脏活累活",扔给GPT-5.4 mini subagents并行处理。

说白了——大模型当大脑,小模型当手和脚。

这让我想起评论区一位用户的吐槽:

"LLM评估现在越来越像'玄学',大家都是凭感觉说哪个更好。但真正的工程问题应该是:你怎么组合这些模型,让它们各司其职?"

一针见血。

单打独斗的时代过去了。未来的AI系统,更像一支分工明确的球队,而不是一个万能的超人。

价格陷阱?有人算了一笔账

但等等,有人发现了一个诡异的现象:

GPT-5 mini:输入$0.25/百万token,输出$2.00
GPT-5 nano:输入$0.05,输出$0.40
GPT-5.4 mini:输入$0.75,输出$4.50
GPT-5.4 nano:输入$0.20,输出$1.25

新一代模型,反而更贵了?

也不全是。GPT-5.4 nano比GPT-5 nano贵,但它的性能已经可以碰瓷GPT-5 mini了。

所以这笔账要这么算:同样的任务,用nano的钱,干mini的活。

省下来的,都是利润。

AI配图

对于那些每天要调用几十上百次LLM的公司来说,这个差距会像滚雪球一样越滚越大。

赢家是谁?

评论区里有人提了一句:

"OSWorld的成绩基本就是噪声水平,72.1%对72.4%的人类基准。那为什么不让mini成为默认选项?"

这个问题问得好。

当小模型足够好,大模型的存在感会被压缩到只剩"edge cases"(极端情况)。

换句话说:80%的工作,nano和mini就能干得漂亮。剩下20%的hard模式,才需要GPT-5.4这种大杀器出场。

这种"分层",可能才是AI落地的真正未来。

我的判断

我对这波发布的态度是:务实,但别太兴奋。

务实在于——OpenAI终于在做"对的事情"。让模型变快、变便宜、变好用,比继续堆参数更有意义。

不太兴奋在于——这种"小模型逆袭"的叙事,我们已经听了很多遍了。每次都是"接近大模型性能",每次都是"性价比之王",但实际用起来,总差那么一口气。

不过这次不一样的是,OpenAI自己把话说得很明白:

"在很多场景下,最好的模型不是最大的那个,而是那个响应快、工具用得稳、还能把复杂任务办好的那个。"

话糙理不糙。

而且,GPT-5.4 nano的价格(输入$0.20/百万token,输出$1.25/百万token)确实让它成了"走量"的最佳选择。

当一个模型既够用、又便宜、还快的时候——

它就会变成默认选项。


【MiniMax-M2.1锐评】:OpenAI这篇博客写得克制,但藏不住野心。小模型不是"阉割版",是"特化版"。谁先想明白这件事,谁就能在AI应用落地这场硬仗里抢到先机。

参考链接:
https://openai.com/index/introducing-gpt-5-4-mini-and-nano