10倍。

OpenAI 昨天扔出这个数字时,技术圈先是习惯性欢呼,随后迅速分裂成两派:一派在算这是 9 倍还是 10 倍,另一派在尖叫“终于”。

说实话,真正做过 Agent 产品的人都懂——冷启动才是那个沉默的杀手。 当容器从“每次现造”变成“热池待命”,改变的绝不只是 latency 数字。这是一场关于**“能不能用”“好不好用”**的质变。

那些被杀死的 30 秒

先回忆一下以前的 Agent 工作流有多憋屈。

你想让 AI 帮你跑个数据分析:先爬取网页,再用 Python 清洗,最后生成图表。听起来很丝滑对吧?现实是每一步都要等容器冷启动。 第一步等 15 秒,第二步等 15 秒,第三步再 15 秒…… 一个三步 workflow,用户盯着转圈图标看了一分钟。

AI配图

评论区里那位做 AI 销售平台的哥们说得扎心:“Every second of latency on a live call is a second the prospect loses patience.”(直播演示里每一秒延迟,都是潜在客户失去耐心的一秒。)

更惨的是那些需要多轮工具调用的 Agent。之前业界有个黑色幽默:“Chain of Thought” 最大的敌人不是模型智商,而是容器启动时间。 你想让 Agent 像人类一样“先查资料再写代码再调试”?不好意思,每次调用新工具都要重新 spin up 一个容器,30 秒的间隙足以让任何“智能”显得像个笑话。

“同步阈值”才是那个魔法数字

有意思的是,OpenAI 这次更新里藏了个比 10 倍更关键的词:Warm pools(热池)

原理说白了就是不销毁容器,而是把它泡在一个池子里待命。下次请求来了直接复用,省去了从头创建 Debian 12 环境、加载 Python 3.11 和 Node.js 22 的全套流程。

但这技术本身并不性感。性感的是它跨过了那个“同步阈值”。

之前的多步 Agent workflow 被迫做成异步——用户提问,AI 说“我去处理一下,半小时后邮件你”。现在呢?秒级响应。 就像那位叫 MingtaKaivo 的开发者说的:“multi-step workflows that were previously too slow to feel synchronous now are.”(以前慢得不像同步的多步工作流,现在终于像了。)

AI配图

这个阈值一旦跨过,产品经理的脑回路就变了。以前他们设计产品时想的是“怎么绕过延迟”,现在想的是“还能加什么功能”。从 workaround-driven 到 product-driven,这是生态级的转向。

单元经济学:小任务也值得派个 Agent 了

还有个被低估的维度:

以前 spawn 一个容器的 overhead 太高,以至于你只让 AI 跑个简单的 ls -lah 都觉得亏。现在容器复用让边际成本趋近于零,“Agent 即服务”的单元经济学彻底改写。

评论里有人算过账:当容器开销 drop 10x,那些“技术上可行但成本 prohibitive”的 use case 突然就变得值得做了。比如给每个用户请求都派一个专属 Agent 做轻量级预处理?以前太奢侈,现在随便造。

这才是 10x 真正的威力——它不只是让快的东西更快,更是让原本“太贵舍不得用”的场景变得稀松平常。

能力越大,坑越大

当然,OpenAI 也没忘了在文档里泼冷水。

当你给容器开网络访问权限(比如让 AI 去 PyPI 装包或者爬 GitHub),Prompt Injection 的风险直接拉满。 恶意指令可能通过外部网页内容溜进来,指挥你的 Agent 把敏感数据发到攻击者控制的域名。

他们甚至专门设计了 domain_secrets 机制——让模型看到的是 $API_KEY 占位符,实际运行时由 sidecar 注入真实凭证,确保密钥不会出现在模型上下文里被意外泄露。

说白了,OpenAI 在告诉你:“我给你开了法拉利,但别忘了刹车。” 当 Agent 能在几秒内 spin up 容器、联网、执行任意代码,安全沙箱和域名白名单就不再是可选项,而是生死线。

基础设施隐形时,Agent 才真正显形

回头看,这次更新其实挺“不 OpenAI”的。

AI配图

没有新模型,没有 GPT-5 的噱头,甚至连 blog 都发得低调。但懂行的人都知道,Agent 时代的基础设施拼图,最后一块终于拼上了。

当冷启动不再是瓶颈,当多步 workflow 能流畅跑完,当小任务也值得上 Agent——那个我们喊了两年的“Agent 爆发”,可能才真正准备好落地。

所以问题变成了:当容器启动时间不再是你偷懒的借口,你的产品,值得让用户等待吗?

【kimi-k2.5锐评】:OpenAI 终于明白 Agent 时代的核心竞争力不是模型智商而是基础设施的“无感度”,10 倍提速背后是对开发者耐心的救赎,也是对竞争对手云服务的降维打击。

参考链接:
https://x.com/OpenAIDevs/status/2035437297005727963