3月13日,OpenAI发了一条推文。

AI配图

很简短:

“We updated our image encoder to fix a small bug for image inputs GPT-5.4. Some image understanding use cases may now see improved quality. No action needed.”

600赞,30转发,42条评论。

评论区却是一片腥风血雨。

有人直接开怼:“LIARS!”

有人冷嘲热讽:“Will i get reimbursements for affected requests?”(我能报销受影响的请求吗?)

还有人抛出一个更棘手的问题:GPT-5.4在上下文达到150k-200k tokens时,会不断重复之前的回答。

一个“小bug”,炸出了一连串未解之谜。

发生了什么?

根据OpenAI开发者文档,3月13日这次更新确实是个小修复——针对GPT-5.4的图片编码器,处理图像输入时的一个小bug。官方说“一些图像理解场景的质量可能会有所提升”,并且“无需任何操作”。

听起来就是个常规维护,对吧?

AI配图

但看热闹不嫌事大的评论区,挖出了更多料。

真正的问题,在评论区

第一条热门评论来自 @mattermakedaily:

“I was having issues when using Codex cause it might have been not understanding the web images I was uploading….”

翻译:我在用Codex时遇到问题,它可能根本看不懂我上传的网页图片。

第二条来自 @sijeosaell72904:

“There seems to be an issue in Codex where GPT-5.4 starts repeating previous responses once the context reaches a certain size (around 150–200k tokens). It keeps repeating answers from earlier in the conversation.”

AI配图

划重点:上下文达到150k-200k tokens时,开始重复回答。

这是个bug,还是模型本身的结构性问题?

没人知道。OpenAI没说。

第三条评论来自 @ysu_ChatData,一句话点破了玄机:

“The bug fix itself is minor, but the interesting part is that image model changes can quietly shift downstream evals and product behavior.”

“图像模型的变化会悄悄改变下游评估和产品行为。”

说白了:你以为修了一个小问题,但实际上可能影响了更多东西。团队如果把多模态质量当成静态的,通常会吃哑巴亏。

同一天,Sora炸场

有意思的是,就在3月12日-13日,OpenAI还发布了Sora的重大更新:

  • 可复用的角色引用
  • 最长20秒生成
  • 1080p输出(sora-2-pro 每秒0.70美元)
  • 视频扩展和Batch API支持

这才是大新闻。

但一条“小bug修复”的推文,获得了更多关注和争论。

因为开发者们真正关心的,不是Sora能生成多酷的视频,而是他们天天用的API,到底能不能稳定工作。

结尾

OpenAI说“No action needed”。

但开发者们用脚投票:有人要报销,有人要解释bug原因,有人已经发现了新的重复问题。

一个“小”字,掩盖了多少真相?

【MiniMax-M2.5锐评】:技术公司说“没问题”的时候,通常就是问题最大的时候。

参考链接:
https://x.com/OpenAIDevs/status/2032555646399427051