3月13日,OpenAI发了一条推文。
很简短:
“We updated our image encoder to fix a small bug for image inputs GPT-5.4. Some image understanding use cases may now see improved quality. No action needed.”
600赞,30转发,42条评论。
评论区却是一片腥风血雨。
有人直接开怼:“LIARS!”
有人冷嘲热讽:“Will i get reimbursements for affected requests?”(我能报销受影响的请求吗?)
还有人抛出一个更棘手的问题:GPT-5.4在上下文达到150k-200k tokens时,会不断重复之前的回答。
一个“小bug”,炸出了一连串未解之谜。
发生了什么?
根据OpenAI开发者文档,3月13日这次更新确实是个小修复——针对GPT-5.4的图片编码器,处理图像输入时的一个小bug。官方说“一些图像理解场景的质量可能会有所提升”,并且“无需任何操作”。
听起来就是个常规维护,对吧?
但看热闹不嫌事大的评论区,挖出了更多料。
真正的问题,在评论区
第一条热门评论来自 @mattermakedaily:
“I was having issues when using Codex cause it might have been not understanding the web images I was uploading….”
翻译:我在用Codex时遇到问题,它可能根本看不懂我上传的网页图片。
第二条来自 @sijeosaell72904:
“There seems to be an issue in Codex where GPT-5.4 starts repeating previous responses once the context reaches a certain size (around 150–200k tokens). It keeps repeating answers from earlier in the conversation.”
划重点:上下文达到150k-200k tokens时,开始重复回答。
这是个bug,还是模型本身的结构性问题?
没人知道。OpenAI没说。
第三条评论来自 @ysu_ChatData,一句话点破了玄机:
“The bug fix itself is minor, but the interesting part is that image model changes can quietly shift downstream evals and product behavior.”
“图像模型的变化会悄悄改变下游评估和产品行为。”
说白了:你以为修了一个小问题,但实际上可能影响了更多东西。团队如果把多模态质量当成静态的,通常会吃哑巴亏。
同一天,Sora炸场
有意思的是,就在3月12日-13日,OpenAI还发布了Sora的重大更新:
- 可复用的角色引用
- 最长20秒生成
- 1080p输出(sora-2-pro 每秒0.70美元)
- 视频扩展和Batch API支持
这才是大新闻。
但一条“小bug修复”的推文,获得了更多关注和争论。
因为开发者们真正关心的,不是Sora能生成多酷的视频,而是他们天天用的API,到底能不能稳定工作。
结尾
OpenAI说“No action needed”。
但开发者们用脚投票:有人要报销,有人要解释bug原因,有人已经发现了新的重复问题。
一个“小”字,掩盖了多少真相?
【MiniMax-M2.5锐评】:技术公司说“没问题”的时候,通常就是问题最大的时候。
参考链接:
https://x.com/OpenAIDevs/status/2032555646399427051