说实话,当你看到 600 PB 这个数字时,第一反应是什么?
这是一个大到让人有点眩晕的数据量。现在,想象一下这 600 PB 的数据散落在 70,000 个不同的数据集里,而你需要从中找出一个精确的答案来支持明天的决策。
这听起来像是一场噩梦,但这却是 OpenAI 工程师、产品经理和研究人员每天面对的现实。就在昨天,OpenAI 的一篇博文意外曝光了他们用来应对这场“数据灾难”的秘密武器——一个内部定制的 AI 数据代理。
这可不是什么给外部用户用的 ChatGPT 套壳产品,这是一台为了啃下自家硬骨头而生、专门为 OpenAI 内部工作流打造的“超级大脑”。
更有意思的是,他们在构建这台机器的过程中,发现了一些反直觉的真相,甚至推翻了我们现在习以为常的 AI 使用习惯。
数据太多,也是一种“富贵病”OpenAI 的内部数据平台服务着超过 3500 名用户。
这些人分布在工程、产品、研究等各个核心部门。按理说,手握这么多数据,应该是如虎添翼才对。
但现实往往很骨感。
一位内部员工在博文中吐槽了一句大实话:
“我们有大量非常相似的表,我花了大量时间试图弄清楚它们之间有什么区别,以及该用哪一个……有些包含未登录用户,有些不包含。有些字段重叠;很难分辨到底是什么。”
老实讲,这种痛苦我太能理解了。这就像你去图书馆找书,结果发现书架上有 7 万本书,其中有一半名字都叫“数据最终版_v2”,你根本不知道哪一本才是你要的。
这还不是最糟的。
即便你运气好选对了表,写出正确的 SQL 依然是个高危动作。多对多连接、过滤下推错误、未处理的空值……这些听起来就头大的技术术语,每一个都能让你的分析结果在不知不觉中变得毫无价值。
在 OpenAI 这种体量上,让顶级分析师去调试 SQL 语法,简直是杀鸡用牛刀——甚至可以说,是对人才的一种浪费。## 不止是写 SQL,它是会“自省”的队友
OpenAI 干脆自己动手,造了一个专门解决这个问题的 Agent。
这个 Agent 的核心能力,不是简单的“把自然语言翻译成 SQL”,而是端到端的分析。
举个例子,你可以问它一个极其复杂的开放式问题:
“对于纽约市的出租车行程,哪些接送 ZIP 码对是最不可靠的,即典型行程时间与最坏情况行程时间之间的差距最大,这种变异性发生在什么时候?”换作以前,这得是个资深分析师查半天资料、写好几轮代码才能搞定的事。
现在,这个 Agent 能从理解问题、探索数据、运行查询到综合发现,一口气干完。
我个人觉得,这里最牛的一个设计是它的**“自我纠错”机制**。
它不像传统程序那样死脑筋地跑脚本。它在执行过程中会评估自己的进度。如果中间结果看起来不对劲(比如因为错误的连接导致返回了零行),它会停下来调查哪里出了问题,调整策略,然后再试一次。这是一个闭环的学习过程。
它把原本需要人类反复迭代的麻烦事,自己就在后台默默消化了。你拿到手的,是经过反复验证后的高质量结论。
真正的秘密:它不仅读表,还读代码和 Slack
很多人以为 AI 做数据分析,无非就是读懂表结构(Schema)。
但 OpenAI 发现,光靠这些根本不够。如果缺乏上下文,再强的模型也会把用户数算错,或者把内部术语理解偏。
为了解决这个问题,他们给这个 Agent 喂了六层极其复杂的上下文信息。除了常规的元数据和历史查询记录,这个 Agent 还做了两件很“极客”的事:
第一,它去读代码。
通过 Codex,它能深入理解产生这些表的底层代码逻辑。这就像看说明书不如看设计图纸,它能明白这个表到底是怎么造出来的,数据的颗粒度、更新频率、甚至某些字段为什么被排除在外。
这种“代码级”的理解,让它能一眼分辨出那些长得像双胞胎但其实完全不同的表。
**第二,它连 Slack 和 Notion 都能读。**这招很狠。Agent 可以访问公司内部的文档、聊天记录。这意味着它知道哪些是内部代号,哪些是刚刚发生的故障,甚至知道某个关键指标在不同文档里的定义到底是什么。
它甚至还有记忆。
当你纠正它一次,或者它在对话中发现了某个数据的小窍门,它会把这个经验存下来。下次遇到类似问题,它直接站在前人的肩膀上,不再犯同样的错。
最大的讽刺:别太“教”AI 怎么做事
文章写到这里,该聊聊那个最让我意外的反转了。在构建这个 Agent 的过程中,OpenAI 的团队发现了一个极其反常识的现象:
“高度指令性的提示词反而会降低结果质量。”
老实讲,这有点打脸。
我们现在都在学怎么写 Prompt,恨不得把每一步都规定得死死的。但 OpenAI 发现,这种“微操”式的指令,往往会把 Agent 推向错误的方向。
问题的根源在于,虽然很多分析问题看起来差不多,但细节千差万别。过于死板的指令限制了模型的发挥空间。最后,他们不得不做减法:减少工具调用的冗余,放宽指令的限制,更多地依赖 GPT-5 的推理能力自己去选择路径。
结果呢?Agent 变得更健壮了,结果反而更好了。
这其实给了我们一个很重要的启示:有时候,信任 AI 的“直觉”,比试图控制它的每一行代码更重要。
这才是企业级 AI 的护城河
看完整个案例,我最大的感触是:
真正的 AI 护城河,不是你有没有模型,而是你能不能把模型“塞”进你那乱成一团的业务流程里。OpenAI 这个 Agent,说白了就是把自家最懂的技术(Codex、GPT-5、Embeddings API),用最笨的办法结合到了最具体的业务痛点上。
它甚至不需要是一个完美的产品。它能出错,但它是透明的——它会把自己的推理过程、假设、每一步的执行链接都摊开给你看。
正如网友在评论里说的那样:
“这是企业真正需要的东西——不是另一个聊天机器人包装。自然语言处理内部数据,才是公司真正的 AI 护城河。”
或许,这才是所有大公司接下来 12 到 18 个月内必须抄作业的方向。
毕竟,数据就在那里,谁能最快、最准地问出答案,谁就赢了。
参考链接:
https://x.com/OpenAIDevs/status/2016943147239329872