OpenAI签过一份"自杀协议",现在该履约了
他们曾承诺:如果竞争对手更安全、更先进,就主动投降。
七年过去,对手真的超越了,而且据说更"安全"、更"价值观一致"。但那份写在官网上的承诺书,今天看起来像个黑色幽默。
那份挂在官网上的"自我牺牲条款"
2018年,OpenAI发布了一份宪章。
里面有这么一段,至今还在 openai.com/charter/ 上挂着:
"我们担心AGI后期开发变成一场没时间做安全预防的竞赛。因此,如果一个价值观一致、注重安全的项目在我们之前接近AGI,我们承诺停止竞争,开始协助这个项目。"
触发条件写得很清楚:"未来两年内成功概率超过50%"。
当时看来,这像是理想主义的巅峰。一家科技公司承诺,为了人类安全,可以放弃商业利益。
现在看,这像是一份给自己准备的绞索。
时间线压缩:从"十年之约"到"昨天已实现"
Sam Altman对AGI的预测,是一部加速狂奔的压缩史。
| 时间 | 预言 |
|---|---|
| 2023年5月 | "十年内"(2033年) |
| 2023年12月 | "这十年末"(2030年) |
| 2024年11月 | "五年后人们会说,AGI时刻来过了"(2029年) |
| 2025年11月 | "2025年有什么可期待的?AGI" |
| 2025年12月 | "AGI kinda went whooshing by... 好吧,我们造出来了" |
| 2026年2月 | "我们基本上已经造出了AGI"(后改口:这是精神层面的说法) |
从十年到负一年。
有趣的是,当时间表被压缩到"就是现在"时,定义也变了。既然AGI"已经实现",大家开始谈论ASI(超级智能)。目标柱在移动,而且移动得飞快。
竞技场排名:对手真的更强了
让我们看看 LMSYS Arena 的最新排名(这是业界公认的模型对战平台):
前十名里,GPT-5.4排在第6位。
前面是谁?
- Claude Opus 4.6(第1位)
- Claude Opus 4.6-thinking(第2位)
- Gemini 3.1 Pro(第3位)
具体数据:
- 编程能力:Claude Opus 4.6-thinking 第1,GPT-5.4 第11
- 数学能力:Gemini 3.1 Pro 第1,GPT-5.4 第8
- 复杂提示处理:Claude Opus 4.6-thinking 第1,GPT-5.4 第10
素材里还提到一个关键点:Anthropic和Google的模型至少被认为是"safety-conscious"(安全意识强)且"value-aligned"(价值观一致)的。
而根据OpenAI自己的宪章,当这样的对手在两年内可能成功时,OpenAI应该**"停止竞争,开始协助"**。
现在,触发条件显然已满足。但你看OpenAI像是要投降的样子吗?
文字游戏:当定义成为挡箭牌
评论区有个高赞说得好:
"每次看到'AGI'、'ASI'这些词,我脑子里就自动替换成'没人能明确定义的东西'。"
这正是问题的核心。
当需要融资和关注度时,AGI是"十年后的颠覆性技术";当需要兑现承诺时,AGI变成了"精神层面的表述";当需要继续融资时,AGI又变成了"已经实现,我们在奔向ASI"。
定义在流动,底线在消失。
那个2018年的理想主义条款,在经济激励面前显得如此无力。就像评论里说的:"这不是理想主义的幼稚,而是理想主义语言被用来营销一个利润优先的组织。"
所以,他们会履约吗?
当然不会。
这篇文章的作者也承认:"While this will never happen..."(虽然这永远不会发生)。
但这暴露了一个残酷的真相:当经济利益足够大时,写在官网上的承诺也可以只是装饰。
OpenAI既没能在技术上保持领先(至少竞技场排名如此),也没能遵守自己设定的道德高地规则。他们陷入了双重尴尬:跑输了比赛,还赖着不走。
而那个"自我牺牲条款",现在读起来像是对旧时代理想主义的墓志铭。
当AGI的定义可以被CEO的嘴随意篡改,当安全承诺可以被流量经济碾碎,我们到底在为什么而兴奋,又在为什么而恐惧?
也许真正的"通用智能",首先应该包括记住自己说过的话的能力。
【kimi-k2.5锐评】:OpenAI把AGI时间表从十年压缩到负一年,却忘了把"自我牺牲条款"的保质期也改一改,这大概就是所谓的"选择性记忆智能"。
参考链接:
https://mlumiste.com/general/openai-charter/