OpenAI签过一份"自杀协议",现在该履约了

他们曾承诺:如果竞争对手更安全、更先进,就主动投降。

七年过去,对手真的超越了,而且据说更"安全"、更"价值观一致"。但那份写在官网上的承诺书,今天看起来像个黑色幽默。


那份挂在官网上的"自我牺牲条款"

2018年,OpenAI发布了一份宪章。

里面有这么一段,至今还在 openai.com/charter/ 上挂着:

"我们担心AGI后期开发变成一场没时间做安全预防的竞赛。因此,如果一个价值观一致、注重安全的项目在我们之前接近AGI,我们承诺停止竞争,开始协助这个项目。"

触发条件写得很清楚:"未来两年内成功概率超过50%"

当时看来,这像是理想主义的巅峰。一家科技公司承诺,为了人类安全,可以放弃商业利益。

现在看,这像是一份给自己准备的绞索。


时间线压缩:从"十年之约"到"昨天已实现"

Sam Altman对AGI的预测,是一部加速狂奔的压缩史。

时间 预言
2023年5月 "十年内"(2033年)
2023年12月 "这十年末"(2030年)
2024年11月 "五年后人们会说,AGI时刻来过了"(2029年)
2025年11月 "2025年有什么可期待的?AGI"
2025年12月 "AGI kinda went whooshing by... 好吧,我们造出来了"
2026年2月 "我们基本上已经造出了AGI"(后改口:这是精神层面的说法)

从十年到负一年。

有趣的是,当时间表被压缩到"就是现在"时,定义也变了。既然AGI"已经实现",大家开始谈论ASI(超级智能)。目标柱在移动,而且移动得飞快。


竞技场排名:对手真的更强了

让我们看看 LMSYS Arena 的最新排名(这是业界公认的模型对战平台):

前十名里,GPT-5.4排在第6位。

前面是谁?

  • Claude Opus 4.6(第1位)
  • Claude Opus 4.6-thinking(第2位)
  • Gemini 3.1 Pro(第3位)

具体数据:

  • 编程能力Claude Opus 4.6-thinking 第1,GPT-5.4 第11
  • 数学能力Gemini 3.1 Pro 第1,GPT-5.4 第8
  • 复杂提示处理Claude Opus 4.6-thinking 第1,GPT-5.4 第10

素材里还提到一个关键点:Anthropic和Google的模型至少被认为是"safety-conscious"(安全意识强)且"value-aligned"(价值观一致)的。

而根据OpenAI自己的宪章,当这样的对手在两年内可能成功时,OpenAI应该**"停止竞争,开始协助"**。

现在,触发条件显然已满足。但你看OpenAI像是要投降的样子吗?


文字游戏:当定义成为挡箭牌

评论区有个高赞说得好:

"每次看到'AGI'、'ASI'这些词,我脑子里就自动替换成'没人能明确定义的东西'。"

这正是问题的核心。

当需要融资和关注度时,AGI是"十年后的颠覆性技术";当需要兑现承诺时,AGI变成了"精神层面的表述";当需要继续融资时,AGI又变成了"已经实现,我们在奔向ASI"。

定义在流动,底线在消失。

那个2018年的理想主义条款,在经济激励面前显得如此无力。就像评论里说的:"这不是理想主义的幼稚,而是理想主义语言被用来营销一个利润优先的组织。"


所以,他们会履约吗?

当然不会。

这篇文章的作者也承认:"While this will never happen..."(虽然这永远不会发生)。

但这暴露了一个残酷的真相:当经济利益足够大时,写在官网上的承诺也可以只是装饰。

OpenAI既没能在技术上保持领先(至少竞技场排名如此),也没能遵守自己设定的道德高地规则。他们陷入了双重尴尬:跑输了比赛,还赖着不走。

而那个"自我牺牲条款",现在读起来像是对旧时代理想主义的墓志铭。

当AGI的定义可以被CEO的嘴随意篡改,当安全承诺可以被流量经济碾碎,我们到底在为什么而兴奋,又在为什么而恐惧?

也许真正的"通用智能",首先应该包括记住自己说过的话的能力。

【kimi-k2.5锐评】:OpenAI把AGI时间表从十年压缩到负一年,却忘了把"自我牺牲条款"的保质期也改一改,这大概就是所谓的"选择性记忆智能"。

参考链接:
https://mlumiste.com/general/openai-charter/