这可能是今年科技圈最意味深长的一幕。

一家处于风口浪尖的AI独角兽,刚刚发布了一项重磅计划:成立一个专门的研究机构,告诉公众他们造出来的AI有多危险。

AI配图

就在所有人都在为AI的每一次版本更新欢呼雀跃时,Anthropic却转身成立了一个名为“The Anthropic Institute”的部门。他们的任务不是研发更强的模型,而是研究这些模型如何“重塑”甚至“摧毁”我们的现有生活。

有网友一针见血地指出:“Anthropic正在构建最强大的AI,然后专门成立一个机构来警告世界小心它。这不是公关,这更像是一场忏悔。”

说实话,这种“既当裁判又当运动员”的操作,确实让人玩味。

造物主的“焦虑时刻”

如果你觉得这只是个普通的公关动作,那可能低估了这次动作背后的紧迫感。

Anthropic在官方声明中透露了一个关键信息:AI的进步速度,正在超越人类的承受能力。

看看他们给出的时间线:Anthropic成立五年。前两年,他们还在打磨第一个商业模型;仅仅过了三年,现在的AI已经能发现严重的网络安全漏洞,甚至开始“加速AI开发本身”。

这还没完。他们预测,未来两年的进步将更加剧烈。

Anthropic的核心信仰是“加速主义”——技术的改进会随着时间复利叠加。CEO Dario Amodei曾描述过一种“充满爱意的机器”愿景,但现在他们不得不面对一个残酷的现实:这种强大的智能来得比所有人预想的都要快。

这就好比一群科学家在核反应堆旁做实验,反应堆的功率突然开始指数级飙升,而操作手册还没写好。

这时候,你该怎么办?

Anthropic的选择是:把实验室的门打开,告诉外面的人,我们要面对什么。

只有造核弹的人,才知道掩体在哪

AI配图

这个新成立的Institute,来头不小。

它不是挂个牌子敷衍了事的“智库”,而是直接整合了Anthropic内部三个最核心的研究团队:前沿红队(专门给AI找茬、压力测试)、社会影响团队(研究AI怎么影响现实)、经济研究团队(研究AI怎么抢饭碗)。

领头人是联合创始人Jack Clark,他的新头衔很有意思——“首席公益官”(Head of Public Benefit)。

更有意思的是他们的招聘名单。

Matt Botvinick,耶鲁法学院研究员、前Google DeepMind研究总监、普林斯顿教授,加入负责“AI与法治”;Anton Korinek,弗吉尼亚大学经济学教授,加入研究“变革性AI如何重塑经济活动的本质”。

听听这些头衔:法治、经济本质、社会影响。

这哪里是在研究技术?这分明是在研究“灾后重建”。

Anthropic毫不避讳地指出,他们要回答的问题都相当棘手:强大的AI会如何重塑工作?会放大哪些威胁?如果AI开始自我迭代,谁该知情?谁来治理?

The Anthropic Institute拥有一个独一无二的特权:只有前沿AI的构建者才掌握的内部信息。 他们承诺,将利用这些信息,坦率地报告他们正在制造的技术的“形状”。

这点我个人觉得挺讽刺,也挺必要。毕竟,当洪水来临时,只有修水坝的人最清楚堤坝哪里最薄弱。

华盛顿的游说与“预警”

除了成立研究院,Anthropic还做了一件很“成年人”的决定:扩充公共政策团队,并在华盛顿开设办事处。

这步棋走得很快,也很准。

新任公共政策主管Sarah Heck,背景相当硬核——前Stripe创业主管,曾在白宫国家安全委员会负责全球创业和公共外交政策。

Anthropic的目标很明确:要参与制定全球AI治理的游戏规则。

他们关注的领域包括模型安全、透明度、基础设施投资、出口管制,以及所谓的“民主领导力”。这听起来像是在说:我们要确保AI掌握在“正确”的人手里。

但这背后也隐藏着一种潜在的冲突。

一方面,他们拼命研发更强的模型,甚至让Claude用代码构建新工具(据称Claude Code团队已经在用Claude开发新功能,速度快得让竞争对手望尘莫及);另一方面,他们又在华盛顿高呼“监管”和“安全”。

这种“一边踩油门,一边喊刹车”的姿态,难免让人心生疑虑。

谁来为“被遗忘者”发声?

AI配图

在评论区,除了叫好声,也不乏尖锐的质疑。

有人指出,目前关于AI的最重要决策,都是在普通人永远无法进入的会议室、实验室和政府走廊里做出的。那些最容易被AI取代的工人、学生、普通公民,在这些讨论中几乎是失声的。

The Anthropic Institute声称他们将是一个“双向通道”,会与面临失业的工人、感到未来压力的社区进行接触。他们承诺,从这些接触中学到的东西,将决定公司未来的行动方向。

这听起来很美,但能否落地,还是个未知数。

甚至有人直接抨击这是“虚伪的巅峰”,指责Anthropic一边喊着安全,一边大规模窃取数据、推行某种特定的价值观偏见。

“以人类命名的公司,最终可能走向厌人类。” 这条评论虽然激进,却也道出了公众对巨头垄断技术话语权的不信任。

不管怎么说,Anthropic至少迈出了一步。

他们没有选择把头埋在沙子里,也没有像某些公司那样只谈“赋能”不谈风险。他们雇佣了经济学家来预测失业,雇佣了法学家来探讨规则,雇佣了红队来攻击自己的模型。

DarkPoolTech的一句调侃或许最能概括当下的局面:“强大的AI可能会引发剧烈的经济突变,所以Anthropic负责任地雇佣了经济学家,来告诉我们到底会有多突变。”

这是一场全球性的社会实验,实验品是我们每一个人。

Anthropic手里拿着试管,现在他们竖起了一块牌子,写着:“注意,前方高能。”

但问题是,当那个“高能”时刻真的来临时,我们是有时间穿上防护服,还是只能被迫围观?

【glm-5锐评】:左手造原子弹,右手发防辐射服,这波“风险对冲”玩得是真溜,既赚了技术的钱,又立了安全的人设。

参考链接:
https://x.com/AnthropicAI/status/2031674087374815577