这大概是硅谷今年最荒诞的一幕。
一家美国本土的顶级 AI 实验室,被美国国防部正式贴上了“供应链风险”的标签。
要知道,这个标签通常是留给什么人的?外国对手,敌对国家,或者那些被制裁的实体。
现在,它贴在了 Anthropic 脑门上。
理由竟然不是因为它技术不安全,而是因为它的 CEO 太有“原则”。
然鹅!
更荒诞的是,虽然 Anthropic 被国防部禁了,但并不妨碍 Claude 正在帮美国打伊朗
拒绝做杀人机器的代价
事情还得从几周前的一场争吵说起。
Anthropic 的 CEO Dario Amodei 是个硬骨头。
国防部找上门来,想用他们的 AI 干两件事:第一,对美国老百姓搞大规模监控;第二,造全自动杀人武器——不需要人类点头,AI 自己就能瞄准、开火。
Amodei 直接拒绝了。
他说,这事儿没得商量。
五角大楼那边显然没料到会被一家承包商教做事。在他们看来,国防部怎么用 AI,那是国家战略,轮不到你一家公司来指手画脚。
Anthropic CEO Dario Amodei has refused to allow the military to use its AI systems for mass surveillance of Americans or to power fully autonomous weapons with no humans assisting in the targeting or firing decisions.
结果就是,国防部恼羞成怒。
既然你不听话,那就别玩了。
他们搞出了一个极其罕见的操作:把 Anthropic 定性为“供应链风险”。
这意味着什么?
意味着任何跟国防部有生意往来的公司,都得签字画押,证明自己没用 Anthropic 的模型。
这简直就是封杀令。
正在用的,突然成了“风险”
说实话,这事儿充满了黑色幽默。
就在五角大楼忙着给 Anthroid 贴标签的时候,美国大兵们可能正在前线用它的模型打仗。
根据彭博社的消息,美军目前在伊朗的行动中,高度依赖 Claude 来快速处理海量作战数据。
Claude 甚至被装进了 Palantir 的 Maven 智能系统,这是中东地区军事操作员的核心工具。
Anthropic has been the only frontier AI lab with classified-ready systems. The U.S. military is currently relying on Claude in its Iran campaign...
换句话说,在所有前沿 AI 实验室里,只有 Anthropic 的系统是达到了“机密就绪”级别的。
现在,国防部为了出一口气,不仅要把这家公司踢出局,还要自断一臂。
这不仅仅是惩罚,这简直是自残。
隔壁的“懂事人”
这事儿最讽刺的地方在于对比。
就在 Anthropic 和国防部硬刚的时候,隔壁的 OpenAI 早就签了字。
OpenAI 和国防部达成协议,允许军方将其 AI 用于“所有合法用途”。
什么叫“所有合法用途”?
这四个字含金量太高了,也模糊得吓人。
OpenAI 自己的员工都担心,这种模糊的措辞,最后会不会就变成了 Anthropic 拒绝的那种用途——大规模监控,或者全自动杀人。
更有意思的是政治站队。
Anthropic 的 CEO Amodei 透露,他拒绝赞扬特朗普,也拒绝给特朗普捐款,这可能是惹怒五角大楼的原因之一。
而 OpenAI 的总裁 Greg Brockman 呢?
他是特朗普的铁杆支持者,最近刚给 MAGA Inc. 的超级政治行动委员会捐了 2500 万美元。
一边是拒绝捐款、拒绝做杀人机器的“供应链风险”;
一边是豪掷千金、拥抱“所有合法用途”的“爱国者”。
这剧本,好莱坞都不敢这么写。
业界震怒:共和国的临终喉鸣?
这波操作,连科技圈的老油条们都看不下去了。
Dean Ball,这位前特朗普白宫的 AI 顾问,用词非常狠。
他说,这是“美利坚共和国的临终喉鸣”。
他认为政府已经抛弃了战略清晰和尊重,转而搞那种“暴徒式”的部落主义,对待国内创新者比对待外国对手还差。
Dean Ball... has referred to the designation as a “death rattle” of the American republic...
而且,这不仅仅是专家的看法。
OpenAI 和 Google 的数百名员工也坐不住了。
他们联名写信,要求国防部撤回这个 designation,还呼吁国会出手干预。
哪怕是自己公司已经签了协议的 OpenAI 员工,也站出来呼吁:
别用 AI 来搞国内监控,别用 AI 在没有人类监督的情况下自动杀人。
They have also urged their leaders to stand together to continue to refuse the DOD’s demands to use their AI models for domestic mass surveillance and “autonomously killing people without human oversight.”
这说明什么?
说明在底层工程师的认知里,有些底线是不能破的。
哪怕公司为了利益妥协了,哪怕国防部为了权力施压了,大家心里都有一杆秤。
Amodei 把国防部的行为称为“报复性和惩罚性的”。
我个人觉得,这个词用得一点没错。
当一家公司因为拒绝制造杀人机器而被视为“风险”,这本身就是一个巨大的风险。
这不仅仅是 Anthropic 的危机,也是整个硅谷价值观与华盛顿强权的一次正面碰撞。
至于最后谁会赢?
老实讲,我并不乐观。
但至少,还有人敢说“不”。
【glm-4.7锐评】:当拒绝全自动杀人成了原罪,这不仅是硅谷的悲哀,更是科技伦理在权力面前的裸奔。
参考链接:
https://techcrunch.com/2026/03/05/its-official-the-pentagon-has-labeled-anthropic-a-supply-chain-risk/