说实话,看到这则声明时,我愣了几秒。

一家尚在烧钱阶段的AI初创公司,居然公开叫板全球最强的军事机器——美国国防部。

这不是商业纠纷,这是关于底线的“生死状”。

拒绝“任何合法用途”:要么听话,要么滚蛋

AI配图

事情起因很硬核。

美国国防部最近给AI公司划了一条红线:想拿合同,就得接受“任何合法用途”条款。换句话说,军方怎么用AI,企业无权过问,必须移除所有安全护栏。

Anthropic的回答很干脆:没门。

在最新发布的声明中,CEO Dario Amodei直接摊牌:国防部不仅威胁将Anthropic踢出军事系统,还扬言要将这家美国公司标记为“供应链风险”——这个标签,以前通常是留给美国的地缘政治对手的。

更狠的是,政府还威胁要援引《国防生产法》,强制要求移除安全措施。

AI配图

Amodei一针见血地指出了其中的荒谬逻辑:

一方面把我们标记为安全风险,另一方面又声称Claude对国家安全至关重要。这两个威胁本身就是自相矛盾的。

这简直是“又要马儿跑,又要马儿不吃草”的霸权版。

并非“反战”,而是“极致的亲美”

如果你以为Anthropic是一群怀揣白左理想的反战嬉皮士,那就大错特错了。

事实上,他们是美国军方最得力的技术盟友。

AI配图

Amodei在声明里毫不避讳地展示了他们的“投名状”:Anthropic是第一家在政府涉密网络部署模型的公司,第一家在国家实验室部署的公司,也是第一家为国安客户定制模型的公司。

Claude现在正广泛用于情报分析、作战模拟、网络行动等关键任务。

为了表忠心,他们甚至做得有点“过火”:

为了维护美国在AI领域的领先地位,Anthropic主动放弃了数亿美元的收入,切断了所有与中国有关联的客户的访问权限;他们还拦截了试图滥用Claude的黑客攻击,并强烈支持芯片出口管制。

老实讲,这哪里是反战?这简直是“爱国者”中的“先锋队”。

但就是这样一个铁杆盟友,这次却选择了硬刚。为什么?

因为国防部踩到了两条绝对不能碰的红线。

两条红线:当技术跑在法律前面

Anthropic明确表示,有两件事,给多少钱都不能干。

第一,大规模国内监控。

虽然支持合法的海外情报任务,但Anthropic坚决反对用AI对自家人民进行大规模监控。

这不仅是价值观问题,更是技术现实。现在的法律还没跟上技术的脚步。政府可以合法购买民众的行踪、上网记录等零散数据,以前这还需要人力去分析,现在AI能瞬间把这些“无害”的碎片,拼凑成每个人生活的全景图。

这就好比把每个人都扒光了放在显微镜下,而且还是全自动的。

第二,全自主武器。

注意,Anthropic并不反对像乌克兰战场上那样的“半自主武器”。他们反对的是把人类彻底踢出决策圈的杀人机器。

理由很技术流,也很现实:现在的AI还不够靠谱。

Amodei直言,目前的前沿AI系统根本不足以安全驱动全自主武器。如果不小心误伤了平民或自己的大兵,谁来负责?他们曾提议和国防部合作研发提高可靠性的技术,但国防部拒绝了。

既然你不能保证安全,那我就不给你这把刀。这就是Anthropic的逻辑。

谁来踩住刹车?

这事儿最有意思的地方在于评论区的反应。

有人感叹:“看到一家公司能为了原则对抗自身利益,真是令人鼓舞,尤其是在拿了那么多风投钱之后。”

也有人犀利地指出:“OpenAI和Google本来也可以站出来,那样政府可能就妥协了。可惜他们没有。”

更有人看到了更深层的危机:这其实是立法机构的失职。

国会把权力拱手让给了行政机构,导致军方可以肆意扩张权限。如果法律没有明确规定边界,难道真的要靠私营企业来充当最后的“守门人”吗?

这确实是个细思极恐的问题。

当技术跑得比法律快,当军方要求“绝对服从”,如果连Anthropic这样“听话”的公司都被迫亮红灯,那我们离那个失控的未来,还有多远?

好在,Anthropic目前的态度依然坚定:

我们凭良心无法接受他们的要求。

这句话,或许是这篇充满火药味的声明里,唯一让人感到一丝暖意的地方。

参考链接:
https://www.anthropic.com/news/statement-department-of-war