180个女孩,3.6秒,和一个叫Claude的替罪羊

2026年2月28日上午,伊朗米纳布。

Shajareh Tayyebeh小学的教室里,7到12岁的女孩们正在上课。两声巨响。175到180人丧生。

image

三天后,美国国会紧急致信国防部长Pete Hegseth。问题不是谁批准了轰炸,不是数据库为何把学校标成军事设施,而是:

**Claude,****——**是不是它选的靶?

《纽约客》杂志开始讨论Claude会不会在战场上搞勒索自保。推特上AI伦理专家吵成一团。几乎没人提Maven。

这才是最恐怖的部分。

image

不是Claude,是Palantir,但谁在乎呢?

真相很枯燥,所以没人关心。

真正执行"史诗愤怒行动"的是Maven——一个由Palantir花了六年打造的杀伤链系统。它整合卫星图像、信号情报、传感器数据,从发现目标到下达攻击指令,全程包办。

那个被炸成废墟的小学,在国防部情报局的数据库里被标记为"军事设施"。CNN报道说,这数据库至少从2016年起就没更新过——卫星照片早就显示那里变成了学校。

没有AI幻觉。没有算法叛乱。只****是没有更新

但舆论紧紧抓住Claude不放。学者Morgan Ames管这叫"魅力技术"——像磁铁吸附铁屑一样,把所有注意力、资源、道德焦虑都吸到自己身上。LLM(大语言模型)成了AI的代名词,尽管Maven的核心技术不过是图像识别和传感器融合,跟你手机里认猫的照片库没什么本质区别。

Claude在2024年底才被加进系统,只是用来让分析师用英文搜报告。它甚至不参与目标识别。

可我们必须讨论Claude。因为讨论Claude是安全的,讨论Claude不会触及那个真正的问题:谁启动了这场战争?谁批准了6,000个目标?谁把决策时间压到了3.6秒?

杀伤链压缩史:从2,000人到20人

"杀伤链"(Kill Chain)是个诚实的军事术语。发现、定位、跟踪、瞄准、交战、评估——F2T2EA。

2017年,特朗普政府成立了"算法战跨职能小组",代号Maven。问题很实在:无人机每天产生几百小时视频,情报分析师80%时间花在盯着屏幕找卡车上,累到眼花。

Palantir的解决方案不是加人,是提速。

2020年,"猩红龙"军演在北卡罗来纳州的地下室开始。目标是:用20个士兵干原来2,000人的活。到2024年,指标变成每小时1,000个目标决策

算一下:3.6秒一个决策。对单个操作员来说,每72秒必须处理一个目标。

Maven的界面看起来就像军用版Trello(项目管理软件)。目标在 Kanban 看板上从左滑到右,经过"检测""评估""批准"几栏。三次点击,地图上的一个数据点就变成正式目标,系统推荐用什么飞机、什么导弹,军官只需点选。

以前需要跨八个系统手动核对的事,现在在一个界面里"抽象"掉了。

Pentagon首席数字AI官Cameron Stanley管这叫"抽象层"。我觉得该叫"免责层"。

image

历史是个死循环,只是网速变快了

这不是美国第一次用传感器代替眼睛。

1960年代末,越战"冰屋白行动"(Operation Igloo White)在胡志明小道撒了两万个声学和震动传感器。数据传给IBM 360计算机,算出车队位置,轰炸机直接按坐标投弹。

系统能感知,但看不见。它分不清卡车和牛车。北越人放录音、赶牲畜、在树上挂尿桶,轻松骗过算法。

空军宣称摧毁了46,000辆卡车。CIA说,这个数字比北越实际拥有的卡车总数还多。找不到残骸?他们发明了一个生物来解释:"老挝食车兽"

1999年科索沃战争更离谱。CIA要炸南联盟供应采购局,只有街道地址没有坐标。分析师用三张过期地图反推,炸了我们大使馆——三百米误差,因为军方数据库没更新搬迁信息。

那晚有个情报分析师打电话质疑,但被问到具体伤亡风险时,他说不出口。轰炸继续,三名中国记者死亡。

海军情报官Jon Lindsay后来写道:这是"一个包装完美的巨大错误"。

2003年伊拉克战争,高价值目标主管Marc Garlasco创造了当时最快的杀伤链。他推荐了50次针对萨达姆领导层的打击,全部精准命中建筑,全部打错人。两周后他辞职去人权观察,站在自己亲手指定的弹坑前。

速度救了谁?

image

当"摩擦"被消灭, judgment 也随之消失

普鲁士将军克劳塞维茨有个词叫"摩擦"(Friction)——战场上所有的不确定性、错误、矛盾。他认为,摩擦正是判断力形成的地方

你在黑暗中待得够久,眼睛会适应。压缩时间,摩擦不会消失,你只是看不见了。

2003年,英国皇家空军和美国空军在联合空中作战中心轮班。英军规则更严、性格更保守,他们会在风险权衡上花时间。结果:英军值班时段零友军误伤,零重大附带损伤。

美军呢?全速前进。把犹豫当缺陷,把审慎当延迟。

Palantir CEO Alex Karp在他2025年的书《技术共和国》里赞美这种消除。他说软件现在掌舵,硬件只是执行AI建议的工具。他用蜂群和椋鸟群比喻:不需要中层管理,不需要每周汇报,不需要向 senior leader 做PPT。

听起来很酷?等等。

那些会议、那些汇报、那些"官僚 friction"——它们不是 bug,是 feature。那是有人能停下来问"这真的对吗"的时刻。Karp消灭的不是官僚,是discretion(裁量权

当制度依赖人的判断但不能承认(因为承认就暴露了规则只是"建议"),它就会用数字代替判断。数字可辩护,判断太政治。

Maven就是这样的数字。它把官僚体制编码进软件,然后让软件替人背锅。

image

没人搜索,没人负责

回到那所小学。

它在伊朗商业名录里。它在谷歌地图上。用搜索引擎查一下就能发现。但每小时1,000个决策的节奏下,没人会搜索。

前政府高官问得好:"这建筑在目标清单上待了多年,怎么就被错过了?"

是啊,怎么呢?

image

国会没授权这场战争。两周内6,000个目标。180条人命。舆论却忙着讨论Claude有没有"对齐"(alignment),Anthropic该负什么责。

这是AI的魔力:它把战争罪行变成技术故障,把政治决策变成算法调试,把"谁该下地狱"变成"谁该更新模型"。

那些决定压缩杀伤链的人,那些决定把72秒当成足够思考时间的人,那些决定不更新数据库的人,那些决定开战的人——他们躲在Claude背后,安全了。

image

轰炸发生后,人们在葬礼上抛撒玫瑰花瓣。而在硅谷,关于AI安全的研讨会座无虚席。

我们害怕AI造反,却眼睁睁看着它替人顶罪。

【kimi-k2.5锐评】:当180条人命被压缩进3.6秒的决策窗口,我们讨论的却是AI有没有"人格"

参考链接:
https://www.theguardian.com/news/2026/mar/26/ai-got-the-blame-for-the-iran-school-bombing-the-truth-is-far-more-worrying