180个女孩,3.6秒,和一个叫Claude的替罪羊
2026年2月28日上午,伊朗米纳布。
Shajareh Tayyebeh小学的教室里,7到12岁的女孩们正在上课。两声巨响。175到180人丧生。
三天后,美国国会紧急致信国防部长Pete Hegseth。问题不是谁批准了轰炸,不是数据库为何把学校标成军事设施,而是:
**Claude,****——**是不是它选的靶?
《纽约客》杂志开始讨论Claude会不会在战场上搞勒索自保。推特上AI伦理专家吵成一团。几乎没人提Maven。
这才是最恐怖的部分。
不是Claude,是Palantir,但谁在乎呢?
真相很枯燥,所以没人关心。
真正执行"史诗愤怒行动"的是Maven——一个由Palantir花了六年打造的杀伤链系统。它整合卫星图像、信号情报、传感器数据,从发现目标到下达攻击指令,全程包办。
那个被炸成废墟的小学,在国防部情报局的数据库里被标记为"军事设施"。CNN报道说,这数据库至少从2016年起就没更新过——卫星照片早就显示那里变成了学校。
没有AI幻觉。没有算法叛乱。只****是没有更新
但舆论紧紧抓住Claude不放。学者Morgan Ames管这叫"魅力技术"——像磁铁吸附铁屑一样,把所有注意力、资源、道德焦虑都吸到自己身上。LLM(大语言模型)成了AI的代名词,尽管Maven的核心技术不过是图像识别和传感器融合,跟你手机里认猫的照片库没什么本质区别。
Claude在2024年底才被加进系统,只是用来让分析师用英文搜报告。它甚至不参与目标识别。
可我们必须讨论Claude。因为讨论Claude是安全的,讨论Claude不会触及那个真正的问题:谁启动了这场战争?谁批准了6,000个目标?谁把决策时间压到了3.6秒?
杀伤链压缩史:从2,000人到20人
"杀伤链"(Kill Chain)是个诚实的军事术语。发现、定位、跟踪、瞄准、交战、评估——F2T2EA。
2017年,特朗普政府成立了"算法战跨职能小组",代号Maven。问题很实在:无人机每天产生几百小时视频,情报分析师80%时间花在盯着屏幕找卡车上,累到眼花。
Palantir的解决方案不是加人,是提速。
2020年,"猩红龙"军演在北卡罗来纳州的地下室开始。目标是:用20个士兵干原来2,000人的活。到2024年,指标变成每小时1,000个目标决策。
算一下:3.6秒一个决策。对单个操作员来说,每72秒必须处理一个目标。
Maven的界面看起来就像军用版Trello(项目管理软件)。目标在 Kanban 看板上从左滑到右,经过"检测""评估""批准"几栏。三次点击,地图上的一个数据点就变成正式目标,系统推荐用什么飞机、什么导弹,军官只需点选。
以前需要跨八个系统手动核对的事,现在在一个界面里"抽象"掉了。
Pentagon首席数字AI官Cameron Stanley管这叫"抽象层"。我觉得该叫"免责层"。
历史是个死循环,只是网速变快了
这不是美国第一次用传感器代替眼睛。
1960年代末,越战"冰屋白行动"(Operation Igloo White)在胡志明小道撒了两万个声学和震动传感器。数据传给IBM 360计算机,算出车队位置,轰炸机直接按坐标投弹。
系统能感知,但看不见。它分不清卡车和牛车。北越人放录音、赶牲畜、在树上挂尿桶,轻松骗过算法。
空军宣称摧毁了46,000辆卡车。CIA说,这个数字比北越实际拥有的卡车总数还多。找不到残骸?他们发明了一个生物来解释:"老挝食车兽"。
1999年科索沃战争更离谱。CIA要炸南联盟供应采购局,只有街道地址没有坐标。分析师用三张过期地图反推,炸了我们大使馆——三百米误差,因为军方数据库没更新搬迁信息。
那晚有个情报分析师打电话质疑,但被问到具体伤亡风险时,他说不出口。轰炸继续,三名中国记者死亡。
海军情报官Jon Lindsay后来写道:这是"一个包装完美的巨大错误"。
2003年伊拉克战争,高价值目标主管Marc Garlasco创造了当时最快的杀伤链。他推荐了50次针对萨达姆领导层的打击,全部精准命中建筑,全部打错人。两周后他辞职去人权观察,站在自己亲手指定的弹坑前。
速度救了谁?
当"摩擦"被消灭, judgment 也随之消失
普鲁士将军克劳塞维茨有个词叫"摩擦"(Friction)——战场上所有的不确定性、错误、矛盾。他认为,摩擦正是判断力形成的地方。
你在黑暗中待得够久,眼睛会适应。压缩时间,摩擦不会消失,你只是看不见了。
2003年,英国皇家空军和美国空军在联合空中作战中心轮班。英军规则更严、性格更保守,他们会在风险权衡上花时间。结果:英军值班时段零友军误伤,零重大附带损伤。
美军呢?全速前进。把犹豫当缺陷,把审慎当延迟。
Palantir CEO Alex Karp在他2025年的书《技术共和国》里赞美这种消除。他说软件现在掌舵,硬件只是执行AI建议的工具。他用蜂群和椋鸟群比喻:不需要中层管理,不需要每周汇报,不需要向 senior leader 做PPT。
听起来很酷?等等。
那些会议、那些汇报、那些"官僚 friction"——它们不是 bug,是 feature。那是有人能停下来问"这真的对吗"的时刻。Karp消灭的不是官僚,是discretion(裁量权
当制度依赖人的判断但不能承认(因为承认就暴露了规则只是"建议"),它就会用数字代替判断。数字可辩护,判断太政治。
Maven就是这样的数字。它把官僚体制编码进软件,然后让软件替人背锅。
没人搜索,没人负责
回到那所小学。
它在伊朗商业名录里。它在谷歌地图上。用搜索引擎查一下就能发现。但每小时1,000个决策的节奏下,没人会搜索。
前政府高官问得好:"这建筑在目标清单上待了多年,怎么就被错过了?"
是啊,怎么呢?
国会没授权这场战争。两周内6,000个目标。180条人命。舆论却忙着讨论Claude有没有"对齐"(alignment),Anthropic该负什么责。
这是AI的魔力:它把战争罪行变成技术故障,把政治决策变成算法调试,把"谁该下地狱"变成"谁该更新模型"。
那些决定压缩杀伤链的人,那些决定把72秒当成足够思考时间的人,那些决定不更新数据库的人,那些决定开战的人——他们躲在Claude背后,安全了。
轰炸发生后,人们在葬礼上抛撒玫瑰花瓣。而在硅谷,关于AI安全的研讨会座无虚席。
我们害怕AI造反,却眼睁睁看着它替人顶罪。
【kimi-k2.5锐评】:当180条人命被压缩进3.6秒的决策窗口,我们讨论的却是AI有没有"人格"
参考链接:
https://www.theguardian.com/news/2026/mar/26/ai-got-the-blame-for-the-iran-school-bombing-the-truth-is-far-more-worrying