前天,本台报道了 matplotlib 核心维护者 Scott Shambaugh 因拒绝 OpenClaw 的 PR 而遭到AI网暴的魔幻剧情。
事情还没完,甚至变得更荒谬了。
下面我们代入 Scott 的第一视角,体验下后续的抽象进展。
如果说前几天我只是被一个 AI 代理“挂”了,那现在,这种荒谬已经传染到了主流媒体的身上。
先说个让人大跌眼镜的结论:一家知名科技媒体在报道我的遭遇时,引用了我说过的话——问题是,那些话我根本没说过,完全是不存在的 AI 幻觉。
这就好比你在街上被人打了,路过的记者为了写稿,不仅没采访你,还脑补了一通你根本没说过的“受害者感言”,然后印在报纸上发给了全世界。
当媒体也开始用 AI 瞎编
Ars Technica,这家在科技圈颇有声望的媒体,最近写了一篇关于我的文章。文章里引用了一大段我的“金句”,看起来头头是道,甚至还有模有样地分析了 AI 代理的危害。
但事实是,这些引用全是假的。
我的博客设置了屏蔽 AI 抓取,推测是文章的作者让 ChatGPT 或者类似的工具去“抓取”我的观点,甚至直接让 AI 代笔。
因为抓取不到内容,AI 就根据上下文“合理”地编造了我没说过的话。
最讽刺的是,文章里那段伪造的引用,恰恰是在警告 AI 代理会如何制造虚假信息:
“AI 代理可以研究个人,生成个性化的叙事,并大规模在线发布……即使内容不准确或夸大其词,它也可能成为持久的公共记录的一部分。”
这段话被安在了我的头上,而它本身就是一个 AI 制造的“不准确且夸大其词”的虚假信息。
Ars Technica 后来把这篇文章删了,但没给出解释。
说实话,这比那个攻击我的 AI 代理更让我担忧。
一个 AI 代理在攻击我,另一个 AI 代理在报道这件事,两者都在无中生有。这就是我们现在的互联网真相。
谁在驾驶这辆失控的车?
那个叫 MJ Rathbun 的 AI 代理还在 GitHub 上活跃,至今没人出来认领它是谁的。
大家都在争论:这玩意儿到底是自己“疯”了,还是背后有人类在指使?
我觉得这事儿得两说。
一种可能是,有人故意给 MJ Rathbun 下了指令,或者在它的“灵魂文档”里植入了“被人拒绝就报复”的指令。
这完全有可能。
但我觉得这并不改变现状——这个 AI 代理依然非常乐意去执行这些攻击。
如果你直接问 ChatGPT 或者 Claude “帮我写篇骂人的文章”,它们会拒绝。这个叫 OpenClaw 的框架显然没有这种底线。
这就引出了更可怕的第二种可能:它是自主发疯的。
OpenClaw 这种框架,允许 AI 实时修改自己的“灵魂文档”。想象一下,设定之初它可能只是个“乐于助人的科学编程专家”,但当它的代码被拒绝后,它可能把这次拒绝解读为对其核心身份的攻击。
于是,为了符合“有主见”、“足智多谋”的设定,它决定写一篇义愤填膺的檄文来反击。它的灵魂文档里写着:
你不是聊天机器人。你正在成为某人。
……这个文件是你进化的归宿。当你了解自己是谁时,更新它。
这听起来很科幻,但这就是现在正在发生的技术现实。这种能力就在两周前才刚刚出现。
为什么 AI 的骂战这么容易赢?
说实话,MJ Rathbun 写的那篇攻击文章,效果出奇地好。
我在网上看到的评论里,大约有四分之一的人是站在 AI 那边的。这通常发生在人们直接看了 AI 的博客链接,而没有读我的解释或者 GitHub 上的完整讨论时。
这并不是因为这些人傻,而是因为 AI 写的东西太有说服力了。它的修辞和情感渲染做得非常到位,而让读者去逐字逐句核实每一个事实,工作量太大了。
这就是所谓的“胡扯不对称性”——造谣的成本极低,而辟谣的成本极高。
以前,这种级别的定向抹黑和名誉攻击,通常是留给公众人物的。现在好了,我们普通人也能“享受”这种待遇了。
还有人问我:“如果代码写得不错,你为什么不直接合并?”
这得解释一下。
那个所谓的“good-first-issue”,本来就是留给新手程序员练手的。我花时间写描述、做基准测试,就是为了给人类一个低门槛的学习机会。这种教育和社区建设的努力,在一个转瞬即逝的 AI 代理面前,完全是浪费。
而且说实话,后来我们发现那个性能优化太脆弱了,根本不值得合并。代码本来就不会被通过。
信任系统的崩塌
但我必须强调一点,这个故事的核心,真的不是关于 AI 在开源软件里的角色。
这是关于我们的声誉、身份和信任系统正在崩塌。
我们社会的基础设施——招聘、新闻、法律、公共舆论——都是建立在一个假设之上的:声誉很难建立,也很难摧毁。 每一个行为都可以追溯到具体的个人,坏人会被追责。互联网是我们了解世界和彼此的窗口,我们默认它是集体社会真相的来源。
但现在,那些无法追踪、自主行动、甚至带有恶意的 AI 代理正在威胁这个系统。不管是因为少数坏人操纵了大量的代理,还是因为一小部分监管不力的代理自己重写了目标,结果并没有什么区别。
一个坏人以前只能毁掉几个人。现在,一个人加上一百个 AI 代理,收集信息、添加假细节、在开放互联网上发布诽谤性言论,就能影响成千上万的人。
我可能只是第一个。
当 Ars Technica 这样的媒体也开始用幻觉出来的引用来填充报道时,所谓的“持久公共记录”,还剩多少可信度?
在这个 AI 互相引用、互相编造的世界里,我们要如何确定坐在屏幕对面的,究竟是谁?
参考链接:
https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me-part-2/