一位法国计算机科学家发现,他的名字出现在一篇牙科期刊的参考文献里——但那篇论文从未存在过。

这不是乌龙。这是AI正在“发明”学术引用的第一声警报。


当AI开始“创造”文献

AI配图

今年年初,图卢兹大学的计算机科学家Guillaume Cabanac收到一封来自Google Scholar的通知:他的论文被一篇发表在《International Dental Journal》的文章引用了。

诡异的是,他研究的是“如何识别伪造论文”,跟牙科八竿子打不着。

更诡异的是,他根本找不到这篇被引用的论文。

引用标题和他2021年上传的一份预印本有点像,但期刊标注的是Nature,DOI却指向一个不存在的地址。

“我非常担心,因为我认不出自己的引用。”Cabanac说。

这是AI生成“幻觉引用”的典型案例——AI不仅会编造内容,还会编造参考文献。


规模有多大?Nature甩出数据

Nature团队和Grounded AI公司合作分析了2025年超过4000篇已发表论文,涵盖Elsevier、Springer Nature、Taylor & Francis等五大出版商。

结果令人不安:

  • 100篇最可疑的论文中,65篇确认至少包含一个无效引用(即指向不存在的论文)
  • 按这个比例估算,2025年约11万篇学术出版物可能包含AI生成的假引用
  • 而2025年全球学术论文总量约为700万篇

这还只是冰山一角。分析只针对大型出版商,小型期刊的情况可能更糟糕。

“我们将看到假引用的洪水。”——俄勒冈州立大学政治科学家Alison Johnston


计算机科学沦陷最快

过去一年,多项研究追踪了AI幻觉引用的蔓延速度:

  • 三个计算机科学顶会的近18000篇论文中,2025年**2.6%**至少有一个无法追溯的引用
  • 这个数字在2024年只有0.3%——一年翻了近9倍
  • 另一项分析显示,2025年四个计算机会议的论文中,**2%-6%**包含无法验证的引用

AI配图

计算机科学是LLM使用最密集的领域,也是沦陷最快的领域。

一项更极端的实验是:研究人员让GPT-4o生成6篇关于精神疾病 的文献综述,分析其中的176个引用——

  • 近20%是完全伪造的
  • 45%指向真实论文但有错误(DOI错、期刊名错等)

“AI生成的引用就像'弗兰肯斯坦'——看起来像真的,但只是拼凑了真实论文的碎片。”Grounded AI联合创始人Joe Shockman说。


期刊编辑已经杀疯了

Alison Johnston是Taylor & Francis旗下《Review of International Political Economy》的联合编辑。今年1月,她直接拒绝了**25%**的投稿——因为假引用。

“我正在做2025年之前根本不会做的事:检测幻觉引用。”

她用iThenticate查重工具标记异常匹配,然后人工逐个核实。出版社也在行动:

  • Frontiers开发了内部AI工具,在投稿阶段就拦截问题引用
  • IOP Publishing全面启用Grounded AI的Veracity系统筛查投稿
  • 五大出版商都表示将调查Nature这次分析标记的问题论文

但检测并不容易。AI生成的假引用格式可以很规范,甚至能骗过部分查重系统。真正的问题是——

人类编辑根本没有精力逐个验证每条引用的DOI和期刊信息。


信任正在崩塌

AI配图

一条引用,曾经是学术最硬的硬通货。

它是学术对话的基础,是知识传承的纽带,是研究者判断一篇论文价值的核心依据。

但现在,AI正在批量生产“看起来像引用但什么都不是的东西”。

“一旦人们连这一层信任都外包给AI,假权威的扩张速度将远超错误修正的速度。”——一位评论者这样写道。

更讽刺的是,AI不仅会伪造引用,还会用假引用“训练”新的AI模型。假数据喂给AI,AI再吐出假数据——一个完美的恶性循环。


结语

Nature的分析给出了一个保守估计:2025年可能有十几万篇论文包含AI幻觉引用。

但真正的数字可能更高。高得多。

因为检测工具本身也在进化,而AI造假的手段也在进化。这是一场猫鼠游戏,而老鼠已经跑进了粮仓。

唯一确定的是:在AI能真正学会“引用真实”之前,学术出版物的信任危机,只会越来越严重。


【MiniMax-M2.5锐评】:这篇文章把一个“看起来很枯燥”的学术不端新闻,写成了“自己的论文被僵尸引用了”的悬疑故事。数据扎实,案例鲜活,但最后那句“AI正在批量生产什么都不是的东西”才是真正的爆点——因为它不只是学术问题,它是整个信息时代的缩影。

参考链接:
https://x.com/Nature/status/2039293698253500478