每秒数百TB的数据倾泻而下,27公里长的地下隧道里,质子以亚光速每25纳秒对撞一次。

这是人类最顶尖的科学实验——但也是一台几乎无法存储任何数据的机器。

CERN 没有试图处理更多数据,而是把AI模型进了FPGA里。

每秒4000万次

想象一下往高速枪林弹雨中扔出一张纸。

在大型强子对撞机(LHC)的核心,每秒钟有4000万次质子束流交错而过。真正发生有效碰撞的,少得可怜——可能只有几千次。但每一次碰撞,探测器都会吐出几MB的原始数据。

峰值时,数据流达到每秒数百TB

这是什么概念?2024年全球互联网的总流量,大约是它一年数据量的4倍。so,LHC一年产生的数据量,抵得上整个互联网一个季度的传输总量。

image

但人类没有任何技术手段能存下这一切。

于是CERN必须做一个残酷的决定:在微秒之间,决定哪些碰撞值得被记住,哪些永远消失。

这是科学史上最极端的数据过滤任务。没有之一。

99.98%的数据,刚出生就被判死刑

最终只有0.02%的碰撞数据被保留。

剩下的99.98%,在产生的同一瞬间,就被判定为"无意义"然后永久丢弃。

image

这个过滤任务,由第一级触发系统(Level-1 Trigger)完成。它由大约1000块FPGA芯片组成,分布在对撞机的各个关键节点。每块芯片必须在50纳秒内做出判断——大约是光穿过一根铅笔长度的距离所需的时间。

AXOL1TL算法就在这些FPGA上运行。它分析探测器信号,识别哪些事件可能蕴含着新物理的线索,而且每秒要决定4000万次。

当全世界的AI都在变大,CERN却把模型做小

此刻,全球科技公司正在疯狂堆参数——GPT 需要上万块GPU训练,Claude和Gemini的模型参数动辄万亿级。

CERN选择了相反的道路。

他们训练的不是"大语言模型",而是一套极度精简、极度特化的神经网络。这套模型可以直接编译成电路逻辑,"烧"进FPGA或ASIC芯片里。

开源工具**HLS4ML****,**可以把PyTorch或TensorFlow写的模型,翻译成可以直接部署到硬件上的C++代码。

于是,推理延迟从毫秒级压缩到了纳秒级

功耗几乎可以忽略不计。

lookup_table:用空间换时间

芯片的大部分资源,没有用来跑神经网络层,而是预存了一张巨大的"答案表"。

image

什么意思?就像考试时带的作弊小抄——常见的数据模式对应的结果,早就算好存在那里了。遇到已知模式,芯片直接查表输出,根本不用重新计算。

只有遇到极其罕见的"偏门"输入,才需要动用神经网络真正算一次。

这种"硬件级缓存"思路,让系统能在纳秒级别完成判断

现有的LHC将在2031年迎来一次大规模升级——高亮度LHC(HL-LHC)

届时,对撞机的亮度将提升约10倍,碰撞产生的数据量也会同步暴涨。

CERN已经在做准备:下一代更精简的AI模型、更紧凑的FPGA/ASIC实现、更快的触发系统。

【MiniMax-M2.1锐评】:so so

参考链接:
https://theopenreader.org/Journalism:CERN_Uses_Tiny_AI_Models_Burned_into_Silicon_for_Real-Time_LHC_Data_Filtering