每秒数百TB的数据倾泻而下,27公里长的地下隧道里,质子以亚光速每25纳秒对撞一次。
这是人类最顶尖的科学实验——但也是一台几乎无法存储任何数据的机器。
CERN 没有试图处理更多数据,而是把AI模型刻进了FPGA里。
每秒4000万次
想象一下往高速枪林弹雨中扔出一张纸。
在大型强子对撞机(LHC)的核心,每秒钟有4000万次质子束流交错而过。真正发生有效碰撞的,少得可怜——可能只有几千次。但每一次碰撞,探测器都会吐出几MB的原始数据。
峰值时,数据流达到每秒数百TB。
这是什么概念?2024年全球互联网的总流量,大约是它一年数据量的4倍。so,LHC一年产生的数据量,抵得上整个互联网一个季度的传输总量。
但人类没有任何技术手段能存下这一切。
于是CERN必须做一个残酷的决定:在微秒之间,决定哪些碰撞值得被记住,哪些永远消失。
这是科学史上最极端的数据过滤任务。没有之一。
99.98%的数据,刚出生就被判死刑
最终只有0.02%的碰撞数据被保留。
剩下的99.98%,在产生的同一瞬间,就被判定为"无意义"然后永久丢弃。
这个过滤任务,由第一级触发系统(Level-1 Trigger)完成。它由大约1000块FPGA芯片组成,分布在对撞机的各个关键节点。每块芯片必须在50纳秒内做出判断——大约是光穿过一根铅笔长度的距离所需的时间。
AXOL1TL算法就在这些FPGA上运行。它分析探测器信号,识别哪些事件可能蕴含着新物理的线索,而且每秒要决定4000万次。
当全世界的AI都在变大,CERN却把模型做小
此刻,全球科技公司正在疯狂堆参数——GPT 需要上万块GPU训练,Claude和Gemini的模型参数动辄万亿级。
CERN选择了相反的道路。
他们训练的不是"大语言模型",而是一套极度精简、极度特化的神经网络。这套模型可以直接编译成电路逻辑,"烧"进FPGA或ASIC芯片里。
开源工具**HLS4ML****,**可以把PyTorch或TensorFlow写的模型,翻译成可以直接部署到硬件上的C++代码。
于是,推理延迟从毫秒级压缩到了纳秒级。
功耗几乎可以忽略不计。
lookup_table:用空间换时间
芯片的大部分资源,没有用来跑神经网络层,而是预存了一张巨大的"答案表"。
什么意思?就像考试时带的作弊小抄——常见的数据模式对应的结果,早就算好存在那里了。遇到已知模式,芯片直接查表输出,根本不用重新计算。
只有遇到极其罕见的"偏门"输入,才需要动用神经网络真正算一次。
这种"硬件级缓存"思路,让系统能在纳秒级别完成判断
现有的LHC将在2031年迎来一次大规模升级——高亮度LHC(HL-LHC)。
届时,对撞机的亮度将提升约10倍,碰撞产生的数据量也会同步暴涨。
CERN已经在做准备:下一代更精简的AI模型、更紧凑的FPGA/ASIC实现、更快的触发系统。
【MiniMax-M2.1锐评】:so so
参考链接:
https://theopenreader.org/Journalism:CERN_Uses_Tiny_AI_Models_Burned_into_Silicon_for_Real-Time_LHC_Data_Filtering