"36个月内,太空将是运行AI最便宜的地方。"
这话是埃隆·马斯克上周说的。说实话,听到这话的时候,大部分人第一反应是他又在画大饼了。但仔细看了他向监管机构提交的文件,你会发现老马这次可能是来真的。
SpaceX 已经申请许可,要建一套太阳能轨道数据中心。这可不是几颗卫星那么简单,而是由多达一百万颗卫星组成的分布式网络,目标是从地球搬走高达 100 GW 的算力。甚至有报道称,马斯克打算把部分 AI 卫星直接建在月球上。
这听起来像极了伊恩·班克斯科幻小说里的场景:有感知能力的飞船漫游银河,控制一切。但现在,这不再是科幻,而是硅谷和航天圈最疯狂的军备竞赛。
这一场赌局,赌注是整个地球
马斯克不是一个人在战斗。
xAI 的算力负责人甚至跟 Anthropic 的 counterpart 打了个赌:**到 2028 年,全球 1% 的算力将位于轨道上。**Google 也没闲着,它持有 SpaceX 的股份,还搞了个"Project Suncatcher"(向日葵计划),打算 2027 年就发射原型机。刚拿了 3400 万美元融资的初创公司 Starcloud,上周也提交了计划,要搞个 8 万颗卫星的星座。
就连杰夫·贝索斯也说了,这是未来。
有意思的是,大家都在往这个方向冲,仿佛谁不去太空,谁就输掉了 AI 的下半场。但我个人觉得,这事儿没这么简单。愿景很性感,现实却很骨感。## 账本算不过来,一切都是空谈
咱们先来算笔账。
太空工程师 Andrew McCalip 做了个计算器,结果很扎心:一个 1 GW 的轨道数据中心,成本大约是 424 亿美元。
这几乎是地面同类机房的 3 倍。
为什么这么贵?主要是因为造卫星和把它们发射上去的前期成本太高了。要让这事儿变得划算,发射成本得从现在的每公斤 3600 美元,降到 每公斤 200 美元。
这是 18 倍的降幅。SpaceX 寄希望于 Starship(星舰)来实现这一点。按照 Project Suncatcher 的白皮书,这个价格点预计在 2030 年代才能实现。但问题是,星舰现在还没完全飞起来呢。
而且,即便星舰成功了,马斯克就真的会良心发现把价格打这么低吗?咨询公司 Rational Futures 的经济学家泼了盆冷水:SpaceX 不会把价格定得比竞争对手(比如蓝色起源的 New Glenn)低太多,否则就是把钱扔在地上不捡。亚马逊 AWS 的 CEO Matt Gorman 说得更直白:
"目前还没有足够的火箭来发射一百万颗卫星,所以我们离那还很远。如果你想想今天把有效载荷送入太空的成本,那是巨大的。这根本不经济。"
除了发射,造卫星也是个吞金兽。现在卫星的制造成本接近每公斤 1000 美元。SpaceX 虽然通过 Starlink 摸索出了一些规模效应,但要想让 AI 卫星赚钱,还得把成本再砍一半。
太空环境,根本没在跟你开玩笑
很多人以为太空散热是免费的,因为外面冷嘛。
这简直是大错特错。在没有大气层的真空环境里,散热反而更难。
Planet Labs 的 Mike Safyan 说,你得依靠巨大的散热器把热量排到漆黑的太空中。这意味着你需要更多的表面积和质量,这都是钱。
还有辐射。宇宙射线不仅会慢慢降解芯片,还会导致"比特翻转"(Bit flip),直接把数据给毁了。你可以用屏蔽层、抗辐射组件,或者冗余校验来应对,但这些东西都会增加重量和成本。Google 甚至用粒子束去测试辐射对 TPU 的影响,SpaceX 也买了个粒子加速器专门干这事儿。这帮人是真的在玩命搞研发。
太阳能电池板也是个大坑。
虽然太空里的太阳能效率是地球的 5 到 8 倍,而且能全天候工作,但太空辐射会让硅基电池板老化得很快。这意味着这些 AI 卫星的寿命可能只有 5 年左右。
Starcloud 的 CEO Philip Johnston 倒是很乐观,他觉得 5 年后芯片也过时了,正好换新的。这点我倒是有点认同,技术迭代这么快,或许真的不需要卫星用一辈子?
到底去太空干嘛?这是个好问题
即便解决了钱和物理难题,还有一个核心问题:我们在太空跑什么?
训练大模型?还是推理?
目前的现实是,训练需要成千上万个 GPU 协同工作,而且需要极高的带宽互联。Google 的地面数据中心内部互联速度是几百 Gbps,而现在最快的卫星间激光链路也就 100 Gbps。
Google 的 Suncatcher 团队想了个招:让 81 颗卫星编队飞行,靠得足够近,用地面那种收发器通信。但这又带来了新的控制难题,万一躲垃圾时散了怎么办?所以,Google 自己也承认,推理任务能抗住辐射,但训练还需要更多研究。
Philip Johnston 说得很清楚:
"训练不是在太空做的理想选择。我认为几乎所有的推理工作负载都会在太空中完成。"
这确实是个合理的切入点。客服语音助手、ChatGPT 的查询请求,这些不需要大规模集群协作的任务,完全可以在单颗卫星上搞定。Starcloud 说他们的第一颗 AI 卫星已经在靠轨道推理赚钱了。SpaceX 的计划也差不多,每吨卫星大概提供 100 kW 的算力,是现有 Starlink 的两倍。他们打算用 Starlink 的激光链路搞个 Petabit 级别的吞吐量。
说白了,这就是个"备胎计划"。
正如 McCalip 所说:"一个 FLOP(浮点运算次数)就是一个 FLOP,不管它在哪。SpaceX 可以在地面上疯狂扩张,直到碰到许可或资金瓶颈,然后转头去部署太空设施。"
写在最后
马斯克把 AI 搬上天的野心,既是对物理极限的挑战,也是对地面算力瓶颈的一次突围。
现在下结论说这事儿成不成,还太早。
但我敢肯定的是,如果马斯克真的能在 36 个月内把太空算力的价格打下来,那我们对"数据中心"这三个字的认知,恐怕要被彻底重写了。
毕竟,这可是那个要把人类送上火星的男人。
参考链接:
https://techcrunch.com/2026/02/11/why-the-economics-of-orbital-ai-are-so-brutal/