1GW。

相当于一座核电站的满负荷输出。或者100万个美国家庭同时开足空调。

但Google今天扔出一颗炸弹:这1GW的电,我们可以随时说不要就不要。

不是断电事故,不是设备故障,而是签了合同的"主动让电"。当整个科技圈都在焦虑"AI耗电要搞崩电网"时,Google突然转身,把自己变成了电力公司的救星。

从"电老虎"到"稳压器"

AI数据中心是耗电怪兽,这已经不是新闻。

ChatGPT训练一次够旧金山亮几天,这种梗都快听烂了。电网运营商听到"新建数据中心"就头疼——又要升级变压器,又要建峰值电厂,最后账单全甩给当地社区?

AI配图

Google这次玩了个反向操作。

他们管这叫需求响应(Demand Response)。说白了,就是跟电力公司签生死状:兄弟,电网快崩的时候喊我,我把AI训练任务一键挪到半夜,或者转移到其他州。

素材里列出的合作方名单横跨美国中部:Entergy Arkansas、Minnesota Power、DTE Energy、Indiana Michigan Power、Tennessee Valley Authority。从阿肯色到密歇根,Google铺开了总计1GW的灵活用电额度

这意味着他们可以在用电高峰时段,瞬间削减相当于一座中等城市的用电量——而且不影响你使用Gmail或Gemini。

省钱才是硬道理

说实话,这事儿如果只是为了环保,故事就太无聊了。

关键是省钱。 电力公司最怕什么?不是平均用电量大,而是那几个小时的高峰。为了扛住每年几百小时的峰值,得专门建"峰值电厂"(peaker plants),平时闲着,开起来就烧钱,成本摊到所有用户头上。

Google这波操作,相当于给电网配了个巨型调节阀。用他们自己的话说:这能延缓新建输电线和电厂的需求,降低所有用户的电费。

去年Winter Storm Fern期间,Grand River Dam Authority就试点验证过——Google的数据中心真的在关键时刻降载,帮电网稳住了频率,还省了钱。

评论区有个说法很精准:数据中心从"电网负担"变成了"电网资产"。

当OpenAI画大饼时,Google在修管道

有意思的是,这条新闻的评论区 inevitably 提到了Stargate。

对,就是那个特朗普站台、OpenAI承诺5000亿美元的"星际之门"项目。那边刚画完大饼说要疯狂吃电搞AGI,这边Google默默宣布:我已经教会数据中心怎么优雅地省电了。

别的云厂商还在跟社区抢变压器、被居民抗议赶得满城跑,Google已经把24/7运转的数据中心变成了可调度资源。从"人人喊打的电老虎"到"电网友好型选手",这身份转换确实有点快。

当然,Google也是EPRI DCFlex倡议的创始成员——他们正在推动把"需求响应"正式纳入电网容量规划,而不是当成临时补丁。

灵活性的边界

不过,先别急着吹爆。

AI配图

Google自己在博客里也留了后门:There are limits to how flexible a given data center can be, and this capability will only be available at certain locations.(单个数据中心的灵活度有限,且只在特定地点可用)。

说白了,这招不是万能的。你得有多个数据中心可以互相倒腾负载,得有先进的软件调度能力(转移ML训练任务而不是在线服务),还得碰上愿意配合的电力公司。

而且老实讲,这是笔精明的生意。用技术灵活性换电力折扣和并网优先权,顺便做一波ESG公关。商业上稳赚不赔,至于能缓解多少电网压力,还得看规模能不能再翻几倍。

新规则谁来定?

1GW是个里程碑,但也只是个开始。

当AI算力爆炸撞上能源转型瓶颈,"削峰填谷"可能比"疯狂建电厂"更现实。Google已经证明, hyperscaler(超大规模云厂商)可以不只做电网的"索取者"。

AI配图

下次再有人说"AI要搞崩电网",你可以告诉他:Google已经找到了当"乖宝宝"的方法。

问题是,亚马逊和微软跟不跟?还是他们宁愿继续当那个让电网夜不能寐的"坏孩子"?

当算力成为新时代的电力,谁掌握了"灵活",谁可能就掌握了下一个十年的通行证。

【kimi-k2.5锐评】:把耗电怪兽包装成电网救星,Google这波既是技术秀也是顶级公关,但1GW的灵活负载确实给"AI能源危机"的焦虑叙事提供了新解法——与其疯狂建电厂,不如让AI学会"错峰用电"。

参考链接:
https://x.com/sundarpichai/status/2035023972648321107