一场价值万亿的"站台秀"

3月的GTC大会上,黄仁勋穿着他的标志性皮夹克,手里举着一块芯片。

AI配图

这块芯片不简单。它叫Rubin GPU,是Nvidia全新"七芯片"平台的灵魂。而站在黄仁勋身后点头的,是Anthropic CEO Dario Amodei、OpenAI CEO Sam Altman,还有Meta和Mistral AI的代表。

七款芯片,同时量产。

八十多家合作伙伴排队站台。

四家全球最大云服务商——AWS、Google Cloud、Microsoft Azure、Oracle——集体承诺上线。

说实话,这种阵仗我见过。但每次Nvidia都能玩出新高度。这次,他们管这叫"代际飞跃",黄仁勋的原话是:"Vera Rubin将开启历史上最大规模的基础设施建设。"

注意,他没说"最大规模之一"。

他说的就是"最大"。


黄仁勋的"七龙珠",凑齐了

让我们来看看这七张牌到底是什么:

Rubin GPU是主角,72张卡塞进一个机架,训练大模型需要的GPU数量只有上一代Blackwood的四分之一。Vera CPU是配角,但Nvidia说它是"第一款专为代理型AI设计的CPU",256颗液冷处理器塞进一个机架,能同时跑22500个AI"沙盒"。Groq 3 LPU负责低延迟推理,256颗芯片带着128GB SRAM,专治万亿参数模型的"反应慢"。BlueField-4 DPU提供"上下文内存"——就是帮AI在长任务里记住前面发生的事。NVLink 6、ConnectX-9、Spectrum-6负责把这一切连起来,用的是共封装光学,效率是传统方案的5倍。

AI配图

七块拼图,拼成一台"超级计算机"。

Nvidia的说法是:相比Blackwell,能效提升10倍,单token成本下降到十分之一

这个数字太漂亮了。漂亮到我忍不住想问——有独立验证吗?

目前没有。这是Nvidia自己说的。


"代理型AI":黄仁勋画的新饼?

整场发布会的核心概念,是"代理型AI"(Agentic AI)。

什么意思?简单说:以前的AI是"你问我答",现在的AI是"你给我一个目标,我自己去想办法"。它能写代码、执行、调用工具、迭代优化,一跑可能就是几小时甚至几天。

黄仁勋说:"聊天机器人的时代结束了。"

这话我信一半。

确实,单纯对话式AI的想象空间快见顶了。但"代理型AI"到底能不能成为主流工作负载?目前还只是理论。真正跑在生产环境里的代理型应用有几个?大部分还在demo阶段。

但Nvidia显然等不及了。他们配套发布了Agent Toolkit,包括一个叫OpenShell的开源运行时,专门给自主AI"套上缰绳"——毕竟让AI自己乱跑是很危险的。

Adobe、Atlassian、Salesforce、SAP、ServiceNow……这些企业软件巨头都宣布接入。名单很长,长到让人恍惚觉得:代理型AI是不是已经来了?


真正的赢家是谁?

有意思的不只是芯片。

Nvidia还拉了一个" Nemotron联盟",成员包括Mistral AI、Perplexity,还有前OpenAI高管Mira Murati的新公司Thinking Machines Lab。这些实验室将基于Nvidia的DGX Cloud共同训练开源大模型。

一方面,开源生态能帮Nvidia绑定更多开发者;另一方面,Nvidia自己也推出了Nemotron 3系列模型——Ultra版、Omni版、VoiceChat版,甚至还有给机器人用的GR00T N2。

这就有点微妙了。

OpenAI、Anthropic这些公司是Nvidia的客户,但现在Nvidia也在做模型。某种程度上,Nvidia正在从"卖铲子"变成"自己挖矿"。

AI配图

客户会怎么想?

至少表面上,Sam Altman说"我们会用Vera Rubin跑更强大的模型",Dario Amodei说"这平台让我们能继续交付安全可靠的系统"。

但商业世界里,这种"合作伙伴也是潜在竞争对手"的关系,从来都是暗流涌动。


从制药厂到太空,Nvidia的"跨界秀"

周一的发布覆盖之广,让人有点跟不上节奏。

制药巨头Roche宣布部署超过3500块Blackwell GPU,是"制药行业最大规模的GPU部署"。他们用AI设计肿瘤药物,一个候选分子比传统方法快了25%,另一个备份分子只用了7个月,而行业平均是两年以上。

自动驾驶领域,BYD、Ge吉利、Isuzu、日产都在基于Nvidia的Drive Hyperion平台开发L4级自动驾驶车。Nvidia和Uber,要把无人车铺到28个城市,2028年之前落地。

医疗机器人也有专门的物理AI平台,配套700小时外科手术视频的数据集。强生、美敦力、CMR Surgical都在用。

最夸张的是太空。Vera Rubin Space Module把AI计算能力提升了25倍。Aetherflux、Axiom Space、Kepler都在基于它做卫星推理。

黄仁勋说:"太空计算,最后的疆域,已经到来。"

这话要是别人说,我可能会翻白眼。但从黄仁勋嘴里说出来——毕竟全球大部分AI工作负载都跑在Nvidia芯片上——分量确实不一样。


一场"完美风暴"的两面

这场发布会的规模和连贯性,确实没得说。

从芯片到系统,从网络到存储,从开源模型到代理框架,从企业应用到太空计算——Nvidia展示了一个完整的垂直堆栈。半导体行业没有第二家公司能做到这一点。Google的TPU很强,但生态不如Nvidia;AMD的GPU在追赶,但软件栈差一截;AWS的Trainium刚起步,更不用提。

但"完整"不等于"无敌"。

AMD的MI300X正在抢市场;Google的TPU跑赢了无数次训练任务;Amazon的Trainium在AWS内部越用越多。更重要的是,Nvidia的"全栈"野心可能让客户感到威胁——当你既卖芯片又做模型还提供参考架构,依赖你的公司会越来越焦虑。

另外,"代理型AI主导未来"这个命题,目前还是个赌注,不是事实。如果这个假设落空,Vera Rubin的整个设计逻辑都要重新审视。


结语:盛宴之下,暗流涌动

每年GTC都有那个环节:黄仁勋举着芯片,像珠宝商展示钻石一样,在聚光灯下缓缓旋转。

这是表演,也是布道。

但这场发布会的不同之处在于:Nvidia不再只是"卖铲子的人",它开始试图定义"矿在哪里"、甚至"矿该怎么挖"。

七块芯片、八十个伙伴、四位CEO站台——这是一场豪赌。赌的是代理型AI真的会来,赌的是行业会继续为更快更贵的硬件买单,赌的是合作伙伴不会因为忌惮而倒向AMD或者Google。

黄仁勋说这是"历史上最大规模的基础设施建设"。

是不是最大我不知道。

但可以确定的是:这场建设的价格标签,只有Nvidia说了算。


【MiniMax-M2.1锐评】:Nvidia用一场"全明星发布会"试图证明自己仍是AI时代的"唯一真神",但"全栈玩家"的双刃剑效应才刚刚显现——当客户开始警惕你既是裁判又是运动员时,故事就不好讲了。

参考链接:
https://venturebeat.com/infrastructure/nvidia-introduces-vera-rubin-a-seven-chip-ai-platform-with-openai-anthropic