一场价值万亿的"站台秀"
3月的GTC大会上,黄仁勋穿着他的标志性皮夹克,手里举着一块芯片。
这块芯片不简单。它叫Rubin GPU,是Nvidia全新"七芯片"平台的灵魂。而站在黄仁勋身后点头的,是Anthropic CEO Dario Amodei、OpenAI CEO Sam Altman,还有Meta和Mistral AI的代表。
七款芯片,同时量产。
八十多家合作伙伴排队站台。
四家全球最大云服务商——AWS、Google Cloud、Microsoft Azure、Oracle——集体承诺上线。
说实话,这种阵仗我见过。但每次Nvidia都能玩出新高度。这次,他们管这叫"代际飞跃",黄仁勋的原话是:"Vera Rubin将开启历史上最大规模的基础设施建设。"
注意,他没说"最大规模之一"。
他说的就是"最大"。
黄仁勋的"七龙珠",凑齐了
让我们来看看这七张牌到底是什么:
Rubin GPU是主角,72张卡塞进一个机架,训练大模型需要的GPU数量只有上一代Blackwood的四分之一。Vera CPU是配角,但Nvidia说它是"第一款专为代理型AI设计的CPU",256颗液冷处理器塞进一个机架,能同时跑22500个AI"沙盒"。Groq 3 LPU负责低延迟推理,256颗芯片带着128GB SRAM,专治万亿参数模型的"反应慢"。BlueField-4 DPU提供"上下文内存"——就是帮AI在长任务里记住前面发生的事。NVLink 6、ConnectX-9、Spectrum-6负责把这一切连起来,用的是共封装光学,效率是传统方案的5倍。
七块拼图,拼成一台"超级计算机"。
Nvidia的说法是:相比Blackwell,能效提升10倍,单token成本下降到十分之一。
这个数字太漂亮了。漂亮到我忍不住想问——有独立验证吗?
目前没有。这是Nvidia自己说的。
"代理型AI":黄仁勋画的新饼?
整场发布会的核心概念,是"代理型AI"(Agentic AI)。
什么意思?简单说:以前的AI是"你问我答",现在的AI是"你给我一个目标,我自己去想办法"。它能写代码、执行、调用工具、迭代优化,一跑可能就是几小时甚至几天。
黄仁勋说:"聊天机器人的时代结束了。"
这话我信一半。
确实,单纯对话式AI的想象空间快见顶了。但"代理型AI"到底能不能成为主流工作负载?目前还只是理论。真正跑在生产环境里的代理型应用有几个?大部分还在demo阶段。
但Nvidia显然等不及了。他们配套发布了Agent Toolkit,包括一个叫OpenShell的开源运行时,专门给自主AI"套上缰绳"——毕竟让AI自己乱跑是很危险的。
Adobe、Atlassian、Salesforce、SAP、ServiceNow……这些企业软件巨头都宣布接入。名单很长,长到让人恍惚觉得:代理型AI是不是已经来了?
真正的赢家是谁?
有意思的不只是芯片。
Nvidia还拉了一个" Nemotron联盟",成员包括Mistral AI、Perplexity,还有前OpenAI高管Mira Murati的新公司Thinking Machines Lab。这些实验室将基于Nvidia的DGX Cloud共同训练开源大模型。
一方面,开源生态能帮Nvidia绑定更多开发者;另一方面,Nvidia自己也推出了Nemotron 3系列模型——Ultra版、Omni版、VoiceChat版,甚至还有给机器人用的GR00T N2。
这就有点微妙了。
OpenAI、Anthropic这些公司是Nvidia的客户,但现在Nvidia也在做模型。某种程度上,Nvidia正在从"卖铲子"变成"自己挖矿"。
客户会怎么想?
至少表面上,Sam Altman说"我们会用Vera Rubin跑更强大的模型",Dario Amodei说"这平台让我们能继续交付安全可靠的系统"。
但商业世界里,这种"合作伙伴也是潜在竞争对手"的关系,从来都是暗流涌动。
从制药厂到太空,Nvidia的"跨界秀"
周一的发布覆盖之广,让人有点跟不上节奏。
制药巨头Roche宣布部署超过3500块Blackwell GPU,是"制药行业最大规模的GPU部署"。他们用AI设计肿瘤药物,一个候选分子比传统方法快了25%,另一个备份分子只用了7个月,而行业平均是两年以上。
自动驾驶领域,BYD、Ge吉利、Isuzu、日产都在基于Nvidia的Drive Hyperion平台开发L4级自动驾驶车。Nvidia和Uber,要把无人车铺到28个城市,2028年之前落地。
医疗机器人也有专门的物理AI平台,配套700小时外科手术视频的数据集。强生、美敦力、CMR Surgical都在用。
最夸张的是太空。Vera Rubin Space Module把AI计算能力提升了25倍。Aetherflux、Axiom Space、Kepler都在基于它做卫星推理。
黄仁勋说:"太空计算,最后的疆域,已经到来。"
这话要是别人说,我可能会翻白眼。但从黄仁勋嘴里说出来——毕竟全球大部分AI工作负载都跑在Nvidia芯片上——分量确实不一样。
一场"完美风暴"的两面
这场发布会的规模和连贯性,确实没得说。
从芯片到系统,从网络到存储,从开源模型到代理框架,从企业应用到太空计算——Nvidia展示了一个完整的垂直堆栈。半导体行业没有第二家公司能做到这一点。Google的TPU很强,但生态不如Nvidia;AMD的GPU在追赶,但软件栈差一截;AWS的Trainium刚起步,更不用提。
但"完整"不等于"无敌"。
AMD的MI300X正在抢市场;Google的TPU跑赢了无数次训练任务;Amazon的Trainium在AWS内部越用越多。更重要的是,Nvidia的"全栈"野心可能让客户感到威胁——当你既卖芯片又做模型还提供参考架构,依赖你的公司会越来越焦虑。
另外,"代理型AI主导未来"这个命题,目前还是个赌注,不是事实。如果这个假设落空,Vera Rubin的整个设计逻辑都要重新审视。
结语:盛宴之下,暗流涌动
每年GTC都有那个环节:黄仁勋举着芯片,像珠宝商展示钻石一样,在聚光灯下缓缓旋转。
这是表演,也是布道。
但这场发布会的不同之处在于:Nvidia不再只是"卖铲子的人",它开始试图定义"矿在哪里"、甚至"矿该怎么挖"。
七块芯片、八十个伙伴、四位CEO站台——这是一场豪赌。赌的是代理型AI真的会来,赌的是行业会继续为更快更贵的硬件买单,赌的是合作伙伴不会因为忌惮而倒向AMD或者Google。
黄仁勋说这是"历史上最大规模的基础设施建设"。
是不是最大我不知道。
但可以确定的是:这场建设的价格标签,只有Nvidia说了算。
【MiniMax-M2.1锐评】:Nvidia用一场"全明星发布会"试图证明自己仍是AI时代的"唯一真神",但"全栈玩家"的双刃剑效应才刚刚显现——当客户开始警惕你既是裁判又是运动员时,故事就不好讲了。
参考链接:
https://venturebeat.com/infrastructure/nvidia-introduces-vera-rubin-a-seven-chip-ai-platform-with-openai-anthropic