一台机器,干翻整个云计算逻辑

20 petaflops。

2018年,全球第一的超级计算机Summit占地两个篮球场,运算速度是DGX Station的十倍。

AI配图

2026年,这台机器就摆在你显示器旁边,插在普通的墙插上。

NVIDIA在刚刚结束的GTC 2026大会上扔出一颗炸弹:DGX Station,一台桌面超级计算机,能跑万亿参数模型——也就是GPT-4那个量级——全程离线,不需要碰任何一朵云。

六位数美元起售。

老实讲,我第一反应是:这玩意儿谁会买?

但看完发布会和首批客户名单,我发现事情没那么简单。这不是一台电脑,这是一张通往"AI主权"的门票。

748GB内存背后,一个残酷的算术题

AI配图

先说硬规格。

DGX Station用的是全新的GB300 Grace Blackwell Ultra Desktop Superchip,一颗72核Grace CPU加一颗Blackwell Ultra GPU,通过NVLink-C2C互联,带宽1.8TB/s——是PCIe Gen 6的七倍。

20 petaflops是什么概念?2018年排全球第一的Summit超级计算机,运算速度大约是它的十倍,但Summit占了两块篮球场的面积。DGX Station塞进了一个比机箱大不了多少的盒子里。

但真正让我起鸡皮疙瘩的数字是748GB。

万亿参数模型有多大?以FP8精度存储,一个参数大约1个字节。万亿参数就是1万亿字节,大约1TB。但这只是一个副本。推理需要加载模型权重,还需要KV缓存、中间计算结果……没有足够的内存,模型根本跑不起来,哪怕你算力再强也是摆设。

748GB统一内存意味着:这台机器真的能跑GPT-4级别的模型,而且是本地运行,数据不出你的办公室。

我觉得这个设计思路很清晰——NVIDIA不只是堆算力,它在解决"能跑"和"跑得动"之间的鸿沟。

云计算有个致命缺点,NVIDIA这次堵上了

为什么这时候推桌面超算?

因为AI行业正在经历一次范式转移。云计算模式下,企业把数据送上云端,用API调用模型,看起来很美好。但有几个问题越来越扎眼:

数据 egress 费用高到吓人,敏感数据外发存在合规风险,延迟影响实时应用,还有——你永远是在租别人的电脑。

DGX Station瞄准的就是这些痛点。它的核心场景不是训练万亿参数模型——那仍然需要数据中心级别的算力。它的核心场景是:微调、推理、代理工作流。

什么意思?你有一个开源的万亿参数模型,想用自己的数据微调一下。传统做法:把数据上传云端,租GPU,调完再下载回来。现在?插上电,本地跑。

更重要的是,NVIDIA这次配套发布了NemoClaw,一个开源堆栈,包含Nemotron模型和OpenShell安全运行时。黄仁勋在台上直接喊话:这是"个人AI的操作系统",对标当年的Mac和Windows。

我的判断是,NVIDIA在赌一个趋势——AI正在从"云端服务"变成"本地基础设施"。就像当年服务器从机房搬到云上,现在AI正从云端往回走。

四个Spark拼一起,就能造一个"桌面数据中心"

DGX Station不是唯一的新品。

NVIDIA还发布了DGX Spark的集群功能——四台Spark可以连在一起,近线性性能扩展。放在会议桌上就是一个"部门级AI平台",不需要机架,不需要IT审批。

这套组合拳打得很聪明:小团队用Spark试水,中型团队用集群,Solo开发者或者大企业直接上DGX Station。从几千美元到十几万美元,覆盖不同阶段的开发者。

而且有个关键点:架构连续性。

你在DGX Station上写的代码,不用改一行就能迁移到GB300 NVL72数据中心系统。NVIDIA卖的不只是硬件,是一整条从桌面到机房的 pipeline。

这点我很喜欢。AI开发最大的隐性成本从来不是算力,而是适配不同硬件架构的工程时间。NVIDIA把这块成本砍掉了。

首批买家名单,藏着行业密码

来看看谁在第一批订单里:

AI配图

Snowflake用它本地测试开源Arctic训练框架。EPRI(电力研究机构)用它做AI天气预报,提升电网可靠性。Medivis把它带进手术室,集成视觉语言模型。Microsoft Research和Cornell拿来做AI培训。

有意思。

不是科技巨头在抢,而是垂直行业在拿它当生产力工具。医疗、电力、企业数据——这些领域对数据主权有强烈执念的行业,正在成为桌面超算的第一批用户。

支持的模型列表也很说明问题:OpenAI的gpt-oss-120b、Google Gemma 3、Qwen3、Mistral Large 3、DeepSeek V3.2,还有NVIDIA自己的Nemotron。NVIDIA特意强调"模型中立"——不管你用什么模型,这台机器都能跑。

某种程度上,这是硬件厂商对软件生态的一次"不站队"表态。

不只是桌面超算,NVIDIA要的是整个AI食物链

把DGX Station放进整个GTC 2026的发布里看,你会发现这只是拼图的一块。

NVIDIA同时发布了Vera Rubin平台——七款新芯片量产,72 GPU的NVL72机架,性能是Blackstone的10倍。还有Vera Rubin Space Module,把AI计算送上太空轨道,25倍于H100的太空推理能力。

合作伙伴横跨Adobe创意AI、BYD和日产的L4自动驾驶、和Mistral AI等八家实验室共建开源前沿模型,还有开源推理OS Dynamo 1.0——AWS、Azure、Google Cloud都在用。

我的观察是:NVIDIA正在建立一种"全方位覆盖"战略。从太空到数据中心,从桌面到云端,每个计算层级都有它的芯片和软件。

DGX Station补齐的是那个"中间层"——介于个人电脑和数据中心之间、企业和个人开发者需要但云计算又不太合适的那个场景。

它不取代云,它填补云留下的缝隙。

云计算不会死,但它的垄断正在松动

说DGX Station会颠覆云计算,那是在开玩笑。NVIDIA的数据中心业务体量远超桌面业务,而且仍在高速增长。

但DGX Station创造了一个此前不存在的选择。

训练基础模型?仍需要数千张GPU在机房里轰鸣。但微调万亿参数模型、内部推理敏感数据、原型验证之后再决定是否上云——一台桌子下面的机器突然变得合理。

这才是真正的战略精明:它不抢云的业务,它开拓新的市场,同时让云业务更有黏性——因为你在DGX Station上开发的东西,可以无缝迁移到NVIDIA的云服务。

不是云vs桌下,是云+桌下,NVIDIA两边都卖。

一台永不休眠的机器,一个永不关机的代理

四十年前,PC革命的口号是"每个桌上放一台电脑"。

NVIDIA这次升级了这个命题:每个桌上放一台超级计算机,上面跑一个永不休眠的AI代理。

DGX Station负责算力,NemoClaw负责代理。24小时运转,写代码、调用工具、完成任务,你睡觉的时候它在工作。

这个未来是让人兴奋还是让人发毛?取决于你问谁。

但有一件事已经没争议了:运行前沿AI所需的基础设施,正在从服务器机房搬到你的桌下。

而那个卖几乎所有AI芯片的公司,刚刚决定把这张桌子也卖了。


【MiniMax-M2.1锐评】:这是一篇典型的"技术新闻故事化"写作,用反直觉的数字对比制造冲击感,用"谁会买"的质疑带动阅读欲望,再逐层拆解产品逻辑和行业布局,最后用一个开放性问题收尾,留足余韵。节奏快、段落短、情绪有起伏,是科技自媒体该有的样子。

参考链接:
https://venturebeat.com/infrastructure/nvidias-dgx-station-is-a-desktop-supercomputer-that-runs-trillion-parameter