“如果你有 Thunderbolt 或 USB4 eGPU 和 Mac,今天是你等已久的日子!”
这句话是 Tiny Corp 4 月 1 日在 X 上发的。听起来像愚人节玩笑对吧?
不是。
苹果真的批准了他们的驱动。一个让 Nvidia 和 AMD 外置显卡能在 Apple Silicon Mac 上跑起来的驱动。
但先别急着激动。
这事儿没那么简单。
苹果和 Nvidia 的恩怨
要理解今天这条新闻,你得先知道这俩公司有多不对付。
2016 年,苹果还能用 eGPU 扩展 AMD 显卡,2017 年正式支持,玩家们很开心。但 Nvidia?苹果从来不让它进家门。
从 Pascal 时代到 Ampere 时代,整整好几年,Nvidia 的显卡在 Mac 上就是块砖。换成 Apple Silicon 之后更绝——直接判了死刑。
原因众说纷纭。驱动不合、Metal 框架不兼容、两边都不肯让步。归根结底:两个巨头在较劲,用户遭殃。
所以当 Tiny Corp 宣布“苹果批准我们的驱动了”的时候,社区第一反应是:太阳从西边出来了?
到底发生了什么
简单说:第三方公司 Tiny Corp 做了个驱动,叫 TinyGPU,能让 AMD RDNA3+ 和 Nvidia Ampere+ 的外置显卡在 Mac 上工作。
不需要再破解系统,不需要关闭 SIP(系统完整性保护)。苹果签字了。
“It's so easy to install now a Qwen could do it.”
Tiny Corp 甚至用 Qwen(大模型)开了个玩笑。确实,现在装这个驱动只需要几行命令 + 点点鼠标。
但有个巨大的前提:这不是给你打游戏的。
这条驱动是为 AI 做的。
它只能跑 LLM(大型语言模型)推理。它不能加速视频输出,不能给外接显示器任何帮助。你在 Mac 上外接一块 RTX 4090——然后用它跑模型,就酱。
现实很骨感
想用?
首先,你得有一台带 USB4 或 Thunderbolt 3+ 的 Mac,一块至少 Ampere 架构的 Nvidia 卡(或 RDNA3+ 的 AMD 卡),以及一个能供电的外置显卡盒。
装好驱动后,AMD 用户还好,Nvidia 用户需要——
装 Docker。
对,你没看错。在 Mac 上用 Nvidia 卡跑 AI,你得先开一个 Linux 虚拟机。然后在虚拟机里调用 GPU。
“A good technical project, but honestly useless in like 90% of scenarios.”
有用户在 Reddit 上泼冷水:你想用 Nvidia GPU 跑 LLM?买台 PC 不好吗?或者直接买 Mac 配更大内存。这方案两边不靠,Thunderbolt 带宽受限,Nvidia 官方工具链用不了,纯属折腾。
还有更直接的:
“From what I understand, only works with Tinygrad. Which is better than nothing but CUDA or Vulkan on pytorch isn’t going to work from this.”
意思是:这驱动只能在 Tinygrad 框架下跑。PyTorch 用户想用 CUDA?门都没有。
所以这到底算赢了吗?
从某个角度说,是的。
AI 研究者终于有了一条相对安全的路,不用为了挂载 eGPU 而关闭 SIP 给自己埋雷。外置显卡的算力可以借给 Mac 跑模型,虽然带宽折损,虽然步骤繁琐,但至少能跑了。
但从用户期待来说——
这更像一个妥协的拥抱,而非真正的和解。
苹果没有批准 Nvidia 官方的驱动,没有开放图形加速,甚至没有让普通用户“即插即用”。它只是给 AI 圈开了一扇小窗,还是那种需要你自己翻窗、还要先学会爬管道的窗。
“Such a shame both companies are big on vanity to make great things happen.”
有评论说得挺扎心:两家都爱面子,用户失去的是本该早就实现的可能性。
【锐评】:苹果和 Nvidia 握手了?握的是指尖,还是想借对方的力推自己的 AI 大模型?反正普通用户该玩游戏玩游戏,该干嘛干嘛。
参考链接:
https://www.theverge.com/tech/907003/apple-approves-driver-that-lets-nvidia-egpus-work-with-arm-macs