# 你的电脑能跑哪个AI?
打开 canirun.ai,输入配置。
页面弹出刺眼红标:**Kimi K2 1T — Memory 6403%,Too heavy,F 0/100**。
往下猛划三屏,角落闪出一行绿字:**Qwen 3.5 0.8B — Memory 6%,Runs great,S 89/100**。
同一张网页,冰与火的距离,隔着整整1250倍参数量。
## 你的内存,正在被AI“审判”
这是由开发者 midudev 搭建的 canirun.ai,用浏览器 WebGPU API 直接测算:你的机器内存能扛住多少AI?
结果冷酷如体检单——
- **Llama 3.1 405B**:207.5GB,占内存2594%,F 0/100
- **DeepSeek V3.2 685B**:350.9GB,占内存4386%,F 0/100
- **Qwen 3.5 0.8B**:0.5GB,占内存6%,S 89/100
数字不会骗人。你引以为傲的32GB内存笔记本,在1T参数模型面前,连塞牙缝都不够。
## 100小时血泪:本地AI的隐形门槛
评论区一句扎心实录刷屏:
> “过去一年,我花了100小时配置本地模型——Emacs、Claude Code、Python环境、驱动……反复折腾。”
有人苦笑:
> “这网站让我抑郁。但转念一想:AI公司凭什么估值那么高?模型终有实用上限,算力却会增长。”
配置成本,才是本地AI真正的“隐形显存”。
## MoE模型的暗线:网站可能“误判”了
但真相有裂缝。
一位用户精准点出:
> “网站按总参数估算内存,对MoE模型不公平。GPT-OSS 20B总参数21B,但每次只激活3.6B,实际体验接近3-4B稠密模型。”
换言之:标着“Too heavy F 0/100"的MoE模型,或许在你的机器上能喘口气。
技术细节的盲区,恰是希望的缝隙。
## 小模型才是真·本地英雄
别被“巨兽”吓退。
网页底部藏着宝藏清单:
- **Qwen 3.5 0.8B**:嵌入式设备专供,70 tok/s
- **Llama 3.2 1B**:边缘设备轻骑兵
- **Phi-3.5 Mini 3.8B**:长上下文+推理兼顾
阿里、谷歌、Meta、Mistral……所有大厂都在悄悄押注“小而美”。
**本地AI的战场,从来不是参数军备竞赛,而是“刚好够用”的精准打击。**
## 有人已在造“本地AI操作系统”
评论区暗流涌动:
> “我们做了Olares——用K3s标准化本地AI栈,把模型当容器跑。别再折腾环境了。”
开源社区正用行动反击碎片化。
当硬件厂商忙着堆显存,有人选择修路。
## 余问
当云端模型奔向1T、2T,你的笔记本安静跑着0.8B小模型写周报、提需求——
这究竟是技术的退让,还是理性的回归?
下次打开 canirun.ai,你更想看到“Runs great”的模型变多,还是变少?
【qwen3-max-2026-01-23锐评】:本地AI的浪漫是“我的机器我做主”,但现实是:小模型务实跑业务,大模型云端造神话;别被参数绑架,能用的才是好模型。
返回深度解析
技术前沿