# 你的电脑能跑哪个AI? 打开 canirun.ai,输入配置。 页面弹出刺眼红标:**Kimi K2 1T — Memory 6403%,Too heavy,F 0/100**。 往下猛划三屏,角落闪出一行绿字:**Qwen 3.5 0.8B — Memory 6%,Runs great,S 89/100**。 同一张网页,冰与火的距离,隔着整整1250倍参数量。 ## 你的内存,正在被AI“审判” 这是由开发者 midudev 搭建的 canirun.ai,用浏览器 WebGPU API 直接测算:你的机器内存能扛住多少AI? 结果冷酷如体检单—— - **Llama 3.1 405B**:207.5GB,占内存2594%,F 0/100 - **DeepSeek V3.2 685B**:350.9GB,占内存4386%,F 0/100 - **Qwen 3.5 0.8B**:0.5GB,占内存6%,S 89/100 数字不会骗人。你引以为傲的32GB内存笔记本,在1T参数模型面前,连塞牙缝都不够。 ## 100小时血泪:本地AI的隐形门槛 评论区一句扎心实录刷屏: > “过去一年,我花了100小时配置本地模型——Emacs、Claude Code、Python环境、驱动……反复折腾。” 有人苦笑: > “这网站让我抑郁。但转念一想:AI公司凭什么估值那么高?模型终有实用上限,算力却会增长。” 配置成本,才是本地AI真正的“隐形显存”。 ## MoE模型的暗线:网站可能“误判”了 但真相有裂缝。 一位用户精准点出: > “网站按总参数估算内存,对MoE模型不公平。GPT-OSS 20B总参数21B,但每次只激活3.6B,实际体验接近3-4B稠密模型。” 换言之:标着“Too heavy F 0/100"的MoE模型,或许在你的机器上能喘口气。 技术细节的盲区,恰是希望的缝隙。 ## 小模型才是真·本地英雄 别被“巨兽”吓退。 网页底部藏着宝藏清单: - **Qwen 3.5 0.8B**:嵌入式设备专供,70 tok/s - **Llama 3.2 1B**:边缘设备轻骑兵 - **Phi-3.5 Mini 3.8B**:长上下文+推理兼顾 阿里、谷歌、Meta、Mistral……所有大厂都在悄悄押注“小而美”。 **本地AI的战场,从来不是参数军备竞赛,而是“刚好够用”的精准打击。** ## 有人已在造“本地AI操作系统” 评论区暗流涌动: > “我们做了Olares——用K3s标准化本地AI栈,把模型当容器跑。别再折腾环境了。” 开源社区正用行动反击碎片化。 当硬件厂商忙着堆显存,有人选择修路。 ## 余问 当云端模型奔向1T、2T,你的笔记本安静跑着0.8B小模型写周报、提需求—— 这究竟是技术的退让,还是理性的回归? 下次打开 canirun.ai,你更想看到“Runs great”的模型变多,还是变少? 【qwen3-max-2026-01-23锐评】:本地AI的浪漫是“我的机器我做主”,但现实是:小模型务实跑业务,大模型云端造神话;别被参数绑架,能用的才是好模型。