3B激活参数,干翻数倍大的"老大哥"
这年头,AI圈已经卷到令人窒息。
但最近阿里通义千问放出的一个大新闻,让我和很多从业者一样,直接愣在原地——
Qwen3.6-35B-A3B,一个只有3B激活参数的稀疏MoE模型,性能居然能跟数倍大的密集模型掰手腕。
3B什么概念?
隔壁Claude 4、GPT-5那些动辄几百B参数的"巨无霸",光部署成本就能让普通公司倾家荡产。
而这个3B小个子,本地笔记本就能跑,还能画出比Opus 4.7更好的"骑自行车的鹈鹕"。
没错,有人在HuggingFace上实测了,画出来的效果直接碾压。
参数更小,表现更好。
这剧本,怎么有点熟悉?
一个小模型的"复仇记"
让我们先把时间倒回去看看。
过去一年,AI圈有个很畸形的现象:模型越做越大,API越来越贵,普通人想玩?门都没有。
开源社区不是没努力,但大部分开源模型有个通病——要么能力够但体积大,要么体积小但能力残废。
能兼顾"小身材"和"高性能"的,凤毛麟角。
Qwen3.6-35B-A3B的出现,等于在这个死局里撕开了一道口子。
它的技术路径很聪明:用稀疏MoE架构。什么意思?
简单理解,一个35B的模型,实际推理时只激活3B参数。就像一个团队有35个人,但干活的永远是那3个最能打的。
剩下的32个?躺平。
但这3个"最能打"的,愣是打出了35个人的输出。
"Qwen3.6-35B-A3B demonstrates that sparse MoE models can achieve remarkable agentic coding and reasoning capability."
官方自己在博客里写的这句话,看着轻描淡写,背后全是硬仗。
编程能力,才是真正的试金石
光说参数多小没意义,关键得看能干嘛。
这模型定位很明确——Agentic Coding Power,也就是给AI智能体用的编程能力。
官方给了三个集成方式:OpenClaw、Qwen Code、Claude Code。
什么意思?
你可以在本地 terminal 里直接调用它,让它帮你写代码、修bug、跑自动化任务。
有个用户的原话我特别有印象:
"I have been using Qwen3.5-35B-A3B a lot in local testing, and it is by far the most capable model that could fit on my machine."
"能在我机器上跑起来的,最强模型。"
注意"能在我机器上跑起来"这个前提。
很多模型性能确实强,但普通开发者根本带不动。RTX 4090?不够。A100?勉强。
而这个3B激活参数的模型,RTX 3060可能就能愉快玩耍。
还有更狠的——有人用Unsloth做成了20.9GB的GGUF量化版本,40+ tokens/s的生成速度,本地开发完全够用。
这意味着什么?
意味着一个独立开发者、一家小创业公司,不用花一分钱API费用,就能拥有一个编程能力接近顶级闭源模型的"免费员工"。
有人点赞,有人唱反调
但事情没那么简单。
评论区里有个很微妙的声音:
"Qwen3.6 and Gemma4 have the same issue of never getting to the point and just getting stuck in never ending repeating thought loops. Qwen3.5 is still the best local model that works."
翻译成人话:3.6版本存在"思考循环"问题,啰嗦半天说不到重点,3.5反而更好用。
这就很尴尬了。
一个刚发布的"最新版",被用户认为不如上一代。
但你再细想,这恰恰说明开源社区的珍贵之处——用户可以直接吐槽,不用惯着厂商。
另外还有个有趣的点:
"I recall a Qwen exec posted a public poll on Twitter, asking which model from Qwen3.6 you want to see open-sourced; and the 27b variant was by far the most popular choice. Not sure why they ignored it lol."
社区最想要27B版本,但通义千问偏偏放了个35B-A3B。
为什么?
可能技术路线不同,可能资源有限。但不管怎样,开源本身就是一种诚意。
还有一条评论让我印象很深:
"Small openweight coding models are, imho, the way to go for custom agents tailored to the specific needs of dev shops that are restricted from accessing public models. I'm thinking about banking and healthcare sector development agencies, for example."
银行、医院、这些被合规绑死的行业,小型开源模型几乎是唯一出路。
你让他们用OpenAI API?审计过不了。
用闭源大模型?数据出境风险。
但一个能本地部署的开源模型,参数不大,性能够用——这就是刚需。
这场"小模型革命",才刚开始
Qwen3.6-35B-A3B的出现,让我想到一个趋势:
AI正在从"军备竞赛"转向"普惠落地"。
以前大家比的是谁参数大、谁训练数据多、谁烧的钱狠。
现在风向变了——谁能以更小的成本解决实际问题,谁才是真的牛。
3B激活参数,打出数倍于自身size的效果。
这不是魔法,这是架构创新的胜利。
当然,它不完美。社区反馈的问题真实存在,3.6版本的体验可能还不如3.5。
但这就是开源的意义——大家一起来调优,一起发现问题,一起把东西变得更好。
通义千问在博客里最后说:
"We are grateful for the community's feedback and look forward to seeing what you build with Qwen3.6-35B-A3B."
这话听起来官方,但态度是真诚的。
一个愿意听社区声音、愿意持续开源的团队,比那些只会发布"震撼发布"然后消失的强太多了。
最后说句实在话:
如果你是个开发者,或者在找本地化部署方案,这个模型值得一试。
不用花一分钱,不用担心数据泄露,还能体验最新的稀疏MoE技术。
何乐而不为?
【锐评】:参数越小,性能越卷——AI圈终于从"比谁钱多"回到了"比谁技术好"的正道,这才是普通人该关心的硬核新闻。
参考链接:
https://qwen.ai/blog?id=qwen3.6-35b-a3b