开源闭源攻守易形,Qwen3.5 给硅谷上了一课

阿里巴巴Qwen团队在一天前发布了Qwen3.5 Medium系列,一口气甩出四个模型。

其中三个直接给了Apache 2.0商业开源授权。

最离谱的是,这几款开源模型在第三方基准测试中,性能居然跑赢了OpenAI的GPT-5-mini和Anthropic五个月前才发布的Claude Sonnet 4.5

你没听错,免费的开源模型,把硅谷巨头收费的闭源模型给超了。

这不是简单的参数堆砌,而是一场架构层面的“降维打击”。Qwen团队这次不仅拼性能,还拼效率——他们把“前沿级”的上下文窗口,硬生生搬到了你的桌面PC上。

image

显卡不够?架构来凑

这可能是今年最让开发者兴奋的技术突破。

以前想跑100万token上下文?老实讲,那是服务器集群的活儿,动辄几张A100起步。但Qwen3.5-35B-A3B改变了游戏规则:只要32GB显存的消费级GPU,就能跑满100万token长度。

怎么做到的?核心在于一套复杂的混合架构。

Qwen 3.5没有沿用标准的Transformer模块,而是引入了Gated Delta Networks,配合稀疏混合专家系统。看不懂没关系,你只需要知道结果:

image

  • Qwen3.5-35B-A3B总参数350亿,但每次推理只激活30亿
  • 专家系统MoE层包含256个专家,每次调用8个路由专家和1个共享专家。

这就像一个拥有256个分身的超级大脑,每次思考只动用最相关的几个分身。既保证了智商,又省了“体力”。

更狠的是量化技术。Qwen团队宣称,即使在4-bit权重和KV缓存量化下,模型精度依然接近无损。这意味着模型被极度压缩后,依然聪明得可怕。

先“想”后说,拒绝张口就来

现在的AI模型越来越像人了——说话前先过脑子。

Qwen 3.5引入了原生的“Thinking Mode”(思考模式)作为默认状态。模型在给出最终答案前,会先生成一段内部推理链(用THOUGHT标签分隔),把复杂的逻辑理顺了再开口。

这种“三思而后行”的设计,让模型在处理复杂任务时靠谱了不少。

这次发布的产品线分工很明确:

  • Qwen3.5-27B主打高效率,支持超80万token上下文。
  • Qwen3.5-122B-A10B给服务器级显卡(80GB显存)准备的狠货,支持100万+上下文,性能直逼世界最强前沿模型。
  • Qwen3.5-Flash这是个闭源的API版本,主打便宜大碗。

从基准测试图表来看,35B-A3B模型在知识(MMMLU)和视觉推理(MMMU-Pro)等类别中,确实超越了自家更大的Qwen3-235B前辈,也把GPT-5 mini和Sonnet 4.5甩在了身后。

价格屠夫,卷死同行

如果你不想自己买显卡部署,想用API,那Qwen3.5-Flash的价格可能会让你怀疑人生。

输入****0.4/百万token。

这是什么概念?我们来看一组对比数据(每百万token总成本):

  • Qwen3.5-Flash$0.50
  • DeepSeek-chat$0.70
  • Grok 4.1 Fast$0.70
  • Gemini 3 Flash$3.50
  • Claude Sonnet 4.5$18.00
  • GPT-5.2$15.75

看出来了吗?Qwen3.5-Flash几乎是全球主流大模型里最便宜的那个。和Claude Sonnet 4.5相比,价格只有对方的三十六分之一

image

API还提供了一个精细化的工具调用计费模式,比如网络搜索每1000次调用$10,代码解释器限时免费。这种把工具链拆开卖的做法,倒是挺符合现在Agent开发的趋势。

数据隐私与算力霸权的终结

老实讲,这波发布对企业的技术决策者来说,意义远超性能本身。

以前,想要高性能、长上下文、带工具调用能力的模型,你只能把数据通过API发给OpenAI或Anthropic。数据隐私?全看对方良心。

现在,Qwen3.5把这种能力“下放”到了本地。

企业可以在防火墙内部署这些MoE模型,处理海量文档库甚至小时级的视频数据,完全不需要担心数据外泄。Hugging Face上的早期体验者已经反馈,这款模型在Agent场景下,缩小了开源与闭源巨头之间的差距

我个人觉得,这才是最关键的转折点。AI不再是巨头专属的昂贵玩具,它开始变成一种可以装进本地服务器、甚至高端PC里的基础设施。

架构效率战胜了原始规模,开源社区再次证明了“人多力量大”。

当消费级显卡能跑百万上下文,当开源模型在基准测试里把闭源巨头按在地上摩擦,我想问硅谷的大佬们一句:护城河,还剩多宽?

参考链接:
https://venturebeat.com/technology/alibabas-new-open-source-qwen3-5-medium-models-offer-sonnet-4-5-performance