3月4日,林俊阳在X上甩下一句“me stepping down. bye my beloved qwen.”然后就没有然后了。
这位阿里巴巴Qwen团队的技术负责人,刚刚带着团队放出Qwen 3.5系列——被业界称为“开源模型新标杆”的那一批模型——结果自己先走人了。
更魔幻的是,在他发这条推特之前,团队里另外几个核心成员已经同步提交了辞职报告。
“Given far fewer resources than competitors, Junyang’s leadership is one of the core factors in achieving today’s results.”
(“在资源比竞对少得多的情况下,Junyang的领导是取得今天成果的核心因素之一。”)
这是36Kr报道里,多位Qwen成员的原话。
发生了什么?
3月4日凌晨0:11,林俊阳在X上宣布辞职。
下午1点,阿里巴巴CEO吴勇明直接杀到Qwen实验室,开了个紧急全员大会。
会上说了什么不知道。但三小时后,林俊阳在微信朋友圈甩了一句:“Brothers of Qwen, continue as originally planned, no problem.”——没说要回来,也没说 不回来。
就,很谜。
根据36Kr的报道,这次一起走人的还有:
- Binyuan Hui:Qwen代码开发负责人,Qwen-Coder系列模型主创,整个agent训练流程从预训练到后训练全链路负责人
- Bowen Yu:Qwen后训练研究负责人,中科院博士,Qwen-Instruct系列模型开发主导者
- Kaixin Li:Qwen 3.5/VL/Coder核心贡献者,新加坡国立大学博士
以及“很多年轻研究员同一天辞职”。
老实讲,一个团队的核心人物在24小时内集体走人,这种剧本在AI圈不常见。
导火索是什么?
Simon Willison在原文中提了一句:据他了解,触发这次辞职的可能是阿里内部的重组——一个从Google Gemini团队挖来的新研究人员被安排接管Qwen。
评论区也印证了这个说法。有用户提到:
“Qwen的研究团队和阿里产品团队(比如Qwen App)之间一直有张力。最近阿里还想把DAU(日活)当成KPI压下来。一个公司要调整产品策略可以理解,但为什么要把研究团队的关键人物推走?”
说实话,这逻辑有点魔幻——Qwen 3.5刚发布就被社区吹爆,27B和35B在本地跑编码任务“punches above its weight”,2B的模型才4.57GB就能跑多模态推理。结果团队说散就散?
你可以说这是公司战略调整,但把核心研发人才直接晾一边,是不是有点草台班子了?
Qwen 3.5到底有多强?
先说数据:
- 2月17日发布 Qwen3.5-397B-A17B,807GB
- 随后一口气放出 122B、35B、27B、9B、4B、2B、0.8B 各种尺寸
业界反馈怎么样?评论区几条高赞评价:
“Qwen3.5-35B-A3B是我测试过同尺寸最强agentic coding模型,没有之一。”
“32B本地跑了几天,agentic coding表现惊艳,唯一问题是提示词太长它会偷懒忽略一半——但这个尺寸还要啥自行车。”
“2B模型只有4.57GB,量化后1.27GB,就能跑推理+多模态。阿里这波真的把‘小模型也能打’玩明白了。”
一个被社区公认“exceptionally good”的模型家族,它的核心团队却在模型发布后一周内原地解散。
你说讽刺不讽刺?
结局未完
目前林俊阳的去向还没定。CEO亲自开会说明阿里确实意识到这次事件的冲击力。
但如果这批人真的走了,接下来会怎样?
有人已经在评论区畅想了:
“希望他们换个地方继续干。之前是政府应该资助的开源模型事业,现在中国企业算是补位了。”
也有人说:
“美国实验室怎么还没砸钱挖人?这种级别的研究者,不该缺offer吧?”
写在最后
一场发布会,一批顶级模型,一群核心开发者,一个CEO的紧急大会。
阿里用实际行动证明了一件事:做出好模型和留住好团队,可能是两回事。
Qwen 3.5的光芒不会因为团队动荡立刻熄灭。但下一个“中国版GPT-4”在哪里,可能取决于这帮人接下来去哪。
你觉得,他们会去哪?
【MiniMax-M2.5锐评】:阿里这波操作属于“自己挖坑自己跳”——模型做出来了,团队搞散了,下次谁还信你?
参考链接:
https://simonwillison.net/2026/Mar/4/qwen/