Anthropic这周干了一件很“科幻”的事。

他们研发了一个名为Mythos的新模型,据说强得离谱,但最后决定:不发了。

至少不对公众发布。

AI配图

理由很正当,甚至有点让人脊背发凉——这模型找漏洞的能力太强了,强到可能成为黑客手中的“核武器”。

于是,他们搞了个“特权俱乐部”,只把Mythos分享给亚马逊AWS、摩根大通这种掌握关键基础设施的巨头。

听起来是不是特有责任感?特像是为了全人类安全着想?

为了地球和平,我们决定“封印”它

咱们先看看官方怎么说。

Anthropic宣称,Mythos在发现软件安全漏洞方面的能力,远超自家上一代模型Opus。Opus已经是安全圈里的“神器”了,这Mythos岂不是要上天?

官方的说辞是,如果这种级别的工具流落到暗网或者恶意攻击者手里,全球用户的软件安全防线可能瞬间被撕碎。

为了防患于未然,他们决定“限制性发布”。

这个策略不仅Anthropic在用,听说OpenAI也在琢磨类似的招数。核心逻辑是:让大企业先用起来修补漏洞,跑在坏人前面。

这听起来没毛病吧?毕竟谁也不想自家系统被AI攻破。

但有意思的是,这事儿还有另一层解读。

所谓的“降维打击”,可能只是个营销烟雾弹

Mythos真的神到不可方物吗?

网络安全初创公司Aisle跳出来打脸了。他们说,Anthropic吹得天花乱坠的那些功能,他们用更小的开源模型也实现了大半。

Aisle的团队认为,网络安全这事儿,根本不存在什么“万能神模型”,还得看具体任务场景。

Irregular公司的CEO Dan Lahav三月份就泼过冷水:AI找到漏洞是一回事,能不能真正利用这些漏洞发起攻击,那是另一回事。

“我脑子里一直有个问题:他们发现的这些东西,到底是真的能被利用,还是只是虚张声势?”

说白了,Mythos可能确实强,但也没强到需要像核弹头一样封存起来的地步。

AI配图

既然技术本身没那么“不可逾越”,那Anthropic为什么要演这一出“封印戏法”?

防君子不防小人,防的是“白嫖党”

这里就要提到一个技术圈很敏感的词:蒸馏(Distillation)。

简单来说,就是小公司利用大模型输出的数据,低成本训练出自己的模型。这是很多初创公司甚至开源社区的生存之道。

软件工程师David Crawshaw一针见血地指出了问题的本质:

“这不过是营销掩护。顶级模型现在被企业协议锁起来了,小实验室再也没法通过蒸馏技术来‘抄作业’了。”

这才是最狠的一招。

如果Mythos公开发布,友商们——尤其是那些擅长“魔改”开源模型的公司——就能拿着它的数据去训练自己的模型,低成本甚至零成本地追赶Anthropic的技术。

现在好了,Anthropic把模型锁进大客户的机房里。

你想用?可以,签企业合同,付大钱。

你想“抄”?门都没有。

这招一石二鸟:既立住了“安全负责任”的人设,又切断了竞争对手低成本追赶的路径。

巨头们的护城河,越挖越深

这不仅仅是Anthropic一家的算盘。

看看现在的AI圈子,简直就是一场“反蒸馏战争”。Anthropic、Google、OpenAI三大巨头甚至已经联手,专门识别和封堵那些试图“蒸馏”他们模型的用户。

根据Bloomberg的报道,这些前沿实验室正对此采取更强硬的立场,甚至公开指责某些中国公司试图复制模型。

为什么这么急?

因为蒸馏技术太狠了。它能让那些没钱烧算力的小公司,也能搞出性能不错的模型。这对动辄投入数百亿美元训练大模型的巨头来说,简直是降维打击。

把模型锁起来,只给付费的大客户用,既保住了高昂的资本投入回报,又把蒸馏公司永远挡在了“第二梯队”。

等到我们普通人能用上Mythos的时候,估计Anthropic又推出了新的“企业专享”模型。

这就是一条完美的商业飞轮。

结语

Mythos到底是不是真的危险到必须“封印”,恐怕只有Anthropic自己知道。

AI配图

但可以肯定的是,这一招“安全牌”,打得是真精明。

既保护了互联网(也许吧),更保护了自己的钱袋子。

至于这是否阻碍了技术的开放与普惠?那就是另一个故事了。

【锐评】:
说是为了世界和平把枪收起来,其实是为了防止隔壁老王拿去翻模造枪,顺便还把枪租给土豪收了笔会员费。

参考链接:
https://techcrunch.com/2026/04/09/is-anthropic-limiting-the-release-of-mythos-to-protect-the-internet-or-anthropic/