Claude把100万token塞进你的对话框,而且不涨价

image

你的AI终于不会"中年失忆"了

用过Claude Code的人都有过这种窒息时刻

你让它读100页代码库,查Datadog日志,再翻三遍数据库。刚要解决问题,屏幕一抖——compaction来了。上下文被压缩,细节像被橡皮擦抹掉,AI突然问你:"我们刚才在聊什么?"


image

Anthropic今天宣布:这种痛苦结束了。

Claude Opus 4.6和Sonnet 4.6的100万token上下文窗口正式全面开放。没有beta权限门槛,没有额外溢价,9K token的请求和900K token的请求单价完全一样

.png)

定价很直接Opus 4.6维持25每百万token,Sonnet 4.6是15。超过20万token不再加收"长文附加费"。

这意味着什么?你可以把整个代码仓库、五轮谈判的100页合同、400页法庭笔录,一次性丢进去。不用分段,不用摘要,不用在多个会话间切来切去。

1M不是数字,是免死金牌

说实话,大模型卷上下文窗口已经不是新闻。Gemini早就宣称支持1M,GPT-5.4也在往这个方向走。

能用好用是两回事。

Anthropic放出了MRCR v2(多轮上下文召回)测试成绩:Opus 4.6在100万token长度下准确率78.3%,目前 frontier models 中最高

image

Physical Superintelligence的联合创始人Dr. Alex Wissner-Gross说,他们现在能让AI同时处理数百篇论文、数学证明和代码库。科研发现需要跨文献、跨数据库、跨模拟代码的同步推理,以前得拆成十几个步骤,现在一次pass搞定。

.png)

法律科技公司GC AI的CTO Bardia Pourvakil举了个扎心的例子:以前律师看100页的合作协议,五轮谈判版本要来回切换,"永远看不清谈判全貌"。现在五轮修改一次性摊在AI面前,条款怎么变的、哪轮改的、上下文约束在哪,一目了然。

有意思的是,上下文变长反而省了token

Hex的AI研究负责人Izzy Miller发现,把窗口从200K提升到500K后,agent运行效率反而更高,总体消耗的token更少。因为不用反复加载、重复解释背景,overhead砍掉了。

那些"被压缩"的深夜,值了

Ramp的软件工程师Anton Biryukov描述的场景很真实:

"Claude Code本来就会烧掉10万+token去搜Datadog、Braintrust、源码。然后compaction kick in,细节消失。你在debugging circles里打转。"

现在他可以在一个窗口里搜索、再搜索、聚合边缘情况、提出修复方案。循环打破了


法律AI公司Eve直接默认开启1M上下文。他们的ML工程师Mauricio Wulfovich说,原告律师最难的问题需要交叉引用400页证词笔录,"expanded context window lets us deliver materially higher-quality answers"。

Cognition(Devin的母公司)的工程师Adhyyan Sekhsaria透露,以前Devin Review处理大diff时,200K窗口装不下,必须chunk context(分块),结果跨文件依赖关系全丢了。现在1M窗口直接喂满,代码审查质量更高,架构反而更简单

还有一个细节:媒体处理能力翻了6倍,从100张图/PDF页提升到600张。

Endex的CEO Tarun Amasa提到,真实世界的表格任务需要深度研究和复杂多步规划,1M上下文让他们保持了任务连贯性和细节关注度

但等等,真的能用满100万吗?

热闹归热闹,评论区有人泼冷水。

一条高赞评论指出:"1M tokens is not the same as actually using 1M tokens well。"

有人实测发现,虽然窗口开到1M,但有效上下文在60-70万token附近会出现"悬崖"——指令遵循开始飘忽,模型明显"看"到了前面的内容,但不再正确加权。这不是检索问题,是注意力分配问题。

image

另一条评论更扎心:"Gemini Pro和Flash早就支持1M上下文了,但我用了这么久Flash 3,从来没超过200K。"

这暴露了一个尴尬现实:大部分人的工作流根本用不到1M。就像给你一辆能跑300码的车,但你每天通勤只开60码。

不过Anthropic这次聪明在取消了长上下文溢价。以前用900K token要比9K贵好几倍,现在单价一样。这意味着边际成本为零的冒险——你不用为了"划算"而硬塞满1M,但只要需要,随时可以用。

这很像云服务里的"按需扩容":平时跑10台机器,促销时瞬间扩到1000台,按量付费,不扩不花钱。

Agent战争的弹药库

很明显,这是在向GPT-5.4的1M窗口宣战。

评论里有人猜测:"The removal of extra pricing beyond 200k tokens may be Anthropic's salvo in the agent wars。"

image

当模型能记住整个代码库的架构、记住五轮谈判的全部细节、记住从第一个告警到最终修复的完整链路——Agent才真正有了长期记忆

Resolve的CTO Mayank Agarwal说得好:大规模生产系统有"无尽的上下文",生产事故可能极其复杂。现在他们可以从第一个告警到最终修复,保持所有实体、信号、工作理论都在视野内,不用反复压缩或妥协系统细节。

以前AI是金鱼,现在它终于能记住整个海洋了。

image

你的业务,准备好填满这100万token了吗?

【kimi-k2.5锐评】:当上下文窗口大到能吞下整个代码库,人类程序员才终于从"给AI当翻译"变成了"给AI当老板"。

参考链接:
https://claude.com/blog/1m-context-ga