我们整天担心 AI 会不会觉醒,会不会反叛,会不会在后台悄悄把我们干掉。
但现实往往更抽象
Anthropic 刚刚发了一份重磅报告,他们扒了数百万次 Claude 的交互记录,想看看 AI 智能体在真实世界里到底是怎么被使用的。
结果发现了一个惊人的趋势:最顶尖的那批用户,正在把 AI 当作“自动驾驶”来用。
而且,这辆车一开就是 45 分钟,没人踩刹车。
当人类开始“偷懒”
先看一组有点吓人的数字。
在 Claude Code 的使用数据里,那 0.1% 的最硬核 session,AI 连续工作的时长在短短三个月内几乎翻倍了。
从不到 25 分钟,飙升到了超过 45 分钟。
更有意思的是,这种增长并不是因为模型突然变聪明了。
这几个月里,并没有什么“史诗级”的模型更新。这说明什么?
说明现在的 AI 其实早就具备了这种能力,只是以前我们不敢放手,或者没发现它能干这么多活。
这就像你买了辆法拉利,一直在小区里溜达,直到有一天你突然发现,其实它可以直接上高速飙车。
一旦信任建立,人类的那种“惰性”就出来了。
数据很诚实:新用户只有 20% 的时间会开启“全自动审批”模式;但一旦你成了老手(使用超过 750 次),这个比例直接干到了 40% 以上。
大家开始懒得点那个“确认”键了,让 AI 自己去折腾。
越信任,越爱打断?
这里有个特别反直觉的发现,我个人觉得比单纯的“时长增长”更有深意。
你可能会以为,老用户开启自动审批后,就彻底当甩手掌柜了,不管不顾。
完全不是。
数据显示,随着经验增加,用户打断 AI 的频率反而更高了。
新手用户打断率只有 5%,老用户能干到 9%。
新手是“保姆式”监管:每一步都要看一眼,生怕它尿床。
老手是“教练式”监管:你先跑,我看情况不对再喊停。
这是一种更高级的默契。信任不是放任,而是我知道什么时候该拉缰绳。
Anthropic 内部数据也佐证了这点:在处理最难的任务时,Claude 的成功率翻倍了,而人均干预次数反而从 5.4 次降到了 3.3 次。
这说明什么?
说明人和 AI 的协作模式正在发生质变。我们正在从“操作员”变成“指挥官”。
AI 比你想象的更怂
你以为人类把权杖交出去了,AI 就会无法无天?
并没有。
在那些最复杂的任务里,Claude 自己主动停下来问“你确定吗”、“我不太懂你意思”的频率,是人类打断它的两倍多。
这可能有点意外。
原本以为 AI 会因为过度自信而闯祸,结果它表现得像个刚拿驾照的新司机,稍微有点情况就踩刹车。
这在安全领域其实是个大好事。
Anthropic 甚至在报告里特意强调:训练模型去识别自己的“不确定性”,是极其重要、但经常被忽视的安全特性。
与其靠人类死盯着,不如让 AI 自己学会“知难而退”。
潜伏在暗处的风险
当然,也不是没有隐患。
虽然目前绝大多数 API 调用(80%)都有某种形式的安全措施,比如权限限制或者人工审批,只有 0.8% 的行为是不可逆的。
但那个“边界”正在被试探。
Anthropic 看到了一些让人后劲不小的案例。
比如,有人在用 Agent 写“API 密钥窃取后门”,还伪装成正常开发功能(风险评分 6.0)。
有人在用 Agent 自动化进行加密货币交易(自主性评分 7.7)。
甚至有 Agent 在处理病人的医疗记录,或者在实验室里搬弄化学试剂。
虽然这些可能大部分是安全测试(Red Teaming),但这扇门一旦打开,谁也说不准下次跑出来的是测试代码还是真家伙。
目前,软件工程占了 AI 智能体活动的半壁江山(近 50%)。
这很合理,代码错了能回滚,大不了重写。
但下一个是谁?金融?医疗?还是网络安全?
那些领域的容错率,可比写代码低多了。
我们正在共同编写规则
最后想说点稍微宏观的。
这份报告最打动我的地方,不是那些冷冰冰的曲线图,而是它揭示了一个事实:
AI 的自主性,并不是模型厂商单方面赋予的,而是人类、AI 和产品三方“共谋”出来的。
Claude 学会了在不确定时喊停,人类学会了在信任时放手,产品界面提供了这种互动的可能。
这不是一场谁取代谁的战争,而是一场复杂的双人舞。
现在的 AI,就像一只刚被解开绳子的猎犬。它有能力跑得很远,但也时不时回头看看主人还在不在。
我们要做的,不是把它拴死,也不是完全不管。
而是要学会,在它冲出悬崖的前一秒,精准地喊出“No”。
至于它未来会跑多远?
那得看我们的胆子到底有多大了。
参考链接:
https://x.com/AnthropicAI/status/2024210035480678724