Anthropic 干了一件大事——让 Claude 直接控制你的电脑。
不是聊天,不是写代码,是真正的"动手":点击按钮、打开应用、输入文本、滚动屏幕。你离开工位,它帮你干活。你回来,任务完成。
听起来很科幻?但现实有点骨感。实测显示,这功能大概只有一半时候能正常工作。
AI 终于长出了"手"
这是 AI 行业憋了很久的一步棋。
过去三年,大模型一直在证明自己"会思考"。现在,Anthropic 想证明它们"会行动"。Claude 这次更新的核心能力叫"Computer Use"——电脑使用。名字很朴素,野心很大。
它的工作方式分三层:
第一层,走捷径。 你让 Claude 查邮件,它优先通过 Gmail 的官方接口直接调取。快、准、稳。
第二层,走浏览器。 没有现成接口?没关系,Claude 会打开 Chrome 浏览器,像人类一样点击、输入、浏览。
第三层,走屏幕。 实在没办法了,Claude 会截屏分析你的桌面,然后模拟鼠标键盘操作——就像一个看不见的远程操控员。
说实话,这个分层逻辑挺聪明。但第三层也是最危险、最慢、最容易出错的那一层。
配合上周推出的 Dispatch 功能,你可以用手机发指令,Claude 在你的 Mac 上执行。通勤路上发个"帮我整理周报",到公司可能就真整理好了。
一半时间在干活,一半时间在添乱
MacStories 的 John Voorhees 第一时间做了实测。结论很诚实:大概 50% 的成功率。
他让 Claude 找一张截图——成功。让它总结最新的 Notion 笔记——成功。让它列出当天的笔记——成功。
但让它打开 Shortcuts 应用——失败。让它通过 iMessage 发送截图——失败。让它列出 Safari 里正在浏览的外卖订单——失败。
"能找到信息,也能配合 Connectors 工作,但很慢,而且你尝试的操作大概只有一半能成功。"
Voorhees 的评价很克制:"还不足以让你放心离开工位时依赖它。但方向是对的。"
GitHub 上已经有用户报告 Bug:Claude Code 试图一次性读取多个大型 PDF 文件,结果超过 20MB 的 API 限制,直接报错。
有意思的是,Anthropic 自己也承认这只是"研究预览版"。他们没藏着掖着——这东西还不成熟,但先拿出来让你试试。
开源社区早就干起来了
Anthropic 并不是第一个吃螃蟹的。
今年早些时候,一个叫 OpenClaw 的开源框架突然爆火。它的核心功能几乎一样:让 AI 模型自主控制电脑、操作工具。社区甚至给这类工具起了个名字——"Claw"。
用户对"AI 代理"的渴望被验证了:哪怕体验粗糙,他们也愿意忍受。
英伟达上周跟进推出了 NemoClaw,主打更简单的部署和更强的安全控制。初创公司 Coasty 更是直接在 Anthropic 的官宣推文下"截胡",宣称自己的产品体验更好、准确率更高。
Anthropic 进场的时机很微妙。开源社区已经把市场教育好了,现在它带着更友好的界面、更紧密的集成、现成的订阅用户群来收割战场。
免费的开源工具 vs 每月 17 美元起步的商业产品。谁能赢?还不好说。
你的隐私,Claude 全看得见
让 AI 控制你的电脑,代价是什么?
首先是隐私。 当 Claude 通过截屏来"看"你的桌面时,它能看到一切——敏感文档、私人信息、甚至是你不小心打开的股票账户。Anthropic 说他们训练 Claude 避免处理股票交易、敏感数据输入等行为,但也明确表示:"这些防护栏不是绝对的。"
其次是安全。 Computer Use 不在虚拟机里运行,它直接操作你的真实桌面。一次误点击、一条被误解的指令、或者一次提示注入攻击,都可能造成真实后果。
Anthropic 加了几道防线:访问每个应用前都要授权、投资和加密货币类应用默认屏蔽、用户可以自定义黑名单、系统会扫描提示注入迹象。
但他们的帮助文档写得很直白:不要用这个功能管理财务账户、处理法律文件、处理医疗信息、或操作包含他人隐私信息的应用。
企业用户的问题更大。Cowork 的对话历史存在本地设备上,不在 Anthropic 服务器上。这意味着企业版的核心功能——审计日志、合规 API、数据导出——目前都覆盖不到 Cowork 的活动。
一个用户在社交媒体上提出了关键问题:
"当代理就是用户本身(同样的鼠标、键盘、屏幕),传统的取证标记无法区分人类操作还是 AI 操作。审计追踪怎么搞?"
这个问题,Anthropic 还没回答。
用户反应:兴奋、焦虑、还有点被坑
社交媒体上的反应分成了三派。
兴奋派: "刚更新完就用了 Dispatch,正是我想要的功能。" "发布速度太棒了。" "对不懂技术的用户来说太重要了,不用折腾 OpenClaw 了。"
焦虑派: "把这种控制权交给你的个人设备,感觉不太对。就像让一个不太熟的人开车,然后祈祷一切顺利。"
被坑派: Windows 用户表示被排除在外。还有 Max 订阅用户抱怨——每月 200 美元的套餐,一个指令就吃掉了 10% 的额度。"额度消耗速度太疯狂了。"
企业市场才是真战场
定价策略暴露了 Anthropic 的真实意图。
个人用户每月 17 美元起步,但"代理任务比普通聊天消耗更多容量"。想重度使用?请升级到每月 100 或 200 美元的 Max 套餐。
团队版每月 20 美元/人。企业版定制价格,包含管理员控制开关。
真正的大招是插件系统。Anthropic 已经推出了法律工作流插件(合同审查、NDA 分类)、财务插件(日记账、对账、差异分析)、品牌语调插件(分析现有文档并执行规范)。
把 Computer Use、Dispatch、定时任务、领域插件组合在一起——Anthropic 想卖的不是聊天机器人,是虚拟员工。
一位用户在社交媒体上的总结很到位:
"配合刚上线的 /schedule 功能,你基本上就有了一个能按计划与任何应用交互的后台工作者。这已经不是 AI 助手了,这是基础设施。"
速度与安全,Anthropic 选了速度
Anthropic 正在用一种近乎激进的方式推进。
功能不完美?先发。成功率只有一半?先发。审计日志还没覆盖?先发。
这是 AI 行业当下的缩影:不快就会死,但太快也可能出事。
Anthropic 自己的经济指数报告显示,AI 正在重塑劳动力市场,科技、金融、专业服务领域的知识工作者受影响最大。与此同时,公司还面临参议员 Elizabeth Warren 对其国防和供应链关系的审查。
内忧外患之下,Anthropic 选择了一条路:让用户帮它迭代。
50% 的成功率,今天够不够用?对某些场景,够了。对某些场景,远远不够。
但有一个问题没人能回答:当 AI 真的搞砸了——删除了重要文件、发送了错误邮件、操作了不该操作的账户——谁负责?
Anthropic 在赌:失败只是小麻烦。一旦失败变成大麻烦,整个计算都会被推翻。
人类花了三年证明机器能思考。现在的问题是:人类准备好让它们行动了吗?
答案暂时是"试试看"——带着权限对话框、黑名单、以及一个安静的希望:在技术追上野心之前,别删掉什么重要的东西。
【glm-5锐评】:Anthropic 把一个成功率 50% 的功能包装成"研究预览版"发布,本质上是在用用户的耐心和容错率来换取训练数据。
参考链接:
https://venturebeat.com/technology/anthropics-claude-can-now-control-your-mac-escalating-the-fight-to-build-ai