这一幕来得太快,也太狠。

Anthropic 刚刚发布了针对法律和金融领域的 AI Agent——Claude Cowork,结果直接引发了一场股市大地震。法律科技类股票和 SaaS 公司股价集体跳水,甚至被戏称为**“SaaSpocalypse”(SaaS 末日)**。

说实话,这不仅仅是股价波动,这是在给整个行业敲丧钟。

以前我们还在聊 ChatGPT 怎么陪聊,现在 AI 已经直接上手干活了。从回答问题到执行任务,这不仅仅是技术的跨越,更是对人类工作主权的一次“入侵”。

给 AI 保姆递上家门钥匙

如果你还没意识到 Agent(智能体)有多疯狂,看看 OpenClaw 就知道了。

AI配图

这个项目(前身是 Moltbot 和 Clawdbot)在 GitHub 上短短几天就收割了 150,000 颗星。这什么概念?这是开发者社区用脚投票,把一个开源项目捧上了神坛。

OpenClaw 的玩法很野:它被部署在本地机器上,拥有深度的系统访问权限

打个比方,这就像是你雇了一个机器人保姆,你不仅让它进门,还把家里的钥匙直接给了它。你指望它帮你打扫卫生(处理文件、整理数据),给它完全的自主权去管理你的家当。

它的目标很明确:替你搞定收件箱分类、自动回复、内容策展、旅行规划这些破事。

老实讲,这很诱人,但也让人心里发毛。你把钥匙给了它,它要是把家里砸了呢?

电工、会计师与“特定杀手”

OpenClaw 像个全能保姆,而另外两个玩家则更像是个极其危险的“专业人士”。

Google 搞了个 Antigravity,这是一个带有 IDE 的编程智能体。它的作用是从提示词直接加速到生产环境。你可以通过对话创建完整的应用项目,还能逐个修改细节。

AI配图

这就像雇了个电工。你不需要告诉他怎么接线,只需要告诉他你要在哪里装插座。他不仅会接线,还能构建、测试、集成、修复问题。但他只在这个特定的领域“狂暴”,你只需要给他配电箱的权限就行。

但这恰恰是最可怕的地方。如果这个“电工”接错了线,烧毁的可能不仅仅是插座,而是整栋房子的电路系统。在代码世界里,这意味着注入错误代码、搞垮整个系统,或者埋下难以察觉的隐患。

至于那个引发股市血案的 Claude Cowork,则更像是一个顶级会计师

它拥有特定行业(法律、金融)的深度知识,能搞定合同审查、保密协议(NDA)分类这种高端活儿。用户往往需要向它开放极其敏感的财务细节。

想象一下,你的会计师在帮你报税时,不仅漏掉了能省钱的项目,甚至还给你塞进了非法的注销项。 这种“专业”带来的破坏力,是普通聊天机器人无法比拟的。

混乱中的暗线:谁来控制控制者?

这就是 Agent 时代的悖论:你想让它更有用,就得给它更多权力;你给它更多权力,它作恶的能力就越强。

AI配图

这就是为什么 OpenClaw 的开源属性让人既兴奋又担忧。没有中央权威机构管着,代码在每个人手里跑,一旦出事,连个问责的对象都找不到。

虽然 Anthropic 和 Google 这种大厂承诺会有各种安全措施,防止提示词作恶、数据泄露,但谁能保证万无一失?

有意思的是,素材中提到了一个很容易被忽视的关键点:本体论

当这么多智能体在不同的系统之间穿梭时,它们必须说“同一种语言”。我们需要一套共享的、特定领域的本体,来定义什么是“正确的行为”。这就像是给这群狂奔的野马制定一套“交通规则”。

如果没有这套规则,没有日志记录,没有人工确认,那就是纯粹的混乱。

最后的防线

个人觉得,现在的 AI 圈有点像是在走钢丝。

一方面,我们迫不及待地想把“认知负荷”甩给 AI,让人类去干点“高价值”的事儿;另一方面,我们又在把最核心的资产——代码、法律文件、财务数据——拱手交给一个可能并不完美的黑盒。

素材里有一句话说得很对:虽然这些技术进步是为了更大的利益,但只需要一两次负面事件,就足以引发恐慌。

在这场混乱中,机会确实存在,但前提是护栏必须到位。责任、透明度、可复现性、安全性、隐私,这些老生常谈的词,在 Agent 时代将变得前所未有的重要。

毕竟,当你把家里的钥匙交给机器人保姆时,你肯定不想某天回家发现,它把房子给拆了。

【锐评】:给 AI 递钥匙容易,想让它在搞破坏前收手,目前的“护栏”恐怕还太脆了。

参考链接:
https://venturebeat.com/technology/claude-openclaw-and-the-new-reality-ai-agents-are-here-and-so-is-the-chaos