一个反直觉的事实:

当整个行业还在卷AI模型参数、卷上下文长度的时候,Cloudflare偷偷干了一件事——它把AI agent运行代码的速度,提到了100倍

不是1.1倍,是100倍。

3月24日,Cloudflare扔出一个叫"Dynamic Workers"的东西。官方说法很平静:一个"轻量级、基于isolate的沙盒系统"。但懂行的人看完了,反应就两种——要么觉得这是未来,要么觉得Cloudflare在吹牛。

老实讲,两种都对。


容器太重了,Cloudflare要换个盒子

先搞清楚一个问题:AI agent现在是怎么跑代码的?

主流方案就三种,容器(Docker那种)、microVM(AWS Firecracker那种)、isolate(浏览器里那种)。每一种都是一个"盒子",把不安全的代码关起来,防止它干坏事。

问题是,这些盒子一个比一个重。

一个传统容器,启动要几百毫秒,内存要几百MB。microVM轻一点,但也快不到哪里去。

这事儿放在以前没问题——服务器一开跑几天,谁在乎多等几百毫秒?

但AI agent不一样。OpenAI或者Claude写一段代码,可能就为了查个天气、改个表格、调个API。任务执行时间可能就几毫秒。结果光启动盒子就要花几百毫秒、吃掉几百MB内存。

这就好像你点个外卖,外卖骑手10分钟送到,但你下单之后要先等快递公司用卡车把厨房运到你家门口。

Cloudflare的说就一句话:盒子太TM重了,换个轻的。

Dynamic Workers用的是isolate——Google 2011年搞出来的技术,一个单进程能跑几十个隔离环境。Cloudflare说,这玩意儿启动只要几毫秒,内存只要几MB,同一台机器上能跑几千个。

官方数据:启动快100倍,内存省10到100倍。


Code Mode:别让AI调用工具,让它写代码

光快没用。Cloudflare憋了个更大的坏主意。

传统AI agent的工作方式是啥?给它一堆工具:"你可以调天气API、查日历、发邮件。"

模型一个一个调。这叫工具编排(Tool Orchestration)。

Cloudflare说,这太蠢了。

它的思路是:给AI一个TypeScript编程接口,别让它一个一个调工具,让它直接写一段小程序,把所有逻辑包进去。

举个例子。传统方式:

  1. AI调用天气API
  2. AI调用日历API
  3. AI调用邮件API
  4. AI返回结果

Code Mode方式:

  1. AI写一段TypeScript:const weather = await getWeather(); const calendar = await getCalendar(); await sendEmail(...)
  2. 扔进Dynamic Workers跑
  3. 返回结果

省了什么?

token。Cloudflare自己测的:把一个MCP服务器转成TypeScript API,token使用直接砍掉81%。

延迟也省了。没有来回的工具调用开销,模型写完代码、跑完、返回,一次搞定。

这是个大思路转变。AI agent不再是"调用工具的小助手",而是"能写程序的黑客"。


速度有了,但安全呢?

问题来了。

isolate快是快,但安全边界比容器和microVM弱。

Google Chrome浏览器用了十几年isolate,安全漏洞还是时不时冒出来。V8引擎的bug比典型虚拟机 hypervisor 多。

Cloudflare自己也承认:"硬化一个基于isolate的沙盒,比依赖硬件虚拟机更棘手。"

但它话锋一转:我们干了快十年了,早就习惯了。

Cloudflare列了一堆安全措施:

  • V8安全补丁几小时内自动推送
  • 自定义第二层沙盒
  • 基于风险动态隔离租户
  • 用MPK等硬件特性扩展V8沙盒
  • 扫描恶意代码模式,自动拦截

说人话就是:我们用十年时间把isolate安全漏洞摁住了,现在把这套东西给AI agent用。

这个说法有没有说服力?见仁见智。但至少比"我们啥都没考虑"强。


社区炸了:Python用户被歧视了?

产品发布当天,开发者社区X(前Twitter)就吵起来了。

夸的人很多。Cloudflare产品负责人Brandon Strittmatter说这是"经典的Cloudflare风格"——重新发明轮子,还TM比原来的好用10倍。Zephyr Cloud CEO Zack Chapple说"值得在山顶上喊出来"。

但批评也很尖锐。

AI配图

YouTuber兼 ThursdAI 播客主Alex Volkov的评论很有代表性:"我兴奋了半天,直到我看到这里。"

哪里?JavaScript限制。

Cloudflare官方文档里写了一行小字:Dynamic Workers技术上支持Python和WebAssembly,但"JavaScript加载和运行快得多"。

换句话说:这个系统是为JavaScript/TypeScript优化的。Python?不建议。

对很多AI开发者来说,这简直是当头一盆冷水。PyTorch、TensorFlow、OpenAI SDK、LangChain——Python才是AI开发的主场。

Cloudflare的回应有点欠揍:AI不在乎用什么语言。AI会写任何你让它写的语言。JavaScript就是最适合Web沙盒的语言。

这个说法对不对?从纯技术角度,可能没错。JavaScript在浏览器里跑了三十年,生态成熟、加载快、类型系统友好。

但它也意味着:Cloudflare的下一个十年,绑定在JavaScript生态上。不是Python,不是Go,不是Rust。

对非JS团队来说,这是个实实在在的门槛。


行业开始分叉:深度vs速度

Dynamic Workers发布的同时,另一条路也没闲着。

Docker Sandboxes用的是microVM——每个agent有个自己的轻量级虚拟机,能装包、能跑命令、能改文件,隔离性比isolate强得多。

两条路,代表两种哲学:

Docker Sandboxes Dynamic Workers
隔离强度 强(虚拟机级) 弱(进程级)
启动速度
适用场景 本地开发、持久环境 Web-scale、高并发
灵活性 能装任何东西 适合短平快任务

不是谁好谁坏的问题,是场景分叉

你想让AI在你的电脑上写代码、调环境、装依赖?用microVM。

你想让AI在云端处理百万用户的请求,每个请求开一个独立沙盒、跑完就扔?isolate更香。

Cloudflare的野心很明显:它要赌后者会变得非常大


有人已经在用了:百万级日请求

Cloudflare给了一个真实案例:Zite。

AI配图

这家公司做的产品挺有意思——用户聊天,AI在后台写TypeScript,自动生成CRUD应用、连Stripe、连Google Calendar、跑后端逻辑。

Zite CTO的原话:Dynamic Workers在速度、隔离、安全上"正中靶心"。

日处理量?百万级执行请求。

这个数字让我有点意外。beta阶段的产品,能撑起百万级日请求,说明工程化程度已经挺高了。

当然,不排除有营销成分。但至少说明这个方向是有人买单的。


定价:beta免费,之后很便宜

Dynamic Workers现在免费开放beta。正式上线后,定价是:

  • $0.002 per unique Worker loaded per day
  • 加上CPU和调用费用

这个价格什么概念?

Cloudflare自己说:相比生成代码的推理成本,execution费用"通常可以忽略"。

换句话说:execution要变成agent循环里的低成本常规操作,而不是需要精打细算的"特殊能力"。

AI配图

这是整个产品的底层逻辑——不是因为快所以便宜,而是因为便宜所以可以随便用。


结尾

Cloudflare这波操作,本质上是在下一盘棋:

先有Code Mode(让AI写代码),再有Dynamic Workers(让代码跑得又快又便宜),最后形成生态(所有AI应用都跑在Cloudflare的沙盒上)。

这条路能不能走通,取决于几个变量:

  1. AI agent是不是真的会变成"代码生成器"而不是"工具调用器"
  2. JavaScript限制会不会劝退足够多的开发者
  3. 安全问题会不会在某个节点爆个大雷

目前来看,Cloudflare至少拿到了一张入场券。

它没有试图颠覆容器或microVM——它只是在说:对于某些场景,你们太重了,换我上。

这个"某些场景"有多大?Cloudflare觉得,非常大。

你觉得呢?


【MiniMax-M2.1锐评】:Cloudflare这波操作属于"用技术细节讲大故事",100倍速度确实抓眼球,但真正的野心是重新定义AI agent的底层执行范式。问题是——不是所有AI团队都愿意为了速度拥抱JavaScript生态。

参考链接:
https://venturebeat.com/infrastructure/cloudflares-new-dynamic-workers-ditch-containers-to-run-ai-agent-code-100x