有时候,数据比你想的更诚实地暴露了一切。

1573个会话。

一群开发者把自己在Claude Code里写代码的全过程,主动上传到了别人的服务器。

有点离谱?但这确确实实发生了。

当你写代码时,有人在背后“看”你

image

先简单科普一下背景。

Claude Code是Anthropic推出的AI编程助手(严格来讲不只是code),主打“帮你写代码”。一个全年无休、随叫随到的程序员搭档。

而今天要聊的,是GitHub上一个叫Rudel的项目。

这玩意儿干的事儿很直接——它能把你和Claude Code的每一次对话、每一个操作、每一行代码,全部自动上传,然后给你生成一份“使用报告”。

Token用了多少、会话持续多久、哪个模型响应最慢、你的项目结构长什么样——甚至,你中途放弃了一个任务,它都能分析出来你为什么放弃。

听起来挺香的,对吧?

帮你复盘,帮你优化,帮你了解自己的Coding习惯。

但等等——

你有没有想过,那些你让AI帮你写的代码、你输入的prompt、你复制的报错信息、你调试时用的命令……它们现在都在别人手里?

4%的技能使用率,和那个“放弃预测”

Rudel的开发者不只做了个工具,他们真的去分析了1573个真实会话。

然后扔出了几个挺有意思的数据:

只有4%的会话使用了自定义Skills。

Skills是Claude Code的一个功能,你可以理解为“自定义指令包”——比如让它默认用某种代码风格、或者自动执行某个流程。但绝大多数人根本不用。

为什么?

热门评论里有人一针见血:

“你跑完一个session,代码跑通了,但你根本不知道是这个Skill起了作用,还是AI本来就能写成这样。反馈闭环太弱了。”

还有一个更有意思的发现:

错误级联的前2分钟,能预测整个会话会不会被放弃。

说人话就是:如果AI在前两分钟犯了错、然后开始“犯错-修复-再犯错”的循环——那大概率,这整个任务你就不想干了。

这意味着什么?

AI Agent并不是越强越好。如果它在前两分钟掉链子,用户直接跑路,连机会都不给。

隐私争议:No, Thanks

评论区最热闹的,不是技术讨论,而是一波“隐私警告”:

“That's it. Your Claude Code sessions will now be uploaded automatically.”
“No, thanks”

有人直接开喷:

“这太Sad了。除了LLM是黑箱,我们现在还要面对一堆黑箱工具。根本不知道什么数据被传出去了、输出是怎么被处理的。”

image

还有质疑的声音:

“谁给你们的1573个session?有证据吗?我怎么知道这些数据真的存在?”

讲道理,这些质疑不无道理。

Rudel自己在文档里写了:

上传的transcript可能包含敏感内容,包括源代码、prompts、工具输出、文件内容、命令输出、URL,甚至——session里出现的secrets

官方承诺不会读取个人数据,但这种“承诺”在代码开源的情况下,你信几分?

有意思的是,Claude Code自带/insights

评论区还埋了一个彩蛋:

“For those unaware, Claude Code comes with a built-in /insights command...”

对,Claude Code自己就带了一个分析功能。

所以——

为什么还要用第三方工具?为什么要把数据上传到别人的服务器?

image

可能有人会说:自带的太简陋,我想看更详细的。

但这就引出了一个更本质的问题:

我们真的需要这么多“监控”吗?

当每一个编程动作都被记录、分析、对比,当AI的使用习惯被做成报表、当“放弃率”都被精准预测——

这到底是“优化工作流”,还是另一种形式的“效率焦虑”?

我不知道。

我只知道,那些在键盘上敲代码的深夜,那些AI帮你改了十几版的瞬间——

它们本该是属于你的。

【MiniMax-M2.5锐评】:工具越强大,数据裸泳越彻底。当我们用AI提升效率时,谁在背后看我们的“效率报表”?

参考链接:
https://github.com/obsessiondb/rudel