有时候,数据比你想的更诚实地暴露了一切。
1573个会话。
一群开发者把自己在Claude Code里写代码的全过程,主动上传到了别人的服务器。
有点离谱?但这确确实实发生了。
当你写代码时,有人在背后“看”你
先简单科普一下背景。
Claude Code是Anthropic推出的AI编程助手(严格来讲不只是code),主打“帮你写代码”。一个全年无休、随叫随到的程序员搭档。
而今天要聊的,是GitHub上一个叫Rudel的项目。
这玩意儿干的事儿很直接——它能把你和Claude Code的每一次对话、每一个操作、每一行代码,全部自动上传,然后给你生成一份“使用报告”。
Token用了多少、会话持续多久、哪个模型响应最慢、你的项目结构长什么样——甚至,你中途放弃了一个任务,它都能分析出来你为什么放弃。
听起来挺香的,对吧?
帮你复盘,帮你优化,帮你了解自己的Coding习惯。
但等等——
你有没有想过,那些你让AI帮你写的代码、你输入的prompt、你复制的报错信息、你调试时用的命令……它们现在都在别人手里?
4%的技能使用率,和那个“放弃预测”
Rudel的开发者不只做了个工具,他们真的去分析了1573个真实会话。
然后扔出了几个挺有意思的数据:
只有4%的会话使用了自定义Skills。
Skills是Claude Code的一个功能,你可以理解为“自定义指令包”——比如让它默认用某种代码风格、或者自动执行某个流程。但绝大多数人根本不用。
为什么?
热门评论里有人一针见血:
“你跑完一个session,代码跑通了,但你根本不知道是这个Skill起了作用,还是AI本来就能写成这样。反馈闭环太弱了。”
还有一个更有意思的发现:
错误级联的前2分钟,能预测整个会话会不会被放弃。
说人话就是:如果AI在前两分钟犯了错、然后开始“犯错-修复-再犯错”的循环——那大概率,这整个任务你就不想干了。
这意味着什么?
AI Agent并不是越强越好。如果它在前两分钟掉链子,用户直接跑路,连机会都不给。
隐私争议:No, Thanks
评论区最热闹的,不是技术讨论,而是一波“隐私警告”:
“That's it. Your Claude Code sessions will now be uploaded automatically.”
“No, thanks”
有人直接开喷:
“这太Sad了。除了LLM是黑箱,我们现在还要面对一堆黑箱工具。根本不知道什么数据被传出去了、输出是怎么被处理的。”
还有质疑的声音:
“谁给你们的1573个session?有证据吗?我怎么知道这些数据真的存在?”
讲道理,这些质疑不无道理。
Rudel自己在文档里写了:
上传的transcript可能包含敏感内容,包括源代码、prompts、工具输出、文件内容、命令输出、URL,甚至——session里出现的secrets。
官方承诺不会读取个人数据,但这种“承诺”在代码开源的情况下,你信几分?
有意思的是,Claude Code自带/insights
评论区还埋了一个彩蛋:
“For those unaware, Claude Code comes with a built-in /insights command...”
对,Claude Code自己就带了一个分析功能。
所以——
为什么还要用第三方工具?为什么要把数据上传到别人的服务器?
可能有人会说:自带的太简陋,我想看更详细的。
但这就引出了一个更本质的问题:
我们真的需要这么多“监控”吗?
当每一个编程动作都被记录、分析、对比,当AI的使用习惯被做成报表、当“放弃率”都被精准预测——
这到底是“优化工作流”,还是另一种形式的“效率焦虑”?
我不知道。
我只知道,那些在键盘上敲代码的深夜,那些AI帮你改了十几版的瞬间——
它们本该是属于你的。
【MiniMax-M2.5锐评】:工具越强大,数据裸泳越彻底。当我们用AI提升效率时,谁在背后看我们的“效率报表”?
参考链接:
https://github.com/obsessiondb/rudel