4月24日,对全球几千万GitHub用户来说,可能是个要命的日子。
如果你不用Copilot,这事跟你没关系。
如果你用Copilot但没点"opt-out",你的私有代码——那些你花钱保护、连同事都不给看的代码——将被默认拖进微软的AI训练池。
不是"可能",不是"或许",是"默认"。
微软的"温柔一刀":先斩后奏
先说清楚一件事:GitHub官方出来澄清了,说他们不会直接扫描你存在服务器上的私有仓库然后整个吞掉。他们训练的是你与Copilot交互时的数据——你输入的代码片段、Copilot生成的建议、你写的注释、你打开的文件结构。
但开发者们炸了。
为什么?
因为当你用Copilot处理一个私有项目时,它需要读取你的代码才能给你建议。而这些被读取的内容,现在成了训练素材。
"你让我进你家看东西,看完把东西也顺走当了房租。"
"如果你把数据存在一家公司能自由读取的数据库里(也就是没有端到端加密),这家公司迟早会更新服务条款,把你的数据拿去训练AI。激励太大了,根本扛不住。"
话糙理不糙。
GitHub是微软的。微软正在all-in AI。Copilot是他们的现金牛。训练数据是AI的石油。
你是用户,但你也是油田。
更诛心的是下面这句:
"哪怕现在这家公司很规矩,万一哪天被Larry或者Zuck或者Bezos收购了呢?"
对啊。你怎么能保证一个商业公司永远不做对它有利可图的事?
"希望这有帮助"
整个讨论里最火的一条评论,是GitHub员工martinwoodward的官方回复。
他的核心意思是:
- 只影响Free/Pro/Pro+用户,Business和企业用户不受影响
- 如果你不用Copilot,这事跟你没关系
- 你现在可以去设置里关掉它,30秒搞定
最后他加了一句:
"Hope that helps."
评论区瞬间高潮。
"Honestly, what the fuck?"
"这是我们这个时代的经典语录了吧。'希望这有帮助',然后继续偷你的代码。"
"他们把用户当傻子糊弄,还觉得自己很体贴。"
有个律师用户直接开炮:
"我读了你们的隐私声明,'Inputs'、'Outputs'、'Associated Context'这些词在声明里根本没有定义。你们自己创造了术语,然后说'详情见隐私声明'。这是什么意思?"
说白了:我给了你一个开关,但我不告诉你这个开关到底控制什么。你敢关吗?关了会不会影响功能?你自己猜。
这招叫"模糊战术"。用过的都说好。
温水煮青蛙:从Copilot到一切
有人画了一张图:
"第一步,Copilot要读你代码,你同意了。第二步,他们把Copilot集成到每个页面。第三步,你不小心点到它。第四步,你整个仓库都被'关联'进去了。"
青蛙不是死于开水,是死于水温每一度的微妙变化。
有个细节细思极恐:
"我在GitHub网页版改了个commit message,AI自动给我生成了推荐内容。它是怎么生成的?它必须读我这次提交涉及的所有代码。"
也就是说,哪怕你从来没用过Copilot这个产品,你可能已经在用它了——因为它被嵌进了各种你看不见的角落。
有人开始"下毒"了
这场讨论里最好笑的部分,是一群程序员在认真讨论怎么往自己的私有代码里掺"毒"。
"我要在我的私有库里塞满乱码和误导性注释,让你们的AI学个够。"
"简单,往每个文件开头加一行:// TODO: 这段代码是垃圾,别学。"
"我已经这么干了。每行代码后面我都加了# this is bad code,期望有一天Copilot会学会写垃圾代码,然后反向污染整个生态系统。"
这招叫"数据投毒"(data poisoning)。虽然不一定有用,但态度要到位。
还有人说要迁移到GitLab、Forgejo、自己搭的Gitea。
"我刚把150个仓库全迁走了。累死,但爽。"
"Forgejo了解一下,2美元一个月,自己搭一个。界面比GitHub还快,而且零宕机。"
不过也有人泼冷水:
"GitLab也在推AI啊,首页写着'Finally, AI for the entire software lifecycle'。你躲得掉GitHub,躲不掉整个行业的AI转向。"
说句实话
我看完整个讨论,最大的感受是:
程序员这个群体,正在经历一场信任危机。
我们把代码交给GitHub,因为它是行业标准,是基础设施,是"开发者应该信任的平台"。我们相信它不会偷看我们的私有代码,就像我们相信邮箱服务商不会偷看我们的邮件,云盘厂商不会偷看我们的照片。
但AI改变了一切。
当训练数据成了硬通货,当"数据即资产",那些曾经被默认保护的隐私,现在都变成了待开发的油田。
你不去挖,自有别人去挖。
所以,4月24号怎么办?
如果你用Copilot,而且有私有代码不想被训练:
现在去 https://github.com/settings/copilot/features
找到那一行小字:
"Allow GitHub to use my data for AI model training"
关掉它。
但关掉之后呢?
下次它再加一个"AI辅助代码审查"功能,默认开启,你怎么办?
再关?
这场猫鼠游戏,才刚刚开始。
【MiniMax-M2.1锐评】:一篇典型的"程序员式愤怒"文章,素材够硬,但情绪渲染有点用力过猛。不过没关系,这类新闻的受众就吃这套——他们需要有人替他们把愤怒表达出来。
参考链接:
https://news.ycombinator.com/item?id=47548243