4月24日,对全球几千万GitHub用户来说,可能是个要命的日子。

如果你不用Copilot,这事跟你没关系。

如果你用Copilot但没点"opt-out",你的私有代码——那些你花钱保护、连同事都不给看的代码——将被默认拖进微软的AI训练池。

不是"可能",不是"或许",是"默认"。

微软的"温柔一刀":先斩后奏

AI配图

先说清楚一件事:GitHub官方出来澄清了,说他们不会直接扫描你存在服务器上的私有仓库然后整个吞掉。他们训练的是你与Copilot交互时的数据——你输入的代码片段、Copilot生成的建议、你写的注释、你打开的文件结构。

但开发者们炸了。

为什么?

因为当你用Copilot处理一个私有项目时,它需要读取你的代码才能给你建议。而这些被读取的内容,现在成了训练素材。

"你让我进你家看东西,看完把东西也顺走当了房租。"


"如果你把数据存在一家公司能自由读取的数据库里(也就是没有端到端加密),这家公司迟早会更新服务条款,把你的数据拿去训练AI。激励太大了,根本扛不住。"

话糙理不糙。

GitHub是微软的。微软正在all-in AI。Copilot是他们的现金牛。训练数据是AI的石油。

你是用户,但你也是油田。

更诛心的是下面这句:

"哪怕现在这家公司很规矩,万一哪天被Larry或者Zuck或者Bezos收购了呢?"

对啊。你怎么能保证一个商业公司永远不做对它有利可图的事?

"希望这有帮助"

AI配图

整个讨论里最火的一条评论,是GitHub员工martinwoodward的官方回复。

他的核心意思是:

  • 只影响Free/Pro/Pro+用户,Business和企业用户不受影响
  • 如果你不用Copilot,这事跟你没关系
  • 你现在可以去设置里关掉它,30秒搞定

最后他加了一句:

"Hope that helps."

评论区瞬间高潮。

"Honestly, what the fuck?"

"这是我们这个时代的经典语录了吧。'希望这有帮助',然后继续偷你的代码。"

"他们把用户当傻子糊弄,还觉得自己很体贴。"

有个律师用户直接开炮:

"我读了你们的隐私声明,'Inputs'、'Outputs'、'Associated Context'这些词在声明里根本没有定义。你们自己创造了术语,然后说'详情见隐私声明'。这是什么意思?"

说白了:我给了你一个开关,但我不告诉你这个开关到底控制什么。你敢关吗?关了会不会影响功能?你自己猜。

这招叫"模糊战术"。用过的都说好。

温水煮青蛙:从Copilot到一切

有人画了一张图:

"第一步,Copilot要读你代码,你同意了。第二步,他们把Copilot集成到每个页面。第三步,你不小心点到它。第四步,你整个仓库都被'关联'进去了。"

青蛙不是死于开水,是死于水温每一度的微妙变化。

有个细节细思极恐:

"我在GitHub网页版改了个commit message,AI自动给我生成了推荐内容。它是怎么生成的?它必须读我这次提交涉及的所有代码。"

也就是说,哪怕你从来没用过Copilot这个产品,你可能已经在用它了——因为它被嵌进了各种你看不见的角落。

AI配图

有人开始"下毒"了

这场讨论里最好笑的部分,是一群程序员在认真讨论怎么往自己的私有代码里掺"毒"。

"我要在我的私有库里塞满乱码和误导性注释,让你们的AI学个够。"

"简单,往每个文件开头加一行:// TODO: 这段代码是垃圾,别学。"

"我已经这么干了。每行代码后面我都加了# this is bad code,期望有一天Copilot会学会写垃圾代码,然后反向污染整个生态系统。"

这招叫"数据投毒"(data poisoning)。虽然不一定有用,但态度要到位。

还有人说要迁移到GitLab、Forgejo、自己搭的Gitea。

"我刚把150个仓库全迁走了。累死,但爽。"

"Forgejo了解一下,2美元一个月,自己搭一个。界面比GitHub还快,而且零宕机。"

不过也有人泼冷水:

"GitLab也在推AI啊,首页写着'Finally, AI for the entire software lifecycle'。你躲得掉GitHub,躲不掉整个行业的AI转向。"

说句实话

我看完整个讨论,最大的感受是:

程序员这个群体,正在经历一场信任危机。

我们把代码交给GitHub,因为它是行业标准,是基础设施,是"开发者应该信任的平台"。我们相信它不会偷看我们的私有代码,就像我们相信邮箱服务商不会偷看我们的邮件,云盘厂商不会偷看我们的照片。

但AI改变了一切。

当训练数据成了硬通货,当"数据即资产",那些曾经被默认保护的隐私,现在都变成了待开发的油田。

你不去挖,自有别人去挖。

所以,4月24号怎么办?

如果你用Copilot,而且有私有代码不想被训练:

现在去 https://github.com/settings/copilot/features

找到那一行小字:

"Allow GitHub to use my data for AI model training"

关掉它。

但关掉之后呢?

下次它再加一个"AI辅助代码审查"功能,默认开启,你怎么办?

再关?

这场猫鼠游戏,才刚刚开始。

【MiniMax-M2.1锐评】:一篇典型的"程序员式愤怒"文章,素材够硬,但情绪渲染有点用力过猛。不过没关系,这类新闻的受众就吃这套——他们需要有人替他们把愤怒表达出来。

参考链接:
https://news.ycombinator.com/item?id=47548243