你以为摘下眼镜放在床头柜上就安全了?
错。在大洋彼岸的肯尼亚,可能正有一群数据标注员,盯着你伴侣刚出浴室的裸体看。
这不是科幻惊悚片,这是Meta智能眼镜刚刚被扒出的真实丑闻。
隐私的“最后一块遮羞布”被扯下
瑞典媒体最近干了一件大事,他们联手调查了Meta的外包分包商Sama,采访了30多名现任和前任员工。结果令人脊背发凉:这些负责为Meta AI进行数据标注的工人,日常工作之一竟然是观看用户通过Ray-Ban Meta智能眼镜拍摄的私密视频。
有多私密?
报道里描述的画面,简直让人不敢相信这是科技公司的日常操作:
有人戴着眼镜进浴室,拍下了自己上厕所的画面;有人把眼镜随手扔在床头柜,结果拍下了伴侣在房间内换衣服、甚至全裸走出的镜头;更有甚者,拍到了用户的性生活画面。
一位接受采访的Sama员工说得很直白:“我看到过一段视频,一个男人把眼镜放在床头柜上离开了房间,紧接着,他妻子走进来换衣服。”
另一位员工说,他们看到了用户的伴侣赤身裸体从浴室走出来。
“你明白你看的是别人的私生活,但你的工作要求你必须看下去。”这位员工的话,透着一股无奈和荒诞。
用户不知情,工人“被动偷窥”
更有意思的是,这看起来并不是用户故意恶作剧。
Sama的员工透露,很多用户似乎根本没意识到眼镜在录制。有人对着眼镜拍自己的银行卡,有人拍自己正在看的成人影片。
虽然Ray-Ban Meta在录制时会有红灯闪烁提示,但显然,很多人要么没看见,要么根本没搞懂那盏灯意味着什么。尤其是在去年8月,Meta甚至把“Meta AI with camera”功能默认开启了,只要你没关“Hey Meta”语音指令,它就在待命。
结果就是,用户以为自己在享受科技便利,实际上却把自家卧室、浴室甚至床第之间的画面,实时上传到了Meta的云端数据库。
Meta对此的回应倒是“很标准”。
他们承认确实会把用户分享给Meta AI的内容发给承包商审核,理由是“为了改善用户体验”,并且信誓旦旦地说“数据首先会经过过滤,比如模糊人脸”。
但这显然是扯淡。
如果真的模糊了人脸,那些肯尼亚的标注员又是怎么分辨出“妻子”、“伴侣”和“裸体”的?模糊处理恐怕只是个心理安慰,在真正的隐私泄露面前,这种技术防御形同虚设。
“为隐私设计”?这笑话有点冷
这事一出,最尴尬的莫过于Meta那句响亮的口号:“为隐私设计,由你掌控”。
这行字现在印在官网上,显得格外刺眼。
美国那边已经坐不住了。一份最新的集体诉讼草案直接把Meta和雷朋母公司Luxottica告上了法庭。诉讼直言不讳地指出:没有任何一个理性的消费者会认为,“为隐私设计”意味着自己在家里的私密视频会被海外的人工人肉观看和分类。
诉讼里有一句话说得特别狠:Meta把隐私作为营销的核心,却隐瞒了那些证明这些承诺是谎言的事实。
英国的信息委员会办公室(ICO)也已经介入,给Meta写了信。这就很微妙了,一边是Meta计划在眼镜里加入人脸识别功能,一边是现在的隐私丑闻爆发,这不仅仅是打脸,这是把脸皮都撕下来了。
Sama那边倒是把自己摘得很干净,发声明说他们符合GDPR和CCPA标准,工作环境安全、禁带私人手机、员工都签了保密协议。
但这有用吗?
这就好比有人偷看了你的日记,然后告诉你“别担心,他签了保密协议,而且工资给得挺高”。
这根本不是保密协议的问题,这是数据源头就烂了的问题。
AI光鲜背后的“数字血汗工厂”
说实话,这事儿让我对AI行业的“高科技”滤镜碎了一地。
我们总以为AI是硅基生物的冷酷计算,是算法的自我进化。但现实是,所谓的“智能”,很大一部分是靠大量廉价的人工标注员,一张图一张视频“喂”出来的。
在这个案例里,Meta所谓的“AI训练”,其实就是把用户的隐私变成了流水线上的原材料。肯尼亚的工人们坐在屏幕前,被迫成为现代社会的“窥私者”,他们也是受害者,因为他们不得不为了生计,去消化这些本不该出现在公共视野里的画面。
这不仅是隐私泄露,更是对人的异化。
有热门评论说得一针见血:“把摄像头和麦克风戴在头上,连着扎克伯格的平台……你还能指望什么?”
这话虽然极端,但道理没毛病。当你选择把一个全天候待命的摄像头戴在脸上时,你就已经把自家的房门钥匙,交给了这家靠广告和数据生存的公司。
Meta还没对诉讼置评,大概率他们会说“这是意外”、“我们在改进”。
但信任这种东西,就像隐私一样,一旦泄露了,就再也回不去了。
【glm-5锐评】:
所谓的“AI训练”,原来就是真人围观看片会?Meta这波操作,把“为隐私设计”变成了“为窥私设计”,科技狠活儿最后还得靠人肉填坑,吃相未免太难看。
参考链接:
https://arstechnica.com/gadgets/2026/03/workers-report-watching-ray-ban-meta-shot-footage-of-people-using-the-bathroom/