这个月的AI新闻里,有一条被大多数头条忽略了:Meta正在通过一项名为MCI(Mouse Cursor Intelligence)的技术,采集员工的鼠标操作轨迹、点击模式和页面停留时间,用来训练下一代自动化智能体。与此同时,Meta计划裁撤8000名员工。

这不是巧合,这是一个残酷的闭环。

用你的动作训练替代你的机器

MCI技术的本质并不复杂——记录人类在软件界面中的操作序列,然后用这些数据训练AI模型模拟相同的工作流。从表面上看,这是经典的”人类演示→AI模仿”范式,和RLHF没有本质区别。但关键的区别在于意图:RLHF是为了让模型更懂人类偏好,而MCI是为了让模型替代人类操作

当你的每一次点击、每一次拖拽、每一次在两个标签页之间切换的犹豫,都被转化为训练数据,最终喂给一个不需要社保、不抱怨加班、不会要求加薪的智能体——这已经不是”辅助”,而是”数字化的物种替换”。

8000人的悖论

裁员8000人,是Meta对MCI训练成果的信心投票。逻辑链条很清晰:如果我能从在职员工的操作中学到足够多,我就可以少雇人;如果我少雇了人,现有的操作数据质量会下降,但我已经有了一批不错的种子数据。余下的员工,继续产生新数据,继续优化智能体,继续裁员。

这是一个正反馈循环,终点是物理办公室里只剩下打扫卫生的阿姨和给服务器换硬盘的运维工程师——当然,如果机器人能换硬盘,运维工程师也可以走了。

行业的集体沉默

令人不安的不是Meta在做什么,而是行业对此的沉默。相比之下,当Cerebras冲刺IPO时,硅谷欢呼声震天;当谷歌向Anthropic投400亿美元时,媒体称之为”战略布局”。但当一个科技巨头公开用员工的操作数据训练替代品时,没有人觉得这有什么问题。

这种选择性失明背后是一种根深蒂固的叙事:自动化永远是进步的,被自动化替代的人只是”转型”的代价。 Nilay Patel在本周那篇《人们并不渴望自动化》的文章里说到了点子上——科技精英用”软件大脑”的思维看世界,认为一切都可以被数据库捕获和优化,但人类的很多价值恰恰在于那些不可数字化的东西:直觉、同理心、对模糊性的容忍度。

更深层的伦理困境

这里有一个很少有人讨论的伦理问题:员工是否知情并同意将自己的操作数据用于训练替代自己的AI? 答案几乎可以肯定是模糊的——Meta的隐私政策大概用三千字的法律术语涵盖了这一切,但没有一个员工在入职时会想到”我每天打字的方式会成为我继任者的训练素材”。

如果一家公司告诉你”我们需要你的数据来训练AI”,大多数人会理解为”让工具更好用”,而不是”让工具取代你”。这种信息不对称才是真正需要监管的地方,比什么AI模型出口禁令要紧迫得多。

下一步是什么?

MCI不是Meta独有的技术。每一款RPA工具、每一个屏幕录制agent框架、每一篇关于”computer use”的论文,都在走向同一个方向。区别在于速度和野心。

对于我们这些从事AI技术的人来说,这不是一个可以保持中立的议题。当你在构建一个”让AI使用浏览器完成任意任务”的工具时(比如本周登上Hacker News热门的Browser Harness),你其实也在参与这个闭环的一部分。问题不在于技术本身的好坏,而在于我们是否有勇气承认技术的社会后果,并在设计之初就内置伦理约束。

AI智能体时代的真正挑战不是”我们能不能”,而是”我们该不该”——以及更重要的是,”被’不该’影响的人有没有发言权”。

当AI开始编造安全漏洞:Linux内核的信任危机与AI辅助审计的警钟

一行代码被删的蝴蝶效应Linux内核社区最近遭遇了一件令人不安的事:开发者根据LLM生成的虚假安全报告,删除了内核中有效且必要的代码。这不是理论上的风险模拟,而是已经发生的真实事件。这则新闻的冲击力远超表面。Linux内核是互联网基础设施的基石,全球数百万服务器、手机、嵌入...… Continue reading