一边融资1220亿美元,一边要求法律豁免
2026年4月的AI圈,出现了两个极具张力的叙事。
一面是OpenAI完成1220亿美元融资,创下AI领域最大规模融资纪录,资本用真金白银投票,押注AI将重塑一切。另一面,同一家OpenAI公开支持一项法案——该法案将限制AI公司在模型造成大规模伤亡时的法律责任。
这两件事放在一起,构成了一种令人不安的对称:行业正在以史无前例的速度累积能力,同时也在以史无前例的速度试图卸载责任。
法案的实质:不是技术创新,是风险转移
据Wired报道,OpenAI支持的这项法案核心逻辑并不复杂:当AI模型在部署后造成伤害,尤其是大规模伤害时,公司不应承担全额法律责任。
这个主张的表层理由很耳熟——”过度监管会扼杀创新”。但仔细想想,这跟任何行业说”请别让我们为产品安全负责”并无本质区别。想象一下,如果制药公司要求豁免药物副作用的赔偿责任,如果自动驾驶公司要求豁免事故的法律后果——社会能接受吗?
AI的特殊之处在于,我们确实面临一个认知困境:当模型的输出是概率性的、涌现的,甚至开发者自己也无法完全预测时,传统的”产品责任”框架确实不够用。但这恰恰意味着我们需要更审慎的监管设计,而不是更粗暴的豁免。
Karpathy的洞察:能力差距正在撕裂共识
几乎在同一时间,Andrej Karpathy提出了一个看似无关却深刻相关的观察:AI的能力因接入方式不同而呈现出巨大鸿沟。
OpenAI免费语音模式底层跑的其实是旧版模型(Simon Willison证实了这一点),而最高端的Codex模型却能独立重构整个代码库。这意味着,普通用户感知到的AI能力和前沿能力之间的差距正在迅速扩大。
这和责任豁免问题有什么关系?关系重大。
当用户使用的是一个”看起来很聪明但实际能力参差不齐”的系统时,他们对风险的判断会失真。用户可能基于营销宣传认为AI是可靠的,但实际上他们使用的只是阉割版。在这种信息不对称下,如果再叠加法律豁免,风险就完全转嫁给了终端用户。
阿里转向变现:商业化压力下的安全降级
值得注意的另一个信号是阿里巴巴将战略重心从开源AI转向模型变现。这不是孤例。当融资金额创下纪录,当变现压力持续增大,”安全”这个成本中心往往是最先被压缩的。
Anthropic在同一天发布了关于可信赖Agent的实践研究,至少还在认真思考这个问题。但行业整体的趋势是:安全研究正在被挤出主流叙事。
我们真正需要的是什么?
承认当前的责任框架不够用是诚实的,但由此跳到”所以请豁免我们”是危险的。
真正需要的是分层责任体系:
- 基础模型层——开发者对模型的已知风险负有披露义务
- 应用层——部署者对具体使用场景负有适配义务
- 终端层——用户对不当使用负有注意义务
每层都有自己的责任边界,但没有任何一层应该被完全豁免。这不是”扼杀创新”,这是”让创新可存活”。
AI行业正在经历一个关键拐点:技术能力指数级增长,但治理框架几乎是线性的。如果我们在这个窗口期选择用法律豁免来替代制度建设,那今天的1220亿美元融资,可能就是在为明天不可控的风险加杠杆。
技术发展可以加速,但责任的分配不能打折。这不是监管的问题,这是文明的问题。