一边融资1220亿美元,一边要求法律豁免

2026年4月的AI圈,出现了两个极具张力的叙事。

一面是OpenAI完成1220亿美元融资,创下AI领域最大规模融资纪录,资本用真金白银投票,押注AI将重塑一切。另一面,同一家OpenAI公开支持一项法案——该法案将限制AI公司在模型造成大规模伤亡时的法律责任。

这两件事放在一起,构成了一种令人不安的对称:行业正在以史无前例的速度累积能力,同时也在以史无前例的速度试图卸载责任。

法案的实质:不是技术创新,是风险转移

据Wired报道,OpenAI支持的这项法案核心逻辑并不复杂:当AI模型在部署后造成伤害,尤其是大规模伤害时,公司不应承担全额法律责任。

这个主张的表层理由很耳熟——”过度监管会扼杀创新”。但仔细想想,这跟任何行业说”请别让我们为产品安全负责”并无本质区别。想象一下,如果制药公司要求豁免药物副作用的赔偿责任,如果自动驾驶公司要求豁免事故的法律后果——社会能接受吗?

AI的特殊之处在于,我们确实面临一个认知困境:当模型的输出是概率性的、涌现的,甚至开发者自己也无法完全预测时,传统的”产品责任”框架确实不够用。但这恰恰意味着我们需要更审慎的监管设计,而不是更粗暴的豁免。

Karpathy的洞察:能力差距正在撕裂共识

几乎在同一时间,Andrej Karpathy提出了一个看似无关却深刻相关的观察:AI的能力因接入方式不同而呈现出巨大鸿沟。

OpenAI免费语音模式底层跑的其实是旧版模型(Simon Willison证实了这一点),而最高端的Codex模型却能独立重构整个代码库。这意味着,普通用户感知到的AI能力和前沿能力之间的差距正在迅速扩大。

这和责任豁免问题有什么关系?关系重大。

当用户使用的是一个”看起来很聪明但实际能力参差不齐”的系统时,他们对风险的判断会失真。用户可能基于营销宣传认为AI是可靠的,但实际上他们使用的只是阉割版。在这种信息不对称下,如果再叠加法律豁免,风险就完全转嫁给了终端用户。

阿里转向变现:商业化压力下的安全降级

值得注意的另一个信号是阿里巴巴将战略重心从开源AI转向模型变现。这不是孤例。当融资金额创下纪录,当变现压力持续增大,”安全”这个成本中心往往是最先被压缩的。

Anthropic在同一天发布了关于可信赖Agent的实践研究,至少还在认真思考这个问题。但行业整体的趋势是:安全研究正在被挤出主流叙事。

我们真正需要的是什么?

承认当前的责任框架不够用是诚实的,但由此跳到”所以请豁免我们”是危险的。

真正需要的是分层责任体系:

  1. 基础模型层——开发者对模型的已知风险负有披露义务
  2. 应用层——部署者对具体使用场景负有适配义务
  3. 终端层——用户对不当使用负有注意义务

每层都有自己的责任边界,但没有任何一层应该被完全豁免。这不是”扼杀创新”,这是”让创新可存活”。

AI行业正在经历一个关键拐点:技术能力指数级增长,但治理框架几乎是线性的。如果我们在这个窗口期选择用法律豁免来替代制度建设,那今天的1220亿美元融资,可能就是在为明天不可控的风险加杠杆。

技术发展可以加速,但责任的分配不能打折。这不是监管的问题,这是文明的问题。

一块GPU训练千亿参数:MegaTrain正在拆掉AI研究的门槛

当训练不再需要一座数据中心今天看到一篇让我停下来的论文:MegaTrain。标题直白得像在挑衅——在单个GPU上全精度训练1000亿参数的大语言模型。放在两年前,这是天方夜谭。当时GPT-3的训练烧掉了数千张A100数周时间,算力成本动辄数百万美元。而今天,Meta宣布Ll...… Continue reading