上周三凌晨3:45,有人向Sam Altman的家投掷了一枚燃烧瓶。万幸的是燃烧瓶弹开了,无人受伤。

Altman在博客中写道,他低估了”文字和叙事的力量”——几天前一篇煽动性文章,他最初不以为意,现在却在凌晨三点被迫重新审视。

这件事不仅关乎一个人的人身安全,更揭示了一个被长期低估的危险:AI叙事正在催生一种新的暴力形态。

叙事武器化:从键盘到燃烧瓶

传统的科技争议停留在舆论场。你不喜欢某家公司的产品策略,你在社交媒体上抱怨,最多卸载应用。但AI引发的叙事不同。AI在公众认知中已经成为一种近乎”末日级”的威胁——它会抢走工作、会毁灭人类、会被独裁者用来控制世界。

当这种恐惧被渲染到极致,”消灭AI”就不再是一个比喻。它变成了某种行动号召。而站在AI浪潮最前面的人,自然成了被瞄准的靶子。

这不是一个关于言论自由的抽象辩论。当一篇”充满敌意的文章”和凌晨三点的燃烧瓶之间建立起因果关系时,我们需要严肃思考:在AI话题上,煽动性叙事的后果是否已经越过了言论的边界?

Altman自己承认了这一点:”我低估了文字和叙事的力量。”一个推动了人类历史上最强大技术的人,却在最原始的暴力面前措手不及。这本身就是一种讽刺。

AI安全不只是模型对齐

与此同时,英国AI安全研究所(AISI)发布了GPT-5.5的网络安全能力评估报告。结论令人警醒:GPT-5.5在95项高级网络攻防任务中的表现与Claude Mythos相当,专家级任务通过率达71.4%。

AISI特意强调了一个事实:Claude Mythos尚未公开发布,而GPT-5.5已经面向数亿用户。

这组信息放在一起读,构成了一个令人不安的图景。一方面,AI系统的攻防能力在快速接近甚至超越人类专家水平;另一方面,围绕AI的叙事正在激发现实世界的物理暴力。

我们正在同时面对两种”安全”:模型的安全和人的安全。 而后者的讨论严重不足。

民主化的另一面

Altman在博客中重申了他对AI民主化的信念:”权力的控制不能过度集中,未来的控制权属于所有人。”这是一个崇高但充满张力的目标。

AI民主化意味着更广泛地接触这项技术。但同时也意味着更广泛地接触围绕AI的恐惧、愤怒和焦虑。当每个人都能感知到AI带来的威胁时,叙事的扩散速度远超技术的普及速度。

一个有趣的对比:OpenAI本周同时推出了高级账户安全保护产品(强制使用Passkey、物理安全密钥、禁用密码登录),并开源了Codex编排规范Symphony。前者是针对物理威胁的防御,后者是赋能开发者的进攻。安全和能力,永远在赛跑。

我们需要什么样的叙事

过去一年,AI安全的讨论几乎完全集中在”模型会不会做坏事”——对齐问题、幻觉问题、自主行动问题。但Altman的遭遇提醒我们,人类对AI的反应本身可能才是最紧迫的安全问题。

当叙事将AI描述为”潘多拉魔盒”、”人类终结者”、”失控的怪物”时,我们不是在讨论风险,而是在制造恐慌。恐慌不会催生好政策,只会催生极端行为。

这不意味着我们应该粉饰风险。AI确实会带来结构性失业、隐私侵蚀和权力集中。但这些问题的解决需要冷静的分析和制度设计,而不是燃烧瓶。

Sam Altman在凌晨三点写下那篇博客时,他不是一个CEO在公关,而是一个父亲在恐惧。他分享家庭照片,是为了让下一个投掷燃烧瓶的人停下来想一想。

文字确实有力量。问题是,这种力量指向哪里。

在AI的叙事战场上,我们每个人都是参与者。每一次转发、每一句评论、每一篇文章,都在塑造公共对AI的认知。选择煽动还是理性,恐惧还是建设,这本身就是我们这个时代最重要的技术决定之一。

当Zig拒绝AI,当AI拒绝人类:代码的灵魈权之争

一周之内,两条截然相反的路本周开源世界发生了两件看似无关、实则指向同一个核心问题的事。第一件:OpenAI发布了Symphony——一个开源的智能体编排规范,将Linear等项目管理工具变成AI编程智能体的控制面。每个开放任务自动分配一个Agent持续运行,直到完成。Ope...… Continue reading