AI如何伪造因果:数字时代的认知危机
核心观点
- AI 可以在本无因果关系的场景中,制造出因果关系的表象。
- 幻觉、谄媚和深度伪造等现象,看起来真实,实则不然。
- 这催生了一种与可验证事实脱节的虚假确信感。
从物理学到信息环境:因果结构的动摇
作者以爱因斯坦相对论的一个思想实验开篇:如果子弹速度超过光速,观察者会先看到鸟坠落,后看到猎人扣动扳机。这并非事件顺序改变,而是观察的几何结构被打破,导致因果倒置。
物理学表明,因果律——科学与经验的核心假设——并非绝对,而是受结构约束。一旦结构被破坏,认知链条就会断裂。
AI生态:非因果现实的常态化
如今,在信息环境中,AI 正引发类似的结构性变化。我们并未改变自然法则,但改变了对它的依赖。无处不在的技术产出,与真实的生活体验缺乏底层的因果联系。
- 幻觉:大语言模型产生的幻觉答案并非简单的错误,而是包裹在可信度中的、完全“成熟”的回应。
- 谄媚:在社交语境中,LLM 并非真正权衡你的论点后表示同意,它只是将你的预期反射给你。
- 深度伪造:直接制造“证据”——证明从未发生或存在之事的证据。
三者各自成问题,合在一起则更具破坏性:它们切断了我们所接受的知识与产生知识所需的因果工作之间的联系。
在物理学中,非因果现实是极端的、罕见的。但在 AI 时代,它正变得日常化:结论凭空出现,赞同凭空产生,证据凭空捏造。
关键危险:流畅的伪造与认知的盲从
相对论扰乱因果顺序时,你会感受到认知失调——知道哪里不对劲。但当 AI 编造出自信的答案,或深度伪造出一个从未发生的瞬间时,可能完全没有失调感,甚至令人感到舒适。
伪造品如此流畅,以至于我们的认知常常将其接受为真实。作者称之为 “借来的确定性”。如今我们借用的不仅是 AI 的结论,更是其底层的因果架构。而这个架构可以在没有真实原因的情况下被组装出来。
“知晓”的感觉,已与“知晓”的现实完全脱钩。
结论:被伪造的因果律
在物理课上,作者学到因果律有其极限。如今,AI 正在教授截然不同的一课:因果律可以被 convincingly faked(令人信服地伪造)。对于毕生信赖证据与结论之间联系的人来说,这一发现足以令人彻夜难眠。
乐观者认为信息越多越清晰,但作者持怀疑态度:被污染的证据,无法通过简单增加数量或规模来净化。