AI时代:真实性的消解与信念操纵的威胁
核心观点
- 从电视到人工智能,新技术使伪造真相变得更容易。
- AI的广泛应用可能导致错误信息和虚假信念的大规模传播。
- 利用AI宣传操纵人类信念与行为已开始普及,对民主社会构成威胁。
技术演进与“真实性”的消解
历史脉络:
- 早在20世纪60年代,历史学家丹尼尔·布尔斯廷就提出,在美国社会,“形象”(一种比现实更戏剧化、更具吸引力的复制品)已优先于现实。
- 这种对“形象”的偏好,通过新兴媒体得到强化,使人们逐渐难以分辨现实,且对此漠不关心。
当代挑战:
- 如今,人工智能(AI)的兴起标志着新一轮技术革命,它放大了人类倾向于拥抱虚假信念(“真实性”)的普遍心理倾向。
关键警示:
- 汉娜·阿伦特指出,当谎言无处不在时,后果是人们不再相信任何事物,从而丧失思考、判断和行动的能力,极易被操控。
AI生成错误信息的无处不在
- 现状:我们被错误信息和故意散布的虚假信息所淹没,难以辨别真伪。
表现形式:
- 相对无害的层面:例如社交媒体上关于体育明星的虚假引述或伪造的动物打斗视频。人们(包括儿童)逐渐学会不轻信网络内容。
- 危害严重的层面:AI正被更广泛、更有害地滥用。
学术领域的渗透与风险:
- AI幻觉:在顶尖AI学术会议审核通过的论文中,已发现大量伪造的引用(幻觉引用)。
- 滥用普遍:超过半数学者承认在同行评审中使用AI,这可能导致评审过程中产生事实错误。
- 双重标准:尽管禁止学生使用AI完成作业,但教授们已普遍使用AI辅助教学。
- 核心危机:如果连学术界都无法坚守真实与真理的阵地,社会将失去重要的求真灯塔。
迫在眉睫的AI宣传威胁
- 性质:AI生成的政治宣传已被用于大规模操纵公众舆论和行为,其威胁已从假设变为现实。
具体案例:
- 技术手段:利用聊天机器人制造“深度伪造”视频,让真人看似说了或做了从未发生过的事。
- 国际干预:俄罗斯利用AI散布关于乌克兰战争的虚假信息;中国利用AI影响台湾地区2024年选举。
- 国内政治:美国政治活动中已出现多起使用AI生成或修改图像(如伪造被捕者哭泣的照片)以影响舆论的案例。
- 研究警告:专家指出,恶意AI集群可以低成本、大规模地生成比人类所写更像人写的虚假内容,从而威胁民主制度。
- 最终后果:AI可能被用于制造一场“不真实的盛会”,旨在分散注意力、制造愤怒、 sway 投票并换取人们的麻木不仁,最终实现阿伦特所警告的——使民众失去自由思考与行动的能力。