本文目录:

核心观点

  • 从电视到人工智能,新技术使伪造真相变得更容易。
  • AI的广泛应用可能导致错误信息和虚假信念的大规模传播。
  • 利用AI宣传操纵人类信念与行为已开始普及,对民主社会构成威胁。

技术演进与“真实性”的消解

  • 历史脉络

    • 早在20世纪60年代,历史学家丹尼尔·布尔斯廷就提出,在美国社会,“形象”(一种比现实更戏剧化、更具吸引力的复制品)已优先于现实。
    • 这种对“形象”的偏好,通过新兴媒体得到强化,使人们逐渐难以分辨现实,且对此漠不关心。
  • 当代挑战

    • 如今,人工智能(AI)的兴起标志着新一轮技术革命,它放大了人类倾向于拥抱虚假信念(“真实性”)的普遍心理倾向。
  • 关键警示

    • 汉娜·阿伦特指出,当谎言无处不在时,后果是人们不再相信任何事物,从而丧失思考、判断和行动的能力,极易被操控。

AI生成错误信息的无处不在

  • 现状:我们被错误信息和故意散布的虚假信息所淹没,难以辨别真伪。
  • 表现形式

    • 相对无害的层面:例如社交媒体上关于体育明星的虚假引述或伪造的动物打斗视频。人们(包括儿童)逐渐学会不轻信网络内容。
    • 危害严重的层面:AI正被更广泛、更有害地滥用。
  • 学术领域的渗透与风险

    • AI幻觉:在顶尖AI学术会议审核通过的论文中,已发现大量伪造的引用(幻觉引用)。
    • 滥用普遍:超过半数学者承认在同行评审中使用AI,这可能导致评审过程中产生事实错误。
    • 双重标准:尽管禁止学生使用AI完成作业,但教授们已普遍使用AI辅助教学。
    • 核心危机:如果连学术界都无法坚守真实与真理的阵地,社会将失去重要的求真灯塔。

迫在眉睫的AI宣传威胁

  • 性质:AI生成的政治宣传已被用于大规模操纵公众舆论和行为,其威胁已从假设变为现实。
  • 具体案例

    • 技术手段:利用聊天机器人制造“深度伪造”视频,让真人看似说了或做了从未发生过的事。
    • 国际干预:俄罗斯利用AI散布关于乌克兰战争的虚假信息;中国利用AI影响台湾地区2024年选举。
    • 国内政治:美国政治活动中已出现多起使用AI生成或修改图像(如伪造被捕者哭泣的照片)以影响舆论的案例。
  • 研究警告:专家指出,恶意AI集群可以低成本、大规模地生成比人类所写更像人写的虚假内容,从而威胁民主制度。
  • 最终后果:AI可能被用于制造一场“不真实的盛会”,旨在分散注意力、制造愤怒、 sway 投票并换取人们的麻木不仁,最终实现阿伦特所警告的——使民众失去自由思考与行动的能力。

标签: 人工智能, 错误信息, 民主威胁

添加新评论