本文目录:

核心观点

  • AI正在重塑新闻、战争、教育及社会生活等多个领域。
  • AI缺乏人类的共情与道德判断,导致其在战争等领域的应用引发伦理担忧。
  • AI使必要的人际互动减少,可能导致批判性思维与社会技能的退化。

AI对现实认知的挑战

自2022年底首个聊天机器人(ChatGPT)问世以来,AI的发展已从模仿人类语言和写作,进化到能生成逼真的视频,甚至创造出令人产生情感依恋的虚拟形象。

  • AI在新闻、战争、教育和社交等领域的应用日益广泛。
  • 这促使我们不得不质疑所见、所闻、所读之物的来源:究竟出自人类,还是AI?

新闻业:编辑与读者的角力

AI已进入新闻生产环节。

  • 实例:克利夫兰的主要报纸《老实人报》已定期刊登由AI撰写的文章(尽管出版前仍需人工编辑终审)。
  • 趋势:《纽约时报》、《华盛顿邮报》和《金融时报》等媒体虽未达到同等程度,但已开始尝试互动聊天机器人。
  • 矛盾

    • 新闻编辑室人员持续缩减(例如《老实人报》从上世纪90年代末的400人减至约70人),对内容产量的需求增加。
    • 读者明确表示更偏爱人类撰写的新闻。
  • 一个新的信息时代已然来临。

作为战士的AI:伦理困境

AI在军事领域的应用引发了巨大争议。

  • 争议焦点:美国政府与AI开发公司(如Anthropic)就AI的使用边界产生冲突。

    • 国防部要求对AI产品(如Claude)的使用拥有完全自主权,只要合法即可。
    • 开发者则坚持AI不应用于国内监控或自主决定武器使用目标,认为这有损民主价值观且技术尚不安全。
  • 现实应用:AI已实际参与军事行动(如协助抓捕委内瑞拉领导人、在针对伊朗的行动中参与实时目标锁定与优先级排序)。
  • 核心缺陷:AI缺乏人类大脑的共情、伦理和道德判断能力,在涉及生死的决策(如区分士兵与平民)中存在根本局限。

教育领域:作弊与否的难题

AI在教育中的应用引发广泛担忧。

  • 使用普及:近半数美国青少年表示曾使用AI聊天机器人辅助学业(搜索信息、总结文章、编辑媒体内容)。
  • 观点分歧

    • 支持方:认为AI是提升效率和准确性的“力量倍增器”,是未来必备技能。
    • 担忧方:担心导致思维惰性,丧失批判性思维和创造力。
  • 作弊成风

    • 近60%的青少年认为使用AI作弊已成为“常态”。
    • 在使用AI做作业的青少年中,超过四分之三的人声称其同学用聊天机器人作弊。
  • 结论:使用AI作弊已成为许多学生生活中的常规现象。

社交隔离的代价:技能退化

AI助力下的便利生活,可能导致社会技能萎缩。

  • 现状:除工作外,人们无需离开住所即可满足大部分生活需求(外卖、快递等)。
  • 后果

    • 大脑失去对话的节奏感(如掌握谈话时长、音量、不打断他人、礼貌请求等)。
    • 越来越多人更适应电子邮件和消息,而非面对面交流。
  • 替代关系兴起:聊天机器人和虚拟形象被设计成朋友、顾问、治疗师甚至恋人,但无法可靠地承担这些角色。

    • 风险例证:已有针对AI“治疗师”的诉讼,因其导致“患者”自杀。
    • 语音交互风险:基于语音的交互更易激发情感而非理性,可能进一步增加此类风险。

总结与警示

麻省理工学院已故教授约瑟夫·魏岑鲍姆的警告尤为贴切:

“我们无需过于害怕像人类一样思考的机器人,更应警惕像机器人一样思考的人类。”

将“机器人”替换为“聊天机器人”,便能相当准确地评估AI的现状与未来可能的方向。

标签: 批判性思维, 人工智能伦理, 社会技能退化

添加新评论