AI重塑现实:伦理、技能与认知的挑战
核心观点
- AI正在重塑新闻、战争、教育及社会生活等多个领域。
- AI缺乏人类的共情与道德判断,导致其在战争等领域的应用引发伦理担忧。
- AI使必要的人际互动减少,可能导致批判性思维与社会技能的退化。
AI对现实认知的挑战
自2022年底首个聊天机器人(ChatGPT)问世以来,AI的发展已从模仿人类语言和写作,进化到能生成逼真的视频,甚至创造出令人产生情感依恋的虚拟形象。
- AI在新闻、战争、教育和社交等领域的应用日益广泛。
- 这促使我们不得不质疑所见、所闻、所读之物的来源:究竟出自人类,还是AI?
新闻业:编辑与读者的角力
AI已进入新闻生产环节。
- 实例:克利夫兰的主要报纸《老实人报》已定期刊登由AI撰写的文章(尽管出版前仍需人工编辑终审)。
- 趋势:《纽约时报》、《华盛顿邮报》和《金融时报》等媒体虽未达到同等程度,但已开始尝试互动聊天机器人。
矛盾:
- 新闻编辑室人员持续缩减(例如《老实人报》从上世纪90年代末的400人减至约70人),对内容产量的需求增加。
- 读者明确表示更偏爱人类撰写的新闻。
- 一个新的信息时代已然来临。
作为战士的AI:伦理困境
AI在军事领域的应用引发了巨大争议。
争议焦点:美国政府与AI开发公司(如Anthropic)就AI的使用边界产生冲突。
- 国防部要求对AI产品(如Claude)的使用拥有完全自主权,只要合法即可。
- 开发者则坚持AI不应用于国内监控或自主决定武器使用目标,认为这有损民主价值观且技术尚不安全。
- 现实应用:AI已实际参与军事行动(如协助抓捕委内瑞拉领导人、在针对伊朗的行动中参与实时目标锁定与优先级排序)。
- 核心缺陷:AI缺乏人类大脑的共情、伦理和道德判断能力,在涉及生死的决策(如区分士兵与平民)中存在根本局限。
教育领域:作弊与否的难题
AI在教育中的应用引发广泛担忧。
- 使用普及:近半数美国青少年表示曾使用AI聊天机器人辅助学业(搜索信息、总结文章、编辑媒体内容)。
观点分歧:
- 支持方:认为AI是提升效率和准确性的“力量倍增器”,是未来必备技能。
- 担忧方:担心导致思维惰性,丧失批判性思维和创造力。
作弊成风:
- 近60%的青少年认为使用AI作弊已成为“常态”。
- 在使用AI做作业的青少年中,超过四分之三的人声称其同学用聊天机器人作弊。
- 结论:使用AI作弊已成为许多学生生活中的常规现象。
社交隔离的代价:技能退化
AI助力下的便利生活,可能导致社会技能萎缩。
- 现状:除工作外,人们无需离开住所即可满足大部分生活需求(外卖、快递等)。
后果:
- 大脑失去对话的节奏感(如掌握谈话时长、音量、不打断他人、礼貌请求等)。
- 越来越多人更适应电子邮件和消息,而非面对面交流。
替代关系兴起:聊天机器人和虚拟形象被设计成朋友、顾问、治疗师甚至恋人,但无法可靠地承担这些角色。
- 风险例证:已有针对AI“治疗师”的诉讼,因其导致“患者”自杀。
- 语音交互风险:基于语音的交互更易激发情感而非理性,可能进一步增加此类风险。
总结与警示
麻省理工学院已故教授约瑟夫·魏岑鲍姆的警告尤为贴切:
“我们无需过于害怕像人类一样思考的机器人,更应警惕像机器人一样思考的人类。”
将“机器人”替换为“聊天机器人”,便能相当准确地评估AI的现状与未来可能的方向。