伦理与效能的交锋:AI军事化应用中的心理学困境
核心观点
- AI公司Anthropic因伦理立场与五角大楼产生冲突,拒绝其AI模型被用于大规模监控和完全自主的致命武器。
- 五角大楼主张军事AI的使用应仅受美国法律约束,而非私营公司的伦理准则。
- 当前,美国军方倾向于对AI进行“不受限制的合法使用”,但相关的具体法律或防护措施非常匮乏。
- 对人类决策的研究表明,AI的训练目标不应仅仅是追求最高奖励(如更多“击杀”),更应包含主动避免灾难性后果,并具备类人的伦理责任感。
冲突焦点:大规模监控
Anthropic认为,AI驱动的大规模监控对基本自由构成严重风险,因此拒绝其模型用于美国国内的大规模监控。
- 技术能力:AI模型能够结合面部识别和用户画像算法,处理海量的公共视频与数据,具备大规模监控公民的技术手段。
- 双重性:监控摄像头和数据库在预防犯罪、社会治理方面有积极作用,但也存在侵犯隐私、身份盗用、实施审查等巨大滥用风险。
- 立场分歧:当社会正就政府监控与隐私问题进行辩论时,Anthropic与军方的根本分歧在于——军事AI的边界应由法律界定,还是也应受企业自设的伦理护栏限制。
冲突焦点:完全自主武器
Anthropic希望限制其AI模型用于可完全自主做出致命决策的军事无人机,坚持人类必须留在最终的决策链中。
- 决策复杂性:心理学研究(如风险敏感性理论)揭示了人类在压力下做出生死决策的复杂认知过程。AI能否平衡所有变量,做出符合伦理的生死裁决,仍是核心疑问。
- 训练目标:研究指出,AI应被训练得具备类人的伦理责任,不仅要追求目标,更要管理不确定性并避免灾难性错误。
- “扣动扳机”的归属:公司主张,只有人类——而非AI——才应具备做出致命决策的伦理能力。
现状与未来困境
- 法律真空:美国国会尚未制定法律或明确规则,来指导AI公司或五角大楼关于军事AI的伦理使用界限。
- 全球竞赛:在AI军事化的全球竞赛中,竞争对手可能不受伦理准则约束。这迫使美国面临战略困境:是否要单方面限制AI在致命军事行动中的使用,而对手却在全力发展?
- 技术已出瓶:自主致命军事无人机已在全球战场被开发和部署。AI或许能区分敌友目标,但是否应该由AI来决定“扣动扳机”,是一个社会必须回答的问题。
- 战争的迷雾:在战争的混乱中,错误不可避免。我们是否准备好让搭载AI的机器人和无人机去决定敌友、决定生死?
最终,心理学可以研究人类如何做关键决策,但作为一个社会,我们必须决定如何训练和管理AI的决策——从它如何筛选我们的个人数据,到是否允许它装备在自主致命的无人机和机器人上,做出生死抉择。