《自然》网站在近日的报道中指出,由人工智能(AI)加持的致命自主武器已经到来,AI可能会帮助它们攻击特定目标。研究人员、法律专家和伦理学家正努力解决如何在战场上使用这些武器的问题。
AI增强武器性能
自主武器至少已经存在了几十年,如热追踪导弹,但AI算法的开发和使用正在扩展其能力。
研究人员指出,AI拥有卓越的处理和决策技能,理论上具有显著优势。在快速图像识别的年度测试中,近十年来算法的表现一直优于人类专家。例如,去年一项研究表明,AI能比人类专家更快发现论文中重复出现的图像。此外,在2020年,一个AI模型在一系列模拟混战中击败了一名经验丰富的F-16战斗机飞行员,这要归功于“该AI模型具有人类飞行员无法匹敌的精确操作”。
这预示着,包括AI无人机在内的致命自主武器正进入研发快车道。
美国国防部已为“复制者”计划拨款10亿美元。2023年8月28日,美国国防部副部长凯瑟琳·希克斯宣布了“复制者”计划,其目标是在未来18—24个月内生产、交付和部署数千个无人作战系统。使用AI实现自动驾驶和射击的实验性潜艇、坦克和舰艇已经问世,商用无人机也可以使用AI图像识别功能瞄准目标并将其炸毁。
美国战略与国际研究中心安全分析师扎克·卡伦伯恩指出,AI武器很容易锁定红外或强大的雷达信号,并将其与数据库进行比较以辅助决策。这意味着,当AI武器在战场上检测到来袭雷达信号的来源时,可在几乎不伤害平民的情况下进行射击。AI无人机也可就飞离对手的距离和攻击角度作出非常复杂的决定。
用于战场引争议
AI增加了致命自主武器的速度和规避防御的能力。一些观察人士担心,未来任何集团都可派遣大批廉价的AI无人机前往战场,使用面部识别技术消灭目标对象。
理论上,AI还能用于战争的其他方面,如编制潜在目标清单。有媒体报道称,以色列使用AI创建了一个包含数万名疑似武装分子姓名的数据库。不过,以色列军方对此进行了否认。
2017年,美国加州大学伯克利分校计算机科学家、著名反AI武器活动家斯图尔特·拉塞尔帮助制作了名为“杀戮机器人”的视频,突出了将AI用于战争可能带来的风险。视频展示了在不久的将来,配备面部识别系统的微型无人机装配炸药,成为恐怖的“AI杀手”。它们能锁定并杀死目标或攻击特定人群,如穿着制服的人。
AI在战场上出现,引发了研究人员、法律专家和伦理学家的争论。
一些人认为,AI辅助武器可能比人类引导的武器更精确,能减少死亡和致残士兵人数,减轻附带伤害,如平民伤亡和对居民区的破坏,同时帮助弱势国家和群体自卫。另一些人则强调,这些AI加持的自主武器可能会犯下灾难性错误。
而卡伦伯恩认为,主要问题不在于技术本身,而在于人类如何使用这项技术。
亟待制订相关规则
多年来,研究人员一直在努力控制这种AI增强武器可能带来的威胁,联合国已经迈出了至关重要的一步。
去年12月,联合国一项决议将致命自主武器列入今年9月联合国大会议程。联合国秘书长安东尼奥·古特雷斯去年7月表示,他希望2026年前禁止可在没有人类监督情况下使用的武器。
专家认为,此举为各国对AI武器采取行动提供了一条现实途径。但说起来容易做起来难,部分原因在于各国对法律的实际内容缺乏共识。2022年的一项分析发现,“自主武器”至少有十几个定义。
拉塞尔说,这些定义范围很广,并没有达成共识。例如英国认为,致命自主武器“能够理解更高层次的意图和方向”;德国则将“自我意识”视为自主武器的必要属性,而大多数研究人员认为现在的AI远未获得这种能力。
卡伦伯恩表示,任何关于致命自主武器的禁令都很难通过检查和观察来执行,因为AI很容易隐藏或更改系统状态。
所有这些问题都将在今年9月的联合国大会上进行讨论。(记者 刘霞)
扫一扫在手机上查看当前页面