美国发布军用伦理原则,打开了AI军事化的闸门
时间:2019-11-03 22:23:39 热度:37.1℃ 作者:网络
▲《终结者:黑暗命运》剧照。
11月1日,美国国防部下属的国防创新委员会推出了最终版的《人工智能伦理道德标准》。其实该标准酝酿已有数年。2018年7月,该委员会提出了标准的草案版本,并通过听证会接受了上百位业内人士的意见。此次最终版本在委员会投票中得到一致支持。
国防创新委员会是美国国防部2016年成立的新机构,主要目的是组织美国科技界领军人物对美国国防科技的重大战略决策提供咨询意见。由于委员会成员几乎都是美国业内大咖,其所发布的文件虽然没有强制约束力,但也在美国社会产生广泛影响。
伦理原则为人工智能军事化上“保险丝”
近年来,美国军方显著加快了人工智能应用的速度,试图借助这一新颠覆性技术,彻底改变美军的作战模式。早在2019年2月,国防部发布首份美军人工智能战略文件,要求利用人工智能促进美国安全与繁荣,将人工智能赋能引入到具体军事任务中。
美军快速引入人工智能技术,也在美国内外引起了广泛担忧。一些观察人士开始担心美军的步子迈得太快,可能产生新的安全风险。而此次国防创新委员会的伦理道德标准,就是着眼于解决这些潜在风险,明确美军利用和研发人工智能的限制。
国防创新委员会提出了五项核心标准:即负责、公平、可追踪、可靠、可控。其中,公平和可控两条标准的争议性较大。
委员会所提出的公平是指,美军在开发和部署人工智能化的装备时要避免出现意料之外的偏差,而这些偏差会在无意中对人员造成伤害。实现这条标准有很高难度。因为人工智能技术的特性,导致其在应用过程中可能“自我学习”,其中一些“自我保护”行为可能导致违背设计者的初衷。这条标准意味着美军所应用的人工智能设备,有可能采取“意外发生”的一票否决制。
可控的理念,则试图给人工智能技术加上“保险丝”。委员会建议美军在人工智能系统和装备中设有“自动或手动”停机开关,一旦该设备运转偏离使用者和设计者初衷,作战和指挥人员就能立即关闭系统。
这种理念意味着人工智能不能完全替代美军作战人员进行判断,作战人员需要实时监控人工智能装备的运行,甚至采用遥控方式做出关键性决定。在这种前提下,美军也很难将强人工智能运用于军事实践。
伦理标准解除美国AI军事化最大禁忌
委员会所提出的伦理道德标准看似严苛,但解除了美军应用人工智能的最大禁忌。
五条伦理标准中既没有包括禁止美军将人工智能技术应用于致命性武器,也没有限制人工智能化武器的攻击目标。这意味着美国已经彻底放弃了“人工智能非军事化”理想目标,将其全面引入作战领域。这也给美军未来应用人工智能提供了有利的说辞和合法性依据,让美国社会接纳一个人工智能化的美军。
基于委员会的此份报告,美国很有可能成为全世界首个推出人工智能军事化伦理标准的国家。
从全球范围看,伦理标准是人工智能治理的先导性规则。从道德和伦理上探讨人工智能,表明该技术的发展和使用可能对人类社会带来重大的影响,可能改变人类社会的基本形态。人类社会当前所依赖的道德和伦理标准,对人工智能研发者和使用者尚没有足够限制,需要基于该技术发展变化提出新的伦理标准。
伦理标准也是国际社会在人工智能治理领域最广泛谈论的内容。谷歌等美国科技巨头、各国政府、科技界的非政府组织都提出了自己的人工智能伦理。各方在这一问题上的博弈与合作刚刚开始。
美国则在这场人工智能的国际规则之争中开辟了新的战场,即人工智能军事化领域。美国所提出的标准与联合国致命自主武器系统所倡导的原则有一定差异,也不同于欧盟、中国等反对“人工智能军事化”的基本立场。
下一阶段,美国将会试图将自己的伦理标准演变为该领域国际规则的根本性原则,获取人工智能军事化的“最终解释权”。
□李峥(中国现代国际关系研究院美国所)
编辑:李冰冰 校对:郭利