在战争中,让士兵远离伤害是有意义的事。想想古代的加农炮和来复枪,到现代的巡航导航和无人机。越往后,人类会越依赖电脑来作决策。这种趋势意味着未来会出现完全自主攻击的武器:一个机器人系统,它可以选择并攻击目标,甚至包括攻击人类,不需要人类的监督。
问题在于部署此类机器人真的符合伦理吗?最近美国的无人机项目遭曝光,我们已经开始对机器人武器有所担忧了。理论上看,越来越多的自主武器将变得更敏捷更精准。
不久前,我有机会与三位伦理哲学家讨论自动武器的道理问题,这些争论已经被我纪录下来。
先介绍一下三人的身份:
纽约大学助理教授和教员邓肯士·普尔夫斯(Duncan Purves),加州州立理工大学哲学助理教授雷恩·詹金斯(Ryan Jenkins),美国海军研究生院(Naval Postgraduate School)哲学助理教授、牛津大学武装冲突中心伦理和法律助理研究员布拉德利·J·斯拉斯威(Bradley J. Strawser)。
下面是具体讨论的问题:
问:什么是自主武器?
答:我们谈论的是自己能作决定的武器,尤其是指作出破坏或者可能存在破坏的决定。你可以想像一下,一件武器——比如无人机——看到人类然后说:“那是一个人”,然后它认定看到不只是一个人,而且还是一个士兵,而且士兵还是敌对行动中敌方的一部分,而且还是攻击目标。接着最令人担心的事情发生了,机器人决定使用武力攻击人类。
有一点很重要,那就是整个事情没有人在背后操纵,没有人将手指按在扳机上。一旦我们部署这样的武器,攻击谁、谁是敌人完全由它自己决定。
问:这点确实让人担心,我们离自主武器到底有多远呢?
答:要让机器达到这种程度,我们当然还面临许多挑战。我们都知道机器作决策的速度比人类快几万倍,我们也知道技术的发展是很快的。正因如此,各国军队才会纷纷提高自动化水平。
现在我们已经有几件武器可以执行自主攻击功能,例如,巡航导弹可以选择自己的路线和攻击目标,它还可以根据侦测的目标自主决定爆炸力。
提高武器的自主能力有很多好处:它可以更好地处理信息,加快战斗节奏,更重要的是保护士兵免受伤害。
有许多团队反对自主武器,最著名的可能是“停止杀手机器人运动”组织,它主要由哲学家、律师、士兵组成。
问:反对杀手机器人,人们的主要论点是什么?
答:一些人认为不论我们的技术多么进步,机器永远无法履行士兵的义务,它们永远无法权衡和领会下决心夺走一条生命意味着什么。这是反对自主武器的一个重要观点:机器人不能权衡和感知自己所作决定带来的破坏力。如果它们不能做到这点,就不应该采用。
1 2 下一页>