机器人之所以能大量使用甚至主宰战场,主要是因为机器人有不少“与生俱来”的优点。
机器人能在剧毒或可能发生爆炸的特殊环境中工作。使用机器人和自动化设备是在核、生、化污染条件下安全、及时、有效地完成各项任务的选择。机器人能执行危险性极大的任务。机器人武器系统比有人系统具有更强的耐力,经过长时间作业也不会降低效能。由于能完成那些对人来说无法涉足的最危险、最艰苦的战斗任务,机器人越来越受青睐。世界各军事大国竞相发展军用机器人,并将其作为作战力量的一部分编入军中,“钢领军团”正在不断壮大。
随着技术的不断成熟完善,尤其是人工智能技术的发展,“钢领军团”执行各种作战任务的能力将不断提高。21世纪中叶,自控装置将取代绝大多数遥控系统和有人系统而在战场上大显身手。但是,值得人类忧虑的是,机器人会失控吗?人类的生存是否会受到它们的威胁?
同所有机械一样,作战机器人也会出现故障和错误的操作。虽然花大力气进行测试和严把质量关可以减少软件出问题的次数,但要彻底根除程序故障是永远做不到的。因此,人们所能争取到的最好的解决办法就是把失灵机器人所造成的麻烦控制到最低限度。如果把核弹头“托付”给机器人巡航导弹,它们一旦失灵,后果将是灾难性的。而且,随着人工智能的发展,机器人将会变得越来越聪明,也许会变得无法控制,甚至会出现它的电脑“发疯”或变成“叛军”的后果。
机器人的反对者们争辩说,机器人武器不能适应战场上众多的突如其来的变化。人的思想意识又怎能植入到机器人的每一个程序之中?一个无法分清敌人是想进攻还是想投降的机器人还有什么道德可言?一个失灵的机器人武器会不会变得疯疯癫癫、走火,因而造成冲突没完没了地升级?难道计算机程序的设计人员真的能够预计到战场上可能发生的各种变化,并将应付这类变化的对策编入到计算机的程序之中吗?即使是最优秀的机器人设计人员,也会犯一些错误;即使是最好的软件系统也不可能‘将事情考虑得面面俱到’。人类的决策与机器人决策的差别在于:一旦人类决策者发狂,也许还有时间制止他们或者将其不良后果控制在最小范围之内。但是,如果我们赋予机器人以超人的智慧,使机器人武器拥有迅捷选择、相互学习与联络的能力,那其后果就大不相同了。