人工智能(AI)技术是否应该用于战争?机器人可否被授权杀人?这是国外科技学术界反复争议的热门话题。美国《华尔街日报》29日的一篇报道提出与科学家们完全相反的看法,再一次引起人们对军用人工智能技术乃至智能化战争的关注和担忧。
杀戮还是仁慈?
关于人工智能用于军事目的乃至于投放战场,一向是许多国外科技专家极力反对的决定。科学家们警告说,智能化机器人很容易受到黑客的攻击,它们可能被劫持,进而攻击无辜的人群。
去年,116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动禁止“自主杀人机器”,称其为“恐怖武器”。今年4月,3000多名谷歌员工向谷歌首席执行官桑德尔·皮查伊联名上书,反对该公司参与五角大楼的军用人工智能Project Maven项目。该项目利用机器人深度学习和人工智能分析、应用计算机视觉技术,帮助美国防部从图像和视频中提取识别重点对象目标。谷歌高层被迫作出决定,Project Maven合同将于2019年到期,此后不再与五角大楼续签。
包括美国太空探索技术公司首席执行官马斯克在内的2400名机器人研究人员和工程师近日还在斯德哥尔摩宣誓称,“绝不参与致命性自主武器系统的开发、研制工作。”
但与这些反对智能化武器观点不同的是,美国《华尔街日报》29日提出完全相反的意见。该报道认为,从地毯式轰炸、大威力核弹到精确制导武器,人类距离精确化杀伤越来越近。“智能化武器只会减少战争中的误伤和附带毁伤,不会带来更大的伤亡数字”。
报道特别强调,尽管近年来美军无人机也多次发生误伤平民的事件,但这并非是智能化武器的错,而是情报识别出了问题。而五角大楼组建算法作战跨功能团队,发展Project Maven项目,正是为了更精确地识别、杀伤恐怖分子等敌人,防止误伤无辜的平民,因此谷歌公司“如果真是为了和平,更加应该准备战争”。
军用AI能干什么?
人工智能技术对于军事乃至战争而言,远不只是杀人机器人这么简单。最初级的AI技术在众多防空、反导预警体系中早已开始应用,许多防空和导弹防御系统的操作人员与系统通过协作并识别和确认敌方目标后,发射拦截导弹,随后由系统自主探测并截获目标。
近年来依托
大数据发展的AI技术,让各种武装机器人和无人机成为智能化武器的雏形,这也是科学家们最为反对的目标。美国陆海空军和海军陆战队都开发了多款智能化武器平台,美军X-47B无人机曾在多艘航母上成功自主起降。美国陆军、海军陆战队还分别为M1A2主战坦克和“阿帕奇”武装直升机研发僚车、僚机,试图开发出以“有人驾驭无人”的作战新模式。
而在更高层级的战争指挥和作战规划方面,人工智能也在不断取得突破。例如以前规划一次20分钟的大型空中作战需要40人到50人耗时12小时,而在AI的协助下,该规划有望在1小时内完成。据报道,俄军正在
应用AI和大数据技术,模拟用软件代替士兵做出作战决策,以应对迅雷不及掩耳的军事打击。
智能化军备竞赛已开始
2008年,美海军研究办公室就发表报告承认,运用于战争的自主机器人无法承担法律责任。“目前机器人无法分辨平民和士兵,无法为自己的行为负责。在未来的无人化战争中,作战主体远离战场,无人化武器将以一种‘非人性化’的方式杀人,既不懂承担战争危险的伦理性,也没有对战争苦难的情感体验”。类似电影《终结者》中的人类末日场景更是诸多科学家担心的终极噩梦,然而截至目前,国际上对军用智能化技术没有任何具体规定,国际社会也未明确支持一个限制或禁止此类武器系统的条约。
值得注意的是,美军推出的“第三次抵消战略”认为,以智能化军队、自主化装备和无人化战争为标志的军事变革风暴正在来临,美军计划2035年前初步建成智能化作战体系,对主要对手形成新的军事“代差”,到2050年前美军的作战平台、信息系统、指挥控制全面实现智能化甚至无人化,实现真正的“机器人战争”。美国国防部去年8月表示,未来AI战争不可避免,美国需要“立即采取行动”加速AI战争科技的开发工作。俄罗斯也在开发多个智能化无人作战平台项目。俄军的“天王星-6”无人扫雷车已经在叙利亚战争投入使用。苏霍伊公司的“猎人”远程重型无人机也将于今年年底首飞。根据历史经验来看,人类的理性恐怕很难阻止新技术军事化的步伐。军用智能化时代的到来,可能只是一个时间问题。