智造观点
最近,谷歌数千名员工与其军事化项目Project Maven的矛盾,让AI军事化的问题持续升级。人工智能作为现在最前沿的技术,早已成为了重点研究对象,但由于人工智能的很多特征可以与复杂环境相结合,却难以在民用市场落脚,因此军用AI就顺理成章地成为了该技术的加持方向。而随着越来越多的国家投入到军用机器人的研发中,全球似乎已开始滑进了一场机器人军备竞赛。
文/未末末
来源/人工智能观察(ID:Aiobservation)
据路透社日前报道,美国军方正加大对一项机密研究工作的投入,来利用人工智能技术帮助预测核能导弹的发射,跟踪并瞄准移动发射器。
此前,这个项目并没有得到媒体的大肆报道,而在最新的五角大楼预算中,关于它很少的可被公开的细节也被隐藏在了一些难以理解的言语中。但接近这项研究的美国官员告诉对路透社表示,目前该项目正在进行多项分类计划,以探索如何开发AI驱动的系统,来更好地保护美国免受潜在的核导弹袭击。
如果研究成功,这样的计算机系统将能够以超出人类能力的速度和精度,去搜寻包括卫星图像在内的大量数据,借此发现导弹发射准备的各种迹象。进一步讲,如果有袭击事件发生,军方就可以利用这项技术争取更多时间来对导弹进行摧毁或拦截。
这一消息来源包括美国官员,由于研究的保密性,所以他们要求匿名发言。其中一位知情人士表示,“我们应该尽一切努力在发射之前找出导弹,并使其越来越难以从地面起飞。”
特朗普政府的预算也证明了这一点。
一些预算文件显示,这个AI驱动的导弹项目明年的预算资金会增加超过两倍,达到8300万美元。尽管金额数量相对较小,但也表明了对美国来说,AI驱动的反导系统研究越来越重要。
人工智能技术的支持者Bob Work认为,人工智能和
机器学习可以让研究员做到“大海捞针”。他从去年7月开始担任国防部副部长,虽然没有提到过任何具体的军事AI项目,但还是能看到美国军方对AI的兴趣。比如,五角大楼透露,它正在使用人工智能来识别无人机项目中收集的视频中的物体,这是去年他们发起的一项名为“Project Maven”的公开宣传的一部分。
不过尽管如此,一些美国官员表示,人工智能在军事项目上的整体支出仍然严重不足。
AI军备竞赛——美国警惕中国,加大投资
目前,五角大楼正在与中国和俄罗斯展开一场竞赛,将投入更多人工智能到其战争机器中,以创造更加先进、更加复杂的自主系统。届时,这些系统将可以通过自行学习来完成特定的任务。五角大楼关于利用人工智能来识别潜在的导弹威胁,并跟踪移动发射器的研究尚处于起步阶段,这也只是整体努力的一部分。
如上文中提到的,关于美国对人工智能导弹研究的细节报道还很少,但一位美国官员透露,一个追踪移动导弹发射器系统的早期原型,已经在美国军方内部进行了测试。这个项目涉及华盛顿特区的军事和私人研究人员。官员们称,这是对由情报部门风险投资基金In-Q-Tel资助的商业公司开发技术的进一步发展。
为了进行这项研究,该项目正在利用情报界的商业云服务寻找数据中的模式和异常情况,其中包括能够穿透暴风雨甚至是树叶的精密雷达。
此外,
路透社找到的预算文件指出,计划将移动导弹发射器计划的重点扩大到“4 + 1”范围。五角大楼通常使用“4 + 1”来指代中国、俄罗斯、伊朗、朝鲜四国以及恐怖组织。其实,美国对军事AI的研究,在去年11月就曾遭到曝光,当时美国研究人员训练出一个深度学习算法,用以识别某国的地空导弹基地。
让人恐惧的是,
这些算法比人类的速度快几百倍,可以高效找出分布在一块近9万平方公里区域内的地空导弹发射场。据了解,这种人工神经网络基于能够过滤和学习大量数据的人工神经元层,达到人类图像分析专家90%的准确率。此外,
它还将发现潜在导弹基地的时间从60小时减少到42分钟。
当然,这也只是美国政府公开的一些信息。
把海龟变成步枪——军事AI存在风险
对于使用人工智能来搜捕导弹的支持者和批评者来说,他们也有一个共同的态度,即
军事AI存在重大风险。它可以加速核危机的决策,因此可能会增加计算机生成错误的几率。进一步来说,这可能会引发与俄罗斯和中国的人工智能军备竞赛,破坏全球核平衡。
美国战略司令部指挥官兼美国空军上将John Hyten表示,一旦AI驱动的系统全面投入使用,五角大楼将需要考虑制定保障措施,以确保人类(而不是机器)控制核决策的步伐,即五角大楼所说的“核战争危机升级阶梯”(escalation ladder)。
此外,他在接受媒体采访时也曾说道:“如果不采取措施,人工智能可能会迫使人类进入这个阶段,一旦入局,所有的一切都将一起发生变化。”
美国公共
政策研究机构兰德公司的专家预测,像中国和俄罗斯等国很有可能试图欺骗人工智能导弹搜索系统,研究如何隐藏导弹不被发现。有一些证据表明他们可能会成功。
去年,麻省理工学院Labsix实验室的一些研究人员使用3D打印出来的乌龟,成功地让谷歌的InceptionV3图像分类器将其识别为一个步枪。据了解,这个团队成立就是为了打造“对抗图像”,一种专门创造出来欺骗AI的图片。一般来说,AI会将这些图片中的物体识别成完全不同的东西。举个例子,一张大花猫的图片居然被AI认成了一碗牛油果酱。
对此,美国国防部高级研究计划局(DARPA)的主任Steven Walker博士表示,五角大楼仍然需要人类评估人工智能系统的结论,“因为这些系统可能被愚弄”。DARPA正在开展一个项目,旨在让人工智能驱动的系统能够更好地向人类分析师解释自己。在该机构看来,这对高风险的国家安全项目至关重要。
中国看军用AI——重塑未来战争图景
在这场AI军备竞赛上,中国一直是美国的关注重点。众议院军事委员会主席Mac Thornberry曾表示,“俄罗斯人和中国人肯定也在研究这些东西,甚至在某些方面会比我们付出更多的努力。”
今年4月,中国指挥与控制学会青工委副主任、国防科技大学军事专家石海明接受科技日报采访时表示,“人工智能在军事领域的
应用广泛,包括军用
人工智能机器翻译系统、智能电子战系统、自动情报与图像识别系统、人工智能武器等等。在遥远的未来,人工智能也许会像一些科幻电影中描绘的那样,让人类战争从科幻变成现实。”
目前,人工智能在某些军事领域已显现出超越人类的能力。在2016年举行的一次模拟空战对抗比赛中,人工智能系统通过灵活、迅捷的动作击败了具备更强武器系统的退役战斗机飞行员,就像一个象棋大师输给了电脑。
对于军事AI的迅速发展,不乏AI人士对此提出反对意见。
早在2017年的人工智能国际会议上,特斯拉首席执行官Elon Musk、苹果联合创始人Steve Wozniak、DeepMind创始人兼CEODemis Hassabis等人就签署了一封公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。霍金也曾指出,脱离人类控制之下的机器很难被阻止住。
善用AI——人机结合、以人为主
毫无疑问,
AI从来都是一把双刃剑,这一点在安全领域尤其明显。
相比人类,军事机器人的主要优势在于,他们能同时承担多项复杂任务,作战更加持久,在程序设定完备后能够高效精准达成目标,失误率较低。特别是完全自主机器人——持续作战时间长、反应能力快、生存能力强与人类战士相比具有巨大的优势。
但与此同时,关于战争责任的伦理问题就出现了,参战的自主机器人到底是不是战斗员?他们应当承担什么样的战争责任?回溯到2008年,那时美军海军研究办公室发表的一份报告表示,用于战争的自主机器人无法承担法律责任。此外,在军事AI中,应该强调公众安全还是强调居民隐私,优先考虑技术的妥善度还是应用效率,这也是一个值得思考的问题。
不管怎么说,无论是哪个领域的AI应用,
坚持人机结合、以人为主的原则,都是一个大的方向。人类应该在此基础上,加强对该技术的预测与评估,完成充分的试验与分析后再推进人工智能技术的应用。
(文中图片来自网络)