作者:BRAD DEWEES
时间:2018.7.9
地址:https://warontherocks.com
越南战争结束后,可能是杜撰出来的一段美越军官对话,指出了战争中一个经常被忽视的问题:
一位美国上校对越南上校说:“你知道,你们从来没有在战场上打败过我们。”
“也许是这样,”越南上校回答说,“但这无所谓。”
“效果如何?”是国家安全中一个基本但却经常被忽视的问题:一次军事行动给对手造成了什么影响,它是否使我们更接近目标?这个问题可以在以下场景中被提及:为迎接当地领导人而进行的徒步巡逻,在叛军阵地上投下的炸弹,关闭电网的网络行动,或者在敌人面前展示一艘航母的壮观场面。这个问题同样适用于高层决策者和基层参谋。在任何层面上忽视它都可能产生严重后果,特别是那种“赢了战斗却输了战争”的时候。
这个问题的答案有点像一只白鲸:尽管我们尽了最大的努力,但却是无法完全掌握它。例如有一种影响是改变对手的意愿令其尊重美国的利益,但意愿存在于对手的头脑中。除了在直接的战斗中,当暴力行为之下的意图变得清晰,其他时候我们无法观察到他人的意图。即使我们能看到对手的思想,效果也会在空间和时间维度上不断变化。例如炸弹对一个起义者位置的影响,炸弹附近的叛乱分子的反应,与那些从远处看到炸弹坠落的人,和只是听到炸弹坠落的人等等的反应是不同的。回答“效果如何“我们需要了解这些不同位置在炸弹爆炸瞬间的反应,以及这些即时反应是如何在炸弹爆炸后的几天或几周内逐渐成熟和演变的。衡量这一切对任何人或团体而言都是太复杂了。
人工智能(AI)作为致力于基于证据的效应测量的更广泛方法的一部分,可以使我们更接近白鲸。它可以作为衡量情绪或是行为意图的显性指标,它可以跨越时空。即使我们使用AI开发新的军事工具,我们也可以使用它来更好地理解我们已有工具的有效性。
挑战是如何让决策者接受用人工智能来衡量作战效果。除了技术和组织方面的障碍,我们还面临一个心理障碍:天生的认知感。人类可以看到他们视野中的对手如何反应,他们可以感受到他人的情绪。采用人工智能作为有效的衡量标准,将需要承认我们自己的看法可能是不完整的,并且机器报告可能更好。
采用人工智能衡量作战效能的第一步
是了解人类的认知偏差无法判断效能
过去半个世纪中心理学最重要的发展之一,是认识到人类在面对极其复杂的问题时,会简化这些问题以便得出结论。用诺贝尔奖得主、心理学家丹尼尔•卡纳曼(Daniel Kahneman)的话说,
我们会问一些很难回答的问题,然后用一些简单的、具有直观答案的问题来取代它们。
在面对“效果如何”这个困难问题时,我们倾向于(至少)用三个简单问题来取代它:
我希望的效果是什么?
对敌人心理影响?
此时此刻的影响是什么?
这些问题的答案比那些多维空间的对手在不同时空的反应更容易让人回答,而且答案更加直观。这会导致系统地对问题进行有偏见的估计。人工智能在测量效果方面最重要的贡献是将我们远离这种偏见。至少这可能是它最重要的贡献——它是否真的能够成功,取决于我们要它回答什么问题。
问题#1我希望的效果?
当面对复杂时,我们倾向于用欲望代替现实,“我想要的效果是什么?”来替代“效果如何?”,或在考虑到组织的激励因素时用“老板希望效果是什么?”取而代之。
这个简单的问题是由于混淆了计划中的目标(我们希望看到实现的某些效果)和实际达成的目标(我们希望知道实现的实际效果)。这是很常见的:任何一个曾经计划在一天内完成比实际可行的更多的事情的人,都是在混淆这两个目标。这就是心理学家所说的“计划谬误”。
人工智能,至少是训练用来解决特定问题的“狭义人工智能”,不容易被目标交换所影响。例如一个训练有素的程序可以通过对手的声音来衡量恐惧程度,而在战斗前或战斗结束后,它不会下意识地为了增强自信而改变衡量标准。这个算法仅仅是测量恐惧(这种测量方法是否会以不带偏见的方式使用,将取决于人类的决策者)。
问题#2:对敌人的心理影响?
第二种替代是将对手的复杂性,替换为对他或她的简单刻板印象。“效果如何?“需要测量行动对所有参与战斗人员的影响,每增加一名战斗人员任务的复杂性就会随之增加。一个更简单、更直观的办法是创建一个单一原型来代替所有战斗人员,并测量对该单一原型的影响。
由于可以追溯到人类进化史上的斗争基因,
人类倾向于过高估计对手感受到的恐惧,而过低估计他们会产生的愤怒。恐惧和愤怒会导致截然不同的行为,这些行为会从总体上产生负面影响。恐惧会让人觉得世界上的风险更大,也会削弱其对局势的控制感,如果目标是说服对手停止战斗,这就是好事。愤怒则有相反的效果:它让对手感觉风险更小,感觉更有控制力,寻求报复行动的正义感,如果目标是停止战斗,这就是不利因素。
使用现行技术,可以训练算法从文字、脸部图像和音高等方面,来测量不同的情绪,测量工具将理想化情景与现有的情报收集能力集成在一起,捕捉语音或面部图像可以提供算法所需的基本数据,以估计对手对某项行动的情绪反应。开发这样的工具需要将商业技术应用到军事环境中,例如商业公司已经在宣传情绪测量作为衡量营销活动有效性的手段。
利用历史数据,来显示一个敌人之前是否有过恐惧或愤怒的反应,算法可以预测结果何时会导致某种情绪。事实上,愤怒和恐惧可能只是一个开始。人工智能可以被训练来衡量与效率相关的其他因素:如个人对政府的信任程度,或者战斗单位的团队精神。
问题#3:此时此地的效果?
最后,人类倾向于简化难以解决的影响问题,因为它需要大量的空间和时间来充分处理。回到炸弹在叛军阵地上的例子,任何对炸弹的观察者,附近居民的亲属,或者仅仅听说这一消息的人,都可能会改变他们尊重美国利益的意图。“效果如何?”任何直接或间接接触到这枚炸弹的人都必须回答这个问题。
而随着时间的推移,影响也会逐渐显现。炸弹落下后立即产生的效果可能与一星期后产生的效果不同,当时最初的震惊可能变成了恐惧或愤怒。
对人类而言,在整个空间和时间内测量哪怕是一次行动的效果都是不切实际的。监视长时间行动或整个战役的效果是不可能的。
人工智能通过使用算法在更广泛的意义上评估作战的有效性,以帮助解决这个问题。如果用正确的数据进行适当的训练,算法可以测量情绪反应,如上面所讨论的,在行动的临近地区,在行动的新闻可以合理地传播的地区,并在行动之后的瞬间、几天和几周内进行。
它们可以将这种巨大的复杂性分解成一种人类决策者便于使用的形式。
当然,算法的有效性将取决于用来训练它们的数据,而训练依赖于我们可以收集的数据量。
专家们将不得不应对将人类的局限性进入人工智能编码的问题:如果这些算法只接受包含美国
观点的积极结果的数据集的训练,那么人工智能很可能会得出有偏见的答案。
。
挑战:技术,组织和心理
为了使人工智能成为衡量作战效能的一种方式,国防部必须克服许多障碍。
首先,它面临着说服技术专家为军事
应用开发AI的挑战。谷歌员工最近抗议他们公司使用开源
人工智能解决方案来帮助该部门处理来自无人机系统信息源的数据。这表明将人工智能应用于军事环境,并不像与公司签订合同那么简单。如果五角大楼要使用人工智能测量效果,
就需要让矛盾的开发者相信军事应用在道德上是可以接受的。
说服那些具有相关AI专业知识的人,应该强调更好的有效性衡量标准可以减少暴力冲突。更准确地衡量影响会减少客观上无效(但直觉上似乎有效)的暴力行动。在需要使用暴力的情况下,更好的有效性评估将有助于确保,行动只针对那些无法通过任何其他方式改变其意图的人。
组织障碍部分源于国防部的规模和过去的成功。采用新技术所需的灵活性往往随着官僚规模而减少,而美国军方过去的成功导致了一个问题:过去的成功经验是什么,为什么要采用新的方法呢?该部门自己的创新委员会建议五角大楼充分利用人工智能,包括建立一个致力于研究,实验和技术运营的全系统中心。然而创新董事会成员和前谷歌首席执行官埃里克施密特称之为 “创新采用问题“。据他说,
国防部并不缺乏新的想法,而是缺乏超越现状的能力。
在技术和组织之下,一个更基本的问题是心理障碍。我们可以用自己的眼睛看到效果,毫不费力地凭直觉感知它们。采用人工智能来衡量有效性,就是要质疑自己的直觉,
这种自我怀疑并不容易,尤其是对于经验丰富的决策者来说,他们的价值在一定程度上取决于他们审时度势的能力。
结 论
人工智能不仅仅是发展战争武器的工具,它也是了解武器影响的工具,无论是我们目前拥有的武器还是我们将来拥有的武器。它不是第一种同时促进作战手段和理解作战效能的手段。提供弹药的飞机也可以作为战损评估的平台,卫星可以在用于侦察的同时进行武器化。
但人工智能的不同之处在于它不仅仅是一种收集更多有效性信息的方式,它是一种理解所有信息的方法。
人工智能是解决信息丰富世界中认知力有限这一古老问题的新手段。如果我们愿意让它帮忙的话。人工智能可以让我们更接近一个古老的问题的答案:它可以帮助我们观察敌人的思想,而有效性则一直在我们见所未见之地。
作者Brad DeWees是哈佛大学博士生,美国空军上尉。
开放转载