还有一个比较流行的争论点,那就是机器人一旦可以做一些带来麻烦的事,将无人被追究责任。没有人会受到惩罚,没有人会上军事法庭。不负责任既是对敌人的不尊重,也是对战争法则的的不尊重,它将无视国际法就挑起战事。
问:这些争论有什么错误的地方?
答:从表面上看,我们认为这样的争论关心的是偶然事件:它们之所以发生是因为当前的技术还不成熟。你可以想像一下完美的自主武器:它从不犯错,总是杀正确的敌人,总是将伤害降到最低,只求达成目标即可。这样的机器人部署到现实中有什么错?它犯错的确没有人负责,但它从不犯错,谁会关心?
问:你们的观点有何不同?
答:我们主要有两个争论点。第一点,许多哲学家相信道德无法融入到一系列指令中。行为道德很复杂,它依赖经验、实践和对细节的把握,它还需要其它一些东西,如判断、直觉和道德感,这些都是难以用文字表述的。如果这样的观点是正确的,那么我们就无法真正在一系列指令中融入道德感,也无法用这样的指令打造完美的自主武器。
问:电脑不能自己通过学习变得完美吗?机器不能学习那些可靠的人,包括他们符合道德的行为吗?
答:是的,正因如此我们才有第二个争论点。也就是说无论机器变得多么精巧复杂,它都永远不能像人一样根据“正确的原因”采取行动。
问:为什么根据正确的原因行动如此重要呢?
答:首先,从直觉上看它很重要。一个人送花给自己迷恋的人,为的是能亲近她;一个人送花给自己迷恋的人,为的是激怒她的男朋友:二者之间是完全不同的。不同之处在前者有正确的原因,后者则原因错误。另外,如果机器无法根据正确的原因行动而我们仍然可以使用它,我们就应该可以允许那些心理不正常但表现很乖的人当兵。现在大多的人已经知道,将行为表现很好的心理不正常者放在军队中会带来很严重的问题。因为人道主义干预而发动战争和因为争夺资源而发动战争是完全不同的,尽管从表像来看是一样的。
问:我们所有讨论的要点是什么?
答:我们最后考虑一种可能,即未来的机器人在作出符合道德的重要决定方面比人类好很多。假设机器人成了道德的信徒,到时我们是不是应该将所有困难的决策全部交给机器处理?它们不只决定战争的目标是谁,还决定是否应该开战,决定谁是盟友,决定哪些地方应该占领等等。总之,它们应该能比我们更好地作决策,知道如何做对我们有利,对世界有利。如果他们在决策上做得很好,我们是不是应该将我们的自主权交给机器?
<上一页 1 2