误区3:无需畏惧AI
Facebook的CEO马克扎克伯格认为,我们无需畏惧AI,它们只会带给世界各种好处,比如在无人驾驶汽车、新药开发等领域。但他并没有考虑到,AI带来的不一定都是善。高智能的系统或许在特定的领域无所不能,但在其他的领域则不然。另外,大多机械系统并没有完全考虑到安全层面。一旦有类AI的系统被用在不好的方面,后果难以想象。
误区4:AI很聪明,所以不会失败
牛津大学PeterMcIntyre与StuartArmstrong认为,AI一般受程序控制,不认为AI有聪明到可以理解我们期望。他们认为:“超级AI在定义上是在所有领域上都超越人脑的智慧的存在”。“这样的存在是可以理解我们想让其所达到的意图的”。虽然AI被程序所控制,但如果足够聪明的话它将能够理解法的精神与人的意图。
误区5:我们能解决一切AI的控制问题
当我们制造出一个比人类聪明的AI的时候,我们将面临能否控制它的问题。比如,事先设置“应该取悦人类”的程序,使其只拥有作为人类的工具的功能,在代码中写入对人类的爱与尊敬这样的概念等等。另外也有观点认为,为避免其世界观过于单纯,应该写入接受智慧的、文化的、社会多样性的程序。但以上都是在想用简单的语言来给AI植入人类复杂的价值观。
误区6:人类会被超级AI毁灭
我们无法断言AI是否会毁灭人类或者人类将无法控制AI。牛津大学哲学家NickBostrom认为,真正超级AI的出现或许是人类所发明的有史以来最大的危机。超级AI想要达成的目标中,可能大多都有消灭人类的理由。但我们无法确定AI会以什么形式和方式对人类产生威胁。