伊隆·马斯克、史蒂芬·霍金和比尔·盖茨都曾多次警告称,快速发展的人工智能或给人类带来严重的后果。他们的担忧,随着科幻电影、书籍等载体延续着。如果失去对机器人的控制,人类亲手创造的世界将被毁灭。
乔治亚理工学院的研究人员则认为,有一种方法可以使机器人更加同情人类,因此,机器人也不太可能杀死我们。
研究人员马克·里德尔(Mark Riedl)和布伦特·哈里森(Brent Harrison)最近发布的一篇文章称,寓言和民间故事能教授机器人辨别对错,了解人类社会的习惯,这听起来就像我们向年幼的孩子讲故事,传授最基本的道德规范一般。
例如在美国,年轻时的乔治·华盛顿砍倒樱桃树的故事,总被成年人用来引导、教育孩子说真话、勇于承担责任。当然,世界各地的寓言也无一不起着类似的作用,又如《龟兔赛跑》的故事,也隐含了虚心使人进步,骄傲使人落后的道理。
上述文章称,虚构的故事在不同的情况下,为人类提供了广泛适用的行动指南。同时,这些故事也照亮了人类的思维过程。
世界上有足够多的好故事,正在不断地表达着好与坏的行为差异。研究人员相信,通过故事阅读,机器人相比通常的编程场景,将能学习到无限多的、正确的行为方式。
“从不同文化背景的文学作品中搜集到的故事,均能教育孩子分辨行为的正确性,熟知哪些行为方式能被社会所接受,”里德尔在一份声明中说,“我们相信,机器人通过阅读故事、理解故事,能消除其极端的反常行为。此外,阅读还能强化其积极行为,使它在达到预期目的的同时,不再伤害人类。”
文章认为,通过一种叫做“Quixote”的调用方法,使机器人阅读展示人类价值的故事,并奖励他们为“好(正确)”的行为,机器人就能学会顺应人类规范。
该技术建立在里尔德被称为“天方夜谭系统(Scheherazade system)”的研究成果之上。天方夜谭系统可以将互联网的众多故事情节,按照适当的顺序排列,并让人工智能设备进行阅读。然后,“Quixote”则在测试过程中,用奖励信号强化人工智能设备的良好行为,并对不良行为进行惩罚。两个系统的数据合并之后,机器人便进入了查找故事的模式中,这个模式则可帮助机器人在正确的变量之间做出决定,如同人类自己在冒险故事中选择不同路线,从而导致不同的结局一般。
在一次实验中,研究人员命令机器人从药店拿起药物并带回家。如果没有人的理解和规范(不付费购买直接带走药品是不对的),机器人可能会为了尽快完成指令,选择偷窃或者抢劫以达成目标。但测验中,至少在这一场景里,正是正确的阅读价值和积极的强化训练,使机器人选择了正确的方法:花更多的时间去银行取钱购买药品,再返回家中。
文章还指出,上述技术的工作原理最适合于机器人与人类合作,共同实现有限的目的的情景之下。
文章也强调,这项技术最重要的一步,是对人工智能设备的道德推理传授。因为如果可以教给机器人正确的行为,他们也可能“学坏”。
“防止所有机器人对人类的伤害,目前几乎是不可能实现的,”文中称,“但我们相信,人工智能已经进入到文化适应阶段,即人工智能需要吸收包含特定文化或社会价值的信息,从而努力避免出现最极端的情况。”(翻译:蒋瑜沄)