智能机器人
应用越来越广泛,于是用在提高人类对机器人的信任上那是相当重要的,让它们的运作模式越来越实用。
尽管有24%的美国消费者认为自动驾驶汽车的安全性高于人类驾驶员,但人类却并不相信
人工智能或机器人。但是考虑到90%以上的交通事故都是由人类的错误导致的,所以未来有很大的可能人工智能将接过人类的驾驶权,那么我们就不禁要问了,为什么人类不相信人工智能呢?
2014年,沃尔顿商学院进行了一项调查,在这项调查中,调查者会根据人们做出的预测情况的好坏进行适当的奖励。在预测过程中,人们可以使用自己的判断,也可以采用人工智能的意见。这个算法得出的预测比人类的预测更好。尽管如此,只要人工智能做出了错误的预测,人们就会对其失去信心,尽管他们自己做出的错误更多。
这种情况被称为“算法规避”或“算法回避”,即当机器人出现一个错误时,人们就不再信任机器人。
除此之外,在酒品、医疗服务和股票选择上也有一些相似的研究。无一例外,不管人类和机器人相比有多么差劲,人们都会对机器人失去信心。甚至还不需要机器人真正做错什么。我们通常不信任那些和我们自己不相似的东西,因为它们的运作模式和我们不一样。
当机器人开始在各行各业开始工作时,或者人工智能出现各种各样的产品中时,这就会成为一个问题。你应该如何增加人类对人工智能的信任,从而让你的员工和客户接受它呢?
解决方案却很奇怪:让机器人看起来更没有信心。
看起来犹豫不决和困惑不解的机器人反倒能够赢得人们更多的信任。马萨诸塞大学卢维尔分校进行了一项调查,他们要求人们帮助机器人通过一项滑雪游戏的课程。他们可以选择使用操作杆引导机器人,或者让机器人自己做,或者两者结合使用。自动模式下的机器人的运动时相当快的,但这一点并不为参与者所知,而且机器人的程序中有让机器人犯错的程序。当机器人犯错时,研究参与者可能就会放弃机器人。但研究中的一些机器人的设计中会表现出困惑。当他们不肯定应该选择那一条道路时,它们的表情就会从高兴切换成悲伤。当机器人表现出困惑时,人们更容易相信机器人能找到自己的解决方案。
这项研究已经用在提高人类对机器人的信任上。此外还有两项分别来自美国芝加哥大学和康涅狄格大学和荷兰埃因霍温大学的研究也试图帮助人们提高对自动驾驶汽车的信心。埃因霍温大学的研究者设计出了一个名叫Bob的驱动程序,此外它还具有人类的表情和头部动作。在另一项研究中,驾驶模拟器使用了友好的女性声音,并且还有一个女性的名字Iris。显然,人们更容易相信Iris,而不是一个没有名字的机器。
显然,未来十年内,人工智能的问题还将继续是一个敏感问题。随着机器人和人工智能不断向工作领域的渗透,关系重大的不仅仅是是否相信它们的判断,而且还在于是否丢掉工作,士气的问题以及伤痕累累的自我。但是除非人类知道自己可以相信人工智能,而你并不能完成所有的事情。所以搞清楚如何实现你的人工智能的人性化才是一个很好的开始。