机器正变得越来越强大,人类也更加依赖机器。如果机器不能理解和适应人类的道德观,很容易对人类造成伤害。
比如,日本、欧洲和美国都在研发用来照顾老人和残疾人的服务型机器人,它们能轻易将老人抱上床,也就有了理论上可能伤害老人的能力。
此外,从2000年起,美国军方部署了上千架无人机,它们无需人类操控,能自行锁定目标并开火。
霍金以及埃隆•马斯克都对人工智能可能带来的破坏性非常担忧,甚至说:人工智能将成为人类最大的威胁。所以机器需要拥有道德观,这是为了人类自身的安全。
机器人涉足的领域不只是自动驾驶汽车、无人机,还包括基因技术,甚至是纳米科学。对于这些领域,人类自己都还存在着伦理争议,如果我们对机器人道德上的约束,远远落后于技术的发展,情况会变得非常危险。
美国白宫已经成立了4个工作室,组织专家研究机器人的道德规范问题。
| 塑造人工智能道德观的方法一:GoodAI
第一个研究叫GoodAI,就是“好机器人”。这个项目的目的,是让人工智能的道德观随着人类的道德观一起进步。
惯常人们认为把什么是好的输入进去,机器照做就行了。但问题是,人类自己的道德标准也在变化。比如,我们今天不再认为奴隶制是合理的。但如果美国建国时,就在机器的道德观里设定蓄奴是可以的,那今天人工智能反而会成为现代社会进步的阻碍,因为道德观停留在从前。所以这项研究是让机器通过观察别人的行为,来建立是非观,跟人类教育小孩是一样的。
| 塑造人工智能道德观的方法二:道德适应器
第二个方法是乔治亚理工学院机器人伦理学家Ron Arkin建立的“道德适应器”。这个方法与GoodAI不同,它不再模拟人类行为,而是模拟人类情绪,让犯错的机器人产生罪恶感。
战场上,人类士兵会因为对某地区的毁坏程度太大产生心理上的不适,甚至是罪恶感。鉴于此,可以给机器设定一个标准,超过标准越多,机器的罪恶感也就更大,直至完全停止行动。
Arkin说:“罪恶感是一种化学机制,阻止我们重复某一类特定的行为。” 这个道理应用在机器上也是可行的。
| 塑造人工智能道德观的方法三:读故事
第三个方法是乔治亚理工学院娱乐智能实验室的主管Mark Riedl提出的。Riedl基本认可GoodAI理念,认为教机器人就像教小孩一样。但他觉得我们没有20年时间培育一个机器人,他用给机器人读故事的方式,作为人工智能学习道德观的捷径。通过大量阅读,让机器人自己从故事的场景中总结行为准则。
他让机器人观察了一千个主人公经历相似的典型社会场景,从烛光晚餐到银行抢劫,然后分析人类的平均反应,从而得出一个多数人认可的处事方式。结果,除了机器人习得一般性常识,还有额外惊喜,比如去电影院约会时,机器人会自行得出需要接吻的想法。
| 怎样让
无人驾驶汽车更安全
目前,人工智能领域最有前景的
应用,是无人驾驶汽车。自动驾驶过程中,是让机器完全听从人类的指示,还是机器拥有所有掌控权,不仅是安全问题,也是一种机器道德观的体现。
文章指出,让无人驾驶汽车更安全的最好方式,就是人类彻底放弃对车辆的控制权。原因有两个。
首先人类的反应跟不上。这是Google通过测试得出的结论。当人们发现有可以依靠的技术时,就会很快产生依赖,自动驾驶也是一样。如果全程都由机器驾驶,人很容易开小差,即便发生了险情,也反应不过来处理。
其次,如果不经常操作,人类开车技能会退化。遇到危险时突然让其重掌控制权,只会更危险。
Google的全自动驾驶软件,目前已拥有一百三十万英里的行驶里程经验,相当于一位90年驾龄的司机,没人可比。
截止到目前,Google的无人驾驶汽车共发生17起轻微碰撞事件,和一起低速与大巴相撞事故。前17起事故的责任都在对方的人类司机。因为Google汽车开得太遵守交通规则,粗心大意和爱钻空子的人类司机在驾驶中产生了疑惑才造成了事故。