8月中旬的时候,马斯克等26国AI技术领袖公车上书要求联合国禁止“杀人机器人”的研发与使用这件事唤起了人们对人工智能使用和监管的新一轮担忧。现在AI已经开始取代部分人的工作,以后AI难道还要用来杀死人类吗?虽然全球各大AI研究机构都在尽量开放自己的成果,促进发展的同时避免技术垄断来减少人们的担心,但仅仅“开放”并不能解决一切问题。
近日,AI研究机构艾伦人工智能研究院(Allen Institute for Artificial Intelligence)院长、华盛顿大学教授OrenEtzioni也在纽约时报发表了一篇文章,讲述了他对人工智能监管的看法。OrenEtzioni在TomM.Mitchell指导下于1991年拿到CMU的博士学位,而后在来到华盛顿大学,担任计算机工程学院教授;2005年时他牵头成立了华盛顿大学图灵中心并任主任,中心的研究领域包括数据挖掘、NLP、网络搜索。OrenEtzioni在文中提出了他心中的“人工智能三定律”,雷锋网AI科技评论将文章编译如下。
被许多人看作“现实版钢铁侠”的美国顶尖科技公司创始人埃隆马斯克,最近敦促国家有关领导人提早采取措施监管人工智能技术。马斯克坚持认为,人工智能是对人类生存的“潜在威胁”,如同科幻作品中的人工智能,是一个令人担忧的
观点。不过,即使是像我这样的研究人员也认识到,人工智能会对武器设计,工作机会和隐私安全产生极大的影响。人们对于是否应该开发人工智能技术很自然地会产生疑问。
我相信答案是肯定的。但是,为了谨慎,难道我们不应该一步一步地至少减缓人工智能A.I.的开发进度吗?问题是如果我们这样做,那么例如中国这样的国家就会超过我们。A.I.之马已经脱缰,我们最好的打算是试图引导它。A.I.不应该被武器化,而且任何A.I.必须有一个坚守的“禁地”。除此之外,我们应该规范A.I.系统对实际
应用场景方面的影响,(例如,自动驾驶车辆的安全性),而不是在还未定形且快速发展的A.I.领域试图定义和控制某些概念。
我提出了三个有关
人工智能系统的规则,这些想法是受到科幻作家艾萨夫·阿西莫夫1942年提出的“机器人学三律”启发的。我在此基础上做了进一步发展。阿西莫夫的三定律是:第一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;第三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
这三大定律看上去虽优雅简练但却模糊不清:当涉及到A.I.时,究竟什么才是伤害?基于我提出的三条规则,我找到了更为具体的方法来避免A.I.造成伤害。
首先,A.I.系统必须遵守其操作人员的所有规则。这套规则将涵盖私人,公司和政府机构。我们不想要A.I.从事网络欺凌,股票操纵或恐怖主义威胁;我们不想要F.B.I.利用A.I.系统钓鱼执法。我们不想要自动驾驶车辆闯红灯,或者更糟的是制造违反国际条约的A.I.武器。
我们的一般法规应该修改,人们不能借口称是A.I.系统做了一些我们无法理解或预期的事情。简单地说,“不管我事,是A.I干的”;这不应该成为违法行为的借口。
我的第二条规则是A.I.系统必须清楚地表明它不是人类。正如我们在一则机器人案例中所见-计算机程序可以与真人进行日益复杂的对话-人类社会需要确保A.I.系统被清楚地标示出来。在2016年,一个被称为吉尔·沃森(JillWatson)的机器人在佐治亚理工大学(GeorgiaTech)担任在线课程的教学助理,愚弄学生,并让大家以为它是人类。根据牛津大学的研究人员称,更为严重的例子是在2016年选举之前的日子里,在社交媒体上广泛使用的支持特朗普的政治机器人。
我的规则将确保人们知道机器人何时冒充某人。例如,我们知道@DeepDrumpf-一个在Twitter上幽默地模仿唐纳德·特朗普的机器人。A.I.系统不仅发出假的推文;它们也发布假新闻视频。华盛顿大学的研究人员最近发布了前总统巴拉克·奥巴马的假视频,非常令人信服地似乎在说一些被嫁接到他视频中的话,真实情况是与他说的完全不同。
我的第三条规则是若未经该信息来源方的明确许可,A.I.系统不能保留或披露机密信息。由于其能自动引用,记录和分析信息的特殊能力,A.I.系统处于获取机密信息的主要位置。例如开始被越来越多的家庭接受的“智能音箱”亚马逊Echo,就可能会记录下家庭中所有的谈话内容,包括那些私密的,或您的孩子可能无意泄露给A.I.的信息。即使看似无害的室内清洁机器人也会绘制你家的地图。这些就是你要确保管控的信息。
我相信这些规则听起来还不够完整。我在这里介绍它们,只为抛砖引玉。无论你是否同意Musk先生关于A.I.的进步速度及其对人类的最终影响的观点,很明显的一点是A.I.已经来临。社会大众需要做好准备。