在1942年的短篇小说中,科幻作家伊萨克·阿西莫夫提出了机器人三定律——工程安全措施和内置的道德准则,以保证机器人会友善对待人类并使人们免于机器末日。这些定律一是机器人不能伤害人类,或无所作为而导致人类受伤害;二是机器人必须听从命令,除非这些命令违背第一定律;三是机器人必须保护自身,但这些保护不能与第一和第二定律相违背。
不过,今年5月,在美国布鲁金斯学会的一个
无人驾驶汽车研讨会上,专家讨论了在危急时刻无人驾驶汽车应当怎样做。如果汽车为了保护自己的乘客而急刹车,造成后方车辆追尾应如何?或当车辆为了躲避儿童而急转,撞到旁边其他人怎么办?随着AI技术的不断发展,类似的伦理道德困境将很快影响到各类人工智能的发展,有一些问题甚至是目前就已经面临的。针对人工智能已经产生或可能产生的更多伦理问题,各国在其战略中都有所提及,除此之外,从事人工智能技术和研究的企业、组织等也采取了多种应对方式。
目前,AI背后的伦理问题主要显现于以下四个方面:
算法歧视
算法本身是一种数学表达,相对来说比较客观,不像人类那样容易产生偏见、情绪,受外部因素影响。但是,近年来,算法也在产生一些类似的歧视问题。如,美国一些法院使用的一个犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视。如果你是一个黑人,一旦你犯了罪,就更有可能被该系统错误地标记为具有高犯罪风险,从而被法官判处监禁,或者判处更长的刑期,即使你本应得到缓刑。此外,一些图像识别软件之前还将黑人错误地标记为“黑猩猩”或者“猿猴”;去年3月,微软在Twitter上上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。
一些推荐算法决策可能无伤大雅,但是如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,因为它是规模化运作的,并不是仅仅针对某一个人,可能影响具有类似情况的一群人或者种族的利益,所以规模是很大的。而且,算法决策的一次小的失误或者歧视,会在后续的决策中得到增强,可能就成了连锁效应,这次倒霉了,后面很多次都会跟着倒霉。此外,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上可能是比较困难的。
隐私
很多AI系统,包括深度学习,都是
大数据学习,需要大量的数据来训练学习算法,数据已经成了AI时代的新石油,但是这带来了新的隐私忧虑。一方面,AI对数据包括敏感数据的大规模收集、使用,可能威胁隐私,尤其是在深度学习过程中使用大量的敏感数据,如医疗健康数据,这些数据可能会在后续过程中被泄露出去,对个人的隐私产生影响。如何在深度学习过程中保护个人隐私是现在很重要的问题。
另一方面,用户画像、自动化决策的广泛
应用也可能给个人权益产生不利影响。此外,考虑到各种服务之间的大量交易数据,数据流动越来越频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,其实现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、加密、差别化隐私等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。
责任与安全
一些名人如霍金、施密特等之前都强调要警惕强
人工智能或者超人工智能可能威胁人类生存。但AI安全,其实更多地指的是智能机器人运行过程中的安全性、可控性,包括行为安全和人类控制。从阿西莫夫提出的机器人三定律到2017年阿西洛马会议提出的23条人工智能原则,AI安全始终是人们关注的一个重点。此外,安全往往与责任相伴。现在无人驾驶汽车也会发生车祸,智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统自主性很强,它的开发者是不能预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟。
机器人权利
即如何界定AI的人道主义待遇。随着自主智能机器人越来越强大,它们在人类社会到底应该扮演什么样的角色呢?是不是可以在某些方面获得像人一样的待遇,也就是说,享有一定的权利呢?我们可以虐待、折磨或者杀死机器人吗?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。