专注于数据、技术与公共
政策的美国科技智库数据创新中心的高级政策分析师Joshua New撰文表示,由于美国采取的一些错误建议,美国有可能在当前的全球人工智能竞赛中落后于他国。该文主要内容如下:
在全球人工智能竞赛中赢得主导地位的国家必将获得巨大经济利益,包括经济增长率到2035年可能翻一番。不幸的是,美国在如何竞争方面得到了一些错误建议。
在过去的2017年,为了在人工智能竞争中取得胜利,加拿大、中国、法国、印度、日本和英国都启动了政府支持的重大举措。虽然特朗普政府已经开始关注如何推进这项技术,但还没有制定出与其他国家的战略具有同等凝聚力的国家战略。这种现状带来的后果是,在关于美国政策制定者应如何支持人工智能的对话中,主要关注通过对技术施加限制性监管来避免人工智能潜在危害(而不是支持其增长)的倡导者提交的提案占据了支配地位。
人工智能确实带来了独特的挑战,从可能加剧刑事司法体系中的种族偏见到引起对自动驾驶汽车的道德关注,不一而足。而应对这些挑战的主导观念则是强制实施算法透明度原则或算法可解释性原则,或是成立全局人工智能监管机构。但是,这些措施不仅可能无法有效应对潜在挑战,它们还可能会大大减缓美国开发和采用人工智能的速度。
算法透明度的支持者认为,要求各家公司披露其算法的源代码可让监管机构、媒体和关心此类问题的公民仔细检查代码以及确定是否有任何不当行为的迹象。尽管人工智能系统的复杂性让大家几乎没有理由相信这种做法会有任何实际效果,但对于那些经常无视知识产权保护的国家(特别是中国)的惯犯来说,这会让窃取美国的源代码变得非常容易。同时,这还会给美国在全球人工智能竞赛中的主要竞争对手提供帮助,并减少对美国公司投资开发人工智能的激励。
其他人则提议
应用算法可解释性原则。根据此原则,政府会要求各家公司让其算法对最终用户而言可解释,方法包括通过描述其算法的工作原理或仅使用能够阐明其决策理由的算法等。例如,欧盟已将可解释性作为针对
人工智能潜在危险的主要检查,并在其《通用数据保护条例》(General Data Protection Regulation,GDPR)中保障每个个体获取关于算法所做特定决策的“有意义信息”的权利。
要求可解释性的做法是恰当的,并且已成为许多领域的标准做法,例如刑事司法领域或消费金融领域。但是,在同一标准不适用于人类决策的情况下,将这一要求扩展到人工智能决策领域则会是一个错误。这种做法会刺激企业依赖人类做出决策,从而避免此类监管负担,但这会以牺牲生产力和创新性为代价。
此外,可解释性和准确性之间可能存在不可避免的权衡。算法的准确性通常随着其复杂性的增加而提高,但算法越复杂,解释起来就会越困难。这种权衡一直存在,拥有两个变量的简单线性回归比拥有两百个变量的线性回归更容易解释。但是,使用更加高级的数据科学方法时,权衡会变得更加尖锐。因此,可解释性要求在可以适当牺牲准确性的情况中才有意义,而这些情况很少见。例如,在自动驾驶汽车中让可解释性优先于准确性会是一个可怕的想法,因为导航准确性或车辆区分道路上的行人和广告牌上的人类照片的能力即便只是略微下降,也可能极度危险。
第三个普遍但糟糕的想法是,成立相当于美国食品药品监督管理局(Food and Drug Administration)或国家运输安全委员会(National Transportation Safety Board)的机构来充当全局人工智能监管机构,这一想法最引人注目的支持者是埃隆·马斯克(Elon Musk)。问题在于,成立人工智能监管机构会错误地暗示所有算法都存在相同水平的风险并需要监管。但是,人工智能系统的决策就和人类的决策一样,仍然受制于各种行业特定的法律和法规,并会根据其应用范围带来各种各样的风险。仅仅因为低风险决策使用了算法就将其置于监管之下会为部署人工智能带来极大的阻碍,并会限制美国公司采用这项技术的能力。
幸运的是,政策制定者能够通过可行的方法,在不破坏人工智能的情况下应对人工智能带来的潜在风险,即采用算法问责制原则。这是一种干涉较少的监管方法,可激励部署算法的企业使用各种控制手段来确保其人工智能系统按照预期运行,并识别和纠正不良后果。它与算法透明度不同,不会威胁知识产权。它与算法可解释性也不同,允许公司部署高级创新人工智能系统,但仍然会要求它们能够在上下文需要时解释其特定决策,而无论是否在这些决策中使用了人工智能。与主要人工智能监管机构不同的是,算法问责制可确保监管机构能够了解其行业特定领域内的人工智能,同时对妨碍人工智能部署的障碍加以限制。
如果美国想要成为全球人工智能竞赛中的有力竞争者,那么政策制定者最不应该做的就是通过效率低下、损害经济利益的监管对人工智能进行束缚。现在想要专注于不公平或不安全人工智能的政策制定者应改为应用算法问责制原则解决自己关切的问题,而不要在美国加入全球人工智能竞赛的过程中加以妨碍。