爱吧机器人网 » 专题 > 观点 > 正文

智库专家:美国可能在全球人工智能竞赛中处于落后

智库专家:美国可能在全球人工智能竞赛中处于落后
专注于数据、技术与公共政策的美国科技智库数据创新中心的高级政策分析师Joshua New撰文表示,由于美国采取的一些错误建议,美国有可能在当前的全球人工智能竞赛中落后于他国。该文主要内容如下:

智库专家:美国可能在全球人工智能竞赛中处于落后
在全球人工智能竞赛中赢得主导地位的国家必将获得巨大经济利益,包括经济增长率到2035年可能翻一番。不幸的是,美国在如何竞争方面得到了一些错误建议。

在过去的2017年,为了在人工智能竞争中取得胜利,加拿大、中国、法国、印度、日本和英国都启动了政府支持的重大举措。虽然特朗普政府已经开始关注如何推进这项技术,但还没有制定出与其他国家的战略具有同等凝聚力的国家战略。这种现状带来的后果是,在关于美国政策制定者应如何支持人工智能的对话中,主要关注通过对技术施加限制性监管来避免人工智能潜在危害(而不是支持其增长)的倡导者提交的提案占据了支配地位。

人工智能确实带来了独特的挑战,从可能加剧刑事司法体系中的种族偏见到引起对自动驾驶汽车的道德关注,不一而足。而应对这些挑战的主导观念则是强制实施算法透明度原则或算法可解释性原则,或是成立全局人工智能监管机构。但是,这些措施不仅可能无法有效应对潜在挑战,它们还可能会大大减缓美国开发和采用人工智能的速度。

算法透明度的支持者认为,要求各家公司披露其算法的源代码可让监管机构、媒体和关心此类问题的公民仔细检查代码以及确定是否有任何不当行为的迹象。尽管人工智能系统的复杂性让大家几乎没有理由相信这种做法会有任何实际效果,但对于那些经常无视知识产权保护的国家(特别是中国)的惯犯来说,这会让窃取美国的源代码变得非常容易。同时,这还会给美国在全球人工智能竞赛中的主要竞争对手提供帮助,并减少对美国公司投资开发人工智能的激励。

其他人则提议应用算法可解释性原则。根据此原则,政府会要求各家公司让其算法对最终用户而言可解释,方法包括通过描述其算法的工作原理或仅使用能够阐明其决策理由的算法等。例如,欧盟已将可解释性作为针对人工智能潜在危险的主要检查,并在其《通用数据保护条例》(General Data Protection Regulation,GDPR)中保障每个个体获取关于算法所做特定决策的“有意义信息”的权利。

要求可解释性的做法是恰当的,并且已成为许多领域的标准做法,例如刑事司法领域或消费金融领域。但是,在同一标准不适用于人类决策的情况下,将这一要求扩展到人工智能决策领域则会是一个错误。这种做法会刺激企业依赖人类做出决策,从而避免此类监管负担,但这会以牺牲生产力和创新性为代价。

此外,可解释性和准确性之间可能存在不可避免的权衡。算法的准确性通常随着其复杂性的增加而提高,但算法越复杂,解释起来就会越困难。这种权衡一直存在,拥有两个变量的简单线性回归比拥有两百个变量的线性回归更容易解释。但是,使用更加高级的数据科学方法时,权衡会变得更加尖锐。因此,可解释性要求在可以适当牺牲准确性的情况中才有意义,而这些情况很少见。例如,在自动驾驶汽车中让可解释性优先于准确性会是一个可怕的想法,因为导航准确性或车辆区分道路上的行人和广告牌上的人类照片的能力即便只是略微下降,也可能极度危险。

第三个普遍但糟糕的想法是,成立相当于美国食品药品监督管理局(Food and Drug Administration)或国家运输安全委员会(National Transportation Safety Board)的机构来充当全局人工智能监管机构,这一想法最引人注目的支持者是埃隆·马斯克(Elon Musk)。问题在于,成立人工智能监管机构会错误地暗示所有算法都存在相同水平的风险并需要监管。但是,人工智能系统的决策就和人类的决策一样,仍然受制于各种行业特定的法律和法规,并会根据其应用范围带来各种各样的风险。仅仅因为低风险决策使用了算法就将其置于监管之下会为部署人工智能带来极大的阻碍,并会限制美国公司采用这项技术的能力。

幸运的是,政策制定者能够通过可行的方法,在不破坏人工智能的情况下应对人工智能带来的潜在风险,即采用算法问责制原则。这是一种干涉较少的监管方法,可激励部署算法的企业使用各种控制手段来确保其人工智能系统按照预期运行,并识别和纠正不良后果。它与算法透明度不同,不会威胁知识产权。它与算法可解释性也不同,允许公司部署高级创新人工智能系统,但仍然会要求它们能够在上下文需要时解释其特定决策,而无论是否在这些决策中使用了人工智能。与主要人工智能监管机构不同的是,算法问责制可确保监管机构能够了解其行业特定领域内的人工智能,同时对妨碍人工智能部署的障碍加以限制。

如果美国想要成为全球人工智能竞赛中的有力竞争者,那么政策制定者最不应该做的就是通过效率低下、损害经济利益的监管对人工智能进行束缚。现在想要专注于不公平或不安全人工智能的政策制定者应改为应用算法问责制原则解决自己关切的问题,而不要在美国加入全球人工智能竞赛的过程中加以妨碍。



上一篇:李开复:中国领军 人工智能将产生前所未有的巨大财富
下一篇:为什么海思和寒武纪想更快设计出AI芯片都“盯着”Cadence?
精选推荐
农业将为高科技行业 农业机器人的应用领域
农业将为高科技行业 农业机器人的应用领域

[2017-12-17]  农业正在迅速成为一个令人兴奋的高科技产业,吸引了新专业人士,新公司和新投资者。技术发展迅速,不仅提高了农民的生产能力,而且促进了我们所知道的机器人和自动化技术的发展。...

2017年:AI渗入云端
2017年:AI渗入云端

[2017-12-29]  云中的人工智能不仅仅是科技巨头的权力游戏,它也可能是人工智能领域的下一个飞跃。加利福尼亚州的Rigetti Computing公司刚刚使用其原型量子芯片之一在其云平台上运行机器学......

一个让深度学习惨败的通用人工智能领域——语境处理
一个让深度学习惨败的通用人工智能领域——语境处理

[2019-11-04]  Context是指用来解释一段给定文本或语句的来源框架,我们可以翻译为上下文或语境。维基百科将context定义为:*在符号学、语言学、社会学和 ...

[2018-01-26]  纽约时报的报道,德国的研究人员已经开发出一种长约七分之一英寸的机器人,首先看起来不过是一小块橡皮条。然后它开始移动。机器人走路,跳跃,爬行,滚动和游泳。它甚至爬出......

7种常见的机器人焊接类型
7种常见的机器人焊接类型

[2017-12-17]  机器人焊接是工业领域最常见的机器人应用之一,近几十年来主要由汽车行业驱动。机器人焊接在完成大批量,重复性的焊接任务时效率最高。...

这些人型机器人是如此真实,你的肉眼几乎无法区分
这些人型机器人是如此真实,你的肉眼几乎无法区分

[2017-09-03]   我们生活在一个区分现实与幻想变得越来越困难的世界。由于机器人技术的进步,创造人工的人类正在逐渐接近完美的最终目标。我们现在看到的机器人不再只是一块发光二极管,......

机器人iCub作为嵌入式AI的标准机器人研究平台的重要性
机器人iCub作为嵌入式AI的标准机器人研究平台的重要性

[2017-12-24]  机器人的研究在过去10年中得益于一个具有嵌入式人工智能(AI)的标准化开源平台——人形机器人iCub。iCub最初在意大利被创建,如今在欧洲、美国、韩国、新加坡和日本的实验室......

通过对抗性图像黑入大脑
通过对抗性图像黑入大脑

[2018-03-02]  在上面的图片中,左边是一张猫的照片。在右边,你能分辨出它是同一只猫的图片,还是一张看起来相似的狗的图片?这两张图片之间的区别在于, ...

本周栏目热点

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

[1970-01-01]    从首尔清潭洞SM娱乐公司大楼代表办公室的落地窗可以清晰地眺望对面的汉江。李秀满会长介绍拥有代表办公室和录音室的建筑物是工作室中心 ...

[1970-01-01]    虽然我国经济增速下降,通缩若隐若现,但由于我国劳动力人口在2012年已经达到顶峰,之后总量呈逐年下降之势,所以即使近几年产业工人工 ...

腾讯思享会:探讨智能社会与人类未来

[1970-01-01]    人类在享受开车的过程时,在不久的将来可能让机器开车,人类如不是理性的控制机器人,又将一场持久的大战。  以智能社会与人类未来为 ...

[1970-01-01]    机器人发展到今天到了重新定义的时候,机器人拥有人类的感知和思维、应用到更多领域,成为现代机器人产业发展的新方向,由此看出中国机 ...