爱吧机器人网 » 专题 > 观点 > 正文

为什么AI不是万灵药

为什么AI不是万灵药
# 本文由 波波洋 投递译稿

对人工智能(AI)的未来的疯狂追捧无处不在,各种关于AI治病 、AI加速创新、AI改善创造力等等耸人听闻的消息令人目不暇接。 如果只看媒(jan)体(dan)头(shou)条(ye)的话,你可能会认为我们已经生活在AI已经无处不在的未来时代。

不可否认,人工智能带来了大量有前途的机遇 ,但它也导致了一种所谓的“AI解决主义”思维。 这种哲学的中心思想是,只要有足够的数据,机器学习算法就可以解决人类的所有问题 。

但是这个想法大有问题。它并不是支持AI的进步,相反,由于它忽视了重要的AI安全原则,并且寄予了AI不切实际的期望,所以实际上是捧杀了AI的价值。

AI解决主义.ppt

仅仅用了几年时间,AI解决主义已经从硅谷的技术布道者们口中,植入了各国政府官员和政客的大脑里。 钟摆已经从“人工智能会摧毁人类”这样的反乌托邦主义论调,摆动到“算法是我们的救世主”这种乌托邦主义思潮上。

我们看到各国政府正在承诺支持国家AI方案,并参与一场技术和词藻的军备竞赛,以期在新兴的机器学习领域取得支配地位。 例如,英国宣布投入3亿英镑用于人工智能研究,以将自己定位为该领域的领导者。 法国总统埃马努埃尔·马克龙(Emmanuel Macron)对AI的变革潜力充满了迷恋,他承诺将法国变成全球人工智能中心。与此同时,中国计划在2030年前在全国创造价值1500亿美元的AI产业 ,以增强人工智能方面的实力。在这种大环境下,AI解决主义逐渐发育并站稳了脚跟。

神经网络.apk - 下载容易安装难

尽管许多政治宣言吹捧即将出现的“ AI革命 ”的变革性影响,他们却倾向于低估现实中部署先进的机器学习系统的复杂性。

神经网络是最有前途的AI技术之一,这种机器学习系统简略的模仿了人脑的神经元结构,但规模小得多,许多基于AI的产品都是用这种技术,从大量数据中推断出模式和规则。 但许多政客不明白的是,仅仅给要解决的问题加上一个神经网络并不意味着会找到解决方案;同样,向民主国家添加神经网络也并不意味着它会立即变得更具包容性,公平性或个性化。

挑战《数据官僚主义.pdf》

AI系统需要大量数据才能正常工作,但公共部门通常没有合适的数据基础设施来支持先进的机器学习系统。 大部分数据仍保存在离线的档案柜里,而剩下的少量数字化信息也往往被埋没在各种衙门里。 通常情况下,数据分布在不同的部门,而每个部门都需要特殊的访问权限。最重要的是,公共部门通常缺乏能力合适的技术人才,难以充分享受机器智能的好处 。

基于以上原因,利用AI哗众取宠的行为招致了许多评论家的批评。 伯克利计算机科学教授斯图尔特罗素长期以来一直倡导更现实的方法,专注于人工智能的简单日常应用,而不是幻想由超级智能机器人来接管一切。 同样,MIT的机器人学教授罗德尼布鲁克斯表示:“呃……我是说……机器人,和人工智能方面……它的几乎所有创新,其实远远……对……我是说远远……超出内行和外行们所想象的那样,我的意思是……真正想要广泛部署它们,其实还有很长很长的时间,对……这就是我要说的。”

AI部署机器学习系统的许多困难之一是AI非常容易遭受对抗性攻击 ,这意味着恶意AI可以针对另一个AI来迫使它做出错误的预测或以某种方式行事。 许多研究人员对在没有适当的安全标准和防御机制的情况下推出AI技术提出了警告。 尽管如此,AI安全仍然是一个经常被忽视的话题。

机器学习不是魔法

如果我们想要获得收益并尽量减少AI的潜在危害,那么我们必须开始思考如何将机器学习有效地应用于政府、企业和社会的一些特定领域。 这意味着我们需要讨论人工智能伦理以及许多人对机器学习的不信任。

最重要的是,我们需要意识到人工智能的局限性,以及哪些事情必须由人类来掌控。 与其描绘一副不切实际的《AI之力.png》,更重要的是退一步,将AI的真正能力与虚幻的魔法划清界限。

长久以来, Facebook认为诸如错误信息和仇恨言论传播这样的问题,可以通过算法识别并终结。 但是在立法者最近的压力下,该公司承诺很快将用一万多人的审核人员来替换其算法。

医学界也认识到,人工智能不能被视为解决所有问题的解决方案。 IBM Watson for Oncology计划是一项旨在帮助医生治疗癌症的AI计划,尽管它是为了提供最好的建议而开发的,但人类专家发现很难相信这台机器 。 结果在大多数医院里,这个AI程序在试用期间就被放弃了 。

在法律领域 ,当美国法院使用算法判决罪犯时,也出现了类似的问题。 他们使用一个算法来计算风险估计系数,并向法官提供判决建议。但后来人们发现,这个系统放大了结构性种族歧视,于是遭到了弃用。

这些例子表明,放之四海而皆准的AI解决方案是不存在的。 仅仅为了AI而使用AI,并不一定有利于提高生产力,甚至可能根本没有卵用。 不是任何问题都可以通过给它加上一个AI来完美解决。 对于想在国家AI计划这个风口上分一杯羹的投资人们而言,这是至关重要的一课:所有解决方案都是有成本的,不是所有可以自动化的东西都应该被自动化。(不,我指的不是每周一次的无聊图大吐槽)

本文译自 theconversation,由译者 波波洋 基于创作共用协议(BY-NC)发布。


上一篇:人工智能、数据隐私与区块链的协同效应
下一篇:俄媒:中国人工智能或取代讨债公司?
精选推荐
麻省理工最新机器人“装配工”未来可建造太空基地
麻省理工最新机器人“装配工”未来可建造太空基地

[2019-10-17]  两个机器人原型把一系列小单元组装成大结构体麻省理工学院科研人员最近提出一种新型机器人技术,即一种小型机器人系统,能够自主地用统一规 ...

机器人从工业走向家庭  库卡KUKA目标是引领中国市场
机器人从工业走向家庭 库卡KUKA目标是引领中国市场

[2017-12-08]  机器人正在改变着人们的生活方式,而库卡KUKA想要在中国这个大蛋糕中占有一块大份额,库卡公司正在引领市场...

瑞士研发出微型机器人集群 可像蚂蚁一样互相交流并协同工作
瑞士研发出微型机器人集群 可像蚂蚁一样互相交流并协同工作

[2019-07-12]  EPFL(瑞士联邦理工学院)的研究人员受到了蚂蚁的启发,开发了一款仅有10克重的小型机器人:他们可以相互交流,分配角色并完成复杂的任务。 ...

一个让深度学习惨败的通用人工智能领域——语境处理
一个让深度学习惨败的通用人工智能领域——语境处理

[2019-11-04]  Context是指用来解释一段给定文本或语句的来源框架,我们可以翻译为上下文或语境。维基百科将context定义为:*在符号学、语言学、社会学和 ...

亚马逊计划建一个4000万美元的机器人中心
亚马逊计划建一个4000万美元的机器人中心

[2019-11-07]  爱吧机器人网消息,亚马逊11月6日宣布了一项计划,计划在美国马萨诸塞州韦斯特伯勒建立一个4000万美元、35万平方英尺的机器人创新中心。新 ...

人工智能准确预测患者一年内的死亡风险,原理却无法解释
人工智能准确预测患者一年内的死亡风险,原理却无法解释

[2019-11-13]  图片来自BURGER PHANIE SCIENCE PHOTO LIBRARY美国最新研究显示,人工智能通过查看心脏测试结果,以高达85%以上的准确率预测了一个人在一 ...

从AI中窥探人性
从AI中窥探人性

[2018-01-03]  人们对人造智能的恐惧早已成为科幻书籍和电影的极好题材。但现在,一些同样的担忧开始影响关于现实世界AI技术的政策讨论。如果这样的担忧演变成为一种技术恐慌...

受大脑控制的机器人
受大脑控制的机器人

[2017-03-21]   想让机器人做我们想做的,首先,他得全面地了解我们。通常,这就意味着人类需要要付出更多。比如,教机器人复杂的人类语言或者把一项任务 ...

本周栏目热点

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

[1970-01-01]    从首尔清潭洞SM娱乐公司大楼代表办公室的落地窗可以清晰地眺望对面的汉江。李秀满会长介绍拥有代表办公室和录音室的建筑物是工作室中心 ...

[1970-01-01]    虽然我国经济增速下降,通缩若隐若现,但由于我国劳动力人口在2012年已经达到顶峰,之后总量呈逐年下降之势,所以即使近几年产业工人工 ...

腾讯思享会:探讨智能社会与人类未来

[1970-01-01]    人类在享受开车的过程时,在不久的将来可能让机器开车,人类如不是理性的控制机器人,又将一场持久的大战。  以智能社会与人类未来为 ...

[1970-01-01]    机器人发展到今天到了重新定义的时候,机器人拥有人类的感知和思维、应用到更多领域,成为现代机器人产业发展的新方向,由此看出中国机 ...