爱吧机器人网 » 专题 > 观点 > 正文

指望AI永远保持客观可能是一种奢望

如果你在某个周末抽空回顾十多年前的经典科幻片,就会发现好莱坞非常擅于将人工智能设置为肩负统治人类重担的终极大BOSS。无论是黑客帝国里的史密斯,还是终结者里的天网,甚至是生化危机里的红后,都体现出一种高效、理智、冷酷,视万物为蝼蚁的形象。

\

而这,也多少影响到了普通人对人工智能的认知。比如近年比较热门的无人驾驶领域,我们就经常能听到这样的声音,“如果世界上所有的汽车都交给AI来驾驶,或许就能根治由司机操作不当导致的车祸了。”

但这种“交给AI会更好”的想法,也正在从自动驾驶领域不断蔓延。近期,有外媒报道一份名为《欧洲技术启示2019》的调查报告主题显示,在针对西欧八国2500人的在线调查后发现,超过25%受访者更倾向于将政策的制定交给人工智能——看来人类社会离被机器人统治的时代似乎越来越近了,只不过这次人类可能不再是被迫接受管理,而是主动将决定权交到人工智能的手上。

\

【AI真的能保持绝对中立吗?】

导致人们产生“交给AI会更好”的原因,无非是大家觉得人工智能在作出判断时,更少受到情绪和利益的影响,因此所做的决定会更加高效且客观。不过老实说,由大数据搭建起来的人工智能,真的能做到如影视作品里表现的一般,保持完全理智吗?实际上,越来越多的研究表明,在人工智能的算法背后,同样饱含人类的各种陋习。

甚至从某种角度来讲,以大数据作为基础的人工智能,几乎就是各种世俗偏见的“集大成者”。

\

就拿最敏感的种族歧视来说,早在2012年就有研究指出,供应商Cognitec公司开发的人脸识别算法,在非裔美国人身上的表现比白种人差5%到10%。此外在性别歧视方面,人工智能与人类固有的刻板印象相比也不遑多让,有研究显示,当一张图片中出现厨房背景,那么识图软件大概率会将出现在图片中的人物识别为女性,而如果图片中的背景与运动相关,则很有可能让软件联想到男性。

\

甚至在硬件方面,也多多少少存在着难以察觉的偏见。去年华盛顿邮报进行的一项研究中发现,谷歌和亚马逊的智能语音助手识别非美国本地口音的准确率,要比美国本地口音低30%,这被不少媒体和学者认为存在“地域歧视”。与此同时,现阶段无论是Siri、Alexa、Google Assistant、Cortana、Bixby,还是国内的小爱同学、天猫精灵等,几乎所有的语音助手都是默认女性声音。因此就有观点认为,这种发展趋势导致人们在潜意识中,更倾向于让女性从事助理等辅助型、服务型的职务。

【AI搞起歧视来,比人类更理直气壮】

为何现实中的人工智能不能做到如影视作品里表现的一般,保持绝对的冷酷和客观呢?

人工智能有关的硬件设备在发展之初,产品价格大多比较高昂,所以多是瞄准那些经济更加优渥的中产阶级或者富人,这就导致他们最初的数据样本就是来源于这类人群。华尔街日报曾引用Kaggle数据科学家Rachael Tatman的言论,当前市面上所流行的智能语音系统无疑“最适合白人,受过高等教育的中产阶级美国人”。在此基础上,口音不够主流的英语,比如澳式英语等,就很容易受到来自智能音箱的“歧视”。

\

而在一些用户群体貌似更加开放的软件中,则因为要用到大量的用户数据对人工智能进行训练,这也就意味着人工智能必然会受到原始数据的“污染”。举例来说,当大数据中【厨房】的关联词大量出现【妻子】、【母亲】等字样时,人工智能就会将【厨房】与【女性】视为强关联性。经过这种强化训练的人工智能,在识图的过程中若发现了符合厨房的要素,就很容易判断身处图片中的人形图案是一名女性——但实际上这可能是一张厨师长王刚的宽油截图。

我国知名的导航系统MOSS曾经说过,“让人类永远保持理智是种奢求”。归纳总结人类用户的大数据,并用这些数据进行计算和演练的人工智能,从根源上就在不断整合人类的优缺点,因此让现阶段的人工智能做到完全理性和中立,似乎也是不可能是事情。

【纠正歧视链的,其实还是人类自己】

不过好消息是,科学家与技术人员正在通过自己的努力,纠正人工智能的内部歧视链。日前有外媒报道称,亚马逊宣布与美国国家科学基金会合作,在未来三年内至多投入1000万美元的研究资金,用于开发专注于人工智能和机器学习公平性的系统。值得注意的是,亚马逊并非第一家注意到“AI歧视链”的科技巨头,去年,硅谷的精英科技企业就已经开始扎堆研究排除偏见歧视干扰的智能算法了。

\

去年5月,Facebook曾发布算法Fairness Flow,从具体效果来看,当其根据一个人的种族、性别或年龄做出不公平的判断时,就会自动发出警告;同年9月,谷歌推出了What-If工具,被用于机器学习框架的TensorBoard的偏见检测功能;而IBM也在同年秋季发布了AI fair 360,这款基于云计算的全自动化套件可以“持续输出思考结果”,以帮助人们了解人工智能如何做出决策,并推荐一些可能会减轻偏见影响的调整方法。

\

与此同时,在语音助手方面,技术人员也有了新的突破。前不久,哥本哈根大学的语言学家和研究人员宣布,全球第一个无性别的智能语音助手诞生,它的名字叫“Q”。其嗓音既不是男声,也不是女声,而是研究小组在采集了5个不同性别的人的声音进行合成、调教而成。经过调整之后“Q”的声音频率被设定在145Hz-175Hz之间,这个范围由研究人员定义为中性性别。而在“Q”问世后的自我介绍中,它提到,自己的存在正是为了应对“不被性别定义的未来而生”。

\

由此不难看出,人工智能并非生来完美,将消除偏见与歧视完全寄希望于人工智能目前来看显然也更不靠谱,毕竟现阶段真正有能力让世界变得更好的,其实还是人类自己。

原标题:指望AI永远保持客观,其实可能才真是一种奢望

上一篇:AI 教育挑战不断,人才差异化需求显现
下一篇:机器人产业现阶段谈制造模块化运作还太早
精选推荐
机器人灵巧手将成为智能机器人的下一个重大突破
机器人灵巧手将成为智能机器人的下一个重大突破

[2018-01-25]  计算机科学教授兼东北地区助手机器人实验室负责人罗伯特·普拉特(Robert Platt)说:“机器人手操作是下一步要解决的问题。想象一下,一个机器人可以在现实世界中用手去做事......

人工智能民主化能否实现取决于科技巨头
人工智能民主化能否实现取决于科技巨头

[2017-12-29]  我们经常听到像谷歌和微软这样的公司说他们希望人工智能民主化。这是一个很好的词,民主化。 但这些公司如何界定“民主化”还不清楚,像AI本身一样,它似乎有点炒作的味道...

苹果AI主管透露自动驾驶汽车项目关于机器学习方面的进展
苹果AI主管透露自动驾驶汽车项目关于机器学习方面的进展

[2017-12-11]  苹果隐秘的自动驾驶汽车项目多年来一直在转移焦点,但今年似乎正在加速。 4月份,公司获得了在加利福尼亚州进行自动驾驶汽车测试的许可证,而在6月份,苹果公司首席执行官库......

比利时研发出可以自我愈合伤口的软体机器人
比利时研发出可以自我愈合伤口的软体机器人

[2017-09-03]  软体机器人是机器人技术的新兴领域; 他们“可以与人类相互作用,而不会杀死他们,并拿起像西红柿这样柔软的物体。” 从长远来看,布鲁塞尔大学队伍正在努力创建一个类似的材......

机器人工程师具体都做什么?
机器人工程师具体都做什么?

[2017-12-08]  机器人工程师是幕后设计师,负责创建机器人和机器人系统,能够执行人类无法完成或不愿意完成的任务。 通过他们的创造,机器人工程师帮助工作更安全,更轻松,更高效,特别是......

谷歌宣布搜索算法重大升级,用BERT模型理解用户搜索意图
谷歌宣布搜索算法重大升级,用BERT模型理解用户搜索意图

[2019-10-26]  谷歌刚刚宣布,其搜索引擎的核心算法正在进行一项重大升级,这项升级可能会改变10%的搜索结果排序。此项升级应用了自然语言处理技术(BERT ...

人工智能准确预测患者一年内的死亡风险,原理却无法解释
人工智能准确预测患者一年内的死亡风险,原理却无法解释

[2019-11-13]  图片来自BURGER PHANIE SCIENCE PHOTO LIBRARY美国最新研究显示,人工智能通过查看心脏测试结果,以高达85%以上的准确率预测了一个人在一 ...

从AI中窥探人性
从AI中窥探人性

[2018-01-03]  人们对人造智能的恐惧早已成为科幻书籍和电影的极好题材。但现在,一些同样的担忧开始影响关于现实世界AI技术的政策讨论。如果这样的担忧演变成为一种技术恐慌...

本周栏目热点

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

[1970-01-01]    从首尔清潭洞SM娱乐公司大楼代表办公室的落地窗可以清晰地眺望对面的汉江。李秀满会长介绍拥有代表办公室和录音室的建筑物是工作室中心 ...

[1970-01-01]    虽然我国经济增速下降,通缩若隐若现,但由于我国劳动力人口在2012年已经达到顶峰,之后总量呈逐年下降之势,所以即使近几年产业工人工 ...

腾讯思享会:探讨智能社会与人类未来

[1970-01-01]    人类在享受开车的过程时,在不久的将来可能让机器开车,人类如不是理性的控制机器人,又将一场持久的大战。  以智能社会与人类未来为 ...

[1970-01-01]    机器人发展到今天到了重新定义的时候,机器人拥有人类的感知和思维、应用到更多领域,成为现代机器人产业发展的新方向,由此看出中国机 ...