如果你在某个周末抽空回顾十多年前的经典科幻片,就会发现好莱坞非常擅于将人工智能设置为肩负统治人类重担的终极大BOSS。无论是黑客帝国里的史密斯,还是终结者里的天网,甚至是生化危机里的红后,都体现出一种高效、理智、冷酷,视万物为蝼蚁的形象。
而这,也多少影响到了普通人对人工智能的认知。比如近年比较热门的无人驾驶领域,我们就经常能听到这样的声音,“如果世界上所有的汽车都交给AI来驾驶,或许就能根治由司机操作不当导致的车祸了。”
但这种“交给AI会更好”的想法,也正在从自动驾驶领域不断蔓延。近期,有外媒报道一份名为《欧洲技术启示2019》的调查报告主题显示,在针对西欧八国2500人的在线调查后发现,超过25%受访者更倾向于将政策的制定交给人工智能——看来人类社会离被机器人统治的时代似乎越来越近了,只不过这次人类可能不再是被迫接受管理,而是主动将决定权交到人工智能的手上。
【AI真的能保持绝对中立吗?】
导致人们产生“交给AI会更好”的原因,无非是大家觉得人工智能在作出判断时,更少受到情绪和利益的影响,因此所做的决定会更加高效且客观。不过老实说,由大数据搭建起来的人工智能,真的能做到如影视作品里表现的一般,保持完全理智吗?实际上,越来越多的研究表明,在人工智能的算法背后,同样饱含人类的各种陋习。
甚至从某种角度来讲,以大数据作为基础的人工智能,几乎就是各种世俗偏见的“集大成者”。
就拿最敏感的种族歧视来说,早在2012年就有研究指出,供应商Cognitec公司开发的人脸识别算法,在非裔美国人身上的表现比白种人差5%到10%。此外在性别歧视方面,人工智能与人类固有的刻板印象相比也不遑多让,有研究显示,当一张图片中出现厨房背景,那么识图软件大概率会将出现在图片中的人物识别为女性,而如果图片中的背景与运动相关,则很有可能让软件联想到男性。
甚至在硬件方面,也多多少少存在着难以察觉的偏见。去年华盛顿邮报进行的一项研究中发现,谷歌和亚马逊的智能语音助手识别非美国本地口音的准确率,要比美国本地口音低30%,这被不少媒体和学者认为存在“地域歧视”。与此同时,现阶段无论是Siri、Alexa、Google Assistant、Cortana、Bixby,还是国内的小爱同学、天猫精灵等,几乎所有的语音助手都是默认女性声音。因此就有观点认为,这种发展趋势导致人们在潜意识中,更倾向于让女性从事助理等辅助型、服务型的职务。
【AI搞起歧视来,比人类更理直气壮】
为何现实中的人工智能不能做到如影视作品里表现的一般,保持绝对的冷酷和客观呢?
人工智能有关的硬件设备在发展之初,产品价格大多比较高昂,所以多是瞄准那些经济更加优渥的中产阶级或者富人,这就导致他们最初的数据样本就是来源于这类人群。华尔街日报曾引用Kaggle数据科学家Rachael Tatman的言论,当前市面上所流行的智能语音系统无疑“最适合白人,受过高等教育的中产阶级美国人”。在此基础上,口音不够主流的英语,比如澳式英语等,就很容易受到来自智能音箱的“歧视”。
而在一些用户群体貌似更加开放的软件中,则因为要用到大量的用户数据对人工智能进行训练,这也就意味着人工智能必然会受到原始数据的“污染”。举例来说,当大数据中【厨房】的关联词大量出现【妻子】、【母亲】等字样时,人工智能就会将【厨房】与【女性】视为强关联性。经过这种强化训练的人工智能,在识图的过程中若发现了符合厨房的要素,就很容易判断身处图片中的人形图案是一名女性——但实际上这可能是一张厨师长王刚的宽油截图。
我国知名的导航系统MOSS曾经说过,“让人类永远保持理智是种奢求”。归纳总结人类用户的大数据,并用这些数据进行计算和演练的人工智能,从根源上就在不断整合人类的优缺点,因此让现阶段的人工智能做到完全理性和中立,似乎也是不可能是事情。
【纠正歧视链的,其实还是人类自己】
不过好消息是,科学家与技术人员正在通过自己的努力,纠正人工智能的内部歧视链。日前有外媒报道称,亚马逊宣布与美国国家科学基金会合作,在未来三年内至多投入1000万美元的研究资金,用于开发专注于人工智能和
机器学习公平性的系统。值得注意的是,亚马逊并非第一家注意到“AI歧视链”的科技巨头,去年,硅谷的精英科技企业就已经开始扎堆研究排除偏见歧视干扰的智能算法了。
去年5月,Facebook曾发布算法Fairness Flow,从具体效果来看,当其根据一个人的种族、性别或年龄做出不公平的判断时,就会自动发出警告;同年9月,谷歌推出了What-If工具,被用于机器学习框架的TensorBoard的偏见检测功能;而IBM也在同年秋季发布了AI fair 360,这款基于云计算的全自动化套件可以“持续输出思考结果”,以帮助人们了解
人工智能如何做出决策,并推荐一些可能会减轻偏见影响的调整方法。
与此同时,在语音助手方面,技术人员也有了新的突破。前不久,哥本哈根大学的语言学家和研究人员宣布,全球第一个无性别的智能语音助手诞生,它的名字叫“Q”。其嗓音既不是男声,也不是女声,而是研究小组在采集了5个不同性别的人的声音进行合成、调教而成。经过调整之后“Q”的声音频率被设定在145Hz-175Hz之间,这个范围由研究人员定义为中性性别。而在“Q”问世后的自我介绍中,它提到,自己的存在正是为了应对“不被性别定义的未来而生”。
由此不难看出,人工智能并非生来完美,将消除偏见与歧视完全寄希望于人工智能目前来看显然也更不靠谱,毕竟现阶段真正有能力让世界变得更好的,其实还是人类自己。
原标题:指望AI永远保持客观,其实可能才真是一种奢望