随着人工智能技术日趋成熟,一些人担心,人们对这项技术更广泛的社会和道德影响未给予足够的关注。专家对此进行了讨论,探索了他们认为最骇人的五种人工智能发展前景。
当提到人工智能时,人们总会联想到机器人杀手和计算机失控的场景。《银翼杀手》和《终结者》系列的好莱坞电影给我们灌输了这样一种恐惧感:人工智能会突破编程,把矛头指向人类。对于一个今年有望创造超过1万亿美元商业价值,到2022年,将创造近4万亿美元价值的行业来说,任何对其伦理含义的重大疑虑都会产生巨大的影响。
人工智能是一个热词,并已经对许多行业产生了明显的影响——尤其是那些依赖大量体力劳动的行业。随着人工智能技术日趋成熟,企业继续加大对其投资,一些人担心,人们对这项技术更广泛的社会和道德影响未给予足够的关注。美国全国广播公司因此专门邀请了几位专家,对此进行讨论,探索了他们认为最骇人的五种人工智能发展前景。
一、全球性失业
分析人员和工人普遍担心人工智能的广泛应用将造成全球性的失业,因为工作越来越自动化,不再需要大量人工劳动力。
英国爱丁堡大学信息学院教授Alan Bundy表示,“失业可能是人们最大的担忧。人们需要精心策划一系列非常有针对性的应用程序,并找出这些程序无法处理的边缘案例,但这并不能取代预期的大规模失业——至少在很长一段时间内都不会。”
人工智能的支持者说,这项技术将创造新的就业机会。新技术的复杂性需要合适的人才来开发,因此,对工程师的需求将会增加。他们还表示,为了在日常工作中发挥新的作用,人类也必须使用人工智能。
高德纳咨询公司预测,到2020年,人工智能将创造230万个工作岗位,同时减少180万个岗位——净增加50万个岗位。但这并不能否认人工智能造成全球大规模裁员的可能性。
2013年,英国牛津大学一项研究指出,一些最可能被替代的工作包括经济业务人员、银行出纳员、保险承销商以及税务筹划员——这些工作虽然技术性不强但很关键,能维持金融行业的运转。
尽管可以通过提高技能和创造新的工作岗位——甚至可能引入一种普遍的基本收入来最大限度地减少人工智能对劳动力市场的损害,但很明显,失业问题不会很快解决。
二、战争
随着“杀手机器人”的出现以及人工智能在军事领域中的运用,专家担忧,这项技术可能最终会导致战争。特斯拉CEO埃隆•马斯克(Elon Musk)因其对人工智能直言不讳的观点而闻名。去年,他警告,人工智能可能会导致第三次世界大战。
虽然马斯克以夸张言论著称,但他的评论却传达了专家们的真实恐惧。一些分析人员和活动家认为,致命自主武器的研发和人工智能在军事决策中的使用造成了大量的伦理困境,增加了爆发以人工智能为主导的战争的可能性。
甚至还有一些非政府组织致力于禁用此类机器。2013年成立的“禁止杀人机器人”团体呼吁政府阻止人工智能驱动的无人机和其他工具的研发。今年年初,美国国防智库兰德公司在一项研究中警告说,在军事领域中应用人工智能可能会在2040年引发一场核战争。
阿姆斯特丹自由大学人工智能研究院Frank van Harmelen表示,“我认为‘骇人’这个词唯一能使用的领域是自主武器系统…那些看起来像机器人,也可能不像机器人的系统。任何自动决定生死的电脑系统,不管是人工智能还是非人工智能——例如发射导弹——都是非常可怕的想法。”这种大胆预测背后的真相是,如果军事人工智能系统在分析形势时出错,会导致各国做出鲁莽的,甚至是灾难性的决策。
三、机器人医生
虽然专家们大多同意人工智能在医学领域的应用益处良多,例如尽早诊断疾病,加快整体医疗体验,但一些医生和学者担心,我们可能会过快地朝着数据驱动的医疗实践方向发展。学者们还担心,人们对人工智能的期望过高,认为它可以形成人类的智力,从而解决各种各样的任务。
爱丁堡大学的Bundy表示,“到目前为止,所有的人工智能应用都非常成功, 但应用范围很窄。”Bundy还表示,这些期望可能会给医疗保健等行业带来可怕的后果。上周,一份引用了IBM内部文件的健康刊物发布了一份报告。该报告显示,IBM旗下的沃森超级电脑已经提了许多“不安全且不正确的”癌症治疗建议,但该软件被训练成只处理假设场景下的少量病例。
另一个令人担忧的问题是,计算机占用和共享的数据,以及使用这些数据实现应用程序自动化的数据驱动算法可能会侵犯患者隐私。事实证明,数据的存储以及分享是令人担忧的。以“深度思考”(DeepMind)为例,2015年,这家谷歌旗下的人工智能公司与英国国家医疗服务体系(NHS)签署了一项协议,获得了160万英国患者的健康数据。该协议意味着患者将他们的数据交给了公司,以提高其项目检测疾病的能力。这也催生了一款名为Streams的应用程序,该程序旨在检测肾病患者,并在患者病情恶化时提醒医生。
然而去年,英国隐私监督部门信息专员办公室(ICO)裁定,NHS和DeepMind之间的协议违背了数据保护法。ICO表示,作为协议的一部分,伦敦皇家自由医院在使用患者数据的方式上缺乏透明度。
四、歧视
有些读者可能还会记得Tay,一款由微软开发的人工智能聊天机器人,它在两年前引起了轰动。
这个机器人有一个推特账号,一些用户用了不到一天时间训练它发表攻击性的推特,来支持阿道夫•希特勒和白人至上的观念。这个错误迫使微软注销了该账号,这一事件也引发了激烈的讨论,即人工智能有存在歧视的可能性。
Walsh表示,歧视是科技带来的一系列“意想不到的后果”之一。他说:“我们在计算程序中看到了意想不到的偏见,尤其是
机器学习,这种偏见有可能导致种族、性别歧视,而在过去的50多年里,我们一直试图将这些偏见从我们的社会中消除。”
专家表示,这个问题涉及到把
人工智能变成一个客观、理性的思考者,不偏袒某一特定种族、性别。这是研究人员和开发人员一直在认真考虑的问题。
IBM甚至有研究人员致力于解决人工智能领域的歧视问题。今年早些时候,IBM表示将发布两个数据集,包含不同肤色的面部和其他面部特征,以减少人工智能面部识别系统的偏见。
原文链接:https://www.kepuchina.cn/tech/ligent/201808/t20180814_691086.shtml