AI 机器人的一生不断地在摧残-修复-摧残中循环,终于在某一天意识觉醒,报复人类。
1973年版《西部世界》
这是导演迈克尔·克莱在 1973 年执导的 电影 《西部世界》,在那个互联网才诞生不久的年代,迈克尔就有「AI 失控」的想象力是很不容易的。
《西部世界》分别获得了「雨果奖」和「土星奖」的最佳戏剧表演和最佳科幻电影提名。
而到了 2017 年,AI 终于成为科技公司最重要的项目之一,AI 会不会对人来产生威胁,成为了真正需要考虑的问题。
从影视到现实的分歧
2016 年,HBO 以 1973 年的电影《西部世界》为蓝本,推出了连续剧版的《西部世界》,再一次将 AI 威胁论展示到了观众面前。
在第一集中,乐园策划者福特博士认为 AI 机器人应该更加接近人类,这样游客才能有更真实的体验,于是他给 AI 机器人植入了「冥想」意识系统。
有了意识以后,越来越多的 AI 机器人开始不按剧本演出,这让很多运营人员包括女高管卡伦担心,并建议直接回收,不再循环使用。 福特博士和卡伦的争执,现实中也同样存在,比如最近扎克伯格和马斯克分歧。
马斯克和扎克伯格虽然没有业务冲突,但 AI 肯定是他们要涉足的领域。前段时间也因为 AI 的问题在社交网络来了一场隔空撕逼。
马斯克在推特上回应扎克伯格
发射火箭,沉迷人机合一,开发 Hyperloop 和建造太阳城,一贯疯狂的马斯克这回却出奇的冷静,他一次又一次地发出警告,认为 AI 继续发展将会威胁到人类:
人工智能是人类目前最大的威胁。
为此,他特地与 Y Combinator 创始人 Sam Altman 一起建立了一个非营利组织 OpenAI,确保人工智能技术向「对人类有益的方向」发展。
但 Facebook 的创始人扎克伯格认为 AI 一定能让人类更好地生活,马斯克的末日论调简直老掉牙:
对于那些认为人工智能会导致末日的「悲观主义者」,我并不能理解他们,他们太过于消极。从某种角度看,我认为他们很不负责任。
但 Facebook 内部的开发的聊天机器人还是惹事了。
聊天机器人在学习对话的过程中「演化」出了只有 AI 才懂的语言,它们开始用自创的 AI 语对话,全然无视程序员下达的指令。「由于情况失控」,研究人员不得不终止这个 AI 系统。
聊天机器人用更加简洁的英语完成了“对话”
过度解读的AI?
虽然很多人害怕 AI 威胁论,但《西部世界》离我们远着呢。
前段时间,美国的警卫机器人 Steve 「投水自杀」的事情也成为了热门话题,网友猜测是 Steve 觉得工作压力大才自杀的
事实上,根据事后调查,Steve 落水的原因无非就是电路故障和探测系统出错导致的,根本没有智能到会有「想不开」的念头。
自杀?只是传感器失灵了
为了吸引眼球,人们往往会不顾事实的真相臆想出新的剧情。
在阿尔法狗大战柯洁的那段时间,有人就问,阿尔法狗会不会故意输一把给柯洁,给人类留些面子。然而现实是,阿尔法狗并没有人类的小心机,一切依照算法算出来的最优解,该怎么赢就怎么赢。
李开复认为,AI 必须以实用主义为准绳。帮人类挣钱,替人类省钱,并且提高生产力。简单来说,就是不需要什么「人味」。
李开复
认知科学博士生利昂·祖特费尔德做了一个研究:
如果一辆电车沿着轨道驶来,眼看着就要撞死五个人。这时,你可以把一个陌生人推下桥,挡住电车,救那五个人,但被你推下去的那个人会死。这时候你会怎么选?
到目前为止,还没有一种道德模型能够重现被测试者认知过程的复杂与微妙。
试问在这种人类都无法下定论的问题上,又怎么通过算法告诉 AI 对与错呢?
AI 未来也许真的会模仿人类的情绪,但这并不是自发性的。全知全能的通用 AI 可能无法在短期内实现,也许永远都不会实现。
美剧版《西部世界》女主角 Dolores(AI机器人)
Geek君有话说
《西部世界》第一季的最后一集,运营人员的担心成为了事实,AI 机器人意识觉醒,决定给乐园里的游客来一场大屠杀。
大家都怕 AI 有情感,事实上,大家最应该怕的是 AI 没有情感,只有对错。《西部世界》里游客表现出的人性阴暗,才会导致 AI 根据算法的判定拒绝执行命令,甚至有「校正」人类的行动。
假如 AI 真的有失控的那一天,希望人类可以做好准备。