《机器姬》,相信这是很多朋友都比较熟悉的一步科幻电影吧?它讲述的便是人类新兴的行业,也就是近两年来备受各国,各大科技巨头关注的领域—人工智能领域。在这部电影中,我们发现它的一个不同着眼点,它更多的赋予了机器人鲜活的形象,赋予它孩童般的天真,以及高深莫测的头脑。
如同大多数烧脑电影一样,《机械姬》让观众自行判断,“伊娃”是否具有自我意识。在此过程中,它还巧妙地避免了一个棘手的问题,这一问题迄今为止仍挑战着大多数以人工智能为主题的电影:什么是意识?机器能否拥有意识?
好莱坞导演们并非是对此问题困惑不解的唯一群体。随着机器智能的飞速发展,它不仅能在魔兽争霸(DOTA)和围棋这样的游戏中战胜人类玩家,而且对战过程中还不需要人类的专业知识,这一问题又一次成了科学的主流。
机器处于意识的边缘吗?
本周,法兰西学院的认知科学家斯坦尼斯拉斯·迪昂、加州大学洛杉矶分校的Hakwan Lau和巴黎文理研究大学的希德·库韦德尔共同在著名的《科学》杂志上发表了一篇评论文章,他们认为:虽然机器现在还没有意识,但未来已有一条清晰的发展道路。
原因是什么?他们说,意识是“绝对的计算能力”,因为它是特定类型的信息处理产生的结果,这是由大脑的硬件实现的。就像当前强大的机器学习技术从神经生物学中大量借鉴一样,我们或许可以通过研究我们大脑中的结构实现人为意识,这些结构能产生意识并且像计算机算法一样实现这些意识。
从大脑到机器人
毫无疑问,人工智能领域已经从我们对大脑意识的了解中受益匪浅,无论是在意识形式还是功能方面。
例如,“深度神经网络”是一种算法的架构,它可以让阿尔法狗(AlphaGo)在与人类玩家比赛中获得压倒性胜利,有一小部分基础是我们的大脑细胞自我组织的多层次的生物神经网络。
“强化学习”是一种“训练”,它可以让人工智能向数百万个例子学习,它源于一种有着几百年历史的技术,就像所有人熟悉的训狗一样:如果它发出了正确的反应(或结果),则给予奖励;否则,得要求它再试一次。
从这个意义上说,将人类意识的架构转换成机器似乎就能轻易实现人工意识。只是还有一个大问题。
斯图尔特·拉塞尔博士于2015年《科学》杂志采访中说到:“人工智能领域中尚未有人正开发有意识的机器,因为我们有心无力,对此实在是毫无头绪”。他是《人工智能:现代方法》的作者。
多层次意识
在我们考虑编码机器意识之前,最难的部分则是弄清楚意识究竟是什么。
对于迪昂和他的同事来说,意识是一个多层次的结构,有两个“维度”:C1意识,大脑中的已有信息,以及C2意识,获取和监控自己信息的能力。这两者对意识来说都是必不可少的,但二者不需同时存在。
假设你在开着一辆车,而低燃油警告灯亮了。在这里,我们注意到燃油箱灯就是C1意识,这是一种我们可以做出反应的心理表征:我们注意到它,采取相应行动(重新注满油箱),并在之后回忆起来并谈论它(“我在郊区的汽油用光了!”)迪昂在接受《科学》杂志采访时解释道,“我们想要从意识中区分的第一个意义是全局可用性的概念”。
他补充道,当你意识到一个词的时候,你的整个大脑都会意识到它,从某种意义上说,你可以在不同的模式中使用信息。
但是,C1意识不只是一个“心理素描本”。它代表了一种完整的体系结构,可以让大脑从我们的感觉或对相关事件的记忆中提取多种形式的信息。
潜意识的处理过程往往依赖于特定的“模块”,这些“模块”能够胜任一组既定的任务,而C1与之不同,它是一个全局性的工作空间,可以让大脑整合信息,决定行动,并一直工作到最后。
就像《饥饿游戏》(The Hunger Games)一样,我们所说的“意识”可以有任意的表现形式,在某一时刻,“意识”在进入这个心理工作空间的比赛中国获得胜利。不同的大脑计算回路会共享这些获胜的意识,并在决策过程中一直处于中心位置,指导人类行为。
作者解释说,由于这些特征,C1意识是高度稳定的和全局性的意识,会触发所有相关的大脑回路。
对于像智能汽车这样的复杂机器来说,C1意识是解决诸如低燃料灯这样迫在眉睫的问题的第一步。在这个例子中,光本身是一种潜意识信号:当它闪烁时,机器上的所有其他进程仍然不知情,而汽车——即使配备了最先进的视觉处理网络——也毫不犹豫地通过了加油站。
有了C1意识之后,油箱就会向汽车内置电脑发出警报(允许灯光进入汽车的“意识大脑”中),进而查看内置的全球定位系统(GPS)来寻找下一个加油站。
迪昂说:“我们认为,在机器中,这将转化为一个系统,从封装信息的任何处理模块中提取信息,并将信息提供给其他任何处理模块,这样他们就可以使用这些信息。”“这是第一种意识。”
元认知
在某种程度上,C1意识反映了大脑获取外部信息的能力。C2意识则与大脑内部信息相关。
文章作者定义了意识的第二个方面,即C2意识,能反映你是否知道或察觉到某件事,或者你是否刚犯错误的“元认知(meta-cognition)”。(“我想我可能是在最后一个加油站加满油了,但我忘记了保留收据以防万一”)。这个维度反映了意识和自我意识之间的联系。
C2是一种意识层次,它会让你在做出选择时感到信心不足或者信心满满。在计算术语中,它是一种算法,可以预测出一个决策(或计算)是正确的,尽管它经常被当作一种“直觉”。
C2意识也会影响记忆和好奇心。这些自我监控的算法让我们知道了所谓的“元记忆”,有人对此有所了解,也有人从未听过,它是负责感知自己舌尖上是否有东西。迪昂说,监控我们所知道的(或不知道)东西对于儿童来说尤其重要。他解释说:“孩子们绝对需要监控他们所知道的东西,以便他们提出疑问、对事物变得好奇并学习更多知识。”
在意识的两个方面共同作用下,我们能从中受益:C1意识让相关信息进入我们的精神工作空间(同时丢弃其他“可能”的想法或解决方案),而C2意识则有助于意识思维是否带来有益回应的长期反射。
回到低燃料警示灯的例子中,C1意识让汽车在第一时间解决问题,这些算法使信息实现整体共享,让汽车察觉到问题。
但为了解决这个问题,汽车需要一个有关自身的“认知能力目录”,一种对随时可用的资源的自我意识,例如,一份加油站的GPS地图。
迪昂说:“拥有这种自我认知的汽车就是我们所说的拥有C2意识的汽车。”因为信号是全局性的,而且因为它的监测方式类似于机器自我观察,所以汽车会担忧低燃油状况,然后像人类一样,降低燃料消耗并寻找加油站。
作者指出,“当今大多数机器学习系统都缺乏自我监控”。
但他们的理论似乎找到了正确的方向。在这几个例子中,无论是在算法的结构中,还是作为一个单独的网络,自我监控系统得以实现,人工智能已经生成了“本质上具有元认知的内部模型,使得一个代理者能开发出一种对自身的理解,这种理解是有限的、隐蔽的,具有实用性。”
朝有意识的机器发展
一台具有C1意识和C2意识的机器会表现得它好像拥有意识一样吗?这很有可能:智能汽车会“知道”它看到了什么,并对此非常确定,然后向其他部分报告,并找到解决问题的最佳方案。如果它的自我监控机制崩溃了,它可能也会出现“幻觉”,甚至会出现与人类相似的视觉幻象。
迪昂说,C1意识能灵活地使用它拥有的信息,而C2意识能清楚自己认知范围的极限。“我认为(机器)应该是有意识的,”而不仅仅只是人类的专利。
如果你感觉意识远不止是整体的信息分享和自我监控,不只有你这么感觉。
作者也承认:“对意识的纯粹功能性定义可能会让一些读者不满意”。
“但我们正试图采取激进的立场,或许可以简化问题。”迪昂总结到:“意识是一种功能的属性,当我们不断给机器增加功能时,在某种程度上,这些属性将塑造我们所说的意识的特征。”