我们正在快速地走进“人工智能时代”。我们已经可以看到特斯拉工厂和富士康工厂中繁忙的精密制造机器人,在美国硅谷街上行驶的谷歌
无人驾驶汽车,阿法狗对人类一流围棋选手的横扫,以及Nature等顶级杂志连续关于运用人工智能超过医生对疾病诊断准确性的报道。只要建立了有效样板,高科技的发展已经能够使技术的传播获得指数性的增长。
我们从对网络和智能手机扩展过程的理解、根据人工智能具有极大提高生产效率的优点,就可以预测到人工智能产品在各个领域的发展和蔓延也将是爆炸性的、难以阻挡的,而这意味着人工智能对人类工作的取代也将是不可避免的、很可能是爆炸性的。斯坦福大学一位教授的预测是:48%的美国的工作可能被人工智能取代,而70%的中国的工作可能被人工智能取代。这些几乎不可思议的变化都很可能在30年内发生,而这就需要我们立即开始准备应对人工智能的挑战和威胁。
与此同时,
大数据科学和技术的快速发展,竟使大数据在哲学上获得了极高的位置。有一个新兴的哲学理论叫做“Dataism”(“数据主义”),可能成为“
人工智能时代”重要的哲学理论。
以色列教授尤瓦尔·赫拉利在他风靡不少国家的著作《未来简史》的结尾写到:“以下三个关键的问题,我希望你在读完这本书的很久以后还深深地印在你的脑海里:1)生物体真的只是算法,而生命真的只是一个数据处理的过程?2)什么是更有价值的,是智力还是意识?3)如果没有意识而又有很高智力的算法了解我们比我们自己更多,这将对社会、政治和日常生活意味着什么?”
“人工智能时代”的最大特征是“人工智能”及与其紧密相关的大数据科学和技术的快速发展。可以说“人工智能”和大数据科学的发展是在相对论和量子力学之后,科学技术发展对人类的思想、经济和生活最有颠覆性的事件,其将产生一系列极其深刻严峻的哲学、伦理学问题。
可以说,尽快全面深入地开展对“人工智能时代”伦理学的研究,已是时代对哲学最大的挑战和呼唤,已经具有了极大的紧迫性和重要性。这种呼唤使我按捺不住内心的希望,一定要写一些东西来回应这种挑战。我觉得如果我不能够坚决有效地击溃这些挑战,我的哲学理论就的确只是笑话了。
在世界围棋第一人柯洁发誓要为打败阿法狗而拼命的时候,我在这里计划在哲学上和“人工智能”进行一场不留情面的“战争”,并决心一定要从本质上击溃“人工智能”。我以为“人工智能时代”的伦理学将主要回答以下关键问题:
1
从哲学上说,人类和“人工智能”的相互关系和地位是什么?
我对这个深刻的问题做出以下三方面的回答:
1)人工智能是人类创造的,是人类文明积累而获得的辉煌成果。所以在哲学上,“人类是人工智能的创造者”这个结论是毋庸置疑的。同样,相信人类应该永远是人工智能的主人。
2)人工智能的主要能力是逻辑思维能力和记忆能力,而这些能力绝对不是人类精神的全部。人类精神中除了逻辑思维和记忆能力,还有情感、意志、想象力、创造力等。我们可以相信,这些精神能力的重要性是绝对不亚于逻辑思维能力和记忆力的。而人类对这些精神能力的本质和机制了解极少,所以在相当长的一段时间内人工智能是不可能真正模拟这些人类精神的。
所以说,即使人工智能在逻辑思维和记忆能力方面超过了人类,我们也绝对不能武断做出“人工智能已超过了人类”这个结论的。
3)“人工智能”可以获得人类一样的地位和“人权”么?当然不可以。从本质上说,“人工智能”就是更加精致高端的计算机。我们当然应该爱护计算机,但在伦理学上我们又有什么理由给予一个计算机“人权”呢?
2
从伦理学角度,如何看待人工智能将很快地取代人类的工作?
可以预见的人工智能对人类最可怕的威胁是:很多领域的大量工作会被由人工智能完成,而这将对人类的生存空间造成极其危险的挤压。如何面对和处理失业人群将快速增加这一问题,将会决定人类社会的生死存亡。
一个关键的伦理学问题是:放任人工智能取代人类的工作是否符合伦理?可以明确,只要社会不具有足够能力创造足够的新工作提供给由于人工智能而失业的人们、而社会也不拥有足够的财富赡养由于人工智能而失业的人们,人类社会将难以存活下去。
人类文明的发展和人类的幸福是人类伦理学的基础。而这一伦理在“人工智能时代”需要改变么?在“人工智能时代”,人类文明的发展和人类的幸福仍然是人类伦理学的基础、是判定是否道德的核心基础。
人工智能是人类创造的产物,它应该永远是人类文明发展和人类幸福的工具,没有任何理由让一个工具去损伤甚至毁灭目的本身。如果人类未来不得不执行“火星逃亡计划”的话,就说明人类愚蠢到了应该失去一切的程度了。
为了克服这个很可能发展的危机,未来社会需要通过组合以下三个战略开始行动:1)创造足够的新工作提供给由于人工智能而失业的人们;2)通过高科技的发展,使社会拥有足够的财富赡养由于人工智能而失业的人们;3)全球协同性地控制人工智能对人类工作的取代。可以预计,这三个战略的完成都是极其困难的,而这又是人类社会在未来几十年内必须完成的任务。
3
如何对待人工智能对于人类在安全上的威胁?
无论如何,只要防止人工智能接触核武器,人工智能对人类在安全上的威胁只是小范围的、要比核武器小很多。但“超人工智能”对人身安全的威胁是真实存在的。所以,在设计具有“超人工智能”的机器人时必须将安全性放在首要的位置。人类当然也要发展各种制服机器人的方法。在机器人不具有真正“人权”的时候,我们不认为制服机器人是一个太困难的问题。
可以预计,以后的公安局、警察局会有“人工智能犯罪”的专业分队,也会有不少涉及人工智能的法律诉讼,而法学院会有“人工智能犯罪法”这一专业方向。
4
人工智能会使人更懒惰、更迷醉于高科技的迷幻效应、更和现实生活脱离么?
一定会有很多人由于“人工智能”而更懒惰、更迷醉于高科技的迷幻效应、更和现实生活脱离。对于人类文明,这是悲剧、这是人类的一种沉沦。人类社会为了持续发展,必须建立起这样的文化和环境,使人们了解到高科技永远只是人类文明和幸福的手段,要防止高科技成为麻醉和垄断人类生活的麻醉剂和魔鬼。
作者简介:
殷卫海,上海交通大学生物医学工程学院特聘教授、Med-X研究院副院长、中国城市治理研究院研究员。