在DeepMind创始人哈萨比斯的未来愿景中,超级智能机器将能够与人类专家协作解决几乎所有问题:癌症、气候变化、能源、基因组学、宏观经济学、金融系统、物理等。哈萨比斯说:“我们想要掌握的学科越来越复杂,即使是最聪明的人,穷其一生也难以掌握其中一个领域。我们将AGI看做一个能够自动将非结构化信息转化为可用知识的过程,那么通过筛选泛滥的数据得出合理的观点就指日可待了,我们正在努力研究的是一种可以解决任何问题的超级解决方案。”
牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆认为,如果AGI能够最终完成,它的影响将是无与伦比的。这种超级智能机器的出现也许还需要几十年之久,但它似乎离我们越来越近,我们应该对此充满信心。
发展会失控吗?
人类可能即将创造出一种全新的生命形式,这不仅标志着进化的突破,而且也可能给人类物种的生存构成潜在威胁。人工智能是否已经让我们处在了见证一个新物种诞生的边缘?还要多久机器就会比人类变得更聪明?这已经成为人工智能发展最需要思考的问题。
2015年1月,美国麻省理工学院的物理教授马克思·泰格马克组织了首次关于人工智能风险的主要会议,会议核心议题之一就是:要走多久人类才会遭遇机器智能或超人智能。一方面,有观点认为,比如人工智能先锋吴恩达宣称人工智能超越人类智能是几百年后的事情了;而其他人,比如特斯拉CEO马斯克和伯克利的计算机科学教授斯图尔特·罗素认为这一时刻会更快到来。泰格马克说,会议讨论的中值是40年。
全球很多顶级科学家和科技巨头都在关注AI的发展,如斯蒂芬·霍金、比尔·盖茨、伊隆·马斯克、杨·塔里安等。但与哈萨比斯对AI持积极态度不同的是,这些知名科技专家对AI的发展表示很大的担忧。他们的担忧包括AGI武器和“技术奇异点”的幽灵——这将导致“智能爆炸”,届时机器将能够不断地进行自我完善,超越人脑的智力,从而脱离人类的控制。如果这样的超级智能灾难最后发生了,人类将悔恨自己当初为什么没有退出AI开发竞赛。
霍金在最近的一次谈话中表示:“AI的成功创建,将是人类历史上最大的事件。不幸的是,它也可能是最后一个历史事件。”或许,警惕人工智能毁灭人类将成为未来技术发展的又一个新战场。
但是也有相当数量的科学家对人工智能的发展前景十分看好。百度首席科学家吴恩达坚信能用人工智能建设一个更好的社会,就如工业革命将人类从大量的体力苦工中解放出来。
此外,计算机科学家杰伦·拉尼尔认为:“算法是人类设计和搭建的,也反映出造物者的偏见,无论好坏,无论我们创造何种未来,都会是一个我们为自己设计和建造的未来。”