因此,近期,人工智能研究人员逐渐将视频游戏作为人工智能基准也就不足为奇了。研究人员,比如我自己,已经采用了许多电子游戏作为人工智能基准。我们已经组织过多次竞赛,比赛中,研究人员可以提交他们最棒的游戏人工智能(game-playingAI),通过与其他研究人员最好人工智能竞争,测试自己作品的水平;基于同一款游戏反复竞赛能够让参赛者们精炼自己的研究的进路和方法,以期来年获胜。这些用来测试的游戏有超级玛丽,星际(论文),TORCS赛车游戏(论文),MsPac-Man(论文),一款街头霸王类的格斗游戏(agenericStreetFighter-stylefigthinggame)(论文),愤怒的小鸟(论文),UnrealTournament(论文)和其他等。几乎在所有比赛中,我们都发现每次比赛中,获胜人工智能玩家的表现都有提高。在促进圈内研究方面,这些竞赛也发挥了重要作用,每年发表了许多论文,竞赛软件也被用来作为一些新人工智能方法基准。因此,我们通过游戏竞赛来推进人工智能。
刚才的描述中有个问题,你能指出来吗?
就是那个。游戏特殊性。问题在于,提高人工智能玩家玩某款特定游戏的表现,并不必然有助于我们从总体上提升人工智能水平。事实是,在上述绝大多数以游戏为基础的比赛中,我们已经看到,参赛人工智能每次表现都更好了。但是,在绝大多数情况下,表现的提高并不是因为改善了人工智能算法,而是因为针对某些具体问题使用这些算法的方式更加聪明了。有时,这意味着人工智能的角色更加边缘化。比如,在第一年的赛车比赛中,几乎都是采用演化算法训练神经网络,让汽车跑在赛道上的人工智能。后来,大多数最好的参赛者使用了手动的「笨」方法让车跑在赛道上,但是使用了学习算法学习轨道的形状,调整行驶。这是一个解决特殊工程问题的聪明方法,但是,几乎没有一般智能方面的建树。
为了确定这种竞赛是在测试接近人工智能的对象,我们需要重塑问题。为此,定义我们试图测量的对象——一般智能(generalintelligence)——是个不错的主意。ShaneLegg与MarcusHutter提出了一个非常有用的关于智能的定义,大致就是一个代理(agent)在所有可能问题上的平均成绩。(在它们的最初方程中,每个对平均成绩有贡献的问题都会依据其简易性而被赋予权重,但是,让我们暂时忽略这一点)。很显然,在所有可能的问题上测试人工智能并不可能,因为问题是无限的。但是,也许我们可以用大量不同的问题来测试人工智能。例如,用大量不同的电子游戏?
想到的第一件事就是利用现有的一堆游戏机游戏,最好是能轻易模拟且能加速到实时速度许多倍的游戏,并搭建一个以此为基准的人工智能。这就是ArcadeLearningEnvironment(ALE)所做的事情。ALE可以让你在一百多个上世纪七十年代为复古雅达利2600游戏机发布的游戏上测试你的人工智能。人工智能代以像素级别来认识屏幕,必须用操纵杆来回答。ALE被用于大量实验,包括框架的最初研发人员做的实验。也许,最著名的就是谷歌DeepMind在《Nature》上所发表的一篇论文,介绍了他们如何利用深度学习这样非凡的技能来学习不同游戏(基于深层卷积神经网络的Q型学习)。
ALE是一个很好的人工智能基准,但是,有一个致命的局限性。利用Atari2600电子游戏的问题在于,游戏数量是有限的,而且研发新游戏是一个麻烦的过程。Atari2600编程之难,臭名昭著,而且游戏机的硬件局限性也妨碍了可加使用的游戏类别。更重要的是,既有游戏全部都是家喻户晓的,每个人也可以弄得到。这就有可能针对每一个特定游戏来调适你的人工智能。不仅可以针对每个游戏训练你的人工智能(DeepMind取得的成果就是靠每种游戏玩上成千上万次来训练系统),还可以为了在将要训练的游戏上表现更好,调适整个系统。
<上一页 1 2 3 4 5 6 下一页> 余下全文