谷歌AlphaGo曾因击败众多著名围棋选手而名声大噪,近日谷歌旗下的人工智能实验室DeepMind宣布,AlphaGo再次获得了显著的提升,并重新编程为一种名为AlphaGo Zero的AI程序。谷歌推广小编带大家一同了解AlphaGo的新发展。
DeepMind首席执行官德米斯·哈比斯(Demis Hassabis)表示,AlphaGo Zero变得更加强大了。围棋是一款简单却又复杂的游戏,尽管它的规则不多,但每一步棋都能有很多可能的走法,这样的可能性远远比宇宙中的原子数量还要多得多。
尽管AlphaGo给人留下了深刻的印象,但是它依然无法和AlphaGo Zero媲美。哈比斯表示,几天的时间内,AlphaGo Zero就获得了人类数千年积累的知识,还发现了新的知识、围棋策略和创新的棋路。
AlphaGo需要吸收人类数据学习如何下围棋,而AlphaGo Zero则不需要,它不需要使用任何人类棋手的数据,并且和自己对弈就学会了如何下围棋。相比之下,AlphaGo AI还需要观看人类比赛,被告知人类棋手在某些位置上的特定动作等。
DeepMind AlphaGo项目首席研究员大卫·西尔弗(David Silver)解释了AlphaGo Zero是如何从零开始学习的。他说:“AlphaGo Zero使用了一种新的强化学习形式,在这一过程中,它成为了自己的老师。我们的想法是,它的起点是一个对围棋一无所知的神经网络,它会与自己进行数千场对弈。它所走的每一步棋就是把这个神经网络与强大的搜索算法结合起来,然后用它来选择下一个动作。”
AlphaGo Zero使用的计算能力比之前的AlphaGo少,这也说明算法的进步远比计算能力和数据能力进步重要得多。人类数据太过昂贵或者很难获取,这严重影响了AI的研究进程,因此AlphaGo Zero更凸显其重要性,为DeepMind的研究赢得了更大的声誉。
DeepMind如今正在研究如何将与AlphaGo Zero相同的算法应用到真正的科学挑战中,具体比如蛋白质折叠、降低能耗、寻找新材料或发现新药等。哈比斯表示:“我们正在努力建立通用学习算法,而这只是向前迈出的一步,但它的确令人感到兴奋不已。AlphaGo团队许多成员现在正在开发其他项目,并试图将这项技术应用到其他领域。”