跟它下!没机会的!”
罗爽的表情比谁都Yin戾。如果世上存在AlphaGo,围棋这项竞技将没有任何意义。他作为职业棋手,将很快被历史淘汰。
陈院长问程延清:“你怎么看?”
“他的棋风很像我。”程延清大言不惭道,“我还挺喜欢他的风格的。”
众人忍不住一齐嘘他,这个人不论何时都那么自大。
一直沉默的谢榆却说:“没错。不过AlphaGo和你风格相一致,完全是出于另外的原因。”
“什么原因?”
“我还不知道。”
谢榆面色凝重地盯着显示屏。他以为计算机的强大之处在庞大的计算能力,但是AlphaGo完全颠覆了他的观念。AlphaGo不是强算出来的,AlphaGo真的懂棋。比如说有一局序盘,它选择了日本棋手稳扎稳打的布局风格;有一局在对方纠缠不清的情况下选择脱先,弃小角而争腹地……这些在从前都是无法可想的。AlphaGo怎么可能学会人类的棋感与全局观呢?
看来,魏柯的人类卫冕之战,并不好打。
果不其然,第二天,乌镇传来消息,第一局以魏柯惨败告终。魏柯以非常保守的下法,与AlphaGo进行接触式作战,结果被AlphaGo在中后盘吊打。要知道,中后盘原本是魏柯的主场。他的搅功和官子功夫曾让他无数次转危为安,而这两者靠的都是计算力。比照一秒可以进行上亿次计算的AlphaGo,魏柯自然没有任何胜算。
消息传到中国棋院的时候,所有人都像是霜打了个茄子似的。唇亡齿寒,兔死狐悲,这下连罗爽也高兴不起来。只有谢榆一人默默坐在研究室里,快速翻看着几个G的资料,时不时浏览群里的聊天记录。他委托中国棋院发动了一切可以调动的资源和人脉,四处搜集AlphaGo的信息,然后与计算机领域的大牛们讨论分析。可以说,今天的结果,他完全已经预料到了。
按照传统,计算机的长处应该在计算。而围棋,恰恰是不可能被暴力计算的领域。围棋的很多概念都无法被量化,厚薄、争先、取势……这种东西,电脑怎么去理解?!谢榆的本职是个码农,虽然不务正业,但凭他对计算机和围棋两个领域的了解,他曾经尝试过围棋AI的编码,所以他非常清楚这些概念是无法被量化的。此前出现的AI也一直印证着他的猜想,直到AlphaGo。
他敢肯定,AlphaGo的计算方式产生了相当大的变化!AlphaGo不是以计算机的惯性在运行,它完全是人脑的思维方式!
“他们在蒙特卡洛树搜索上加装了什么?”谢榆一目十行地扫过屏幕上的代码。
蒙特卡洛树搜索,是围棋AI的基本解决框架。围棋AI每一步都选择若干种落子,然后在电脑中模拟到终局,进行数子,最终选择胜率最高的那一步棋。因为计算量太大,AI只能给出一个近似最优解,并非全枚举,在AlphaGo之前AI因此也只能达到业余五级的水准。
这依旧是一个计算的范畴,而职业棋士很多时候并不是单靠计算做出判断,像之前所说的全局观念,就是蒙特卡洛树搜索无法解决的问题。要让AI发挥出人脑的效果,到底靠的什么?
当天晚上,谢榆从美国的某个计算机大牛那里,获知了他想要的答案。
AlphaGo团队在蒙特卡洛树搜索上加装了策略网络和价值网络两个模块。
这两个模块让AlphaGo不是单纯地计算,而是深度学习、模仿人类!
策略网络,顾名思义是决策下一步走子。AlphaGo会检索KCS围棋服务器上所有真人在线对弈,进而判断:如果是人类棋手处于它当前的位置,他最有可能走哪一步?它只对那些解进行计算!然后,它就自我对弈上千万局,看看这一步是否真的是最优解!
遵循策略网络,蒙特卡洛树搜索的树宽将大量减少,但深度依旧存在。上千万局博弈,每一局都走到最后,依旧是可怕的计算量。
计算深度的减少用上了价值网络。它以AlphaGo产生的大量自我博弈作为样本,检索这种棋形在历史上的胜率,把好坏、优劣变成了一个概率问题!那么每一回,AlphaGo计算到一定深度就可以停下来,直接估算当前胜率!
经验的本质是概率,从本质上来说,以概率判断局面的AlphaGo,就是以“经验判断现状”的人类大脑运行模式!AlphaGo的走子,也完全遵循了人类棋手的思维历程——大量背谱,吸取经验,自我思考,判断局势……然后估算其后若干步的棋局导向!
只是这个棋手,等于千百年来千千万万个棋手的经验总和,并且,完全不会出错罢了。
第二天,乌镇再传出消息:魏柯第二局,依旧惨败!
魏柯意识到细棋是没有机会的,一开始就主动展开攻势,趁着布局阶段想要对AlphaGo进行压制。他意识到AlphaGo非常有经验,尝试用怪