虽然不如初行完善,但是官子肯定是没问题的。想你们今天这盘棋下到220手才分胜负。实际上170手之后的最后50手,如果双方都是机器人,结果肯定是下多少遍都不会变的,而且只要15分钟就能下完那50步。”
正常人类下围棋,最后50手双方加起来怎么也要1个多小时,而机器人15分钟搞定,相当于起码可以比人类下棋节约1个钟头的总比赛时间。
这些时间就可以更好地分配到前面的步骤中去,每人多半小时思考。
至于第二天具体李世石走到多少步之后彻底双放手交给阿尔法go,李世石准备吃完饭稍微和阿尔法狗试几个150手左右的中盘残局——从他本人历史上和对手下的比较胶着的棋局中挑——来试试看阿尔法go的水准。
“另外,阿尔法go在布局阶段也谈不上什么能力,只能是给你一些参考定式,你看了之后挑出其中最好的一个结果就行——我们只能保证,最好的结果肯定在那个八屏选项之内,但是具体是哪一个,阿尔法go判断不出。”
“阿尔法go也有做‘价值判断网络’这个工具,到时候在给出机器意见之后,会在屏幕上打出一个判断,告诉你‘这一步是绝对不可能有更好的解法’了,还是‘机器也不知道谁最好,只是没时间想暂时觉得这个最好’。所以那些机器肯拍胸脯告诉你这就是最佳答案的步骤,你也可以省掉一些思考时间。”
李世石听到这儿,停下了筷子,亲口向黄教授确认了这玩意儿的运作法则。
黄教授也不藏私,坦荡地告诉他:阿尔法go里面其实是有两套走子算法的,第一套是绝对穷尽最佳可能性的算法,但是耗时非常巨大。哪怕以如今谷歌的云端服务器群和积累的棋局大数据,也要很久才能算一步棋。
毕竟,围棋是如今人类传统棋类运动中,计算量最大的。围棋的可能性相比于国际象棋和象棋,根本就是一个天文数字。
所以,阿尔法go的深度学习,主要还体现在一点上:发现算法一会严重超时的时候,它会做出一个省时的判断
本章未完,请点击"下一页"继续阅读! 第2页 / 共6页