返回列表 发帖

计算机处理围棋复杂的能力压倒了人类

风云学会陈经  原创  2017-10-01 10:24:38

陈经

2017年7月30日


(本文其实是一篇期刊论文,发表在中国物理学会 《物理》杂志2017年第9期。中国物理学会将参考文献去掉后,在​中国物理学会期刊网公众号发表:计算机处理围棋复杂的能力压倒了人类)

计算机处理围棋复杂的能力压倒了人类:AlphaGo技术原理分析​



1 计算机围棋战胜人类的过程

2015 年11 月,“美林谷杯”首届世界计算机围棋锦标赛在北京举办,连笑七段(现八段,名人、天元)与获得冠军的韩国程序Dolbram 进行指导对局。连笑让四子轻松获胜,局中Dolbram 还犯了可笑的错误,执着地耗费大量劫材反复提劫想吃一块连环劫净活的棋(图1)。Dolbram 受让五子也输了,直到受让六子才战胜了连笑。


图1 看到计算机被连环劫迷惑,连笑七段在对局中笑得很开心



​围棋中让五子大约有超过50 目的巨大起始优势,程序却还是输了,职业棋手们认为程序实力非常一般。围棋程序还明显有各类“bug”,出现的愚蠢招法连业余棋手都不如。这种情况下,围棋界难以对计算机围棋的实力给出太高评价。

围棋界并非不知道AI已经在国际象棋上战胜了人类。但棋手们以及围棋算法开发者们公认,与围棋相比,国际象棋的变化还是过于简单了。对围棋局面数量的简单估算是3361种(19×19 个位置每处3 种状态),但由于无气的棋子会被提吃,很多局面是不合法的。普林斯顿的研究人员动用超级计算机,算出19×19 格围棋的精确合法局面数为208168199381979984699478633344862770286522453884530548425639456820927419612738015378525648451698519643907259916015628128546089888314427129715319317557736620397247064840935,这是一个171 位的数字。国际象棋的局面数约为1046,因此从局面数来说围棋比国际象棋要复杂得多。对围棋艺术更熟悉的人会知道,围棋的复杂并非只靠状态空间大,而是有“非线性”、“非平凡”的艺术性:棋子位置稍有不同局势就可能倒转,选点不多的局部死活正确行棋次序需要精妙的逻辑推理,人类数千年实践积累出并仍在发展的“棋理”(如围棋十诀)富有哲学与人文含义。

棋手们相信,面对计算机,围棋的复杂是人类的朋友。这种复杂让计算机算法举步维艰,既难以突破搜索空间的限制,又无法用代码实现人类含义模糊且数量众多的“棋理”。而人类用理解力的优势,建立棋形、大龙、厚势等概念,以此为基础展开逻辑推理,甚至有“手割”这样的高级分析逻辑。而且人类高手还有优秀的直觉,绕过庞大的推理树,直接产生高质量的局面候选点。对计算机有所了解的棋手认为,计算机可能在局部计算上利用穷举死算的威力占得上风,但在更高级的全局思维与棋理上弱于人类,从而因“境界”的差距而毫无机会。

应该如何下围棋,人类有很多知识与教育传承体系。网络出现后,高手们互相对局的机会极大增加,成长为顶尖高手需要的时间缩短,少年高手层出不穷。与前辈相比,棋手们的整体实力和顶尖选手的绝对棋力都有上升。在法国研究者Remi Coulom 开发的等级分系统中(媒体称为Gorating 等级分),就在连笑大胜Dolbram 的2015年11 月,年仅18 岁的柯洁冲到了3640 分,这是从未有棋手到过的高度。

但就在之前Deepmind 的AlphaGo 开发团队刚刚取得了重要突破。在2015 年10 月5—9 日的秘密对局中,AlphaGo 在正式慢棋比赛里以5:0 战胜了欧洲冠军樊麾二段(非正式快棋3:2)(图2)。Deepmind 估计,此时的AlphaGo 的Gorating 等级分约为3150 分,已经具有职业实力,但离世界第一柯洁仍有不小差距。


图2 输给AlphaGo之后,樊麾二段难以置信



​对AlphaGo 棋力提升速度极具信心的谷歌公司选择了李世石作为围棋人机大战的对手,并为此提供了围棋史上最高的100 万美元奖金,让这次大战瞬间成为焦点。李世石是过去10 年获得世界冠军数最多的选手,此时年已32 岁不在巅峰状态但仍然极具实力,2015 年11 月 Gorating 等级分3540 排名世界第三。接到邀请后,李世石几乎没有考虑,没提任何条件就接受了。

2016 年1 月28 日,Deepmind里程碑式的论文在《自然》出版,与樊麾的五盘正式棋谱也公布了,3 月与李世石的人机大战计划也提出了。棋界为之兴奋,围棋的世界影响力显然会极大扩张。棋谱中AlphaGo 的实力虽然让人印象深刻,但离职业顶尖还有距离,令人羡慕的百万美元丰厚奖金肯定会归李世石。樊麾的职业段位是在中国获得的,但是面对AI 发挥如此差劲,可以怀疑他在欧洲时间太长已经没有职业水平。整个棋界对AI 的实力没有警惕,虽然科技界有些人预测机器将5:0获胜,但被认为是不懂围棋的外行话。

2016 年3 月9—15 日的五盘围棋人机大战的成功超乎想象。围棋AI 战胜人类顶尖棋手这一事件席卷全球,影响力远远超出了围棋界与科技界,直接引爆了历史上最火热的一次人工智能热潮。AlphaGo 以4:1 胜出,让人们看到了人工智能的无限潜能。当AlphaGo 在第三局以毁灭性的方式碾压李世石之后,围棋界陷入了无比的震惊与压抑之中。如同科幻小说《三体》中对战胜三体星人信心满满的地球人,却被对手一颗小探测器摧毁了主力舰队。而李世石第四局出人意料获得了宝贵一胜,揭示了AlphaGo 仍然存在算法缺陷,为人类反击留存了希望,将这次人机大战推向了最高潮(图3)。


图3 李世石第四局第78 手下出神之一手击中AlphaGo算法缺陷的瞬间



​整个比赛李世石其实有机会获胜。赛前Deepmind 就知道AlphaGo 存在缺陷,因此对棋谱严格保密,仅公布了对樊麾的五局胜局棋谱。如果李世石知道这个缺陷的触发原理,主动将局势导向开放空间的接触混战,将有机会多胜几局从而获得比赛的胜利。如果李世石有警惕性,事先要求Deepmind 提供几局AlphaGo 的败局棋谱,找到这个缺陷并不困难。此时的AlphaGo 能够被后续版本让三子击败,说明存在严重缺陷,被抓住缺陷时实力会严重下降。

由于有论文与实战表现,AlphaGo 的棋力是可以深入理解的。这次精彩的人机大战让人们信服,围棋AI 从算法原理与工程实践上,有能力战胜人类最顶尖棋手。另一方面,棋手们与研究者认为,面对围棋的复杂性,围棋AI 仍然存在难于消除的内在算法缺陷。让棋手们震惊与意外的是,计算机强大的恰好是人类自豪的全局思维与境界,而出现问题的反而是人们认为计算机应该强大的局部计算。科技界的狂野预测成功了,但事情似乎更有趣一些,围棋也展示了它的复杂。

无论如何,AlphaGo 已经展示了不一样的围棋观念,让人们知道围棋是自由的,一些人类的“棋理”只不过是自以为是的错觉。对围棋熟悉的人,会明白AlphaGo 第二局第37 手在五路尖冲是一件多么震憾的事(图4)。AlphaGo 出现之前,棋界由于思想禁锢以及竞技性的原因,布局单调重复,精彩程度下降,有走入误区的趋势。AlphaGo 的横空出世,预示着一次新的围棋革命即将发生。


图4 AlphaGo 对李世石第二局,第37 手极具震憾力地在五路尖冲



2016 年11 月7 日,Deepmind 宣布AlphaGo 又取得了巨大进步,将于2017 年初复出下棋。人们普遍推测这是与柯洁的第二次人机大战,但后来的情况再次让棋界出乎预料,而且出场表演的AI不止AlphaGo一个。

2016 年11 月,腾讯参考Deepmind 论文开发的围棋AI“绝艺”取得了重大突破,开始在网络对弈平台野狐围棋上挑战顶尖高手,并在20 s、30 s 快棋中战胜了柯洁、朴廷桓等顶尖高手。日本老牌程序Zen 升级为DeepZenGo 初步具备职业实力之后,2016 年12 月29 日开始在弈城围棋网上与职业和业余高手密集测试。绝艺对顶尖职业的战绩要好于DeepZenGo,但是二者都显现出了AI 的特点:大局观占优,局部计算会出现各种问题。棋手们也总结了一些对付AI 的招法,如柯洁介绍的经验:做大模样,等它打入进来犯错。

几乎与 DeepZenGo 同时,升级后的 AlphaGo 以 Master 为名在网络上与顶尖棋手们进行了5 天60 局测试,并获得了全胜。虽然20 s、30 s 的快棋不利于人类棋手发挥实力,但是绝大多数棋局人类棋手早早就陷入必败局势,这昭示了双方实力的巨大差距。高手们更看重的是Master 远超绝艺与DeepZenGo 的创新能力,开盘点三三这类让棋手们震惊的创新很多。AlphaGo-Lee 版本下的基本还是人类棋手熟悉的招法,只是大局观偶尔带来震惊。而Master 下的是另一种围棋,从开局就展示了不一样的围棋观念。

剩下的悬念是,60 局中Master 由于早早领先而没有面对复杂的局面,人类棋手在慢棋中有没有机会制造复杂?AlphaGo 面对复杂会不会出现计算错误?实力不断进步的绝艺与 DeepZenGo 在网络与正式比赛中与人类棋手多次对局,似乎为此提供了一些有利证据:人类棋手在慢棋中确实有机会等到AI的漏洞而获胜。

这个悬念在2017 年5 月23—27 日AlphaGo 与柯洁的三盘人机大战后终结了:柯洁有能力制造复杂局面,AlphaGo 有能力应对复杂局面,处理复杂局面的能力超过人类想象。

第二局柯洁表现非常好,Deepmind 负责人哈萨比斯在局中两次根据后台数据公开称赞。至119 时,黑白双方共有多达9 块棋没有安定搅杀在一起,还有天下大劫要开,之前从未有棋手面对Master 实现这种局面(图5)。局中柯洁本人与一些职业棋手、棋迷都感觉有机会了,情绪激动。但是这个局面AlphaGo 还是完美地应对下来了,柯洁开劫出现误算迅速失败。


图5 第二局柯洁执白对AlphaGo时的复杂局面



​赛后Deepmind 公布了AlphaGo 的50 局自战谱,2017 年7 月又在围棋TV公布了另外5 局自战的详解。这些自战谱对抗非常激烈,复杂的局面很多。冷静下来的棋手们认识到,也许柯洁在第二局的“机会”只是一种错觉,局势还在AlphaGo的控制之中。

围棋确实比国际象棋复杂得多,但现在情势倒转过来了。围棋的复杂在之前让人类遥遥领先于AI,然而一旦算法取得突破,遥遥领先的迅速变成了AI。人类还有希望和国际象棋AI 下和,但围棋复杂的局面远远超过了人的能力,即使最顶尖高手可能也得接受被AI 打到让二子的苦涩结果。与AI 进行极限对局需要的计算量,是人类大脑承受不了的,双方就像跑车与博尔特一样,不是合适的对手。与柯洁赛后,Deepmind 宣布AlphaGo退役可以理解,与人类的分先对局已没有意义。在围棋上,人类败于计算机虽然比国际象棋晚了一段时间,但败得更彻底,差距要大得多。

AlphaGo 的自战谱让人们认识到,它与自己对战时才需要拿出全部本领,已经不是在用人的方法来下棋了。双方差距极其接近、每步背后都有极多计算、步步紧绷的极限对弈方式,棋手们连理解都有困难,自己上场跟不了多少步就会犯错脱轨败阵。柯洁一开始对围棋AI 的实力并不信服,但通过实战仔细体会AI 的棋力之后,柯洁认为,“人类数千年的围棋都是错的,甚至没有一个人沾到围棋真理的边”,“围棋没有什么不可能”。与AlphaGo的三局大战后,柯洁仿佛得到了境界提升,对多位世界冠军在内的人类对手22 连胜(2017 年7 月19 日才被时越九段终结),Gorating等级分最高冲到了3681,并在网络上让二子与职业低段对局胜多负少。

AlphaGo-Ke 能100%战胜Master 版本, 能让三子战胜AlphaGo-Lee,由于Deepmind 仍未公布详细论文,这种让人难以置信的实力进步尚只能从算法原理上作出一些推测。本文将在第二节介绍围棋AI 算法的主要技术,对围棋AI 处理围棋复杂的能力为何超过了人类作出技术解释。

2 围棋AI的主要技术介绍

图6 中的3 人是AlphaGo团队的核心成员。哈萨比斯创立了Deepmind公司,认为机器可以通过自我对弈解决一切完全信息博弈问题。席尔瓦的算法天才对AlphaGo 的强大至为关键,有多种算法创新。黄世杰在人机大战时代替机器落子,他对围棋AI开发多年的积累作用很大。


图6 AlphaGo团队负责人德米什·哈萨比斯,以及两位核心算法研究者大卫·席尔瓦与黄世杰



​国际象棋与围棋一局的步数与每步的选择都很多,搜索树极大。将棋局展开一定的步数,对展开的局面建立局面评估函数,代替之后的搜索。这个剪枝非常有效,让深蓝在国际象棋上战胜了人类。席尔瓦与黄世杰十多年前开始开发围棋AI 时就知道,这个方法对围棋行不通,搜索太复杂,评估函数也很难建立。早期围棋AI 的代表是中山大学教授陈志行退休后开发的“手谈”,曾连续6 次获得计算机围棋世界冠军,但棋力不高,连业余初段都达不到。

取得突破的是“蒙特卡罗树形搜索” (Monto-Carlo Tree Search,MCTS),早期代表程序是Coulom开发的CrazyStone。想象从一个围棋局面展开一个深度为d 的搜索树,派多只蚂蚁从根节点随机选择分支往下爬。爬到叶子节点时,就一人一手直接下完(rollout)终局数子给出结果,胜蚂蚁活,负蚂蚁死。时间到了,就统计蚂蚁的死活,活蚂蚁最多的分支就是当前的行棋选择。这个框架绕开困难的局面评估函数,而是直接精确计算终局胜负,海量模拟至终局用获胜概率代替局面评估。AlphaGo 以及其他围棋AI 局中不断报告的“ 胜率”, 就是指MCTS 中的模拟胜率。每个推荐选点都会给出对应胜率,不同选点的胜率接近,可以随机选择一个,所以围棋AI 自我对弈或者与人对弈并不会重复局面。

随着AlphaGo 的新闻效应,很多人也知道了MCTS。但是单纯的MCTS作用不大。CrazyStone和MoGo 等程序取得棋力突破,是应用了MCTS加上UCB(Upper Confidence Bound)公式的UCT方法,选择搜索分支时有了很强的针对性,不将算力浪费在无意义的分支上。UCT使得MCTS在有希望的分支上扩展步数超过之前的d,增强了搜索能力。理论证明,只要模拟次数够多,概率结果就会逼近真实搜索结果。概率搜索可以随时停下给出当前结果,方便围棋AI 的时间控制:快速停下来给出一个过得去的结果,具备快棋能力的AI 更受棋界欢迎。AlphaGo 并非凭空产生,也应用了MCTS与UCT。

大的框架有了,程序细节就更为关键,例如rollout 策略对棋力非常关键。MCTS 的后期代表程序是Zen,在行棋细节上作出了很大改进。虽然在UEC 杯接受职业棋手指导时还要被让3—5子,但在2011 年前后,Zen 已能战胜一般业余棋迷,进步让人印象深刻。这时的高水平围棋AI 还会犯一些愚蠢的错误,但已经展示了一个很大的优势:大局观很好。依靠MCTS 天生的全局思维,围棋AI 的大局观已经超过了一些布局不好的职业棋手。这是围棋AI 首次在一个环节上可以与职业棋手对抗,战胜人类有了初步的希望。但这个进展未被棋界承认或重视,因为AI 由于局部计算问题,整体实力仍不高。

AlphaGo 的另一个基础技术是深度学习。在图像领域深度学习逐渐成熟,近年来不断取得重大突破。将棋局理解成19×19 的图片,用多层卷积神经网络去处理它获得局面特征,再用大量人类棋局对它进行深度学习训练,是自然的想法。Facebook 的田渊栋开发的Darkforest就用了这个想法,神经网络对于当前局面直接给出与人类高手差不多的少数高质量候选点,等于建模了高手的直觉,AlphaGo 团队称之为“策略网络”。这是出乎预料的革命性进步,顶尖棋手们自以为的直觉优势就这样被攻破了。训练需要数以十万计的高水平对局棋谱,网络围棋已经兴起多年解决了这个问题。利用深度学习,Darkforest 只用很短的开发时间,实力就追上了有多年开发积累的Zen。深度学习出现之前,开发围棋AI 是很麻烦的事,如何利用棋形产生分支预选,需要艰苦的程序开发。策略网络出现之后,很多人轻易就能训练出一个能走棋的程序,围棋AI 的数量大大增加。

哈萨比斯有一个关键性的想法:机器通过自己玩游戏强化学习,能够超过人类。Deepmind 之前已经在Atari 游戏上取得了突破,机器海量玩小游戏,根据结果改善自己的神经网络系数,重复这个过程就能达到极高的游戏水平。美妙的是,这个过程不需要人工干预,只要让机器自己玩。

各种条件逐渐成熟,进入2015 年,围棋AI显然要大幅进步了。但与人类顶尖的差距仍然巨大,研究者普遍认为要取得真正的突破仍很困难。Deepmind 三人组与众不同的是想象力,他们相信破解围棋的条件已经具备了,最终取得的突破也超乎想象:AlphaGo 不仅能战胜人类顶尖,而且远远抛离人类发起了围棋革命,建立了自己的境界。挑战围棋的复杂需要勇气,回报也就异常丰厚。

之前研发者用于围棋的资源一直不多,往往是一两个人的个人项目。引入深度学习训练后,硬件资源也很关键。AlphaGo 约20 人的开发团队是史无前例的,再加上谷歌公司的海量硬件平台,一切终于不一样了。路径看上去已经有了,学习人类棋谱,让计算机学会高手的直觉产生候选点,再用MCTS模拟出各选点的胜率,让机器海量自我对弈,根据结果自动改进相关环节的系数。

席尔瓦产生了一个真正疯狂的想法,甚至连黄世杰也不认为能成功,那就是价值网络。围棋的局面评估长久以来就特别困难,甚至人类高手也经常意见不一。建立一个多层神经网络,用几百兆系数去做这件事,看上去很离奇。准备训练样本需要上千万独立的高水平棋局,这的确很疯狂。但是动用数十万服务器让AlphaGo 自我对弈产生2000 万棋局后,这个价值网络居然训练成功了。

AlphaGo 团队建立了MCTS框架,用13 层的策略网络产生局面选点的概率,并用这个概率来引导MCTS进行局面分支,在叶子节点通过架构类似的价值网络直接给出胜率,再用一个快速策略网络从叶子节点下至终局数子给出胜负,与价值网络的胜率综合考虑。这就是AlphaGo 下棋依赖的软件架构,下棋决策过程如图7 所示。硬件上也需要相当的算力支持,卷积神经网络的计算就要多块GPU加速。这个架构还可以通过强化学习不断改进,机器自我对弈,根据结果改善策略网络、价值网络、快速策略网络等各处的系数。除了算法突破,AlphaGo 也需要工程实施,建立一个训练流水线,一切细节都需要做到极致不能有短板,能够战胜职业棋手的AlphaGo 才最终出现了。


​图7 AlphaGo 执黑对樊麾非正式对局时的一个局面,轮黑下。策略网络给出了各个选点的优先概率,价值网络给出了各选点的胜率(超过50% 才显示)。MCTS运行之后,各点的搜索量占比被统计出来。搜索完成后,AlphaGo 给出双方理论最佳后续应对次序,它假设对手和自己一样强大

2016 年3 月虽然战胜了李世石,但AlphaGo的开发要面对两个问题。一是面对复杂局面会出现“地平线效应”,机器胜率在短短几手间急剧崩溃, 原因是对低概率选点计算不足产生错觉,发现时已经走错为时已晚,正如对李世石第四局呈现的。二是机器自我对局提升碰到了瓶颈,发生过拟合,再怎么训练棋力也改进不大。

Deepmind再次作出了重大改进,突破了瓶颈。两个问题都得到了解决,并且产生了棋艺上的重大影响:AlphaGo变得富于创新,真正开启了围棋革命。棋力也再次取得了重大进步,AlphaGo-Ke可以让AlphaGo-Lee 三个子,这是让职业棋手难以置信的差距。这次改进意义极大,但细节有待公布。现在知道的是,Deepmind 将策略网络与价值网络层数提高到了40 层,大大增加了层数。并且AlphaGo的强化学习大大改进了,用对抗性学习(Adversarial Learning)的思想引入了Anti-AlphaGo 去发现自己的弱点。对于价值网络与策略网络的改进,也巧妙地利用了一个简单的思想:MCTS各模块“火力全开”的搜索结果,应该优于策略网络直接给出的选择;MCTS搜索后给出的局面胜率,也应该优于价值网络直接给出的胜率,可以用MCTS的结果来作为策略网络与价值网络的训练改进目标,一局有多次训练的机会。这样学习过程加速了很多,以前从头开始训练出一个版本要三个月,改进后只需要一周。而Master 创新性招法的来源,是将强大的价值网络反过来帮助策略网络:有时价值网络觉得不错的点(如开局点三三),策略网络由于学习人类棋谱想象力受限,却没有考虑这些点(于是AlphaGo 就不下)。将这些点通过训练补回给策略网络, 经过MCTS成为最终选择,创新的招法就出现了。

这些改进,让AlphaGo 成为“复盘大师”,通过仔细琢磨自己的高水平对局不断进步。Deepmind 将“复盘”的过程自动化了,而人类棋谱只是起一个初始的作用,之后就没有学习的价值了(如策略网络不追求预测人类高手招法正确率),AlphaGo 改从自己的棋谱里学习新知识,人类棋谱的影响越来越小。一个设想是从真正零知识的随机走子策略开始自我提升,这将是彻底脱离人类影响的版本。但这种版本Deepmind可能已经放弃了,原因或者是没有必要,或者是陷入局部陷阱无法训练成功。

3 展望人工智能对围棋与人类社会的影响

围棋AI 自我对局数量极多,绝艺就超过30亿局,质量还高于人类。机器的围棋世界,无论对局数量和质量,都远远超过了人类有史以来的围棋世界。

AlphaGo 说明,人类数千年来形成的围棋观念真可能是错的,需要重新学习。如何学习还不清楚,简单模仿AlphaGo 的下法却没有对应的计算能力是不行的。棋手们已经做出了尝试,对局自由开放了很多,这无疑是好事。人类永远无法像AlphaGo 那样依靠胜率计算下棋,没有人可以海量模拟至终局,双方各有各的下棋方式。围棋AI 学习了人类高手的直觉,训练出了策略网络,学习自己的棋谱训练出了价值网络。如果有大量高水平的AI 棋谱,甚至AI 给出的后台数据,人类棋手也可以开始反向的学习过程。学习AI 棋谱,提升人脑中类似“策略网络”的直觉能力,甚至产生“价值网络”提高局面评估准确性。被AI战胜以后,国际象棋选手们通过AI训练水平提升很快,职业水平的棋手数量翻了多倍。也许AI能帮助围棋普及到全球,顶尖高手不再只有东方人。

即使AlphaGo 不再下棋,它更多的技术细节公布以后,中国的绝艺、日本的DeepZenGo 的水平也会迅速提高,而且会与顶尖职业紧密互动。人类围棋的革命必然发生。由于生理条件的限制,人类无法达到AI 的水平,但是缩小与AI 的差距应该是可行的目标。如尝试让二子战胜AlphaGo 水平的AI,将差距拉近到让先。有了AI,围棋比过去更为精彩,不需要为失去傲慢的理由而悲叹。

围棋AI 作为弱人工智能,只是在机械地执行算法,没有理解力。AlphaGo 不知道自己下的棋局有多精彩,作出的创新有多伟大。这种精彩与伟大需要人类高手来解读,双方共同探索围棋的奥秘。

这也是现阶段人工智能对人类社会的意义,为人类社会提供新类型的工具。职业高手们真正对手不是AlphaGo,而是创造AlphaGo 的Deepmind开发团队。各行各业用传统思维工作的人,将被用算法思维的人挑战。人类社会应该学习新的思维,去适应被人工智能改造的社会。

围棋虽然复杂,但只是“完全信息博弈”问题中最难的一个。而人类解决问题的长处是在非完全信息的领域,以及通用的横跨多个行业举一反三的能力。即使对于围棋这样一个定义明确的单一问题,AI开发也需要谷歌、腾讯等IT 大公司的支持才能达到极高水平。虽然围棋AI 取得突破后迅速超越了人类,但开发出高水平的人工智能并不简单,需要海量的资源,现在也没有几个围棋AI 达到职业水平。高水平人工智能开发的难度不宜低估。
附件: 您需要登录才可以下载或查看附件。没有帐号?注册

返回列表