李世石 alphago 棋谱zero 怎样能下这么多盘棋

AlphaGo据说能每天自己和自己下很多盘棋, 为什么实战那么慢? - 生活_【北京联盟】
AlphaGo据说能每天自己和自己下很多盘棋, 为什么实战那么慢?
/ 作者:admin
北京联盟摘要:
AlphaGo据说能每天自己和自己下很多盘棋, 为什么实战那么慢?,上一篇:
下一篇: 。是两种策略不同吗? ~~~~~~~~~~~~~~~~~~~~~~~~~~~~ 网友回复:
是两种策略不同吗? ~~~~~~~~~~~~~~~~~~~~~~~~~~~~网友回复:
AlphaGo据说能每天自己和自己下很多盘棋, 为什么实战那么慢?
免责声明:本站文章除注明来源“北京联盟”外的文章均来自网络和网友投稿,著作权归原作者所有。北京联盟不承担任何连带责任!无所不能 健康点 运动家
分享到微信朋友圈
AlphaGo在围棋界“孤独求败”,Deepmind再出新一代机器人
日,乌镇,2017AlphagoVs柯洁大赛。图/视觉中国
  撰文 | 李家劲(加州大学洛杉矶分校)
  又“进化”了!新一代机器人AlphaGo Zero诞生,在围棋领域,它会不会感到孤独?
  本周,Nature杂志报道了英国DeepMind团队的最新进展:他们开发出了新一代的围棋AI——AlphaGo Zero。AlphaGo Zero使用强化学习技术(Reinforcement Learning),大幅提升了棋力。它现在能够以更少的计算资源,轻松击败曾经战胜世界冠军李世石、柯洁的AlphaGo前代版本。
  AlphaGo Zero与之前版本最大的区别在于,AlphaGo Zero从随机对局开始,通过自我对弈来提升自己的棋艺,从不依靠任何人类的监督或对局数据。而在以往版本中,AlphaGo都是使用业余和专业人类棋手的对局数据来训练自己。虽然使用人类棋手的数据可以让AI学习到人类的围棋技巧,但是人类专家的数据通常难以获得且很昂贵。此外,即使是专业棋手,也难免会有失误,而使用错误的训练数据可能会降低AlphaGo的棋力。况且,仅仅使用人类数据会让AI局限于人类的围棋知识。
AlphaGo Zero的自我强化学习,图片来自Nature
  更重要的是,AlphaGo在围棋界已是“独孤求败”的境界,所以,要突破自己的界限,甚至围棋知识的界限,显然只有AlphaGo自己才能做自己的老师。
  张峥(上海纽约大学终身教授、国家千人计划特聘专家):
  从算法上来说,AlphaGo Zero更简洁、漂亮,让我想起爱因斯坦的KISS原则:simple but not simpler。这一次,AI在人类的帮助下,在一个给定的规则下,自主发现新知识,并且纠正人类的错误知识,而且以惊人的速度达到这一点。有趣的是,AlphaGo无法解释,只能demo给人类。在这个特定的小领域,人类和人工智能一起创造了新知识。
  经过几百万盘的自我博弈后,AlphaGo Zero进步明显,不仅棋力大幅增强,运算速度也提升了不少。在100盘对局中,仅使用1台机器、4个TPU的AlphaGo Zero对使用多台机器、48个TPU的AlphaGo Lee取得全胜,后者曾经击败韩国名将李世石。在同样配置下,AlphaGo Zero对AlphaGo Master取得89胜11负的压倒性优势,后者就是2017年1月在顶级围棋在线对战平台上取得60战60胜的神秘选手Master。而且,AlphaGo Zero训练了72小时就完胜AlphaGo Lee,仅用40天就超越了AlphaGo Master。这主要得益于DeepMind团队开发的新型强化学习技术。
  何为强化学习技术?简单来讲,强化学习使用一套奖励机制,让AI从中学习到能够获得最大回报的策略。AlphaGo Zero的强化学习主要包含两个部分,蒙特卡洛树搜索算法(Monte Carlo Tree Search,MCTS)与神经网络算法。其中,神经网络算法给出落子方案,以及预测当前形势下的胜方;MCTS算法可以看成是一个弈棋策略的评价和改进工具,它能够模拟出AlphaGo Zero落子在哪些地方可以获得更高的胜率。如果AlphaGo Zero从神经网络得出的下一手棋的走法越相似于MCTS算法输出的结果,则胜率越大,即所谓回报越高。如此,在每一着棋中,AlphaGo Zero都要优化神经网络中的参数,使其计算出的落子方案更接近MCTS算法的结果,同时尽量减少胜者预测的偏差。开始的时候,AlphaGo Zero的神经网络完全不了解围棋,只好盲目下棋。但经过日以继夜的“左右互搏”般的训练,无数盘对局后,AlphaGo Zero迅速从围棋小白成长为传奇棋神。
  除了改进人工智能技术外,DeepMind团队也希望能够通过AlphaGo项目获得对围棋更深的认识。他们发现,AlphaGo Zero仅仅自我对弈几十天就掌握了人类几百年来研究出来的围棋技术,而且棋路独特。例如,AlphaGo Zero很喜欢下出定石(围棋术语)的新型变种。这是因为它没有使用人类数据,不再囿于人类现有的围棋理论。
  “当前的最强版本,AlphaGo Zero向我们展示了即使不用人类的数据,即使使用更少的计算资源,也能够取得长足进步。最终我们想用这些技术进展去解决现实问题,如蛋白质折叠或者新材料设计。如果我们能够在这些问题上取得同样进展,这将会增进人类的认知,从而改善每个人的生活。”DeepMind的共同创办者兼CEO,Demis Hassabis如是说。
  参考资料
  Silver D. Mastering the game of Go without human knowledge. Nature. doi:10.1038/nature24270.
  作品来源:《知识分子》(微信公号:The-Intellectual)
  《知识分子》是由饶毅、鲁白、谢宇三位学者创办的移动新媒体平台,致力于关注科学、人文、思想
责任编辑:于达维 | 版面编辑:张翔宇
文章很值,赞赏激励一下赞 赏首席赞赏官虚位以待赞赏是一种态度1元3元6元12元50元108元其他金额金额(元):赞 赏
财新传媒版权所有。如需刊登转载请点击右侧按钮,提交相关信息。经确认即可刊登转载。
财新私房课
科技部发文称,国家重点研发计划“新能源汽车”重点专项支持的北京大学项目团队设计制备出一种高比容量的自体积适应性硅/碳负极材料,这一工作为开发能量密度达到400Wh/kg的锂离子电池奠定了基础。
碧桂园首家长租公寓最快将于今年年底在上海西虹桥地区亮相,明年一季度则有上海宝山店和南翔店的开出,3年内计划在上海开出10000间房。碧桂园上海区域总裁高斌透露,碧桂园希望做长租公寓的中高端产品,平均面积30-40平米之间。(21世纪经济报道)
截止发稿,杭州园林涨8.20%;启迪设计涨超7%;长信科技、恺英网络涨超4%;长海股份、平治信息,久远银海等股均有不错表现。
腾讯旗下网上文学数字阅读平台阅文集团10月23日在香港开始路演。根据财新记者取得的初步招股文件,阅文计划于今年11月8日在香港挂牌,计划募集资金9.31亿美元至10.66亿美元,高于此前市场预期的6至8亿美元的原计划。(驻香港见习记者 尉奕阳)
保监会10月23日提示,微信、互联网等媒体上出现“保监会恢复保险代理人资格考试”的消息不实,纯属谣言。
盘螺下调100元/吨,高线、螺纹钢维持上期基价不调整。
2017年工信部24个重点实验室名单公布,其中包括可视计算与人机智能工业和信息化部重点实验室、基因编辑系统与技术工业和信息化部重点实验室、人工智能关键技术与应用评测工业和信息化部重点实验室等。
工信部装备工业司组织开展智能制造系统解决方案供应商申报工作,申报单位应为从事智能制造软、硬件装备和系统的设计、生产、安装、调试业务,并具备系统解决方案供应能力,主营收入在5000万元以上的产品供应商、服务提供商和系统集成商。
全球最大的特斯拉超级充电站10月23日在上海浦东新区丁香国际商业中心正式开启服务。该超级充电站配备50个超级充电桩,可同时为50台特斯拉充电。目前,特斯拉已在华设立了超过700个超级充电桩,覆盖全国170座城市,并计划2018年前在华超级充电桩数量扩大到1000个,贯通全国各大区域连接线、自驾出行线路。(中国证券网)
工信部装备工业司组织开展智能制造系统解决方案供应商申报工作。申报单位应为从事智能制造软、硬件装备和系统的设计、生产、安装、调试业务,并具备系统解决方案供应能力,主营收入在5000万元以上的产品供应商、服务提供商和系统集成商。
caixinenergy
caixin-enjoy
caixin-life
全站点击排行榜
全站评论排行榜新版AlphaGo引发全球关注 技术突破将推动社会进步
新版AlphaGo引发全球关注 技术突破将推动社会进步
[导读]新版AlphaGoZero的横空出世再度引起了全球的高度关注,对于其展现出来的旷古绝今的新一代围棋技艺,以及背后的人工智能技术水平,不少围棋界和科技界人士都纷纷表达看法。总的来说,AlphaGoZero并非预示着人工智能将无所不能,不过其技术发展未来或将在诸多领域得到积极应用......
  新版AlphaGoZero的横空出世再度引起了全球的高度关注,对于其展现出来的旷古绝今的新一代围棋技艺,以及背后的技术水平,不少围棋界和科技界人士都纷纷表达看法。总的来说,AlphaGoZero并非预示着人工智能将无所不能,不过其技术发展未来或将在诸多领域得到积极应用。
  日,DeepMind团队公布了最强版AlphaGo,代号AlphaGoZero。随后,这一消息迅速席卷了全球,再度引起了围棋界与科技界的强烈关注。对此,目前的人类围棋世界第一人柯洁表示:“一个纯净、纯粹自我学习的Alphago是最强的……对于Alphago的自我进步来讲……人类太多余了。”
  回顾:AlphaGo震惊世人
  AlphaGo是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能程序,由谷歌旗下的DeepMind公司戴密斯·哈萨比斯领衔的团队开发。其主要工作原理是“深度学习”,利用了神经网络、深度学习、蒙特卡洛树搜索法等诸多前沿技术。
  2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜;2016年末2017年初,该程序在中国棋类网站上以“大师”(Master)为注册帐号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩;2017年5月,在中国乌镇围棋峰会上,它与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。
  连连击败人类顶尖围棋职业选手,这使得AlphaGo获得了围棋界“已经超过人类职业围棋顶尖水平”的认可。击败柯洁后,DeepMind团队也表示,以后AlphaGo将不再参加围棋比赛。
  进化:更为强大的AlphaGoZero横空出世
  在AlphaGoMaster“隐退后”不久,谷歌DeepMind研究人员又发布了AlphaGo最新版本AlphaGoZero。
  过去,AlphaGo都要经过成千上万次的人工训练,还要学习专业人员如何下围棋。但是AlphaGoZero直接跳过这步,它可从任意棋局开始,只需跟自己下棋就可以学习技艺。
  AlphaGoZero采用强化学习的方式进行自我教导。系统在历史数据空白的神经网络上开始工作,之后利用神经网络和强大的搜索算法跟自己下棋。下棋时,神经网络不断调整更新并预测步骤。更新的神经网络会和搜索算法打造出一个全新的AlphaGoZero,接下来程序会再次运行。在每次重复中,系统性能和学习质量都有所提升,使得神经网络更为精准,AlphaGoZero更为强大。
  优势:不受人工训练水平限制
  AlphaGoZero之所以比其他版本强大是因为它不再受人工训练水平限制。AlphaGoLee和AlphaGoMaster都使用了很多与AlphaGoZero相同的开发技术,但它们需要首先利用人类的数据进行训练,随后才切换成自我对弈。
  AlphaZero的设计理念和系统配置则完全和Lee/Master不同,它不依托于人类的先验成果,完全靠自我对弈学习下棋。
  另外,AlphaGoZero也比前几代系统更加节能,AlphaGoLee需要使用几台机器和48个谷歌TPU机器学习加速芯片。其上一代AlphaGoFan则要用到176个GPU芯片。AlphaGoZero只需要使用一台配有4个TPU的机器即可。
  分析:AlphaGoZero并非无所不能
  虽然AlphaGoZero的技术能力再度升级,但是这只能反映出其工程和算法确实非常厉害,而不能证明人工智能已经万能。所有人工智能都可以无需人类经验从零学习,AlphaGoZero并不是唯一的个例。
  当然,AlphaGoZero的面世还是能看到一些积极的方面,比如李开复对此表示:一是AI前进的速度比想象中更快,即便是行业内的人士都被AlphaGoZero跌破眼镜;二是要正视中国在人工智能学术方面和英美的差距。
  未来,AlphaGoZero自然不会再仅仅着眼于围棋界,毕竟在这一领域它早就“独孤求败”了。实际上,AlphaGo的发展初心从来就不是为了称霸全球围棋领域,这只是其成长的一个渠道而已。
  从DeepMind研究人员的相关表述中可以看出,AlphaGoZero的发展更多是为了推动相关技术的进步,从而应用到其他结构性问题上去。例如蛋白折叠、降低能源消耗或寻找革命性新材料,如果能取得突破将深刻改变社会,影响我们生活的方方面面。
千家智客微信公众号
扫描下方二维码,关注千家智客微信公众号(qianjiacom),随时随地知晓智能行业天下事!
编辑:邱婷丽
100/100字符
全部评论(0)
千家智客APP
千家智客客户端
在这里,读懂智能行业!AlphaGo|LOFTER(乐乎) - 让兴趣,更有趣
LOFTER for ipad —— 让兴趣,更有趣
让兴趣,更有趣
352位喜爱 #AlphaGo 的小伙伴邀你来玩
查看高清大图
喜欢并收藏内容
关注达人获取动态
评论私信与同好交流
10秒注册,查看更多优质内容
网易公司版权所有 & ICP备:浙B2-增值电信业务经营许可证:浙B2-
{if x.type==1}
{if !!x.title}${x.title}{/if}
{if !!x.digest}${x.digest}{/if}
{if x.type==2}
{if x.type==3}
{if x.type==4}
加入 LOFTER 开通功能特权
查看高清大图
喜欢并收藏内容
关注达人获取动态
评论私信与同好交流凤凰号出品
不需要人类知识!36小时自学成才、100:0狂虐老狗的最强版AlphaGo是如何炼成的?
原标题:不需要人类知识!36小时自学成才、100:0狂虐老狗的最强版AlphaGo是如何炼成的?来源 | 乌镇智库编辑 | 黑智去年的AlphaGo战胜李世乭掀起了全球的人工智能热潮。今年的中国围棋天才柯洁在乌镇依然败于AlphaGo之手。北京时间19日01:00,AlphaGo再次登上科学杂志《自然》,Deepmind公司发表重磅论文,公布了其研发的代号AlphaGo Zero的“最强版AlphaGo” 的相关研究。新一代狗压倒“老狗”的,是它“自学成才”的能力。打败李世石的AlphaGo用了3000万盘比赛作为训练数据,AlphaGo Zero用了490万盘比赛数据。从一张如同婴儿般的“白纸”开始,经过3天的训练,AlphaGo Zero就以100:0的比分完胜对阵李世乭的那版AlphaGo。21天后,AlphaGo Zero达到了Master的水平,这也是当年在网上60连胜横扫棋坛、战胜了柯洁的版本。它还开发了自己独特的新策略,并拥有“创造的真正时刻”。AlphaGo已经退休。但强化学习,将改变世界。 打破禁锢:先有输入再谈超人性能 Deepmind的论文标题相当直接:《Mastering the game of Go without human knowledge》——机器,已经不再需要人类。人工智能研究已经在多个领域取得飞速进展,从语音识别、图像分类到基因组学和药物研发。在很多情况下,这些是利用大量人类专业知识和数据的专家系统。但是,人类知识成本太高,未必可靠,或者只是很难获取。因此,AI 研究的一个长久目标就是跨过这一步,创建在最有难度的领域中无需人类输入就能达到超人性能的算法。之前的 AlphaGo 版本首先基于数千场人类围棋比赛来训练如何学习围棋。但 AlphaGo Zero 跳过了这一步,从自己完全随机的下围棋开始来学习围棋。通过这种方式,它快速超越了人类棋手的水平,并且以 100:0 的比分打败了之前战胜世界冠军的 AlphaGo。AlphaGo Zero 利用新型强化学习完成这样的壮举,在训练过程中它是自己的老师。该系统的神经网络最初对围棋一无所知,然后它通过将该神经网络与强大的搜索算法结合进行自我对弈。神经网络在下棋过程中得到调整和更新,来预测棋招和比赛的最终胜者。更新后的神经网络重新与搜索算法连接,创建新的更强大的 AlphaGo Zero,然后重复上述流程。每次迭代中,系统的性能取得小幅上升,自我对弈的比赛质量不断上升,带来更加准确的神经网络和历史最强的 AlphaGo Zero 版本。这项技术比起前几个版本的 AlphaGo 更加强大,因为它不再受人类知识极限的约束。相反,它从一张白纸的状态开始,和世界最强的围棋选手 AlphaGo(它自己)学习下棋。它与之前的版本在以下几个方面存在差异:AlphaGo Zero 只需要围棋棋盘中的黑子和白子作为输入,而前几个版本的 AlphaGo 还包括少量手工设计的特征。它只有一个神经网络,而再不是两个。早期几个版本的 AlphaGo 使用「决策网络」选择下一步棋的位置,使用「价值网络」预测每一个位置上决定的胜者。这两个网络在 AlphaGo Zero 中被结合起来,从而使其更高效地训练和评估赛况。AlphaGo Zero 不使用「rollouts」(其它围棋程序使用的快速、随机的下棋方式,以从当前的棋盘位置分布预测哪一个棋手会赢),取而代之,它依靠其优质的神经网络评估下棋位置。Deepmind研究人员介绍AlphaGo Zero究其根本:算法贡献 > 硬件提升上述这些区别都有助于提高系统的性能,并使其更加一般化,然而算法上的变化才是系统更加强大和高效的重要原因。由于硬件和算法的进步才使得 AlphaGo 能持续地变得越来越高效——Zero 版本只需 4 块 TPU 即可运行。仅仅经过三天的自我对抗训练,AlphaGo Zero很干脆地以100:0的战绩打败了之前的AlphaGo版本(它曾18次击败世界冠军李世石)。又经过40天的自我对抗训练,AlphaGo Zero变得更加强大,甚至优于打败世界头号选手柯洁的AlphaGo版本「Master」。等级分排名(在围棋等竞争性比赛中对选手的相关技巧的水平的度量):显示 AlphaGo 如何在发展过程中逐渐变得强大。在几百万盘 AlphaGo 自我博弈的竞赛之后,系统在尝试中逐渐学会了围棋游戏,在短短几天内积累了人类数千年的知识。AlphaGo Zero 同时还发现了新的知识,发展出非常规和具有创意性的下法,这些技术已经超越了此前 AlphaGo 与李世石和柯洁对弈时展现的水平。AlphaGo 展现的创造力让我们有理由相信人工智能将会成为人类智慧的放大器,帮助我们实现自己的使命,去解决人类面临的最具挑战的问题。尽管 AlphaGo Zero 仍然在发展初期,但是它完成了通向该目标的关键一步。如果类似的技术可以应用到蛋白质折叠等其他结构化问题中,减少能量消耗或搜索最新的材料,则它带来的突破有可能给整个社会带来积极的影响。 算法解析:自我对抗的竞争性训练AlphaGo Zero 所采用的神经网络是一种新颖的强化学习算法,即自我对抗(self-play)的竞争性训练。此前,OpenAI 曾发表论文表示自我对抗训练可以在简单环境下产生远超环境复杂度的行为。而这一次 AlphaGo Zero 和此前 AlphaGo Fan 与 AlphaGo Lee 的很大区别就是采用了这种自我对抗式的训练策略。图 1:AlphaGo Zero 中的自我对抗强化学习a:AlphaGo Zero 和自己进行 s_1,...,s_T 对弈。在每一个位置 s_t 处使用最新的神经网络 f_θ执行蒙特卡罗树搜索(MCTS)α_θ(见图 2)。根据 MCTS 计算的搜索概率选择棋招(a_t ~ π_t)。最终位置 s_T 的得分根据游戏规则计算,进而计算游戏获胜者 z。b: AlphaGo Zero 中的神经网络训练。神经网络使用原始棋盘位置 s_t 作为输入,使用参数θ将其传播通过多个卷积层,然后输出代表棋招概率分布的向量 p_t,和代表当前选手在 s_t 获胜的概率标量值 v_t。神经网络的参数θ得到更新以最大化策略向量 p_t 和搜索概率π_t 的相似性,并将预测获胜者 v_t 和获胜者 z 之间的误差最小化(见公式 1)。新的参数将在下一次迭代的自我对抗中使用。根据神经网络 f_θ,在每一个位置 s 处执行 MCTS 搜索。图2:AlphaGo Zero中的MCTSa:每一次模拟通过选择最大化行动价值Q的边来遍历整棵树,加上上面的(依赖于一个已储存的先验概率P)置信边界U,并访问边的总数N(每遍历一次增加1)。b:叶结点得到扩展,并且相关的位置由神经网络 (P(s, ·),V(s)) = f_θ(s)评估;P值的向量存储在s的外向边(outgoing edges)中。c:行动价值Q被更新以追踪当前行动下的子树的所有评估V的平均值。d:一旦搜索完成,会返回搜索概率值(search probabilities)π,和N^(1/τ)成比例,其中N是每一次行动自根状态(root state)以来的访问总数,τ是控制温度(temperature)的参数。DeepMind公司联合创始人兼首席执行官Demis Hassabis表示,AlphaGo Zero的强大之处,在于它“不再受限于人类知识”。他说,如果将之应用到大健康问题上,比如对阿尔茨海默病(AD)的治疗上,它甚至可以在几周的时间里,拿出需要人类几百年才能找到的治疗方案。“最终,我们希望利用算法的突破,解决各种紧迫的现实世界的问题,”Hassabis说,“如果类似的技术可以应用于其他结构性问题,如蛋白质折叠,减少能源消耗或寻找革命性的新材料,由此产生的突破有可能推动人类的理解。并对我们的生活产生积极影响。”DeepMind已经开始使用AlphaGo Zero来研究蛋白质折叠,并承诺将很快发布新的发现。错误折叠的蛋白质是造成许多破坏性的疾病的元凶,包括老年痴呆症、帕金森和囊性纤维化。大健康领域正日益成为科技公司关注的对象。去年,微软宣布计划在10年内推出几项“粉碎”身体的项目,从而治愈癌症。Google旗下的抗衰老公司Calico也在调查延长人类寿命甚至停止老化的方法。最重要的是,AlphaGo Zero能够从空白的状态学习,它自己成为“自己的老师”,能够通过玩游戏和自己对抗,每时每刻都在提高。它不需要人的知识、数据或任何干预。AlphaGo的首席研究员Dave Silver博士说:“如果你能达到白板学习,就相当于你有一个代理,可以从围棋游戏迅速移植到其他领域,把你自己从你所处领域的细节中解放出来。这是一个通用的算法,它可以应用到任何地方。”“对我们来说,AlphaGo不是去战胜人类的,它是个科学发现,能够自己学习知识意味着什么?说明在很短的时间内,AlphaGo Zero已经理解了人类几千年来积累的所有围棋知识,并分析了它,甚至它能够超越,开发出具有创造性和新颖性的新知识。”附:论文导读:自我对弈迭代棋招“长期以来,人工智能有一个目标就是算法能够在难度较高的领域从零开始学得超人的性能。近期,AlphaGo 成为在围棋领域第一个打败人类世界冠军的程序。AlphaGo 中的树搜索使用深度神经网络评估位置,选择棋招。这些神经网络通过监督学习从人类专家的棋招中学习,然后通过强化学习进行自我对弈。本文,我们介绍一种算法,该算法仅依靠强化学习,不使用游戏规则以外的人类数据、指导或领域知识。AlphaGo 成为自己的老师:我们训练一种神经网络来预测 AlphaGo 的下一步以及 AlphaGo 游戏的获胜者。该神经网络提升树搜索的能力,带来下一次迭代中更高质量的棋招选择和更强大的自我对弈。新程序 AlphaGo Zero 从头开始学习,并达到了超人的性能,以 100-0 的比分打败曾经战胜人类世界冠军的 AlphaGo。”——《Mastering the game of Go without human knowledge》【对原Nature论文有兴趣请回复“Zero”即可浏览完整报告】
本文来自凤凰号,仅代表凤凰号自媒体观点。
用微信扫描二维码
分享至好友
用微信扫描二维码
分享至朋友圈
凤凰争鸣微信号
来点暖心的!扫这里}

我要回帖

更多关于 谷歌围棋alphago 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信