主页 > 生活百科 > > 正文

[为什么围棋go]为什么用go

发布时间: 2020-10-08 13:56:13 来源: 百科讲坛 阅读数:

导语 : [为什么围棋go]其英语单词为什么是“the 因为当时在世界范围内将围棋推广开的是日本人而日本人称围棋为“囲碁(Igo)”或者“碁(Go)”所以英语就将其收录为单词 [为什么围棋go]为

[为什么围棋go]其英语单词为什么是“the

因为当时在世界范围内将围棋推广开的是日本人而日本人称围棋为“囲碁(Igo)”或者“碁(Go)”所以英语就将其收录为单词

为什么围棋go

[为什么围棋go]为什么用go

[为什么围棋go]GO为什么是下围棋而不是其他棋

哈萨比斯表示,围棋对计算机来说是最困难的,其复杂程度让穷举搜索都难以解决。对机器来说,围棋的困难主要在两方面:一是,机器无法写出评估程序来决定谁赢了;二是,围棋是一种直觉性的比赛。

输赢的判断对比赛来说非常重要,但是围棋不像象棋,吃掉对方的“帅”或者“将”即可获胜,这也导致围棋的搜索空间非常庞大。

围棋更像是一个筑防游戏,每走一步都需要盘算整个棋局,而象棋是所有棋子都摆在盘上。另外,围棋选手都是依靠直觉在下棋,且围棋中没有等级概念,所有的棋子都一样,小小的一子,就可以影响全局。

正因如此,AlphaGo在围棋上取得的成绩,确实得来不易。哈萨比斯也说,去年战胜李世石,让他们整个团队都很激动。

[为什么围棋go]为什么围棋英语叫Go

是日语的发音译来的.围棋在日语里写成"碁"(读做ご,即拼音GO的发音)."囲碁(读做いご,拼音YIGO的发音)"也是围棋的说法。

thegameofgogo发音为guo是日语围棋的发音。当前的英文围棋术语大部分是从日语来的,有一些日语的音译在里面。

我国已有人考虑将围棋的属于纯英文化,这样更容易进行围棋国际化推广。段位dangrading级kyu读秒byo-yomi欺招hamete(trickplay)厚thickness气liberty轻karui(light)失着slip本手honte(propermove)对杀semeai好手tesuji后手gote劫ko缓气劫yose-ko(approach-move-ko)筋suji双活seki(impasse)脱先kenuki无忧劫hanami-ko交换furikawari(exchange)味道aji(potential)眼eye一间夹ikkenbsasme手筋tesuji见合miai大模样作战bigmoyo,largemoyo生死劫tsume-ko劫材kozai先手sente定式formalizedseriesofmoves围contain拆extend立sagari叫吃atari(cheok)打入uehikomi挂角kakari逼tsume(checkingextension)夹hasami(pincer)枷geta尖diagonalmove空chi,territory长nobi切断cut-in腾挪sabaki提通ponnuki挖warikom(wedge)压kake(pressingmove),oshi(push)挤去眼sashikomi断点cuttingpoint空提ponnuki断cut靠tsuke跳jump挡osae打atari提子take托角touke(corner)

[为什么围棋go]为什么alphago围棋有排名

最新一期围棋世界排名榜公布,8月2日即将年满19岁的中国天才少年柯洁,在盘踞了世界第一宝座两年时间之后,终于主动走下“神坛”。

目前AlphaGo以3612分排名世界第一,柯洁以3608分退居第二。因为虽然围棋规简单,变化却极尽复杂,边角的攻守、中央的拼杀、局部的死活、整体的把控,每一颗棋子的摆放,都会衍生出种种可能性,每一步的对弈,都能让弈者品味到无穷的道理。

而这千古无同局的特点,成为了谷歌这些程序员的兴趣点。围棋的变化多到10的172次方之多。依靠目前的计算机根本不可能完成这种运算量庞大的任务。

[为什么围棋go]google围棋ai

李世石手握十四个世界冠军,是过去十年里成绩最好的围棋手,而当时的柯洁还没有现在那么耀眼,所以李世石可是最合适的人选。

[为什么围棋go]AlphaGo很难应用到围棋以外的世界

缩小来看,总的来说AlphaGo还只是一个狭义的AI系统,会下围棋,但是也仅此而已。DeepMind用来玩

ATARI游戏的智能体使用的并不是AlphaGo惯用的技术方法。神经图灵机与AlphaGo没有什么关系。

谷歌搜索引擎也不会使用AlphaGo。所以,AlphaGo不会推广到除围棋以外的任何问题上。但是,研究AlphaGo的人和神经网络技术可以扩展,它们比旧时代的AI

具有更高的效率,因为以前的AI,每一词demo都需要储备专门化的、具体的代码。我希望通过列举围棋的一些特殊属性,来扩展AlphaGo的狭义意义。

这能有利于我们了解AlphaGo可以或者不可以扩展到什么地方。围棋是:完全确定性的。在围棋的规则中,不存在任何不清晰的地方。

如果对弈双方采取的是相同的一系列动作,那么,他们可以达到的状态就通常就是确定的。可以完全观察的。每一个玩家都拥有完全的信息,并且不存在隐藏的变量。

例如,德州扑克就不符合这一属性,因为你不能看到对手的牌。行动空间是不连续的。有一些独特的下法是可以施展。

作为对比,在机器人身上,你可能会希望在每一个节点都需要连续具有连续性的控制。能够获得一个完美的模拟器(游戏本身),所以每一步能取得的效果都是可以精确预测的。

这一前提是AlphaGo强烈依赖的,但是,这种情形在现实世界中是非常稀缺的。每一盘棋都很短,只有大约200手。

相对于强化学习的阶段,这是一段相当短的时间。因为在自我对弈阶段,每一盘棋可能包含的是上万或者更多手。

[为什么围棋go]为什么它能战胜人类

在13日结束的AlphaGo与李世石五番棋对决中的第四局,李世石胜出。连败三局之后,人类终于扳回一局。

但这场胜利来得有些迟,AlphaGo此前已经痛快得赢得这场人机大赛的胜利。这场生生夺走一周眼球的人机围棋大战,人们最想追问的是,AlphaGo为什么能战胜人类?

赛前,无论是职业棋手还是科技界,并不看好机器胜利机器赢了人类,这个结果让无数人感到吃惊与意外。在这场比赛开始前,很多职业棋手认为

AlphaGo不可能赢得比赛。棋圣聂卫平在赛前下定论认为:电脑和人下围棋,百分之百是人赢。而科技界对

AlphaGo是否能赢得比赛表示谨慎看好,并没有十足信心。这从AlphaGo创始人德米什·哈萨比斯(Demis

Hassabis)在第二场比赛结束后的发言可以看出,他当时认为AlphaGo的胜利难以置信。在与李世石对弈前,AlphaGo

于去年10月与欧洲围棋冠军樊麾进行了对弈,以5:0战胜了樊麾,而在非正式对局当中,樊麾则2次中盘战胜了

AlphaGo。这也被外界认为AlphaGo很难战胜李世石的原因。樊麾的等级为职业棋手二段,李世石为职业九段。

围棋界公认,这两人的围棋水平为:樊麾是踏在了职业门槛,而李世石则是职业顶尖,前围棋世界第一人,代表了人类围棋最高水平。

但仅仅过了5个月,AlphaGo在五番棋中以3:0战胜了李世石,并且在比赛过程中下出了很多令专业人士都非常惊讶的妙手。

很多关注人机大战的人都想要知道一个问题:Google是怎么设计AlphaGo的?比如,AlphaGo

的运行机理是什么?进入自我学习的阶段之后,谷歌团队是否还需要人工对其进行不断的人工优化、改良以及提升?

还是完全凭借其自身的学习能力来提升?最近两天,DoNews记者在Twitter上就该问题向德米什·哈萨比斯进行了两次提问,但德米什

·哈萨比斯没有进行回应。在对外公布的所有信息中,包括其在《Nature》上发表过的两篇论文中,都只提到了他们的

AlphaGo能够做什么,都没有透露AlphaGo的运行机制是什么,即AlphaGo到底是怎么做到的。

德米什·哈萨比斯仅透露,就AlphaGo的对弈水平而言,他们的神经网络训练算法远比它使用的那些硬件重要得多。

此外,这次人机对战所消耗的计算量差不多与AlphaGo和樊辉对弈中消耗的相当,使用的是分布式方案搜寻,能有效节省决策用时。

人工智能战胜人类,为何引起这么多关注?围棋这项发源于中国的有两千年历史的智力游戏,曾被认为是最后一个人工智能不能超越人类的游戏。

围棋游戏的规则是:棋盘由纵横各十九条等距离、垂直交叉的平行线构成。形成361个交叉点,在围棋中简称为

“点”。对局双方各执一色棋子,轮流下子,最后谁占的点多,谁就赢。虽然围棋规则简单,但建立在此规则之上的各种策略、棋理、布局、定式、手筋、手段,却是无穷无尽的。

聂卫平曾解释了其中的原因,围棋棋盘上有361个点,其理论变化值是361阶乘,阶乘到底本身就是一个无限大的数,无法表达。

比如,棋手在下第一手时有361个点可以选,下第二手有360个点,第三手是359,361×360×359×……2×1,即

361阶乘。(有数据统计,结果约是1.43乘以10的768次方。)这个数字有多大呢?Google灵感来源于一个单词

Googol,以表示知识之海无穷无尽。Googol代表“10的100次方”,这个数字是人类目前最有想象力的数字。

即使人类已知宇宙中原子数量,也不过是10的80次方。同时,在围棋对弈中,还包含着很多变化:打二还一,打三还一,打劫,倒扑等,每一种变化都会衍生出无数的变化。

在下棋过程中,棋手需要有一种判断。而此前,电脑被认为无法承担这种判断,因为这不是计算就能够完成的。AlphaGo

是怎么做到的?AlphaGo结合了3大块技术:蒙特卡洛树搜索(MCTS)是大框架,这也是很多博弈AI

都会用的算法;强化学习(RL)是学习方法,用来提升AI的实力;深度神经网络(DNN)是工具,用来拟合局面评估函数和策略函数。

我们在这里用比较通俗的语言来解释一下:棋盘上有361个点,AlphaGo会进行一层层分析:下在哪个点或区域是有利的?

这时它会参考输入的过往的棋谱,对局和模拟,进行选择、推演,并对推演结果进行估值。AlphaGo能够理解会根据“赢”这个目标来进行估值,选择出一个对“赢”足够优的解。

围棋?AI能超越人类的还有很多.AlphaGo的胜利,引发了大讨论。因为人类开始面临着一个前所未有的情况:人类造出了,在智能的某个点上,超越自己的东西。

通过黑白纹枰上的胜利,AI已经在人类的智力围墙打开了第一个缺口,但这绝非最后一个。在过往漫长的岁月里,机器都只是人类劳动的一种替代与工具,无论飞机、汽车、起重机还是电子计算机、互联网,尽管看上去有着无限的能力,但却从未侵入由人类大脑所把持的领域——“创造”。

而随着AlphaGo的胜利,这一天或许将成为历史。实际上,过去几天,这台人工智能在围棋盘上发挥的创造能力,已经超越了人类两千年于此道上积累的智慧结晶。

如果我们检索人类的“资源库”,会发现,复杂程度超越围棋的智力行为并不多见。这也意味着很多传统人类脑力劳动的形态,发生改变。

很多从事创作、设计、推演、归纳的工作,都将被AI部分替代。如果将思路拓展出去,可以应用在音乐的创作,等其他类似于元素组合式的创造,从某中意义上说,它能够击败围棋的顶尖高手,也就有可能让人难辨真假的音乐和旋律。

甚至做出更多我们想不到的事情。按照德米什·哈萨比斯的设想,人工智能未来的主要用途将是医疗、智能助理和机器人。

而人们通过这次比赛担忧的是,如果人工智能拥有创造性的思维,加上远超出人类的运算能力,是否有一天会统治人类。

TAG:

本文地址 : https://www.cdwenhua.cn/shenghuobaike/51893.html 本文资源来源于互联网,所有观点与站长无关,若有侵权,请第一时间联系我们进行删除,谢谢配合!

相关文章

声明:本站资源皆来源于互联网,若有侵权,请第一时间联系我们进行删除,谢谢合作!

Copyright @ 2020 百科知识 版权所有 https://www.cdwenhua.cn

传道百科知识