呃,比较起来,这话问得更没意思。
他这两句话都不应该说,原因都是同一个。
这里的攻防,说难不算很难,说易则未必很容易。
李铁如的一系列防守手段大概率是必然而唯一的。
他自问,腾挪过程中,白棋并未下出很明显的坏棋,能够活出才是理所当然的。
在他看来,黑棋的确没道理这样拼命;客观上黑棋形势还不错。
然而,由于小何过去对他经常占上风,所以输了第一局受到了巨大触动。
更关键的是,第一局中,小何并未能找到明显胜机。
虽然李铁如自己没觉得,但其实第一局他几乎是完胜。
弱6d完胜弱7d,看起来是不是有些不可思议?
还有两个很难说清楚的因素,也是李铁如当时想不到的。
李铁如在茶楼与小何下棋,输得很多的根本原因,在于中盘战斗力较差。
而今,他网上段位虽暂未能达到比较高,可他的力量已然取得了比较大的进步,此其一。
小何第一局被迫与李铁如磨官子,小负。
不由得联想起,茶楼那几年,对张伟屡战屡败的浓重阴影。
对老孟他也是不怎么开张,但心里更多的是服气,没多少畏惧。
对张伟,感觉有劲使不上,郁闷得很。
张伟下棋节奏很慢,行棋也很慢,对小何恰好很是克制。
龙卷风一旦变慢下来,还能有多大破坏力?
小何输给张伟那么多,不是因为差距多明显,基本都是久攻不下后自己快速崩溃。
俩人比赛最好成绩都是第2名,实力理应不该有差距。
小何是典型的攻击型棋手,张伟是典型的防守型棋手;而攻击比防守难度更大。
在大家普遍都低于业余3段水平时,攻击型棋手成绩可能会略好些。
对李铁如的疑问,小何无言以对。
第二局的复盘,只是集中对前面进行了一些探讨。
小何开玩笑地问:“托三三试应手,会不会提前已经算到后来会用到?”
李铁如被他逗乐:“怎么可能?不过是留个官子,晚了怕走不到。”
而后,小何又问,要不要再继续下第三局?
李铁如婉拒道:“还是下次再下吧。”
原本他轻易不愿意拒绝别人,但这次有所不同。
小何很不甘心,“这就保持战果了吗?”
李铁如解释说:“第一盘只是捡你个小漏,不然应该是你能赢的棋。第二盘很奇怪,明显那不是你的水平;怎么你莫名其妙的就下崩了呢?正常进行是黑棋不坏啊。”
他特意看看手机,见现在已经是接近中午一点,于是告辞回家。
他的意思很明显,赢了两盘棋基本都是运气好。
他没想到,小何却并不是那么想的。
这一次的两盘棋,他表现出了足与小何相抗衡的实力。
正因为实力非常接近,才有能力抓住对方的失误;运气好只是增大了捕捉机会的几率。
李铁如觉得自己运气好才赢,并不是纯客气。
基本是真心话,至少他不认为自己实力已超越小何。
此刻,他是对自己实力略微有一点点低估。
相比之下,他的自信心与一流棋手群还有很明显的差距。
他的实力在缓缓进步,自信心却依然停滞不前。
下面顺便回头再谈谈电脑围棋。
人工智能界的阿波罗AlphaGo是如何学会下围棋的
文章来源:星芒里
原题:InaHugeBreakthrough,Google‘sAIBeatsaTopPlayerattheGameofGo
原载:Wired连线2016.01.27
标签:人工智能(AI),算法,围棋。
翻译:芒芒原文有删减
译注:该文章刊载于人工智能AlphaGo与李世石对战前夕,当时大众对比赛的预测还有很大分歧。
围棋界的风雨欲来时,亦是AI界的重要突破日,本文将为你重现人工智能来临时代的重要进步时刻。
第一缕星火
人工智能领域取得了一项重要突破——在围棋项目中,一个由谷歌研究团队开发的计算机系统AlphaGo击败了欧洲的顶尖职业棋手。
在此之前,这个关于战略性和直观判断的古老东方竞技游戏,已经困扰了人工智能专家们数十年之久。
在大多数公认的智力游戏中,机器已经战胜了最优秀的人类,包括国际象棋、拼字游戏、黑白棋等等。
但是围棋——这个有着2500年的历史,比象棋复杂得多的游戏,即使是面对最先进的计算机系统,顶尖棋手们也能保持优势。
本月早些时候,谷歌以外的人工智能专家质疑其是否能在短时间内实现突破。
而就在去年,许多人认为机器在围棋项目上打败顶尖人类还需要再过十年。
但谷歌AlphaGo已经做到了这一点。
‘这一切发生的比我想象中快太多。’法国研究员雷米·库伦说。
他的背后,是曾经的世界最佳围棋AI,Crazystone(石子旋风)。
AlphaGo系统
DeepMind计划自称为‘人工智能界的阿波罗’,于2014年被谷歌收购。
在10月伦敦举办的这场人机比赛上,DeepMind的系统——一个更广为人知的名字‘AlphaGo’,在与欧洲围棋冠军樊麾的对弈中发挥出色,五局比赛未尝一败。
比赛结果在《自然》杂志的编辑和英国围棋联盟代表的监督和见证下产生,事后《自然》杂志的编辑评价:
这是我职业生涯中最激动人心的时刻之一,无论是作为一名学者还是作为一名编辑。
关于AlphaGo的论文发表在自然杂志,并登上封面。
今天早上,《自然》杂志发表了一篇论文,描述了AlphaGo的系统,它巧妙地利用了一种越来越重要的人工智能技术,即深度学习。
通过输入收集到的大量人类棋谱,DeepMind的研究人员开始训练这个系统自己下围棋。
但这仅仅是第一步。
从理论上讲,这样的训练只会产生一个和顶尖人类一样优秀的系统(但这不能保证对人类的绝对优势)。
为了打败最顶尖的人类,研究人员让这个系统进行自我间对弈。
这使得系统自身又可以产生一系列新的棋谱,基于新棋谱训练出的新人工智能,有着超越人类大师的能力。