如何看待Alphago战胜围棋冠军

2024-05-11 12:34

1. 如何看待Alphago战胜围棋冠军

我第一次用假想式回答来解答问题,但是我觉得这是我想说的。

数百年后,两个大学生在柯洁的铜像面前的对话是这样的:

A:这个人是谁啊?为啥会在历史馆里?看介绍是个下棋的,有什么特别的地方吗?
B:这个人是几百年前的一个下围棋的中国人,叫柯洁,是当时称霸棋坛的人类高手。
A:他做过什么事情,要给他立像?
B:你知道吗,几百年前我们的祖先生活可不像我们现在这么轻松,车还要自己开的,一个疲劳驾驶就出事;癌症这种小毛小病在当时是绝症;当时的人居然挖地底下的石油来当能源,把山砍的光秃秃的只是为了用木头来造纸和做各种建材。。。
A :好可怕,现在这些事情都交给各种人工智能轻松应对了,当时真落后,那后来怎么改变的呢?
B:后来,一家叫谷歌的公司开发了一个程序叫Alphago,这被认为是我们今天广泛使用随处可见的人工智能的萌芽,这个程序在围棋这个项目上击败了人类当时最厉害的选手,而当时的人觉得围棋这么玄乎的竞技,人工智能可以击败人简直是天方夜谭,所以这个结果引起轰动,然后就开始了在各个领域的延伸,各种人工智能衍生类产品彻底改变了人们的生活方式,直到今天,但在当时,很多人不能接受机器可以打败人的现实。
B:我大概知道了,柯洁就是那个输给Alphago的人类高手。
A:是的,他是先驱者,通过自身的体验证明了人工智能的巨大潜力,为了纪念他,就有了这个塑像,名字叫做:新纪元。

如何看待Alphago战胜围棋冠军

2. AlphaGo能轻松战胜世界上最好的围棋大师,人类相对于AI,是不是就是废柴一个?

当半年前 AlphaGo 在乌镇将世界第一棋手柯洁打的无力还手时,人类已经将 AlphaGo 称为“上帝”,这个“上帝”的棋艺已经超出最顶尖人类棋手太多。

对于不少人来说,看到人类面对机器接连的失利,会让他们倍感沮丧,尤其在 Goratings 网站评分中,AlphaGo 4500 以上的分值早已远超柯洁的 3620 分,你说 AlphaGo 和柯洁早已是两个境界,或许也并不为过。

但不要忘了,AlphaGo 之所以能达到如今的境界,是它所学习的一切围棋知识,都来自人类,学习的每一盘棋局,也都来自人类棋手精彩的对弈,你要说人类输了,其实并没有,我们有了一个青出于蓝的学生,这是赢。
现在的 AlphaGo,已经可以跳脱人类老师,自己和自己对弈,每一颗子的可能性和盘棋局的复杂性,要比同人类对弈的难度大得多。
此时的第四届世界互联网大会正在乌镇举行着,Google CEO Sundar Pichai 也前来参加,所谈论的,依然是人工智能在人类社会中的发展。

而 Google 每次来华,都喜欢和围棋界交流交流,这次也不例外,不过这次不是让 AlpahGo 对抗柯洁了,而是让它转换身份,当当老师。
Google CEO Sundar Pichai 表示,Google 正在开发围棋学习工具 AlphaGo Tools(阿尔法围棋工具),这套学习型工具的特点是,它已经收集了 231000 套人类对弈的棋谱,同时还囊括了 75 场 AlphaGo 与人类棋手对弈的棋谱,目前这套工具已经基本开发完成,不久就将推出。

3. 完胜人类后AlphaGo为何要从棋坛退役?

根据报道,在5月27日“人机大战” 第三场比赛中,柯洁由于状态不佳,被 AlphaGo 拖入缠斗之后无奈宣布放弃。最终,AlphaGo 以 3:0 的成绩赢下本次乌镇围棋峰会比赛。对于 AlphaGo 的表现,“棋圣” 聂卫平现场点评:“人类目前最高也就九段,AlphaGo 至少二十段。”

随后,AlphaGo 之父、DeepMind 创始人 Demis Hassabis 就公布了一个不太好的消息:“乌镇围棋峰会是它(AlphaGo)作为一个竞技程序所能企及的巅峰。因此,此次峰会将是 AlphaGo 参加的最后一场赛事”,而这也意味着 AlphaGo 将从棋坛 “退役”。

但是这并不意味着 AlphaGo 将永远退出竞技舞台。去年,DeepMind 就已经宣布《星际争霸 2》将会是 AlphaGo 在围棋想要征服的下一个目标。在去年 11 月份,DeepMind 还曾与暴雪公司联手打造一款免费的 API,来帮助研究人员测试《星际争霸 2》人工智能算法。

完胜人类后AlphaGo为何要从棋坛退役?

4. 如何看待谷歌AlphaGo首次战胜人类围棋高手

一个月前,DeepMind创始人Demis Hassabis曾说道很快会有关于围棋研究的惊喜,而1月28日的《Nature》杂志即将以封面论文的形式介绍Google旗下人工智能公司DeepMind开发的一款名为AlphaGo的人工智能,它已经击败了欧洲围棋冠军,并将于3月与世界冠军李世乭对战。该程序采用了两个深度神经网络,policy network与value network,极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深度,很像人脑在下围棋时凭直觉快速锁定策略的思维。
这么说起给一点时间,巅峰的吴清源,李昌镐这类人物(即使不断学习)也是下不过电脑的了? (我指的电脑就是2015一台中等配置的PC这样,不是服务器集群,类似普通电脑跑Pocket Fritz 4)

今天(3-12-2016) AlphaGo 已经3:0领先Lee Sedol了
这个并不是太出人意料。我记得十年前就有人说,十年内这个问题可以解决。可能那时候他就已经有点思路了吧。

这个问题能解决到这个程度,Google的确做出了很大的贡献,我想很多同样看上去很难的问题也并不是不能解决,而是我们愿不愿意解决,愿意花多大的精力在上面。我觉得这点启发非常重要,尤其是在深度网络这类新技术出现的时候,有很多地方简单地应用一下就能有新的突破。

老实说,我看了AlphaGo的思路,跟我之前的思路差不了太多,我在2015年1月份就看过一篇利用卷积神经网络来下棋的论文(神经网络可能终将在围棋上打败人类),并且有种豁然开朗的感觉,还想出了改进的思路(论文中的程序实际上有比较明显的缺陷,而去掉其中的缺陷就是一条更为完善的思路),真正的理论层面的突破是那篇论文,那篇论文写出来,就决定了今天只用了一年左右的时间AlphaGo能达到这个程度,Google的贡献在于将理论更好地改进和实践了,他们更有实力来解决这样的问题,不是像那篇论文里的程序,使用比较纯粹的神经网络,那样想要达到顶尖水准很有难度。

值得反省的是,为什么围棋作为东方人的游戏,却不是我们自己来解决这个问题?我觉得国内一定有人看到解决思路了,既然我这种业余爱好者都能看出点眉目。

5. 在现在AlphaGo的能力下,AlphaGo需要让几子人类顶尖棋手才能胜利?

每年晚报杯全国业余围棋锦标赛有个压轴戏,职业棋手与获得前六名的业余棋手进行对抗赛,30年来每年都在坚持,职业棋手与业余高手之间的对局格很难说明问题,在让两子的对局格中,业余高手基本能赢,尤其是现在的业余高手从小接受科班训练,只是后来在定段赛中未能过关、成为职业棋手,但他们的实力并不亚于职业棋手,因此,职业高手让两子对他们肯定有些累,不是说完全不可能,当年赵治勋还将小林觉、山城宏他们打至让两子的对局格,但这种可能性毕竟很小。从这些年的职业、业余对抗成绩来看,职业棋手让业余高手两子根本让不动。像胡煜清这样的业余高手,与职业棋手分先下都难分胜负,你现在要职业棋手让他两子,怎么下?
同样的道理,AlphaGo虽然厉害,但在对柯洁这样的职业高手时,如果让子下的话,那百分百地押柯洁赢。这次“人机大战”三番棋,第一局和第二局,柯洁与AlphaGo的差距的确存在,那这种差距是职业高手之间的差距,不是职业与业余之间的那种巨大差距,AlphaGo让先的话,双方还是好胜负,但让两子的话,AlphaGo不大可能能赢。让两子通常是职业与业余之间的差距,能说AlphaGo与柯洁之间的差距有那么大吗?
让先即执黑不贴目,等于让7目半,让两子还不仅仅是让15目这么简单,在棋盘上先放两子的威力相当于让30目,如果有人说AlphaGo可以让柯洁30目的话,那实在有些夸张。
AlphaGo确实厉害,深度学习深不可测,但个人认为,它与人类顶尖高手的水平差距应该在让先与让两子之间,让两子断无可能。

在现在AlphaGo的能力下,AlphaGo需要让几子人类顶尖棋手才能胜利?

6. AlphaGo理解围棋吗?

什么叫理解围棋本身?首先围棋本身这个概念太宽泛,可以严实为“理解下赢围棋本身”。我们再严实一下理解为“语言可表达,按此可复现”,这对于围棋还算是适合的。比如某人给你一本围棋秘籍,你看了后便能席卷棋界,那么恐怕没人承认你不懂如何下赢围棋。这时候你的理解便是那个秘籍。AlphaGo呢?答案是它的理解是它的完整的程序(包括权值这些)的内容。你可以把它当做一本“围棋秘籍”用,方法是自己一步步手动推那个程序(比如读汇编码自己在纸上写下所有东西),只不过很慢而已。显然你可能不能接受这个---这不是human-friendly的理解,但是这个“理解”确实是可以被人“理解”的理解,虽然我们没有真正理解AlphaGo这些权值到底是什么含义。(当然咯,现在人们也发明了各种算法来试图理解这些“权值”,比如发现了某些特征,但是为什么有这个特征?为什么特征非要长这个样子?我们并不全部清楚)

7. AlphaGo真的理解围棋吗

阿法狗的路子是,它根本不试图去穷尽围棋的所有变化,甚至它压根不去计算变化。它只是尽量收集职业高手的棋谱,然后用极其牛逼的算法挑选出每个局面下的最佳招法,如此而已。典型的知其然而不知其所以然。
原理确实简单,但背后的算法却实在复杂和精妙。拜互联网所赐,甚至不用和职业高手对弈已经靠设计师输入棋谱,狗2通过程序就可以自动从网上抓取棋谱充实自己的数据库,然后在跟职业高手的对弈中利用前述的算法挑选最佳招法。如此这般,职业高手跟狗2下的越多,甚至职业高手之间的对局越多,狗2就会越强。

所以,阿法狗可以完全不懂什么布局、中盘、和官子,也不必懂什么死活、手筋、恶手,更不用去判断厚势值多少目这些围棋中最奥秘的东西。就像令狐冲从画中看出剑法一样,它眼中的围棋世界跟职业棋手眼中的围棋局面形似而神不似,是完全不一样的。它并不思考,也不会思考,狗2会思考,上帝狂发笑~它只是模仿和选择,当然,它的这种能力太过于强大。
因此,阿法狗是无所谓棋风,无所谓招法的,它玩的就是传说中武功的最高境界:无招胜有招。

AlphaGo真的理解围棋吗

8. 如何看待谷歌AlphaGo首次战胜人类围棋高手

一个月前,DeepMind创始人Demis Hassabis曾说道很快会有关于围棋研究的惊喜,而1月28日的《Nature》杂志即将以封面论文的形式介绍Google旗下人工智能公司DeepMind开发的一款名为AlphaGo的人工智能,它已经击败了欧洲围棋冠军,并将于3月与世界冠军李世乭对战。该程序采用了两个深度神经网络,policy network与value network,极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深度,很像人脑在下围棋时凭直觉快速锁定策略的思维。
这么说起给一点时间,巅峰的吴清源,李昌镐这类人物(即使不断学习)也是下不过电脑的了? (我指的电脑就是2015一台中等配置的PC这样,不是服务器集群,类似普通电脑跑Pocket Fritz 4)

今天(3-12-2016) AlphaGo 已经3:0领先Lee Sedol了
这个并不是太出人意料。我记得十年前就有人说,十年内这个问题可以解决。可能那时候他就已经有点思路了吧。

这个问题能解决到这个程度,Google的确做出了很大的贡献,我想很多同样看上去很难的问题也并不是不能解决,而是我们愿不愿意解决,愿意花多大的精力在上面。我觉得这点启发非常重要,尤其是在深度网络这类新技术出现的时候,有很多地方简单地应用一下就能有新的突破。

老实说,我看了AlphaGo的思路,跟我之前的思路差不了太多,我在2015年1月份就看过一篇利用卷积神经网络来下棋的论文(神经网络可能终将在围棋上打败人类),并且有种豁然开朗的感觉,还想出了改进的思路(论文中的程序实际上有比较明显的缺陷,而去掉其中的缺陷就是一条更为完善的思路),真正的理论层面的突破是那篇论文,那篇论文写出来,就决定了今天只用了一年左右的时间AlphaGo能达到这个程度,Google的贡献在于将理论更好地改进和实践了,他们更有实力来解决这样的问题,不是像那篇论文里的程序,使用比较纯粹的神经网络,那样想要达到顶尖水准很有难度。

值得反省的是,为什么围棋作为东方人的游戏,却不是我们自己来解决这个问题?我觉得国内一定有人看到解决思路了,既然我这种业余爱好者都能看出点眉目。