统计排行幸运大转盘每日签到社区服务会员列表最新帖子精华区博客帮助
主题 : 今日Nature: 人工智能从0到1, 无师自通完爆阿法狗100-0
静守己心,看淡浮华。
级别: 钻石会员

UID: 4610
精华: 89
发帖: 124450
财富: 7412413 鼎币
威望: 168 点
贡献值: 162 点
会员币: 10 个
好评度: 2967 点
在线时间: 11784(时)
注册时间: 2008-07-03
最后登录: 2021-04-19
楼主 发表于: 2017-10-19  

今日Nature: 人工智能从0到1, 无师自通完爆阿法狗100-0

今日Nature: 人工智能从0到1, 无师自通完爆阿法狗100-0 L b;vrh;A  
LlY*r+Cgl1  
去年,有个小孩读遍人世所有的棋谱,辛勤打谱,苦思冥想,棋艺精进,4-1打败世界冠军李世石,从此人间无敌手。他的名字叫阿法狗。 _5 tqO5'  
]GKx[F{)  
今年,他的弟弟只靠一副棋盘和黑白两子,没看过一个棋谱,也没有一个人指点,从零开始,自娱自乐,自己参悟,100-0打败哥哥阿法狗。他的名字叫阿法元。 ) '`AX\  
_k.bGYldk  
DeepMind这项伟大的突破,今天以Mastering the game of Go without human knowledge为题,发表于Nature,引起轰动。知社特邀国内外几位人工智能专家,给予深度解析和点评。文末有DeepMind David Silver博士专访视频。特别致谢Nature和DeepMind提供讯息和资料授权。 _x1[$A,GuB  
Al=? j#J6p  
Nature今天上线的这篇重磅论文,详细介绍了谷歌DeepMind团队最新的研究成果。人工智能的一项重要目标,是在没有任何先验知识的前提下,通过完全的自学,在极具挑战的领域,达到超人的境地。去年,阿法狗(AlphaGo)代表人工智能在围棋领域首次战胜了人类的世界冠军,但其棋艺的精进,是建立在计算机通过海量的历史棋谱学习参悟人类棋艺的基础之上,进而自我训练,实现超越。 ,!u@:UBT  
i9k]Q(o  
可是今天,我们发现,人类其实把阿法狗教坏了! 新一代的阿法元(AlphaGo Zero), 完全从零开始,不需要任何历史棋谱的指引,更不需要参考人类任何的先验知识,完全靠自己一个人强化学习(reinforcement learning)和参悟,  棋艺增长远超阿法狗,百战百胜,击溃阿法狗100-0。 }_l -'t  
o 0ivja  
达到这样一个水准,阿法元只需要在4个TPU上,花三天时间,自己左右互搏490万棋局。而它的哥哥阿法狗,需要在48个TPU上,花几个月的时间,学习三千万棋局,才打败人类。 E wsq0D  
zb}+ m#q  
这篇论文的第一和通讯作者是DeepMind的David Silver博士,  阿法狗项目负责人。他介绍说阿法元远比阿法狗强大,因为它不再被人类认知所局限,而能够发现新知识,发展新策略: w?W e|x3  
:P~& b P  
This technique is more powerful than previous versions of AlphaGo because it is no longer constrained by the limits of human knowledge. Instead, it is able to learn tabula rasa  from the strongest player in the world: AlphaGo itself. AlphaGo Zero also discovered new knowledge, developing unconventional strategies and creative new moves that echoed and surpassed the novel techniques it played in the games against Lee Sedol and Ke Jie. H<7DcwXv  
Ilu`b|%D  
DeepMind联合创始人和CEO则说这一新技术能够用于解决诸如蛋白质折叠和新材料开发这样的重要问题: G2{M#H  
RTBBb:eX  
AlphaGo Zero is now the strongest version of our program and shows how much progress we can make even with less computing power and zero use of human data. Ultimately we want to harness algorithmic breakthroughs like this to help solve all sorts of pressing real world problems like protein folding or designing new materials. @Qjl`SL%O^  
slvs oN@  
美国的两位棋手在Nature对阿法元的棋局做了点评:它的开局和收官和专业棋手的下法并无区别,人类几千年的智慧结晶,看起来并非全错。但是中盘看起来则非常诡异: e - ]c  
Cf=q_\0|W  
the AI’s open¬ing choices and end-game methods have converged on ours — seeing it arrive at our sequences from first principles suggests that we haven’t been on entirely the wrong track. By contrast, some of its middle-game judgements are truly mysterious. E816 YS='  
_s-HlE?C  
为更深入了解阿法元的技术细节,知社采访了美国杜克大学人工智能专家陈怡然教授。他向知社介绍说: dN/ "1%9)  
l~!fQ$~  
DeepMind最新推出的AlphaGo Zero降低了训练复杂度,摆脱了对人类标注样本(人类历史棋局)的依赖,让深度学习用于复杂决策更加方便可行。我个人觉得最有趣的是证明了人类经验由于样本空间大小的限制,往往都收敛于局部最优而不自知(或无法发现),而机器学习可以突破这个限制。之前大家隐隐约约觉得应该如此,而现在是铁的量化事实摆在面前! C!k9JAa$Z  
rnv7L^9^A  
他进一步解释道: b\j&!_   
#IGoz|m  
这篇论文数据显示学习人类选手的下法虽然能在训练之初获得较好的棋力,但在训练后期所能达到的棋力却只能与原版的AlphaGo相近,而不学习人类下法的AlphaGo Zero最终却能表现得更好。这或许说明人类的下棋数据将算法导向了局部最优(local optima),而实际更优或者最优的下法与人类的下法存在一些本质的不同,人类实际’误导’了AlphaGo。有趣的是如果AlphaGo Zero放弃学习人类而使用完全随机的初始下法,训练过程也一直朝着收敛的方向进行,而没有产生难以收敛的现象。 ;Pqyu ?  
BI.k On=  
阿法元是如何实现无师自通的呢? 杜克大学博士研究生吴春鹏向知社介绍了技术细节: Bd~cY/M  
jl-Aos"/  
之前战胜李世石的AlphaGo基本采用了传统增强学习技术再加上深度神经网络DNN完成搭建,而AlphaGo Zero吸取了最新成果做出了重大改进。
评价一下你浏览此帖子的感受

精彩

感动

搞笑

开心

愤怒

无聊

灌水
待到山花烂漫时,她在丛中笑~_~
描述
快速回复

谢谢,别忘了来看看都是谁回帖哦?
验证问题:
正确答案:许振超
按"Ctrl+Enter"直接提交
上一个下一个