|
马上注册!
您需要 登录 才可以下载或查看,没有账号?注册
×
腾讯科技讯3月3日消息,今年1月底,机器学习(ML)领域的研发工作再度取得重大突破。这次突破就是通过谷歌(微博)的谷歌阿尔法围棋(AlphaGo)产品而展现出来。AlphaGo是一款由谷歌旗下位于伦敦的子公司DeepMind研发的产品。DeepMind专门研究人工智能(AI)业务。
1月底,按照正常的比赛环境,AlphaGo以5:0的战绩击败了欧洲围棋三届冠军樊麾。这一结果并非史无前例的,但却是业界始料未及的。多数人工智能观察人士在此比赛之前一度认为,电脑要想能够在围棋比赛中真正地击败一流的围棋选手,可能还需要至少10年以上的时间。据计算,围棋每回合有250种可能,一盘棋可长达150回合,所以围棋最多有10的170次方种局面。
AlphaGo其实并不“强”
AlphaGo并不是技术方面的人工智能——或者更精确地讲,也不是强人工智能(AGI),而是一种被理论家认为是能够执行一切人类智能任务的定位更高的人工智能,包括自我认知在内。强人工智能的事例还要追溯到上世纪30年代和40年代,当时主要由数学家阿隆佐·邱奇(Alonzo Church)和阿兰·图灵(Alan Turing)在工作中发现。
但此后,一直到三十年之前,强人工智能才实现了理论上的一致性。1985年,物理学家大卫·多伊奇(David Deutsch)发布了所谓的邱奇—图灵猜想论据。当时,这一猜想认为,一切能够被通用图灵机(例如用于一般目标的计算机)计算的基数函数也都能够被人脑计算,反之亦是如此。多伊奇将此归因于“计算的通用性(universality of computation)”法则。多伊奇认为,通用目标的计算机具有(或将有)量子多样性。
在计算机科学领域,更强形式的这种猜想一直被关注,并被搜集和整理出来,这就是众所周知的邱奇—图林—多伊奇理论(Church-Turing-Deutsch)。该理论认为,任何物理过程——例如人类识别——都能够被基于通用目标的计算机效仿(我们将称之为“软件”)。换句说话,这不仅仅是一种意识,而且还是一种反射性的自我认知。
AlphaGo能从自己犯的错误中获得教训
而AlphaGo则两者都不是。据DeepMind的研究人员透露,AlphaGo按照蒙特卡罗树搜索(MCTS)算法和“深度”中立网络的形式整合了机器学习,这种深度中立网络一直通过监督学习方式进行培训。(AlphaGo的培训机制也包括向人力专家发挥和自主发挥过程学习。)
如果放宽一点标准,那么AlphaGo也实现了某种程度上的人工智能。例如,AlphaGo能够从自己的错误中获得教训,同时还能够从其他方面体会失败与成功的经验。此外,AlphaGo还能够通过其自我培训机器学习算法来改变和提升自己。这不会让其成为强人工智能,但却是一种旨在针对特殊任务的专门程序。AlphaGo并未真正地“学习”,主要是因为其未真正地思考。例如,并不存在“自身”,在AlphaGo的世界,这就是一种将自身视作目标的反射性认知,或者是一种理性认识的先决条件。AlphaGo没有一个世界,主要是因为“世界”是一个抽象的概念。
也就是说,AlphaGo堪称是一个不朽的成就,同时也是机器学习获得认可的标志,目前来看,机器学习可能又处于复兴过程之中。机器学习,有着一种不可抗拒的特征:从热门初创企业(例如BigML、H20.ai、MetaMind、Predixion和Skytree等)到成熟的知名计算巨头(例如惠普实验室、IBM研究室、微软研究室等其它企业),再到业已建立的商业智能(BI)和数据存储公司等,这些都表明所有人都在机器学习方面拥有一定的影响力。
最新的特征就是高度平行化的机器学习。所有重大的大规模并行处理(MPP)数据存储服务商都在支持这种能力——即在多个聚集节点之间的同时运行数据库内机器学习算法。去年底,Pivotal公司(如今已经被戴尔收购)曾将自己的MADlib机器学习框架提供给Apache软件基金会(ASF)。Pivotal声称,该公司已经研发出MADlib,并能够在其Greenplum MPP数据库和HAWQ中平行运行。
然而,机器学习并不仅是一种MPP数据存储方法。许多机器学习初创型企业都支持类似的能力。例如,开源机器学习平台H2O.ai就声称,机器学习与通用目标的平等处理技术进行整合,能够从根本上加速创建、测试和培训机器学习模式的程序。H2O.ai能够在单机中运行,也能够在Hadoop环境下运行,或者使用Spark聚集点计算框架的机器学习实验室Mlib。
一位业内人士声称,“我们采用了上世纪80年代和90年代的多位学者和数学家编写的经典算法,我们又重新使用Java语言编写,同时还按照内存MapReduce原理重新编写。这种做法就是让人们基本上利用更多的机器算法来解决问题。内存便宜、存储也便宜。如今,人们能够真正地运行100节点的群集,处理大量的数据,而且能够非常快速地创建、测试和培训机器学习模式。”
业内人士延加(Iyengar)声称,从使用情况来看,这种机器学习平行化方法并不是一种技术性“解决方案”。事实上,许多机构已经是平行机器学习方法的忠实用户。
延加还称,“那就是数据科学的艺术所在。你们看到了大量的变化,大量的此类功能到底意味着什么,这不可能知道。追溯到可预测时代,你只看到少量的变量因素,例如年龄、人口、性别等,但是,如果你看看社会化数据或互动数据,每一次都会看到异样的变化。我们拥有深度的中立网络、梯度推进学习方法等,我们拥有所有的这些算法。”
最后,延加还说道,“从传统的角度来看,如果你必须按照大数据规模做这些工作,那么这可能会需要非常长久的时间。但如今,可能只需要几分钟即能完成。你可以尝试一下整套模型——典型地讲,让一个数据科学家掌握成百上千种模式,的确是非常普通的事——并快速对这些模型进行测试(以弄清哪一个模型不成功)。我们有四家客户中的一家就是思科公司,该公司创建了一个模型工厂。他们一天就能够生产6万种模型,并从中挖掘最适合他们需求的那一种模型。他们之所能够这么做,主要是因为他们创建模型非常便宜。他们能够真正地承担打造大量模型所需的成本,因而也就能够去粗存精,从中找到少量的合适模型。”(金全)
来源:腾讯网 |
|