东南大学物联网交通应用研究中心
东南大学物联网交通应用研究中心
北京时间:
【白话AI】机器是如何学习的?
2018-10-14 20:01   作者:   来源:简书网 推荐人:谢再春   浏览:98   我要评论


什么叫"训练”


    在谈训练机器学习之前我们先来理顺一下什么叫做训练
    “训练”这个词相信大家都不陌生。先看看它的定义:
    训练——有计划有步骤地通过学习和辅导掌握某种技能。有意识地使受训者发生生理反应,从而改变受训者素质、能力的活动。和教育一样,训练也是培养人的一种手段。
    从这个定义我们不难看出训练的两个基本方式:一种是自学;一种是有人辅导。这两种方式我们在生活中都经常见到。
    尽管日常生活中,自学的效率不高,最后结果也常常不尽如意,我们还是经常会自学。自学的最大特性在于无目的性。在训练学习过程中我们并不知道何为对何为错,或者事情本身并没有对错。我们不断总结归纳,基于新的发现一点一点的行进,但是不一定总是向“前”走。例如,我们小的时候,面对一堆玩具的时候,尽管没有人教,我们多半总是能把这些玩具很好地分类,填充娃娃一类,小汽车一类,积木一类等等。
    有人辅导的训练就再常见不过了。从一出生,就在不停的做着这件事。学习行走、说话、打篮球、数理化等等。在这些过程中我们都是在某种外在力量辅助的情况下,向着某个特定目标不断前进。当我们做错的时候,会有人明确的告诉我们,并且多半都会有个明确的反馈机制量化这个反馈。例如,“数学考了93分”可以比较明确的告诉你差了7分达到这次考试的最高级别期待。
    尽管当下我们想要学会什么东西的时候,多半我们都会找到各式各样的辅助机构帮助我们。但是,应该不难想象这些培训学习的最开始都是从某一群人的“自学”发展出来的。例如概率论就是一个赌徒为了赢更多的钱而研究出来的一套理论。通过不断的演化,变成了大学里面的一个基础课程。
    总的来说,我觉得可以这样理解“训练”的这两个方法:对于未知的领域我们需要“自学”来画出地图。有了地图以后,我们就可以通过“有辅导的”训练来提高我们在这个地图上的行进能力。
    另外,不知道大家是否看出来了“训练”的定义里面的一个潜在前提。
    这个前提是学习的主体是具备学会某种东西的能力的,并且是可以通过训练提高的。例如我们训练一只小狗学会听懂“坐下”这个命令的前提是小狗能区别人声,并且能够懂得听到“坐下”的声音是,如果坐下的话就会获得奖励这个简单逻辑。蜘蛛就不具备这个能力,所以也就没人训练他们听懂“织网”这个命令。更重要的是,在人工智能之前,我们在想到“训练”的时候,训练的主体都不是人类创造的东西。如果你说“训练篮球弹起来”或者“训练自行车左拐”,人们多半会觉得你疯了。但是,人工智能出现之  后,“训练车在路上跑”一下子就变成了可以吸纳几百亿美元资金的一个概念。
    基于这些对于“训练”的深入理解,我们再来看看“训练机器”应该怎么做。
训练机器
    当问题太复杂的时候,我们就应该分而治之。基于前面的解释我们可以把训练分成两个部分:“如何训练” + “被训练的主体”。

如何训练


    基于我们人类的成功发展史,不难看出前面提到的训练的两个方式是非常有效的两个学习方式。除非有特别原因,那么我们没有理由不把他们用在机器上。在机器学习领域我们把他们分别叫做“监督式学习 (Supervised Learning)”和“无监督式学习(Unsupervised Learning)”。这两个类别也是机器学习领域里的两个非常广义且基本的类别。这是他们的定义:
    监督式学习中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练资料是由输入物件(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。
    无监督式学习是一种机器学习的方式,并不需要人力来输入标签,它是监督式学习和强化学习等策略之外的一种选择。在监督式学习中,典型的任务是分类和回归分析且需要使用到人工预先准备好的范例(base)。
    这两个定义的最大差别,体现在我们在训练机器时准备的资料的不同,即数据的不同。
    监督学习的时候,我们需要在提供输入数据的同时,告诉机器期待的结果是什么。例如在我们训练机器翻译一段英文的时候,我们的数据应该是一组英文句子和他们对应的中文。训练的时候把英文句子告诉机器,然后把机器翻译的中文和数据里对应的正确翻译比较。如果不一样的话,机器就可以根据这个结果改进它的翻译方式,从而通过这次训练获得提高。通过不断的反复这些训练过程,机器的翻译结果会越来越接近我们预期的翻译结果,从而“学会”翻译这件事。
    而无监督学习的时候,我们不需要告诉机器我们期待的结果是什么。这个方法在我们不知道期待的结果应该是什么的时候非常必要。例如说,在自然语言理解这个领域里面我们第一步需要做的事就是要把词翻译成一个机器可以理解的一组数字,术语是“编码”。词的编码应该可以通过某种方式来反应词与词之间的关系。例如,“习主席和中国的关系”和“普京和俄罗斯的关系”应该能通过这些词的编码体现出来。如果我们想通过我们人工的方式给每个词设定一个期待的结果会非常的繁琐和困难,无监督学习在这个任务上面就能很好得以发挥。我们可以把无数的句子丢给机器,让机器自己根据这些句子里面的词的关系,想出来一个合理的编码方式。

    这两个分类比较好的从一个特定角度划分了不同训练方式所需要的数据种类。下面我们再来看看“机器”这部分。


被训练的主体


    机器学习这个任务最具魅力的部分就是这个部分。与“训练”猫和狗不同, “训练”机器的无限可能就来自于“机器”这个东西是受我们控制的。我们可以选择把机器设计成和人一样,从而让机器像人一样学习。我们也可以选择把机器设计成一个与人类完全不同,但是学习能力更强的个体。从这个角度来看,机器学习就像“x+y=0”这个方程一样,有两个未知数——“训练学习”和“学习方式”,也就有无限可能。我们设计的机器的不同直接影响我们如何训练这些机器去学习,所以理论上我们可以任意方式训练机器去学习。
    那么下个问题自然就是“我们是如何设计这些机器的?”。

    研究设计机器的学习方式是一个很新并且飞快发展的领域。当下很火的深度学习就属于众多研究方向的一只。我最喜欢佩德罗·多明戈斯教授在《终极算法》中的分类方式。他把不同分支划分五类如下:


** 逻辑学派**


    对于这个学派来说,认知是以逻辑的形式存在的。简单的逻辑可以是:“我比小明高,小明比小强高” => “我比小强高”。机器学习需要的是事物之间的内在逻辑。在这个例子中就是,“高”这个属性的可传递性,即A比B高,B比C高,可以得出A比C高。


** 联结学派(模仿大脑学习)**


    这个学派的方法是设计机器去模仿人类大脑的学习方式。现代脑神经学认为人脑的认知是通过无数神经元形成的网络来储存的,行为和决策是通过以某种方式触发这个神经网络而产生的。例如我们看到的世界就是通过眼部神经以电子信号的形式传给大脑皮层的神经元网络。这些信号在神经元网络里面被传递处理,最后产生我们的行为和决策。深度学习就属于这个学派。


** 进化学派**


    进化学派认为认知是以DNA的方式存在的。所以,机器学习的过程就是模仿物种进化的过程。通过繁衍(组合不同的DNA而产生新的DNA)和淘汰不适合的DNA,最后剩下的DNA应该就是机器学习到的认知。


** 贝叶斯学派**


    这个学派认为认知是以概率的形式存在的,也就是事物与事物之间的关联是以某种概率公式存在的。机器学习就是学习描述事物之间关系的概率公式。机器可以假设一个公式作为起始,然后通过新的数据不断的改进这个公式,从而让这个公式最好的描述已知的数据。例如,太阳从哪个方向升起这个事情就是一个概率公式。我们通过无数年的观察得出来“太阳从东边升起的概率是100%”。但是如果有一天地球转的方向反过来,这个公式也可以被逐步更新为“太阳从西边升起的概率为100%”。最有名的改进概率公式的方式是贝叶斯定理,所以这个学派被叫做贝叶斯学派。


** 类推学派**


    类推学派的不同之处在于他们的方法论。他们更擅长在已有的认知里面找到类似的方法去解决未知的问题。例如“最近邻居”算法的核心思想就是“最近的应该最相似”,所以我们可以把事物投射到多维空间里,通过计算几何距离,判断两个事物的相似度。在这个例子里面,机器所学习的就是如何把事物投射到多维空间里,以及如何根据几何距离分类。
    上面我们粗略的理解了“如何让机器学习”的几大分类。希望大家看到这个领域复杂性的同时,也能看到这个的无限可能性。
相关阅读
发表评论
姓名:
联系方式:
评论专区
东南大学 东南大学交通学院 清华大学 同济大学 西南交通大学 北京航空航天大学 上海交通大学 浙江大学
University of Wisconsin - Madison University of Michigan Rensselaer Polytechnic Institute Santa Clara University Rutgers University
交通运输部路网监测与应急处置中心 江苏省交通运输厅 南京智库联盟 江苏交通控股有限公司 江苏高速公路联网营运管理有限公司
中心概况研究动态新闻中心合作交流加入我们
Copyright © 2015 东南大学物联网交通应用研究中心 All Rights Reserved.