行业新闻

行业新闻

当AI实施多任务学习时,它能做什么?

发布时间:2020-06-11 点击数:1330

提到AI领域的多任务学习,许多人可能会立即想到通用人工智能。按照常识,像超级海军陆战队的大白这样的护理机器人不仅可以执行医学诊断,还可以理解人类的情绪,并且可以完成诸如陪伴机器人之类的各种复杂任务。

AI多任务学习

但是大白毕竟只是科幻电影的产物,大多数现有的AI技术仍处于单一智能阶段,也就是说,机器智能只能完成一个简单的任务。在工业机器人中,喷涂只能用于喷涂,运输只能用于运输。识别人脸的智能相机只能用于人脸。一旦人类戴上口罩,他们必须重新调整算法。


当然,让单个代理完成多个任务也是当前AI研究的热点。最近,强化学习和多任务学习算法中表现最好的是DeepMind的Deep57代理,该代理已在街机学习环境(ALE)数据集中的所有57种Atari游戏中实现。超越人类的表现。


当然,多任务学习不仅用于游戏策略。与现阶段的AI相比,我们人类是多任务学习的大师。我们不需要学习成千上万的数据样本就可以了解某种事物,也不必从一开始就学习每种事物,而是可以通过触摸来掌握相似的事物。


人工智能可以轻松地基于单一智能来压制人类,例如,它可以识别成千上万的人类面孔;但是AI应该与人类在多任务学习中的通用能力保持一致。

什么是多任务学习?

简单来说,多任务学习(MTL)是机器模仿人类学习行为的一种方式。人类学习方法本身是广义的,也就是说,它可以从学习任务的知识转移到其他相关任务,并且不同任务的知识和技能可以互相帮助。多任务学习包括同时学习多个相关任务,同时进行梯度反向传播,并利用相关任务训练信号中包含的特定领域信息来提高泛化能力。


打个比喻。我们知道,人类不像老虎和豹子那样奔跑,不像猿和猴子那样爬山,也不像鲸鱼和海豚那样游泳,但是人类只能同时奔跑,爬山和游泳。在人工智能和人类智能中,我们通常认为AI更好地完成一项任务,并且超越了AlphaGo等人类专家。人类可能胜任各种任务。

MTL是让人工智能实现这种人类能力。通过在学习多个任务时共享有用的信息,改进了有助于学习每个任务的更精确的学习模型。


这里需要注意的是多任务学习和转移学习之间的区别。转移学习的目的是将知识从一项任务转移到另一项任务。目的是使用一个或多个任务来帮助改善另一个目标任务,并且MTL希望多个任务可以互相帮助以彼此改善。


在这里,我们必须找出MTL的两个特征:

首先,任务具有相关性。任务的相关性意味着在多个任务的完成模式中存在某些相关性。例如,在人脸识别中,除了可以识别人脸特征外,还可以估计和识别性别和年龄,或者在不同类型的游戏中已经确定了一些通用规则,并将这种相关性编码为MTL模型的设计。


其次,任务有不同的分类。 MTL的任务分类主要包括有监督学习任务,无监督学习任务,半监督学习任务,主动学习任务,强化学习任务,在线学习任务和多视图学习任务,因此不同的学习任务对应不同的MTL设置。
共享表示和功能概括,这是理解MTL优点的两个关键

为什么在神经网络上同时训练多个任务的学习效果会更好?


我们知道深度学习网络是具有多个隐藏层的神经网络,它将输入数据逐层转换为非线性,更抽象的特征表示。每层的模型参数不是人为设置的,而是在给学习者提供参数后在训练过程中学习的,这给了多任务学习空间以展示其能力,并具有在训练过程中学习多种能力的能力。任务的共同特征。


例如,在上述MTL网络中,反向传播并行作用于4个输出。由于四个输出共享底部的隐藏层,因此在这些隐藏层中的某个任务中使用的要素表示也可以由其他任务使用,从而促使多个任务一起学习。并行训练多个任务,并共享不同任务学习的特征表示。这样,多任务信息有助于共享隐藏层以学习更好的内部表示,这成为多任务学习的关键。

那么MTL如何产生效果?

MTL方法引入了感应偏置。感应偏置有两个作用。一是相互促进。多任务模型之间的关系可以被视为相互的先验知识,也称为归纳传递。有了模型的先验假设,可以更好地改善模型;另一个效果是约束效果,借助多个任务之间的噪声平衡和表征偏差来实现更好的泛化性能。

首先,MTL的引入可以使深度学习减少对大量数据的依赖。样本数量较少的任务可以从样本量较大的任务中学习一些共享表示,以减轻任务数据的稀疏问题。


其次,多任务的直接相互促进体现在:①多种模型的特征相互补充。例如,在网页分析模型中,改进点击率预测模型还可以促进转化模型学习更深的功能; ②注意机制,MTL可以帮助训练模型将重点放在重要特征上,并且不同的任务将为该重要特征提供更多的证据; ③“窃听”任务功能,即MTL可以允许不同的任务直接“窃听”彼此的功能。通过“提示”训练模型来预测最重要的功能。


第三,多任务的相互约束可以提高模型的通用性。一方面,多任务的噪音平衡。多任务模型的不同噪声模式允许多个任务模型学习通用表示,从而避免了单个任务的过度拟合。联合学习可以通过平均噪声模式获得更好的表示;另一方面,代表偏见。 MTL对特征的偏爱会导致模型偏差。但这将有助于模型将来推广到新任务。在任务是同源的前提下,我们可以学习足够大的假设空间,以便将来在某些新任务中获得更好的泛化性能。

工业现场正在降落,MTL如何解决实际问题

由于MTL具有减少大数据样本依存关系和提高模型泛化性能的优点,因此MTL被广泛用于各种卷积神经网络的模型训练中。
首先,多任务学习可以学习多个任务的共享表示。这种共享表示具有很强的抽象能力,可以适应多个不同但相关的目标,通常可以使主要任务获得更好的泛化能力。


其次,由于使用共享表示,因此当多个任务同时进行预测时,数据源的数量和整个模型参数的大小将减少,从而使预测更加有效。
我们以MTL在计算机视觉中的应用为例,例如目标识别,检测,分割等。
例如,面部特征点检测。因为面部特征可能会受遮挡和姿势变化的影响。 MTL可以提高检测的鲁棒性,而不是将检测任务视为一个独立的问题。


多任务学习希望将优化的面部特征点检测与一些不同但细微相关的任务相结合,例如头部姿势估计和面部属性推断。人脸特征点检测不是一个独立的问题,其预测将受到一些不同但细微相关的因素的影响。例如,正在笑的孩子会张开嘴,有效地发现和使用此相关的面部属性将有助于更准确地检测嘴角。


如上图所示,人脸特征点检测(TCDCN)模型除了检测特征点的任务外,还有识别眼镜,笑脸,性别和姿势的四个辅助任务。通过与其他网络的比较,可以看出辅助任务使主要任务的检测更加准确。


MTL在不同领域中具有不同的应用程序,其模型也不同,并且解决的应用程序问题也不同,但是它们各自的领域中都有一些特征。除了上面介绍的计算机视觉领域外,还有生物信息学,健康领域,包括信息学,语音,自然语言处理,Web垃圾邮件过滤,Web页面检索和普适计算在内的许多领域都可以使用MTL来提高各自应用程序的有效性和性能。


例如,在生物信息学和健康信息学中,MTL用于识别对治疗目标的反应的特征机制,通过多组相关分析来检测因果遗传标记,并通过稀疏贝叶斯模型的性特征进行自动相关,以预测认知结果阿尔茨海默氏病的神经影像学检查。


在语音处理中的应用。 2015年,研究人员在国际声学,语音和信号处理(ICASSP)会议上共享了一篇论文《基于多任务学习的深度神经网络语音合成》,并提出了一种多任务堆叠式深度神经网络。它由多个神经网络组成。先前的神经网络将其顶层的输出用作语音合成的下一个神经网络的输入。每个神经网络都有两个输出单元。通过在两个任务层之间共享隐藏的内容,一个用于主任务,另一个用于辅助任务,从而更好地提高语音合成的准确性。


在联网的Web应用程序中,可以使用MTL共享不同任务的功能表示,并学习提高Web搜索的排名。 MTL可用于查找层次结构,并通过可伸缩的分层多任务学习算法,结构稀疏性和其他问题来最大化广告中的转换。


通常,在这些MTL应用领域中,研究人员广泛使用特征选择方法和深度特征转换方法。因为前者可以减少数据维数并提供更好的解释性,而后者可以通过学习功能强大的特征表示获得良好的性能。


作为提高神经网络学习能力的一种手段,MTL在越来越多的领域中得到了广泛的应用。这实际上是许多行业在实际应用中AI的规范化场景。
我们最终可以追溯到源头并反思一个事实,即人类之所以能够灵活地应用多任务学习,恰恰是因为环境处于多种功能和噪音的条件下,这不可避免地要求我们能够绕过类别。执行先验学习能力转移。如果人工智能仅停留在整体智能的基础上,并且为每种类型的知识或任务建立单独的模型,那么它可能仍然只是一组“人为延迟”的机械系统,从而导致“白马和非马”开个玩笑。


当AI在整合方面真正能够像人类一样熟练,并克服人类的认知带宽和某些认知偏差时,通往AGI的道路可能会迎来一线曙光。当然,这条路还很远。


全网数据为大家提供专业化深圳服务器托管,深圳服务器租用,深圳服务器托管,云服务器租用等服务器资源,详情欢迎咨询客服了解。



用户至上,用心服务

全网数据以"用户至上,用心服务每一位用户"为宗旨,您可以把您的应用放心的交给我们,全网数据为您提供完美解决方案和数据中心服务。

免费咨询