CN110892418A - 多任务神经网络系统 - Google Patents
多任务神经网络系统 Download PDFInfo
- Publication number
- CN110892418A CN110892418A CN201880028533.7A CN201880028533A CN110892418A CN 110892418 A CN110892418 A CN 110892418A CN 201880028533 A CN201880028533 A CN 201880028533A CN 110892418 A CN110892418 A CN 110892418A
- Authority
- CN
- China
- Prior art keywords
- task
- policy
- worker
- training
- policies
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000009826 distribution Methods 0.000 claims abstract description 31
- 230000009471 action Effects 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 31
- 230000002787 reinforcement Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 230000006399 behavior Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000001902 propagating effect Effects 0.000 claims 1
- 239000003795 chemical substances by application Substances 0.000 description 24
- 230000000875 corresponding effect Effects 0.000 description 19
- 238000004590 computer program Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000005457 optimization Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000000644 propagated effect Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 102100040653 Tryptophan 2,3-dioxygenase Human genes 0.000 description 1
- 101710136122 Tryptophan 2,3-dioxygenase Proteins 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/043—Distributed expert systems; Blackboards
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
Abstract
提出了一种用于训练诸如多任务神经网络系统等的多任务计算机系统的方法。所述系统包括可训练工作器集合和共享模块。对多个不同任务训练所述可训练工作器和所述共享模块,使得各个工作器学习根据相应的任务策略执行所述任务中的一个对应任务并且使得所述共享策略网络学习表示针对所述任务的共同行为的多任务策略。通过优化目标函数来执行所述协同训练,所述目标函数针对每个任务包括:奖励项,所述奖励项指示工作器在根据所述任务策略执行所述对应任务所获得的期望奖励;以及至少一个熵项,所述至少一个熵项朝着所述多任务策略的分布正则化所述任务策略的分布。
Description
本申请是2017年5月19日提交的美国临时专利申请第62/508,991号的非临时申请并且要求其优先权,该申请的全部内容以引用的方式并入本文。
背景技术
本说明书涉及训练神经网络以执行多个任务的方法,并且涉及用于执行多个任务的自适应计算机系统,诸如神经网络系统。
神经网络是采用一层或者多层非线性单元针对接收到的输入来预测输出的机器学习模型。一些神经网络是除了输出层之外还包括一个或者多个隐藏层的深度神经网络。各个隐藏层的输出被用作网络中的下一层(即,下一个隐藏层或者输出层)的输入。网络的各个层根据相应参数集的当前值从接收到的输入生成输出。
本文描述的一些技术应用在强化学习领域中。在强化学习系统中,代理通过执行由强化学习系统响应于接收到的表征环境的当前状态的观察结果而选择的动作来与环境交互。一些强化学习系统根据神经网络的输出,响应于接收到给定的观察结果,选择由代理执行的动作。
发明内容
本说明书描述了一种自适应系统,诸如神经网络系统,其被实现为在一个或多个位置处的一个或多个计算机上的用于执行多个不同任务的计算机程序、以及用于训练系统执行这些任务的方法。优选地,任务是相关的,系统的相应部分可以然后学习共享行为和任务特定行为。知识可以在系统的这些部分之间共享。
工作器可以与对应的任务或任务组相关联。与每个任务或任务组相关联的工作器被设置为执行该任务或该任务组。系统可以针对每个任务采用和/或生成至少一个相应的“任务策略”,该“任务策略”指示与该任务相关联的工作器应如何执行该任务。如果每个策略只有一个工作器,则可以将其等效地视为“工作器策略”。如果有与任务中的一个给定任务相关联的多个工作器,则他们可以共享该任务的任务策略(即,该任务策略被用作那些多个工作器中的每个工作器的工作器策略),或者多个工作器中的每个工作器可以具有作为用于该任务的任务策略的相应的工作器策略。
系统的共享或共同部分可以学习多任务策略。共享部分可以是但不一定是神经网络。
根据策略之间的距离的量度,任务策略可以紧跟着共同的多任务策略;例如,多任务策略可以限定任务策略的质心。任务策略可以但不必使用相应的神经网络来实现。它们可以但不必基本上彼此独立地运行。
在一个示例中,系统可以是强化学习系统的一部分。任务可以包括对作用于一个或多个环境(例如,相同环境或相应环境)上或内的相应代理(“工作器”)的控制。系统可以输出用于选择动作以供代理执行的数据(“动作数据”)。例如,系统可以输入数据以观察或另外接收与环境的状态有关的数据,并且基于观察到的状态可以确定要执行的动作。每个环境可以是真实的或模拟的。可以使用一个或多个任务策略来生成用于选择要执行的动作的数据。每个任务策略可以指定针对观察到的状态要执行的动作,或者可以指定可以从中获取针对观察到的状态要执行的动作作为样本的分布。
尽管系统可以是强化学习系统的一部分,但是它也可以不是。例如,所描述的技术可以例如使用具有卷积的前馈网络来应用于诸如图像或视频识别或分类等任务。通常,系统可以被配置为接收任何种类的数字数据输入,并基于该输入生成任何种类的分值、分类或回归输出。
例如,如果神经网络的输入是图像或已经从图像中提取的特征,则神经网络针对给定图像生成的输出可以是针对一组对象类别中的每个类别的分值,每个分值表示图像包含属于该类别的对象的图像的估计似然。
作为另一个示例,如果神经网络的输入是互联网资源(例如,网页)、文档或文档的一部分或从互联网资源、文档或文档的一部分提取的特征,则由神经网络针对给定互联网资源、文档或文档的一部分生成的输出可以是针对一组主题中的每个主题的分值,每个分值表示互联网资源、文档或文档部分与该主题有关的估计似然。
作为另一示例,如果神经网络的输入是特定广告的印象上下文的特征,则由神经网络生成的输出可以是分值,该分值表示特定广告将被点击的估计似然。
作为另一示例,如果神经网络的输入是针对用户的个性化推荐的特征,例如,表征该推荐的上下文的特征,例如,表征用户所采取的先前动作的特征,则由神经网络生成的输出可以是一组内容项中的每一个内容项的分值,每个分值表示用户将对被推荐的内容项做出有利响应的估计似然。
作为另一示例,如果神经网络的输入是一种语言的文本序列,则神经网络生成的输出可以是用于另一种语言的一组文本中的每一个文本的分值,每个分值表示另一种语言的文本是将输入文本正确翻译成另一种语言的估计似然。
作为另一示例,如果神经网络的输入是表示说出来的话语的序列,则神经网络生成的输出可以是一组文本中的每一个文本的分值,每个分值表示该文本是话语的正确笔录的估计似然。
当用作强化学习系统的一部分时,环境可以是模拟环境,诸如视频游戏,而工作器可以是玩该视频游戏的模拟用户。作为另一示例,模拟环境可以是运动模拟环境,例如驾驶模拟或飞行模拟,并且工作器是在该运动模拟中导航的模拟车辆。在这些实施方式中,动作可以是控制输入以控制模拟用户或模拟车辆。
在一些其他实施方式中,环境是真实世界环境,并且工作器是与真实世界环境交互的机械工作器。例如,工作器可以是与环境交互以完成特定任务的机器人。作为另一个示例,工作器可以是在环境中导航的自动驾驶或半自动驾驶车辆。在这些实施方式中,动作可以是控制输入以控制机器人或自动驾驶车辆。
通常,本说明书中描述的主题的一个创新方面可以体现在训练多任务计算机系统(诸如多任务神经网络系统)的方法中,该系统包括与共享模块(诸如共享策略网络)结合的可训练工作器集合。所述可训练工作器和共享模块可以在多个不同任务上以协同的方式被训练,使得每个工作器学习根据相应的任务策略执行对应的关联任务,并且共享模块学习表示针对任务的共同行为的多任务策略。例如,在培训期间,可以通过共享策略网络和可培训工作器二者传播来自协同培训的培训错误/权重调整。系统可以经由监督或非监督损失例如利用强化学习来学习。可以在工作器的行为上训练系统的共享部分(即,共享模块,例如共享策略网络),反之亦然。
可以通过优化目标函数来确定传播的错误。目标函数可以包括第一熵项,该第一熵项测量任务策略的分布与多任务策略的分布之间的差异。该项可以包括Kullback-Leibler散度,并且可通过折扣因子进行折扣。目标函数还可以包括第二熵项,该第二熵项取决于任务策略的分布,以鼓励探索。第二熵项也可以通过相同或不同的折扣因子进行折扣。
在强化学习系统中,任务策略分布和多任务策略分布可以包括状态-动作分布。目标函数可包括取决于在状态下采取行动得到的期望奖励的折扣奖励项。这样的强化学习系统可以基于,例如,Deep Q-Network(DQN)、Double-DQN、Advantage Actor Critic(A3C)网络、或其他架构。学习可以是同步的也可以是异步的;例如Hogwild!。可以将算法用于并行随机梯度下降(或上升)学习。
协同训练可以包括在训练一个或多个可训练工作器(即,关联任务的相应任务策略)与训练共享策略网络之间交替。因此,系统可以在学习任务(工作器)策略和提取多任务策略(例如以迭代方式学习)之间交替。备选地,可以联合训练工作器神经网络集合和共享策略网络,即,例如通过使用如上述组合的损失函数,针对工作器(任务)策略和多任务策略一起对其进行优化。可以将单独的网络用于每个工作器(任务)策略,将共享策略网络仅用于多任务策略,或者工作器网络可以限定相对于多任务策略的软优势,其中可以通过可控制的温度值对软优势进行参数化。
通常,协同训练可以包括反向传播,该反向传播包括旨在将来自任务策略的概率与来自多任务策略的概率相匹配以从任务策略提取多任务策略的梯度项。
在另一方面,多任务神经网络系统处理与要执行的多个习得任务中的一个任务有关的输入数据,并提供输出数据以控制该任务的执行。这样的系统可以包括用于接收输入数据的输入和耦合到该输入的工作器集合,每个工作器被配置为通过根据相应任务策略输出动作数据来执行相应的任务。共享策略网络可以耦合到输入和工作器集合中的一个或两个,并且可以限定表示针对任务的共同行为的多任务策略。多任务神经网络系统可以被配置为将针对每个任务的自适应系统的输出与习得多任务策略相结合,以限定针对该任务的任务策略,以使至少一个工作器能够执行对应的习得任务。
工作器(代理)可以包括神经网络;它们可以与共享策略网络共享一些、全部或不共享权重。系统可以具有多列架构,在该多列架构中工作器神经网络模块限定至少一列神经网络层,并且在该多列架构中共享策略网络限定第二列神经网络层。工作器和共享策略网络可以一起限定例如具有卷积的强化学习系统或前馈神经网络。
本说明书中描述的主题可以在特定实施例中实现,以实现以下优点中的一个或多个。这些方法可用于更有效地训练神经网络。例如,网络可以更有效地从转移学习中受益,在转移学习中,可以将针对一个任务的训练用于引导针对另一项相关任务的训练。这可以减少每个任务所需的训练数据总量。这些方法可用于从针对多个不同任务运行的工作器中提取共同行为。而且,这样的系统可以更快地学习并在训练后对任务产生改善的最终执行。它们对于超参数设置可能更稳健。对于每个任务的给定执行,它们总体上也可以具有较少的参数。这些技术通常适用于许多不同的神经网络架构,包括:用于监督学习和非监督学习的架构、用于强化学习的架构以及用于数据分类的架构。
附图说明
图1示意性地示出了多任务自适应计算机系统,诸如多任务神经网络系统。
图2示出了用于执行强化学习的图1所示的多任务自适应计算机系统。
图3示出了由多任务自适应计算机系统执行的方法。
图4示出了用于训练多任务自适应计算机系统的方法。
图5示出了第一多任务神经网络系统的一部分。
图6示出了第二多任务神经网络系统的一部分。
在各个图中,类似的参考符号和指定表示类似的元件。
具体实施方式
该说明书公开了一种多任务自适应计算机系统,诸如多任务神经网络系统。该系统将由配置为执行特定操作或动作的一个或多个计算机实施。每个计算机上都安装了软件、固件、硬件或它们的组合,这些软件、固件、硬件在运行时会使计算机执行该操作或动作。对于将被配置为执行特定操作或动作的一个或多个计算机程序,意味着该一个或多个程序包括指令,该指令在由数据处理设备执行时使该设备执行该操作或动作。
图1提供了多任务自适应计算机系统的高级示意图。仅出于示例的目的,其被示出为用于执行四个任务,但是该系统很容易被推广到任意多个任务。在四个任务的情况下,神经网络系统可以包括四个工作器11、12、13、14,每个工作器用于执行一个相应的任务。在系统的变型中,工作器的数量可以高于任务的数量,使得一个的多个的任务可以与包括多个工作器的相应工作器子集相关联,并且那些任务由关联的工作器集合执行。工作器的子集可以不重叠。
每个工作器产生输出,该输出是其输入的相应函数。该函数取决于工作器正在执行的任务,并被称为相应的任务策略(或者可以称其为工作器策略)。四个工作器的相应的任务策略分别用π1,π2,π3和π4表示。每个策略可能都不是确定性的。换句话说,它可以是来自由相应策略限定的概率分布的样本,该概率分布指定了工作器的所有可能输出的相应概率。
另外,多任务自适应计算机系统包括共享模块15,该共享模块15存储被表示为π0的“多任务策略”,这也是从其输入生成至少一个输出的函数。同样,可选地,函数可以是随机的;也就是说,它可以是来自由多任务策略限定的概率分布的样本。共享模块15可以被实现为神经网络,在此被称为“共享策略网络”。
任务策略π1,π2,π3和π4以及多任务策略π0是在以下所述的协同训练过程中一起生成的。在该训练期间,每个工作器学习根据相应的任务策略执行一个相应的任务,并且共享策略网络学习多任务策略π0。具体而言,在协同训练过程中,多任务策略π0适于从任务特定任务策略π1,π2,π3和π4“提取”共同的行为或表示。同时,多任务策略π0用于“正则化”任务策略π1,π2,π3和π4,使得任务策略不会过度偏离多任务策略。如下面更详细解释的,正则化可以基于Kullback-Leibler(KL)散度。这样,一个任务中获得的知识被提取到共享策略中,然后转移到其他任务中。
在一个示例中,由相应工作器执行的任务正在生成将由作用于一个或多个环境上或内的各个代理执行的动作。例如,每个代理可以作用于相同的环境上或内,这在下面进行了假设。在一种变型中,可以存在多种环境,并且对应的一个或多个代理可以作用于每个环境上或内;根据某种标准,这些环境通常彼此相似。
为了与环境交互,计算机系统接收表征环境的当前状态的数据(“状态数据”),并且响应于接收到的数据使每个代理执行相应的动作a,其是由A表示的动作空间(即,离散动作空间或连续动作空间)的元素。在本说明书中,将表征环境的状态的数据称为观察结果。通过用t表示多次中的每一次,状态数据可以表示为st,并且指示在时间t时的(对应)环境的状态。状态数据的所有可能实现的集合用S表示。因此,st∈S。
图2中示出了这种情况的示例,在该示例中,为简单起见,示出了单个计算机2。计算机2实现图1所示的多任务自适应计算机系统。这四个任务是控制作用于环境20上或内的四个相应的代理21、22、23、24。
图3示出了由图1的多任务计算机系统执行的方法300。在时间t,计算机1从环境20接收状态数据st(步骤1)。整数索引i用于标记任务(因此,i采用值1、2、3或4中的一个)。由于在此示例中任务的数量等于工作器的数量,因此索引i也可以视为对工作器进行标记。
在步骤302中,图1的多任务计算机系统的四个工作器生成相应的动作数据。动作数据针对代理21、22、23、24中的每一个指定了相应的动作at,该动作是A的相应元素。
在步骤303中,计算机2将动作数据发送到相应的代理21、22、23、24。
在步骤304中,一旦代理21、22、23、24已经在环境20上执行了相应的动作at,则多任务计算机系统接收指定每个任务的奖励{Ri(at,St)}的奖励数据。这些可以从环境20传输到计算机2,或者可以由单独的模块(未示出)计算。
在步骤305中,更新每个代理的策略和多任务策略。
在步骤306中,确定是否满足终止标准。如果是,则该方法终止(步骤307)。如果否,则该方法返回到步骤301,等待下一个状态数据。索引t更新为t+1。
图2的情况可以从几个方面进行改变。首先,计算机2可以由协同工作以实现多任务自适应计算机系统的多个计算机代替。
在一些实施方式中,存在多个环境,一个的多个代理作用于每个环境中。
在一些实施方式中,环境是(例如,由计算机2模拟的)模拟环境,并且每个代理被实现为与模拟环境交互的一个或多个计算机。例如,模拟环境可以是视频游戏,而代理可以是玩该视频游戏的模拟用户。
在其他实施方式中,环境是真实世界环境,而代理是与真实世界环境交互的机械代理。例如,代理可以是与环境交互以完成特定任务的机器人,也可以是在环境中导航的自动驾驶或半自动驾驶车辆。在这些情况下,观察结果可以是当代理与环境交互时由代理的一个或多个传感器(例如照相机、LIDAR传感器、温度传感器等)捕获的数据。
系统的优势在于,每个代理(诸如机器人、自动驾驶或半自动驾驶车辆)可以改善其与模拟或真实世界环境的交互。
现在将从数学层面上解释训练过程。任务的数量表示为n,即索引i=1,…,n。为简单起见,我们假设每个任务都有无限视野,并且每个任务都具有相同的折扣因子γ。该方法可以很容易地推广到其他场景,比如无折扣有限视野。为简单起见,我们还将假设动作空间A和状态空间S对于所有任务都是相同的。给定的动作用a表示,其中a∈A。针对每个任务i,过渡动态pi(s′|s,a)和奖励函数Ri(a,s)不同。
我们进一步假设单个相应的工作器与每个任务相关联,并且令πi成为相应第i个任务的任务特定随机任务策略。(由于每个任务只有一个工作器,因此任务策略可以等效地视为工作器策略。)动态和策略产生从某个初始状态开始在状态和动作轨迹上的联合分布,我们也将这些分布表示为πi。神经网络系统还存储“多任务策略”π0。多任务策略π0将捕获任务间共同的代理行为。
任务策略和多任务策略是通过优化目标函数在协同培训过程中一起生成的,该目标函数包括表示预期收益的项和提供策略正则化的一个或多个正则化项。第一个正则化项确保将每个任务策略πi朝多任务策略进行正则化,并且可以使用折扣KL散度限定。另一个正则化项基于折扣熵,以进一步鼓励探索。
具体来说,要最大化的目标函数是:
其中cKL和cEnt是大于零的标量因子,这些因子决定KL和熵正则化的强度,α≡cKL/(cKL+cEnt)和β≡1/(cKL+cEnt)。logπ0(at|st)项可以看作是奖励设计项,其鼓励多任务策略下具有较高概率的动作,而熵项-logπi(at|st)鼓励探索。上面我们对所有任务使用相同的正则化成本cKL和cEnt。然而,很容易将其推广到任务特定成本。如果任务的奖励规模和所需的探索量相差很大,这会很重要,尽管它确实引入了其他超参数。
可以应用文献中的一系列优化技术来最大化上述目标函数(1)。现在,我们提出两种这样的方法。第一种是基于已发布的称为软Q学习和提取的技术。我们将以表格形式表示的简单情况开始,即,对于a和s的值的某些组合以及在给定π0下对πi进行优化和在给定πi下对π0进行优化的交替最大化过程,表或其他适当的数据结构包含π0和π1的显式值的情况。
在图4中示出了该训练过程400。在步骤401中,设置多任务策略π0的初始估计(例如,所有动作均等地可能)。
在步骤401中,修改πi,使π0固定。通过使π0固定,(1)分解为每个任务的单独最大化问题,并且是熵正则化的期望收益,具有重新限定(正则化)的奖励可以使用软Q学习(也称为G学习)对其进行优化,该软Q学习基于得到以下对状态和动作值的“软化”Bellman更新(例如,参见J.Schulman、P.Abbeel和X.Chen的“Equivalence between policy gradients and softQ-Learning”,arXiv:1704.06440,2017):
Bellman更新从如下意义上来说被软化了:在状态值Vi下针对动作通常最大的算子被逆温下的软性最大值代替,该软性最大值变硬成了最大算子:β→∞。最佳策略πi因此是逆温β时的Boltzmann策略:
其中,Ai(a,s)=Qi(a,s)-Vi(st)是软化的优势函数。注意,软化的状态值Vi(s)在上面充当对数规则化器。多任务策略π0可以解释为策略先验,这是文献中关于RL的概率推断的一种观点。然而,与以往的研究不同,它被提高到α≤1的幂。这软化了先验π0对的影响,并且是超出KL散度的附加熵正则化的结果。
在步骤403中,假定每个修改的任务策略πi,对多任务策略π0进行修改。因此,神经网络系统将学习π0,而不是像某些早期的多任务学习技术(通常作为动作间的均匀分布)那样预先设置π0。(1)中取决于π0的唯一项是:
这只是将模型π0拟合为γ折扣状态-动作分布的混合物的对数似然,在策略πi下,每个任务i都有一个对数似然。最大似然(ML)估计值可以从每个任务转出时的状态-动作访问频率中得出,而最佳ML解则由状态-条件动作分布的混合给出。可替代地,在非表格的情况下,可以采用随机梯度上升,这恰好导致将任务策略πi提取为π0的更新。但是请注意,提取步骤自然是根据策略中的KL正则化目标得出的。与以前对在深度学习中使用提取的研究的另一个不同之处在于,多任务策略在下一次优化时会被“反馈”以改进任务策略,并充当管道,在该管道中,在任务策略间共享普通的且可转移的知识。
在步骤404中,确定是否满足终止标准。如果不满足,则方法400返回到步骤402。如果满足,则方法在步骤405中终止。
考虑额外的熵正则化的影响。首先,假设没有额外的熵正则化,即α=1,并考虑仅n=1个任务的简单情况。然后,当多任务策略π0和任务策略πi相等且KL正则项为0时,将(5)最大化。因此,目标函数减小为未正则化的期望收益,因此任务策略πi收敛为局部最大化预期收益的贪婪策略。从另一个角度来看,交替最大化方案等效于信任域方法,例如自然梯度或TRPO,这些方法使用以先前策略为中心的KL球,并被认为是收敛为贪婪策略。
如果α<1,则在(1)中存在一个附加的熵项。因此,即使在π0=πi和KL(π1||π0)的情况下,贪婪策略也不会使目标(1)最大化。取而代之的是,(1)利用熵正则化因子β′=β/(1-α)=1/cEnt减小到熵正则化的期望收益,使得最佳策略是具有逆温β的Boltzmann形式。总之,额外的熵项保证了任务策略不会变得贪婪,并且我们可以通过适当地调整cEnt来控制探索量。
当有多个任务时,这种对探索量的额外控制非常有价值。考虑如下情况:其中一个任务更容易完成并首先得到解决,而其他任务更难,且奖励少得多。如果没有熵项,并且在遇到其他任务的奖励之前,多任务策略和所有任务策略都可以收敛为解决该简单任务的策略。此外,由于该策略是贪婪的,因此它可能无法充分地探索其他任务甚至遇到奖励,从而产生次佳的行为。
使目标函数最小化的第二种方法是基于策略梯度和更好参数化的使用。第一种方法中的算法在多任务策略π0和任务策略πi的最大化之间交替,并且使人联想到用于学习潜变量模型的EM算法,其中π0起到参数的作用,而πi起到潜变量的后验分布的作用。然而,超出表格的情况,如果都使用例如深度神经网络来实现π0和πi,则这种交替最大化过程可能会比通过随机梯度上升相对于任务策略和多任务策略共同优化(1)要慢。在这种情况下,仅通过带有熵正则化的策略梯度来给出πi的梯度更新,并且可以在诸如优势动作-评价等框架内进行。
我们将神经网络执行的函数与策略π0和πi之间的关系称为“参数化”。
一种简单的策略参数化方法是使用带有参数θi的相应神经网络(“任务网络”,如果每个任务有一个工作器,则等效地称为“工作器网络”)来实现每个任务策略πi,从而使网络执行的函数等于πi。另一个神经网络(“共享策略网络”)用于实现多任务策略π0,其中策略网络π0所执行的函数等于π0。在图5中示意性地示出了该参数化,其中共享策略网络被表示为50,并且其中一个任务网络被表示为5i。策略网络50实施策略π0。每个任务网络5i运行以实现相应的策略πi。网络50和5i之间的唯一交互是在训练过程中,而不是在使用多任务神经网络系统执行任务时。网络50和5i经由KL正则化交互。然而,目标函数的奖励项导致任务网络50i从策略网络50发散以增加预期奖励。目标函数的熵项使网络50和5i有进一步发散的趋势。
通过考虑最佳Boltzmann策略(4)的形式,可以获得可能会产生更快传输的替代参数化。具体来说,神经网络系统可以使用具有以下参数的策略网络来参数化多任务策略:
公式(6)和(7)使用“帽子”符号表示对应数量的参数化近似值。然后,任务i的策略被参数化为:
注意,不是使用公式(7)来获得优势估计,而是神经网络系统可以使用(8)来对通过策略梯度优化的策略进行参数化。
在图6中示意性地说明了这种情况,其中策略网络表示为60,第i个任务网络表示为6i。共享策略网络60实施策略π0。与图5相比,在图6中,策略网络60和每个任务网络6i一起运行以产生相应的策略πi。这可以看作是该策略的两列架构,其中一列是多任务策略,另一列是专门针对任务i所需的调整。在训练和操作期间,网络60和6i之间都有交互。在培训期间,这是通过KL正则化实现的。然而,目标函数的奖励项导致任务网络60i从策略网络60发散以增加预期奖励。目标函数的熵项使网络60和60i有进一步发散的趋势。
假定以上参数的情况下,我们现在可以得出策略梯度。关于任务特定参数θi的梯度由标准策略梯度定理给出:
注意,第一项与θi的策略梯度相同。第二项试图匹配任务策略下的概率和多任务策略下的概率。如果系统使用相同的架构参数化πi,但不对该策略使用KL正则化,则第二项不存在。KL正则化的存在使多任务策略学习成为所有任务策略的质心(从某种意义上说,如果则第二项为零),并且有助于在任务之间以及向新任务快速传输信息。在我们的实验中,我们发现缺少KL正则化会显着影响算法的稳定性。除了KL正则化之外,熵正则化的存在还允许单独控制传输量和探索量。
我们刚刚描述的框架允许许多可能的算法实例化,作为目标、算法和架构的组合而产生,我们将在下面描述和总结这些组合。
首先,考虑KL散度与熵正则化之间的权衡。在α=0的情况下,多任务神经网络系统具有纯熵正则化的目标函数,该函数不在任务之间耦合和传输。在α=1的情况下,多任务神经网络系统具有纯KL正则化的目标函数,该函数确实在任务之间耦合和传输,但是如果多任务策略和任务策略变得相似且贪婪,则其可能会过早地停止探索。在0>α>1的情况下,多任务神经网络系统具有包括两个项的目标函数。
其次,将替代优化(如图4所示)与联合优化进行比较。交替优化产生类似于策略提取/演员模仿的算法,但是本质上是利用反馈到任务策略优化中的多任务策略迭代。同样,可以将软Q学习应用于每个任务,而不是策略梯度。虽然交替优化可能较慢,但是从策略提取/演员模仿系统的经验中得出的证据表明,它可能会更稳定地学习,尤其是对于明显不同的任务。
第三,将单独的参数化(如图5所示)与两个两列参数化(如图6所示)进行比较。在两列情况下(在这种情况下,每个任务策略都被参数化为使用多任务策略),提取到多任务策略中的行为“立即可用于”任务策略,因此传输可以更快。然而,如果传输过程发生得太快,则可能无法有效地探索每个任务。
本说明书在系统和计算机程序组件中使用了术语“配置”。对于一个或多个要配置为执行特定操作或动作的计算机的系统,意味着该系统已在其上安装了软件、固件、硬件或它们的组合,这些软件、固件、硬件或它们的组合在运行时会使系统执行这些操作或动作。对于一个或多个要配置为执行特定操作或动作的计算机程序,意味着该一个或多个程序包括指令,该指令在由数据处理设备执行时使该设备执行这些操作或动作。
可以在数字电子电路系统中、在有形地体现的计算机软件或者固件中、在计算机硬件中(包括本说明书所公开的结构及其结构等效物)、或者它们中的一个或者多个的组合中实施本说明书中描述的主题的实施例和功能操作。可以将本说明书中描述的主题的实施例实施为一个或者多个计算机程序,即,编码在有形的非暂时性程序载体上以由数据处理设备执行或者以控制该数据处理设备的操作的计算机程序指令的一个或者多个模块。可替代地或者另外,程序指令可以编码在人工生成的传播信号上,例如,机器生成的电气、光学、或者电磁信号,生成该信号是为了对信息进行编码以便传输至合适的接收器设备供数据处理设备执行。计算机存储介质可以是机器可读存储装置、机器可读存储基板、随机或者串行存取存储器装置、或者它们中的一个或者多个的组合。然而,计算机存储介质不是被传播的信号。
术语“数据处理设备”囊括了用于处理数据的所有设备、装置和机器,包括:举例说明,可编程处理器、计算机、或者多个处理器或者计算机。该设备可以包括专用逻辑电路,例如,FPGA(现场可编程门阵列)或者ASIC(专用集成电路)。除了硬件之外,该设备还可以包括为探讨中的计算机程序创建执行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统、或者它们中的一个或者多个的组合的代码。
可以以任何形式的编程语言来编写计算机程序(也可以称为或者描述为程序、软件、软件应用、模块、软件模块、脚本、或者代码),包括编译语言或者解译语言、宣告式语言或者程序式语言,并且可以以任何形式来部署计算机程序,包括部署为独立的程序或者部署为模块、组件、子例程、或者适合在计算环境中使用的其它单元。计算机程序可以但不需要与文件系统中的文件对应。可以将程序存储在保持其它程序或者数据(例如,存储在标记语言文档中的一个或者多个脚本)的文件的一部分中,或者存储在专用于所探讨中的程序的单个文件中,或者存储在多个协作文件(例如,存储一个或者多个模块、子程序、或者部分代码的文件)中。可以将计算机程序部署为在一个计算机上执行或者在位于一个站点处或者分布在多个站点中并且通过通信网络互相连接的多个计算机上执行。
如本说明书中使用的,“引擎”或者“软件引擎”指提供与输入不同的输出的软件实施的输入/输出系统。引擎可以是功能的编码块,诸如,库、平台、软件开发工具包(SDK)、或者对象。各个引擎可以被实施在包括一个或者多个处理器和计算机可读介质的任何恰当类型的计算装置上,例如,服务器、移动电话、平板计算机、笔记本计算机、音乐播放器、电子书阅读器、膝上型或者台式计算机、PDA、智能电话、或者其它固定的或者便携式装置。另外,其中两个或者更多个引擎可以被实施在相同的计算装置上或者实施在不同的计算装置上。
可以由执行一个或者多个计算机程序的一个或者多个可编程计算机来执行本说明书中描述的过程和逻辑流以通过对输入数据进行操作并且生成输出来执行功能。还可以由专用逻辑电路(例如,FPGA(现场编程门阵列)或者ASIC(专用集成电路))来执行过程和逻辑流,并且还可以将设备实施为专用逻辑电路(例如,FPGA(现场编程门阵列)或者ASIC(专用集成电路))。例如,过程和逻辑流程可以由图形处理单元(GPU)执行并且设备也可以被实现为图形处理单元(GPU)。
适合执行计算机程序的计算机包括,例如,可以基于通用微处理器或者专用微处理器或者两者、或者任何其它类型的中央处理单元。通常,中央处理单元会接收来自只读存储器或者随机存取存储器或者两者的指令和数据。计算机的必要元件是用于进行或者执行指令的中央处理单元、和用于存储指令和数据的一个或者多个存储器装置。通常,计算机还将包括用于存储数据的一个或者多个海量存储装置(例如,磁盘、磁光盘、或者光盘),或者计算机可以操作地耦合以接收来自该海量存储装置的数据或者将数据传输至该海量存储装置或者进行两者。然而,计算机不需要具有这种装置。此外,计算机可以嵌入在另一装置中,例如,移动电话、个人数字助理(PDA)、移动音频或者视频播放器、游戏机、全球定位系统(GPS)接收器、或者便携式存储装置(例如,通用串行总线(USB)闪存驱动),仅举数例。
适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器装置,包括:例如,半导体存储器装置(例如,EPROM、EEPROM、和闪速存储器装置)、磁盘(例如,内部硬盘或者可移动盘)、磁光盘、CD-ROM盘和DVD-ROM盘。处理器和存储器可以由专用逻辑电路系统补充或者可以并入该专用逻辑电路系统中。
为了提供与用户的交互,可以在计算机上实施本说明书中描述的主题的实施例,该计算机具有:用于向用户显示信息的显示装置,例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器;以及键盘和指向装置,例如,鼠标或者轨迹球,用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈,例如,视觉反馈、听觉反馈或者触觉反馈;并且可以用任何形式(包括声输入、语音输入或者触觉输入)来接收来自用户的输入。另外,计算机可以通过将文档发送至用户所使用的装置并且接收来自该装置的文档(例如,通过响应于从网络浏览器接收的请求来将网页发送至在用户的用户装置上的网络浏览器)来与用户进行交互。
在本说明书中描述的主题的实施例可以实施在计算系统中,该计算系统包括后端部件(例如,作为数据处理器)、或者包括中间件部件(例如,应用服务器)、或者包括前端部件(例如,具有图形用户接口或者网络浏览器的客户端计算机,通过该网络浏览器,用户可以与本说明书中描述的主题的实施方式互动)、或者这种后端部件、中间件部件、或者前端部件的任何组合。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括局域网(“LAN”)和广域网(“WAN”),例如互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
虽然本说明书包含了许多具体实施细节,但是不应该将这些细节视为对任何发明或者可能被要求的内容的范围的限制,而是作为可以针对特定发明的特定实施例的特征的描述。在本说明书中在单独实施例的背景下描述的某些特征还可以组合地实施在单个实施例中。相反,在单个实施例的背景中描述的各种特征也可以单独地或者按照任何合适的子组合实施在多个实施例中。此外,虽然上文可能将特征描述为以某些组合来起作用并且最初甚至同样地对该特征进行了要求,但是在一些情况下可以从组合中删除来自所要求的组合的一个或者多个特征。并且所要求的组合可以指向子组合或者子组合的变化。
同样,虽然在附图中按照特定顺序示出了操作,但是不应该将其理解为需要按照所述的特定顺序或者按照相继的顺序来进行这种操作,或者需要进行所有图示的操作以实现期望的结果。在某些情况下,多任务处理和并行处理可以是有利的。此外,不应该将在上述实施例中的各种系统模块和组件的分离理解为在所有实施例中需要这种分离,并且应该理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中或者封装到多个软件产品中。
已经对本主题的特定实施例进行了描述。其它实施例在以下权利要求书的范围内。例如,可以按照不同的顺序来执行权利要求书中阐述的动作,并且仍然实现期望的结果。作为一个示例,为了获得期望的结果,在附图中描绘的过程不一定要求示出的特定顺序、或者顺序次序。在某些实施方式中,多任务处理和并行处理可以是有利的。
以下是权利要求书。
Claims (30)
1.一种训练多任务神经网络系统的方法,所述神经网络系统包括与共享策略网络结合的可训练工作器集合,所述方法包括:
在多个不同任务上对所述可训练工作器和所述共享策略网络进行协同训练,使得每个工作器学习根据相应的任务策略执行所述任务中的一个对应任务并且所述共享策略网络学习表示针对所述任务的共同行为的多任务策略;以及
其中,所述协同训练包括:通过所述共享策略网络和所述可训练工作器二者传播来自所述协同训练的错误。
2.根据权利要求1所述的方法,所述方法其中,所述协同训练通过优化目标函数来执行,所述目标函数针对每个任务包括:
奖励项,所述奖励项指示工作器在根据所述任务策略执行所述任务时所获得的期望奖励;以及
至少第一熵项,所述至少第一熵项测量所述任务策略的分布与所述多任务策略的分布之间的差异,以朝着所述多任务策略的分布来将所述任务策略的分布正则化。
3.根据权利要求2所述的方法,其中,所述目标函数针对每个任务进一步包括第二探索熵项,所述第二探索熵项取决于所述任务策略的分布以鼓励探索。
4.根据权利要求1、2或3所述的方法,其中,所述神经网络系统包括强化学习系统,所述强化学习系统用于选择由所述工作器中的一个或多个在与环境交互时要执行的动作,其中,所述任务包括动作的序列,所述动作中的每个动作响应于状态而被执行,以及其中,所述任务策略中的每个任务策略的相应分布和所述多任务策略的分布各自包括状态-动作分布。
5.根据权利要求4所述的方法,当引用权利要求2时,其中,所述奖励项是取决于在状态下采取动作得到的期望奖励的折扣奖励项。
6.根据权利要求1至5中任一项所述的方法,包括:在训练所述可训练工作器时,使用来自所述共享策略网络的所述多任务策略来确定用于所述可训练工作器的所述任务策略。
7.根据权利要求1至6中任一项所述的方法,其中,所述协同训练包括:在训练所述可训练工作器中的一个或多个可训练工作器与训练所述共享策略网络之间交替。
8.根据权利要求1至7中任一项所述的方法,其中,所述协同训练包括:联合优化所述共享策略网络的所述多任务策略和一个或多个所述任务策略。
9.根据权利要求1至8中任一项所述的方法,进一步包括:使用所述多任务策略对所述任务策略进行参数化。
10.根据权利要求1至9中任一项所述的方法,其中,所述可训练工作器包括一个或多个神经网络,并且所述协同训练包括:通过反向传播来联合训练所述一个或多个神经网络和所述共享策略网络。
11.根据权利要求10所述的方法,其中,所述反向传播使用目标函数,所述目标函数包括用于将来自所述任务策略的概率与来自所述多任务策略的概率相匹配以从所述任务策略提取所述多任务策略的项。
12.一种训练自适应多任务计算机系统的方法,所述计算机系统包括可训练工作器集合和共享模块,所述方法包括:
在多个不同任务上对所述可训练工作器和所述共享模块进行协同训练,使得每个工作器学习根据相应的任务策略执行所述任务中的一个对应任务并且所述共享策略网络学习表示针对所述任务的共同行为的多任务策略;以及
其中,所述协同训练通过优化目标函数来执行,所述目标函数针对每个任务包括:
奖励项,所述奖励项指示工作器在执行所述任务时所获得的期望奖励;以及
至少第一熵项,所述至少第一熵项测量所述任务策略的分布与所述多任务策略的分布之间的差异,以朝着所述多任务策略的分布来将所述任务策略的分布正则化。
13.根据权利要求12所述的方法,其中,所述目标函数针对每个任务进一步包括第二探索熵项,所述第二探索熵项取决于所述任务策略的分布以鼓励探索。
14.根据权利要求12或13所述的方法,其中,所述计算机系统包括强化学习系统,所述强化学习系统用于选择由所述工作器中的一个或多个在与环境交互时要执行的动作,其中,所述任务包括动作的序列,所述动作中的每个动作响应于状态而被执行,以及其中,每个所述任务策略的相应分布和所述多任务策略的分布各自包括状态-动作分布。
15.根据权利要求14所述的方法,其中,所述奖励项是取决于在状态下采取动作得到的期望奖励的折扣奖励项。
16.根据权利要求12至15中任一项所述的方法,包括:在训练所述可训练工作器时,使用所述多任务策略来确定用于所述可训练工作器的所述任务策略。
17.根据权利要求12至16中任一项所述的方法,其中,所述协同训练包括:在训练所述可训练工作器中的一个或多个可训练工作器与训练所述共享模块之间交替。
18.根据权利要求12至17中任一项所述的方法,其中,所述协同训练包括:联合优化所述共享模块的所述多任务策略和一个或多个所述任务策略。
19.根据权利要求12至18中任一项所述的方法,进一步包括:使用所述多任务策略对所述任务策略进行参数化。
20.根据权利要求12至19中任一项所述的方法,其中,所述可训练工作器和所述共享模块各自包括一个或多个神经网络,并且所述协同训练包括:通过反向传播来联合训练所述一个或多个神经网络。
21.一种用于处理与要执行的多个习得任务有关的输入数据并且提供输出数据以控制所述任务的执行的多任务神经网络系统,所述系统包括:
输入端,所述输入端用于接收所述输入数据;
耦合至所述输入端的工作器集合,每个工作器被配置为通过根据相应的习得任务策略输出动作数据来执行所述多个习得任务中的一个相关联的习得任务,并且每个任务与控制模块相关联;以及
共享策略网络,所述共享策略网络耦合至所述输入端和所述工作器集合中的一者或二者,其中,所述共享策略网络限定表示针对所述任务的共同行为的习得多任务策略;以及
其中,多任务神经网络系统被配置为:针对每个任务,将相关联的控制模块的输出与所述习得多任务策略相组合以限定相应的任务策略。
22.根据权利要求21所述的多任务神经网络系统,其中,每个所述控制模块是神经网络模块。
23.根据权利要求22所述的多任务神经网络系统,具有多列架构,其中,所述神经网络模块限定神经网络层的至少一列,以及其中,所述共享策略网络限定神经网络层的第二列。
24.根据权利要求21、22或23所述的多任务神经网络系统,其中,所述动作数据包括限定要执行的动作的期望值的动作值数据。
25.根据权利要求21至24中任一项所述的多任务神经网络系统,其中,所述动作数据包括限定所述工作器能够执行的多个可能动作中的每个可能动作的似然性的数据。
26.根据权利要求21至25中任一项所述的多任务神经网络系统,其中,所述控制模块基本上彼此独立地运行。
27.根据权利要求21至26中任一项所述的多任务神经网络系统,其中,所述工作器包括神经网络,所述神经网络包括共享权重。
28.一种包括一个或多个计算机以及一个或多个存储指令的存储装置的系统,所述指令在由所述一个或多个计算机执行时使所述一个或多个计算机执行根据权利要求1至20中任一项所述的相应方法的操作。
29.一种或多种存储指令的计算机存储介质,所述指令在由一个或多个计算机执行时使所述一个或多个计算机执行根据权利要求1至20中任一项所述的相应方法的操作。
30.一种或多种存储指令的计算机存储介质,所述指令在由一个或多个计算机执行时使所述一个或多个计算机实现根据权利要求21至27中任一项所述的系统。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762508991P | 2017-05-19 | 2017-05-19 | |
US62/508,991 | 2017-05-19 | ||
PCT/EP2018/063275 WO2018211138A1 (en) | 2017-05-19 | 2018-05-22 | Multitask neural network systems |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110892418A true CN110892418A (zh) | 2020-03-17 |
Family
ID=62217991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880028533.7A Pending CN110892418A (zh) | 2017-05-19 | 2018-05-22 | 多任务神经网络系统 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11132609B2 (zh) |
EP (1) | EP3602412A1 (zh) |
JP (1) | JP6854921B2 (zh) |
CN (1) | CN110892418A (zh) |
WO (1) | WO2018211138A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309893A (zh) * | 2020-05-15 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 基于源问题生成相似问题的方法和装置 |
CN112766493A (zh) * | 2021-01-19 | 2021-05-07 | 北京市商汤科技开发有限公司 | 多任务神经网络的训练方法、装置、电子设备及存储介质 |
CN114676757A (zh) * | 2022-03-09 | 2022-06-28 | 清华大学 | 一种多人非完备信息博弈游戏策略生成方法和装置 |
CN115917564A (zh) * | 2020-06-12 | 2023-04-04 | 华为技术有限公司 | 用于学习可重用选项以在任务之间传递知识的系统和方法 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11250328B2 (en) | 2016-10-26 | 2022-02-15 | Cognizant Technology Solutions U.S. Corporation | Cooperative evolution of deep neural network structures |
US11507844B2 (en) | 2017-03-07 | 2022-11-22 | Cognizant Technology Solutions U.S. Corporation | Asynchronous evaluation strategy for evolution of deep neural networks |
EP3602412A1 (en) * | 2017-05-19 | 2020-02-05 | Deepmind Technologies Limited | Multitask neural network systems |
US11562287B2 (en) | 2017-10-27 | 2023-01-24 | Salesforce.Com, Inc. | Hierarchical and interpretable skill acquisition in multi-task reinforcement learning |
US10573295B2 (en) * | 2017-10-27 | 2020-02-25 | Salesforce.Com, Inc. | End-to-end speech recognition with policy learning |
CA3085897C (en) | 2017-12-13 | 2023-03-14 | Cognizant Technology Solutions U.S. Corporation | Evolutionary architectures for evolution of deep neural networks |
US11182677B2 (en) | 2017-12-13 | 2021-11-23 | Cognizant Technology Solutions U.S. Corporation | Evolving recurrent networks using genetic programming |
US11527308B2 (en) | 2018-02-06 | 2022-12-13 | Cognizant Technology Solutions U.S. Corporation | Enhanced optimization with composite objectives and novelty-diversity selection |
WO2019157257A1 (en) | 2018-02-08 | 2019-08-15 | Cognizant Technology Solutions U.S. Corporation | System and method for pseudo-task augmentation in deep multitask learning |
EP3807823A1 (en) | 2018-06-12 | 2021-04-21 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
US11481639B2 (en) | 2019-02-26 | 2022-10-25 | Cognizant Technology Solutions U.S. Corporation | Enhanced optimization with composite objectives and novelty pulsation |
US11669716B2 (en) | 2019-03-13 | 2023-06-06 | Cognizant Technology Solutions U.S. Corp. | System and method for implementing modular universal reparameterization for deep multi-task learning across diverse domains |
WO2020198520A1 (en) | 2019-03-27 | 2020-10-01 | Cognizant Technology Solutions U.S. Corporation | Process and system including an optimization engine with evolutionary surrogate-assisted prescriptions |
US20200327379A1 (en) * | 2019-04-09 | 2020-10-15 | GE Precision Healthcare LLC | Fastestimator healthcare ai framework |
US12026624B2 (en) | 2019-05-23 | 2024-07-02 | Cognizant Technology Solutions U.S. Corporation | System and method for loss function metalearning for faster, more accurate training, and smaller datasets |
US11699062B2 (en) * | 2019-09-06 | 2023-07-11 | Honda Motor Co., Ltd. | System and method for implementing reward based strategies for promoting exploration |
US11403668B2 (en) | 2019-10-30 | 2022-08-02 | Target Brands, Inc. | Multitask transfer learning for optimization of targeted promotional programs |
US20210232919A1 (en) * | 2020-01-29 | 2021-07-29 | Nec Laboratories America, Inc. | Modular networks with dynamic routing for multi-task recurrent modules |
SG11202103113XA (en) * | 2020-04-02 | 2021-04-29 | Alipay Hangzhou Inf Tech Co Ltd | Determining action selection policies of an execution device |
US11775841B2 (en) | 2020-06-15 | 2023-10-03 | Cognizant Technology Solutions U.S. Corporation | Process and system including explainable prescriptions through surrogate-assisted evolution |
CN111708355B (zh) * | 2020-06-19 | 2023-04-18 | 中国人民解放军国防科技大学 | 基于强化学习的多无人机动作决策方法和装置 |
CN111783606B (zh) * | 2020-06-24 | 2024-02-20 | 北京百度网讯科技有限公司 | 一种人脸识别网络的训练方法、装置、设备及存储介质 |
CN111680934B (zh) * | 2020-06-30 | 2023-04-07 | 西安电子科技大学 | 基于群体熵和q学习的无人机任务分配方法 |
CN112001585B (zh) * | 2020-07-14 | 2023-09-22 | 北京百度网讯科技有限公司 | 多智能体决策方法、装置、电子设备及存储介质 |
WO2022025568A1 (ko) * | 2020-07-27 | 2022-02-03 | 옴니어스 주식회사 | 멀티 태스크 러닝을 이용하여 상품의 속성을 인식하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
CN114528469A (zh) * | 2020-11-23 | 2022-05-24 | 中兴通讯股份有限公司 | 推荐方法、装置、电子设备、存储介质 |
CN112527383B (zh) * | 2020-12-15 | 2024-05-31 | 北京百度网讯科技有限公司 | 用于生成多任务模型的方法、装置、设备、介质和程序 |
CN112784958B (zh) * | 2020-12-31 | 2023-05-23 | 中电海康集团有限公司 | 一种基于持续学习方法的家庭服务型机器人 |
CN112685318A (zh) * | 2021-01-07 | 2021-04-20 | 广州三星通信技术研究有限公司 | 产生测试脚本的方法和系统 |
CN113240796B (zh) * | 2021-05-14 | 2023-12-12 | Oppo广东移动通信有限公司 | 视觉任务处理方法及装置、计算机可读介质和电子设备 |
CN113556287B (zh) * | 2021-06-15 | 2022-10-14 | 南京理工大学 | 一种基于多智能体强化学习的软件定义网络路由方法 |
CN113485203B (zh) * | 2021-08-03 | 2022-05-31 | 上海德衡数据科技有限公司 | 一种智能控制网络资源共享的方法及系统 |
CN113657583A (zh) * | 2021-08-24 | 2021-11-16 | 广州市香港科大霍英东研究院 | 一种基于强化学习的大数据特征提取方法及系统 |
CN114968520B (zh) * | 2022-05-19 | 2023-11-24 | 北京百度网讯科技有限公司 | 任务搜索方法及装置、服务器和存储介质 |
CN114936783B (zh) * | 2022-06-02 | 2023-01-17 | 暨南大学 | 一种基于mmddpg算法的rgv小车调度方法及系统 |
WO2024056891A1 (en) * | 2022-09-15 | 2024-03-21 | Deepmind Technologies Limited | Data-efficient reinforcement learning with adaptive return computation schemes |
CN115545188B (zh) * | 2022-10-24 | 2024-06-14 | 上海人工智能创新中心 | 基于不确定性估计的多任务离线数据共享方法及系统 |
CN115496208B (zh) * | 2022-11-15 | 2023-04-18 | 清华大学 | 协同模式多样化导向的无监督多智能体强化学习方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4803212B2 (ja) * | 2008-05-28 | 2011-10-26 | ソニー株式会社 | データ処理装置、データ処理方法、及びプログラム |
JP5733166B2 (ja) * | 2011-11-14 | 2015-06-10 | 富士通株式会社 | パラメータ設定装置、コンピュータプログラム及びパラメータ設定方法 |
US20180165602A1 (en) * | 2016-12-14 | 2018-06-14 | Microsoft Technology Licensing, Llc | Scalability of reinforcement learning by separation of concerns |
EP3602412A1 (en) * | 2017-05-19 | 2020-02-05 | Deepmind Technologies Limited | Multitask neural network systems |
US20230376961A1 (en) * | 2022-05-19 | 2023-11-23 | Oracle Financial Services Software Limited | Reinforcement learning agent simulation to measure monitoring system strength |
-
2018
- 2018-05-22 EP EP18726143.3A patent/EP3602412A1/en active Pending
- 2018-05-22 JP JP2019559288A patent/JP6854921B2/ja active Active
- 2018-05-22 CN CN201880028533.7A patent/CN110892418A/zh active Pending
- 2018-05-22 WO PCT/EP2018/063275 patent/WO2018211138A1/en unknown
-
2019
- 2019-11-19 US US16/689,020 patent/US11132609B2/en active Active
-
2021
- 2021-09-27 US US17/486,842 patent/US11983634B2/en active Active
Non-Patent Citations (3)
Title |
---|
ANDREI A. RUSU 等: "Policy Distillation", 《ARXIV:1511.06295》, pages 1 - 13 * |
COLINE DEVIN 等: "Learning Modular Neural Network Policies for Multi-Task and Multi-Robot Transfer", 《ARXIV:1609.07088》, pages 1 - 8 * |
SILVIA CHIAPPA 等: "Recurrent Environment Simulators", 《ARXIV:1704.02254》, pages 1 - 61 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309893A (zh) * | 2020-05-15 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 基于源问题生成相似问题的方法和装置 |
CN115917564A (zh) * | 2020-06-12 | 2023-04-04 | 华为技术有限公司 | 用于学习可重用选项以在任务之间传递知识的系统和方法 |
CN112766493A (zh) * | 2021-01-19 | 2021-05-07 | 北京市商汤科技开发有限公司 | 多任务神经网络的训练方法、装置、电子设备及存储介质 |
CN112766493B (zh) * | 2021-01-19 | 2023-04-07 | 北京市商汤科技开发有限公司 | 多任务神经网络的训练方法、装置、电子设备及存储介质 |
CN114676757A (zh) * | 2022-03-09 | 2022-06-28 | 清华大学 | 一种多人非完备信息博弈游戏策略生成方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020521205A (ja) | 2020-07-16 |
US20220083869A1 (en) | 2022-03-17 |
EP3602412A1 (en) | 2020-02-05 |
US11983634B2 (en) | 2024-05-14 |
US11132609B2 (en) | 2021-09-28 |
US20200090048A1 (en) | 2020-03-19 |
WO2018211138A8 (en) | 2019-12-26 |
WO2018211138A1 (en) | 2018-11-22 |
JP6854921B2 (ja) | 2021-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110892418A (zh) | 多任务神经网络系统 | |
EP3459021B1 (en) | Training neural networks using synthetic gradients | |
US11868894B2 (en) | Distributed training using actor-critic reinforcement learning with off-policy correction factors | |
Taddy | The technological elements of artificial intelligence | |
JP6901633B2 (ja) | カプセルニューラルネットワーク | |
CN109863537B (zh) | 风格化输入图像 | |
EP4231197B1 (en) | Training machine learning models on multiple machine learning tasks | |
US20210271968A1 (en) | Generative neural network systems for generating instruction sequences to control an agent performing a task | |
US20190258918A1 (en) | Training action selection neural networks | |
EP3568810B1 (en) | Action selection for reinforcement learning using neural networks | |
US11941527B2 (en) | Population based training of neural networks | |
CN107690663B (zh) | 白化神经网络层 | |
US12020164B2 (en) | Neural networks for scalable continual learning in domains with sequentially learned tasks | |
CN111602148A (zh) | 正则化神经网络架构搜索 | |
CN109313721A (zh) | 训练机器学习模型 | |
WO2019099193A1 (en) | Learning neural network structure | |
WO2017200597A1 (en) | Progressive neural networks | |
US20220366218A1 (en) | Gated attention neural networks | |
CN110770759A (zh) | 神经网络系统 | |
Sasaki et al. | Adversarial behavioral cloning | |
Jia | A New Resource Recommendation Method for Experiential Leaching Based on the Completion Degree of Online Learning Tasks. | |
CN118568500A (zh) | 模型训练、点击率预测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |