CN110383299A - 记忆增强的生成时间模型 - Google Patents
记忆增强的生成时间模型 Download PDFInfo
- Publication number
- CN110383299A CN110383299A CN201880016434.7A CN201880016434A CN110383299A CN 110383299 A CN110383299 A CN 110383299A CN 201880016434 A CN201880016434 A CN 201880016434A CN 110383299 A CN110383299 A CN 110383299A
- Authority
- CN
- China
- Prior art keywords
- time step
- memory
- neural network
- latent variable
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006883 memory enhancing effect Effects 0.000 title description 2
- 230000015654 memory Effects 0.000 claims abstract description 168
- 238000013528 artificial neural network Methods 0.000 claims abstract description 79
- 230000000306 recurrent effect Effects 0.000 claims abstract description 17
- 238000003860 storage Methods 0.000 claims abstract description 16
- 238000009826 distribution Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 22
- 125000006850 spacer group Chemical group 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 238000012512 characterization method Methods 0.000 claims description 8
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 210000005036 nerve Anatomy 0.000 claims description 3
- 238000004590 computer program Methods 0.000 abstract description 13
- 238000012549 training Methods 0.000 description 22
- 239000011159 matrix material Substances 0.000 description 18
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000003062 neural network model Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 239000000306 component Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 210000004218 nerve net Anatomy 0.000 description 4
- 238000000429 assembly Methods 0.000 description 3
- 230000000712 assembly Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000005055 memory storage Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 241000009334 Singa Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000005056 compaction Methods 0.000 description 1
- 238000004195 computer-aided diagnosis Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/33—Director till display
- G05B2219/33025—Recurrent artificial neural network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/908—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
Abstract
方法、系统和装置,包括在计算机存储介质上编码的计算机程序,用于生成例如图像的预测的观察的序列。在一个方面,一种系统,包括控制器循环神经网络和解码器神经网络,以处理潜变量集合以生成观察。外部存储器和存储器接口子系统被配置为,对于多个时间步中的每一个,从控制器接收更新的隐藏状态,通过使用更新的隐藏状态从外部存储器读取数据来生成存储器上下文向量,从存储器上下文向量确定潜变量集合,通过向解码器神经网络提供潜变量集合生成预测的观察,使用潜变量、更新的隐藏状态或两者将数据写入外部存储器,并且从潜变量生成后续时间步的控制器输入。
Description
技术领域
本说明书涉及生成数据项的神经网络系统。
背景技术
神经网络是机器学习模型,它采用一层或多层非线性单元来预测接收的输入的输出。除了输出层之外,一些神经网络还包括一个或多个隐藏层。每个隐藏层的输出用作网络中下一层(即下一个隐藏层或输出层)的输入。网络的每个层根据相应参数集合的当前值从接收到的输入生成输出。
一些神经网络是循环神经网络。循环神经网络是接收输入序列并从输入序列生成输出序列的神经网络。具体地,循环神经网络可以使用来自先前时间步的网络的一些或全部内部状态来计算当前时间步的输出。循环神经网络的示例是包括一个或多个LSTM存储器块的长短期(long short term,LSTM)神经网络。每个LSTM存储器块可以包括一个或多个单元,每个单元包括输入门、忘记门(forget gate)和输出门,其允许单元存储单元的先前状态,例如,用于生成当前激活或被提供到LSTM神经网络的其他组件。
发明内容
本说明书描述了被实现为在一个或多个位置中的一个或多个计算机上是计算机程序的系统,其生成预测的观察的序列。
这种类型的系统是许多机器学习和控制系统的核心组件。例如,预测的观察可以用在真实或模拟环境中的控制任务中,以预测环境中的计划的动作的结果。可以从源自一个或多个传感器的观察中学习预测;预测的观察可以包括仿佛在以后的时间从传感器生成的数据。更一般地,观察和预测的观察可以包括诸如音频数据、静止或运动图像数据、定义对象的状态或运动的数据、诸如生物标记数据的医学数据、与物理和/或化学过程有关的时空数据等的数据。
因此,根据第一方面,提供了一种系统,包括一个或多个计算机和存储指令的一个或多个存储设备,所述指令在由所述一个或多个计算机执行时使所述一个或多个计算机实现控制器循环神经网络和解码器神经网络。所述控制器循环神经网络被配置为,对于多个时间步中的每一个:接收该时间步的控制器神经网络输入;以及根据当前隐藏状态处理该时间步的控制器神经网络输入,以生成该时间步的更新的隐藏状态。所述解码器神经网络被配置为:接收解码器神经网络输入,所述解码器神经网络输入包括共同定义表征环境的观察的压缩表示的潜变量(latent variable)集合;以及处理包括该潜变量集合的解码器神经网络输入,以生成表征环境的观察。
所述系统还包括外部存储器和存储器接口子系统,该存储器接口子系统被配置为对于每个时间步执行包括以下的操作:接收该时间步的更新的隐藏状态;以及通过使用更新的隐藏状态从外部存储器读取数据来生成存储器上下文向量。所述操作还可以包括:例如,通过使用先验映射从存储器上下文向量映射到潜变量集合,从至少存储器上下文向量确定该时间步的潜变量集合。所述操作还可包括:通过将潜变量集合作为输入提供给解码器神经网络,生成该时间步的预测的观察。所述操作还可包括:使用(例如直接或间接由其确定)潜变量、更新的隐藏状态或两者将数据写入外部存储器。所述操作还可包括:从该时间步的潜变量生成后续时间步的控制器神经网络输入。
如下面更详细描述的,这样的系统可以展现在观察中对于稀疏长期时间依赖性的高效调用。
将数据写入外部存储器可包括:将该时间步的潜变量或潜变量的变换版本写入外部存储器。在一些实现方式中,这可以包括:将潜变量(或变换的潜变量)写入外部存储器中的指定位置,例如缓冲器中的下一位置。在一些实现方式中,例如,在采用基于内容的寻址的实现方式中,数据可以写到任何位置(并且从任何位置读取)。
因此,在基于内容的寻址方式中,将数据写入外部存储器可以包括:生成写入权重集合,其中写入权重集合包括外部存储器中的多个位置中的每一个的相应写入权重;以及根据写入权重将由更新的隐藏状态定义的数据写入外部存储器中的位置。
存储器上下文向量可以是从存储器中存储的数据得到的向量,所述存储器提供用于生成预测的观察的上下文。存储器上下文向量可以包括从外部存储器读取的数据,更具体地,从外部存储器读取的数据的加权和。因此,生成存储器上下文向量可以包括对于一个或多个读取头中的每一个:从更新的隐藏状态针对读取头生成读取权重集合,其中该读取权重集合包括外部存储器中的多个位置中的每一个的相应读取权重;以及根据读取权重从外部存储器中的所述多个位置读取数据。这里,“读取头”用于指读取权重的集合。在使用多个读取头的情况下,来自这些读取头的数据可以组合,例如,可以拼接以生成存储器上下文向量。
所述读取权重可以是基于位置的寻址权重,用于基于位置(例如,地址位置计数)寻址外部存储器中的数据;或者,所述读取权重可以是基于内容的寻址权重,例如用于基于其内容与诸如一个或多个键的目标内容的相似度来寻址存储器位置。在一些实现方式中,可以通过基于位置的寻址权重和基于内容的寻址权重的组合来确定读取权重。类似地,将数据写入外部存储器可以包括基于位置的寻址和基于内容的寻址的组合、将潜变量(或潜变量的变换版本)的直接写入与如前所述的基于内容的寻址相组合。
确定该时间步的潜变量集合可包括:对于潜变量中的每一个,使用先验映射(例如,先验生成神经网络)将包括潜变量集合的先验映射输入映射到对潜变量的可能潜变量值上的先验分布的参数。然后可以从先验分布中对潜变量进行采样。所述先验映射输入可以是控制器网络的更新的隐藏状态和潜变量集合的组合。所述先验生成神经网络可以包括用于将所述先验映射输入映射到所述分布参数的一个或多个线性神经网络层。
在训练期间,确定该时间步的潜变量集合可以包括:接收该时间步的实际观察;以及使用后验映射神经网络处理存储器上下文向量和实际观察,以对于潜变量中的每一个生成潜变量的可能潜变量值上的后验分布的参数;以及根据分布参数从潜变量的后验分布中对潜变量进行采样。
从该时间步的潜变量生成后续时间步的控制器神经网络输入可以包括:提供该时间步的潜变量作为下一时间步的控制器神经网络输入。可选地,该时间步的潜变量可以与外部上下文向量和/或从外部存储器读取的数据组合,以生成下一时间步的控制器神经网络输入。换句话说,该时间步的控制器神经网络输入可包括先前时间步的潜变量和该时间步的外部上下文向量。所述外部上下文向量可表示影响由所述系统生成的观察的特性的一个或多个外部变量。例如,外部上下文向量可以包括定义该环境中的代理的(计划的)位置和/或状态的数据;和/或定义该环境中的传感器的位置和/或状态的数据;和/或定义以后的时间和/或空间位置的数据。
可以实现本说明书中描述的主题的特定实施例,以便实现以下优点中的一个或多个。
本说明书中描述的生成系统使用外部存储器来存储信息以供将来在许多时间步中使用。通过使用外部存储器,本说明书中描述的生成系统将存储器存储与计算分开。相比而言,一些传统的生成系统使用例如长短期存储器(LSTM)网络的内部状态,用于存储器存储和计算两者。在这样的传统系统中,系统的参数复杂度(例如,有效执行系统的功能所需的参数的数量)可以与系统的存储器容量(例如,系统可以存储用于以后使用的信息量)成二次方地增长。例如,将存储器容量加倍可以导致模型参数数量增加4倍。由于本说明书中描述的生成系统将存储器存储与计算分开,因此增加其存储器容量导致系统的参数复杂度的对应恒定或线性增加(例如,将存储器容量加倍可导致模型参数的数量成比例地加倍)。因此,本说明书中描述的生成系统可以比传统的生成系统消耗更少的计算资源(例如,存储器资源和计算能力)。此外,在将例如LSTM的内部状态既用于存储器存储又用于计算的传统系统中,传统系统需要使用LSTM的内部状态,以(i)以稳定的方式保存信息,以用于后来检索;和(ii)提取信息以供立即使用。使用LSTM的内部状态同时用于两种竞争目的会降低传统系统的性能(例如,通过使传统系统生成不太准确的预测的观察的序列)。由于本说明书中描述的生成系统将存储器存储与计算分开,因此它避免了这些性能降级效应,因此可以实现比一些传统系统更好的性能(例如,更准确的预测的观察的序列)。
本说明书中描述的生成系统可以自适应地更新其外部存储器以丢弃不太有用的信息,并且存储捕获在许多时间步上的长程依赖性的有用信息。相反,一些传统模型基于以后的观察依赖于固定的预定数量的过去观察的假设生成观察序列。通过使用可以自适应地存储来自任何先前时间步的相关信息的外部存储器,本说明书中描述的生成系统可以生成预测的观察的序列,其比一些传统模型更好地捕获在许多时间步上的长程依赖性,并且因此实现更好的性能。
在附图和以下描述中阐述了本说明书的主题的一个或多个实施例的细节。根据说明书、附图和权利要求,本主题的其他特征、方面和优点将变得明显。
附图说明
图1示出了示例生成系统。
图2是用于使用生成系统生成预测的观察的输出序列的示例过程的流程图。
图3是用于生成存储器上下文向量的示例过程的流程图。
各个附图中相同的附图标记和名称指示相同的元件。
具体实施方式
图1示出了示例生成系统100。生成系统100是被实现为一个或多个位置中的一个或多个计算机上的计算机程序的系统的示例,其中实现下面描述的系统、组件和技术。
生成系统100在多个时间步中的每一个处生成环境128的预测的观察120。预测的观察120是表征环境128的预测的以后状态的数值的有序集合。
如下面将更详细描述的,系统100通过生成潜变量116的序列(其是各个预测的观察的压缩表示)来生成预测观察序列120。系统通过处理从存储器110读取的数据随机地为每个时间步生成潜变量116。存储器110包括表征在先前时间步的环境的预测的观察的信息。系统还通过将数据写入存储器110来在每个时间步自适应地更新存储器110。系统100通过控制器循环神经网络106自适应地调停到存储器110的写入和从存储器110的读取。
在一些实现方式中,环境128是由代理124执行动作126而与之交互的环境。例如,环境128可以是模拟环境,并且代理124可以实现为与模拟环境交互的一个或多个计算机程序。例如,模拟环境可以是视频游戏,并且代理124可以是玩视频游戏的模拟用户。作为另一示例,模拟环境可以是运动模拟环境,例如驾驶模拟或飞行模拟,并且代理124是通过运动模拟来导航的模拟车辆。在这些实现方式中,动作126可以是可能的控制输入的空间中的点,以控制模拟用户或模拟车辆。
作为另一示例,环境128是现实世界环境,并且代理124是与现实世界环境交互的机械代理。例如,代理124可以是与环境交互以完成特定任务的机器人。作为另一示例,代理124可以是在环境中导航的自动或半自动车辆。
在这些情况的一些情况下,预测的观察120使用表征环境128的状态的低维特征向量来表征环境128的预测的状态。在这些情况下,低维特征向量的不同维度的值可以有不同的范围。
在这些情况的一些其他情况下,预测的观察120使用表征环境的状态的一个或多个图像的高维像素表示来表征环境128的预测的状态,例如,模拟环境的预测的图像或当机械代理的传感器与现实世界环境交互时由其捕获的预测的图像。
因此,在一些实现方式中,系统可以在观察序列上被训练,然后可以预测新的观察,可选地以诸如代理位置、相机角度等的外部上下文数据为条件。
在一些其他实现方式中,环境128是用户特定的环境。例如,环境128可以是例如用于计算机辅助诊断的患者健康环境,并且预测的观察120可以是表征患者健康的预测的电子医疗数据。作为另一示例,环境128可以是推荐环境,并且预测的观察120可以是表征用户的预测的偏好和兴趣的特征向量。
在一些其他实现方式中,环境128是艺术环境。例如,环境128可以是音乐环境,并且预测的观察120可以是一个或多个音符的序列。作为另一示例,环境128可以是视觉艺术环境,诸如绘画画布的表示,并且预测的观察120可以是例如画笔笔画(用特定颜色和画笔)。
在一些情况下,系统100可用于异常检测。例如,系统100可以用于生成环境128的预测的观察的不同序列的数据库。如果与数据库中预测的观察的序列充分不同(根据一些适当的度量),则可以将环境的先前未见过的观察序列表征为异常。
系统100包括存储器110。存储器110是逻辑数据存储区域或物理数据存储设备。存储在存储器110中的数据是可以表示为矩阵的数值的有序集合。如下面将更详细描述的,在多个时间步中的每一个处,系统100从存储器110读取(即,提取)数据并更新存储器110。通常,系统100使用存储器110来存储信息,用于在多个时间步使用。
系统100包括关注神经网络130,其被配置为在每个时间步根据关注网络参数集合的当前值来处理针对该时间步的关注网络输入,以生成读取权重的一个或多个不同的集合作为输出。每个读取权重集合是数值的有序集合(例如,向量),在本说明书中称为读取头。每个读取头包括用于存储器110中的数据中的多个位置中的每一个的相应读取权重。例如,如果存储器110中的数据被表示为矩阵,则每个读取头可以包括用于存储器110中的多行数据中的每一个的相应读取权重。
系统100处理每个读取头以使读取头具有单位范数(例如,相对于欧几里德范数)和非负值。在一些情况下,系统100通过用softmax函数处理每个读取头的值使得每个读取头具有非负值。
关注神经网络130可以实现为任何适当的神经网络模型,例如,作为多层感知器或卷积神经网络。
在一些实现方式中,每个读取头的读取权重是基于位置的寻址权重,例如以基于存储器中的数据的位置来访问数据。在这些实现方式中,每个时间步的关注网络输入是对于该时间步的控制器循环神经网络106的更新的隐藏状态(将在下面更详细地描述),其由关注网络130处理以生成一个或多个读取头作为输出。在这些实现方式中,关注网络130在生成读取头时不直接处理存储器110中的数据。
在一些实现方式中,每个读取头的读取权重是基于内容的寻址权重。在这些实现方式中,每个时间步的关注网络输入是该时间步的控制器网络106的更新的隐藏状态和该时间步的存储器110中的数据,其由关注网络130处理以生成一个或多个读取头作为输出。在这些实现方式中,关注网络130通过将来自存储器110中的数据的多个位置的数据的相似性与生成的提示进行比较来确定每个读取头(如将参考图3的描述进一步详细描述的)。
在一些实现方式中,每个读取头的读取权重是基于位置的寻址权重和基于内容的寻址权重的组合。在美国专利申请No.14/885,086中描述了将基于位置的寻址权重和基于内容的寻址权重的变化进行组合的系统的示例。一些预测任务相比于基于位置的调用更适合基于内容的调用,反之亦然,并且使用基于位置和基于内容的寻址可以是有利的。
系统100使用由关注网络130生成的读取头来从存储器110读取数据并生成该时间步的存储器上下文向量112。具体地,对于每个读取头,系统100生成不同的检索的存储器向量(其是数值的有序集合)并组合所检索的存储器向量以生成用于该时间步的存储器上下文向量112。存储器上下文向量112是数值的有序集合。参考图3描述用于生成存储器上下文向量的示例过程。
系统100提供存储器上下文向量112作为先验(prior)生成网络114的输入。在一些实现方式中,系统100还提供先前时间步的潜变量116和/或该时间步的控制器网络106的更新隐藏状态(后面将描述两者)作为先验生成网络114的输入。先验生成网络114是神经网络,其被配置为根据先验生成网络参数集合的当前值来处理输入,以生成概率分布的参数(在本说明书中称为先验分布)作为输出。先验分布的参数定义了在本说明书中称为潜状态空间(latent state space)的多维欧几里德空间上的概率分布。例如,先验分布的参数可以是潜状态空间上的多维正态分布的平均向量和协方差矩阵的参数。先验生成网络114可以实现为任何适当的神经网络模型,例如卷积神经网络或多层感知器。
系统通过从由先验生成网络114对该时间步生成的先验分布中抽取随机样本来确定该时间步的潜变量116。通常,该时间步的潜变量是该时间步的预测的观察120的压缩表示,即潜状态空间中预测的观察120的表示。对于第一时间步,系统100可以通过从潜状态空间上的预定概率分布(例如,具有由单位矩阵给出的协方差矩阵和零均值的高斯分布)抽取随机样本来确定该时间步的潜变量116。
系统提供该时间步的潜变量116作为解码器神经网络118的输入,解码器神经网络118被配置为根据解码器神经网络参数集合的当前值处理潜变量116以生成概率分布的参数作为输出(在本说明书中称为观察分布)。在一些实现方式中,解码器神经网络118还接收该时间步的控制器循环神经网络106的更新的隐藏状态(将在下面更详细地描述)以作为输入。观察分布的参数定义了在本说明书中被称为观察空间的多维欧几里得空间上的概率分布。例如对于图像的像素,例如,观察分布的参数可以是观察空间上的多维正态分布的均值向量和协方差矩阵的参数。解码器神经网络118可以实现为任何适当的神经网络模型,例如,实现为解卷积神经网络。
系统通过从解码器神经网络118对该时间步生成的观察分布中抽取随机样本来确定该时间步的预测的观察120。例如,如果环境的预测的观察120是环境的预测的图像,则观察空间将是表示环境的所有可能图像的欧几里德空间,并且从观察分布中抽取随机样本与从观察分布中采样图像对应。
系统100包括控制器循环神经网络106,其被配置为在多个时间步中的每一个处接收该时间步的控制器网络输入,并且根据控制器网络106的当前隐藏状态处理该时间步的控制器网络输入,以生成该时间步的控制器网络106的更新的隐藏状态。例如,关注神经网络130使用控制器网络106的更新的隐藏状态来确定该时间步从存储器110读取哪个数据。控制器网络106的隐藏状态是数值的有序集合(例如,向量或矩阵)。控制器网络106可以实现为任何适当的循环神经网络模型,例如,长短期存储器(LSTM)网络。
在一些实现方式中,对于每个时间步,该时间步的控制器网络输入包括该时间步的潜变量116的集合。
在一些实现方式中,对于每个时间步,该时间步的控制器网络输入包括外部上下文向量122。外部上下文向量122是数值的有序集合。通常,外部上下文向量122表示影响由系统100生成的预测的观察120的特性的一个或多个外部变量。例如,如果代理124通过执行来自预定的动作集合的动作126来与环境128交互,则该时间步的外部上下文向量122可以是代理124在该时间步要执行的被计划的动作的表示。在该示例中,外部上下文向量122可以是在该时间步的被计划的动作的单热向量表示(即,具有与预定动作集合的每个动作对应的条目的向量,其中与被计划的动作对应的条目具有值1,并且其余条目具有值零)。作为另一示例,如果环境128是音乐环境(即,在每个时间步以一个或多个音符的序列为特征的环境)并且预测的观察120是预测的音符序列,其共同表示特定流派的编曲,则外部上下文向量122可以是指示音乐流派(例如,爵士乐或摇滚乐)的向量。
在一些实现方式中,对于每个时间步,该时间步的控制器网络输入包括存储器上下文向量112。
在一些实现方式中,对于每个时间步,该时间步的控制器网络输入包括存储器110中的数据。
在每个时间步,系统100使用该时间步的潜变量116、控制器网络106的更新的内部状态或两者来更新存储器110中的数据。
在一些实现方式中,系统100通过将该时间步的潜变量116写入存储器110来更新时间步存储器110中的该时间步的数据。例如,存储器110中的数据可以表示为具有固定数量的位置的数据结构(例如,具有固定行数的矩阵),并且系统可以基于先进先出将潜变量116写入存储器110。具体地,在特定时间步写入存储器110的潜变量可以覆写存储器中的位置,其包含存储器110中的所有潜变量当中最早写入存储器的潜变量。将数据写入存储器110中的位置指的是将数据的表示插入存储器110中的位置(可能覆写该位置中的现有数据)。在一些情况下,将数据写入存储器110中的位置包括将要写入存储器110中的位置的数据与当前位于存储器110中的位置的数据组合(例如,通过添加),并将组合后的数据写入存储器110中的位置。
在一些实现方式中,系统100通过将存储器110中的数据作为输入提供给控制器网络106(以及将其他输入提供给控制器网络106)来更新时间步存储器110中的该时间步的数据,控制器网络106生成包括写入存储器110的更新的数据的输出。
在一些实现方式中,系统100通过生成一个或多个不同的写入权重集合来更新存储器110中的数据。每个写入权重集合是数值的有序集合(例如,向量),在本说明书中称为写入头。每个写入头包括用于存储器110中的数据中的多个位置中的每一个的相应写入权重。例如,如果存储器110中的数据被表示为矩阵,则每个写入头可以包括用于存储器110中的数据的多行中的每一个的相应写入权重。在这些实现方式中,系统根据写入权重将由控制器网络106的更新的隐藏状态定义的数据写入外部存储器中的数据中的位置。
在美国专利申请No.14/885,086、美国专利申请No.15/396,289、以及美国专利申请No.15/374,974中描述了通过生成读取和写入权重来从存储器读取数据和向存储器写入数据的系统的示例。
系统100包括训练引擎102,训练引擎102被配置为训练系统100以生成预测的观察120的序列,其与训练数据104的集合中的环境128的实际观察的序列共享相似的属性。训练引擎102通过使用任何标准训练技术(例如,随机梯度下降)迭代地调整系统100的可学习参数(包括控制器网络106、解码器网络118、先验生成网络114、关注网络130和后验生成网络132的参数)来训练系统100。
后验生成网络132被配置为在多个时间步中的每一个处接收该时间步的存储器上下文向量112和该时间步的环境128的实际观察(来自训练数据104的实际观察的序列)作为输入。在一些实现方式中,后验生成网络132被配置为进一步接收针对先前时间步确定的潜变量116和/或控制器网络106的更新的隐藏状态作为输入。后验生成网络根据后验生成网络参数的集合的当前值处理输入,以生成概率分布(在本说明书中称为后验分布)的参数作为输出。后验分布的参数定义了潜状态空间上的概率分布。例如,类似于先验分布,后验分布的参数可以是潜状态空间上的多维正态分布的平均向量和协方差矩阵的参数。
训练引擎102使用后验生成网络132在变分推理框架(variational inferenceframework)中训练系统100(将参考图2更详细地描述)。后验生成网络132可以实现为任何适当的神经网络模型,例如,卷积神经网络或多层感知器。
图2是用于生成预测的观察的输出序列的示例过程的流程图。为方便起见,过程200将被描述为由位于一个或多个位置的一个或多个计算机的系统执行。例如,生成系统(例如根据本说明书适当编程的图1的生成系统100)可以执行过程200。系统在多个时间步中的每一个执行过程200。
系统更新控制器网络的隐藏状态(201)。具体地,控制器网络接收该时间步的控制器网络输入,并根据控制器网络的当前隐藏状态处理控制器网络输入,以生成用于该时间步的控制器网络的更新的隐藏状态。控制器网络输入包括以下中的一个或多个:先前时间步的潜变量、该时间步的外部上下文向量、先前时间步的存储器上下文向量、以及存储器中的该时间步的数据。控制器网络可以实现为任何适当的循环神经网络模型,例如,长短期存储器(LSTM)网络。
系统通过生成一个或多个读取头,通过基于读取头从存储器读取数据来生成检索的存储器向量,并将检索的存储器向量组合以生成存储器上下文向量,生成该时间步的存储器上下文向量(202)。参考图3描述用于生成存储器上下文向量的示例过程。
系统确定该时间步的潜变量集合(204):
在训练系统之后,系统提供该时间步的存储器上下文向量作为对先验生成网络的输入。在一些实现方式中,系统还提供对于先前时间步确定的潜变量和/或该时间步的控制器网络的更新的隐藏状态作为对先验生成网络的输入。先验生成网络被配置为根据先验生成网络参数集合的当前值来处理输入,以生成在潜状态空间上的先前分布的参数作为输出。例如,先验分布的参数可以是潜状态空间上的多维正态分布的平均向量和协方差矩阵的参数。系统通过从先验生成网络对该时间步生成的先前分布中抽取随机样本来确定该时间步的潜变量集合。
当系统被训练时,系统提供该时间步的存储器上下文向量和该时间步的实际观察(从训练数据中已知)作为后验生成网络的输入。在一些实现方式中,系统还提供对先前时间步确定的潜变量和/或该时间步的控制器网络的更新的隐藏状态,作为后验生成网络的输入。后验生成网络被配置为根据后验生成网络参数的集合处理输入,以生成潜状态空间上的后验分布的参数作为输出。例如,后验分布的参数可以是潜状态空间上的多维正态分布的平均向量和协方差矩阵的参数。系统通过从后验生成网络对该时间步生成的后验分布中抽取随机样本来确定该时间步的潜变量集合。
先验生成网络和后验生成网络可以实现为任何适当的神经网络模型,例如,卷积神经网络或多层感知器。
系统生成该时间步的预测的观察(208)。例如,该时间步的预测的观察可以是环境的预测的图像或表征环境的预测的状态的特征向量。系统提供该时间步的潜变量作为解码器神经网络的输入,该解码器神经网络被配置为根据解码器神经网络参数集合的当前值处理输入,以生成观察空间上的观察分布的参数作为输出。例如,观察分布的参数可以是观察空间上的多维正态分布的平均向量和协方差矩阵的参数。在一些实现方式中,解码器神经网络还接收该时间步的控制器循环神经网络的更新的隐藏状态作为输入。系统通过从解码器神经网络对该时间步生成的观察分布中抽取随机样本时间步来确定该时间步的预测的观察。如果正在训练系统,则该系统生成该时间步的观察分布的参数,但实际上并不会对该时间步的预测的观察进行采样。
解码器神经网络可以实现为任何适当的神经网络模型,例如,作为去卷积神经网络。
系统确定当前时间步是否是最终时间步(210)。在一些情况下,如果当前时间步是预定数量的时间步的最后时间步,则系统可以确定当前时间步是最终时间步。在一些情况下,在每个时间步,解码器神经网络(或另一神经网络)生成指示当前时间步是否是最终时间步的输出。在这些情况下,系统基于此输出确定当前时间步是否是最终时间步。
响应于确定当前时间步不是最终时间步,系统更新存储器中的数据(212)并返回201。
在一些实现方式中,系统通过将该时间步的潜变量写入存储器来更新该时间步存储器中的数据。例如,存储器中的数据可以表示为具有固定数量的位置的数据结构(例如,具有固定行数的矩阵),并且系统可以基于先入先出将潜变量写入存储器。具体地,在特定时间步写入存储器的潜变量可以覆写存储器中的数据中的位置,其包含存储器中的所有潜变量当中最早写入存储器的潜变量。
在一些实现方式中,系统通过将存储器中的数据作为输入提供给控制器网络来更新时间步存储器中的该时间步的数据,控制器网络接收存储器中的数据以及其他控制器神经网络输入(如在201中描述的),并且除了更新隐藏状态(如201中所述)之外,控制器网络还生成包括写入存储器的更新的数据的输出。
在一些实现方式中,系统通过生成一个或多个不同的写入权重集合来更新存储器中的数据。每个写入权重集合是数值的有序集合(例如,向量),在本说明书中称为写入头。每个写入头包括用于存储器中的数据中的多个位置中的每一个的相应写入权重。例如,如果存储器中的数据被表示为矩阵,则每个写入头可以包括用于存储器中的多行数据中的每一行的相应写入权重。在这些实现方式中,系统根据写入权重将由控制器网络的更新的隐藏状态定义的数据写入存储器中的数据中的位置。
如果正在训练系统,则响应于确定当前时间步是最终时间步,训练引擎通过反向传播目标函数的梯度来训练系统(216)。具体地,训练引擎训练系统以生成预测的观察的序列,其与该训练数据集合中的环境的实际观察的序列共享相似的属性。训练引擎通过使用任何标准训练技术(例如,随机梯度下降)迭代地调整系统的可学习参数(包括控制器网络、解码器网络、先验生成网络、关注网络和后验生成网络的参数)来训练系统。
训练引擎反向传播梯度以使目标函数最大化。在一些情况下,目标函数由下式给出:
其中qφ(z<t|x<t)=Πqφ(zτ|z<τ,x≤τ),
并且,其中φ指后验生成网络的参数,θ指系统100的其他可学习参数(例如,控制器网络的参数),T是时间步的数量,指概率期望,qφ(zt|z<t,x≤t)指后验生成网络132在时间步t生成的潜变量zt的后验分布,pθ(xt|z≤t,x<t)指根据解码器神经网络对于时间步t生成的观察分布的实际观察xt的概率,并且KL指Kullback-Leibler发散度量(Kullback-Leibler divergence measure)(即,概率分布之间距离的度量)。通过调整系统的参数以使该目标函数最大化,由系统的先验生成网络生成的先验分布变得更类似于由后验生成网络生成的后验分布,并且解码器网络生成观察分布(通过处理从后验分布中提取的潜变量),其将概率集中在类似于训练数据的实际观察的观察上。
如果系统未被训练(即,因为它先前已被训练),则响应于确定当前时间步是最终时间步,系统输出多个时间步的预测观察序列(214)。
图3是用于生成存储器上下文向量的示例过程的流程图。为方便起见,过程300将被描述为由位于一个或多个位置的一个或多个计算机的系统执行。例如,生成系统(例如根据本说明书适当编程的图1的生成系统100)可以执行过程300。
系统生成读取头集合(302)。
该系统向关注网络提供关注网络输入,该关注网络被配置为根据关注网络参数集合的当前值处理关注网络输入,以生成一个或多个不同的读取头作为输出(即,读取权重集合)。每个读取头包括用于存储器中的数据中的多个位置中的每个位置中的数据的相应读取权重。例如,如果存储器中的数据被表示为矩阵,则每个读取头可以包括存储器中的多行数据中的每一行的相应读取权重。系统处理每个读取头以使读取头具有单位范数(例如,相对于欧几里德范数)和非负值。
在一些实现方式中,每个读取头的读取权重是基于位置的寻址权重。在这些实现方式中,该时间步的关注网络输入是该时间步的控制器循环神经网络的更新的隐藏状态,其由关注网络处理以生成一个或多个读取头作为输出。在这些实现方式中,关注网络在生成读取权重时不直接处理存储器中的数据。
在一些实现方式中,每个读取头的读取权重是基于内容的寻址权重。在这些实现方式中,该时间步的关注网络输入是该时间步的控制器网络的更新的隐藏状态和存储器中的该时间步的数据,其由关注网络处理以生成一个或者多个读取头作为输出。具体地,关注网络处理输入以生成包括一个或多个键的中间输出。每个键是数值的有序集合(例如,向量)。关注网络通过将键与存储器中的多个位置中的数据进行比较来处理每个键,以生成相应的读取头作为输出。例如,对于给定的键,关注网络可以通过将读取头的每个读取权重确定为键与存储器中的数据的相应行(即,在存储器中的数据表示为矩阵的情况下)之间的余弦相似性度量来生成对应的读取头。
在一些实现方式中,每个读取头的读取权重是基于位置的寻址权重和基于内容的寻址权重的组合。
关注神经网络可以实现为任何适当的神经网络模型,例如,多层感知器或卷积神经网络。
该系统使用由关注网络生成的读取头来从存储器读取数据(304)。具体地,对于每个读取头,系统生成不同的检索的存储器向量。每个检索的存储器向量是数值的有序集合。例如,系统可以根据以下关系生成检索的存储器向量:
φr=wr·M,r∈{1,…,R}
其中R是读取头的数量,φr是第r个检索的存储器向量,wr是第r个读取头(表示为行向量),·指向量-矩阵乘法运算,并且M指在存储器中的该时间步的数据。
在一些实现方式中,系统根据以下关系,基于该时间步的校正偏差来修改该时间步每个检索的存储器向量的重要性:
φr←φr⊙σ(gr),
其中φr是第r个检索的存储器向量,σ是sigmoid函数,gr是该时间步的第r个检索的存储器向量的标量值校正偏差,←指分配操作,并且⊙指逐元素标量乘法操作。该时间步的校正偏差可以由校正偏差神经网络产生,该校正偏差神经网络被配置为接收该时间步的控制器网络的更新的内部状态,并且根据校正偏差神经网络参数集合的当前值处理控制器网络的更新状态。
系统生成该时间步的存储器上下文向量(306)。在一些情况下,系统通过拼接该时间步的检索的存储器向量来生成该时间步的存储器上下文向量。在一些情况下,系统通过拼接该时间步的检索的存储器向量和控制器网络的更新的内部状态来生成该时间步的存储器上下文向量。
本说明书使用与系统和计算机程序组件有关的术语“被配置”。对于将被配置为执行特定操作或动作的一个或多个计算机的系统,意味着系统已在其上安装了软件、固件、硬件或它们的组合,其在操作中使系统执行操作或动作。对于将被配置为执行特定操作或动作的一个或多个计算机程序,意味着一个或多个程序包括当由数据处理装置执行时使装置执行操作或动作的指令。
本说明书中描述的主题和功能操作的实施例可以在数字电子电路中、在有形体现的计算机软件或固件中、在计算机硬件中实现,包括本说明书中公开的结构及其结构等同物,或者以它们中的一个或多个的组合体现。本说明书中描述的主题的实施例可以实现为一个或多个计算机程序,即,在有形的非暂时性存储介质上编码的一个或多个计算机程序指令模块,用于由数据处理装置执行或控制数据处理装置的操作。计算机存储介质可以是机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组合。可替代地或另外地,程序指令可以在例如机器生成的电、光或电磁信号的人工生成的传播信号上编码,其被生成以编码信息,用于传输到合适的接收器设备以由数据处理装置执行。
术语“数据处理装置”指数据处理硬件并且包括用于处理数据的所有类型的装置、设备和机器,包括例如可编程处理器、计算机或多个处理器或计算机。该装置还可以是或者进一步包括专用逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。除了硬件之外,该装置还可以包括为计算机程序创建执行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统、或者它们的一个或多个的组合的代码。
也可以被称为或描述为程序、软件、软件应用、应用程序、模块、软件模块、脚本或代码的计算机程序,可以用任何形式的编程语言编写,包括编译或解释语言、或声明或过程性语言;并且它可以以任何形式部署,包括作为独立程序或作为模块、组件、子例程或适用于在计算环境中使用的其他单元。程序可以但不必与文件系统中的文件对应。程序可以存储在保存其他程序或数据的文件的一部分中,例如,存储在标记语言文档中的一个或多个脚本,专用于所讨论的程序的单个文件中,或者存储在多个协调文件中,所述协调文件例如存储一个或多个模块、子程序或代码部分的文件。可以部署计算机程序以在一个计算机上或在位于一个站点上或跨多个站点分布并通过数据通信网络互连的多个计算机上执行。
在本说明书中,术语“引擎”广泛用于指代被编程为执行一个或多个特定功能的基于软件的系统、子系统或过程。通常,引擎将被实现为在一个或多个位置中的一个或多个计算机上安装的一个或多个软件模块或组件。在一些情况下,一个或多个计算机将专用于特定的引擎;在其他情况下,可以在同一个或多个计算机上安装和运行多个引擎。
本说明书中描述的过程和逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程计算机执行,以通过对输入数据进行操作并生成输出来执行功能。过程和逻辑流程也可以由专用逻辑电路(例如FPGA或ASIC)或专用逻辑电路和一个或多个编程计算机的组合来执行。
适合于执行计算机程序的计算机可以基于通用或专用微处理器或两者,或任何其他种类的中央处理单元。通常,中央处理单元将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行或运行指令的中央处理单元和用于存储指令和数据的一个或多个存储器设备。中央处理单元和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。通常,计算机还将包括或可操作地耦合用于存储数据的一个或多个大容量存储设备接收数据以从该一个或多个大容量存储设备接收数据或将数据传输到该一个或多个大容量存储设备或两者,所述大容量存储设备例如磁盘、磁光盘或光盘。但是,计算机不必具有这样的设备。此外,计算机可以嵌入在例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏控制台、全球定位系统(GPS)接收器或便携式存储设备(例如,通用串行总线(USB)闪存驱动器)等的另一设备中。
适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存设备;磁盘,例如内部硬盘或可移动磁盘;磁光盘;以及CD ROM和DVD-ROM盘。
为了提供与用户的交互,本说明书中描述的主题的实施例可以在计算机上实现,所述计算机具有:显示设备,例如CRT(阴极射线管)或LCD(液晶显示器)监视器,用于向用户显示信息;以及键盘和指示设备(例如,鼠标或轨迹球),用户可通过其向计算机提供输入。其他类型的设备也可用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感觉反馈,例如视觉反馈、听觉反馈或触觉反馈;并且可以以包括声学、语音或触觉输入的任何形式接收来自用户的输入。另外,计算机可以通过向用户使用的设备发送文档和从用户使用的设备接收文档,例如,通过响应于从web浏览器接收到的请求将网页发送到用户设备上的web浏览器,来与用户交互。此外,计算机可以通过向个人设备(例如,运行消息收发应用的智能电话)发送文本消息或其他形式的消息、并且从用户接收响应消息作为回复来与用户交互。
用于实现机器学习模型的数据处理装置还可以包括例如专用硬件加速器单元,用于处理机器学习训练或产生的公共和计算密集部分,即推断、工作负载。
可以使用例如TensorFlow框架、Microsoft Cognitive Toolkit框架、ApacheSinga框架或Apache MXNet框架的机器学习框架来实现和部署机器学习模型。
本说明书中描述的主题的实施例可以在计算系统中实现,该计算系统包括:后端组件,例如作为数据服务器;或者包括中间件组件,例如应用服务器;或者包括前端组件,例如,具有图形用户界面、网络浏览器或应用程序的客户端计算机,用户可通过其与本说明书中描述的主题的实现进行交互;或者包括一个或多个这样的后端、中间件或前端组件的任何组合。系统的组件可以通过例如通信网络的数字数据通信的任何形式或介质互连。通信网络的示例包括局域网(LAN)和广域网(WAN),例如因特网。
计算系统可以包括客户端和服务器。客户端和服务器通常彼此远离,并且典型地通过通信网络进行交互。客户端和服务器的关系借助于在各个计算机上运行并且彼此具有客户端-服务器关系的计算机程序而产生。在一些实施例中,服务器将数据(例如,HTML页面)发送到用户设备,例如,用于向与作为客户端的设备交互的用户显示数据和从该用户接收用户输入的目的。可以在服务器处从设备接收在用户设备处生成的数据,例如,用户交互的结果。
虽然本说明书包含许多具体的实现细节,但是这些不应被解释为对任何发明的范围或可以要求保护的范围的限制,而是作为可以特定于特定发明的特定实施例的特征的描述。在单独实施例的上下文中在本说明书中描述的某些特征也可以在单个实施例中组合实现。相反,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合在多个实施例中实现。此外,尽管特征可以在上面描述为以某些组合起作用并且甚至最初如此要求保护,但是在一些情况下可以从组合中去除来自要求保护的组合的一个或多个特征,并且要求保护的组合可以针对子组合或子组合的变化。
类似地,虽然以特定顺序在附图中描绘并且在权利要求中列举了操作,但是这不应当被理解为要求以所示的特定顺序或按顺序执行这些操作,或者执行所有示出的操作以达到期望的效果。在某些情况下,多任务处理和并行处理可以是有利的。此外,上述实施例中的各种系统模块和组件的分离不应当被理解为在所有实施例中都需要这种分离,并且应当理解,所描述的程序组件和系统通常可以集成在单个软件产品中或打包成多个软件产品。
已经描述了主题的特定实施例。其他实施例在所附权利要求的范围内。例如,权利要求中列举的动作可以以不同的顺序执行并且仍然实现期望的结果。作为一个示例,附图中描绘的过程不一定需要所示的特定顺序或按顺序来实现期望的结果。在一些情况下,多任务处理和并行处理可以是有利的。
Claims (21)
1.一种系统,包括一个或多个计算机和存储指令的一个或多个存储设备,所述指令在由所述一个或多个计算机执行时使所述一个或多个计算机实现:
控制器循环神经网络,其中控制器循环神经网络被配置为,对于多个时间步中的每一个:
接收所述时间步的控制器神经网络输入;以及
根据当前隐藏状态处理所述时间步的控制器神经网络输入,以生成所述时间步的更新的隐藏状态;
解码器神经网络,其中解码器神经网络被配置为:
接收解码器神经网络输入,所述解码器神经网络输入包括共同定义表征环境的观察的压缩表示的潜变量集合;以及
处理包括所述潜变量集合的解码器神经网络输入,以生成表征环境的观察;
外部存储器;以及
存储器接口子系统,被配置为对于每个时间步执行包括以下的操作:
接收所述时间步的更新的隐藏状态;
通过使用更新的隐藏状态从外部存储器读取数据来生成存储器上下文向量;
从至少所述存储器上下文向量确定所述时间步的潜变量集合;
通过将潜变量集合作为输入提供给解码器神经网络,生成所述时间步的预测的观察;
使用潜变量、更新的隐藏状态或两者将数据写入外部存储器;以及
从所述时间步的潜变量生成后续时间步的控制器神经网络输入。
2.如权利要求1所述的系统,其中将数据写入外部存储器包括:
将所述时间步的潜变量写入外部存储器。
3.如权利要求2所述的系统,其中将数据写入外部存储器包括:
将潜变量写入外部存储器中的指定位置。
4.如权利要求1、2或3所述的系统,其中将数据写入外部存储器包括:
生成写入权重集合,其中写入权重集合包括外部存储器中的多个位置中的每一个的相应写入权重;以及
根据写入权重将由更新的隐藏状态定义的数据写入外部存储器中的位置。
5.如权利要求1-4中的任一项所述的系统,其中,通过使用所述更新的隐藏状态从所述外部存储器读取数据来生成存储器上下文向量包括对于一个或多个读取头中的每一个:
从所述更新的隐藏状态针对读取头生成读取权重集合,其中所述读取权重集合包括外部存储器中的多个位置中的每一个的相应读取权重;以及
根据读取权重从外部存储器中的所述多个位置读取数据。
6.如权利要求5所述的系统,其中所述读取权重是基于位置的寻址权重。
7.如权利要求5所述的系统,其中所述读取权重是基于内容的寻址权重。
8.如权利要求5所述的系统,其中所述读取权重是基于位置的寻址权重和基于内容的寻址权重的组合。
9.如权利要求1-8中的任一项所述的系统,其中确定所述时间步的潜变量集合包括:
对于潜变量中的每一个,使用先验映射将包括潜变量集合的先验映射输入映射到所述潜变量的可能潜变量值上的先验分布的参数;以及
根据分布参数从潜变量的先验分布中对潜变量进行采样。
10.如权利要求9所述的系统,其中所述先验映射输入是所述潜变量集合和所述更新的隐藏状态的组合。
11.如权利要求10所述的系统,其中所述先验映射是被配置为将所述先验映射输入映射到所述分布参数的一个或多个线性神经网络层。
12.如权利要求1-8中的任一项所述的系统,其中确定所述时间步的潜变量集合包括:
接收所述时间步的实际观察;以及
使用后验映射神经网络处理存储器上下文向量和实际观察,以对于潜变量中的每一个生成所述潜变量的可能潜变量值上的后验分布的参数;以及
根据分布参数从潜变量的后验分布中对潜变量进行采样。
13.如权利要求1-12中的任一项所述的系统,其中,从所述时间步的潜变量生成后续时间步的控制器神经网络输入包括:
提供所述时间步的潜变量作为下一时间步的控制器神经网络输入。
14.如权利要求1-12中的任一项所述的系统,其中,从所述时间步的潜变量生成后续时间步的控制器神经网络输入包括:
将所述时间步的潜变量和外部上下文向量进行组合以生成下一时间步的控制器神经网络输入。
15.如权利要求1-12中的任一项所述的系统,其中,从所述时间步的潜变量生成后续时间步的控制器神经网络输入包括:
将所述时间步的潜变量和来自外部存储器的数据进行组合以生成下一时间步的控制器神经网络输入。
16.如权利要求1-12中的任一项所述的系统,其中,从所述时间步的潜变量生成后续时间步的控制器神经网络输入包括:
将所述时间步的潜变量、从外部存储器读取的数据和外部上下文向量进行组合以生成下一时间步的控制器神经网络输入。
17.如权利要求1-16中的任一项所述的系统,其中所述时间步的控制器神经网络输入包括之前时间步的潜变量和所述时间步的外部上下文向量。
18.如权利要求17所述的系统,其中所述外部上下文向量表示影响由所述系统生成的观察的特性的一个或多个外部变量。
19.一种方法,包括由权利要求1-18中的任一项所述的子系统执行的操作。
20.一个或多个存储指令的计算机存储介质,所述指令在由一个或多个计算机执行时使所述一个或多个计算机实现权利要求1-18中的任一项所述的系统。
21.一个或多个存储指令的计算机存储介质,所述指令在由一个或多个计算机执行时,使所述一个或多个计算机执行由权利要求1-18中的任一项所述的子系统执行的操作。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762455387P | 2017-02-06 | 2017-02-06 | |
US62/455,387 | 2017-02-06 | ||
PCT/IB2018/050742 WO2018142378A1 (en) | 2017-02-06 | 2018-02-06 | Memory augmented generative temporal models |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110383299A true CN110383299A (zh) | 2019-10-25 |
CN110383299B CN110383299B (zh) | 2023-11-17 |
Family
ID=61557305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880016434.7A Active CN110383299B (zh) | 2017-02-06 | 2018-02-06 | 记忆增强的生成时间模型 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10872299B2 (zh) |
EP (1) | EP3566182A1 (zh) |
CN (1) | CN110383299B (zh) |
WO (1) | WO2018142378A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3566182A1 (en) | 2017-02-06 | 2019-11-13 | Deepmind Technologies Limited | Memory augmented generative temporal models |
US11030634B2 (en) * | 2018-01-30 | 2021-06-08 | Walmart Apollo, Llc | Personalized mechanisms to resolve explore-exploit dilemma with dynamically shared learnings |
US11042895B2 (en) * | 2018-01-30 | 2021-06-22 | Walmart Apollo, Llc | Automatic resolution of the explore-exploit decision in omnichannel settings |
US11055742B2 (en) * | 2018-01-30 | 2021-07-06 | Walmart Apollo, Llc | Automated mechanisms to resolve explore-exploit dilemma with adaptive revival opportunities |
CN108710634B (zh) * | 2018-04-08 | 2023-04-18 | 平安科技(深圳)有限公司 | 一种协议文件的推送方法及终端设备 |
US11735028B2 (en) | 2018-06-12 | 2023-08-22 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
US20200104174A1 (en) * | 2018-09-30 | 2020-04-02 | Ca, Inc. | Application of natural language processing techniques for predicting resource consumption in a computing system |
US11455530B2 (en) * | 2018-11-20 | 2022-09-27 | Google Llc | Controlling agents using scene memory data |
CA3117833A1 (en) * | 2018-12-11 | 2020-06-18 | The Toronto-Dominion Bank | Regularization of recurrent machine-learned architectures |
CN110348567B (zh) * | 2019-07-15 | 2022-10-25 | 北京大学深圳研究生院 | 一种基于自动寻址和递归信息整合的内存网络方法 |
US11651163B2 (en) | 2019-07-22 | 2023-05-16 | Capital One Services, Llc | Multi-turn dialogue response generation with persona modeling |
EP3822882A1 (en) * | 2019-11-18 | 2021-05-19 | Robert Bosch GmbH | Estimating causal effects in a physical system |
US11615317B2 (en) | 2020-04-10 | 2023-03-28 | Samsung Electronics Co., Ltd. | Method and apparatus for learning stochastic inference models between multiple random variables with unpaired data |
US20220358356A1 (en) * | 2021-04-21 | 2022-11-10 | International Business Machines Corporation | Computerized methods of forecasting a timeseries using encoder-decoder recurrent neural networks augmented with an external memory bank |
CN115738747B (zh) * | 2022-11-29 | 2024-01-23 | 浙江致远环境科技股份有限公司 | 用于脱硫脱硝去除二噁英的陶瓷复合纤维催化滤管及其制备方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868829A (zh) * | 2015-02-06 | 2016-08-17 | 谷歌公司 | 用于数据项生成的循环神经网络 |
CN106056213A (zh) * | 2015-04-06 | 2016-10-26 | 谷歌公司 | 使用目标和观察来选择强化学习动作 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120330631A1 (en) * | 2007-02-27 | 2012-12-27 | Exxonmobil Research And Engineering Company | Method and System of Using Inferential Measurements for Abnormal Event Detection in Continuous Industrial Processes |
US9015093B1 (en) * | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8630975B1 (en) * | 2010-12-06 | 2014-01-14 | The Research Foundation For The State University Of New York | Knowledge discovery from citation networks |
US9135241B2 (en) * | 2010-12-08 | 2015-09-15 | At&T Intellectual Property I, L.P. | System and method for learning latent representations for natural language tasks |
GB2513105A (en) * | 2013-03-15 | 2014-10-22 | Deepmind Technologies Ltd | Signal processing systems |
US9536177B2 (en) * | 2013-12-01 | 2017-01-03 | University Of Florida Research Foundation, Inc. | Distributive hierarchical model for object recognition in video |
WO2016145379A1 (en) * | 2015-03-12 | 2016-09-15 | William Marsh Rice University | Automated Compilation of Probabilistic Task Description into Executable Neural Network Specification |
US10091140B2 (en) * | 2015-05-31 | 2018-10-02 | Microsoft Technology Licensing, Llc | Context-sensitive generation of conversational responses |
US10089576B2 (en) * | 2015-07-28 | 2018-10-02 | Microsoft Technology Licensing, Llc | Representation learning using multi-task deep neural networks |
US11157817B2 (en) * | 2015-08-19 | 2021-10-26 | D-Wave Systems Inc. | Discrete variational auto-encoder systems and methods for machine learning using adiabatic quantum computers |
US10366158B2 (en) * | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10664744B2 (en) * | 2015-10-13 | 2020-05-26 | Facebook, Inc. | End-to-end memory networks |
US10395118B2 (en) * | 2015-10-29 | 2019-08-27 | Baidu Usa Llc | Systems and methods for video paragraph captioning using hierarchical recurrent neural networks |
JP6740247B2 (ja) * | 2015-12-01 | 2020-08-12 | 株式会社Preferred Networks | 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法 |
US10776712B2 (en) * | 2015-12-02 | 2020-09-15 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
JP6651629B2 (ja) * | 2015-12-10 | 2020-02-19 | ディープマインド テクノロジーズ リミテッド | 外部メモリを用いたニューラルネットワークの拡張 |
US10410113B2 (en) * | 2016-01-14 | 2019-09-10 | Preferred Networks, Inc. | Time series data adaptation and sensor fusion systems, methods, and apparatus |
WO2017122785A1 (en) * | 2016-01-15 | 2017-07-20 | Preferred Networks, Inc. | Systems and methods for multimodal generative machine learning |
US10599701B2 (en) * | 2016-02-11 | 2020-03-24 | Ebay Inc. | Semantic category classification |
US10354168B2 (en) * | 2016-04-11 | 2019-07-16 | A2Ia S.A.S. | Systems and methods for recognizing characters in digitized documents |
US9858263B2 (en) * | 2016-05-05 | 2018-01-02 | Conduent Business Services, Llc | Semantic parsing using deep neural networks for predicting canonical forms |
US11481585B2 (en) * | 2016-05-20 | 2022-10-25 | Canary Capital Llc | Segmentation of data |
CN107704482A (zh) * | 2016-08-09 | 2018-02-16 | 松下知识产权经营株式会社 | 方法、装置以及程序 |
US10169656B2 (en) * | 2016-08-29 | 2019-01-01 | Nec Corporation | Video system using dual stage attention based recurrent neural network for future event prediction |
US10546066B2 (en) * | 2016-08-31 | 2020-01-28 | Microsoft Technology Licensing, Llc | End-to-end learning of dialogue agents for information access |
US10565493B2 (en) * | 2016-09-22 | 2020-02-18 | Salesforce.Com, Inc. | Pointer sentinel mixture architecture |
WO2018060450A1 (en) * | 2016-09-29 | 2018-04-05 | Koninklijke Philips N.V. | Question generation |
US11042811B2 (en) * | 2016-10-05 | 2021-06-22 | D-Wave Systems Inc. | Discrete variational auto-encoder systems and methods for machine learning using adiabatic quantum computers |
US10595037B2 (en) * | 2016-10-28 | 2020-03-17 | Nec Corporation | Dynamic scene prediction with multiple interacting agents |
US10558750B2 (en) * | 2016-11-18 | 2020-02-11 | Salesforce.Com, Inc. | Spatial attention model for image captioning |
US11062225B2 (en) * | 2016-12-09 | 2021-07-13 | Adobe Inc. | Techniques for providing sequential recommendations to users |
US9911413B1 (en) * | 2016-12-28 | 2018-03-06 | Amazon Technologies, Inc. | Neural latent variable model for spoken language understanding |
KR20180077689A (ko) * | 2016-12-29 | 2018-07-09 | 주식회사 엔씨소프트 | 자연어 생성 장치 및 방법 |
US10853722B2 (en) * | 2016-12-30 | 2020-12-01 | Sanghai Cambricon Information Technology Co., Ltd. | Apparatus for executing LSTM neural network operation, and operational method |
US10417498B2 (en) * | 2016-12-30 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for multi-modal fusion model |
US10049106B2 (en) * | 2017-01-18 | 2018-08-14 | Xerox Corporation | Natural language generation through character-based recurrent neural networks with finite-state prior knowledge |
US10839790B2 (en) * | 2017-02-06 | 2020-11-17 | Facebook, Inc. | Sequence-to-sequence convolutional architecture |
EP3566182A1 (en) | 2017-02-06 | 2019-11-13 | Deepmind Technologies Limited | Memory augmented generative temporal models |
-
2018
- 2018-02-06 EP EP18708482.7A patent/EP3566182A1/en active Pending
- 2018-02-06 CN CN201880016434.7A patent/CN110383299B/zh active Active
- 2018-02-06 WO PCT/IB2018/050742 patent/WO2018142378A1/en unknown
-
2019
- 2019-07-01 US US16/459,113 patent/US10872299B2/en active Active
-
2020
- 2020-12-07 US US17/113,669 patent/US11977967B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868829A (zh) * | 2015-02-06 | 2016-08-17 | 谷歌公司 | 用于数据项生成的循环神经网络 |
CN106056213A (zh) * | 2015-04-06 | 2016-10-26 | 谷歌公司 | 使用目标和观察来选择强化学习动作 |
Non-Patent Citations (4)
Title |
---|
ALEX GRAVES 等: "Neural Turing Machines", ARXIV:1410.5401V2 [CS.NE] 10 DEC 2014, pages 1 - 26 * |
IULIAN V. SERBAN 等: "A Hierarchical Latent Variable Encoder-Decoder Model for Generating Dialogues", ARXIV:1605.06069V3 [CS.CL] 14 JUN 2016, pages 1 - 15 * |
PIJI LI等: "《Salience Estimation via Variational Auto-Encoders for Multi-Document Summarization》", 《PROCEEDINGS OF THE THIRTY-FIRST AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-17)》 * |
PIJI LI等: "《Salience Estimation via Variational Auto-Encoders for Multi-Document Summarization》", 《PROCEEDINGS OF THE THIRTY-FIRST AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-17)》, 3 December 2019 (2019-12-03), pages 1 - 7 * |
Also Published As
Publication number | Publication date |
---|---|
EP3566182A1 (en) | 2019-11-13 |
US11977967B2 (en) | 2024-05-07 |
US20210089968A1 (en) | 2021-03-25 |
US20190324988A1 (en) | 2019-10-24 |
WO2018142378A1 (en) | 2018-08-09 |
US10872299B2 (en) | 2020-12-22 |
CN110383299B (zh) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110383299A (zh) | 记忆增强的生成时间模型 | |
CN111191791B (zh) | 基于机器学习模型的图片分类方法、装置及设备 | |
JP7335274B2 (ja) | ジオロケーションの予測のためのシステムおよび方法 | |
US20210097401A1 (en) | Neural network systems implementing conditional neural processes for efficient learning | |
WO2022016556A1 (zh) | 一种神经网络蒸馏方法以及装置 | |
CN110826453B (zh) | 一种通过提取人体关节点坐标的行为识别方法 | |
CN110520871A (zh) | 训练机器学习模型 | |
CN110383298A (zh) | 用于连续控制任务的数据高效强化学习 | |
CN110503074A (zh) | 视频帧的信息标注方法、装置、设备及存储介质 | |
CN109923560A (zh) | 使用变分信息瓶颈来训练神经网络 | |
CN109155003A (zh) | 生成神经网络 | |
CN110114784A (zh) | 递归神经网络 | |
CN110770759A (zh) | 神经网络系统 | |
CN110088775A (zh) | 加强学习系统 | |
CN109661672A (zh) | 使用强化学习利用外部存储器增强神经网络 | |
CN110447041A (zh) | 噪声神经网络层 | |
CN109858615A (zh) | 具有记忆的低通递归神经网络系统 | |
WO2023050143A1 (zh) | 一种推荐模型训练方法及装置 | |
CN116740422A (zh) | 基于多模态注意力融合技术的遥感图像分类方法及装置 | |
CN115066686A (zh) | 使用对规划嵌入的注意操作生成在环境中实现目标的隐式规划 | |
CN116109449A (zh) | 一种数据处理方法及相关设备 | |
CN108475346A (zh) | 神经随机访问机器 | |
Zhang et al. | Learning various length dependence by dual recurrent neural networks | |
WO2022140540A1 (en) | Simulated control for 3-dimensional human poses in virtual reality environments | |
WO2023246735A1 (zh) | 一种项目推荐方法及其相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |