CN107480786A - 基于输出状态限制的循环神经网络轨迹似然概率计算方法 - Google Patents
基于输出状态限制的循环神经网络轨迹似然概率计算方法 Download PDFInfo
- Publication number
- CN107480786A CN107480786A CN201710665944.4A CN201710665944A CN107480786A CN 107480786 A CN107480786 A CN 107480786A CN 201710665944 A CN201710665944 A CN 201710665944A CN 107480786 A CN107480786 A CN 107480786A
- Authority
- CN
- China
- Prior art keywords
- neural network
- recurrent neural
- model
- msub
- mrow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 52
- 230000000306 recurrent effect Effects 0.000 title claims abstract description 33
- 238000000205 computational method Methods 0.000 title abstract 2
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 28
- 239000010410 layer Substances 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000009827 uniform distribution Methods 0.000 claims description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 239000002356 single layer Substances 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 abstract 1
- 230000002787 reinforcement Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本发明属于轨迹计算技术领域,具体为一种基于输出状态限制的循环神经网络轨迹似然概率计算方法。本发明方法的步骤包括:训练阶段,利用输出状态限制的循环神经网络对轨迹进行建模,根据历史轨迹数据训练模型参数;在线查询阶段,根据已训练好的模型对输入的轨迹的每个路段预测转移到下一个路段的概率。本发明利用深度神经网络的强大的表达能力,可以学习到基于马尔可夫模型所无法捕捉到的长距离依赖关系,从而更准确地对轨迹数据进行建模。
Description
技术领域
本发明属于轨迹计算技术领域,具体涉及一种基于输出状态限制的循环神经网络轨迹似然 概率的计算方法。
背景技术
移动端GPS设备的普及推动了基于位置的服务的发展,轨迹计算也应运而生。随着大量轨 迹数据的获得,从而使得对这些轨迹数据建立一个概率模型得到了可能。轨迹模型是轨迹计算 中的一个非常重要且基础的问题。对轨迹进行概率建模,能够帮助解决路径推荐、路况预计、 轨迹预测、频繁模式挖掘、异常检测等与行驶路径有关的应用问题,具有非常大的应用场景。 现有的轨迹概率建模技术主要分为基于马尔可夫链的模型与基于反向增强学习的模型两类:
(1)基于马尔可夫链的模型:
大量的已有工作都使用了马尔可夫链对一条轨迹进行概率建模,也就是说,这些工作假定 轨迹之间的路段转换符合马尔可夫性,即,当前路段转移至下一个路段的这个事件与更先前经 过的路段是无关的。很显然,这种假设虽然能简化问题,但是也同时损失了建模的准确性。基 于马尔可夫链的模型,无法捕捉到轨迹数据中长间隔的依赖关系。
(2)基于反向增强学习的模型
还有一些工作使用了反向增强学习的模型对轨迹进行概率建模,这些方法的主要问题在于, 使用马尔可夫决策过程进行建模并使用反向增强学习的模型,虽然能捕捉到未来的信息,但是 仍然无法摆脱马尔可夫性;使用最大熵反向增强学习的模型,虽然能够捕捉到长距离的依赖关 系,但是由于模型本身参数过少,导致模型表达能力不强,而受到了制约。
发明内容
本发明的目的在于针对现有技术的不足,提出一种可以捕捉长距离下的依赖关系的具有强 大表达能力的循环神经网络轨迹似然概率的计算方法。
本发明提出的循环神经网络轨迹似然概率的计算方法,是基于输出状态限制的,包括训练 阶段和在线查询阶段,具体步骤如下:
(一)训练阶段,利用马尔可夫决策过程模型对轨迹进行建模,根据历史轨迹数据训练模 型参数;具体流程为:
(1)构建循环神经网络,循环神经网络是一种特殊的神经网络,定义网络隐层节点数为H, 输入向量的维度为I,所有隐层节点构成的向量称为隐层向量h,那么一个简单的单层循环神 经网络的参数WN={Whh,Wxh,b},其中,是前一个时间片的隐层到当前时间片的 隐层的权重矩阵,是网络输入层到隐层的权重矩阵,,是偏置参数,。对于第 1时刻的输入x1,循环神经网络的隐层向量其中,是维度为H 的零向量。对于第t时刻的输入xt,对应的t时刻的网络隐层向量ht=σ(Wxhxt+Whhht-1+b), 其中σ()为一个非线性的激活函数,通常使用双曲正切函数tanh或者纠正线性单元(Rectified Linear Unit,ReLu)。需要注明的是,循环神经网络有多重变种形式,这些变种的循环神经网络 也是可以合法的应用在本发明中的,包括深度循环神经网络(Deep Recurrent Neural Network), 门循环单元网络(Gated Recurrent Unit,GRU),长短期记忆1神经网络(Long-Short Term Memory, LSTM)等,由于这些结构都属于已有发明,故不做详细阐述。
定义循环神经网络N,对应的参数为WN,从[-α,α]的均匀分布中对每个元素进行初始化, 其中,α是作为一个超参数,是一个预先设定的正常数,一般设定范围为0.01到1,具体值由 验证集效果而设定。
(2)对于路网中的每条道路ri,由于ri仅仅是一个编号,并不具有实际数值大小含义,直 接将其作为输入进神经网络是无意义的,所以需要将ri映射成一个具有含义的向量vi,也就是 词嵌入(Word Embedding)。本发明的做法是首先对词嵌入元素亦从[-α,α]的均匀分布中对每 个元素进行初始化,并将所有道路的词嵌入一同作为整个模型的待优化参数,即假设共有R 条道理,则所有的词嵌入V={v1,v2,..,vR},通过模型学习出每个词嵌入的具体值。
(3)构建蒙板矩阵M,其中M[i,j]为1,当且仅当ri与rj在路网中邻接,否则令M[i,j]为0。
(4)循环神经网络N的隐层ht根据网络的定义计算出后,则可以利用ht进行预测。定义 神经网络隐层至输出层之间的仿射变换参数与即ot=Woht+bo,从[-α,α]的均匀分布中对每个元素进行初始化;(注:仿射变换指的是Y=ax+b,默认包含两个参 数a与b,故这里统一用―仿射变换参数”来指代)。
(5)对于轨迹中扫描到的当前状态ri,计算循环神经网络N对应的隐层向量:
hi=N(vi,hi-1;WN),
其中,N()代表一个合法的循环神经网络前馈运算过程,如σ(Wxhvi+Whhhi-1+b),其中 WN={Whh,Wxh,b},hi-1为前一时刻循环神经网络N的隐层节点构成的向量。
(6)计算ri转移到ri+1的转移概率:
P(ri+1|r1,…,ri)=M⊙softmax(Wohi+bo)[ri+1];
其中⊙为按元素顺序的乘法(Element-wise product),给定向量x={x1,x2,…,xm},softmax(x) 将会得到一个同样是m维的向量,其中第i维的值
(7)计算一条长度为k的轨迹的交叉熵作为神经网络的 目标函数。
(8)根据轨迹的交叉熵目标函数C,使用经过时间的反向传播算法(backpropagation through time)计算网络每个参数的梯度(反向传播算法可参见:PaulJ.Werbos.Backpropagation throughtime:what it does and how to doit.Proceedings of theIEEE,78(10):1550–1560,1990)。
(9)使用基于随机梯度下降的优化算法,更新神经网络参数。
(10)重复步骤(5)—(9),直至目标函数收敛,将此时的所有参数作为模型的最终参 数;其中模型的所有参数包括WN,Wo,bo以及所有的词嵌入V。
(二)在线查询阶段,根据已训练好的模型计算道路之间的转移概率,具体流程为:
(1)使用训练阶段训练好的模型参数定义模型;
(2)对于轨迹中扫描到的当前状态ri,计算循环神经网络N对应的隐层向量:
hi=N(vi,hi-1;WN),
其中,N()代表一个合法的循环神经网络前馈运算过程,hi-1为前一时刻循环神经网络N 的隐层节点构成的向量;
(3)计算ri转移到ri+1的转移概率:
P(ri+1|r1,…,ri)=M⊙softmax(Wohi+bo)[ri+1];
(4)重复执行步骤(2)、(3),计算得到给定轨迹的似然概率:
本发明利用基于输出状态限制的循环神经网络对轨迹建立概率模型,通过定义模型将历史 数据的交叉熵作为模型的优化目标进行优化得到模型的参数;在在线求解概率阶段,利用已经 训练完成的模型对轨迹进行前馈计算,得到最终轨迹的似然概率。
本发明方法,利用了循环神经网络强大的表达能力,对轨迹进行建模,能够捕捉长距离的 依赖关系,更准确地求的轨迹的似然概率。
附图说明
图1为虚线轨迹tr1:r1→r5→r12→r16→r17与实线轨迹tr2:r3→r6→r9→r8作为用于训 练模型的历史数据图。
图2为在线阶段需要求解似然概率的轨迹。
具体实施方式
下面结合具体实例来说明本发明:
1.根据历史轨迹数据训练神经网络模型参数
(1)定义一个单层简单的循环神经网络N,对应的参数为WN={Whh,Wxh,b},从[-α,α]的 均匀分布中对每个元素进行初始化,其中α是一个预先设定的正常数,如0.03。则神经网络的 前馈计算函数为N(vi,h;WN)=σ(Wxhvi+Whhh+b),其中σ()为一个非线性激活函数,这里不妨定义为双曲正切函数tanh()。
(2)对于路网中的每条道路ri,定义对应I维(如100)词嵌入为vi,对词向量元素从[-α,α]的 均匀分布中对每个元素进行初始化。
(3)构建蒙板矩阵M,其中M[i,j]为1当且仅当ri与rj在路网中邻接,否则令M[i,j]为0, 如样例中,M[1,5]=1,M[1,12]=0。
(4)定义神经网络隐层至预测层之间的仿射变换参数WO与bo,从[-α,α]的均匀分布中对 每个元素进行初始化。
(5)对虚线历史轨迹tr1进行交叉熵计算
(a)计算h=0,P(r5|r1)=M⊙softmax(Wo·h+bo)[5]
(b)计算h=N(v1,h;WN),P(r12|r1,r5)=M⊙softmax(Wo·h+bo)[12]
(c)计算h=N(v12,h;WN),P(r16|r1,r5,r12)=M⊙softmax(Wo·h+bo)[16]
(d)计算h=N(v16,h;WN),P(r17|r1,r5,r12,r16)=M⊙softmax(Wo·h+bo)[17
(e)计算交叉熵:
C(tr1)=-log[P(r5|r1)*P(r12|r1,r5)*P(r16|r1,r5,r12)*P(r17|r1,r5,r12,r16)]。
(6)根据目标函数C使用经过时间的反向传播算法计算模型所有参数W={WN,Wo,bo,V} 的梯度
具体为根据交叉熵的目标函数求得WO与bo的导数,再通过求导的链式法则逐步向后传递, 求出剩余参数的导数。
(7)使用基于随机梯度下降的优化算法更新神经网络参数。
具体更新过程为:其中ρ是学习率参数,为一个预先设定的正数,不妨 设置为0.01。Wnew则是根据轨迹tr1这个数据学习后更新得到的新参数。
(8)对虚线历史轨迹tr2进行交叉熵计算
(a)计算h=0,P(r6|r3)=M⊙softmax(Wo·h+bo)[6]
(b)计算h=N(v6,h;WN),P(r9|r3,r6)=M⊙softmax(Wo·h+bo)[9]
(c)计算h=N(v9,h;WN),P(r8|r3,r6,r9)=M⊙softmax(Wo·h+bo)[8]
(d)计算交叉熵C(tr2)=-log[P(r6|r3)*P(r6|r3)*P(r8|r3,r6,r9)]。
(9)根据目标函数C使用经过时间的反向传播算法计算网络每个参数的梯度(10)使用基于随机梯度下降的优化算法更新神经网络参数。
(11)重复步骤(5)—(10)直至目标函数收敛。
2.利用已训练好的模型计算给定轨迹的概率
(1)使用训练阶段训练好的模型参数定义模型;
(2)对虚线历史轨迹tr1进行交叉熵计算;
(a)计算h=0,P(r2|r1)=M⊙softmax(Wo·h+bo)[2];
(b)计算h=N(v2,h;WN),P(r6|r1,r2)=M⊙softmax(Wo·h+bo)[6];
(c)计算h=N(v6,h;WN),P(r13|r1,r2,r6)=M⊙softmax(Wo·h+bo)[13];
(d)计算似然概率P(tr)=P(r2|r1)*P(r6|r1,r2)*P(r13|r1,r2,r6)。
Claims (2)
1.一种基于输出状态限制的循环神经网络轨迹似然概率的计算方法,其特征在于,包括训练阶段和在线查询阶段,具体步骤如下:
(一)训练阶段,利用马尔可夫决策过程模型对轨迹进行建模,根据历史轨迹数据训练模型参数;具体流程为:
(1)构建循环神经网络,定义网络隐层节点数为H,输入向量的维度为I,所有隐层节点构成的向量称为隐层向量h,一个单层循环神经网络的参数为:WN={Whh,Wxh,b},其中,是前一个时间片的隐层到当前时间片的隐层的权重矩阵,是网络输入层到隐层的权重矩阵,是偏置参数;对于第1时刻的输入x1,循环神经网络的隐层向量其中,是维度为H的零向量;对于第t时刻的输入xt,对应的t时刻的网络隐层向量ht=σ(Wxhxt+Whhht-1+b),其中σ()为一个非线性的激活函数;
定义循环神经网络N,对应的参数为WN,从[-α,α]的均匀分布中对每个元素进行初始化,其中,α是为一个超参数,设定范围为0.01到1;
(2)对于路网中的每条道路ri,将ri映射成一个具有含义的向量vi,就是词嵌入,首先对词嵌入元素亦从[-α,α]的均匀分布中对每个元素进行初始化,并将所有道路的词嵌入一同作为整个模型的待优化参数,即假设共有R条道路,则所有的词嵌入V={v1,v2,..,vR},通过模型学习出每个词嵌入的具体值;
(3)构建蒙板矩阵M,其中M[i,j]为1,当且仅当ri与rj在路网中邻接,否则令M[i,j]为0;
(4)循环神经网络N的隐层ht根据网络的定义计算出后,利用ht进行预测;定义神经网络隐层至输出层之间的仿射变换参数与即ot=Woht+bo,从[-α,α]的均匀分布中对每个元素进行初始化;
(5)对于轨迹中扫描到的当前状态ri,计算循环神经网络N对应的隐层向量:
hi=N(vi,hi-1;WN),
其中,N()代表一个合法的循环神经网络前馈运算过程,取为σ(Wxhvi+Whhhi-1+b),其中WN={Whh,Wxh,b},hi-1为前一时刻循环神经网络N的隐层节点构成的向量;
(6)计算ri转移到ri+1的转移概率:
P(ri+1|r1,…,ri)=M⊙softmax(Wohi+bo)[ri+1];
其中⊙为按元素顺序的乘法,给定向量x={x1,x2,…,xm},softmax(x)得到一个同样是m维的向量,其中第i维的值
(7)计算一条长度为k的轨迹的交叉熵作为神经网络的目标函数;
(8)根据轨迹的交叉熵目标函数C,使用经过时间的反向传播算法计算网络每个参数的梯度
(9)使用基于随机梯度下降的优化算法,更新神经网络参数;
(10)重复步骤(5)—(9),直至目标函数收敛,将此时的所有参数作为模型的最终参数;其中模型的所有参数包括WN,Wo,bo以及所有的词嵌入V;
(二)在线查询阶段,根据已训练好的模型计算道路之间的转移概率,具体流程为:
(1)使用训练阶段训练好的模型参数定义模型;
(2)对于轨迹中扫描到的当前状态ri,计算循环神经网络N对应的隐层向量:
hi=N(vi,hi-1;WN),
其中,N()代表一个合法的循环神经网络前馈运算过程,hi-1为前一时刻循环神经网络N的隐层节点构成的向量;
(3)计算ri转移到ri+1的转移概率:
P(ri+1|r1,…,ri)=M⊙softmax(Wohi+bo)[ri+1];
(4)重复执行步骤(2)、(3),计算得到给定轨迹的似然概率:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>r</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>r</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mo>&Pi;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<msub>
<mi>r</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>r</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
2.根据权利要求1所述的计算方法,其特征在于,所述σ()为一个tanh函数或者纠正线性单元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710665944.4A CN107480786B (zh) | 2017-08-07 | 2017-08-07 | 基于输出状态限制的循环神经网络轨迹似然概率计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710665944.4A CN107480786B (zh) | 2017-08-07 | 2017-08-07 | 基于输出状态限制的循环神经网络轨迹似然概率计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107480786A true CN107480786A (zh) | 2017-12-15 |
CN107480786B CN107480786B (zh) | 2021-04-30 |
Family
ID=60597008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710665944.4A Expired - Fee Related CN107480786B (zh) | 2017-08-07 | 2017-08-07 | 基于输出状态限制的循环神经网络轨迹似然概率计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107480786B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035761A (zh) * | 2018-06-25 | 2018-12-18 | 复旦大学 | 基于辅助监督学习的行程时间估计方法 |
CN110155031A (zh) * | 2018-02-14 | 2019-08-23 | 通用汽车环球科技运作有限责任公司 | 使用神经网络的用于车辆横向控制的轨迹跟踪 |
CN112653997A (zh) * | 2020-12-29 | 2021-04-13 | 西安九索数据技术股份有限公司 | 一种基于基站序列的位置轨迹计算方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101887479A (zh) * | 2010-07-23 | 2010-11-17 | 华南理工大学 | 基于确定学习理论的轴流压气机旋转失速的快速诊断方法 |
CN102568200A (zh) * | 2011-12-21 | 2012-07-11 | 辽宁师范大学 | 车辆行驶状态实时判别的方法 |
CN104067781A (zh) * | 2014-06-16 | 2014-10-01 | 华南农业大学 | 基于虚拟机器人与真实机器人集成的采摘系统及方法 |
US20150278601A1 (en) * | 2014-03-27 | 2015-10-01 | Megachips Corporation | State estimation apparatus, state estimation method, and integrated circuit |
CN106056078A (zh) * | 2016-05-31 | 2016-10-26 | 武汉大学深圳研究院 | 一种基于多特征回归式集成学习的人群密度估计方法 |
CN106056209A (zh) * | 2016-05-23 | 2016-10-26 | 大连理工大学 | 一种基于循环神经网络的查询词项权重学习方法 |
CN106156531A (zh) * | 2016-08-04 | 2016-11-23 | 复旦大学 | 基于低采样历史轨迹的行程时间估计方法 |
CN106777125A (zh) * | 2016-12-16 | 2017-05-31 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于神经网络及图像关注点的图像描述生成方法 |
-
2017
- 2017-08-07 CN CN201710665944.4A patent/CN107480786B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101887479A (zh) * | 2010-07-23 | 2010-11-17 | 华南理工大学 | 基于确定学习理论的轴流压气机旋转失速的快速诊断方法 |
CN102568200A (zh) * | 2011-12-21 | 2012-07-11 | 辽宁师范大学 | 车辆行驶状态实时判别的方法 |
US20150278601A1 (en) * | 2014-03-27 | 2015-10-01 | Megachips Corporation | State estimation apparatus, state estimation method, and integrated circuit |
CN104067781A (zh) * | 2014-06-16 | 2014-10-01 | 华南农业大学 | 基于虚拟机器人与真实机器人集成的采摘系统及方法 |
CN106056209A (zh) * | 2016-05-23 | 2016-10-26 | 大连理工大学 | 一种基于循环神经网络的查询词项权重学习方法 |
CN106056078A (zh) * | 2016-05-31 | 2016-10-26 | 武汉大学深圳研究院 | 一种基于多特征回归式集成学习的人群密度估计方法 |
CN106156531A (zh) * | 2016-08-04 | 2016-11-23 | 复旦大学 | 基于低采样历史轨迹的行程时间估计方法 |
CN106777125A (zh) * | 2016-12-16 | 2017-05-31 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于神经网络及图像关注点的图像描述生成方法 |
Non-Patent Citations (2)
Title |
---|
乔少杰等: "《一种基于高斯混合模型的轨迹预测算法》", 《软件学报》 * |
毛江云等: "《路网空间下基于马尔可夫决策过程的异常车辆轨迹检测算法》", 《计算机学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110155031A (zh) * | 2018-02-14 | 2019-08-23 | 通用汽车环球科技运作有限责任公司 | 使用神经网络的用于车辆横向控制的轨迹跟踪 |
CN110155031B (zh) * | 2018-02-14 | 2022-03-08 | 通用汽车环球科技运作有限责任公司 | 使用神经网络的用于车辆横向控制的轨迹跟踪 |
CN109035761A (zh) * | 2018-06-25 | 2018-12-18 | 复旦大学 | 基于辅助监督学习的行程时间估计方法 |
CN112653997A (zh) * | 2020-12-29 | 2021-04-13 | 西安九索数据技术股份有限公司 | 一种基于基站序列的位置轨迹计算方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107480786B (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Deep temporal convolutional networks for short-term traffic flow forecasting | |
US11543787B2 (en) | Networked control system time-delay compensation method based on predictive control | |
CN111612243B (zh) | 交通速度预测方法、系统及存储介质 | |
Levine et al. | Learning complex neural network policies with trajectory optimization | |
CN109829577B (zh) | 基于深度神经网络结构模型的轨道列车运行状态预测方法 | |
CN104900063B (zh) | 一种短程行驶时间预测方法 | |
CN112910711B (zh) | 一种基于自注意力卷积网络的无线业务流量预测方法、设备及介质 | |
CN107480786B (zh) | 基于输出状态限制的循环神经网络轨迹似然概率计算方法 | |
Niu et al. | Recurrent neural networks in the eye of differential equations | |
CN112766603A (zh) | 一种交通流量预测方法、系统、计算机设备及存储介质 | |
Massaoudi et al. | Performance evaluation of deep recurrent neural networks architectures: Application to PV power forecasting | |
CN112784479B (zh) | 一种洪水流量预测的方法 | |
CN115410372B (zh) | 基于贝叶斯lstm的高速公路交通流量可靠预测方法 | |
Yuan et al. | Traffic flow modeling with gradual physics regularized learning | |
CN114461931A (zh) | 一种基于多关系融合分析的用户轨迹预测方法和系统 | |
CN114519430A (zh) | 一种软量子神经网络系统及模式识别方法 | |
CN113537580A (zh) | 一种基于自适应图学习的公共交通客流预测方法及系统 | |
CN115526096A (zh) | 盾构机施工掘进参数的预测方法、装置及可存储介质 | |
Lin et al. | Remaining useful life prediction in prognostics using multi-scale sequence and Long Short-Term Memory network⋆ | |
CN116303786A (zh) | 一种基于多维数据融合算法的区块链金融大数据管理系统 | |
CN116451567A (zh) | 一种瓦斯负压抽采管道泄漏评估及智能处置方法 | |
CN103209005B (zh) | 一种基于图形模型的跳频序列预测系统 | |
Yangzhen et al. | A software reliability prediction model: Using improved long short term memory network | |
US20230120256A1 (en) | Training an artificial neural network, artificial neural network, use, computer program, storage medium and device | |
Marjani et al. | The large-scale wildfire spread prediction using a multi-kernel convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210430 |