CN110990678B - 基于增强型循环神经网络的轨迹相似性计算方法 - Google Patents
基于增强型循环神经网络的轨迹相似性计算方法 Download PDFInfo
- Publication number
- CN110990678B CN110990678B CN201911034516.7A CN201911034516A CN110990678B CN 110990678 B CN110990678 B CN 110990678B CN 201911034516 A CN201911034516 A CN 201911034516A CN 110990678 B CN110990678 B CN 110990678B
- Authority
- CN
- China
- Prior art keywords
- track
- memory module
- enhanced
- neural network
- recurrent neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于增强型循环神经网络的轨迹相似性计算方法,包括:步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集;步骤2、采用增强型循环神经网络对轨迹进行网格化处理;步骤3、采用带记忆模块的增强型RNN编码器对当前轨迹序列进行编码;步骤4、建立由种子池导引的网络度量排序学习模型学习轨迹的相似性;步骤5、引入相应的注意力机制计算相似轨迹列表的损失,进行反向传播;步骤6、基于车辆轨迹对引入注意力机制的排序学习模型进行实验。本发明的有益效果是:抛弃了传统的点匹配算法,采用深度学习方法,在传统的RNN模型基础上引入了记忆模块,并使用了注意力机制用以维护相似序列列表,开拓了一个新思路。
Description
技术领域
本发明涉及一种轨迹相似性计算方法。主要是一种引入了记忆模块的循环神经网络(RNN)作为模型编码器,对轨迹序列进行编码,并维护相似轨迹序列表的新思路,将其应用于轨迹相似性计算的方法。
背景技术
轨迹相似性计算由于其广泛的应用前景而得到了广泛的研究,迄今为止已经取得了许多研究成果,在车辆路线搜索,旅游路线查询,动物的迁徙路线定位甚至于股票走势等诸多领域有相当的应用前景。由于物联网的发展,全球定位系统嵌入式设备也随之大范围地应用,使得轨迹数据越发的易于收集,极大促进了轨迹相似性研究的发展。然而,由于大规模数据的采集,加之原有轨迹相似性计算方法的二次时间复杂度,在计算时间上是不可忍受的。
传统的轨迹相似性计算方法大部分基于点匹配的思路,可解释性强且易于操作,但在许多应用场景中准确率不高,且面对噪声,抵抗性较弱,且由于是动态计算轨迹相似度,导致了算法时间复杂度高。
因此,提出一种基于增强型循环神经网络的轨迹相似性计算方法,就显得尤为重要。
发明内容
本发明的目的在于克服传统的点匹配算法的低准确率和计算轨迹相似性的高时间消耗,提出了基于增强型循环神经网络的轨迹相似性计算方法,对轨迹序列进行编码,并定义相似矩阵,在相似矩阵的基础上,加入注意力机制用以维护相似轨迹序列列表,以注意力损失反向传播,训练深度网络,可以达到线性的时间复杂度。
这种基于增强型循环神经网络的轨迹相似性计算方法,具体包括如下步骤:
步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集,在总体数据集中随机采样N条轨迹作为种子池,并使用动态规整方法计算出一个对称的N×N距离矩阵,对该距离矩阵做正则化处理,作为模型的训练导引;
步骤2、采用增强型循环神经网络对轨迹进行网格化处理,对输入轨迹进行编码;所述增强型循环神经网络是基于网格的记忆网络;
步骤2.1、将基于网格的记忆网络的空间分割成P×Q的网格胞:RP×Q×d为记忆模块的维度;其中P和Q为设定常数,d为RNN中循环神经网络单元的数量;对于每一个轨迹输入将其映射成一个网格序列其中 和代表第t个步长的输入分量;
步骤2.2、将任意一个输入的轨迹点序列规范化,形成模型的标准输入;
步骤3、采用带记忆模块的增强型RNN编码器,对当前轨迹序列进行编码:在步骤2的基础上引入记忆模块,记录处理过的轨迹信息,并将轨迹信息的编码输入记忆模块;记忆模块定义有:读操作,根据需求在记忆模块中读取相似信息;写操作,记录更新轨迹信息;
步骤4、建立由种子池导引的网络度量排序学习模型,通过种子池的轨迹信息学习轨迹的相似性;采用基于距离权重的采样策略,对每一条轨迹找到种子池距离矩阵对应的行向量,作为采样依据,并据此维护相似轨迹列表,进行排序学习;
步骤5、对于维护后的相似轨迹列表,引入相应的注意力机制计算相似轨迹列表的损失,对于引入注意力机制的排序学习模型进行反向传播;
步骤6、基于车辆轨迹对引入注意力机制的排序学习模型进行实验。
作为优选,步骤3所述的记忆模块存储空间中已网格化处理过的轨迹信息,支持对轨迹的编码,支持检索已处理存储在记忆模块中的轨迹,支持实时更新记忆模块中的信息记录。
作为优选,步骤3所述带记忆模块的增强型RNN编码器的核心是导入的记忆模块,记忆模块中的每一个存储单元(p,q,:),都存储着网格胞(p,q)编码好的轨迹向量;所有的轨迹向量在训练之前都初始化为0。
作为优选,步骤3所述记忆模块采用带记忆模块的增强型RNN编码器将当前轨迹序列与先前处理过的相似轨迹序列关联:在每一个时间步长t内,循环神经网络单元接收输入分量和该单元从上层单元接收的隐藏状态ht-1,并且得到该单元的隐藏状态ht,传给下一个循环神经网络单元。
作为优选,步骤3所述的带记忆模块的增强型RNN编码器使用逻辑门机制控制调整网络参数,根据训练调整的网络参数来计算每一个循环神经网络单元的状态参数,带记忆模块的增强型RNN编码器的循环调参步骤遵循以下规则:
上式中,ft为遗忘门,it为输入门,st为空间门,ot为输出门,bc为偏置参数,Wg∈R4d ×2,Ug∈R4d×d,Wc∈Rd×2,Uc∈Rd×d,其中d为隐藏状态的数量,R4d×2、R4d×d、Rd×2和Rd×d都为二维实数空间,Wg、Ug、Wc和Uc均为权重参数;循环神经网络单元应用sigmoid函数对输入的轨迹坐标和已处理循环神经网络单元的隐藏状态ht-1进行转换,获得隐藏状态ht,并获得4个门状态的更新值,通过4个门状态,计算得到该循环神经网络单元的暂存状态和
作为优选,步骤3所述对带记忆模块的增强型RNN编码器中的记忆模块进行:
读取器首先查找网格胞中与当前轨迹步长相似的轨迹,并设定带宽w用类窗口查询方法将网格胞中的种子池转换向量存储到矩阵Gt,公式如下所示:
上式中M代表记忆模块;
写操作:在训练过程中,实时更新记忆模块M的网格胞轨迹信息;在每一个时间步长内,直接依靠空间门st更新写入:
M(Xg)new=σ(st)·ct+(1-σ(st))·M(Xg)old (9)
ht=ot·tanh(ct) (10)。
作为优选,步骤4具体包括如下步骤:
步骤4.1、在轨迹的总体数据集中随机采样若干条轨迹序列作为种子池,并计算任两条采样得到的轨迹序列的距离,得到距离矩阵D,并将其正则化为相似矩阵S,在接下来的模型训练过程中,将以S作为导引:
上式中α为调节相似度的参数,Di,j为距离矩阵D中第i行,第j列的元素;相似矩阵S中的每一个元素Si,j都由该公式得到;
步骤4.2、对于任意输入的两条轨迹Ti和Tj,增强型RNN编码器能够将其编码成两个d维向量Ei和Ej,模型的训练目标是得到函数g(·,·)使其能逼近真实相似函数f(·,·):
其中K是具有标识度的轨迹对,wk为第k对轨迹的权重;
步骤4.3、在选取每一对轨迹对时,引入注意力机制选取更具有标识度的轨迹对;对于每一个待比较轨迹Ta,从相似矩阵S中选取对应的行向量Ia,由于相似矩阵自身的定义,以Ia为序列选择权重,从种子池中采样n个不同的轨迹根据相似值,为Ta维护一个相似轨迹列表Γa={T1,…,Tn};对轨迹进行采样之后,在维护的相似轨迹列表上定义相似性:
其中g(Ti,Tj)=exp(-Euclidean(Ei,Ej)),计算两个编码后的向量的相似值。
作为优选,步骤5具体包括如下步骤:
步骤5.1、加权采样后,引入注意力机制建立排序损失模型进行排序学习训练;在维护的相似轨迹列表上加入权重分量权重分量以指数形式递减,表明了相似性越小的轨迹序列在排序损失中占比越小;在Γa上定义损失函数:
其中f(Ti,Tj)是轨迹对(Ti,Tj)的真实标签,rl为权重分量r的第l个分量;定义整个训练轨迹种子池的总损失为:
步骤5.2、建立排序损失模型后,应用反向传播算法以及Adam优化器对模型参数进行调整。
本发明的有益效果是:本发明抛弃了传统的点匹配算法,采用深度学习方法,在传统的RNN模型基础上引入了记忆模块,并使用了注意力机制用以维护相似序列列表,开拓了一个新思路。本发明能实现线性时间复杂度的轨迹相似性查询,从而大幅度降低相似性计算时间,提高对噪声和不均匀采样率的鲁棒性。
附图说明
图1为本发明的总体框架流程图;
图2为本发明的轨迹编码算法流程图;
图3为本发明的记忆模块读写方法流程图;
图4为引入注意力机制的排序学习模型流程图;
图5为本发明方法与其他方法的准确率实验对比图;
图6为本发明方法与其他方法的运行时间对比图;
具体实施方式
下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
基于增强型循环神经网络的轨迹相似性计算方法,如图1所示,具体包括如下步骤:
步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集,在总体数据集中随机采样N条轨迹作为种子池,并使用动态规整方法计算出一个对称的N×N距离矩阵,对该距离矩阵做正则化处理,作为模型的训练导引;
步骤2、如图2所示,采用增强型循环神经网络对轨迹进行网格化处理,对输入轨迹进行编码;所述增强型循环神经网络是基于网格的记忆网络;
步骤2.1、将基于网格的记忆网络的空间分割成P×Q的网格胞:RP×Q×d为记忆模块的维度;其中P和Q为设定常数,d为RNN中循环神经网络单元的数量;对于每一个轨迹输入将其映射成一个网格序列其中 和代表第t个步长的输入分量;
步骤2.2、将任意一个输入的轨迹点序列规范化,形成模型的标准输入;
步骤3、采用带记忆模块的增强型RNN编码器,对当前轨迹序列进行编码:在步骤2的基础上引入记忆模块,记录处理过的轨迹信息,并将轨迹信息的编码输入记忆模块;记忆模块定义有:读操作,根据需求在记忆模块中读取相似信息;写操作,记录更新轨迹信息;
带记忆模块的增强型RNN编码器使用逻辑门机制控制调整网络参数,根据训练调整的网络参数来计算每一个循环神经网络单元的状态参数,带记忆模块的增强型RNN编码器的循环调参步骤遵循以下规则:
上式中,ft为遗忘门,it为输入门,st为空间门,ot为输出门,bc为偏置参数,Wg∈R4d ×2,Ug∈R4d×d,Wc∈Rd×2,Uc∈Rd×d,其中d为隐藏状态的数量,R4d×2、R4d×d、Rd×2和Rd×d都为二维实数空间,Wg、Ug、Wc和Uc均为权重参数;循环神经网络单元应用sigmoid函数对输入的轨迹坐标和已处理循环神经网络单元的隐藏状态ht-1进行转换,获得隐藏状态ht,并获得4个门状态的更新值,通过4个门状态,计算得到该循环神经网络单元的暂存状态和
对带记忆模块的增强型RNN编码器中的记忆模块进行:
读取器首先查找网格胞中与当前轨迹步长相似的轨迹,并设定带宽w用类窗口查询方法将网格胞中的种子池转换向量存储到矩阵Gt,公式如下所示:
上式中M代表记忆模块;
写操作:在训练过程中,实时更新记忆模块M的网格胞轨迹信息;在每一个时间步长内,直接依靠空间门st更新写入:
M(Xg)new=σ(st)·ct+(1-σ(st))·M(Xg)old (9)
ht=ot·tanh(ct) (10)。
步骤4、如图4所示,建立由种子池导引的网络度量排序学习模型,通过种子池的轨迹信息学习轨迹的相似性;采用基于距离权重的采样策略,对每一条轨迹找到种子池距离矩阵对应的行向量,作为采样依据,并据此维护相似轨迹列表,进行排序学习;
步骤4.1、在轨迹的总体数据集中随机采样若干条轨迹序列作为种子池,并计算任两条采样得到的轨迹序列的距离,得到距离矩阵D,并将其正则化为相似矩阵S,在接下来的模型训练过程中,将以S作为导引:
上式中a为调节相似度的参数,Di,j为距离矩阵D中第i行,第j列的元素;相似矩阵S中的每一个元素Si,j都由该公式得到;
步骤4.2、对于任意输入的两条轨迹Ti和Tj,增强型RNN编码器能够将其编码成两个d维向量Ei和Ej,模型的训练目标是得到函数g(·,·)使其能逼近真实相似函数f(·,·):
其中K是具有标识度的轨迹对,wk为第k对轨迹的权重;
步骤4.3、在选取每一对轨迹对时,引入注意力机制选取更具有标识度的轨迹对;对于每一个待比较轨迹Ta,从相似矩阵S中选取对应的行向量Ia,由于相似矩阵自身的定义,以Ia为序列选择权重,从种子池中采样n个不同的轨迹根据相似值,为Ta维护一个相似轨迹列表Γa={T1,…,Tn};对轨迹进行采样之后,在维护的相似轨迹列表上定义相似性:
其中g(Ti,Tj)=exp(-Euclidean(Ei,Ej)),计算两个编码后的向量的相似值。
步骤5、如图4所示,对于维护后的相似轨迹列表,引入相应的注意力机制计算相似轨迹列表的损失,对于引入注意力机制的排序学习模型进行反向传播;
步骤5.1、加权采样后,引入注意力机制建立排序损失模型进行排序学习训练;在维护的相似轨迹列表上加入权重分量权重分量以指数形式递减,表明了相似性越小的轨迹序列在排序损失中占比越小;在Γa上定义损失函数:
其中f(Ti,Tj)是轨迹对(Ti,Tj)的真实标签,rl为权重分量r的第l个分量;定义整个训练轨迹种子池的总损失为:
步骤5.2、建立排序损失模型后,应用反向传播算法以及Adam优化器对模型参数进行调整。
在以上步骤中:
步骤3所述带记忆模块的增强型RNN编码器的核心是导入的记忆模块,记忆模块中的每一个存储单元(p,q,:),都存储着网格胞(p,q)编码好的轨迹向量;所有的轨迹向量在训练之前都初始化为0。
步骤3所述记忆模块采用带记忆模块的增强型RNN编码器将当前轨迹序列与先前处理过的相似轨迹序列关联:在每一个时间步长t内,循环神经网络单元接收输入分量和该单元从上层单元接收的隐藏状态ht-1,并且得到该单元的隐藏状态ht,传给下一个循环神经网络单元。
实验结论:
本实验采用的实验数据集来自于葡萄牙的波尔图出租车轨迹集。其中每一条记录为一辆出租车的一趟行程,每个15秒收集一次该出租车的经纬度坐标。该数据集包含170万条轨迹记录。如图5所示,本方法在准确率度量上表现良好且具备抗干扰性;在时间复杂度方面,该模型包含两个部分:轨迹编码和相似性计算,在一个时间步长内,循环网络单元的时间复杂度为(m+1)*d2,其中m是逻辑门的数量,d为常量;在相似性计算方面,每一对轨迹的相似性计算是一个常量,故该模型具有线性的时间复杂度;如图6所示,本方法在时间复杂度上具有明显优势,计算时间要大大低于其他方法。可以证明本方法是一种健壮且高效的轨迹相似性计算方法。
Claims (7)
1.一种基于增强型循环神经网络的轨迹相似性计算方法,其特征在于,具体包括如下步骤:
步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集,在总体数据集中随机采样N条轨迹作为种子池,并使用动态规整方法计算出一个对称的N×N距离矩阵,对该距离矩阵做正则化处理,作为模型的训练导引;
步骤2、采用增强型循环神经网络对轨迹进行网格化处理,对输入轨迹进行编码;所述增强型循环神经网络是基于网格的记忆网络;
步骤2.1、将基于网格的记忆网络的空间分割成P×Q的网格胞:RP×Q×d为记忆模块的维度;其中P和Q为设定常数,d为RNN中循环神经网络单元的数量;对于每一个轨迹输入 将其映射成一个网格序列其中和 代表第t个步长的输入分量;
步骤2.2、将任意一个输入的轨迹点序列规范化,形成模型的标准输入;
步骤3、采用带记忆模块的增强型RNN编码器,对当前轨迹序列进行编码:在步骤2的基础上引入记忆模块,记录处理过的轨迹信息,并将轨迹信息的编码输入记忆模块;记忆模块定义有:读操作,根据需求在记忆模块中读取相似信息;写操作,记录更新轨迹信息;
步骤4、建立由种子池导引的网络度量排序学习模型,通过种子池的轨迹信息学习轨迹的相似性;采用基于距离权重的采样策略,对每一条轨迹找到种子池距离矩阵对应的行向量,作为采样依据,并据此维护相似轨迹列表,进行排序学习;
步骤4.1、在轨迹的总体数据集中随机采样若干条轨迹序列作为种子池,并计算任两条采样得到的轨迹序列的距离,得到距离矩阵D,并将其正则化为相似矩阵S,在接下来的模型训练过程中,将以S作为导引:
上式中α为调节相似度的参数,Di,j为距离矩阵D中第i行,第j列的元素;相似矩阵S中的每一个元素Si,j都由该公式得到;
步骤4.2、对于任意输入的两条轨迹Ti和Tj,增强型RNN编码器能够将其编码成两个d维向量Ei和Ej,模型的训练目标是得到函数g(·,·)使其能逼近真实相似函数f(·,·):
其中K是具有标识度的轨迹对,wk为第k对轨迹的权重;
步骤4.3、在选取每一对轨迹对时,引入注意力机制选取更具有标识度的轨迹对;对于每一个待比较轨迹Ta,从相似矩阵S中选取对应的行向量Ia,由于相似矩阵自身的定义,以Ia为序列选择权重,从种子池中采样n个不同的轨迹根据相似值,为Ta维护一个相似轨迹列表Γa={T1,...,Tn};对轨迹进行采样之后,在维护的相似轨迹列表上定义相似性:
其中g(Ti,Tj)=exp(-Euclidean(Ei,Ej)),计算两个编码后的向量的相似值;
步骤5、对于维护后的相似轨迹列表,引入相应的注意力机制计算相似轨迹列表的损失,对于引入注意力机制的排序学习模型进行反向传播;
步骤6、基于车辆轨迹对引入注意力机制的排序学习模型进行实验。
2.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于:步骤3所述的记忆模块存储空间中已网格化处理过的轨迹信息,支持对轨迹的编码,支持检索已处理存储在记忆模块中的轨迹,支持实时更新记忆模块中的信息记录。
3.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于:步骤3所述带记忆模块的增强型RNN编码器的核心是导入的记忆模块,记忆模块中的每一个存储单元(p,q,:),都存储着网格胞(p,q)编码好的轨迹向量;所有的轨迹向量在训练之前都初始化为0。
5.根据权利要求4所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于:步骤3所述的带记忆模块的增强型RNN编码器使用逻辑门机制控制调整网络参数,根据训练调整的网络参数来计算每一个循环神经网络单元的状态参数,带记忆模块的增强型RNN编码器的循环调参步骤遵循以下规则:
6.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于,步骤3所述对带记忆模块的增强型RNN编码器中的记忆模块进行:
读取器首先查找网格胞中与当前轨迹步长相似的轨迹,并设定带宽w用类窗口查询方法将网格胞中的种子池转换向量存储到矩阵Gt,公式如下所示:
上式中M代表记忆模块;
写操作:在训练过程中,实时更新记忆模块M的网格胞轨迹信息;在每一个时间步长内,直接依靠空间门st更新写入:
M(Xg)new=σ(st)·ct+(1-σ(st))·M(Xg)old (9)
ht=ot·tanh(ct) (10)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911034516.7A CN110990678B (zh) | 2019-10-29 | 2019-10-29 | 基于增强型循环神经网络的轨迹相似性计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911034516.7A CN110990678B (zh) | 2019-10-29 | 2019-10-29 | 基于增强型循环神经网络的轨迹相似性计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110990678A CN110990678A (zh) | 2020-04-10 |
CN110990678B true CN110990678B (zh) | 2022-05-10 |
Family
ID=70082530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911034516.7A Active CN110990678B (zh) | 2019-10-29 | 2019-10-29 | 基于增强型循环神经网络的轨迹相似性计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110990678B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658423B (zh) * | 2020-10-23 | 2023-06-09 | 广西智有锐意科技产业有限公司 | 基于循环门控单元的车辆轨迹异常检测方法 |
CN112949628B (zh) * | 2021-02-07 | 2023-04-18 | 中国科学院计算技术研究所 | 一种基于嵌入-混合的轨迹数据增强及轨迹识别方法 |
CN113128607B (zh) * | 2021-04-25 | 2023-10-10 | 思创数码科技股份有限公司 | 一种轨迹相似度计算方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104657746A (zh) * | 2015-01-29 | 2015-05-27 | 电子科技大学 | 一种基于车辆轨迹相似性的异常检测方法 |
CN110046320A (zh) * | 2019-04-08 | 2019-07-23 | 浙江大学城市学院 | 基于插值和积分的轨迹相似性计算方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
-
2019
- 2019-10-29 CN CN201911034516.7A patent/CN110990678B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104657746A (zh) * | 2015-01-29 | 2015-05-27 | 电子科技大学 | 一种基于车辆轨迹相似性的异常检测方法 |
CN110046320A (zh) * | 2019-04-08 | 2019-07-23 | 浙江大学城市学院 | 基于插值和积分的轨迹相似性计算方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110990678A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109409499B (zh) | 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法 | |
CN110928993B (zh) | 基于深度循环神经网络的用户位置预测方法及系统 | |
CN110990678B (zh) | 基于增强型循环神经网络的轨迹相似性计算方法 | |
CN112163426B (zh) | 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法 | |
CN113190699B (zh) | 一种基于类别级语义哈希的遥感图像检索方法及装置 | |
CN113610173B (zh) | 一种基于知识蒸馏的多跨域少样本分类方法 | |
CN110309343B (zh) | 一种基于深度哈希的声纹检索方法 | |
CN111506835B (zh) | 一种融合用户时间特征和个性特征的数据特征提取方法 | |
CN109697289A (zh) | 一种改进的用于命名实体识别的主动学习方法 | |
CN111414461A (zh) | 一种融合知识库与用户建模的智能问答方法及系统 | |
CN111400494B (zh) | 一种基于GCN-Attention的情感分析方法 | |
CN112487820A (zh) | 一种中文医疗命名实体识别方法 | |
Zhou et al. | Object tracking via spatial-temporal memory network | |
CN111461455B (zh) | 一种基于关联周期注意力机制的行为预测方法 | |
CN110189362B (zh) | 基于多分支自编码对抗网络的高效目标跟踪方法 | |
CN111950393A (zh) | 一种基于边界搜索智能体的时序动作片段分割方法 | |
CN111079547A (zh) | 一种基于手机惯性传感器的行人移动方向识别方法 | |
CN113822368A (zh) | 一种基于无锚的增量式目标检测方法 | |
CN116229519A (zh) | 一种基于知识蒸馏的二维人体姿态估计方法 | |
Xie et al. | Cost-sensitive active learning for dialogue state tracking | |
Sun et al. | Trajectory-user link with attention recurrent networks | |
CN112766339A (zh) | 一种轨迹识别模型训练方法及轨迹识别方法 | |
Seo et al. | A graph embedding technique for weighted graphs based on LSTM autoencoders | |
CN112766368A (zh) | 一种数据分类方法、设备和可读存储介质 | |
CN113688204B (zh) | 一种利用相似场景及混合注意力的多人会话情感预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |