CN110990678B - 基于增强型循环神经网络的轨迹相似性计算方法 - Google Patents

基于增强型循环神经网络的轨迹相似性计算方法 Download PDF

Info

Publication number
CN110990678B
CN110990678B CN201911034516.7A CN201911034516A CN110990678B CN 110990678 B CN110990678 B CN 110990678B CN 201911034516 A CN201911034516 A CN 201911034516A CN 110990678 B CN110990678 B CN 110990678B
Authority
CN
China
Prior art keywords
track
memory module
enhanced
neural network
recurrent neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911034516.7A
Other languages
English (en)
Other versions
CN110990678A (zh
Inventor
陈垣毅
陈文望
郑增威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University City College ZUCC
Original Assignee
Zhejiang University City College ZUCC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University City College ZUCC filed Critical Zhejiang University City College ZUCC
Priority to CN201911034516.7A priority Critical patent/CN110990678B/zh
Publication of CN110990678A publication Critical patent/CN110990678A/zh
Application granted granted Critical
Publication of CN110990678B publication Critical patent/CN110990678B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于增强型循环神经网络的轨迹相似性计算方法,包括:步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集;步骤2、采用增强型循环神经网络对轨迹进行网格化处理;步骤3、采用带记忆模块的增强型RNN编码器对当前轨迹序列进行编码;步骤4、建立由种子池导引的网络度量排序学习模型学习轨迹的相似性;步骤5、引入相应的注意力机制计算相似轨迹列表的损失,进行反向传播;步骤6、基于车辆轨迹对引入注意力机制的排序学习模型进行实验。本发明的有益效果是:抛弃了传统的点匹配算法,采用深度学习方法,在传统的RNN模型基础上引入了记忆模块,并使用了注意力机制用以维护相似序列列表,开拓了一个新思路。

Description

基于增强型循环神经网络的轨迹相似性计算方法
技术领域
本发明涉及一种轨迹相似性计算方法。主要是一种引入了记忆模块的循环神经网络(RNN)作为模型编码器,对轨迹序列进行编码,并维护相似轨迹序列表的新思路,将其应用于轨迹相似性计算的方法。
背景技术
轨迹相似性计算由于其广泛的应用前景而得到了广泛的研究,迄今为止已经取得了许多研究成果,在车辆路线搜索,旅游路线查询,动物的迁徙路线定位甚至于股票走势等诸多领域有相当的应用前景。由于物联网的发展,全球定位系统嵌入式设备也随之大范围地应用,使得轨迹数据越发的易于收集,极大促进了轨迹相似性研究的发展。然而,由于大规模数据的采集,加之原有轨迹相似性计算方法的二次时间复杂度,在计算时间上是不可忍受的。
传统的轨迹相似性计算方法大部分基于点匹配的思路,可解释性强且易于操作,但在许多应用场景中准确率不高,且面对噪声,抵抗性较弱,且由于是动态计算轨迹相似度,导致了算法时间复杂度高。
因此,提出一种基于增强型循环神经网络的轨迹相似性计算方法,就显得尤为重要。
发明内容
本发明的目的在于克服传统的点匹配算法的低准确率和计算轨迹相似性的高时间消耗,提出了基于增强型循环神经网络的轨迹相似性计算方法,对轨迹序列进行编码,并定义相似矩阵,在相似矩阵的基础上,加入注意力机制用以维护相似轨迹序列列表,以注意力损失反向传播,训练深度网络,可以达到线性的时间复杂度。
这种基于增强型循环神经网络的轨迹相似性计算方法,具体包括如下步骤:
步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集,在总体数据集中随机采样N条轨迹作为种子池,并使用动态规整方法计算出一个对称的N×N距离矩阵,对该距离矩阵做正则化处理,作为模型的训练导引;
步骤2、采用增强型循环神经网络对轨迹进行网格化处理,对输入轨迹进行编码;所述增强型循环神经网络是基于网格的记忆网络;
步骤2.1、将基于网格的记忆网络的空间分割成P×Q的网格胞:RP×Q×d为记忆模块的维度;其中P和Q为设定常数,d为RNN中循环神经网络单元的数量;对于每一个轨迹输入
Figure BDA0002251082790000021
将其映射成一个网格序列
Figure BDA0002251082790000022
其中
Figure BDA0002251082790000023
Figure BDA0002251082790000024
Figure BDA0002251082790000025
代表第t个步长的输入分量;
步骤2.2、将任意一个输入的轨迹点序列规范化,形成模型的标准输入;
步骤3、采用带记忆模块的增强型RNN编码器,对当前轨迹序列进行编码:在步骤2的基础上引入记忆模块,记录处理过的轨迹信息,并将轨迹信息的编码输入记忆模块;记忆模块定义有:读操作,根据需求在记忆模块中读取相似信息;写操作,记录更新轨迹信息;
步骤4、建立由种子池导引的网络度量排序学习模型,通过种子池的轨迹信息学习轨迹的相似性;采用基于距离权重的采样策略,对每一条轨迹找到种子池距离矩阵对应的行向量,作为采样依据,并据此维护相似轨迹列表,进行排序学习;
步骤5、对于维护后的相似轨迹列表,引入相应的注意力机制计算相似轨迹列表的损失,对于引入注意力机制的排序学习模型进行反向传播;
步骤6、基于车辆轨迹对引入注意力机制的排序学习模型进行实验。
作为优选,步骤3所述的记忆模块存储空间中已网格化处理过的轨迹信息,支持对轨迹的编码,支持检索已处理存储在记忆模块中的轨迹,支持实时更新记忆模块中的信息记录。
作为优选,步骤3所述带记忆模块的增强型RNN编码器的核心是导入的记忆模块,记忆模块中的每一个存储单元(p,q,:),都存储着网格胞(p,q)编码好的轨迹向量;所有的轨迹向量在训练之前都初始化为0。
作为优选,步骤3所述记忆模块采用带记忆模块的增强型RNN编码器将当前轨迹序列与先前处理过的相似轨迹序列关联:在每一个时间步长t内,循环神经网络单元接收输入分量
Figure BDA0002251082790000026
和该单元从上层单元接收的隐藏状态ht-1,并且得到该单元的隐藏状态ht,传给下一个循环神经网络单元。
作为优选,步骤3所述的带记忆模块的增强型RNN编码器使用逻辑门机制控制调整网络参数,根据训练调整的网络参数来计算每一个循环神经网络单元的状态参数,带记忆模块的增强型RNN编码器的循环调参步骤遵循以下规则:
Figure BDA0002251082790000027
Figure BDA0002251082790000028
Figure BDA0002251082790000029
上式中,ft为遗忘门,it为输入门,st为空间门,ot为输出门,bc为偏置参数,Wg∈R4d ×2,Ug∈R4d×d,Wc∈Rd×2,Uc∈Rd×d,其中d为隐藏状态的数量,R4d×2、R4d×d、Rd×2和Rd×d都为二维实数空间,Wg、Ug、Wc和Uc均为权重参数;循环神经网络单元应用sigmoid函数对输入的轨迹坐标和已处理循环神经网络单元的隐藏状态ht-1进行转换,获得隐藏状态ht,并获得4个门状态的更新值,通过4个门状态,计算得到该循环神经网络单元的暂存状态
Figure BDA0002251082790000031
Figure BDA0002251082790000032
作为优选,步骤3所述对带记忆模块的增强型RNN编码器中的记忆模块进行:
读操作:检索记忆模块中已记录的轨迹信息:在每一个时间步长t内,读取网格胞输入
Figure BDA0002251082790000033
和增强型RNN网络单元暂存状态
Figure BDA0002251082790000034
作为两个输入;输出向量
Figure BDA0002251082790000035
用来查找已处理的轨迹中与当前轨迹相似的轨迹信息;
读取器首先查找网格胞中与当前轨迹步长相似的轨迹,并设定带宽w用类窗口查询方法将网格胞中的种子池转换向量存储到矩阵Gt,公式如下所示:
Figure BDA0002251082790000036
Figure BDA0002251082790000037
Figure BDA0002251082790000038
Figure BDA0002251082790000039
上式中mix为
Figure BDA00022510827900000310
的权重和,
Figure BDA00022510827900000311
为全连接层转化矩阵,Whis和bhis分别为对应的权重参数和偏置参数;定义了读取操作后,计算出当前增强型RNN网络单元的最后状态:
Figure BDA00022510827900000312
上式中M代表记忆模块;
写操作:在训练过程中,实时更新记忆模块M的网格胞轨迹信息;在每一个时间步长内,直接依靠空间门st更新写入:
M(Xg)new=σ(st)·ct+(1-σ(st))·M(Xg)old (9)
上式中M(Xg)new为存储输入Xg的新状态;M(Xg)old为存储输入Xg的旧状态,而σ(st)代表对空间门进行sigmoid转化;在写入操作
Figure BDA00022510827900000313
完成后,计算该网络单元的隐藏状态ht
ht=ot·tanh(ct) (10)。
作为优选,步骤4具体包括如下步骤:
步骤4.1、在轨迹的总体数据集中随机采样若干条轨迹序列作为种子池,并计算任两条采样得到的轨迹序列的距离,得到距离矩阵D,并将其正则化为相似矩阵S,在接下来的模型训练过程中,将以S作为导引:
Figure BDA0002251082790000041
上式中α为调节相似度的参数,Di,j为距离矩阵D中第i行,第j列的元素;相似矩阵S中的每一个元素Si,j都由该公式得到;
步骤4.2、对于任意输入的两条轨迹Ti和Tj,增强型RNN编码器能够将其编码成两个d维向量Ei和Ej,模型的训练目标是得到函数g(·,·)使其能逼近真实相似函数f(·,·):
Figure BDA0002251082790000042
其中K是具有标识度的轨迹对,wk为第k对轨迹的权重;
步骤4.3、在选取每一对轨迹对时,引入注意力机制选取更具有标识度的轨迹对;对于每一个待比较轨迹Ta,从相似矩阵S中选取对应的行向量Ia,由于相似矩阵自身的定义,以Ia为序列选择权重,从种子池中采样n个不同的轨迹根据相似值,为Ta维护一个相似轨迹列表Γa={T1,…,Tn};对轨迹进行采样之后,在维护的相似轨迹列表上定义相似性:
Figure BDA0002251082790000043
其中g(Ti,Tj)=exp(-Euclidean(Ei,Ej)),计算两个编码后的向量的相似值。
作为优选,步骤5具体包括如下步骤:
步骤5.1、加权采样后,引入注意力机制建立排序损失模型进行排序学习训练;在维护的相似轨迹列表上加入权重分量
Figure BDA0002251082790000044
权重分量以指数形式递减,表明了相似性越小的轨迹序列在排序损失中占比越小;在Γa上定义损失函数:
Figure BDA0002251082790000045
其中f(Ti,Tj)是轨迹对(Ti,Tj)的真实标签,rl为权重分量r的第l个分量;定义整个训练轨迹种子池的总损失为:
Figure BDA0002251082790000046
步骤5.2、建立排序损失模型后,应用反向传播算法以及Adam优化器对模型参数进行调整。
本发明的有益效果是:本发明抛弃了传统的点匹配算法,采用深度学习方法,在传统的RNN模型基础上引入了记忆模块,并使用了注意力机制用以维护相似序列列表,开拓了一个新思路。本发明能实现线性时间复杂度的轨迹相似性查询,从而大幅度降低相似性计算时间,提高对噪声和不均匀采样率的鲁棒性。
附图说明
图1为本发明的总体框架流程图;
图2为本发明的轨迹编码算法流程图;
图3为本发明的记忆模块读写方法流程图;
图4为引入注意力机制的排序学习模型流程图;
图5为本发明方法与其他方法的准确率实验对比图;
图6为本发明方法与其他方法的运行时间对比图;
具体实施方式
下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
基于增强型循环神经网络的轨迹相似性计算方法,如图1所示,具体包括如下步骤:
步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集,在总体数据集中随机采样N条轨迹作为种子池,并使用动态规整方法计算出一个对称的N×N距离矩阵,对该距离矩阵做正则化处理,作为模型的训练导引;
步骤2、如图2所示,采用增强型循环神经网络对轨迹进行网格化处理,对输入轨迹进行编码;所述增强型循环神经网络是基于网格的记忆网络;
步骤2.1、将基于网格的记忆网络的空间分割成P×Q的网格胞:RP×Q×d为记忆模块的维度;其中P和Q为设定常数,d为RNN中循环神经网络单元的数量;对于每一个轨迹输入
Figure BDA0002251082790000051
将其映射成一个网格序列
Figure BDA0002251082790000052
其中
Figure BDA0002251082790000053
Figure BDA0002251082790000054
Figure BDA0002251082790000055
代表第t个步长的输入分量;
步骤2.2、将任意一个输入的轨迹点序列规范化,形成模型的标准输入;
步骤3、采用带记忆模块的增强型RNN编码器,对当前轨迹序列进行编码:在步骤2的基础上引入记忆模块,记录处理过的轨迹信息,并将轨迹信息的编码输入记忆模块;记忆模块定义有:读操作,根据需求在记忆模块中读取相似信息;写操作,记录更新轨迹信息;
带记忆模块的增强型RNN编码器使用逻辑门机制控制调整网络参数,根据训练调整的网络参数来计算每一个循环神经网络单元的状态参数,带记忆模块的增强型RNN编码器的循环调参步骤遵循以下规则:
Figure BDA0002251082790000061
Figure BDA0002251082790000062
Figure BDA0002251082790000063
上式中,ft为遗忘门,it为输入门,st为空间门,ot为输出门,bc为偏置参数,Wg∈R4d ×2,Ug∈R4d×d,Wc∈Rd×2,Uc∈Rd×d,其中d为隐藏状态的数量,R4d×2、R4d×d、Rd×2和Rd×d都为二维实数空间,Wg、Ug、Wc和Uc均为权重参数;循环神经网络单元应用sigmoid函数对输入的轨迹坐标和已处理循环神经网络单元的隐藏状态ht-1进行转换,获得隐藏状态ht,并获得4个门状态的更新值,通过4个门状态,计算得到该循环神经网络单元的暂存状态
Figure BDA0002251082790000064
Figure BDA0002251082790000065
对带记忆模块的增强型RNN编码器中的记忆模块进行:
读操作:检索记忆模块中已记录的轨迹信息:在每一个时间步长t内,读取网格胞输入
Figure BDA0002251082790000066
和增强型RNN网络单元暂存状态
Figure BDA0002251082790000067
作为两个输入;输出向量
Figure BDA0002251082790000068
用来查找已处理的轨迹中与当前轨迹相似的轨迹信息;
读取器首先查找网格胞中与当前轨迹步长相似的轨迹,并设定带宽w用类窗口查询方法将网格胞中的种子池转换向量存储到矩阵Gt,公式如下所示:
Figure BDA0002251082790000069
Figure BDA00022510827900000610
Figure BDA00022510827900000611
Figure BDA00022510827900000612
上式中mix为
Figure BDA00022510827900000613
的权重和,
Figure BDA00022510827900000614
为全连接层转化矩阵,Whis和bhis分别为对应的权重参数和偏置参数;定义了读取操作后,计算出当前增强型RNN网络单元的最后状态:
Figure BDA00022510827900000615
上式中M代表记忆模块;
写操作:在训练过程中,实时更新记忆模块M的网格胞轨迹信息;在每一个时间步长内,直接依靠空间门st更新写入:
M(Xg)new=σ(st)·ct+(1-σ(st))·M(Xg)old (9)
上式中M(Xg)new为存储输入Xg的新状态;M(Xg)old为存储输入Xg的旧状态,而σ(st)代表对空间门进行sigmoid转化;在写入操作
Figure BDA0002251082790000071
完成后,计算该网络单元的隐藏状态ht
ht=ot·tanh(ct) (10)。
步骤4、如图4所示,建立由种子池导引的网络度量排序学习模型,通过种子池的轨迹信息学习轨迹的相似性;采用基于距离权重的采样策略,对每一条轨迹找到种子池距离矩阵对应的行向量,作为采样依据,并据此维护相似轨迹列表,进行排序学习;
步骤4.1、在轨迹的总体数据集中随机采样若干条轨迹序列作为种子池,并计算任两条采样得到的轨迹序列的距离,得到距离矩阵D,并将其正则化为相似矩阵S,在接下来的模型训练过程中,将以S作为导引:
Figure BDA0002251082790000072
上式中a为调节相似度的参数,Di,j为距离矩阵D中第i行,第j列的元素;相似矩阵S中的每一个元素Si,j都由该公式得到;
步骤4.2、对于任意输入的两条轨迹Ti和Tj,增强型RNN编码器能够将其编码成两个d维向量Ei和Ej,模型的训练目标是得到函数g(·,·)使其能逼近真实相似函数f(·,·):
Figure BDA0002251082790000073
其中K是具有标识度的轨迹对,wk为第k对轨迹的权重;
步骤4.3、在选取每一对轨迹对时,引入注意力机制选取更具有标识度的轨迹对;对于每一个待比较轨迹Ta,从相似矩阵S中选取对应的行向量Ia,由于相似矩阵自身的定义,以Ia为序列选择权重,从种子池中采样n个不同的轨迹根据相似值,为Ta维护一个相似轨迹列表Γa={T1,…,Tn};对轨迹进行采样之后,在维护的相似轨迹列表上定义相似性:
Figure BDA0002251082790000074
其中g(Ti,Tj)=exp(-Euclidean(Ei,Ej)),计算两个编码后的向量的相似值。
步骤5、如图4所示,对于维护后的相似轨迹列表,引入相应的注意力机制计算相似轨迹列表的损失,对于引入注意力机制的排序学习模型进行反向传播;
步骤5.1、加权采样后,引入注意力机制建立排序损失模型进行排序学习训练;在维护的相似轨迹列表上加入权重分量
Figure BDA0002251082790000081
权重分量以指数形式递减,表明了相似性越小的轨迹序列在排序损失中占比越小;在Γa上定义损失函数:
Figure BDA0002251082790000082
其中f(Ti,Tj)是轨迹对(Ti,Tj)的真实标签,rl为权重分量r的第l个分量;定义整个训练轨迹种子池的总损失为:
Figure BDA0002251082790000083
步骤5.2、建立排序损失模型后,应用反向传播算法以及Adam优化器对模型参数进行调整。
在以上步骤中:
步骤3所述带记忆模块的增强型RNN编码器的核心是导入的记忆模块,记忆模块中的每一个存储单元(p,q,:),都存储着网格胞(p,q)编码好的轨迹向量;所有的轨迹向量在训练之前都初始化为0。
步骤3所述记忆模块采用带记忆模块的增强型RNN编码器将当前轨迹序列与先前处理过的相似轨迹序列关联:在每一个时间步长t内,循环神经网络单元接收输入分量
Figure BDA0002251082790000084
和该单元从上层单元接收的隐藏状态ht-1,并且得到该单元的隐藏状态ht,传给下一个循环神经网络单元。
实验结论:
本实验采用的实验数据集来自于葡萄牙的波尔图出租车轨迹集。其中每一条记录为一辆出租车的一趟行程,每个15秒收集一次该出租车的经纬度坐标。该数据集包含170万条轨迹记录。如图5所示,本方法在准确率度量上表现良好且具备抗干扰性;在时间复杂度方面,该模型包含两个部分:轨迹编码和相似性计算,在一个时间步长内,循环网络单元的时间复杂度为(m+1)*d2,其中m是逻辑门的数量,d为常量;在相似性计算方面,每一对轨迹的相似性计算是一个常量,故该模型具有线性的时间复杂度;如图6所示,本方法在时间复杂度上具有明显优势,计算时间要大大低于其他方法。可以证明本方法是一种健壮且高效的轨迹相似性计算方法。

Claims (7)

1.一种基于增强型循环神经网络的轨迹相似性计算方法,其特征在于,具体包括如下步骤:
步骤1、将由经纬度点序列集成的车辆轨迹数据集作为总体数据集,在总体数据集中随机采样N条轨迹作为种子池,并使用动态规整方法计算出一个对称的N×N距离矩阵,对该距离矩阵做正则化处理,作为模型的训练导引;
步骤2、采用增强型循环神经网络对轨迹进行网格化处理,对输入轨迹进行编码;所述增强型循环神经网络是基于网格的记忆网络;
步骤2.1、将基于网格的记忆网络的空间分割成P×Q的网格胞:RP×Q×d为记忆模块的维度;其中P和Q为设定常数,d为RNN中循环神经网络单元的数量;对于每一个轨迹输入
Figure FDA0003568425690000011
Figure FDA0003568425690000012
将其映射成一个网格序列
Figure FDA0003568425690000013
其中
Figure FDA0003568425690000014
Figure FDA0003568425690000015
Figure FDA0003568425690000016
代表第t个步长的输入分量;
步骤2.2、将任意一个输入的轨迹点序列规范化,形成模型的标准输入;
步骤3、采用带记忆模块的增强型RNN编码器,对当前轨迹序列进行编码:在步骤2的基础上引入记忆模块,记录处理过的轨迹信息,并将轨迹信息的编码输入记忆模块;记忆模块定义有:读操作,根据需求在记忆模块中读取相似信息;写操作,记录更新轨迹信息;
步骤4、建立由种子池导引的网络度量排序学习模型,通过种子池的轨迹信息学习轨迹的相似性;采用基于距离权重的采样策略,对每一条轨迹找到种子池距离矩阵对应的行向量,作为采样依据,并据此维护相似轨迹列表,进行排序学习;
步骤4.1、在轨迹的总体数据集中随机采样若干条轨迹序列作为种子池,并计算任两条采样得到的轨迹序列的距离,得到距离矩阵D,并将其正则化为相似矩阵S,在接下来的模型训练过程中,将以S作为导引:
Figure FDA0003568425690000017
上式中α为调节相似度的参数,Di,j为距离矩阵D中第i行,第j列的元素;相似矩阵S中的每一个元素Si,j都由该公式得到;
步骤4.2、对于任意输入的两条轨迹Ti和Tj,增强型RNN编码器能够将其编码成两个d维向量Ei和Ej,模型的训练目标是得到函数g(·,·)使其能逼近真实相似函数f(·,·):
Figure FDA0003568425690000021
其中K是具有标识度的轨迹对,wk为第k对轨迹的权重;
步骤4.3、在选取每一对轨迹对时,引入注意力机制选取更具有标识度的轨迹对;对于每一个待比较轨迹Ta,从相似矩阵S中选取对应的行向量Ia,由于相似矩阵自身的定义,以Ia为序列选择权重,从种子池中采样n个不同的轨迹根据相似值,为Ta维护一个相似轨迹列表Γa={T1,...,Tn};对轨迹进行采样之后,在维护的相似轨迹列表上定义相似性:
Figure FDA0003568425690000022
其中g(Ti,Tj)=exp(-Euclidean(Ei,Ej)),计算两个编码后的向量的相似值;
步骤5、对于维护后的相似轨迹列表,引入相应的注意力机制计算相似轨迹列表的损失,对于引入注意力机制的排序学习模型进行反向传播;
步骤6、基于车辆轨迹对引入注意力机制的排序学习模型进行实验。
2.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于:步骤3所述的记忆模块存储空间中已网格化处理过的轨迹信息,支持对轨迹的编码,支持检索已处理存储在记忆模块中的轨迹,支持实时更新记忆模块中的信息记录。
3.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于:步骤3所述带记忆模块的增强型RNN编码器的核心是导入的记忆模块,记忆模块中的每一个存储单元(p,q,:),都存储着网格胞(p,q)编码好的轨迹向量;所有的轨迹向量在训练之前都初始化为0。
4.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于:步骤3所述记忆模块采用带记忆模块的增强型RNN编码器将当前轨迹序列与先前处理过的相似轨迹序列关联:在每一个时间步长t内,循环神经网络单元接收输入分量
Figure FDA0003568425690000023
和该单元从上层单元接收的隐藏状态ht-1,并且得到该单元的隐藏状态ht,传给下一个循环神经网络单元。
5.根据权利要求4所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于:步骤3所述的带记忆模块的增强型RNN编码器使用逻辑门机制控制调整网络参数,根据训练调整的网络参数来计算每一个循环神经网络单元的状态参数,带记忆模块的增强型RNN编码器的循环调参步骤遵循以下规则:
Figure FDA0003568425690000024
Figure FDA0003568425690000031
Figure FDA0003568425690000032
上式中,ft为遗忘门,it为输入门,st为空间门,ot为输出门,bc为偏置参数,Wg∈R4d×2,Ug∈R4d×d,Wc∈Rd×2,Uc∈Rd×d,其中d为隐藏状态的数量,R4d×2、R4d×2、Rd×2和Rd×d都为二维实数空间,Wg、Ug、Wc和Uc均为权重参数;循环神经网络单元应用sigmoid函数对输入的轨迹坐标和已处理循环神经网络单元的隐藏状态ht-1进行转换,获得隐藏状态ht,并获得4个门状态的更新值,通过4个门状态,计算得到该循环神经网络单元的暂存状态
Figure FDA0003568425690000033
Figure FDA0003568425690000034
6.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于,步骤3所述对带记忆模块的增强型RNN编码器中的记忆模块进行:
读操作:检索记忆模块中已记录的轨迹信息:在每一个时间步长t内,读取网格胞输入
Figure FDA0003568425690000035
和增强型RNN网络单元暂存状态
Figure FDA0003568425690000036
作为两个输入;输出向量
Figure FDA0003568425690000037
Figure FDA0003568425690000038
用来查找已处理的轨迹中与当前轨迹相似的轨迹信息;
读取器首先查找网格胞中与当前轨迹步长相似的轨迹,并设定带宽w用类窗口查询方法将网格胞中的种子池转换向量存储到矩阵Gt,公式如下所示:
Figure FDA0003568425690000039
Figure FDA00035684256900000310
Figure FDA00035684256900000311
Figure FDA00035684256900000312
上式中mix为
Figure FDA00035684256900000313
的权重和,
Figure FDA00035684256900000314
为全连接层转化矩阵,Whis和bhis分别为对应的权重参数和偏置参数;定义了读取操作后,计算出当前增强型RNN网络单元的最后状态:
Figure FDA00035684256900000315
上式中M代表记忆模块;
写操作:在训练过程中,实时更新记忆模块M的网格胞轨迹信息;在每一个时间步长内,直接依靠空间门st更新写入:
M(Xg)new=σ(st)·ct+(1-σ(st))·M(Xg)old (9)
上式中M(Xg)new为存储输入Xg的新状态;M(Xg)old为存储输入Xg的旧状态,而σ(st)代表对空间门进行sigmoid转化;在写入操作
Figure FDA0003568425690000041
完成后,计算该网络单元的隐藏状态ht
ht=ot·tanh(ct) (10)。
7.根据权利要求1所述的基于增强型循环神经网络的轨迹相似性计算方法,其特征在于,步骤5具体包括如下步骤:
步骤5.1、加权采样后,引入注意力机制建立排序损失模型进行排序学习训练;在维护的相似轨迹列表上加入权重分量
Figure FDA0003568425690000042
权重分量以指数形式递减,表明了相似性越小的轨迹序列在排序损失中占比越小;在Γa上定义损失函数:
Figure FDA0003568425690000043
其中f(Ti,Tj)是轨迹对(Ti,Tj)的真实标签,rl为权重分量r的第l个分量;定义整个训练轨迹种子池的总损失为:
Figure FDA0003568425690000044
步骤5.2、建立排序损失模型后,应用反向传播算法以及Adam优化器对模型参数进行调整。
CN201911034516.7A 2019-10-29 2019-10-29 基于增强型循环神经网络的轨迹相似性计算方法 Active CN110990678B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911034516.7A CN110990678B (zh) 2019-10-29 2019-10-29 基于增强型循环神经网络的轨迹相似性计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911034516.7A CN110990678B (zh) 2019-10-29 2019-10-29 基于增强型循环神经网络的轨迹相似性计算方法

Publications (2)

Publication Number Publication Date
CN110990678A CN110990678A (zh) 2020-04-10
CN110990678B true CN110990678B (zh) 2022-05-10

Family

ID=70082530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911034516.7A Active CN110990678B (zh) 2019-10-29 2019-10-29 基于增强型循环神经网络的轨迹相似性计算方法

Country Status (1)

Country Link
CN (1) CN110990678B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658423B (zh) * 2020-10-23 2023-06-09 广西智有锐意科技产业有限公司 基于循环门控单元的车辆轨迹异常检测方法
CN112949628B (zh) * 2021-02-07 2023-04-18 中国科学院计算技术研究所 一种基于嵌入-混合的轨迹数据增强及轨迹识别方法
CN113128607B (zh) * 2021-04-25 2023-10-10 思创数码科技股份有限公司 一种轨迹相似度计算方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657746A (zh) * 2015-01-29 2015-05-27 电子科技大学 一种基于车辆轨迹相似性的异常检测方法
CN110046320A (zh) * 2019-04-08 2019-07-23 浙江大学城市学院 基于插值和积分的轨迹相似性计算方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657746A (zh) * 2015-01-29 2015-05-27 电子科技大学 一种基于车辆轨迹相似性的异常检测方法
CN110046320A (zh) * 2019-04-08 2019-07-23 浙江大学城市学院 基于插值和积分的轨迹相似性计算方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法

Also Published As

Publication number Publication date
CN110990678A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN109409499B (zh) 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法
CN110928993B (zh) 基于深度循环神经网络的用户位置预测方法及系统
CN110990678B (zh) 基于增强型循环神经网络的轨迹相似性计算方法
CN112163426B (zh) 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法
CN113190699B (zh) 一种基于类别级语义哈希的遥感图像检索方法及装置
CN113610173B (zh) 一种基于知识蒸馏的多跨域少样本分类方法
CN110309343B (zh) 一种基于深度哈希的声纹检索方法
CN111506835B (zh) 一种融合用户时间特征和个性特征的数据特征提取方法
CN109697289A (zh) 一种改进的用于命名实体识别的主动学习方法
CN111414461A (zh) 一种融合知识库与用户建模的智能问答方法及系统
CN111400494B (zh) 一种基于GCN-Attention的情感分析方法
CN112487820A (zh) 一种中文医疗命名实体识别方法
Zhou et al. Object tracking via spatial-temporal memory network
CN111461455B (zh) 一种基于关联周期注意力机制的行为预测方法
CN110189362B (zh) 基于多分支自编码对抗网络的高效目标跟踪方法
CN111950393A (zh) 一种基于边界搜索智能体的时序动作片段分割方法
CN111079547A (zh) 一种基于手机惯性传感器的行人移动方向识别方法
CN113822368A (zh) 一种基于无锚的增量式目标检测方法
CN116229519A (zh) 一种基于知识蒸馏的二维人体姿态估计方法
Xie et al. Cost-sensitive active learning for dialogue state tracking
Sun et al. Trajectory-user link with attention recurrent networks
CN112766339A (zh) 一种轨迹识别模型训练方法及轨迹识别方法
Seo et al. A graph embedding technique for weighted graphs based on LSTM autoencoders
CN112766368A (zh) 一种数据分类方法、设备和可读存储介质
CN113688204B (zh) 一种利用相似场景及混合注意力的多人会话情感预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant