CN117034025A - 一种基于多通道特征学习的轨迹相似性度量方法 - Google Patents
一种基于多通道特征学习的轨迹相似性度量方法 Download PDFInfo
- Publication number
- CN117034025A CN117034025A CN202310856060.2A CN202310856060A CN117034025A CN 117034025 A CN117034025 A CN 117034025A CN 202310856060 A CN202310856060 A CN 202310856060A CN 117034025 A CN117034025 A CN 117034025A
- Authority
- CN
- China
- Prior art keywords
- track
- grid
- layer
- feature
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 55
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 10
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 230000007246 mechanism Effects 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000002708 enhancing effect Effects 0.000 claims abstract description 4
- 230000001131 transforming effect Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 92
- 230000006870 function Effects 0.000 claims description 53
- 238000011176 pooling Methods 0.000 claims description 43
- 230000004913 activation Effects 0.000 claims description 39
- 238000010606 normalization Methods 0.000 claims description 36
- 238000010586 diagram Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 9
- 230000014509 gene expression Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 210000002569 neuron Anatomy 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 4
- 238000011524 similarity measure Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 13
- 238000000605 extraction Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 description 5
- 125000004122 cyclic group Chemical group 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012733 comparative method Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2123/00—Data types
- G06F2123/02—Data types in the time domain, e.g. time-series data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了一种基于多通道特征学习的轨迹相似性度量方法,对轨迹数据预处理、坐标变换和数据增强,得到轨迹正负样本对,提取轨迹点数目特征、轨迹段长度和时间特征、轨迹方向夹角特征,对特征拼接获得多通道特征图,用包含注意力机制的多通道卷积神经网络对轨迹的多通道特征图进行深度学习,最后输出轨迹的相似性得分。本发明针对轨迹特征表示不充分、特征提取困难、注重时序信息而忽略轨迹形状问题,能够有效地提取轨迹数据多通道特征、时序信息和捕捉轨迹形状,提高了轨迹相似性度量的准确性,为轨迹相似性度量提供了一种新的方法和途径。
Description
技术领域
本发明属于车联网技术领域,确切来讲,涉及一种基于多通道特征学习的轨迹相似性度量方法。
背景技术
在车联网迅速发展的背景下,轨迹相似性度量备受关注。轨迹相似性度量,是判别车辆用户行为的有效依据。如果不同用户间的轨迹相似性很高,说明用户间存在相似行为。轨迹相似性度量可以为轨迹聚类、交通分析、车辆轨迹行为检测、恶意用户识别、轨迹隐私保护等提供实际价值和理论意义。
在轨迹相似性度量方法中,研究技术主要分为两种,一种是传统方法,特点是分析轨迹之间存在的数据关系、逻辑关系、时空特性、语义特征以及轨迹的速度、加速度、曲率等信息,设定相似性度量指标,主要方法有Hausdorff距离、LCSS(最长公共子序列)、DTW(动态时间归整)、EDR(编辑距离)和Frechet距离。另一种方法是基于深度学习的轨迹相似性度量方法,主要包括对比学习、卷积神经网络、循环神经网络以及循环神经网络的变体等。
目前已有相关学者基于深度学习对轨迹相似性度量进行了探讨,Liu等人[XiangL.,Tan X.,Guo Y.,et al.CSTRM:Contrastive Self-Supervised TrajectoryRepresentation Model for Trajectory Similarity Computation[J].ComputerCommunications,2022,185:159-167]提出了一种对比性自我监督轨迹表示模型,利用轨迹的点级特征和轨迹级特征,用循环神经网络(RNN)的变体GRU(循环门控单元)对轨迹特征进行向量表示,计算轨迹之间的相似性,该方法类似于RNN的思想,注重提取时序信息,但很难捕捉到轨迹的全局特征,且忽略了轨迹的形状特征。
Cao等人[Cao H.,Tang H.,Wu Y.,et al.On Accurate Computation ofTrajectory Similarity via Single Image Super Resolution[C].InternationalJoint Conference on Neural Networks,2021.]引入了计算机视觉技术,通过将轨迹转换为图像(TrajSR)进行嵌入来捕获轨迹的空间模式。但该方法转化之后的图像是灰度图像,其中的像素点值只包含轨迹点的个数,对轨迹的其他特征未能得到充分表达,且使用单精度的灰度图像,损失了轨迹的原有特征。
现有的相关方法虽然能在一定程度上度量轨迹间的相似性,但存在一些欠妥之处:第一,传统方法大多是计算轨迹点间的距离作为轨迹相似性,缺乏对轨迹的多维数据特征提取,其度量过程繁琐,内存开销大,时间复杂度高;第二,深度学习方法中,RNN、GRU、LSTM是对离散轨迹点的特征学习,得到轨迹的特征表示,依赖轨迹位置和时序信息,缺乏对轨迹形状的全面描述与有效提取;第三,深度学习方法中将轨迹转化为单通道的灰度图像,利用轨迹点的经纬度信息作为图像的通道,轨迹特征表示单一,轨迹多维信息损失较大,未完全考虑轨迹点之间的关联性。因此,在对轨迹的相似性度量中,不仅要考虑轨迹的时序信息,还要考虑轨迹形状特征,以及多通道特征之间的注意力关系,以有效地对轨迹相似性进行度量。
发明内容
本发明目的在于克服现有技术的不足,针对现有轨迹相似性度量方法的复杂性、特征提取的不充分性、注重时序信息而忽略轨迹形状问题,提供一种基于多通道特征学习的轨迹相似性度量方法,在面对海量、高维轨迹数据的同时,能有效提取多维轨迹特征,更精确捕捉轨迹形状之间的相似性,实现具有更好准确率的轨迹相似性度量。
为了实现上述发明目的,本发明提供一种基于多通道特征学习的轨迹相似性度量方法,具体步骤如下:
S1:获取轨迹数据集,对数据预处理、坐标变换和数据增强,得到轨迹正负样本对;
S2:提取每条轨迹映射在n×n大小网格中的轨迹点数量特征,提取每条轨迹点之间的距离长度、时间和方向夹角特征,得到多通道的n×n大小特征图;
S3:构建包含注意力机制的多通道卷积神经网络,对轨迹的多通道特征图进行深度学习;
S4:将成对的轨迹多通道特征图加载到S3中的多通道卷积神经网络,对网络进行训练、调优,并保存训练好的网络模型;
S5:对训练好的模型测试,输出轨迹对间的相似性得分。
作为本发明的进一步优化方案,步骤S1中,对轨迹预处理,将每条轨迹通过截断方法处理为具有相同数目轨迹点构成的序列,表示为:
其中,表示轨迹中轨迹点的数目,(Longi,Lati,ti)分别表示Traj轨迹中第i个轨迹点的经度值、纬度值和时间;
再对每条轨迹的经、纬度值做坐标转换,转换为笛卡尔坐标系下的x、y值,其计算方法为:
其中,R表示地球赤道半径,取值为6371000.0米,x、y分别是轨迹点的横坐标值和纵坐标值,得到坐标转换后的轨迹表示为:
对坐标转换后的轨迹进行数据增强,使用轨迹点采样的增强方法,每条轨迹两次增强后得到增强轨迹1(表示为TAug1)和增强轨迹2(表示为TAug2),同一条轨迹的增强轨迹互为正样本对,即TAug1和TAug2互为正样本对,其余不同轨迹的增强轨迹之间互为负样本对,正本样本对集合Trajpos表示为:
其中,表示第q条轨迹的增强后的轨迹对,/>表示原始数据集中的轨迹数量,轨迹负样本对集合Trajneg表示为:
其中,分别表示第p条和第q条轨迹的增强轨迹1,/>分别表示第p条和第q条轨迹的增强轨迹2。
作为本发明的进一步优化方案,步骤S2中,多通道特征图的处理具体如下:
将轨迹空间坐标划分为n×n的网格,将轨迹中的每个轨迹点(xi,yi,ti)映射到网格中的位置(grid_xi,grid_yi),其计算如下:
其中,xmin和ymin分别是轨迹点中最小的横坐标取值和纵坐标取值,xi和yi分别是轨迹中第i点的横坐标取值和纵坐标取值,width和height分别是单元网格的宽和高,其计算方式为:
其中,n是网格尺寸,xmax和ymax分别是轨迹点中最大的横坐标取值和纵坐标取值;
提取轨迹特征值,生成通道特征图,每一通道特征计算如下:
第一通道特征F1,为大小为n×n的矩阵,其计算方法如下:
1)构造F1*特征矩阵,大小为n×n,令F1*每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)统计轨迹点(xi,yi,ti)在F1*特征矩阵中位置(grid_xi,grid_yi)的数目特征,计算为:
F1*[grid_xi,grid_yi]τ=F1*[grid_xi,grid_yi]τ-1+1
其中,F1*[grid_xi,grid_yi]τ-1是F1*特征矩阵中(grid_xi,grid_yi)位置的τ-1次的特征值;当τ=1时,F1*[grid_xi,grid_yi]0=0;
5)判断τ是否满足τ<,如果是,进入步骤6);如果否,则进入步骤7);
6)令τ=τ+1,i=i+1,返回步骤4);
7)将最后一次迭代得到的特征矩阵F1*进行最大最小归一化,得到第一通道特征图F1,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F1*中的第k个特征值,1≤k≤n2;和/>分别是最后一次迭代得到的特征矩阵F1*中元素的最大值和最小值,F1k表示特征图F1中的第k个特征值;
第二通道特征包含轨迹段长度特征和时间特征;轨迹点(xi,yi,ti)的轨迹段长度特征是轨迹点(xi,yi,ti)与前后相邻轨迹点(xi-1,yi-1,ti-1)和(xi+1,yi+1,ti+1)之间的距离之和,/>计算方法为:
轨迹点(xi,yi,ti)的时间特征是轨迹点(xi,yi,ti)与下一时刻轨迹点(xi+1,yi+1,ti+1)之间的时间差值,/>计算方法为:
对每条轨迹的轨迹段长度特征和时间特征进行最大最小归一化:轨迹段长度特征归一化方法为:
其中,traj_lengthi是轨迹点(xi,yi,ti)的归一化的轨迹段长度特征,和/>分别是该条轨迹的轨迹点轨迹段长度特征的最大值和最小值;
时间特征归一化方法为:
其中,traj_timei是轨迹点(xi,yi,ti)的归一化的时间特征,和分别是该条轨迹中所有轨迹点时间特征的最大值和最小值;
第二通道特征F2,为大小为n×n的矩阵,由大小为n×n的轨迹段长度特征矩阵F2length和大小为n×n的时间特征矩阵F2time相加得到,其计算方法如下:
1)构造F2*特征矩阵,大小为n×n,令F2*、F2length、F2time矩阵中每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)计算轨迹点(xi,yi,ti)的轨迹段长度特征traj_lengthi,并更新F2length矩阵中对应位置的值,其方法为:
其中,F2length[grid_xi,grid_yi]τ-1是F2length特征矩阵中(grid_xi,grid_yi)位置的τ-1次的特征值,当τ=1时,F2length[grid_xi,grid_yi]0=0;
5)计算轨迹点(xi,yi,ti)的时间特征traj_timei,并更新F2time矩阵中对应位置的值,方法为:
其中,F2time[grid_xi,grid_yi]τ-1是F2time特征矩阵中(grid_xi,grid_yi)位置的τ-1次的时间特征,τ=1时,F2time[grid_xi,grid_yi]0=0;
6)融合轨迹长度特征与时间特征,作为F2*矩阵的特征,方法为:
F2*[grid_xi,grid_yi]τ=F2length[grid_xi,grid_yi]τ+F2time[grid_xi,grid_yi]τ
7)判断τ是否满足如果是,进入步骤8),如果否,进入步骤9);
8)令τ=τ+1,i=i+1,返回步骤4);
9)将最后一次迭代得到的特征矩阵F2*做最大最小归一化处理,得到第二通道特征图F2,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F2*中的第k个特征值,1≤k≤n2;和/>分别是最后一次迭代得到的特征矩阵F2*中元素的最大值和最小值,F2k表示特征图F2中的第k个特征值;
第三通道特征为轨迹方向夹角特征,轨迹点(xi,yi,ti)的方向夹角特征由该轨迹点(xi,yi,ti)与前后轨迹点(xi-1,yi-1,ti-1)、(xi+1,yi+1,ti+1)之间的向量夹角获得,分离时间信息,方向夹角特征/>的计算方法为:
其中,||(xi+1-xi,yi+1-yi)||是轨迹点(xi,yi,ti)与轨迹点(xi+1,yi+1,ti+1)的模,||(xi-xi-1,yi-yi-1)||是轨迹点(xi,yi,ti)与轨迹点(xi-1,yi-1,ti-1)的模,(xi+1-xi,yi+1-yi)是轨迹点(xi,yi,ti)与轨迹点(xi+1,yi+1,ti+1)的坐标差,(xi-xi-1,yi-yi-1)是轨迹点(xi,yi,ti)与轨迹点(xi-1,yi-1,ti-1)的坐标差,“·”表示点积;
对每条轨迹的轨迹点方向夹角特征进行最大最小归一化,方法为:
其中,traj_anglei是轨迹点(xi,yi,ti)的归一化的方向夹角特征,和分别是该条轨迹的轨迹点方向夹角特征的最大值和最小值;
第三通道特征F3,为大小为n×n的矩阵,其计算方法如下:
1)构造F3*特征矩阵,大小为n×n,令F2*矩阵中每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)计算轨迹点(xi,yi,ti)的时间特征traj_anglei,并更新F3*特征矩阵中对应位置的值,表示为:
F3*[grid_xi,grid_yi]τ=F3*[grid_xi,grid_yi]τ-1+traj_anglei
其中,F3*[grid_xi,grid_yi]τ-1是F3*特征矩阵中(grid_xi,grid_yi)位置的τ-1次特征值,τ=1时,F3*[grid_xi,grid_yi]0=0;
5)判断τ是否满足如果是,进入步骤6),如果否,则进入步骤7);
6)令τ=τ+1,i=i+1,返回步骤4);
7)将最后一次迭代得到的特征矩阵F3*进行最大最小归一化处理,并作为第三通道特征,得到第三通道特征图F3,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F3*中的第k个特征值,1≤k≤n2;和/>分别是最后一次迭代得到的特征矩阵F3*中元素的最大值和最小值,F3k表示特征图F3中的第k个特征值;
将F1、F2、F3三通道特征拼接,得到尺寸为3×n×n的特征图,其中3和n×n分别是轨迹特征图的通道数和尺寸。
作为本发明的进一步优化方案,步骤S3中,构建包含注意力机制的多通道卷积神经网络,包含三部分,分别是卷积池化层、注意力层、全连接层,具体流程如下:
S301:卷积池化层:该层包括五个模块,第一个模块执行卷积、正则化、非线性激活操作,第二、三、四个模块都包含卷积、正则化、非线性激活、池化操作,第五个模块执行卷积、正则化、非线性激活操作;
第一个模块中,输入多通道特征图,使用m1个h1×h1维的卷积核对其卷积,并做正则化处理,随后经过非线性激活函数ReLU激活,得到m1个k1×k1维的特征图;
第二个模块中,使用m2个h2×h2维的卷积核对其卷积,并做正则化处理,非线性激活函数ReLU激活,得到m2个k2×k2维的特征图,再通过最大池化层,将卷积输出的k2×k2维的特征图平均分成k3×k3的子区域,对每个子区域最大值降采样操作,生成m2个k3×k3维的特征图;
第三个模块中,使用m3个h3×h3维的卷积核对其卷积,并做正则化处理,非线性激活函数ReLU激活,得到m3个k4×k4维的特征图,再通过最大池化层,将卷积输出的k4×k4维的特征图平均分成k5×k5的子区域,对每个子区域最大值降采样操作,生成m3个k5×k5维的特征图;
第四个模块中,使用m4个h4×h4维的卷积核对其卷积,并做正则化处理和非线性激活函数ReLU激活,得到m4个k6×k6维的特征图,再通过最大池化层,将卷积输出的k6×k6维的特征图平均分成k7×k7的子区域,对每个子区域最大值降采样操作,生成m4个k7×k7维的特征图;
第五个模块中,使用m5个h5×h5维的卷积核对其卷积,并做正则化处理,随后经过非线性激活函数ReLU激活,得到m5个k8×k8维的特征图;
S302:注意力层包括通道注意力层和空间注意力层;
通道注意力层中,具体步骤如下:
第一层是对输入的特征图进行平均池化和最大池化操作,计算m5个通道的均值和最大值,生成维度为[batchsize,m5,1,1]的张量;第二层是卷积层,得到[batchsize,m6,1,1]的张量,第三层加入ReLU激活函数,第四层是卷积操作,得到维度为[batchsize,m5,1,1]的张量;第五层加入sigmoid激活函数,计算出通道注意力;第六层将第五层输出的通道注意力与S301第五个模块输出的特征图相乘,得到[batchsize,m5,k8,k8]的张量;通道注意力层的公式表达式如下:
z1=fgap(x1)*W1+fgmp(x1)*W2
a=σ(W3*ReLU(W4*z1))
y1=a*x1
其中,x1是通道注意力层中第一层的输入特征,fgap和fgmp分别表示全局平均池化和全局最大池化,W1和W2是可学习的卷积核,W3和W4是可学习的参数矩阵,σ表示sigmoid函数,ReLU表示修正线性单元,y1是通道注意力层的输出;
空间注意力层中,具体步骤如下:
第一层包含平均池化层和最大池化层,计算输入在k8×k8维度上的均值和最大值,得到通道维度为[batchsize,1,k8,k8]的张量;第二层是池化拼接,将均值特征图和最大特征图沿着通道维度连接,生成[batchsize,2,k8,k8]的张量;第三层是卷积层,输出张量的形状为[batchsize,1,k8,k8];第四层加入sigmoid激活函数,通过激活函数计算出空间注意力,得到[batchsize,1,k8,k8]的张量,第五层把第四层输出的[batchsize,1,k8,k8]的张量与第一层的输入相乘,输出[batchsize,m5,k8,k8]的张量;空间注意力层的公式表达式如下:
z2=[favg(x2);fmax(x2)]
y2=σ(W5*ReLU(W5*z2))*x2
其中,x2是空间注意力层中第一层的输入特征,favg和fmax分别表示平均池化和最大池化,W5是可学习的卷积核,σ表示sigmoid函数,ReLU表示修正线性单元,y2是空间注意力层的输出;
S303:全连接层:第一层串接层将数据维度拉平,变成[batchsize,m5×k8×k8],即有m5×k8 2个神经元,经过第二层线性变换,得到k9个神经元,第三层非线性激励函数ReLU,第四层加入Dropout,第五层线性变换得到k10个特征值,第六层sigmoid激活函数,得到轨迹相似性得分。
作为本发明的进一步优化方案,步骤S4中,对网络进行训练、调优,具体步骤如下:
S401:将轨迹数据划分为训练集和测试集,转化为tensor格式数据,初始化模型权重参数;
S402:将轨迹对拼接后输入到模型中,提取多通道特征图,计算网络输出值与实际之间的误差,按最小化损失函数的方法反向传播,调整权重矩阵,更新参数;
S403:重复迭代训练,直到模型的损失函数逐渐下降并趋于稳定,准确率、F1得分值的指标上升并趋于稳定,停止训练,保存模型。
作为本发明的进一步优化方案,步骤S402中,损失函数表达式为:
Loss(sim,label)=-[label·log(sim)+(1-label)·log(1-sim)]
其中sim=[s1,s2,...,si,...,sbatch]和label=[l1,l2,...,li,...,lbatch]分别是相似性度量值向量和伪标签向量,si表示第i个相似性度量值,li表示第i个伪标签,Loss(sim,label)是一个二元交叉熵损失函数,计算正负样本对的相似性得分与伪标签之间的差值,反向传播参数,优化模型。
本发明采用以上技术方法,与现有技术相比,引入基于多特征通道学习模型实现轨迹的相似性度量,与现有方法相比,本发明的优点在于:
1)融合轨迹数目特征、轨迹段长度和时间特征、轨迹方向夹角特征三个通道的特征,相比于提取单通道特征的方法所提取的特征更全面,能有效的表示轨迹特征;
2)多通道特征模型中引入注意力机制,突出轨迹点间的重要区域、抑制不重要区域,能更好地解决抓捕轨迹形状,克服对轨迹的特征提取不充分的问题,提高了轨迹相似性度量的准确性。
附图说明
图1是本发明基于多通道特征学习的轨迹的相似性度量方法的具体实施方式流程图;
图2是本发明基于多通道特征学习的轨迹的相似性度量方法的具体框架流程图;
图3是本发明中多通道特征网络模型具体实施方式流程图;
图4是本发明和对比方法在Geolife数据集上准确率对比图;
图5是本发明和对比方法在Geolife数据集上F1得分值对比图;
图6是本发明和对比方法在Portugal数据集上准确率对比图;
图7是本发明和对比方法在Portugal数据集上F1得分值对比图;
具体实施方式
为了更好地说明本发明的技术效果,下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明一种基于多通道特征学习的轨迹相似性度量方法的具体实施方式流程图;以两个实际轨迹数据集为实施例,测试本发明方法和两种对比方法度量轨迹之间的相似性。本发明一种基于多通道特征学习的轨迹相似性度量方法,具体步骤如下:
S1:获取轨迹数据集,对数据预处理、坐标变换和数据增强,得到轨迹正负样本对,其过程包含以下步骤:
步骤一:获取轨迹数据集
轨迹数据集包含Geolife数据集和葡萄牙波尔图市(Portugal)数据集,Geolife是由微软亚洲研究Geolife项目收集的182名用户在2007年4月至2012年8月的行驶车辆轨迹数据,该数据集的GPS轨迹由一系列时间戳点表示,每个点都包含纬度、经度的信息,总共包含17621条轨迹,总距离为1292951公里,总持续时间为50176小时,采样时间间隔为5秒;Portugal数据集是由波尔图大学和葡萄牙电信公司合作收集的GPS轨迹和Wi-Fi指纹数据的城市移动数据,包含了442辆出租车在波尔图市中的移动轨迹,涵盖了两个月的时间跨度(2013年9月至2013年11月),合计轨迹1710670条,采样间隔为15秒;
步骤二:轨迹数据预处理
过滤两个数据集中轨迹点数目太少的数据,将每条轨迹通过截断方法处理为具有相同数目轨迹点构成的序列,表示为:
其中,表示轨迹中轨迹点的数目,Geolife数据集中,=300,葡萄牙波尔图市数据集中,/>(Longi,Lati,ti)分别表示Traj轨迹中第i个轨迹点的经度值、纬度值和时间;
步骤三:坐标转换
对每条轨迹的经、纬度值做坐标转换,转换为笛卡尔坐标系下的x、y值,其计算方法为:
其中,R表示地球赤道半径,取值为6371000.0米,x、y分别是轨迹点的横坐标值和纵坐标值,得到坐标转换后的轨迹表示为:
步骤四:数据增强
对坐标转换后的轨迹进行数据增强,使用轨迹点采样的增强方法,每条轨迹两次增强后得到增强轨迹1(表示为TAug1)和增强轨迹2(表示为TAug2),同一条轨迹的增强轨迹互为正样本对,即TAug1和TAug2互为正样本对,其余不同轨迹的增强轨迹之间互为负样本对;正本样本对集合Trajpos表示为:
其中,表示第q条轨迹的增强后的轨迹对,/>表示原始数据集中的轨迹数量,轨迹负样本对集合Trajneg表示为:
其中,分别表示第p条和第q条轨迹的增强轨迹1,/>分别表示第p条和第q条轨迹的增强轨迹2。
S2:提取每条轨迹映射在128×128大小网格中的轨迹点数量特征,提取每条轨迹点之间的距离长度、时间和方向夹角特征,得到多通道的128×128大小特征图,多通道特征图的处理具体如下:
将轨迹空间坐标划分为128×128的网格,将轨迹中的每个轨迹点(xi,yi,ti)映射到网格中的位置(grid_xi,grid_yi),其计算如下:
其中,xmin和ymin分别是轨迹点中最小的横坐标取值和纵坐标取值,xi和yi分别是轨迹中第i点的横坐标取值和纵坐标取值,width和height分别是单元网格的宽和高,其计算方式为:
其中,n=128,是网格尺寸,xmax和ymax分别是轨迹点中最大的横坐标取值和纵坐标取值;
提取轨迹特征值,生成通道特征图,每一通道特征计算如下:
第一通道特征F1,为大小为128×128的矩阵,其计算方法如下:
1)构造F1*特征矩阵,大小为128×128,令F1*每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)统计轨迹点(xi,yi,ti)在F1*特征矩阵中位置(grid_xi,grid_yi)的数目特征,计算为:
F1*[grid_xi,grid_yi]τ=F1*[grid_xi,grid_yi]τ-1+1
其中,F1*[grid_xi,grid_yi]τ-1是F1*特征矩阵中(grid_xi,grid_yi)位置的τ-1次的特征值;当τ=1时,F1*[grid_xi,grid_yi]0=0;
5)判断τ是否满足如果是,进入步骤6);如果否,则进入步骤7);
6)令τ=τ+1,i=i+1,返回步骤4);
7)将最后一次迭代得到的特征矩阵F1*进行最大最小归一化,得到第一通道特征图F1,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F1*中的第k个特征值,1≤k≤n2;和/>分别是最后一次迭代得到的特征矩阵F1*中元素的最大值和最小值,F1k表示特征图F1中的第k个特征值;
第二通道特征包含轨迹段长度特征和时间特征;轨迹点(xi,yi,ti)的轨迹段长度特征是轨迹点(xi,yi,ti)与前后相邻轨迹点(xi-1,yi-1,ti-1)和(xi+1,yi+1,ti+1)之间的距离之和,/>计算方法为:
轨迹点(xi,yi,ti)的时间特征是轨迹点(xi,yi,ti)与下一时刻轨迹点(xi+1,yi+1,ti+1)之间的时间差值,/>计算方法为:
/>
对每条轨迹的轨迹段长度特征和时间特征进行最大最小归一化:轨迹段长度特征归一化方法为:
其中,traj_lengthi是轨迹点(xi,yi,ti)的归一化的轨迹段长度特征,和/>分别是该条轨迹的轨迹点轨迹段长度特征的最大值和最小值;
时间特征归一化方法为:
其中,traj_timei是轨迹点(xi,yi,ti)的归一化的时间特征,和分别是该条轨迹中所有轨迹点时间特征的最大值和最小值;
第二通道特征F2,为大小为128×128的矩阵,由相同尺寸大小轨迹段长度特征矩阵F2length和时间特征矩阵F2time相加得到,其计算方法如下:
1)构造F2*特征矩阵,大小为128×128,令F2*、F2length、F2time矩阵中每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)计算轨迹点(xi,yi,ti)的轨迹段长度特征traj_lengthi,并更新F2length矩阵中对应位置的值,其方法为:
其中,F2length[grid_xi,grid_yi]τ-1是F2length特征矩阵中(grid_xi,grid_yi)位置的τ-1次的特征值,当τ=1时,F2length[grid_xi,grid_yi]0=0;
5)计算轨迹点(xi,yi,ti)的时间特征traj_timei,并更新F2time矩阵中对应位置的值,方法为:
其中,F2time[grid_xi,grid_yi]τ-1是F2time特征矩阵中(grid_xi,grid_yi)位置的τ-1次的时间特征,τ=1时,F2time[grid_xi,grid_yi]0=0;
6)融合轨迹长度特征与时间特征,作为F2*矩阵的特征,方法为:
F2*[grid_xi,grid_yi]τ=F2length[grid_xi,grid_yi]τ+F2time[grid_xi,grid_yi]τ
7)判断τ是否满足如果是,进入步骤8),如果否,进入步骤9);
8)令τ=τ+1,i=i+1,返回步骤4);
9)将最后一次迭代得到的特征矩阵F2*做最大最小归一化处理,得到第二通道特征图F2,归一化方法为:
/>
其中,表示最后一次迭代得到的特征矩阵F2*中的第k个特征值,1≤k≤n2;和/>分别是最后一次迭代得到的特征矩阵F2*中元素的最大值和最小值,F2k表示特征图F2中的第k个特征值;
第三通道特征为轨迹方向夹角特征,轨迹点(xi,yi,ti)的方向夹角特征由该轨迹点(xi,yi,ti)与前后轨迹点(xi-1,yi-1,ti-1)、(xi+1,yi+1,ti+1)之间的向量夹角获得,方向夹角特征traj_anglei *的计算方法为:
其中,||(xi+1-xi,yi+1-yi)||是轨迹点(xi,yi,ti)与轨迹点(xi+1,yi+1,ti+1)的模,“·”表示点积;
对每条轨迹的轨迹点方向夹角特征进行最大最小归一化,方法为:
其中,traj_anglei是轨迹点(xi,yi,ti)的归一化的方向夹角特征,和分别是该条轨迹的轨迹点方向夹角特征的最大值和最小值;
第三通道特征F3,为大小为128×128的矩阵,其计算方法如下:
1)构造F3*特征矩阵,大小为128×128,令F2*矩阵中每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)计算轨迹点(xi,yi,ti)的时间特征traj_anglei,并更新F3*特征矩阵中对应位置的值,表示为:
F3*[grid_xi,grid_yi]τ=F3*[grid_xi,grid_yi]τ-1+traj_anglei
其中,F3*[grid_xi,grid_yi]τ-1是F3*特征矩阵中(grid_xi,grid_yi)位置的τ-1次特征值,τ=1时,F3*[grid_xi,grid_yi]0=0;
5)判断τ是否满足如果是,进入步骤6),如果否,则进入步骤7);
6)令τ=τ+1,i=i+1,返回步骤4);
7)将最后一次迭代得到的特征矩阵F3*进行最大最小归一化处理,并作为第三通道特征,得到第三通道特征图F3,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F3*中的第k个特征值,1≤k≤n2;和/>分别是最后一次迭代得到的特征矩阵F3*中元素的最大值和最小值,F3k表示特征图F3中的第k个特征值;
将F1、F2、F3三通道特征拼接,得到尺寸为3×128×128的特征图,其中3和128×128分别是轨迹特征图的通道数和尺寸。
S3:构建包含注意力机制的多通道卷积神经网络,对轨迹的多通道特征图进行深度学习,其网络包含三部分,分别是卷积池化层、注意力层、全连接层,具体流程如下:
S301:卷积池化层:该层包括五个模块,第一个模块执行卷积、正则化、非线性激活操作,第二、三、四个模块都包含卷积、正则化、非线性激活、池化操作,第五个模块执行卷积、正则化、非线性激活操作;
第一个模块中,输入多通道特征图,使用16个3×3维的卷积核对其卷积,并做正则化处理,随后经过非线性激活函数ReLU激活,得到16个126×126维的特征图;
第二个模块中,使用32个3×3维的卷积核对其卷积,并做正则化处理,非线性激活函数ReLU激活,得到32个124×124维的特征图,再通过最大池化层,将卷积输出的124×124维的特征图平均分成62×62的子区域,对每个子区域最大值降采样操作,生成32个62×62维的特征图;
第三个模块中,使用32个3×2维的卷积核对其卷积,并做正则化处理,非线性激活函数ReLU激活,得到32个60×60维的特征图,再通过最大池化层,将卷积输出的60×60维的特征图平均分成30×30的子区域,对每个子区域最大值降采样操作,生成32个30×30维的特征图;
第四个模块中,使用64个3×3维的卷积核对其卷积,并做正则化处理和非线性激活函数ReLU激活,得到64个28×28维的特征图,再通过最大池化层,将卷积输出的28×28维的特征图平均分成14×14的子区域,对每个子区域最大值降采样操作,生成64个14×14维的特征图;
第五个模块中,使用128个3×3维的卷积核对其卷积,并做正则化处理,非线性激活函数ReLU激活,得到128个12×12维的特征图;
S302:注意力层包括通道注意力层和空间注意力层;
通道注意力层中,具体步骤如下:
第一层是对输入的特征图进行平均池化和最大池化操作,计算128个通道的均值和最大值,生成维度为[64,128,1,1]的张量;第二层是卷积层,得到[64,8,1,1]的张量,第三层加入ReLU激活函数;第四层是卷积操作,得到[64,128,1,1]的张量;第五层加入sigmoid激活函数,计算出通道注意力;第六层将第五层输出的通道注意力与S301第五个模块输出的特征图相乘,得到[64,128,12,12]的张量;通道注意力层的公式表达式如下:
z1=fgap(x1)*W1+fgmp(x1)*W2
a=σ(W3*ReLU(W4*z1))
y1=a*x1
其中,x1是通道注意力层中第一层的输入特征,fgap和fgmp分别表示全局平均池化和全局最大池化,W1和W2是可学习的卷积核,W3和W4是可学习的参数矩阵,σ表示sigmoid函数,ReLU表示修正线性单元,y1是通道注意力层的输出;
空间注意力层中,具体步骤如下:
第一层包含平均池化层和最大池化层,计算输入在12×12维度上的均值和最大值,得到通道维度为[64,1,12,12]的张量;第二层是池化拼接,将均值特征图和最大特征图沿着通道维度连接,生成[64,2,12,12]的张量;第三层是卷积层,输出张量的形状为[64,1,12,12];第四层加入sigmoid激活函数,通过激活函数计算出空间注意力,得到[64,1,12,12]的张量,第五层把第四层输出的[64,1,12,12]的张量与第一层的输入相乘,输出[64,128,12,12]的张量;空间注意力层的公式表达式如下:
z2=[favg(x2);fmax(x2)]
y2=σ(W5*ReLU(W5*z2))*x2
其中,x2是空间注意力层中第一层的输入特征,favg和fmax分别表示平均池化和最大池化,W5是可学习的卷积核,σ表示sigmoid函数,ReLU表示修正线性单元,y2是空间注意力层的输出;
S303:全连接层:第一层串接层将数据维度拉平,变成[64,128×12×12],即有128×12×12个神经元,经过第二层线性变换,得到128维的特征向量,第三层非线性激励函数ReLU,映射得到一个128维的特征向量,第四层加入Dropout,第五层线性变换得到1个特征值,第六层sigmoid激活函数,得到轨迹相似性得分。
S4:将成对的轨迹多通道特征图加载到S3中的多通道卷积神经网络,对网络进行训练、调优,并保存训练好的网络模型,具体步骤如下:
S401:将轨迹数据划分为训练集和测试集,转化为tensor格式数据,初始化模型权重参数;
S402:将轨迹对拼接后输入到模型中,提取多通道特征图,计算网络输出值与实际之间的误差,按最小化损失函数的方法反向传播,调整权重矩阵,更新参数,其损失函数表达式为:
Loss(sim,label)=-[label·log(sim)+(1-label)·log(1-sim)]
其中sim=[s1,s2,...,si,...,sbatch]和label=[l1,l2,...,li,...,lbatch]分别是相似性度量值向量和伪标签向量,si表示第i个相似性度量值,li表示第i个伪标签,Loss(sim,label)是一个二元交叉熵损失函数,计算正负样本对的相似性得分与伪标签之间的差值,反向传播参数,优化模型;
S403:重复迭代训练,直到模型的损失函数逐渐下降并趋于稳定,准确率、F1得分值的指标上升并趋于稳定,停止训练,保存模型。
S5:对训练好的模型测试,输出轨迹对的相似性得分。
为了实现技术效果对比,实例验证采用了CSTRM方法(Xiang L.,Tan X.,Guo Y.,et al.CSTRM:Contrastive Self-Supervised Trajectory Representation Model forTrajectory Similarity Computation[J].Computer Communications,2022,185:159-167.)和TrajSR方法(Cao H.,Tang H.,Wu Y.,et al.On Accurate Computation ofTrajectory Similarity via Single Image Super Resolution[C].InternationalJoint Conference on Neural Networks,2021.)作为对比方法,采用准确率和F1-scores作为性能评价指标。CSTRM方法使用GRU处理轨迹时间序列,依赖轨迹点之间的前后关系。TrajSR方法将轨迹转化为单通道图像。为了更好的说明本发明的技术效果,本实例采用以下性能指标,各个指标的具体计算表达式如下:
设定混淆矩阵,见表1:
表1混淆矩阵
其中,P表示正例,N表示负例,真阳性(True Positive,TP):样本的真实类别是正例,且预测为正例;真阴性(True Negative,TN):样本的真实类别是负例,且预测为负例;假阳性(False Positive,FP):样本的真实类别是负例,但预测为正例;假阴性(FalseNegative,FN):样本的真实类别是正例,但预测为负例。准确率(Accuracy)的表达式为:
F1得分值的表达式为:
本发明方法以准确率和F1得分值为指标,准确率越高,表示方法度量正确的比例越高,相似性度量的错误率越低;F1得分值综合考虑召回率和查准率,其值越高,说明度量结果越可靠。
对各个方法在Geolife数据集和Portugal数据集上进行80轮次的实验,由图4、图6可知,本发明在两个数据集上的准确率高于对比方法,由图5、图7可知,本发明在两个数据集上的F1得分值高于对比方法,说明本发明具有更高的准确性。
CSTRM方法利用轨迹的时序信息,计算得到的准确率、F1得分值较低;TrajSR方法将轨迹转化为图像,计算得到的准确率、F1得分值略高于CSTRM方法;本发明方法将轨迹转化为多通道特征图,在三个方法中表现最佳,准确率和F1得分值最高。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (6)
1.一种基于多通道特征学习的轨迹相似性度量方法,其特征在于,包括以下步骤:
S1:获取轨迹数据集,对数据预处理、坐标变换和数据增强,得到轨迹正负样本对;
S2:提取每条轨迹映射在n×n大小网格中的轨迹点数量特征,提取每条轨迹点之间的距离长度、时间和方向夹角特征,得到多通道的n×n大小特征图;
S3:构建包含注意力机制的多通道卷积神经网络,对轨迹的多通道特征图进行深度学习;
S4:将成对的轨迹多通道特征图加载到S3中的多通道卷积神经网络,对网络进行训练、调优,并保存训练好的网络模型;
S5:对训练好的模型测试,输出轨迹对间的相似性得分。
2.根据权利要求1所述的基于多通道特征学习的轨迹相似性度量方法,其特征在于,步骤S1中,对轨迹预处理,将每条轨迹通过截断方法处理为具有相同数目轨迹点构成的序列,表示为:
其中,表示轨迹中轨迹点的数目,(Longi,Lati,ti)分别表示Traj轨迹中第i个轨迹点的经度值、纬度值和时间;
再对每条轨迹的经、纬度值做坐标转换,转换为笛卡尔坐标系下的x、y值,其计算方法为:
其中,R表示地球赤道半径,取值为6371000.0米,x、y分别是轨迹点的横坐标值和纵坐标值,得到坐标转换后的轨迹表示为:
对坐标转换后的轨迹进行数据增强,使用轨迹点采样的增强方法,每条轨迹两次增强后得到增强轨迹1(表示为TAug1)和增强轨迹2(表示为TAug2),同一条轨迹的增强轨迹互为正样本对,即TAug1和TAug2互为正样本对,其余不同轨迹的增强轨迹之间互为负样本对;正本样本对集合Trajpos表示为:
其中,表示第q条轨迹的增强后的轨迹对,/>表示原始数据集中的轨迹数量,轨迹负样本对集合Trajneg表示为:
其中,分别表示第p条和第q条轨迹的增强轨迹1,/>分别表示第p条和第q条轨迹的增强轨迹2。
3.根据权利要求1所述的基于多通道特征学习的轨迹相似性度量方法,其特征在于,步骤S2中,多通道特征图的处理具体如下:
将轨迹空间坐标划分为n×n的网格,将轨迹中的每个轨迹点(xi,yi,ti)映射到网格中的位置(grid_xi,grid_yi),其计算如下:
其中,xmin和ymin分别是轨迹点中最小的横坐标取值和纵坐标取值,xi和yi分别是轨迹中第i点的横坐标取值和纵坐标取值,width和height分别是单元网格的宽和高,其计算方式为:
其中,n是网格尺寸,xmax和ymax分别是轨迹点中最大的横坐标取值和纵坐标取值;
提取轨迹特征值,生成通道特征图,每一通道特征计算如下:
第一通道特征F1,为大小为n×n的矩阵,其计算方法如下:
1)构造F1*特征矩阵,大小为n×n,令F1*每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)统计轨迹点(xi,yi,ti)在F1*特征矩阵中位置(grid_xi,grid_yi)的数目特征,计算为:
F1*[grid_xi,grid_yi]τ=F1*[grid_xi,grid_yi]τ-1+1
其中,F1*[grid_xi,grid_yi]τ-1是F1*特征矩阵中(grid_xi,grid_yi)位置的τ-1次的特征值;当τ=1时,F1*[grid_xi,grid_yi]0=0;
5)判断τ是否满足如果是,进入步骤6);如果否,则进入步骤7);
6)令τ=τ+1,i=i+1,返回步骤4);
7)将最后一次迭代得到的特征矩阵F1*进行最大最小归一化,得到第一通道特征图F1,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F1*中的第k个特征值,1≤k≤n2;/>和分别是最后一次迭代得到的特征矩阵F1*中元素的最大值和最小值,F1k表示特征图F1中的第k个特征值;
第二通道特征包含轨迹段长度特征和时间特征;轨迹点(xi,yi,ti)的轨迹段长度特征是轨迹点(xi,yi,ti)与前后相邻轨迹点(xi-1,yi-1,ti-1)和(xi+1,yi+1,ti+1)之间的距离之和,/>计算方法为:
轨迹点(xi,yi,ti)的时间特征是轨迹点(xi,yi,ti)与下一时刻轨迹点(xi+1,yi+1,ti+1)之间的时间差值,/>计算方法为:
对每条轨迹的轨迹段长度特征和时间特征进行最大最小归一化:轨迹段长度特征归一化方法为:
其中,traj_lengthi是轨迹点(xi,yi,ti)的归一化的轨迹段长度特征,和分别是该条轨迹的轨迹点轨迹段长度特征的最大值和最小值;
时间特征归一化方法为:
其中,traj_timei是轨迹点(xi,yi,ti)的归一化的时间特征,和/>分别是该条轨迹中所有轨迹点时间特征的最大值和最小值;
第二通道特征F2,为大小为n×n的矩阵,由大小为n×n的轨迹段长度特征矩阵F2length和大小为n×n时间特征矩阵F2time相加得到,其计算方法如下:
1)构造F2*特征矩阵,大小为n×n,令F2*、F2length、F2time矩阵中每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)计算轨迹点(xi,yi,ti)的轨迹段长度特征traj_lengthi,并更新F2length矩阵中对应位置的值,其方法为:
其中,F2length[grid_xi,grid_yi]τ-1是F2length特征矩阵中(grid_xi,grid_yi)位置的τ-1次的特征值,当τ=1时,F2length[grid_xi,grid_yi]0=0;
5)计算轨迹点(xi,yi,ti)的时间特征traj_timei,并更新F2time矩阵中对应位置的值,方法为:
其中,F2time[grid_xi,grid_yi]τ-1是F2time特征矩阵中(grid_xi,grid_yi)位置的τ-1次的时间特征,τ=1时,F2time[grid_xi,grid_yi]0=0;
6)融合轨迹长度特征与时间特征,作为F2*矩阵的特征,方法为:
F2*[grid_xi,grid_yi]τ=F2length[grid_xi,grid_yi]τ+F2time[grid_xi,grid_yi]τ
7)判断τ是否满足如果是,进入步骤8),如果否,进入步骤9);
8)令τ=τ+1,i=i+1,返回步骤4);
9)将最后一次迭代得到的特征矩阵F2*做最大最小归一化处理,得到第二通道特征图F2,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F2*中的第k个特征值,1≤k≤n2;/>和分别是最后一次迭代得到的特征矩阵F2*中元素的最大值和最小值,F2k表示特征图F2中的第k个特征值;
第三通道特征为轨迹方向夹角特征,轨迹点(xi,yi,ti)的方向夹角特征由该轨迹点(xi,yi,ti)与前后轨迹点(xi-1,yi-1,ti-1)、(xi+1,yi+1,ti+1)之间的向量夹角获得,方向夹角特征/>的计算方法为:
其中,||(xi+1-xi,yi+1-yi)||是轨迹点(xi,yi,ti)与轨迹点(xi+1,yi+1,ti+1)的模,“·”表示点积;
对每条轨迹的轨迹点方向夹角特征进行最大最小归一化,方法为:
其中,traj_anglei是轨迹点(xi,yi,ti)的归一化的方向夹角特征,和分别是该条轨迹的轨迹点方向夹角特征的最大值和最小值;
第三通道特征F3,为大小为n×n的矩阵,其计算方法如下:
1)构造F3*特征矩阵,大小为n×n,令F2*矩阵中每个特征初始值为0;
2)令迭代次数τ=1;
3)令轨迹点序号i=1;
4)计算轨迹点(xi,yi,ti)的时间特征traj_anglei,并更新F3*特征矩阵中对应位置的值,表示为:
F3*[grid_xi,grid_yi]τ=F3*[grid_xi,grid_yi]τ-1+traj_anglei
其中,F3*[grid_xi,grid_yi]τ-1是F3*特征矩阵中(grid_xi,grid_yi)位置的τ-1次特征值,τ=1时,F3*[grid_xi,grid_yi]0=0;
5)判断τ是否满足如果是,进入步骤6),如果否,则进入步骤7);
6)令τ=τ+1,i=i+1,返回步骤4);
7)将最后一次迭代得到的特征矩阵F3*进行最大最小归一化处理,并作为第三通道特征,得到第三通道特征图F3,归一化方法为:
其中,表示最后一次迭代得到的特征矩阵F3*中的第k个特征值,1≤k≤n2;/>和分别是最后一次迭代得到的特征矩阵F3*中元素的最大值和最小值,F3k表示特征图F3中的第k个特征值;
将F1、F2、F3三通道特征拼接,得到尺寸为3×n×n的特征图,其中3和n×n分别是轨迹特征图的通道数和尺寸。
4.根据权利要求1所述的基于多通道特征学习的轨迹相似性度量方法,其特征在于,步骤S3中,构建包含注意力机制的多通道卷积神经网络,包含三部分,分别是卷积池化层、注意力层、全连接层,具体流程如下:
S301:卷积池化层:该层包括五个模块,第一个模块执行卷积、正则化、非线性激活操作,第二、三、四个模块都包含卷积、正则化、非线性激活、池化操作,第五个模块执行卷积、正则化、非线性激活操作;
第一个模块中,输入多通道特征图,使用m1个h1×h1维的卷积核对其卷积,并做正则化处理,随后经过非线性激活函数ReLU激活,得到m1个k1×k1维的特征图;
第二个模块中,使用m2个h2×h2维的卷积核对其卷积,并做正则化处理,非线性激活函数ReLU激活,得到m2个k2×k2维的特征图,再通过最大池化层,将卷积输出的k2×k2维的特征图平均分成k3×k3的子区域,对每个子区域最大值降采样操作,生成m2个k3×k3维的特征图;
第三个模块中,使用m3个h3×h3维的卷积核对其卷积,并做正则化处理,非线性激活函数ReLU激活,得到m3个k4×k4维的特征图,再通过最大池化层,将卷积输出的k4×k4维的特征图平均分成k5×k5的子区域,对每个子区域最大值降采样操作,生成m3个k5×k5维的特征图;
第四个模块中,使用m4个h4×h4维的卷积核对其卷积,并做正则化处理和非线性激活函数ReLU激活,得到m4个k6×k6维的特征图,再通过最大池化层,将卷积输出的k6×k6维的特征图平均分成k7×k7的子区域,对每个子区域最大值降采样操作,生成m4个k7×k7维的特征图;
第五个模块中,使用m5个h5×h5维的卷积核对其卷积,并做正则化处理,随后经过非线性激活函数ReLU激活,得到m5个k8×k8维的特征图;
S302:注意力层包括通道注意力层和空间注意力层;
通道注意力层中,具体步骤如下:
第一层是对输入的特征图进行平均池化和最大池化操作,计算m5个通道的均值和最大值,生成维度为[batchsize,m5,1,1]的张量;第二层是卷积层,得到[batchsize,m6,1,1]的张量;第三层加入ReLU激活函数;第四层是卷积操作,得到维度为[batchsize,m5,1,1]的张量;第五层加入sigmoid激活函数,计算出通道注意力;第六层将第五层输出的通道注意力与S301第五个模块输出的特征图相乘,得到[batchsize,m5,k8,k8]的张量;通道注意力层的公式表达式如下:
z1=fgap(x1)*W1+fgmp(x1)*W2
a=σ(W3*ReLU(W4*z1))
y1=a*x1
其中,x1是通道注意力层中第一层的输入特征,fgap和fgmp分别表示全局平均池化和全局最大池化,W1和W2是可学习的卷积核,W3和W4是可学习的参数矩阵,σ表示sigmoid函数,ReLU表示修正线性单元,y1是通道注意力层的输出;
空间注意力层中,具体步骤如下:
第一层包含平均池化层和最大池化层,计算输入在k8×k8维度上的均值和最大值,得到通道维度为[batchsize,1,k8,k8]的张量;第二层是池化拼接,将均值特征图和最大特征图沿着通道维度连接,生成[batchsize,2,k8,k8]的张量;第三层是卷积层,输出张量的形状为[batchsize,1,k8,k8];第四层加入sigmoid激活函数,通过激活函数计算出空间注意力,得到[batchsize,1,k8,k8]的张量;第五层把第四层输出的[batchsize,1,k8,k8]的张量与第一层的输入相乘,输出[batchsize,m5,k8,k8]的张量;空间注意力层的公式表达式如下:
z2=[favg(x2);fmax(x2)]
y2=σ(W5*ReLU(W5*z2))*x2
其中,x2是空间注意力层中第一层的输入特征,favg和fmax分别表示平均池化和最大池化,W5是可学习的卷积核,σ表示sigmoid函数,ReLU表示修正线性单元,y2是空间注意力层的输出;
S303:全连接层:第一层串接层将数据维度拉平,变成[batchsize,m5×k8×k8]的张量,即有m5×k8 2个神经元,经过第二层线性变换,得到k9个神经元,第三层非线性激励函数ReLU,第四层加入Dropout,第五层线性变换得到k10个特征值,第六层sigmoid激活函数,得到轨迹相似性得分。
5.根据权力要求1所述的基于多通道特征学习的轨迹相似性度量方法,其特征在于,步骤S4中,对网络进行训练、调优,具体步骤如下:
S401:将轨迹数据划分为训练集和测试集,转化为tensor格式数据,初始化模型权重参数;
S402:将轨迹对拼接后输入到模型中,提取多通道特征图,计算网络输出值与实际之间的误差,按最小化损失函数的方法反向传播,调整权重矩阵,更新参数;
S403:重复迭代训练,直到模型的损失函数逐渐下降并趋于稳定,准确率、F1得分值的指标上升并趋于稳定,停止训练,保存模型。
6.根据权力要求5所述的基于多通道特征学习的轨迹相似性度量方法,其特征在于,步骤S402中,损失函数表达式为:
Loss(sim,label)=-[label·log(sim)+(1-label)·log(1-sim)]
其中sim=[s1,s2,...,si,...,sbatch]和label=[l1,l2,...,li,...,lbatch]分别是相似性度量值向量和伪标签向量,si表示第i个相似性度量值,li表示第i个伪标签,Loss(sim,label)是一个二元交叉熵损失函数,计算正负样本对的相似性得分与伪标签之间的差值,反向传播参数,优化模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310856060.2A CN117034025A (zh) | 2023-07-12 | 2023-07-12 | 一种基于多通道特征学习的轨迹相似性度量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310856060.2A CN117034025A (zh) | 2023-07-12 | 2023-07-12 | 一种基于多通道特征学习的轨迹相似性度量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117034025A true CN117034025A (zh) | 2023-11-10 |
Family
ID=88641996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310856060.2A Pending CN117034025A (zh) | 2023-07-12 | 2023-07-12 | 一种基于多通道特征学习的轨迹相似性度量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117034025A (zh) |
-
2023
- 2023-07-12 CN CN202310856060.2A patent/CN117034025A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460919B (zh) | 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法 | |
CN109870698B (zh) | 一种超声波阵列障碍物检测结果处理方法及系统 | |
CN114879695B (zh) | 轨迹匹配方法、装置、设备和介质 | |
Chen et al. | GPU-accelerated real-time stereo estimation with binary neural network | |
CN113592905B (zh) | 基于单目摄像头的车辆行驶轨迹预测方法 | |
Wang et al. | Reconstruction of missing trajectory data: a deep learning approach | |
CN111623797B (zh) | 一种基于深度学习的步数测量方法 | |
CN117079276B (zh) | 一种基于知识蒸馏的语义分割方法、系统、设备及介质 | |
Barba-Guaman et al. | Object detection in rural roads using Tensorflow API | |
CN110944295B (zh) | 位置预测方法、装置、存储介质及终端 | |
CN117132910A (zh) | 一种用于无人机的车辆检测方法、装置及存储介质 | |
CN117034025A (zh) | 一种基于多通道特征学习的轨迹相似性度量方法 | |
Vikruthi et al. | A Novel Framework for Vehicle Detection and Classification Using Enhanced YOLO-v7 and GBM to Prioritize Emergency Vehicle | |
CN110555425A (zh) | 一种视频流实时行人检测方法 | |
CN114022752B (zh) | 基于注意力特征精细化及对齐的sar目标检测方法 | |
Devyatkin et al. | Neural network traffic signs detection system development | |
CN115496978A (zh) | 一种图像和车速信息融合的驾驶行为分类方法及装置 | |
Da et al. | Remote sensing image ship detection based on improved YOLOv3 | |
Chen et al. | Meta-learning based Classification for moving object trajectories in Mobile IoT | |
CN112446440B (zh) | 基于msr-cnn的机器人多传感器目标跟踪方法 | |
Shi | Image Recognition of Skeletal Action for Online Physical Education Class based on Convolutional Neural Network | |
CN117975178B (zh) | 一种基于大数据分析的出租车轨迹数据分析方法 | |
CN113658218B (zh) | 一种双模板密集孪生网络跟踪方法、装置及存储介质 | |
CN112308136B (zh) | 一种基于SVM-Adaboost的驾驶分心检测方法 | |
Wang et al. | Fully densely linked and strongly correlated road scene instance segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |