CN116415200A - 一种基于深度学习的异常车辆轨迹异常检测方法及系统 - Google Patents
一种基于深度学习的异常车辆轨迹异常检测方法及系统 Download PDFInfo
- Publication number
- CN116415200A CN116415200A CN202310395220.8A CN202310395220A CN116415200A CN 116415200 A CN116415200 A CN 116415200A CN 202310395220 A CN202310395220 A CN 202310395220A CN 116415200 A CN116415200 A CN 116415200A
- Authority
- CN
- China
- Prior art keywords
- gru
- discriminator
- track
- data
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 56
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 39
- 230000005856 abnormality Effects 0.000 title claims abstract description 27
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 239000013598 vector Substances 0.000 claims abstract description 74
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000000605 extraction Methods 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 52
- 238000009826 distribution Methods 0.000 claims description 38
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 7
- 238000010606 normalization Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于深度学习的异常车辆轨迹异常检测方法及系统,其包括:将获取的车辆轨迹数据进行网格化处理,并对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量;将提取到的特征向量输入到构建的GRU‑WGAN模型中,GRU‑WGAN模型包括一个生成器和一个判别器,生成器和判别器均由GRU网络构成;生成器根据输入的特征向量重建轨迹特征点,重建的轨迹特征点与真实数据输入判别器中,由判别器判定轨迹是否异常,并根据判定结果更新生成器和判别器的参数,学习训练特征提取部分的输出和真实数据的潜在特征,得到判别器最优的输出结果,完成车辆轨迹数据异常检测。本发明能有效提高检测准确度,并提高了模型的可解释性和稳定性、有效性。
Description
技术领域
本发明涉及一种车辆轨迹数据处理技术领域,特别是关于一种基于深度学习的异常车辆轨迹异常检测方法。
背景技术
车辆轨迹数据由于其更新速度快、采样频率高,可以提供居民出行、交通运行状况等重要信息,成为构建数字交通的基础。车辆轨迹依赖于城市道路网络,但由于记录故障和定位故障的发生,轨迹数据存在不确定性和遗漏性等问题,不能根据出行者的出行行为和道路布局进行准确定位和存储,使得在交通领域的应用受到阻碍,因此对车辆轨迹异常识别的研究具有重要意义。
现有技术中Wang等人提出了一种基于生成对抗网络(GAN)的异常检测模型,用于检测工业数据,通过生成器和判别器的迭代博弈来判别异常数据。但是该算法的泛化能力和性能表现很大程度上取决于数据集的质量和数量,该方法在数据部分缺失的复杂数据集上的表现有待考量,采用GAN为架构需要改进训练方法和技术,提高模型的稳定性。而现有基于变分自编码器(VAE)的飓风轨迹检测方法,通过VAE轨迹重建,对滑动窗口处理的输入序列进行重建,并从平行、垂直和角度距离方面判断异常轨迹段。该方法仅从空间距离角度来度量轨迹的异常,缺少结合轨迹时间的完整的异常检测。现有基于门控循环单元(GRU)的GAGRU模型,将注意力机制嵌入GRU中,在挖掘数据的时间依赖性的同时,通过整合空间特征来提高异常检测得分。该模型使用注意力机制挖掘数据时间依赖性,但在某些应用场景中,数据集的特定的特征对于异常检测任务更加重要,同时,在解释其内部决策过程和造成异常检测结果的原因方面,缺乏模型的解释性和可解释性。
发明内容
针对上述问题,本发明的目的是提供一种基于深度学习的异常车辆轨迹异常检测方法及系统,其能有效提高检测准确度,并提高了模型的可解释性和稳定性、有效性。
本发明尝试将对抗性生成网络等深度学习方法应用于轨迹异常检测。
为实现上述目的,第一方面,本发明采取的技术方案为:一种基于深度学习的异常车辆轨迹异常检测方法,其包括:将获取的车辆轨迹数据进行网格化处理,并对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量;将提取到的特征向量输入到构建的GRU-WGAN模型中,GRU-WGAN模型包括一个生成器和一个判别器,生成器和判别器均由GRU网络构成;生成器根据输入的特征向量重建轨迹特征点,重建的轨迹特征点与真实数据输入判别器中,由判别器判定轨迹是否异常,并根据判定结果更新生成器和判别器的参数,学习训练特征提取部分的输出和真实数据的潜在特征,得到判别器最优的输出结果,完成车辆轨迹数据异常检测。
进一步,对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量,包括:
将GRU作为VAE的编码器和解码器,编码器和解码器中的神经网络层为GRU网络;
网格化处理后的车辆轨迹数据输入由GRU构成的编码器中,拟合出隐变量的分布;
对隐变量的分布进行采样得到隐藏向量,学习隐变量概率分布,由GRU构成的解码器尽还原初始数据的近似概率分布,生成新的结果;
对隐变量的分布采用极端梯度提升辅助分类,以将新的结果根据特征重要性进行排序,调整特征维度并用于后续生成新的数据。
进一步,由GRU网络构成的生成器,包括:输入层、Embedding层、GRU神经网络层和Softmax层;
输入层的特征向量输入到Embedding层,对Embedding层的嵌入矩阵进行随机初始化;
将初始化处理后的数据输入到内嵌GRU的神经网络,GRU将输入的特征向量转换为隐藏的向量;
GRU的神经网络将隐藏的向量传输至Softmax层,转换为潜在向量后作为生成器的输出。
进一步,由GRU网络构成的判别器,包括:
由卷积和池化单元构成的多个卷积层组成,并采用Wasserstein距离作为损失函数判断方法。
进一步,判别器的损失函数为:
进一步,学习训练特征提取部分的输出和真实数据的潜在特征,包括:
训练目标是最小化GRU-WGAN模型中的损失函数,先训练判别器,然后训练生成器。
进一步,GRU-WGAN模型中的损失函数为:
L=λRLR+λPLP+λCLC+λMLM
其中,LR是L2正则化的损失函数;LP是网络的感知损失函数,LC是判别器的损失函数,LM是消息的交叉熵损失函数;λR、λP、λC、λM分别表示损失函数LR、LP、LC、LM的损失权重,初始值为0。
第二方面,本发明采取的技术方案为:一种基于深度学习的异常车辆轨迹异常检测系统,其包括:特征提取模块,将获取的车辆轨迹数据进行网格化处理,并对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量;模型构建模块,将提取到的特征向量输入到构建的GRU-WGAN模型中,GRU-WGAN模型包括一个生成器和一个判别器,生成器和判别器均由GRU网络构成;检测模块,生成器根据输入的特征向量重建轨迹特征点,重建的轨迹特征点与真实数据输入判别器中,由判别器判定轨迹是否异常,并根据判定结果更新生成器和判别器的参数,学习训练特征提取部分的输出和真实数据的潜在特征,得到判别器最优的输出结果,完成车辆轨迹数据异常检测。
第三方面,本发明采取的技术方案为:一种存储一个或多个程序的计算机可读存储介质,一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行上述方法中的任一方法。
第四方面,本发明采取的技术方案为:一种计算设备,其包括:一个或多个处理器、存储器及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为所述一个或多个处理器执行,所述一个或多个程序包括用于执行上述方法中的任一方法的指令。
本发明由于采取以上技术方案,其具有以下优点:
1、本发明结合多模型,将GRU嵌入VAE的编码和解码过程,有效对轨迹数据进行特征处理,并使用XGBoost模型对特征进行重要性排序,调整输入到解码器的特征维度得到新的生成结果,进而解读这些维度的部分含义,即提高了特征提取模型的可解释性。
2、本发明采用的GRU-WGAN模型解决了GAN模式崩塌的问题,嵌入GRU来捕获时间相关性,从更高维度判别异常轨迹。对比实验结果证明了特征工程模型和GRU-WGAN异常检测模型的有效性,本发明提高了单模型在异常轨迹检测任务中的表现。
附图说明
图1是本发明实施例中基于深度学习的异常车辆轨迹异常检测方法流程图;
图2是本发明实施例中GRU的结构图;
图3是本发明实施例中变分自编码器结构示意图;
图4是本发明实施例中特征向量提取流程图;
图5是本发明实施例中生成器结构示意图;
图6a是本发明实施例中来自数据集的轨迹示意图;
图6b是本发明实施例中保真得分为6.2111下的轨迹状态图;
图6c是本发明实施例中保真得分为5.5482下的轨迹状态图;
图6d是本发明实施例中保真得分为2.5381下的轨迹状态图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
车辆轨迹的不确定性和异常数据的存在导致其在数字交通领域的应用面临挑战。本发明提出一种基于深度学习的异常车辆轨迹异常检测方法及系统,构建基于GAN的GRU-WGAN深度学习模型,进行车辆轨迹特征提取和异常轨迹检测。首先,VAE利用GRU神经网络作为Encoder和Decoder部分,可以在编码层深度提取原始数据的特征并做变分推断。同时,学习深层次特征提取有助于VAE模型在编码层最大程度还原初始数据的近似概率分布,从而提高异常检测的效率。然后结合GRU和WGAN的GRU-WGAN模型,学习特征提取部分的输出和真实数据的潜在特征,完成车辆轨迹数据异常检测的任务。本发明经实验证明,GRU-WGAN模型在准确率、召回率及F1指标上均优于传统算法。因此,本发明可有效地运用于特征提取和车辆轨迹异常检测任务中。
在本发明的一个实施例中,提供一种基于深度学习的异常车辆轨迹异常检测方法。本实施例中,如图1所示,该方法包括以下步骤:
1)将获取的车辆轨迹数据进行网格化处理,并对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量;
2)将提取到的特征向量输入到构建的GRU-WGAN模型中,GRU-WGAN模型包括一个生成器和一个判别器,生成器和判别器均由GRU网络构成;
3)生成器根据输入的特征向量重建轨迹特征点,重建的轨迹特征点与真实数据输入判别器中,由判别器判定轨迹是否异常,并根据判定结果更新生成器和判别器的参数,学习训练特征提取部分的输出和真实数据的潜在特征,得到判别器最优的输出结果,完成车辆轨迹数据异常检测。
上述步骤1)中,由于传统的RNN网络由于梯度消失的问题在时间序列预测领域表现不佳,但长短期记忆(LSTM)神经网络成功解决了这个难点,并取得了显著的成效。然而,LSTM存在内部结构复杂、训练费时等弊端,为了解决这些缺点,本实施例中对GRU网络进行了优化和改良,通过缩减门控神经网络结构参数的方式提升了模型的训练效率,同时保持了与LSTM网络相当的预测精度。
在本实施例中,GRU简化了LSTM的内部单元结构,通过集成遗忘门和输出门为单个更新门,仅包含重置门(reset gate)和更新门(update gate),如图2所示。
GRU模型为:
Zt=σ(WzXt+UtHt-1) (1)
Rt=σ(WrXt+UrHt-1) (2)
式中,Xt为t时刻输入变量;Ht-1为上一隐藏层输出结果;为Xt和Ht-1的汇总;Ht为本单元隐藏层输出结果;Wz,Wr,W,Uz,Ur,U为可训练参数矩阵;I为单位矩阵;。为复合关系;σ为sigmoid激活函数。
GRU模型核心模块是更新门和重置门。输入变量Xt与上一隐藏层输出结果Ht-1的拼接矩阵经σ(X)激活函数线性变化后输入至更新门中,用于控制前一时刻信息被保留到当前状态的程度,重置门控制当前状态与先前时刻信息的结合程度,输出结果Ht为1-Zt倍上一隐藏层输出结果Ht-1和zt倍待定输出H~之和。
如图3所示,变分自编码器VAE是深度学习的一种形式,基于变分贝叶斯推断的生成式网络结构,用编码器将原始输入的数据变分推断,生成因变量分布情况,然后学习隐变量概率分布,解码器尽可能地还原初始数据的近似概率分布,生成新的结果。
本实施例结合GRU和VAE搭建网络模型进行学习,由于轨迹特征分布在不同尺度上,结合VAE和GRU模型的Encoder进行拓展,对轨迹数据进行不同尺度的采样,分别编码后融合得到轨迹的条件分布,轨迹向量用于后续的分类与判别任务。
VAE的框架内需要神经网络作为其Encoder和Decoder进行特征提取和重构结果生成。GRU可以胜任VAE的Encoder部分和Decoder部分。因此,本实施例中采用VAE+GRU的特征学习结构。VAE存在隐变量,可以表示原始数据的信息。为了弥补自编码器(AutoEncoder,AE)无法进行生成任务的缺陷,本实施例通过得到的隐变量表示为一个分布,这样可以通过采样的方式达到生成全新样本的目的。同时选择极端梯度提升(eXtreme GradientBoosting,XGBoost)辅助分类,以输出特征重要性,调整这些特征维度并用于后续生成新的数据,为后续解读维度的部分含义和可解释性提供帮助。
具体的,如图4所示,对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量,包括以下步骤:
1.1)将GRU作为VAE的编码器和解码器,其中,编码器和解码器中的神经网络层为GRU网络;
1.2)网格化处理后的车辆轨迹数据输入由GRU构成的编码器中,拟合出隐变量的分布(方差和均值);
1.3)对隐变量的分布进行采样得到隐藏向量,学习隐变量概率分布,由GRU构成的解码器尽还原初始数据的近似概率分布,生成新的结果;
1.4)对隐变量的分布采用极端梯度提升辅助分类,以将新的结果根据特征重要性进行排序,调整特征维度并用于后续生成新的数据。
通过上述特征提取,不仅可以从隐变量构造出原数据,还能生成全新的数据。而且VAE的Encoder和Decoder都使用GRU,借助其在长序列数据上的处理能力进行特征提取和重构。
在上述步骤1.3)之前,将隐变量的分布进行归一化处理。由于交通轨迹的特征数据往往具有不同的量纲,不同的量纲及其单位会影响最后的特征分析结果。数据归一化是指将数据按照一定的规则进行收缩或拉伸,最后使得数据落入规定的区间内,比如区间段(0,1)。归一化能够统一数据的范围,在一些指标的计算中,可以对不同的指标进行比较和加权。归一化有如下优点:①模型收敛速度加快,例如在模型的梯度计算中,迭代速度会更快。②模型的精度提升,让各个特征对最后结果的贡献相同。
本实施例中采用min-max归一化方法,也叫离差标准化,将数据集的特征值经过线性变化,压缩到[0,1]范围内。归一化公式如下:
其中,max(x)表示输入数据向量样本x的最大值,min(x)表示输入数据向量样本x的最小值,经过处理的样本x′取值在0到1之间。
上述步骤2)中,GRU-WGAN模型是基于GAN生成对抗网络实现,对抗是指生成网络和判别网络的互相对抗,生成网络尽可能生成生动逼真的样本,判别网络则尽可能的判断该样本是真实样本或是生成的假样本,具体的:
(1)初始化生成网络(Generator,G)和判别网络(Discriminator,D);
(2)固定G,只更新D的参数。从数据集中随机选择一些样本,再从G的输出中选择一些样本,将不同来源的样本输入到D中,D的学习目标是,如果输入的样本来自于真实数据集,则给高分;如果是G生成的样本,则给低分,可以把D认为是一个分类问题。
(3)固定D的参数,更新G。将一个向量输入G中得到一个输出,将这个输出用D进行评判,得到一个分数。这个阶段D的参数是固定的,G需要调整自己的参数来使得这个分数越高越好,希望能够欺骗到D,生成以假乱真的数据样本。
本实施例中,如图5所示,由GRU网络构成的生成器,包括:输入层、Embedding层、GRU神经网络层和Softmax层;
输入层的特征向量x={x1,x2,...,xn}输入到Embedding层,对Embedding层的嵌入矩阵进行随机初始化;
将初始化处理后的数据输入到内嵌GRU的神经网络,GRU将输入的特征向量转换为隐藏的向量h={h1,…,hn};其中,当前时刻隐藏层的状态将由上一时刻隐藏层的状态以及网络的输入来决定,表示为:
GRU的神经网络将隐藏的向量传输至Softmax层,转换为潜在向量z={z1,z2,...,zn}后作为生成器的输出;输出表达式为:
zx=Softmax(We×tanh(Wx+b1)) (6)
式中,We是Embedding层所输出的嵌入矩阵,W是参数矩阵,b1是一个偏置单元,x是网络中的输入数据向量样本(即输入的特征向量),h是潜在向量,zx表示输入数据x对应的输出向量。
上述步骤2)中,判别网络作为损失函数的一部分,用来判断车辆轨迹信息是否异常,并且作为生成对抗模型中的编码和解码处理流程中的一个环节。由GRU网络构成的判别器,即由GRU网络嵌入替换相应的神经网络,包括:由卷积和池化单元构成的多个卷积层组成,并采用Wasserstein距离作为损失函数判断方法。
其中,判别器的损失函数为:
本实施例中,采用Wasserstein距离来判定两种分布之间的距离,当两种分布的差距比较大时,生成器依然可以更新。在WGAN网络模型中结合GRU神经网络可以解决RNN存在的梯度爆炸和梯度消失的问题。本实施例中判别器采用了GRU网络,但最后一层未采用sigmod函数,使得判别器的输出值不局限于0和1之间。
上述步骤3)中,学习训练特征提取部分的输出和真实数据的潜在特征,具体为:训练目标是最小化GRU-WGAN模型中的损失函数,先训练判别器,然后训练生成器,以提高检测准确率。
其中,GRU-WGAN模型中的损失函数为:
L=λRLR+λPLP+λCLC+λMLM
其中,LR是L2正则化的损失函数;LP是网络的感知损失函数,LC是判别器的损失函数,LM是消息的交叉熵损失函数;λR、λP、λC、λM分别表示损失函数LR、LP、LC、LM的损失权重,初始值为0。
实施例,通过实验仿真对本发明的有效性做进一步的说明。本实施例中的数据集来自Kaggle官网的葡萄牙,图尔加2013年7月1日到2014年6月30日的442辆出租车行驶一年的轨迹数据集(TaxiTraiectorvData),总计1703650条轨迹。数据集包含出租车id以及轨迹开始的时间戳,轨迹是以经纬度序列的方式记录,GPS采样间隔为15s。
获取数据集并进行网格化处理,选取一个轨迹最多的终点区域,经过对比电子地图,机场作为终点。同时选择了多个轨迹较多的起点,方便标记的同时,也保障轨迹的代表性,因此剩下了12200条轨迹。由于数据质量较好,剔除明显不是单程的轨迹以及轨迹中出现明显异常的点或轨迹段等,最终得到轨迹11878条。
表示学习任务属于无监督学习,因此对得到的11878条轨迹都进行了表示学习的特征提取,在分类任务对得到的特征进行划分,以8∶2的比例划分训练集和测试集,最终呈现的精度评判指标均为在测试集上的结果。模型用Tensorflow2、keras搭建,训练使用服务器GPU:Nvidia RTX 2080ti、以及Kaggle提供的免费GPU资源Tesla P100 16G进行训练。
为验证模型有效性,本发明与系列经典的模型进行对比,如随机森林(RandomForest,RF)、XGBoost、LSTM以及GRU。由于任务分为两个步骤,因此设置了是否进行表示学习的对比实验,表示学习方法的对比实验等7个对比模型,旨在从中对比出本发明表示学习的优势,从而验证特征提取的有效性。
在本发明中,为了评价异常检测模型的性能,使用准确率p、召回率r和F1值作为异常检测性能的评价指标[12],其结果分为4类,如表1所示:
表1异常检测的结果分类
其中,TP表示判别正确的异常,FP表示判别错误的异常,FN表示未被检测到的异常,TN表示正常,其中,p和r即为精确率和召回率。随着精确率和召回率的增加,F1值也会增加。精确率、召回率和F1值的计算公式如下:
根据现实世界中的交通规则和驾驶的物理规律,按照车辆速度和行驶方向的变化将异常轨迹定义为八类:突然加速、长期停车、频繁换挡、左右摆动、倒车、突然停车、超出道路范围和剧烈转弯。
对比分析:通过对RF、XGBoost、LSTM、GRU、GRU-WGAND模型的对比实验分析,从多个评价指标体现模型的有效性。LSTM、GRU、GRU-WGAN的参数设定如表2所示。
表2参数设置
如表3所示,GRU-WGAN在精确率、召回率和F1值上有较好的表现。与其他模型相比较,准确率提升在0.5左右,召回率提高0.6,F1增长幅度在(0.1,1.5)之间。
表3模型对比实验结果
如表4所示,RF模型的F1值为0.764,而经过特征提取后的F1值为0.855,同时XGBoost模型F1值为0.707,经过特征提取后F1值为0.809,均有良好的提升,由这两组对比实验可知,将提取的特征输入模型中比直接对轨迹进行计算的效果好得多,也证明了特征提取任务的有效性。
表4是否进行特征提取的效果对比
通过本发明的方法对不同异常水平下的交通流进行保真度评估。如图6a至图6d中方框中部分提示位置包含异常,而其余部分则为正常轨迹。带“v”的箭头指向每个图中车辆的方向。图6a中的轨迹来自数据集,图6b~图6d中的轨迹的异常水平逐渐增加。每个图的左下角显示了部分轨迹的放大版本。对于本发明基于异常检测的评估方法,分数越大,表示交通轨迹的正常水平越高。
综上,本发明针对车辆轨迹异常检测,首先采用了基于VAE结构和嵌入式GRU的方法来构建特征提取过程。其次,基于GRU和WGAN的异常检测算法,将特征提取的数据输入到生成器中训练判别器,判别器固定后再训练生成器,反复迭代训练,得到最优参数。实验结果表明,基于GRU和VAE的特征提取过程能够更好地学习轨迹数据的隐性向量分布,在实验中优于其他模型;本发明的GRU-WGAN车辆异常检测方法比传统的机器学习和循环神经网络模型具有更好的异常检测性能,在异常轨迹检测任务中具有更好的表现,F1值提高了7%左右,可以有效地应用于车辆轨迹异常检测任务。
在本发明的一个实施例中,提供一种基于深度学习的异常车辆轨迹异常检测系统,其包括:
特征提取模块,将获取的车辆轨迹数据进行网格化处理,并对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量;
模型构建模块,将提取到的特征向量输入到构建的GRU-WGAN模型中,GRU-WGAN模型包括一个生成器和一个判别器,生成器和判别器均由GRU网络构成;
检测模块,生成器根据输入的特征向量重建轨迹特征点,重建的轨迹特征点与真实数据输入判别器中,由判别器判定轨迹是否异常,并根据判定结果更新生成器和判别器的参数,学习训练特征提取部分的输出和真实数据的潜在特征,得到判别器最优的输出结果,完成车辆轨迹数据异常检测。
上述实施例中,在特征提取模块中对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量,包括:
将GRU作为VAE的编码器和解码器,编码器和解码器中的神经网络层为GRU网络;
网格化处理后的车辆轨迹数据输入由GRU构成的编码器中,拟合出隐变量的分布;
对隐变量的分布进行采样得到隐藏向量,学习隐变量概率分布,由GRU构成的解码器尽还原初始数据的近似概率分布,生成新的结果,
对隐变量的分布采用极端梯度提升辅助分类,以将新的结果根据特征重要性进行排序,调整特征维度并用于后续生成新的数据。
上述实施例中,由GRU网络构成的生成器,包括:输入层、Embedding层、GRU神经网络层和Softmax层;
输入层的特征向量输入到Embedding层,对Embedding层的嵌入矩阵进行随机初始化;
将初始化处理后的数据输入到内嵌GRU的神经网络,GRU将输入的特征向量转换为隐藏的向量;
GRU的神经网络将隐藏的向量传输至Softmax层,转换为潜在向量后作为生成器的输出。
上述实施例中,由GRU网络构成的判别器,包括:由卷积和池化单元构成的多个卷积层组成,并采用Wasserstein距离作为损失函数判断方法。
其中,判别器的损失函数为:
上述实施例中,在检测模块中学习训练特征提取部分的输出和真实数据的潜在特征,包括:训练目标是最小化GRU-WGAN模型中的损失函数,先训练判别器,然后训练生成器。
其中,GRU-WGAN模型中的损失函数为:
L=λRLR+λPLP+λCLC+λMLM
其中,LR是L2正则化的损失函数;LP是网络的感知损失函数,LC是判别器的损失函数,LM是消息的交叉熵损失函数;λR、λP、λC、λM分别表示损失函数LR、LP、LC、LM的损失权重,初始值为0。
本实施例提供的系统是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
在本发明一实施例中提供的计算设备,该计算设备可以是终端,其可以包括:处理器(processor)、通信接口(Communications Interface)、存储器(memory)、显示屏和输入装置。其中,处理器、通信接口、存储器通过通信总线完成相互间的通信。该处理器用于提供计算和控制能力。该存储器包括非易失性存储介质、内存储器,该非易失性存储介质存储有操作系统和计算机程序,该计算机程序被处理器执行时以实现一种基于深度学习的异常车辆轨迹异常检测方法;该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、管理商网络、NFC(近场通信)或其他技术实现。该显示屏可以是液晶显示屏或者电子墨水显示屏,该输入装置可以是显示屏上覆盖的触摸层,也可以是计算设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。处理器可以调用存储器中的逻辑指令。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的一个实施例中,提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法。
在本发明的一个实施例中,提供一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储服务器指令,该计算机指令使计算机执行上述各实施例提供的方法。
上述实施例提供的一种计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于深度学习的异常车辆轨迹异常检测方法,其特征在于,包括:
将获取的车辆轨迹数据进行网格化处理,并对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量;
将提取到的特征向量输入到构建的GRU-WGAN模型中,GRU-WGAN模型包括一个生成器和一个判别器,生成器和判别器均由GRU网络构成;
生成器根据输入的特征向量重建轨迹特征点,重建的轨迹特征点与真实数据输入判别器中,由判别器判定轨迹是否异常,并根据判定结果更新生成器和判别器的参数,学习训练特征提取部分的输出和真实数据的潜在特征,得到判别器最优的输出结果,完成车辆轨迹数据异常检测。
2.如权利要求1所述基于深度学习的异常车辆轨迹异常检测方法,其特征在于,对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量,包括:
将GRU作为VAE的编码器和解码器,编码器和解码器中的神经网络层为GRU网络;
网格化处理后的车辆轨迹数据输入由GRU构成的编码器中,拟合出隐变量的分布;
对隐变量的分布进行采样得到隐藏向量,学习隐变量概率分布,由GRU构成的解码器尽还原初始数据的近似概率分布,生成新的结果;
对隐变量的分布采用极端梯度提升辅助分类,以将新的结果根据特征重要性进行排序,调整特征维度并用于后续生成新的数据。
3.如权利要求1所述基于深度学习的异常车辆轨迹异常检测方法,其特征在于,由GRU网络构成的生成器,包括:输入层、Embedding层、GRU神经网络层和Softmax层;
输入层的特征向量输入到Embedding层,对Embedding层的嵌入矩阵进行随机初始化;
将初始化处理后的数据输入到内嵌GRU的神经网络,GRU将输入的特征向量转换为隐藏的向量;
GRU的神经网络将隐藏的向量传输至Softmax层,转换为潜在向量后作为生成器的输出。
4.如权利要求1所述基于深度学习的异常车辆轨迹异常检测方法,其特征在于,由GRU网络构成的判别器,包括:
由卷积和池化单元构成的多个卷积层组成,并采用Wasserstein距离作为损失函数判断方法。
6.如权利要求1所述基于深度学习的异常车辆轨迹异常检测方法,其特征在于,学习训练特征提取部分的输出和真实数据的潜在特征,包括:
训练目标是最小化GRU-WGAN模型中的损失函数,先训练判别器,然后训练生成器。
7.如权利要求6所述基于深度学习的异常车辆轨迹异常检测方法,其特征在于,GRU-WGAN模型中的损失函数为:
L=λRLR+λPLP+λCLC+λMLM
其中,LR是L2正则化的损失函数;LP是网络的感知损失函数,LC是判别器的损失函数,LM是消息的交叉熵损失函数;λR、λP、λC、λM分别表示损失函数LR、LP、LC、LM的损失权重,初始值为0。
8.一种基于深度学习的异常车辆轨迹异常检测系统,其特征在于,包括:
特征提取模块,将获取的车辆轨迹数据进行网格化处理,并对网格化处理后的车辆轨迹数据基于GRU和VAE提取特征向量;
模型构建模块,将提取到的特征向量输入到构建的GRU-WGAN模型中,GRU-WGAN模型包括一个生成器和一个判别器,生成器和判别器均由GRU网络构成;
检测模块,生成器根据输入的特征向量重建轨迹特征点,重建的轨迹特征点与真实数据输入判别器中,由判别器判定轨迹是否异常,并根据判定结果更新生成器和判别器的参数,学习训练特征提取部分的输出和真实数据的潜在特征,得到判别器最优的输出结果,完成车辆轨迹数据异常检测。
9.一种存储一个或多个程序的计算机可读存储介质,其特征在于,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行如权利要求1至7所述方法中的任一方法。
10.一种计算设备,其特征在于,包括:一个或多个处理器、存储器及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为所述一个或多个处理器执行,所述一个或多个程序包括用于执行如权利要求1至7所述方法中的任一方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310395220.8A CN116415200A (zh) | 2023-04-13 | 2023-04-13 | 一种基于深度学习的异常车辆轨迹异常检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310395220.8A CN116415200A (zh) | 2023-04-13 | 2023-04-13 | 一种基于深度学习的异常车辆轨迹异常检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116415200A true CN116415200A (zh) | 2023-07-11 |
Family
ID=87051052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310395220.8A Pending CN116415200A (zh) | 2023-04-13 | 2023-04-13 | 一种基于深度学习的异常车辆轨迹异常检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116415200A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117354058A (zh) * | 2023-12-04 | 2024-01-05 | 武汉安域信息安全技术有限公司 | 基于时间序列预测的工控网络apt攻击检测系统及方法 |
CN117390966A (zh) * | 2023-11-21 | 2024-01-12 | 长安大学 | 基于深度学习的智能车辆变道轨迹自动生成方法及系统 |
CN117523382A (zh) * | 2023-07-19 | 2024-02-06 | 石河子大学 | 一种基于改进gru神经网络的异常轨迹检测方法 |
CN117910512A (zh) * | 2024-03-05 | 2024-04-19 | 广州地铁设计研究院股份有限公司 | 基于注意力机制的钢轨电位预测方法和ovpd智能控制装置 |
-
2023
- 2023-04-13 CN CN202310395220.8A patent/CN116415200A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523382A (zh) * | 2023-07-19 | 2024-02-06 | 石河子大学 | 一种基于改进gru神经网络的异常轨迹检测方法 |
CN117523382B (zh) * | 2023-07-19 | 2024-06-04 | 石河子大学 | 一种基于改进gru神经网络的异常轨迹检测方法 |
CN117390966A (zh) * | 2023-11-21 | 2024-01-12 | 长安大学 | 基于深度学习的智能车辆变道轨迹自动生成方法及系统 |
CN117354058A (zh) * | 2023-12-04 | 2024-01-05 | 武汉安域信息安全技术有限公司 | 基于时间序列预测的工控网络apt攻击检测系统及方法 |
CN117910512A (zh) * | 2024-03-05 | 2024-04-19 | 广州地铁设计研究院股份有限公司 | 基于注意力机制的钢轨电位预测方法和ovpd智能控制装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116415200A (zh) | 一种基于深度学习的异常车辆轨迹异常检测方法及系统 | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN107229914B (zh) | 一种基于深度q学习策略的手写数字识别方法 | |
CN112364119B (zh) | 基于lstm编解码模型的海洋浮标轨迹预测方法 | |
CN111899759B (zh) | 音频数据的预训练、模型训练方法、装置、设备及介质 | |
CN111832615A (zh) | 一种基于前景背景特征融合的样本扩充方法及系统 | |
CN110991471B (zh) | 一种高速列车牵引系统故障诊断方法 | |
CN110795522B (zh) | 一种移动用户轨迹位置的预测方法及装置 | |
CN115730637A (zh) | 多模态车辆轨迹预测模型训练方法、装置及轨迹预测方法 | |
CN114978613B (zh) | 基于数据增强和自监督特征增强的网络入侵检测方法 | |
CN114048468A (zh) | 入侵检测的方法、入侵检测模型训练的方法、装置及介质 | |
CN115018512A (zh) | 基于Transformer神经网络的窃电检测方法及装置 | |
CN112766339A (zh) | 一种轨迹识别模型训练方法及轨迹识别方法 | |
CN114519430A (zh) | 一种软量子神经网络系统及模式识别方法 | |
CN117351550A (zh) | 基于有监督对比学习的网格自注意力人脸表情识别方法 | |
CN113947182B (zh) | 基于双阶段堆叠图卷积网络的交通流预测模型构建方法 | |
CN111144462A (zh) | 一种雷达信号的未知个体识别方法及装置 | |
CN117992919A (zh) | 基于机器学习和多气象模态融合的河流洪水预警方法 | |
CN117636183A (zh) | 一种基于自监督预训练的小样本遥感图像分类方法 | |
CN116933090A (zh) | 一种基于深度神经网络的pm2.5预测方法和装置 | |
CN115348182B (zh) | 一种基于深度堆栈自编码器的长期频谱预测方法 | |
CN116992224A (zh) | 一种基于多头注意力机制的时间序列数据重构方法 | |
CN116628444A (zh) | 一种基于改进元学习的水质预警方法 | |
CN113761395B (zh) | 轨迹生成模型训练方法、轨迹生成方法及装置 | |
CN113962424A (zh) | 基于PCANet-BiGRU的成绩预测方法、处理器、可读存储介质及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |