CN114372503A - 一种集群车辆运动轨迹预测方法 - Google Patents
一种集群车辆运动轨迹预测方法 Download PDFInfo
- Publication number
- CN114372503A CN114372503A CN202111474976.9A CN202111474976A CN114372503A CN 114372503 A CN114372503 A CN 114372503A CN 202111474976 A CN202111474976 A CN 202111474976A CN 114372503 A CN114372503 A CN 114372503A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- vehicles
- time
- data
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000033001 locomotion Effects 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 claims abstract description 25
- 238000012795 verification Methods 0.000 claims abstract description 13
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 9
- 230000000694 effects Effects 0.000 claims abstract description 7
- 230000006399 behavior Effects 0.000 claims description 32
- 239000011159 matrix material Substances 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 10
- 230000001537 neural effect Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 238000007500 overflow downdraw method Methods 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 230000003993 interaction Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008846 dynamic interplay Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000010415 tropism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G06Q50/40—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Evolutionary Biology (AREA)
- Game Theory and Decision Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Entrepreneurship & Innovation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种集群车辆运动轨迹预测方法,包括:采集不同时段内的车辆轨迹时空信息数据,将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段,并生成每个片段内每辆车的行为数据,得到车辆时序特征数据,随机划分得到训练集和验证集;基于循环神经网络和图神经网络,构建车辆轨迹预测模型;利用训练集对模型进行迭代训练、利用验证集检验模型的预测效果,以得到参数最优的车辆轨迹预测模型;将待预测场景中的集群车辆历史轨迹时空信息数据输入参数最优的模型,输出得到对应的集群车辆轨迹预测结果。与现有技术相比,本发明从动态表征车辆交互的角度进行改进,能够更准确描述车辆集群行为,提升集群车辆运动轨迹预测的准确性和稳定性。
Description
技术领域
本发明涉及交通信息处理技术领域,尤其是涉及一种集群车辆运动轨迹预测方法。
背景技术
近年来,随着定位设备和视频捕捉设备的广泛应用,时空轨迹的获取正变得越来越便捷,其中,典型的时空轨迹数据主要包括车载或移动设备产生的定位数据、路侧监控设备捕捉到的车流数据。当车道路段一定范围内存在多辆车时,它们的时空轨迹数据就构成了集群轨迹,在自动驾驶、车路协同、城市规划等领域,这些集群轨迹数据蕴含着巨大的价值。
在繁忙时段的高速公路环境中,车辆是运动的主体,而车辆又总是以集群的形式出现。集群中的每一辆车都需要根据其他车辆的位置、速度、大小等信息规划自身路径,车辆的行为也将对其它车辆造成影响。对于每个运动主体而言,需要通过对集群中车辆未来一段时间的运动轨迹进行预测,以时刻保持安全距离、消除交通安全风险。因此,集群车辆运动轨迹预测的准确性,对于运动主体的决策系统至关重要,也是动态交通系统全要素数字化的基础。
车辆集群轨迹预测问题是一项复杂的时空序列推演任务,时空序列是一种特殊的时间序列,它指的是观测的对象的空间位置随时间变化得到的时间序列。不仅每个车辆自身的运动习惯有着天然差异,而且在集群环境中还存在车与车的交互,个体的运动模式会受到整个集群隐含的影响。目前,深度学习是一种常用的针对复杂任务的自动数据分析方法,通过深度学习从数据样本角度对集群轨迹内复杂交互的内在规律进行学习是一种可行的方案,从深度学习的角度来看,集群轨迹预测的主要难点有:动态性、时间相关性、局部交互性、推演多样性。
现有技术中,集群轨迹预测的相关研究有以社会力量(Social Force,SF)模型为代表的传统模型和基于机器学习的时空序列推演模型。其中,基于机器学习的CS-LSTM、STGCN、DCRNN等方法对时间信息和空间信息进行了聚合,应用广泛且实用性强,但这些方法将有序的时间信息混淆为一组无序的特征向量,在此基础上进行的空间信息聚合,都没有考虑对空间交互信息的动态性进行建模,导致在微观场景下的推演准确率有待提升;另一方面,以CS-LSTM为代表的车辆轨迹推演模型没有平等看待场景中每一辆车的运动,导致对局部交互的描述不足。尤其在繁忙的高速路环境下,以上均会导致预测效果不佳、预测稳定性较差。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种集群车辆运动轨迹预测方法,以能够准确、稳定地预测集群车辆运动轨迹。
本发明的目的可以通过以下技术方案来实现:一种集群车辆运动轨迹预测方法,包括以下步骤:
S1、采集不同时段内的车辆轨迹时空信息数据,将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段,并生成每个片段内每辆车的行为数据,得到车辆时序特征数据,以随机划分得到训练集和验证集;
S2、基于循环神经网络和图神经网络,构建车辆轨迹预测模型;
S3、利用训练集对车辆轨迹预测模型进行迭代训练、利用验证集检验车辆轨迹预测模型的预测效果,以得到参数最优的车辆轨迹预测模型;
S4、将待预测场景中的集群车辆历史轨迹时空信息数据输入参数最优的车辆轨迹预测模型,输出得到对应的集群车辆轨迹预测结果。
进一步地,所述车辆轨迹时空信息数据包括车辆的时间信息以及车辆之间的空间信息,所述时间信息具体为集群中每辆车在过去时间段内运行的轨迹特征信息,所述轨迹特征信息包括位置、速度、加速度、车辆长度、车辆宽度和车辆类别信息;
所述车辆之间的空间信息为在过去时间段内车辆集群中车辆之间的相互位置信息。
进一步地,所述步骤S1具体包括以下步骤:
S11、选取道路路段,逐帧采集设定时间段内通过该路段的所有车辆的特征信息,其中,车辆的特征信息包括帧序号、车辆序号、车辆位置、车辆长度、车辆宽度、车辆类型、车辆所处车道序号;
S12、将车辆位置转换为以道路为平面的二维鸟瞰坐标,以得到经过路段内所有车辆的轨迹时空信息数据;
S13、将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段,并生成每个片段内每辆车的行为数据,得到车辆时序特征数据;
S14、将车辆时序特征数据随机划分得到训练集和验证集。
进一步地,所述步骤S13中将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段的具体过程为:给定采样长度TSample和采样间隔TInterval;
遍历长序列的每一帧t0,将编号t∈[t0,t0+TSample],同时t mod TInterval=0的帧中所有车辆的轨迹特征信息抽取出来,构成一个短时片段,并按出现顺序对每辆车重新赋予一个序号;
短时片段中,各帧内出现的车辆可能是不同的,因此将该片段所有帧中的车辆取并集,车辆未出现的帧对应数据部分填充0。
进一步地,所述步骤S2中构建的车辆轨迹预测模型包括编码层、行为推演层和解码层,所述车辆轨迹预测模型的输入为某个场景中所有车辆轨迹数据的集合Trajhistory,通过编码层获取其时空信息;
行为推演层使用编码后的信息预测每辆车的行为;
根据编码层和行为推演层的输出,解码层预测输出所有车辆的轨迹Trajpred。
进一步地,所述编码层和解码层均采用动态图卷积门控神经单元构成的门控动态图卷积层;
所述行为推演层采用全连接层。
进一步地,所述动态图卷积门控神经单元具体是一种同时使用了多头注意力动态邻接阵、图卷积和循环神经网络的神经网络,用于学习动态时空依赖关系,该网络将数据输入DyGCGRU单元,使用多头注意力动态邻接矩阵获得车辆之间的注意力系数,同时将两个全连接层替换为图卷积层、合并生成重置门和更新门的卷积操作,卷积的邻接矩阵即为注意力系数构成的矩阵;
所述多头注意力动态邻接矩阵是一种通过多个车辆的特征信息生成车辆之间的注意力系数的神经网络,该网络将输入数据通过全连接层进行嵌入,再采用dot score方法进行关系评分,并基于自偏置矫正获取车辆与自身的关系,通过多头融合方法获得多头信息。
进一步地,所述车辆轨迹数据的集合Trajhistory具体为:
Trajhistory=[X(1),X(2),X(3),…,X(t),…,X(L)]
进一步地,所述解码层预测输出所有车辆的轨迹Trajpred具体为:
进一步地,所述步骤S3中迭代训练的具体过程为:随机抽取训练集的车辆时序特征数据输入车辆轨迹预测模型中进行推理,计算损失函数并进行反向传播,其中,训练的损失函数为轨迹预测损失和行为分类损失之和,如此迭代训练得到参数最优的车辆轨迹预测模型。
与现有技术相比,本发明提出一种面向智慧道路全息感知的集群车辆运动轨迹预测方法,根据机器学习方法,设计一个能够同时学习时间序列和空间关系的车辆集群轨迹预测模型,将预处理后的车辆集群轨迹特征数据输入预测模型中进行迭代训练;再根据训练得到的车辆集群轨迹预测模型,以对不同场景中的车辆集群轨迹进行预测,本发明基于动态注意力机制、循环神经网络、图神经网络的方法,利用历史时刻的车辆集群轨迹特征数据对未来时刻的车辆集群轨迹进行推演预测,能够更有效地利用车辆集群中的动态交互关系,从而有效提高推演算法的精度,实现高效、准确且稳定的车辆集群轨迹预测。
附图说明
图1为本发明的方法流程示意图;
图2为实施例的应用过程示意图;
图3为实施例建立多头注意力动态邻接矩阵的示意图;
图4为实施例建立DyGCGRU单元的示意图;
图5为实施例中构建多车时空轨迹预测模型的示意图;
图6为实施例中车辆轨迹预测结果与真实速度的对比示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,一种集群车辆运动轨迹预测方法,包括以下步骤:
S1、采集不同时段内的车辆轨迹时空信息数据(车辆轨迹时空信息数据包括车辆的时间信息以及车辆之间的空间信息,时间信息具体为集群中每辆车在过去时间段内运行的轨迹特征信息,轨迹特征信息包括位置、速度、加速度、车辆长度、车辆宽度和车辆类别信息;车辆之间的空间信息为在过去时间段内车辆集群中车辆之间的相互位置信息),将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段,并生成每个片段内每辆车的行为数据,得到车辆时序特征数据,以随机划分得到训练集和验证集,具体的:
首先选取道路路段,逐帧采集设定时间段内通过该路段的所有车辆的特征信息,其中,车辆的特征信息包括帧序号、车辆序号、车辆位置、车辆长度、车辆宽度、车辆类型、车辆所处车道序号;
之后将车辆位置转换为以道路为平面的二维鸟瞰坐标,以得到经过路段内所有车辆的轨迹时空信息数据;
再将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段,并生成每个片段内每辆车的行为数据,得到车辆时序特征数据,其中,切分短时片段的过程包括:
给定采样长度Tsample和采样间隔TInterval;
遍历长序列的每一帧t0,将编号t∈[t0,t0+TSample],同时t mod TInterval=0的帧中所有车辆的轨迹特征信息抽取出来,构成一个短时片段,并按出现顺序对每辆车重新赋予一个序号;
短时片段中,各帧内出现的车辆可能是不同的,因此将该片段所有帧中的车辆取并集,车辆未出现的帧对应数据部分填充0;
然后将车辆时序特征数据随机划分得到训练集和验证集;
S2、基于循环神经网络和图神经网络,构建车辆轨迹预测模型,其中,车辆轨迹预测模型包括编码层、行为推演层和解码层,编码层和解码层均采用动态图卷积门控神经单元构成的门控动态图卷积层;行为推演层采用全连接层,动态图卷积门控神经单元具体是一种同时使用了多头注意力动态邻接阵、图卷积和循环神经网络的神经网络,用于学习动态时空依赖关系,该网络将数据输入DyGCGRU单元,使用多头注意力动态邻接矩阵获得车辆之间的注意力系数,同时将两个全连接层替换为图卷积层、合并生成重置门和更新门的卷积操作,卷积的邻接矩阵即为注意力系数构成的矩阵;
多头注意力动态邻接矩阵是一种通过多个车辆的特征信息生成车辆之间的注意力系数的神经网络,该网络将输入数据通过全连接层进行嵌入,再采用dot score方法进行关系评分,并基于自偏置矫正获取车辆与自身的关系,通过多头融合方法获得多头信息;
车辆轨迹预测模型的输入为某个场景中所有车辆轨迹数据的集合Trajhistory,通过编码层获取其时空信息;
行为推演层使用编码后的信息预测每辆车的行为;
根据编码层和行为推演层的输出,解码层预测输出所有车辆的轨迹Trajpred;
其中,车辆轨迹数据的集合Trajhistory具体为:
Trajhistory=[X(1),X(2),X(3),…,X(t),…,X(L)]
解码层预测输出所有车辆的轨迹Trajpred具体为:
S3、利用训练集对车辆轨迹预测模型进行迭代训练、利用验证集检验车辆轨迹预测模型的预测效果,以得到参数最优的车辆轨迹预测模型,其中,迭代训练的具体过程为:随机抽取训练集的车辆时序特征数据输入车辆轨迹预测模型中进行推理,计算损失函数并进行反向传播,训练的损失函数为轨迹预测损失和行为分类损失之和,如此迭代训练得到参数最优的车辆轨迹预测模型;
S4、将待预测场景中的集群车辆历史轨迹时空信息数据输入参数最优的车辆轨迹预测模型,输出得到对应的集群车辆轨迹预测结果。
本实施例应用上述方法,如图2所示,主要包括以下内容:
步骤一:选取所需推演预测的道路路段,通过路侧高清摄像头或激光雷达等传感器,采集一段时间内通过该路段的所有车辆的轨迹数据以及车型等特征信息,将采集得到的轨迹数据转换为基于地面的二维鸟瞰坐标,得到该路段该时段的车辆轨迹时空信息数据。
在步骤一中,具体包括:
步骤1.1:选取道路中的一个路段,将车辆轨迹采集设备部署于该路段上的一个固定点,调试设备以尽量确保其能够捕捉到所有车辆从进入到离开该路段过程中的完整轨迹。
步骤1.2:按照交通状态采集设备的采集频率,逐帧对经过采集设备视野内的车辆信息进行记录,包括帧序号、车辆序号、车辆位置、车辆长度和宽度、车辆类型、所处车道序号等信息。
步骤1.3:在记录完成后,通过采集设备的内参,将车辆的位置信息转换为以道路为平面的二维鸟瞰坐标,得到经过该路段所有车辆的时空特征数据。
本实施例中,以现有的、采集方法与步骤一相似的公开数据集作为车辆轨迹时空信息数据的基础来源。NGSIM(Next Generation Simulation)数据集是由美国联邦公路管理局(FHWA)搜集的美国的几条高速公路行车轨迹数据集,它包括了US101、I-80等道路上的所有车辆在一个时间段的车辆行驶状况。原始数据是采用高空摄像头拍摄一段时间的道路视频,通过目标检测和跟踪算法加工成一条一条的轨迹点记录。
本实施例中用到的是I-80数据集,2005年4月13日,NGSIM数据采集人员在加利福尼亚州埃梅里维尔的旧金山湾区收集了I-80道路上东向行驶车辆的详细车辆轨迹数据。具体的研究区域长约500米(1640ft),由6条高速公路车道组成,包括一条高占用车辆(HOV)车道。研究区域内,还包含一个入口匝道。共计7台同步数码摄像机安装在高速公路旁一栋30层楼高的建筑顶部,记录了经过研究区域的车辆。通过定制的软件算法,从视频中转录车辆轨迹数据。该车辆轨迹数据集以10Hz的频率提供研究区域内每辆车辆的精确位置坐标,从而得出详细的车道位置和相对于其他车辆的位置。整个I-80数据集中总共有由3个15分钟片段组成的45分钟的数据可用。分别是下午4点到4点15分、下午5点至5点15分和下午5点15分至5点30分。这三个时段分别代表了拥堵的积累期、未拥堵和拥堵状态之间的过渡期、以及高峰时段的完全拥堵期。
之后按照交通状态采集设备的采集频率,逐帧对经过采集设备视野内的车辆信息进行记录,包括帧序号、车辆序号、车辆位置、车辆长度和宽度、车辆类型、所处车道序号等信息,并将其预处理为易于神经网络学习的形式。
特征名称 | 特征解释 | 处理方式 |
Local_X | 坐标x | 标准化 |
Local_Y | 坐标y | 标准化 |
v_length | 车辆长度 | 标准化 |
v_Width | 车辆宽度 | 标准化 |
v_Class | 车辆类型 | 独热编码 |
v_Vel | 速度 | 归一化 |
v_Acc | 加速度 | 归一化 |
flag | 是否缺失 | - |
在记录完成后,通过采集设备的内参,将车辆的位置信息转换为以道路为平面的二维鸟瞰坐标,得到经过该路段所有车辆的时空特征数据。本实施例中使用的I-80数据集中已经完成了坐标的转换。
步骤二:根据步骤一所述的方法,采集不同时间段内的车辆轨迹数据,将所有时间范围内的车辆轨迹数据按时间顺序切分成为短时小片段,每个片段作为一个场景,生成每个片段内每辆车的行为数据,得到处理后的车辆时序特征数据,并将其随机分为训练集和验证集。
在步骤二中,切分片段的具体过程为:给定采样长度TSample和采样间隔TInterval,遍历长序列的每一帧t0,将编号t∈[t0,t0+TSample],同时t mod TInterval=0的帧中的所有车辆的轨迹特征信息抽取出来,构成一个短时片段,并按出现顺序对每辆车重新赋予一个序号。短时片段中,各帧内出现的车辆可能是不同的,因此将该片段所有帧中的车辆取并集,车辆未出现的帧其数据部分填充0。
本实施例中,在每个45分钟的数据中,将车辆轨迹特征数据划分成8秒的片段,其中使用前3秒的数据作为历史轨迹,而后5秒的数据作为推演轨迹。数据集中的轨迹以10Hz的采样率进行采样,为了降低模型的复杂性,我们将采样频率减半,一帧间隔一帧抽取其中数据输入模型中。从I-80数据集中,共提取了3.1万个8秒片段,其中随机选取70%作为训练集、20%作为测试集、其余作为验证集。每一个样本包含历史轨迹特征数据和推演轨迹的真值。
步骤三:根据步骤二中预处理得到的逐场景的车辆时序特征数据,将训练集数据输入设计的基于动态注意力的预测模型中进行迭代训练,得出能够适应不同交通场景的多车轨迹预测模型,并检验模型的预测效果,其中,动态注意力是能够逐帧反映场景中车辆之间的交互关系的一种注意力方式。
在步骤三中,建立一种能够同时学习时间序列和空间关系的车辆轨迹预测模型,模型包括编码层、行为推演层和解码层。模型的输入为某个场景中所有车辆轨迹数据的集合Trajhistory,通过编码层获取其时空信息,行为推演层使用编码后的信息推演每辆车的行为,解码层通过编码层和行为推演层的输出来推演所有车辆的轨迹Trajpred。模型的编码层和解码层使用同样的架构,均为动态图卷积门控神经单元构成的门控动态图卷积层,行为推演层使用全连接层。
如图4所示,模型中使用的动态图卷积门控神经单元是一种同时使用了多头注意力动态邻接阵、图卷积和循环神经网络,以能够学习动态时空依赖关系的神经网络,能够对车辆轨迹特征信息进行编码和解码。该网络将数据输入一个经过修改的GRU单元,称为DyGCGRU单元,其与普通GRU单元的不同点在于,网络使用多头注意力动态邻接阵获得了车辆之间的注意力系数,同时将普通GRU中的两个全连接层替换为图卷积层,还合并了生成重置门和更新门的卷积操作,卷积的邻接矩阵即为上述注意力系数构成的矩阵。
模型中使用的多头注意力动态邻接矩阵(如图3所示)是一种通过多个车辆的特征信息生成车辆之间的注意力系数的神经网络。该网络将输入数据通过全连接层进行嵌入,再用dot score方法进行关系评分,再用自偏置矫正获取车辆与自身的关系,再用多头融合方法获得多头信息。
步骤三的具体过程为:
步骤3.1:建立上述车辆轨迹预测模型(如图5所示),模型的输入为某个场景中所有车辆轨迹数据的集合Trajhistory,若这一集群轨迹含N辆车、有L帧长,该数据集合的具体表达公式为:
Trajhistory=[X(1),X(2),X(3),…,X(L)]
步骤3.2:对步骤3.1所获取的数据序列,输入车辆轨迹推演模型中进行推演,输出所推演时间段内的所有车辆轨迹数据。若需要推演时间长度为H的数据,则输出的具体表达公式为:
步骤3.3:对步骤3.1~3.2所构建的车辆轨迹预测模型,随机抽取训练集的场景数据输入预测模型中进行推理,计算损失函数并进行反向传播,其中,训练的损失函数为轨迹预测损失和行为分类损失之和,如此迭代训练得到参数最优的预测模型。
本技术方案考虑到在高密交通流中,车辆的运动受到附近车辆的制约,因此,车辆的轨迹间存在一定的时空相关性。如果使用图结构来刻画车辆轨迹间的相关性,那么这个关系图应该是稀疏的、有向的、带权的、动态的:稀疏性即为一般只有距离相近的数辆车的运动之间才会有关联;有向性即为时空轨迹有关联的两车间的影响往往并不对等;带权即为从有关系的车辆中任取两对,车辆对之间的影响强弱往往是不同的;动态性即为随着集群车辆之间的相对位置发生变化,车辆之间的关系强弱甚至是方向都有可能变化。
为此,利用多头注意力动态邻接矩阵生成算子获取具有这四种特性的关系图,并利用动态图卷积门控神经单元对车辆交互进行建模,将有助于准确地对车辆集群轨迹进行预测。
步骤四:根据步骤三中所获得的预测模型,将待预测的车辆集群的历史轨迹数据输入模型,获得车辆集群轨迹的预测结果。
为验证本技术方案的有效性,本实施例还分别与传统的几种算法模型进行预测效果的对比,如图6所示,图中MAN_GCRNN为本技术方案构建的预测模型,由图6可知,随着预测时间的增加,本技术方案的平均绝对误差增长最为缓慢,表明本技术方案提出的预测模型的预测更加准确和稳定。
综上可知,本技术方案基于动态注意力机制、循环神经网络、图神经网络的方法,利用历史时刻的车辆集群轨迹特征数据对未来时刻的车辆集群轨迹进行预测,更有效地利用了车辆集群中的动态交互关系,提高了预测算法的精度,能够实现高效的车辆集群轨迹预测。
本技术方案适用于智慧道路路侧已有的交通状态采集设备,无需额外的硬件成本投入,可节省对高速公路的昂贵投资;基于本技术方案预测所得的准确、稳定的车辆集群轨迹预测结果,能够支持动态交通要素的全息数字化,支撑全时空交通流管控、车路协同自动驾驶等应用,从而有效提高交通的精细化管理水平和运行效率。
Claims (10)
1.一种集群车辆运动轨迹预测方法,其特征在于,包括以下步骤:
S1、采集不同时段内的车辆轨迹时空信息数据,将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段,并生成每个片段内每辆车的行为数据,得到车辆时序特征数据,以随机划分得到训练集和验证集;
S2、基于循环神经网络和图神经网络,构建车辆轨迹预测模型;
S3、利用训练集对车辆轨迹预测模型进行迭代训练、利用验证集检验车辆轨迹预测模型的预测效果,以得到参数最优的车辆轨迹预测模型;
S4、将待预测场景中的集群车辆历史轨迹时空信息数据输入参数最优的车辆轨迹预测模型,输出得到对应的集群车辆轨迹预测结果。
2.根据权利要求1所述的一种集群车辆运动轨迹预测方法,其特征在于,所述车辆轨迹时空信息数据包括车辆的时间信息以及车辆之间的空间信息,所述时间信息具体为集群中每辆车在过去时间段内运行的轨迹特征信息,所述轨迹特征信息包括位置、速度、加速度、车辆长度、车辆宽度和车辆类别信息;
所述车辆之间的空间信息为在过去时间段内车辆集群中车辆之间的相互位置信息。
3.根据权利要求2所述的一种集群车辆运动轨迹预测方法,其特征在于,所述步骤S1具体包括以下步骤:
S11、选取道路路段,逐帧采集设定时间段内通过该路段的所有车辆的特征信息,其中,车辆的特征信息包括帧序号、车辆序号、车辆位置、车辆长度、车辆宽度、车辆类型、车辆所处车道序号;
S12、将车辆位置转换为以道路为平面的二维鸟瞰坐标,以得到经过路段内所有车辆的轨迹时空信息数据;
S13、将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段,并生成每个片段内每辆车的行为数据,得到车辆时序特征数据;
S14、将车辆时序特征数据随机划分得到训练集和验证集。
4.根据权利要求3所述的一种集群车辆运动轨迹预测方法,其特征在于,所述步骤S13中将车辆轨迹时空信息数据按照时间顺序切分为多个短时片段的具体过程为:给定采样长度TSample和采样间隔TInterval;
遍历长序列的每一帧t0,将编号t∈[t0,t0+TSample],同时t mod TInterval=0的帧中所有车辆的轨迹特征信息抽取出来,构成一个短时片段,并按出现顺序对每辆车重新赋予一个序号;
短时片段中,各帧内出现的车辆可能是不同的,因此将该片段所有帧中的车辆取并集,车辆未出现的帧对应数据部分填充0。
5.根据权利要求1所述的一种集群车辆运动轨迹预测方法,其特征在于,所述步骤S2中构建的车辆轨迹预测模型包括编码层、行为推演层和解码层,所述车辆轨迹预测模型的输入为某个场景中所有车辆轨迹数据的集合Trajhistory,通过编码层获取其时空信息;
行为推演层使用编码后的信息预测每辆车的行为;
根据编码层和行为推演层的输出,解码层预测输出所有车辆的轨迹Trajpred。
6.根据权利要求5所述的一种集群车辆运动轨迹预测方法,其特征在于,所述编码层和解码层均采用动态图卷积门控神经单元构成的门控动态图卷积层;
所述行为推演层采用全连接层。
7.根据权利要求6所述的一种集群车辆运动轨迹预测方法,其特征在于,所述动态图卷积门控神经单元具体是一种同时使用了多头注意力动态邻接阵、图卷积和循环神经网络的神经网络,用于学习动态时空依赖关系,该网络将数据输入DyGCGRU单元,使用多头注意力动态邻接矩阵获得车辆之间的注意力系数,同时将两个全连接层替换为图卷积层、合并生成重置门和更新门的卷积操作,卷积的邻接矩阵即为注意力系数构成的矩阵;
所述多头注意力动态邻接矩阵是一种通过多个车辆的特征信息生成车辆之间的注意力系数的神经网络,该网络将输入数据通过全连接层进行嵌入,再采用dot score方法进行关系评分,并基于自偏置矫正获取车辆与自身的关系,通过多头融合方法获得多头信息。
10.根据权利要求5所述的一种集群车辆运动轨迹预测方法,其特征在于,所述步骤S3中迭代训练的具体过程为:随机抽取训练集的车辆时序特征数据输入车辆轨迹预测模型中进行推理,计算损失函数并进行反向传播,其中,训练的损失函数为轨迹预测损失和行为分类损失之和,如此迭代训练得到参数最优的车辆轨迹预测模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111474976.9A CN114372503A (zh) | 2021-12-03 | 2021-12-03 | 一种集群车辆运动轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111474976.9A CN114372503A (zh) | 2021-12-03 | 2021-12-03 | 一种集群车辆运动轨迹预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114372503A true CN114372503A (zh) | 2022-04-19 |
Family
ID=81140097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111474976.9A Pending CN114372503A (zh) | 2021-12-03 | 2021-12-03 | 一种集群车辆运动轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114372503A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114518762A (zh) * | 2022-04-20 | 2022-05-20 | 长沙小钴科技有限公司 | 机器人避障模型、避障控制方法和机器人 |
CN115482656A (zh) * | 2022-05-23 | 2022-12-16 | 汕头大学 | 一种使用空间动态图卷积网络进行交通流预测方法 |
CN116823572A (zh) * | 2023-06-16 | 2023-09-29 | 中国联合网络通信有限公司深圳市分公司 | 人口流动数据的获取方法、装置及计算机可读存储介质 |
-
2021
- 2021-12-03 CN CN202111474976.9A patent/CN114372503A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114518762A (zh) * | 2022-04-20 | 2022-05-20 | 长沙小钴科技有限公司 | 机器人避障模型、避障控制方法和机器人 |
CN114518762B (zh) * | 2022-04-20 | 2022-07-22 | 长沙小钴科技有限公司 | 机器人避障装置、避障控制方法和机器人 |
CN115482656A (zh) * | 2022-05-23 | 2022-12-16 | 汕头大学 | 一种使用空间动态图卷积网络进行交通流预测方法 |
CN115482656B (zh) * | 2022-05-23 | 2023-09-26 | 汕头大学 | 一种使用空间动态图卷积网络进行交通流预测方法 |
CN116823572A (zh) * | 2023-06-16 | 2023-09-29 | 中国联合网络通信有限公司深圳市分公司 | 人口流动数据的获取方法、装置及计算机可读存储介质 |
CN116823572B (zh) * | 2023-06-16 | 2023-12-19 | 中国联合网络通信有限公司深圳市分公司 | 人口流动数据的获取方法、装置及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111091708B (zh) | 车辆轨迹预测方法及装置 | |
CN114372503A (zh) | 一种集群车辆运动轨迹预测方法 | |
CN109410577B (zh) | 基于空间数据挖掘的自适应交通控制子区划分方法 | |
KR20200071799A (ko) | 딥러닝 인공지능 기술을 이용한 객체인식 및 카운팅 방법 | |
CN107301776A (zh) | 基于视频检测技术的车道路况处理及发布方法 | |
CN113591380B (zh) | 基于图高斯过程的交通流预测方法、介质及设备 | |
CN114023062B (zh) | 一种基于深度学习和边缘计算的交通流信息监测方法 | |
CN108986453A (zh) | 一种基于情境信息的交通状况预测方法、系统及装置 | |
CN102592138A (zh) | 基于多模块稀疏投影的密集场景目标跟踪方法 | |
CN114970321A (zh) | 一种基于动态轨迹流的场景流数字孪生方法及系统 | |
Zhang et al. | Vehicle re-identification for lane-level travel time estimations on congested urban road networks using video images | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
Jingying | A survey on crowd counting methods and datasets | |
CN116307152A (zh) | 时空交互式动态图注意力网络的交通预测方法 | |
Benjdira et al. | TAU: A framework for video-based traffic analytics leveraging artificial intelligence and unmanned aerial systems | |
Pi et al. | Visual recognition for urban traffic data retrieval and analysis in major events using convolutional neural networks | |
Ismail et al. | Automated collection of pedestrian data using computer vision techniques | |
CN106066993B (zh) | 一种人群语义分割方法及系统 | |
CN110738366A (zh) | 一种室外盲区行为预测方法 | |
Heldens et al. | Scalable detection of crowd motion patterns | |
CN116386020A (zh) | 多源数据融合的高速公路收费站出口流量预测方法及系统 | |
Chen et al. | Spatiotemporal vehicle tracking: the use of unsupervised learning-based segmentation and object tracking | |
Chen et al. | Dynamic vehicle graph interaction for trajectory prediction based on video signals | |
CN114913447A (zh) | 基于场景识别的警务智慧指挥室系统及方法 | |
Zhao et al. | A decoding-based method for fast background filtering of roadside LiDAR data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |