CN113435356B - 一种克服观察噪声与感知不确定性的轨迹预测方法 - Google Patents

一种克服观察噪声与感知不确定性的轨迹预测方法 Download PDF

Info

Publication number
CN113435356B
CN113435356B CN202110738851.6A CN202110738851A CN113435356B CN 113435356 B CN113435356 B CN 113435356B CN 202110738851 A CN202110738851 A CN 202110738851A CN 113435356 B CN113435356 B CN 113435356B
Authority
CN
China
Prior art keywords
vehicle
target vehicle
time
track
track prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110738851.6A
Other languages
English (en)
Other versions
CN113435356A (zh
Inventor
胡宏宇
王�琦
鲁子洋
杜来刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202110738851.6A priority Critical patent/CN113435356B/zh
Publication of CN113435356A publication Critical patent/CN113435356A/zh
Application granted granted Critical
Publication of CN113435356B publication Critical patent/CN113435356B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明属于汽车智能化技术领域,尤其为一种克服观察噪声与感知不确定性的轨迹预测方法,包括以下步骤:S1、获得目标车辆与目标车辆周围感兴趣智能体的低阶特征;S2、根据步骤S1获得的智能体低阶特征建立轨迹预测网络。本发明提出了一个基于时间模式注意力与图卷积序列编码的深度神经网络,分别对于目标车辆的行驶模式、自车周围环境时空拓扑关系进行建模,深度挖掘车辆的行驶多模态性,提出适用于多任务轨迹预测的损失函数,提高了轨迹预测的综合性能,该轨迹预测的结果相较于其他优秀的轨迹预测方法可以更好的减小观察噪声与感知不确定性的影响,从而可以降低智能车传感器成本,提高轨迹预测在不良感知下的准确率。

Description

一种克服观察噪声与感知不确定性的轨迹预测方法
技术领域
本发明涉及汽车智能化技术领域,具体为一种克服观察噪声与感知不确定性的轨迹预测方法。
背景技术
目前,大部分智能车主要是从激光雷达、毫米波雷达、超声波雷达、视觉相机等传感器获取周边的数据。随后,每个通道信号被进行周围的智能体、障碍物识别,并且将最后的结果融合后得到一个精确的场景建模。然而在实际的应用中,上述的感知环节往往过于理想。第一,由于传感器精确度、识别算法、天气等多因素的影响,实际上所感知到的场景障碍物存在一定的噪声。该噪声在恶劣天气、低成本传感器中会更明显,感知不确定性也会提升。第二,高精确度的传感器提高感知精确度的同时,也导致成本的大幅增加,对于后续智能车的普及带来了难题。
因此,在轨迹预测中考虑观察噪声与感知不确定性的影响对于提升轨迹预测鲁棒性,降低智能车成本有着相当关键的作用。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种克服观察噪声与感知不确定性的轨迹预测方法,解决了现有的汽车智能传感在实际的应用感知环节中往往过于理想,易受传感器精确度、识别算法、天气等多因素的影响,感知不确定性高,高精确度的传感器的使用导致了成本的大幅增加,对于后续智能车的普及带来了难题的问题。
(二)技术方案。
本发明为了实现上述目的具体采用以下技术方案:
一种克服观察噪声与感知不确定性的轨迹预测方法,包括以下步骤:
S1、获得目标车辆与目标车辆周围感兴趣智能体的低阶特征;
S2、根据步骤S1获得的智能体低阶特征建立轨迹预测网络。
进一步的,所述迹预测网络是由编码器、时间模式注意力、图卷积序列编码模块和解码器四部分组成。
进一步的,所述编码器用于将输入数据进行编码,对车辆轨迹的多变量时间序列建模,包括了不同的历史轨迹模式与驾驶操纵模式,对于每条多变量时间序列
Figure BDA0003140767330000021
首先通过一个全连接层形成一个嵌入向量
Figure BDA0003140767330000022
随后,每个时间步的嵌入向量作为LSTM输入,取最后一个单元的隐藏状态向量
Figure BDA0003140767330000023
为该车的隐藏模式,再经过一个线性变换与LeakyReLU后得到了编码张量,这些编码张量将会被运用到后续部分之中,计算过程如下:
Figure BDA0003140767330000024
Figure BDA0003140767330000025
其中,t为LSTM的隐藏单元数量,
Figure BDA0003140767330000026
为嵌入权重,
Figure BDA0003140767330000027
为编码器权重,
Figure BDA0003140767330000028
为线性层权重。
进一步的,所述时间模式注意力用于提取目标车辆的隐层驾驶特征,利用TPA注意力机制对上下文向量包含跨多个时间步的信息的行向量进行加权求和,捕获时域信息。
进一步的,所述图卷积序列编码模块用于构建社会知识的时空信息,采用图对目标车辆与周围智能体的交互进行建模,即采用一个无向图G=(V,E)描述自车与周围智能体的交互信息,在图中,每个节点V∈{aT∪A}}代表场景中的智能体或障碍物,边E代表两智能体之间是否存在交互,记任意两智能体之间的欧氏距离为d(ai,aj),定义邻接矩阵A如下所示:
Figure BDA0003140767330000031
对于邻接矩阵A,对应的图的度矩阵D可以由以下公式给出:
D(i,i)=∑jA(i,j)
随后,计算归一化的拉普拉斯矩阵:
Figure BDA0003140767330000032
其中,IN+1为单位矩阵;
最终,通过两次图卷积,得到目标车辆与每个周围智能体的交互隐藏特征:
Figure BDA0003140767330000033
其中,
Figure BDA0003140767330000034
为第一次和第二次卷积的权重;
随后,将所有节点的隐特征依次传入LSTM编码器,所有节点共享权重,并且将最终的结果拼接为一个张量:
Figure BDA0003140767330000035
进一步的,所述解码器用于输出车辆的轨迹坐标与驾驶操纵的概率分布,首先将目标车辆编码器输出、TPA输出与图卷积序列编码张量连接:
Figure BDA0003140767330000036
随后,一个分支用来对多模态驾驶操纵的分布进行预测,另一分支则将该张量重复t次后,对应的输入进每个LSTM单元中,经过输出激活层后,每个单元的输出代表未来某个时刻的目标车辆坐标值。
进一步的,在对模型进行训练时,采用适用于多任务轨迹预测的损失函数,损失函数由四部分构成,其中,横纵向在操纵预测分类采用交叉熵损失,横纵向轨迹坐标采用均方误差损失,表达式为:
Figure BDA0003140767330000041
式中,N为小批量样本数,
Figure BDA0003140767330000042
Figure BDA0003140767330000043
分别为车辆在未来j时刻的纵向和横向坐标预测值,
Figure BDA0003140767330000044
Figure BDA0003140767330000045
分别为车辆在未来j时刻的纵向和横向的实际坐标值,
Figure BDA0003140767330000046
Figure BDA0003140767330000047
为纵向操纵Mlon和横向操纵Mlat的预测值。
(三)有益效果
与现有技术相比,本发明提供了一种克服观察噪声与感知不确定性的轨迹预测方法,具备以下有益效果:
本发明提出了一个基于时间模式注意力与图卷积序列编码的深度神经网络,分别对于目标车辆的行驶模式、自车周围环境时空拓扑关系进行建模,深度挖掘车辆的行驶多模态性,该网络仅运用目标车辆与周围感兴趣智能体的有限数据进行轨迹预测,对于观察噪声与感知不确定性具有一定的鲁棒性;此外,提出适用于多任务轨迹预测的损失函数,提高了轨迹预测的综合性能;该轨迹预测的结果相较于其他优秀的轨迹预测方法可以更好的减小观察噪声与感知不确定性的影响,从而可以降低智能车传感器成本,提高轨迹预测在不良感知下的准确率。
附图说明
图1为本发明轨迹预测模型图;
图2为本发明轨迹预测流程图;
图3为本发明轨迹预测示意图;
图4为本发明各种预测性能对比图;
图5为本发明轨迹预测方法与现有方法对于观察噪声与感知不确定性的对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1-5所示,本发明一个实施例提出的一种克服观察噪声与感知不确定性的轨迹预测方法,包括以下步骤:
S1、获得目标车辆与目标车辆周围感兴趣智能体的低阶特征;
S2、根据步骤S1获得的智能体低阶特征建立轨迹预测网络。
在一些实施例中,迹预测网络是由编码器、时间模式注意力、图卷积序列编码模块和解码器四部分组成,编码器、时间模式注意力、图卷积序列编码模块和解码器四部分具体功能如下:
(1)编码器
模型输入为目标车辆thst(thst=-wh,…,-2,-1,0)时间内历史轨迹aT,以及正前方、左前方、右前方、左方、右方、左后方、右后方,正后方车辆轨迹
A={ac},c=1,2,...,8
其中任一车辆轨迹数据
Figure BDA0003140767330000051
由各个时刻数据构成,其中每一个时间步轨迹数据为:
Figure BDA0003140767330000061
其中x,y为纵向和横向轨迹坐标,vx,vy为纵向和横向速度,ax,ay为纵向和横向加速度,class为车辆类别;
编码器用于将输入数据进行编码,对车辆轨迹的多变量时间序列建模,包括了不同的历史轨迹模式与驾驶操纵模式,对于每条多变量时间序列
Figure BDA0003140767330000062
首先通过一个全连接层形成一个嵌入向量
Figure BDA0003140767330000063
随后,每个时间步的嵌入向量作为LSTM输入,取最后一个单元的隐藏状态向量
Figure BDA0003140767330000064
为该车的隐藏模式,再经过一个线性变换与LeakyReLU后得到了编码张量,这些编码张量将会被运用到后续部分之中,计算过程如下:
Figure BDA0003140767330000065
Figure BDA0003140767330000066
其中,t为LSTM的隐藏单元数量,
Figure BDA0003140767330000067
为嵌入权重,
Figure BDA0003140767330000068
为编码器权重,
Figure BDA0003140767330000069
为线性层权重。
(2)时间模式注意力
用于提取目标车辆的隐层驾驶特征,利用TPA注意力机制对上下文向量包含跨多个时间步的信息的行向量进行加权求和,捕获时域信息;并且这种在时间步上进行加权求和的方法可以跨越多个时间步,这为驾驶意图与驾驶操纵的时间模式提取提供了可能。将原始轨迹数据经过嵌入后,输入至一层LSTM中,得到了Hop=[op1,op2,…,opt]与
Figure BDA00031407673300000610
表达式为:
Figure BDA00031407673300000611
Figure BDA00031407673300000612
需要注意的是,由于LSTM是单层的,故
Figure BDA0003140767330000071
另需要注意的是,
Figure BDA0003140767330000072
作为LSTM的最后一个隐含单元,不仅要作为目标车辆的隐藏状态模式,还要作为注意力机制中的Query,即查询序列,用来查询不同时间步中哪个几个时间步在当前模式下影响最大。
由于卷积神经网络对于特征向量可以提取多种不同的模式,那么在不同的时间步之间进行模式的提取的话可能会提取出不同的时间模式。故采用m个卷积核,在隐层时间步的方向进行一维卷积。具体的,该步操作如下:
Figure BDA0003140767330000073
式中,i=1,2,…,m,j=1,2,…,k,
Figure BDA0003140767330000074
为卷积操作;
得到的卷积向量作为注意力机制中对应的键值Key,前面所述的
Figure BDA0003140767330000075
用来表征各键值的重要程度,然后计算注意力映射α:
Figure BDA0003140767330000076
式中,Wsf为权重矩阵,随后注意力映射在Value上进行广播,得到了隐变量中更加重要的模式:
Figure BDA0003140767330000077
最后,将得到的模式与之前的隐状态通过Wh与Wv相结合,得到了最终的带跨越时间步权重的行驶轨迹隐变量:
Figure BDA0003140767330000078
(3)图卷积序列编码模块
图卷积序列编码模块用于构建社会知识的时空信息,采用图对目标车辆与周围智能体的交互进行建模,即采用一个无向图G=(V,E)描述自车与周围智能体的交互信息,在图中,每个节点V∈{aT∪A}}代表场景中的智能体或障碍物,边E代表两智能体之间是否存在交互,记任意两智能体之间的欧氏距离为d(ai,aj),与目标车辆欧氏距离越小,则对自车影响越大,对于轨迹预测也会更加重要;所以定义邻接矩阵A如下所示:
Figure BDA0003140767330000081
对于邻接矩阵A,对应的图的度矩阵D可以由以下公式给出:
D(i,i)=∑jA(i,j)
随后,计算归一化的拉普拉斯矩阵:
Figure BDA0003140767330000082
其中,IN+1为单位矩阵;
最终,通过两次图卷积,得到目标车辆与每个周围智能体的交互隐藏特征:
Figure BDA0003140767330000083
其中,
Figure BDA0003140767330000084
为第一次和第二次卷积的权重;
随后,将所有节点的隐特征依次传入LSTM编码器,所有节点共享权重,并且将最终的结果拼接为一个张量:
Figure BDA0003140767330000085
(4)解码器
解码器用于输出车辆的轨迹坐标与驾驶操纵的概率分布,首先将目标车辆编码器输出、TPA输出与图卷积序列编码张量连接:
Figure BDA0003140767330000091
随后,一个分支用来对多模态驾驶操纵的分布进行预测。需要注意的是,训练过程中提供的是横向与纵向的驾驶操纵的one-hot编码,通过全连接层与softmax层输出车辆横纵向操作的概率。另一分支则将该张量重复t次后,对应的输入进每个LSTM单元中,经过输出激活层后,每个单元的输出代表未来某个时刻的目标车辆坐标值。
在一些实施例中,在对模型进行训练时,采用适用于多任务轨迹预测的损失函数,损失函数由四部分构成,其中,横纵向在操纵预测分类采用交叉熵损失,横纵向轨迹坐标采用均方误差损失,表达式为:
Figure BDA0003140767330000092
式中,N为小批量样本数,
Figure BDA0003140767330000093
Figure BDA0003140767330000094
分别为车辆在未来j时刻的纵向和横向坐标预测值,
Figure BDA0003140767330000095
Figure BDA0003140767330000096
分别为车辆在未来j时刻的纵向和横向的实际坐标值,
Figure BDA0003140767330000097
Figure BDA0003140767330000098
为纵向操纵Mlon和横向操纵Mlat的预测值。
考虑到四种不同任务带来的同方差不确定性,采用自适应权重损失函数,表达式为:
Figure BDA0003140767330000099
多任务轨迹预测的损失函数与自适应权重损失函数的式中,N为小批量样本数,
Figure BDA0003140767330000101
Figure BDA0003140767330000102
分别为车辆在未来j时刻的纵向和横向坐标预测值,
Figure BDA0003140767330000103
Figure BDA0003140767330000104
分别为车辆在未来j时刻的纵向和横向的实际坐标值,
Figure BDA0003140767330000105
Figure BDA0003140767330000106
为纵向操纵Mlon和横向操纵Mlat的预测值,σ2为各个任务预测值的方差。
在一些实施例中,如图3所示,其中小型方框表示小汽车,大型方框表示卡车,方框中的三角形表示车辆的行驶方向。边界框上方数字是车辆ID、车辆横向和纵向驾驶操纵和概率;为了简洁起见,只给出了最高概率驾驶机动的预测轨迹;车辆后部的虚线是历史上1秒的车辆轨迹,车辆前方的虚线为真实的轨道,实线为预测轨迹;LF代表车道跟随,RC代表左换道,LC代表右换道,ND代表匀速行驶,HB代表急减速,RS代表急加速。
在一些实施例中,如图4所示,图4为各种方法的预测性能对比图,其中Proposed为所提方法,性能最佳.
在一些实施例中,如图5所示,所提方法与另一优秀的方法对于观察噪声与感知不确定的对比图,第一张图代表观察噪声,第二三张图代表感知不确定性,可以看到,所提出的方法在性能上比对比方法要好(预测误差越小越好)。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种克服观察噪声与感知不确定性的轨迹预测方法,其特征在于:包括以下步骤:
S1、获得目标车辆与目标车辆周围感兴趣智能体的低阶特征;
S2、根据步骤S1获得的智能体低阶特征建立轨迹预测网络;
所述轨迹预测网络是由编码器、时间模式注意力、图卷积序列编码模块和解码器四部分组成;
所述编码器用于将输入数据进行编码,对车辆轨迹的多变量时间序列建模,包括了不同的历史轨迹模式与驾驶操纵模式,对于每条多变量时间序列
Figure FDA0003829427490000011
首先通过一个全连接层形成一个嵌入向量
Figure FDA0003829427490000012
随后,每个时间步的嵌入向量作为LSTM输入,取最后一个单元的隐藏状态向量
Figure FDA0003829427490000013
为该车的隐藏模式,再经过一个线性变换与LeakyReLU后得到了编码张量,这些编码张量将会被运用到后续部分之中,计算过程如下:
Figure FDA0003829427490000014
Figure FDA0003829427490000015
其中,t为LSTM的隐藏单元数量,
Figure FDA0003829427490000016
为嵌入权重,
Figure FDA0003829427490000017
为编码器权重,
Figure FDA0003829427490000018
为线性层权重;
所述时间模式注意力用于提取目标车辆的隐层驾驶特征,利用TPA注意力机制对上下文向量包含跨多个时间步的信息的行向量进行加权求和,捕获时域信息;
所述图卷积序列编码模块用于构建社会知识的时空信息,采用图对目标车辆与周围智能体的交互进行建模,即采用一个无向图G=(V,E)描述自车与周围智能体的交互信息,在图中,每个节点V∈{aT∪A}代表场景中的智能体或障碍物,边E代表两智能体之间是否存在交互,记任意两智能体之间的欧氏距离为d(ai,aj),定义邻接矩阵A如下所示:
Figure FDA0003829427490000021
对于邻接矩阵A,对应的图的度矩阵D可以由以下公式给出:
D(i,i)=∑jA(i,j)
随后,计算归一化的拉普拉斯矩阵:
Figure FDA0003829427490000022
其中,IN+1为单位矩阵;
最终,通过两次图卷积,得到目标车辆与每个周围智能体的交互隐藏特征:
hgph=φ(Lnorφ(LnorU;W1 gph);W2 gph)
其中,W1 gph,W2 gph为第一次和第二次卷积的权重;
随后,将所有节点的隐特征依次传入LSTM编码器,所有节点共享权重,并且将最终的结果拼接为一个张量:
Figure FDA0003829427490000023
所述解码器用于输出车辆的轨迹坐标与驾驶操纵的概率分布,首先将目标车辆编码器输出、TPA输出与图卷积序列编码张量连接:
Figure FDA0003829427490000024
随后,一个分支用来对多模态驾驶操纵的分布进行预测,另一分支则将该张量重复t次后,对应的输入进每个LSTM单元中,经过输出激活层后,每个单元的输出代表未来某个时刻的目标车辆坐标值;
在对模型进行训练时,采用适用于多任务轨迹预测的损失函数,损失函数由四部分构成,其中,横纵向在操纵预测分类采用交叉熵损失,横纵向轨迹坐标采用均方误差损失,表达式为:
Figure FDA0003829427490000031
式中,N为小批量样本数,
Figure FDA0003829427490000032
Figure FDA0003829427490000033
分别为车辆在未来j时刻的纵向和横向坐标预测值,
Figure FDA0003829427490000034
Figure FDA0003829427490000035
分别为车辆在未来j时刻的纵向和横向的实际坐标值,
Figure FDA0003829427490000036
Figure FDA0003829427490000037
为纵向操纵Mlon和横向操纵Mlat的预测值。
CN202110738851.6A 2021-06-30 2021-06-30 一种克服观察噪声与感知不确定性的轨迹预测方法 Active CN113435356B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110738851.6A CN113435356B (zh) 2021-06-30 2021-06-30 一种克服观察噪声与感知不确定性的轨迹预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110738851.6A CN113435356B (zh) 2021-06-30 2021-06-30 一种克服观察噪声与感知不确定性的轨迹预测方法

Publications (2)

Publication Number Publication Date
CN113435356A CN113435356A (zh) 2021-09-24
CN113435356B true CN113435356B (zh) 2023-02-28

Family

ID=77758067

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110738851.6A Active CN113435356B (zh) 2021-06-30 2021-06-30 一种克服观察噪声与感知不确定性的轨迹预测方法

Country Status (1)

Country Link
CN (1) CN113435356B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113642682B (zh) * 2021-10-14 2021-12-31 北京理工大学 一种多车交互环境下的轨迹基元提取与分析方法和系统
CN114715145B (zh) * 2022-04-29 2023-03-17 阿波罗智能技术(北京)有限公司 一种轨迹预测方法、装置、设备及自动驾驶车辆

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107380161A (zh) * 2017-07-18 2017-11-24 吉林大学 一种辅助驾驶员实现理想行驶轨迹的主动转向控制装置
CN110276947A (zh) * 2019-06-05 2019-09-24 中国科学院深圳先进技术研究院 一种交通融合分析预测方法、系统及电子设备
CN110488842A (zh) * 2019-09-04 2019-11-22 湖南大学 一种基于双向内核岭回归的车辆轨迹预测方法
CN110610271A (zh) * 2019-09-17 2019-12-24 北京理工大学 一种基于长短记忆网络的多重车辆轨迹预测方法
CN110660082A (zh) * 2019-09-25 2020-01-07 西南交通大学 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN111091708A (zh) * 2019-12-13 2020-05-01 中国科学院深圳先进技术研究院 车辆轨迹预测方法及装置
CN111931905A (zh) * 2020-07-13 2020-11-13 江苏大学 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法
CN112215337A (zh) * 2020-09-30 2021-01-12 江苏大学 一种基于环境注意力神经网络模型的车辆轨迹预测方法
CN112257850A (zh) * 2020-10-26 2021-01-22 河南大学 一种基于生成对抗网络的车辆轨迹预测方法
CN112949597A (zh) * 2021-04-06 2021-06-11 吉林大学 一种基于时间模式注意力机制的车辆轨迹预测与驾驶操纵识别方法
CN113052401A (zh) * 2021-04-26 2021-06-29 青岛大学 盲人行走轨迹预测方法、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10459444B1 (en) * 2017-11-03 2019-10-29 Zoox, Inc. Autonomous vehicle fleet model training and testing
US11556777B2 (en) * 2017-11-15 2023-01-17 Uatc, Llc Continuous convolution and fusion in neural networks
US10739777B2 (en) * 2018-11-20 2020-08-11 Waymo Llc Trajectory representation in behavior prediction systems
CN111930110A (zh) * 2020-06-01 2020-11-13 西安理工大学 一种结合社会生成对抗网络的意图轨迹预测方法
CN112686281A (zh) * 2020-12-08 2021-04-20 深圳先进技术研究院 基于时空注意力和多级lstm信息表达的车辆轨迹预测方法
CN112541449A (zh) * 2020-12-18 2021-03-23 天津大学 一种基于无人机航拍视角的行人轨迹预测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107380161A (zh) * 2017-07-18 2017-11-24 吉林大学 一种辅助驾驶员实现理想行驶轨迹的主动转向控制装置
CN110276947A (zh) * 2019-06-05 2019-09-24 中国科学院深圳先进技术研究院 一种交通融合分析预测方法、系统及电子设备
CN110488842A (zh) * 2019-09-04 2019-11-22 湖南大学 一种基于双向内核岭回归的车辆轨迹预测方法
CN110610271A (zh) * 2019-09-17 2019-12-24 北京理工大学 一种基于长短记忆网络的多重车辆轨迹预测方法
CN110660082A (zh) * 2019-09-25 2020-01-07 西南交通大学 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN111091708A (zh) * 2019-12-13 2020-05-01 中国科学院深圳先进技术研究院 车辆轨迹预测方法及装置
CN111931905A (zh) * 2020-07-13 2020-11-13 江苏大学 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法
CN112215337A (zh) * 2020-09-30 2021-01-12 江苏大学 一种基于环境注意力神经网络模型的车辆轨迹预测方法
CN112257850A (zh) * 2020-10-26 2021-01-22 河南大学 一种基于生成对抗网络的车辆轨迹预测方法
CN112949597A (zh) * 2021-04-06 2021-06-11 吉林大学 一种基于时间模式注意力机制的车辆轨迹预测与驾驶操纵识别方法
CN113052401A (zh) * 2021-04-26 2021-06-29 青岛大学 盲人行走轨迹预测方法、电子设备及存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Driver identification using 1D convolutional neural networks with vehicular CAN signals;Hongyu Hu;《IET Inteligent Transport Systems》;20201231;第14卷(第13期);1799-1809 *
End-to-End Automated Lane-Change Maneuver Considering Driving Style Using a Deep Deterministic Policy Gradient Algorithm;Hongyu Hu 等;《sensors》;20200922;第20卷(第18期);1-22 *
基于S-GAN的车辆轨迹预测算法研究与实现;候捷;《中国优秀硕士学位论文全文数据库 工程科技II辑》;20210115;C035-354 *
基于表示学习的轨迹预测研究;李升阳;《中国优秀硕士学位论文全文数据库 基础科学辑》;20200815;A002-50 *
车载雷达目标跟踪及运动状态分类方法;高振海 等;《2015中国汽车工程学会年会论文集》;20151031;491-494 *

Also Published As

Publication number Publication date
CN113435356A (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN112215337B (zh) 一种基于环境注意力神经网络模型的车辆轨迹预测方法
CN111137292B (zh) 经执行器-评价网络架构学习车道变换策略的方法和系统
CN112965499B (zh) 基于注意力模型和深度强化学习的无人车行驶决策方法
CN111311945B (zh) 一种融合视觉和传感器信息的驾驶决策系统及方法
Cai et al. Environment-attention network for vehicle trajectory prediction
CN113911129B (zh) 一种基于驾驶行为生成机制的交通车意图识别方法
CN113435356B (zh) 一种克服观察噪声与感知不确定性的轨迹预测方法
CN111930110A (zh) 一种结合社会生成对抗网络的意图轨迹预测方法
Wang et al. End-to-end self-driving using deep neural networks with multi-auxiliary tasks
CN113076599A (zh) 一种基于长短时记忆网络的多模态车辆轨迹预测方法
CN111292366A (zh) 一种基于深度学习和边缘计算的视觉行车测距算法
JP2009096365A (ja) リスク認識システム
CN114399743A (zh) 一种障碍物未来轨迹的生成方法
CN112883991A (zh) 对象分类方法、对象分类电路、机动车辆
CN113139446A (zh) 一种端到端自动驾驶行为决策方法、系统及终端设备
CN116595871A (zh) 基于动态时空交互图的车辆轨迹预测建模方法与装置
Paravarzar et al. Motion prediction on self-driving cars: A review
CN117141517A (zh) 数据驱动与知识引导相结合的车辆轨迹预测模型构建方法
Wang et al. End-to-end self-driving approach independent of irrelevant roadside objects with auto-encoder
Holder et al. Learning to drive: Using visual odometry to bootstrap deep learning for off-road path prediction
CN114973199A (zh) 一种基于卷积神经网络的轨道交通列车障碍物检测方法
CN115071762A (zh) 面向城市场景下行人轨迹预测方法、模型及存储介质
Reza et al. An ai-based real-time roadway-environment perception for autonomous driving
Tian et al. Robust identification of road surface condition based on ego-vehicle trajectory reckoning
Ye et al. Neural network‐based semantic segmentation model for robot perception of driverless vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant