CN111161322A - 一种基于人车交互的lstm神经网络行人轨迹预测方法 - Google Patents

一种基于人车交互的lstm神经网络行人轨迹预测方法 Download PDF

Info

Publication number
CN111161322A
CN111161322A CN201911418564.6A CN201911418564A CN111161322A CN 111161322 A CN111161322 A CN 111161322A CN 201911418564 A CN201911418564 A CN 201911418564A CN 111161322 A CN111161322 A CN 111161322A
Authority
CN
China
Prior art keywords
pedestrian
human
lstm
vehicle
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911418564.6A
Other languages
English (en)
Other versions
CN111161322B (zh
Inventor
连静
王欣然
李琳辉
周雅夫
周彬
杨曰凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201911418564.6A priority Critical patent/CN111161322B/zh
Publication of CN111161322A publication Critical patent/CN111161322A/zh
Application granted granted Critical
Publication of CN111161322B publication Critical patent/CN111161322B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于人车交互的LSTM神经网络行人轨迹预测方法,包括以下步骤:构建人车交互的LSTM神经网络;建立多层神经网络的输入,包括输入当前行人轨迹、输入人‑人交互信息、输入人‑车交互信息;建立人车交互的LSTM神经网络的输出。本发明选用行人的前进方向和速度作为输入,更直观的表现出邻居和车辆对当前行人运动的影响。本发明引入邻居行人和车辆的影响作为“社会信息”,与行人轨迹共同作为输入,运用分层编码的模式构建神经网络,能够解决行人受社会因素影响所发生轨迹改变的问题,提高预测精度。本发明提出方向注意力函数,用来区分不同方向的车辆对行人的影响,以提高“社会信息”的精度,进而提高行人轨迹预测精度。

Description

一种基于人车交互的LSTM神经网络行人轨迹预测方法
技术领域
本发明涉及一种行人轨迹预测方法,特别涉及到一种基于人-车交互的LSTM(LongShort-term MemoryNetworks,简称LSTM)神经网络的预测方法。
背景技术
在自动驾驶技术尤其是高密度混合交通环境中的自动驾驶技术的研究中,行人轨迹预测具有重要的意义。混合交通环境中,行人、非机动车与机动车等具备观察、思考、决策和行动能力的“智能单元”在同一道路空间活动,在共享区域内交互影响、互相作用。对行驶在混合交通环境中的智能汽车而言,在交互时仅仅避让是不够的,会导致车辆长久性“踌躇不前”或“进退失据”,并且其新颖性带来的围观行为更有可能引起交通流异常。因此,智能汽车在行驶中对行人在未来一段时间进行精准的轨迹预测具有重要的意义。行人轨迹预测是一个典型的时间序列预测问题,具有高度的时变性和非线性。由于行人轨迹预测本质是一个时间序列问题,随着深度学习的发展,基于数据驱动的建模方式成为研究热点,LSTM神经网络具有RNN(Recurrent Neural Network)网络输出反馈的特点,又能够通过自身内部的cell结构选择性长期记住需要记住的信息,可以更好的对行人轨迹进行预测。但是单纯的LSTM建模的方式忽略了行人与行人、行人与周围环境的交互影响,无法解释行人为了避免碰撞或结队而行产生的轨迹改变问题。
发明内容
针对上述问题,本发明要提出一种能提高行人轨迹预测精度的基于人车交互的LSTM神经网络行人轨迹预测方法,以实现良好的多步预测动态特性。
为了实现上述目的,本发明的技术方案如下:一种基于人车交互的LSTM神经网络行人轨迹预测方法,包括以下步骤:
A、构建人车交互的LSTM神经网络
所述的人车交互的LSTM神经网络包括行人轨迹输入、车辆轨迹输入、4个LSTM层和预测轨迹层,所述的4个LSTM层分别为LSTM层A、LSTM层B、LSTM层C和LSTM层D,所述的LSTM层A、LSTM层B、LSTM层C的输出端链接后输入到LSTM层D;所述的LSTM层A的输入端接收行人轨迹输入,所述的LSTM层B的输入端经人-人交互栅格地图连接收行人轨迹输入,所述的LSTM层C的输入端经方向权重计算模块和人-车交互栅格地图接收车辆轨迹输入,所述的LSTM层D的输出端为预测到的轨迹;
所述的LSTM层A对行人轨迹输入进行编码;
所述的LSTM层B对符合人-人交互栅格地图位置条件的行人轨迹输入进行编码;
所述的LSTM层C对方向权重计算模块的输出进行编码,所述的方向权重计算模块对符合人-车交互栅格地图位置条件的车辆轨迹输入进行编码;
所述的LSTM层D对LSTM层A、LSTM层B和LSTM层C链接后的输出进行解码和计算,得到预测的行人轨迹。
B、建立多层神经网络的输入
B1、输入当前行人轨迹
行人行走过程中,若没有其他障碍物阻挡,会沿原来的运动方向一直前进,若遇到其他车辆或行人,会修正自己的运动轨迹,这种修正行为最直观的体现在行人的前进的方向和速度上。行人会依据周边环境,修正自己的方向和速度,进而改变自己未来的轨迹。因此,在行人轨迹预测问题中,使用行人的前进方向和速度作为当前行人轨迹的输入变量。
首先假定每个场景中的行人以当前场景为标准坐标系,定义每个时刻的所有行人坐标,时间以帧为单位。将一段行人时间序列分为观察帧和预测帧,取t~t+obs为观察帧,t+obs+1~t+obs+pred为预测帧,其中obs、pred分别为观察帧和预测帧的长度,单位为帧数,则预测问题变成分段预测问题,其输入数据是行人在过去一段时间、每一帧相对于上一帧行人的转向角和行人的速度。具体公式如下:
Figure BDA0002351784570000021
Figure BDA0002351784570000022
Figure BDA0002351784570000023
Figure BDA0002351784570000031
Figure BDA0002351784570000032
Figure BDA0002351784570000033
其中,
Figure BDA0002351784570000034
是观察帧序列中的行人i位置,
Figure BDA0002351784570000035
是观察帧序列中行人i的速度,
Figure BDA0002351784570000036
是t时刻行人i在x轴方向的速度,单位为m/s;
Figure BDA0002351784570000037
是t时刻行人i在y轴方向的速度,单位为m/s;
Figure BDA0002351784570000038
是观察帧序列中,行人i的方向角,单位为rad;
Figure BDA0002351784570000039
是行人i的输入序列,
Figure BDA00023517845700000310
是行人i的输出序列。
其中
Figure BDA00023517845700000311
分别为第i个行人在第t时刻的x、y坐标。将输入值输入到步骤A中的LSTM层A,输出为:
Figure BDA00023517845700000312
其中
Figure BDA00023517845700000313
是LSTM层A的输出,W1是LSTM层A的权重。
B2、输入人-人交互信息
建立扇形栅格地图的方式来衡量当前预测行人周围的行人状况,以当前行人为圆心,r为半径的扇形区域为人-人社交感兴趣区域,在这个区域中的行人称为当前行人的“邻居”,将扇形区域划分为a×b个网格,构成栅格地图。将栅格地图写成a×b的矩阵的形式,不同网格之内的行人的数量构成a×b的矩阵中的元素,如下式所示:
Figure BDA00023517845700000314
其中,1ab(·)是判定邻居行人j是否在感兴趣区域中网格(a,b)上的判别函数。若在网格(a,b)中则为1;N是半径为r的扇形感兴趣区域,
Figure BDA00023517845700000315
是预测行人i与邻居行人j之间的欧氏距离,
Figure BDA00023517845700000316
是被预测行人i与邻居行人j位置连线与扇形左侧边的夹角。
Figure BDA00023517845700000317
作为输入,输入到步骤A中建立的LSTM层B中,则输出为:
Figure BDA00023517845700000318
Figure BDA0002351784570000041
是行人i在时刻t的LSTM层B的输出,W2是LSTM层B的权重。
B3、输入人-车交互信息
建立圆形的栅格地图来表达车辆与行人交互的邻域,以当前行人为圆心R为半径,在圆形区域内的车辆为行人关注的车辆,将圆形地图分为m×n大小的四个网格,构建行人对车辆的地图矩阵如下:
Figure BDA0002351784570000042
其中,1mn(·)是判定车辆j是否在感兴趣区域中网格(m,n)上的判别函数。若在网格(m,n)中则为1;N是半径为R的圆形兴趣区域,
Figure BDA0002351784570000043
是车辆j在t时刻的横纵坐标。
由于车辆行驶方向相对固定,行人往往更关注于即将与自己相撞的车辆,若车辆与行人相对而行,行人大概率会修正自己的轨迹以避让或加速前进,若车辆与行人背道而行,车辆的运动状态对行人的影响相对较小。为了量化行人与车辆的方向对行人轨迹的影响,设计方向注意系数
Figure BDA0002351784570000044
来计算栅格地图上各点的权重:
Figure BDA0002351784570000045
其中
Figure BDA0002351784570000046
分别是t、t-1时刻被预测行人i与车辆j之间的距离,c是校准方向系数。
因此,人-车交互输入
Figure BDA0002351784570000047
为:
Figure BDA0002351784570000048
其中,
Figure BDA0002351784570000049
是在t时刻、第i个行人对车辆的地图构建的矩阵,αmn(m,n)用来判断第j个车辆是否在构建的地图内。因此步骤A中LSTM层C的输出为:
Figure BDA00023517845700000410
Figure BDA00023517845700000411
是行人i在t时刻的LSTM层C的输出,W3是LSTM层C的权重。
C、建立人车交互的LSTM神经网络的输出
将步骤B中LSTM层A、LSTM层B和LSTM层C的三个输出链接到一起输入到LSTM层D中,输出预测的行人轨迹,如下式所示:
Figure BDA00023517845700000412
Figure BDA00023517845700000413
Figure BDA0002351784570000051
其中
Figure BDA0002351784570000052
表示链接运算符,
Figure BDA0002351784570000053
是LTSM层D的输入,
Figure BDA0002351784570000054
是LTSM层D的输出,W4是LTSM层D的权重。
Figure BDA0002351784570000055
是最终预测到的行人轨迹坐标,Wo,bo分别是LTSM层D的权重和偏移量。
本发明的效果和益处是:
1、本发明选用行人的前进方向和速度作为输入,更直观的表现出邻居和车辆对当前行人运动的影响。
2、本发明引入邻居行人和车辆的影响作为“社会信息”,与行人轨迹共同作为输入,运用分层编码的模式构建神经网络,能够解决行人受社会因素影响所发生轨迹改变的问题,提高预测精度。
3、本发明针对于人-车交互的“社会信息”方面,提出方向注意力函数,用来区分不同方向的车辆对行人的影响,以提高“社会信息”的精度,进而提高行人轨迹预测精度。
附图说明
本发明共有附图3张,其中:
图1是网络基本结构图。
图2是人-人栅格地图构建图。
图3是人-车栅格地图构建图。
具体实施方式
下面结合附图对本发明进行进一步地描述。以DUT环形路口数据集为例对本发明进行进一步的分析和说明。
A、按图1所示,构建人车交互的LSTM神经网络;
B、建立多层神经网络的输入;
B1、输入当前行人轨迹;
B2、输入人-人交互信息;
将步骤B2中的扇形区域划分为如图2所示的4×4共16个网格,构成人-人栅格地图,人-人栅格地图内的数字即每个网格内的人数,因此可以将栅格地图写成4×4的矩阵的形式,不同网格之内的行人的数量构成4×4的矩阵中的元素;
B3、输入人-车交互信息;
将步骤B3中圆形地图分为2×2大小的四个网格,构建人-车栅格地图;
C、建立人车交互的LSTM神经网络的输出;
D、评价预测结果;
用训练神经网络的预测值与目标值的均方误差MSE来评价神经网络预测的精确度,MSE的值越小,预测的精确度越高。当MSE值小于设定的误差目标值,即完成对神经网络的训练,若MSE值大于设定的误差目标值,需重新调整神经网络参数,再进行训练。
本发明不局限于本实施例,任何在本发明披露的技术范围内的等同构思或者改变,均列为本发明的保护范围。

Claims (1)

1.一种基于人车交互的LSTM神经网络行人轨迹预测方法,其特征在于:包括以下步骤:
A、构建人车交互的LSTM神经网络
所述的人车交互的LSTM神经网络包括行人轨迹输入、车辆轨迹输入、4个LSTM层和预测轨迹层,所述的4个LSTM层分别为LSTM层A、LSTM层B、LSTM层C和LSTM层D,所述的LSTM层A、LSTM层B、LSTM层C的输出端链接后输入到LSTM层D;所述的LSTM层A的输入端接收行人轨迹输入,所述的LSTM层B的输入端经人-人交互栅格地图连接收行人轨迹输入,所述的LSTM层C的输入端经方向权重计算模块和人-车交互栅格地图接收车辆轨迹输入,所述的LSTM层D的输出端为预测到的轨迹;
所述的LSTM层A对行人轨迹输入进行编码;
所述的LSTM层B对符合人-人交互栅格地图位置条件的行人轨迹输入进行编码;
所述的LSTM层C对方向权重计算模块的输出进行编码,所述的方向权重计算模块对符合人-车交互栅格地图位置条件的车辆轨迹输入进行编码;
所述的LSTM层D对LSTM层A、LSTM层B和LSTM层C链接后的输出进行解码和计算,得到预测的行人轨迹;
B、建立多层神经网络的输入
B1、输入当前行人轨迹
行人行走过程中,若没有其他障碍物阻挡,会沿原来的运动方向一直前进,若遇到其他车辆或行人,会修正自己的运动轨迹,这种修正行为最直观的体现在行人的前进的方向和速度上;行人会依据周边环境,修正自己的方向和速度,进而改变自己未来的轨迹;因此,在行人轨迹预测问题中,使用行人的前进方向和速度作为当前行人轨迹的输入变量;
首先假定每个场景中的行人以当前场景为标准坐标系,定义每个时刻的所有行人坐标,时间以帧为单位;将一段行人时间序列分为观察帧和预测帧,取t~t+obs为观察帧,t+obs+1~t+obs+pred为预测帧,其中obs、pred分别为观察帧和预测帧的长度,单位为帧数,则预测问题变成分段预测问题,其输入数据是行人在过去一段时间、每一帧相对于上一帧行人的转向角和行人的速度;具体公式如下:
Figure FDA0002351784560000021
Figure FDA0002351784560000022
Figure FDA0002351784560000023
Figure FDA0002351784560000024
Figure FDA0002351784560000025
Figure FDA0002351784560000026
其中,
Figure FDA0002351784560000027
是观察帧序列中的行人i位置,
Figure FDA0002351784560000028
是观察帧序列中行人i的速度,
Figure FDA0002351784560000029
是t时刻行人i在x轴方向的速度,单位为m/s;
Figure FDA00023517845600000210
是t时刻行人i在y轴方向的速度,单位为m/s;
Figure FDA00023517845600000211
是观察帧序列中,行人i的方向角,单位为rad;
Figure FDA00023517845600000212
是行人i的输入序列,
Figure FDA00023517845600000213
是行人i的输出序列;
其中
Figure FDA00023517845600000214
分别为第i个行人在第t时刻的x、y坐标;将输入值输入到步骤A中的LSTM层A,输出为:
Figure FDA00023517845600000215
其中
Figure FDA00023517845600000216
是LSTM层A的输出,W1是LSTM层A的权重;
B2、输入人-人交互信息
建立扇形栅格地图的方式来衡量当前预测行人周围的行人状况,以当前行人为圆心,r为半径的扇形区域为人-人社交感兴趣区域,在这个区域中的行人称为当前行人的“邻居”,将扇形区域划分为a×b个网格,构成栅格地图;将栅格地图写成a×b的矩阵的形式,不同网格之内的行人的数量构成a×b的矩阵中的元素,如下式所示:
Figure FDA00023517845600000217
其中,1ab(·)是判定邻居行人j是否在感兴趣区域中网格(a,b)上的判别函数;若在网格(a,b)中则为1;N是半径为r的扇形感兴趣区域,
Figure FDA0002351784560000031
是预测行人i与邻居行人j之间的欧氏距离,
Figure FDA0002351784560000032
是被预测行人i与邻居行人j位置连线与扇形左侧边的夹角;
Figure FDA0002351784560000033
作为输入,输入到步骤A中建立的LSTM层B中,则输出为:
Figure FDA0002351784560000034
Figure FDA0002351784560000035
是行人i在时刻t的LSTM层B的输出,W2是LSTM层B的权重;
B3、输入人-车交互信息
建立圆形的栅格地图来表达车辆与行人交互的邻域,以当前行人为圆心R为半径,在圆形区域内的车辆为行人关注的车辆,将圆形地图分为m×n大小的四个网格,构建行人对车辆的地图矩阵如下:
Figure FDA0002351784560000036
其中,1mn(·)是判定车辆j是否在感兴趣区域中网格(m,n)上的判别函数;若在网格(m,n)中则为1;N是半径为R的圆形兴趣区域,
Figure FDA0002351784560000037
是车辆j在t时刻的横纵坐标;
由于车辆行驶方向相对固定,行人往往更关注于即将与自己相撞的车辆,若车辆与行人相对而行,行人大概率会修正自己的轨迹以避让或加速前进,若车辆与行人背道而行,车辆的运动状态对行人的影响相对较小;为了量化行人与车辆的方向对行人轨迹的影响,设计方向注意系数ft i,j来计算栅格地图上各点的权重:
Figure FDA0002351784560000038
其中
Figure FDA0002351784560000039
分别是t、t-1时刻被预测行人i与车辆j之间的距离,c是校准方向系数;
因此,人-车交互输入Vt i(m,n)为:
Figure FDA00023517845600000310
其中,
Figure FDA00023517845600000311
是在t时刻、第i个行人对车辆的地图构建的矩阵,αmn(m,n)用来判断第j个车辆是否在构建的地图内;因此步骤A中LSTM层C的输出为:
Figure FDA00023517845600000312
Figure FDA0002351784560000041
是行人i在t时刻的LSTM层C的输出,W3是LSTM层C的权重;
C、建立人车交互的LSTM神经网络的输出
将步骤B中LSTM层A、LSTM层B和LSTM层C的三个输出链接到一起输入到LSTM层D中,输出预测的行人轨迹,如下式所示:
Figure FDA0002351784560000042
Figure FDA0002351784560000043
Figure FDA0002351784560000044
其中
Figure FDA0002351784560000045
表示链接运算符,
Figure FDA0002351784560000046
是LTSM层D的输入,rt i是LTSM层D的输出,W4是LTSM层D的权重;
Figure FDA0002351784560000047
是最终预测到的行人轨迹坐标,Wo,bo分别是LTSM层D的权重和偏移量。
CN201911418564.6A 2019-12-31 2019-12-31 一种基于人车交互的lstm神经网络行人轨迹预测方法 Active CN111161322B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911418564.6A CN111161322B (zh) 2019-12-31 2019-12-31 一种基于人车交互的lstm神经网络行人轨迹预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911418564.6A CN111161322B (zh) 2019-12-31 2019-12-31 一种基于人车交互的lstm神经网络行人轨迹预测方法

Publications (2)

Publication Number Publication Date
CN111161322A true CN111161322A (zh) 2020-05-15
CN111161322B CN111161322B (zh) 2022-10-18

Family

ID=70560400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911418564.6A Active CN111161322B (zh) 2019-12-31 2019-12-31 一种基于人车交互的lstm神经网络行人轨迹预测方法

Country Status (1)

Country Link
CN (1) CN111161322B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931905A (zh) * 2020-07-13 2020-11-13 江苏大学 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法
CN111932882A (zh) * 2020-08-13 2020-11-13 广东飞达交通工程有限公司 一种基于图像识别的道路事故实时预警系统、方法和设备
CN112215423A (zh) * 2020-10-13 2021-01-12 西安交通大学 一种基于趋势引导与稀疏交互的行人轨迹预测方法及系统
CN112215337A (zh) * 2020-09-30 2021-01-12 江苏大学 一种基于环境注意力神经网络模型的车辆轨迹预测方法
CN112270226A (zh) * 2020-10-16 2021-01-26 淮阴工学院 一种基于多特征提取和多注意力机制的行人轨迹预测方法
CN112541449A (zh) * 2020-12-18 2021-03-23 天津大学 一种基于无人机航拍视角的行人轨迹预测方法
CN113837298A (zh) * 2021-09-28 2021-12-24 中国科学技术大学先进技术研究院 基于深度学习的智能车辆周边行人行为预测方法和系统
CN114446046A (zh) * 2021-12-20 2022-05-06 上海智能网联汽车技术中心有限公司 一种基于lstm模型的弱势交通参与者轨迹预测方法
CN114462667A (zh) * 2021-12-20 2022-05-10 上海智能网联汽车技术中心有限公司 一种基于sfm-lstm神经网络模型的过街行人轨迹预测方法
CN114511999A (zh) * 2020-11-17 2022-05-17 郑州宇通客车股份有限公司 一种行人行为预测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635793A (zh) * 2019-01-31 2019-04-16 南京邮电大学 一种基于卷积神经网络的无人驾驶行人轨迹预测方法
CN110414365A (zh) * 2019-07-03 2019-11-05 上海交通大学 基于社会力模型的过街行人轨迹预测方法、系统及介质
CN110610271A (zh) * 2019-09-17 2019-12-24 北京理工大学 一种基于长短记忆网络的多重车辆轨迹预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635793A (zh) * 2019-01-31 2019-04-16 南京邮电大学 一种基于卷积神经网络的无人驾驶行人轨迹预测方法
CN110414365A (zh) * 2019-07-03 2019-11-05 上海交通大学 基于社会力模型的过街行人轨迹预测方法、系统及介质
CN110610271A (zh) * 2019-09-17 2019-12-24 北京理工大学 一种基于长短记忆网络的多重车辆轨迹预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
权波等: "基于LSTM的船舶航迹预测模型", 《计算机科学》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931905B (zh) * 2020-07-13 2024-05-14 江苏大学 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法
CN111931905A (zh) * 2020-07-13 2020-11-13 江苏大学 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法
CN111932882A (zh) * 2020-08-13 2020-11-13 广东飞达交通工程有限公司 一种基于图像识别的道路事故实时预警系统、方法和设备
CN112215337A (zh) * 2020-09-30 2021-01-12 江苏大学 一种基于环境注意力神经网络模型的车辆轨迹预测方法
CN112215337B (zh) * 2020-09-30 2024-05-14 江苏大学 一种基于环境注意力神经网络模型的车辆轨迹预测方法
CN112215423B (zh) * 2020-10-13 2023-06-06 西安交通大学 一种基于趋势引导与稀疏交互的行人轨迹预测方法及系统
CN112215423A (zh) * 2020-10-13 2021-01-12 西安交通大学 一种基于趋势引导与稀疏交互的行人轨迹预测方法及系统
CN112270226A (zh) * 2020-10-16 2021-01-26 淮阴工学院 一种基于多特征提取和多注意力机制的行人轨迹预测方法
CN112270226B (zh) * 2020-10-16 2024-04-02 淮阴工学院 一种基于多特征提取和多注意力机制的行人轨迹预测方法
CN114511999B (zh) * 2020-11-17 2023-09-01 宇通客车股份有限公司 一种行人行为预测方法及装置
CN114511999A (zh) * 2020-11-17 2022-05-17 郑州宇通客车股份有限公司 一种行人行为预测方法及装置
CN112541449A (zh) * 2020-12-18 2021-03-23 天津大学 一种基于无人机航拍视角的行人轨迹预测方法
CN113837298B (zh) * 2021-09-28 2023-07-18 中国科学技术大学先进技术研究院 基于深度学习的智能车辆周边行人行为预测方法和系统
CN113837298A (zh) * 2021-09-28 2021-12-24 中国科学技术大学先进技术研究院 基于深度学习的智能车辆周边行人行为预测方法和系统
CN114462667A (zh) * 2021-12-20 2022-05-10 上海智能网联汽车技术中心有限公司 一种基于sfm-lstm神经网络模型的过街行人轨迹预测方法
CN114446046A (zh) * 2021-12-20 2022-05-06 上海智能网联汽车技术中心有限公司 一种基于lstm模型的弱势交通参与者轨迹预测方法

Also Published As

Publication number Publication date
CN111161322B (zh) 2022-10-18

Similar Documents

Publication Publication Date Title
CN111161322B (zh) 一种基于人车交互的lstm神经网络行人轨迹预测方法
JP7532615B2 (ja) 自律型車両の計画
CN111931905B (zh) 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法
Cui et al. Deep kinematic models for kinematically feasible vehicle trajectory predictions
US11157784B2 (en) Explainable learning system and methods for autonomous driving
KR102306939B1 (ko) V2x 통신 및 이미지 처리를 이용한 정보 융합을 통해 자율 주행의 단기 경로를 플래닝하기 위한 방법 및 장치
Wei et al. A behavioral planning framework for autonomous driving
CN107168305A (zh) 路口场景下基于Bezier和VFH的无人车轨迹规划方法
EP3822852B1 (en) Method, apparatus, computer storage medium and program for training a trajectory planning model
CN110244701A (zh) 用于基于自动生成的课程序列的自主车辆的强化学习的方法和装置
US20220073101A1 (en) Autonomous Parking with Hybrid Exploration of Parking Space
CN114379595B (zh) 基于车辆行为特征与环境交互信息的车辆轨迹预测方法
Mouhagir et al. A markov decision process-based approach for trajectory planning with clothoid tentacles
CN114281084A (zh) 一种基于改进a*算法的智能车全局路径规划方法
JP2024519299A (ja) 未知環境におけるロボットナビゲーションのための方法およびシステム
WO2023242223A1 (en) Motion prediction for mobile agents
CN114967701A (zh) 一种动态环境下移动机器人自主导航方法
CN112857370A (zh) 一种基于时序信息建模的机器人无地图导航方法
US20240176989A1 (en) Trajectory predicting methods and systems
CN115937821A (zh) 一种全栈自动驾驶规划方法及其统一架构系统
US20240025455A1 (en) Method of determining driving plan for autonomous vehicle based on road user prediction, computing device for performing the same, and recording medium on which program for performing the same is recorded
CN117408406A (zh) 一种规划耦合的多目标车辆轨迹预测方法及系统
CN115092141B (zh) 应用于自动驾驶车辆变道超车的轨迹规划方法及设备
WO2023148298A1 (en) Trajectory generation for mobile agents
CN116202526A (zh) 有限视场下结合双重卷积网络及循环神经网络的人群导航方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant