CN115071762A - 面向城市场景下行人轨迹预测方法、模型及存储介质 - Google Patents

面向城市场景下行人轨迹预测方法、模型及存储介质 Download PDF

Info

Publication number
CN115071762A
CN115071762A CN202211002636.0A CN202211002636A CN115071762A CN 115071762 A CN115071762 A CN 115071762A CN 202211002636 A CN202211002636 A CN 202211002636A CN 115071762 A CN115071762 A CN 115071762A
Authority
CN
China
Prior art keywords
track
scene
prediction
sequence
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211002636.0A
Other languages
English (en)
Other versions
CN115071762B (zh
Inventor
陈雪梅
韩欣彤
孔令兴
肖龙
姚诚达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Huichuang Information Technology Co ltd
Advanced Technology Research Institute of Beijing Institute of Technology
Original Assignee
Shandong Huichuang Information Technology Co ltd
Advanced Technology Research Institute of Beijing Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Huichuang Information Technology Co ltd, Advanced Technology Research Institute of Beijing Institute of Technology filed Critical Shandong Huichuang Information Technology Co ltd
Priority to CN202211002636.0A priority Critical patent/CN115071762B/zh
Publication of CN115071762A publication Critical patent/CN115071762A/zh
Application granted granted Critical
Publication of CN115071762B publication Critical patent/CN115071762B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

本申请涉及自动驾驶技术领域,尤其涉及一种面向城市场景下行人轨迹预测方法、模型及存储介质,方法包括:用向量表示各智能体的轨迹序列,并基于层级的网络结构得到预测目标的空间交互特征;利用LSTM网络提取预测目标历史轨迹中的轨迹时序特征;利用多头注意力机制对空间交互特征和轨迹时序特征进行融合得到场景上下文特征;对场景上下文特征进行解码输出预测目标的未来轨迹。以场景向量特征作为输入,能直接学习场景中的关键交互信息,将空间交互特征和轨迹时序特征有效结合,通过对周边智能体分配不同的注意力,使模型更加关注对预测目标产生较大影响的个体,从而有助于提高复杂城市道路场景中行人轨迹的预测效果。

Description

面向城市场景下行人轨迹预测方法、模型及存储介质
技术领域
本申请涉及自动驾驶的技术领域,尤其是涉及一种面向城市场景下行人轨迹预测方法、模型及存储介质。
背景技术
随着科技的高速发展和汽车智能化时代的到来,自动驾驶汽车将在未来智能交通系统中占据极其重要的地位。
自动驾驶车辆在人车混行的城市交叉口行驶时需要特别关注行人运动,通过准确预测行人的未来运动轨迹,可以确保自动驾驶车辆及时避让以保证行车安全。行人作为交通场景中最为灵活、随机的个体,其运动高度发散,意图难以确定,与其他交通参与者常存在各种空间和时间上的交互,极易受到周边智能体的影响。对于自动驾驶车辆而言,对行人行为的理解和轨迹的预测是一个难点。
传统的行人轨迹预测方法主要建立在各种时序模型上,例如隐马尔可夫模型、高斯过程等。这类方法一般通过人为地设计时序递推公式来生成未来轨迹,具有严格的数学证明,可解释性强。但这些算法往往会引入一些苛刻的条件假设,在行人轨迹预测这种复杂问题上效果比较差,难以有效帮助自动驾驶车辆进行合理决策并保证行车安全。
发明内容
为了提高复杂城市道路场景中行人轨迹的预测效果,本申请提供一种面向城市场景下行人轨迹预测方法、模型及存储介质。
第一方面,本申请提供的一种面向城市场景下行人轨迹预测方法,采用如下的技术方案:
一种面向自动驾驶的城市场景下行人轨迹预测方法,包括:
用向量表示各智能体的轨迹序列,并基于层级的网络结构进行交互编码,得到预测目标的空间交互特征;
获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹中的轨迹时序特征;
利用多头注意力机制对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征;
对所述场景上下文特征进行解码,输出预测目标的未来轨迹。
通过采用上述技术方案,以场景向量特征作为输入,能直接学习场景中的关键交互信息。另外,基于多头注意力机制能将空间交互特征和轨迹时序特征有效结合,通过对周边智能体分配不同的注意力,使模型更加关注对预测目标产生较大影响的个体,从而有助于提高复杂城市道路场景中行人轨迹的预测效果。
可选的,所述用向量表示各智能体的轨迹序列,并基于层级的网络结构进行交互编码,得到预测目标的空间交互特征步骤之前,还包括:
基于Argoverse运动预测数据集获取车辆轨迹序列和高精地图数据;
对所述车辆轨迹序列进行预处理,得到包含预测目标和周边智能体的轨迹片段;
根据观测时长最够一帧的智能体位置,筛选在交互范围内的周边智能体轨迹,最终得到长度为观测时长的预测目标和周边智能体的轨迹序列。
可选的,所述根据观测时长最够一帧的智能体位置,筛选在交互范围内的周边智能体轨迹,最终得到长度为观测时长的预测目标和周边智能体的轨迹序列步骤,具体包括:
根据观测时长最够一帧的智能体位置,筛选在交互范围内的周边智能体轨迹,删除静止目标及长度不足设定长度的轨迹,对不完整的轨迹进行插值补充,得到长度为观测时长的预测目标和周边智能体的轨迹序列。
可选的,所述用向量表示各智能体的轨迹序列,并基于层级的网络结构进行交互编码,得到预测目标的空间交互特征步骤,具体包括:
用向量表示各智能体的轨迹序列,获取向量特征,并根据不同时刻的向量特征集合生成对应的轨迹序列;
将所述向量特征映射到高维空间,并在时间维度采用最大池化,得到与轨迹序列对应的高阶特征向量;
利用图注意力网络对轨迹序列特征进行高阶交互,得到预测目标的空间交互特征;其中,所述轨迹序列特征为高阶特征向量的集合。
可选的,所述获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹中的轨迹时序特征步骤,具体包括:
获取预测目标的历史轨迹信息;其中,预测目标的历史轨迹信息用位置、速度和航向角组成的多维特征向量表示;
将所述维特征向量映射到高维空间,获得高维特征向量;
将所述高维特征向量输入LSTM网络,输出轨迹时序特征。
可选的,所述利用多头注意力机制对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征步骤,具体包括:
以所述空间交互特征作为多头注意力机制的键和值,所述轨迹时序特征作为多头注意力机制的查询向量,评估预测目标和周边智能体的关联程度;
根据所述关联程度对不同空间区域加权,计算场景上下文特征。
可选的,所述对所述场景上下文特征进行解码,输出预测目标的未来轨迹步骤,具体包括:
利用LSTM网络作为解码器对所述场景上下文特征进行解码,并利用t时刻的隐藏状态预测下一个时间步长t+1时刻的轨迹位置;
通过MLP层对轨迹预测时长内的隐藏状态序列作线性变换,输出预测目标的未来轨迹;其中,所述隐藏状态序列为轨迹预测时长内所有隐藏状态的集合。
第二方面,本申请提供的一种面向城市场景下行人轨迹预测模型,采用如下的技术方案:
一种面向自动驾驶的城市场景下行人轨迹预测模型,包括:
空间交互模块,用于采用向量表示预测目标周边智能体的轨迹,并基于层级的网络结构提取预测目标的空间交互特征;
轨迹编码模块,用于获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹信息中的轨迹时序特征;
特征融合模块,用于对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征;
轨迹输出模块,用于对场景上下文特征进行解码,输出预测目标的未来轨迹。
第三方面,本申请提供的一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,存储有能够被处理器加载并执行如第一方面所述的计算机程序。
综上所述,本申请包括以下至少一种有益技术效果:
以场景向量特征作为输入,能直接学习场景中的关键交互信息。另外,基于多头注意力机制能将空间交互特征和轨迹时序特征有效结合,通过对周边智能体分配不同的注意力,使模型更加关注对预测目标产生较大影响的个体,从而有助于提高复杂城市道路场景中行人轨迹的预测效果。
附图说明
图1是本申请实施例示出的自动驾驶系统架构。
图2是本申请实施例示出的行人轨迹预测方法的流程图。
图3是本申请实施例示出的行人轨迹预测方法中轨迹数据预处理的示意图,其中(a)部分是X方向的对比图,(b)部分是Y方向的对比图。
图4是本申请实施例示出的行人轨迹预测方法中轨迹数据处理的流程图。
图5是本申请实施例示出的行人轨迹预测方法中用于体现步骤400的网络结构图。
图6是本申请实施例示出的行人轨迹预测方法中用于体现步骤500的网络结构图。
图7是本申请实施例示出的行人轨迹预测方法中用于体现步骤600的网络结构图。
图8是本申请实施例示出的行人轨迹预测方法中用于体现步骤700的网络结构图。
图9是本申请实施例示出的行人轨迹预测模型的架构图。
具体实施方式
下面结合图1-图9对本申请作进一步详细说明。
首先,对本申请实施例涉及的名词进行介绍。
FC层,是全连接层(Full Connection)的缩写,在整个卷积神经网络中起到“分类器”的作用;全连接层本质是由一个特征空间线性变换到另一个特征空间,其核心计算是矩阵乘。在卷积神经网络中,全连接层通常出现在最后,用于对前面设计的特征做加权和。
如图1所示,一个完整的自动驾驶系统主要由感知模块、定位模块、决策规划模块和控制模块组成,感知模块通过摄像头、激光雷达等传感器感知自动驾驶车辆周围的环境,对周边环境因素进行检测并对动态目标进行跟踪。定位模块根据惯性导航系统、GPS和高精地图等确定自动驾驶车辆位姿信息。决策规划模块根据感知和定位结果,对动态目标进行运动预测,通过自动驾驶车辆行为决策来规划出一条高效、无碰撞的路径。最后,底层执行机构根据控制信号实现车辆的横纵向控制。运动预测作为决策规划模块的一部分,连接感知模块和决策规划模块,通过订阅上游感知模块对动态目标的跟踪结果、道路结构信息,综合考量高精地图、智能体间交互和目标意图等信息,预测各类动态目标未来一段时间内可能的运动变化,进而影响自动驾驶车辆的行为决策和路径规划。
行人作为交通场景中最为灵活、随机的个体,其运动高度发散,意图难以确定,与其他交通参与者常存在各种空间和时间上的交互,极易受到周边智能体的影响,因此行人轨迹预测需要重点考虑各智能体间的交互。
本申请公开了一种面向城市场景下行人轨迹预测方法,同时提取预测目标的轨迹时序特征和智能体间的空间交互特征,对复杂城市道路场景的行人轨迹具有良好的预测效果。
作为行人轨迹预测方法的一种实施方式,如图2所示,包括以下步骤:
100,基于Argoverse运动预测数据集获取车辆轨迹序列和高精地图数据。
200,对所述车辆轨迹序列进行预处理,得到包含预测目标和周边智能体的轨迹片段。
300,根据观测时长最后一帧的智能体位置,筛选在交互范围内的周边智能体轨迹,最终得到长度为观测时长的预测目标和周边智能体的轨迹序列。
需要说明的是,利用Argoverse运动预测数据集提供车辆轨迹序列和高精地图数据。具体的,使用与Argo AI自动驾驶技术完全集成的采集车收集据,采集车的主传感器包括2个堆叠的VLP-32C激光雷达、7个呈环状分布的200万像素摄像头和1个500万像素双目摄像头;Argo AI自动驾驶技术在接近300公里的城市交通场景中跟踪了近1006个小时的物体,提取了324557个5秒的运动预测场景序列,包括路段行驶,交叉口行驶,行人通行等多种场景。Argoverse 运动预测数据集提供了较为丰富的场景和运动信息,同时增加了交叉口等典型人车交互场景下的行人标注。
本申请基于上述Argoverse运动预测数据集构建行人轨迹预测模型的训练集和验证集。具体的,根据轨迹预测任务的需求,将Argoverse运动预测数据集中每条数据处理成8s的轨迹片段,包含预测目标P、周边智能体
Figure 930270DEST_PATH_IMAGE002
的轨迹。行人轨迹的观测时长
Figure DEST_PATH_IMAGE003
=3s,预测时长
Figure 633915DEST_PATH_IMAGE004
=5s。
结合图3,由于Argoverse原始数据是基于车载传感器的感知结果处理得到,难免会存在一定的误差,本申请采用Savitzky-Golay平滑滤波器对轨迹序列进行预处理。其中,Savitzky-Golay平滑滤波器是一种基于最小二乘法拟合的滤波方式。
结合图4,为了提取有明显的交互的周边智能体,考虑到算法速度和实际需要,交互范围设为
Figure DEST_PATH_IMAGE005
=30m,根据观测时长
Figure 758866DEST_PATH_IMAGE003
最后一帧的智能体位置,筛选在交互范围R内的周边智能体轨迹,删除静止目标及长度不足0.3
Figure 102122DEST_PATH_IMAGE003
的轨迹,对不完整的轨迹进行插值补充,最终得到长度为
Figure 744456DEST_PATH_IMAGE003
的预测目标P和周边智能体
Figure 863460DEST_PATH_IMAGE002
的轨迹序列数据。
基于车辆轨迹序列和高精地图数据处理Argoverse运动预测数据集,改进后的Argoverse运动预测数据集包含的场景信息包括轨迹信息和地图信息,其中,轨迹信息包括运动信息(位置x、y,速度v,航向角
Figure 300257DEST_PATH_IMAGE006
)、尺寸信息(长度L,宽度W,高度H)以及其他信息(目标ID);地图信息包括位置信息(道路点坐标x、y)以及其他信息(是否转弯、是否位于路口以及是否有交通信号灯控制)。
400,用向量表示各智能体的空间位置信息,并基于层级的网络结构进行交互编码,得到预测目标的空间交互特征。
具体的,结合图5,步骤200包括:
401,用向量表示各智能体的空间位置信息,获取向量特征,并根据不同时刻的向量特征集合生成对应的轨迹序列;
402,将所述向量特征映射到高维空间,并在时间维度采用最大池化,得到与轨迹序列对应的高阶特征向量;
403,利用图注意力网络对轨迹序列特征进行高阶交互,得到预测目标的空间交互特征;其中,所述轨迹序列特征为高阶特征向量的集合。
需要说明的是,直接用向量表示各智能体的空间位置信息,这种方式能直接学习到有意义的场景特征,有效提取空间中的交互信息。然后利用MLP层将向量特征映射到高维空间,并在时间维度采用最大池化(Pooling),得到与轨迹序列对应的高阶特征向量;并基于图注意力网络对智能体之间的轨迹序列特征进行高阶交互建模,获得场景的空间交互特征
Figure DEST_PATH_IMAGE007
其中,智能体轨迹序列集合表示为
Figure 724285DEST_PATH_IMAGE008
Figure DEST_PATH_IMAGE009
代表预测目标的轨迹序列,
Figure 514518DEST_PATH_IMAGE010
代表预测目标周边m个其他智能体的轨迹序列,每条轨迹序列
Figure DEST_PATH_IMAGE011
为不同时刻的向量集合:
Figure 582968DEST_PATH_IMAGE012
Figure DEST_PATH_IMAGE013
Figure 315301DEST_PATH_IMAGE003
表示历史轨迹的长度20,向量
Figure 367570DEST_PATH_IMAGE014
中包含丰富的位置和语义信息,维度为8,
Figure DEST_PATH_IMAGE015
。其中,代表向量
Figure 194450DEST_PATH_IMAGE014
的起点和终点,对应前后两帧中智能体的位置;
Figure 773199DEST_PATH_IMAGE016
代表智能体的长度和宽度外观属性,
Figure DEST_PATH_IMAGE017
代表归一化的序列时间戳,
Figure 551799DEST_PATH_IMAGE018
表示向量
Figure 966731DEST_PATH_IMAGE014
与轨迹序列
Figure 754558DEST_PATH_IMAGE011
之间的从属关系,属于同一条轨迹序列的向量具有相同的
Figure 63180DEST_PATH_IMAGE018
利用MLP层将向量特征映射到高维空间,维度由8上升到64,然后在时间维度采用最大池化,得到与轨迹序列
Figure 402894DEST_PATH_IMAGE011
对应的高阶特征向量
Figure DEST_PATH_IMAGE019
Figure 898598DEST_PATH_IMAGE020
。其中,
Figure DEST_PATH_IMAGE021
表示MLP层的权重矩阵,
Figure 332859DEST_PATH_IMAGE022
代表最大池化操作。
另外,图注意力网络使用注意力机制和邻接矩阵来描述邻接节点对于目标节点的重要性,与图卷积神经网络GCN相比,通过注意力机制来对邻居节点权重自适应分配,提高了图神经网络的表达能力。利用改进后的图注意力网络GAT_v2在对轨迹序列特征
Figure DEST_PATH_IMAGE023
进行高阶交互时,每一个序列特征
Figure 355042DEST_PATH_IMAGE019
对应于图注意力网络GAT中的一个节点,每条边代表两条轨迹序列之间的关联度。
其中,图注意力网络GAT_v2通过改变线性层Linear和激活函数LeakyReLU的计算顺序,克服了传统GAT只能提供静态注意力的不足,本申请利用改进后的图注意力网络GAT_v2在对轨迹序列特征
Figure 475444DEST_PATH_IMAGE023
进行高阶交互:
Figure 130548DEST_PATH_IMAGE024
其中,
Figure DEST_PATH_IMAGE025
表示经过图注意力网络聚合后的轨迹序列特征,维度同样为64,
Figure 729019DEST_PATH_IMAGE026
代表初始化线性变换的权重矩阵,
Figure DEST_PATH_IMAGE027
由MLP层实现,用于计算两个特征之间的相似度;
Figure DEST_PATH_IMAGE029
Figure 340129DEST_PATH_IMAGE030
为激活函数,H为图注意力网络的头数,这里可以设为8;
Figure DEST_PATH_IMAGE031
为归一化的注意力分数,
Figure 999475DEST_PATH_IMAGE032
为第h头的注意力分数;
Figure DEST_PATH_IMAGE033
Figure 594405DEST_PATH_IMAGE034
分别为与结点
Figure DEST_PATH_IMAGE035
相邻的结点
Figure 871933DEST_PATH_IMAGE036
的特征向量,
Figure DEST_PATH_IMAGE037
表示特征向量
Figure 744075DEST_PATH_IMAGE033
第h头的权重矩阵,
Figure DEST_PATH_IMAGE039
Figure 330914DEST_PATH_IMAGE040
Figure DEST_PATH_IMAGE041
分别表示特征向量
Figure 396828DEST_PATH_IMAGE019
Figure 602681DEST_PATH_IMAGE033
Figure 985121DEST_PATH_IMAGE034
的权重矩阵。
对于所有智能体的轨迹序列
Figure 883807DEST_PATH_IMAGE011
对应的高阶特征向量
Figure 594274DEST_PATH_IMAGE042
,经图注意力网络GAT_v2高阶交互后的轨迹序列特征可以表示为
Figure DEST_PATH_IMAGE043
,即为预测目标的空间交互特征
Figure 213605DEST_PATH_IMAGE007
500,获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹中的轨迹时序特征。
其中,结合图6,步骤500具体包括:
501,获取预测目标的历史轨迹信息;其中,预测目标的历史轨迹信息用位置、速度和航向角组成的多维特征向量表示;
502,将所述维特征向量映射到高维空间,获得高维特征向量;
503,将所述高维特征向量输入LSTM网络,输出轨迹时序特征。
具体的,用位置、速度和航向角组成的多维特征向量
Figure 591497DEST_PATH_IMAGE044
表示预测目标的历史轨迹信息,利用LSTM网络的时序编码特性,提取预测目标历史轨迹中的时序特征
Figure 520138DEST_PATH_IMAGE045
将多维特征向量
Figure 983481DEST_PATH_IMAGE047
作为输入,首先通过一个2层MLP层将多维特征向量
Figure 796716DEST_PATH_IMAGE047
映射到高维空间,得到高维特征向量
Figure DEST_PATH_IMAGE048
,然后将该高维特征向量输入LSTM网络,输出轨迹时序特征
Figure 871857DEST_PATH_IMAGE045
Figure 971400DEST_PATH_IMAGE049
其中,
Figure DEST_PATH_IMAGE050
为结点i在观测时长t时的x坐标的位置,
Figure 656459DEST_PATH_IMAGE051
为结点i在观测时长t时的y坐标的位置,
Figure DEST_PATH_IMAGE052
为结点i在观测时长t时的速度,
Figure 617593DEST_PATH_IMAGE053
为结点i在观测时长t时的航向角;
Figure DEST_PATH_IMAGE054
Figure 297973DEST_PATH_IMAGE055
分别代表MLP层和LSTM网络的权重矩阵,h代表LSTM网络的隐藏层状态,维度是64。
600,利用多头注意力机制对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征。
其中,结合图7,步骤600具体包括:
601,以所述空间交互特征作为多头注意力机制的键和值,所述轨迹时序特征作为查询向量,评估预测目标和周边智能体的关联程度;
602,根据所述关联程度对不同空间区域加权,计算场景上下文特征。
需要说明的是,现有技术中常使用各类池化函数或者直接拼接来合并特征,这类方法往往缺乏有效的特征融合机制,可能忽略一些重要的交互信息,导致对最终的预测结果造成负面影响。
本申请采用多头注意力机制对空间交互特征
Figure 709363DEST_PATH_IMAGE007
和轨迹时序特征
Figure 881718DEST_PATH_IMAGE045
进行交汇融合,以历史轨迹的轨迹时序特征
Figure 410658DEST_PATH_IMAGE045
作为查询向量Q,空间交互特征作为多头注意力机制的键K和值V,计算预测目标与其他智能体之间的交互强弱,并分配不同的关注度,使网络更加关注对预测目标产生较大影响的个体,最终得到场景上下文特征
Figure DEST_PATH_IMAGE056
需要说明的是,多头注意力机制可以看做是一种软寻址操作:输入信息X作为容器中的存储内容,存储内容由键(Key)值(Value)对表示,对于一个键为Query的查询,需要计算容器中对应的Value。软寻址通过计算Query与所有键的相似度来决定从对应值中取出多少,即由Query与Key的相似性来计算每个Value的权重,对所有Value进行加权求和的结果就是最终的注意力分配系数Attention。
以上计算可以归纳为三个过程:
第一步:计算Query和Key的相似度
Figure 86490DEST_PATH_IMAGE057
,也称注意力分数。一般用加性模型、乘法模型、点积操作或余弦相似度实现。
Figure DEST_PATH_IMAGE058
第二步:将注意力分数用softmax函数进行归一化,突出重要元素的权重
Figure 996677DEST_PATH_IMAGE059
Figure DEST_PATH_IMAGE060
第三步:根据softmax归一化的结果计算Value的加权值。
Figure 734957DEST_PATH_IMAGE061
在Transformer中使用的注意力机制是Scaled Dot-Product Attention,计算公式如下:
Figure DEST_PATH_IMAGE062
其中,
Figure 287161DEST_PATH_IMAGE063
分别代表查询向量Query,键Key和值Value,这里
Figure 348658DEST_PATH_IMAGE065
之间的映射采用常用的点积方式,这种方式能直接建立关系映射,计算速度更快,能够降低模型的复杂度;
Figure DEST_PATH_IMAGE066
来表示被选择信息的索引位置,即
Figure 216032DEST_PATH_IMAGE035
表示第
Figure 222034DEST_PATH_IMAGE035
个输入信息;
Figure 718874DEST_PATH_IMAGE067
表示第
Figure 634878DEST_PATH_IMAGE067
个输入信息。F为采用乘法模型计算相似度时对应的可学习参数;
Figure DEST_PATH_IMAGE068
表示第
Figure 168758DEST_PATH_IMAGE035
个输入信息对应的键;
Figure 803002DEST_PATH_IMAGE069
表示第
Figure 962588DEST_PATH_IMAGE067
个输入信息对应的键与Query的相似度;
Figure DEST_PATH_IMAGE070
表示输入信息向量V中第
Figure 201939DEST_PATH_IMAGE035
个信息;
Figure DEST_PATH_IMAGE072
代表
Figure 670836DEST_PATH_IMAGE073
分数的调节银子,保证点积结果不至于过大。
多头注意力机制将网络分为多个子空间,可以关注不同层次的信息,相较于一般的注意力机制可以有效防止网络过拟合。
具体来说,空间交互特征
Figure 526796DEST_PATH_IMAGE007
作为多头注意力机制的K和V,轨迹时序特征
Figure 490073DEST_PATH_IMAGE045
作为查询向量Q,评估预测对象和周边智能体的关联程度,这本质上是一种空间软注意力机制,Attention加权作用在空间尺度上,通过对不同空间区域加权,计算场景上下文特征
Figure 115089DEST_PATH_IMAGE056
。其中场景上下文特征
Figure 646565DEST_PATH_IMAGE056
的计算公式如下:
Figure DEST_PATH_IMAGE074
其中,
Figure 334029DEST_PATH_IMAGE075
代表多头注意力机制;
Figure DEST_PATH_IMAGE076
表示多头注意力机制的权重矩阵,
Figure 100997DEST_PATH_IMAGE007
为空间交互特征,
Figure 580520DEST_PATH_IMAGE045
为轨迹时序特征,
Figure 282897DEST_PATH_IMAGE077
分别表示多个头结构,h为网络结构中头数4,
Figure DEST_PATH_IMAGE078
Figure 956192DEST_PATH_IMAGE079
Figure DEST_PATH_IMAGE080
Figure 730113DEST_PATH_IMAGE081
均为权重矩阵,
Figure DEST_PATH_IMAGE082
表示拼接操作。
700,对所述场景上下文特征进行解码,输出预测目标的未来轨迹。
其中,结合图8,步骤700具体包括:
701,利用LSTM网络作为解码器对所述场景上下文特征进行解码,并利用t时刻的隐藏状态预测下一个时间步长t+1时刻的轨迹位置;
702,通过MLP层对轨迹预测时长内的隐藏状态序列作线性变换,输出预测目标的未来轨迹;其中,所述隐藏状态序列为轨迹预测时长内所有隐藏状态的集合。
采用 LSTM网络作为解码器对未来轨迹单步预测,t时刻的预测需要LSTM网络中t-1时刻的隐藏状态
Figure 939509DEST_PATH_IMAGE083
作为输入;最后通过MLP层对轨迹预测时长
Figure 812787DEST_PATH_IMAGE004
内的隐藏状态序列
Figure DEST_PATH_IMAGE084
作线性变换,输出预测目标的未来轨迹
Figure 724111DEST_PATH_IMAGE085
。由于
Figure 442668DEST_PATH_IMAGE087
中的每个轨迹点
Figure 162363DEST_PATH_IMAGE088
服从二元混合高斯分布,由该分布的5个参数
Figure DEST_PATH_IMAGE089
表示,MLP层一共输出
Figure 49285DEST_PATH_IMAGE090
个参数。
Figure DEST_PATH_IMAGE091
其中,h代表LSTM网络的隐藏层状态,维度为64。
Figure 447905DEST_PATH_IMAGE054
Figure 235733DEST_PATH_IMAGE092
分别表示MLP层和LSTM网络的权重矩阵。
另外,将本申请与现有的主流模型Social LSTM、Social GAN、Sophie、SocialBiGAT以及Social STGCNN进行对比,验证本申请中行人轨迹预测模型的效果。
以ADE、FDE和Recall为评价指标,比较本文模型和上述主流模型的预测性能,基于Argoverse数据集的验证结果如表1.1所示。表1.1中,本申请模型的各个指标在目前主流行人轨迹预测模型中均表现优异,预测误差可以保持较低的水准。分别设置Tpred=3s和Tpred=5s研究预测时长对模型预测效果的影响,结果显示,随着Tpred增加,轨迹预测的难度和不确定性更大,所有网络的精度都显著降低。
Figure DEST_PATH_IMAGE093
因此,本申请的模型输入的是高度抽象的场景向量特征,能直接学习场景中的关键交互信息。另外,基于多头注意力机制的特征融合模块能将空间特征和时序特征有效结合,显著降低轨迹预测的误差。
基于上述面向城市场景下行人轨迹预测方法,本实施例还公开了一种面向城市场景下行人迹预测模型。
作为行人迹预测模型的一种实施方式,如图9所示,包括:
空间交互模块,用于采用向量表示预测目标周边智能体的轨迹,并基于层级的网络结构提取预测目标的空间交互特征;
轨迹编码模块,用于获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹信息中的轨迹时序特征;
特征融合模块,用于对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征;
轨迹输出模块,用于对场景上下文特征进行解码,输出预测目标的未来轨迹。
需要说明的是,训练模型前需要先定义损失函数,需要设计合适的损失函数来评估真实值和预测值间的接近程度,网络损失越小,模型的预测效果越好。对于回归问题,一般可以选用均方根误差(Root Mean Squared Error, RMSE),绝对误差(Absolute Error,AE)等作为损失函数。对于分类问题,可以用准确率,召回率以及ROC曲线等来衡量模型的性能。
由于本申请不直接估计预测目标的未来位置,而是假设预测目标每一帧的预测位置(
Figure 154141DEST_PATH_IMAGE094
,
Figure DEST_PATH_IMAGE095
)服从二元混合高斯分布,从而估计二元混合高斯分布的参数
Figure 962697DEST_PATH_IMAGE096
,其二元混合高斯的概率分布函数为:
Figure DEST_PATH_IMAGE097
其中,
Figure 723980DEST_PATH_IMAGE089
是二元混合高斯分布的参数,
Figure 441399DEST_PATH_IMAGE098
表示预测轨迹在t时刻的位置,
Figure DEST_PATH_IMAGE099
代表轨迹点
Figure 338947DEST_PATH_IMAGE098
的标准差,反映了每个轨迹点位置的不确定性,
Figure 849563DEST_PATH_IMAGE100
是相关系数,上述5个参数由输出维度为5的FC层对高维特征做线性变换得到;
Figure DEST_PATH_IMAGE101
Figure 98142DEST_PATH_IMAGE102
为该预测目标在时刻t的真实轨迹位置。
因此,在轨迹预测时长
Figure 103138DEST_PATH_IMAGE004
内,行人轨迹预测问题的概率密度函数为:
Figure DEST_PATH_IMAGE103
其中,
Figure 855194DEST_PATH_IMAGE104
为预测目标的预测轨迹序列,
Figure 536711DEST_PATH_IMAGE088
为轨迹预测时长为t时的预测轨迹,x为场景上下文特征,
Figure 538165DEST_PATH_IMAGE004
表示轨迹预测时长,N为场景中动态目标的数目。
一般可以对概率密度函数取负对数得到行人迹预测模型的损失函数:
Figure 205906DEST_PATH_IMAGE105
其中,
Figure DEST_PATH_IMAGE106
是每帧输出预测轨迹
Figure 451949DEST_PATH_IMAGE088
的二元混合高斯分布的参数。
基于改进的Argoverse 数据集对模型进行训练,数据在输入模型前需要做归一化处理。模型在TESLA V100显卡上进行多GPU训练,单块显卡的显存为32G,具体软件及硬件配置见表1.2。训练采用的Adam优化器,优化器的初始学习率设为0.0005,学习率衰减的步长设置为10,训练次数为200轮,批训练的大小设置为64。模型中每个MLP层后都接L1正则化层和激活函数Relu层。
Figure 445313DEST_PATH_IMAGE107
为验证行人轨迹预测模型各个模块的有效性,本申请基于Argoverse数据集设计了消融实验,实验结果如表1.3所示。平均位移误差(Average Displacement Error,ADE)和最终位移误差(Final Displacement Error,FDE)是轨迹预测任务常用的评价指标。表1.3显示了只有空间交互模块、只有轨迹编码模块和完整结构的消融实验结果,预测时长
Figure 527538DEST_PATH_IMAGE108
设为5s。
Figure 264550DEST_PATH_IMAGE109
可以看出,只使用轨迹时序特征,即利用LSTM网络进行特征编码和解码时,模型的推理速度较快,但是预测误差较大。基于空间交互模块的实验结果相比LSTM网络有显著提升,理论上可以取得不错的轨迹预测效果。完整结构虽然一定程度上降低了推理速度,但是有最小的ADE和FDE。消融实验结果表明,本文提出的融合场景时空特征的模型预测精度最高,验证了模型各个模块的有效性。
本申请实施例还公开了一种计算机可读存储介质,存储有能够被处理器加载并执行如上述中央摆渡车运行控制方法的计算机程序,该计算机可读存储介质例如包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。

Claims (9)

1.一种面向城市场景下行人轨迹预测方法,其特征在于,包括:
用向量表示各智能体的轨迹序列,并基于层级的网络结构进行交互编码,得到预测目标的空间交互特征;
获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹信息中的轨迹时序特征;
利用多头注意力机制对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征;
对所述场景上下文特征进行解码,输出预测目标的未来轨迹。
2.根据权利要求1所述一种面向城市场景下行人轨迹预测方法,其特征在于,所述用向量表示各智能体的轨迹序列,并基于层级的网络结构进行交互编码,得到预测目标的空间交互特征步骤之前,还包括:
基于Argoverse运动预测数据集获取车辆轨迹序列和高精地图数据;
对所述车辆轨迹序列进行预处理,得到包含预测目标和周边智能体的轨迹片段;
根据观测时长最够一帧的智能体位置,筛选在交互范围内的周边智能体轨迹,最终得到长度为观测时长的预测目标和周边智能体的轨迹序列。
3.根据权利要求2所述的一种面向城市场景下行人轨迹预测方法,其特征在于,所述根据观测时长最够一帧的智能体位置,筛选在交互范围内的周边智能体轨迹,最终得到长度为观测时长的预测目标和周边智能体的轨迹序列步骤,具体包括:
根据观测时长最够一帧的智能体位置,筛选在交互范围内的周边智能体轨迹,删除静止目标及长度不足设定长度的轨迹,对不完整的轨迹进行插值补充,得到长度为观测时长的预测目标和周边智能体的轨迹序列。
4.根据权利要求1所述的一种面向城市场景下行人轨迹预测方法,其特征在于,所述用向量表示各智能体的轨迹序列,并基于层级的网络结构进行交互编码,得到预测目标的空间交互特征步骤,具体包括:
用向量表示各智能体的轨迹序列,获取向量特征,并根据不同时刻的向量特征集合生成对应的轨迹序列;
将所述向量特征映射到高维空间,并在时间维度采用最大池化,得到与轨迹序列对应的高阶特征向量;
利用图注意力网络对轨迹序列特征进行高阶交互,得到预测目标的空间交互特征;其中,所述轨迹序列特征为高阶特征向量的集合。
5.根据权利要求1所述的一种面向城市场景下行人轨迹预测方法,其特征在于,所述获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹中的轨迹时序特征步骤,具体包括:
获取预测目标的历史轨迹信息;其中,预测目标的历史轨迹信息用位置、速度和航向角组成的多维特征向量表示;
将所述多维特征向量映射到高维空间,获得高维特征向量;
将所述高维特征向量输入LSTM网络,输出轨迹时序特征。
6.根据权利要求1所述的一种面向城市场景下行人轨迹预测方法,其特征在于,所述利用多头注意力机制对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征步骤,具体包括:
以所述空间交互特征作为多头注意力机制的键和值,所述轨迹时序特征作为多头注意力机制的查询向量,评估预测目标和周边智能体的关联程度;
根据所述关联程度对不同空间区域加权,计算场景上下文特征。
7.根据权利要求1所述的一种面向城市场景下行人轨迹预测方法,其特征在于,所述对所述场景上下文特征进行解码,输出预测目标的未来轨迹步骤,具体包括:
利用LSTM网络作为解码器对所述场景上下文特征进行解码,并利用t时刻的隐藏状态预测下一个时间步长t+1时刻的轨迹位置;
通过MLP层对轨迹预测时长内的隐藏状态序列作线性变换,输出预测目标的未来轨迹;其中,所述隐藏状态序列为轨迹预测时长内所有隐藏状态的集合。
8.一种面向城市场景下行人轨迹预测模型,其特征在于,包括:
空间交互模块,用于采用向量表示预测目标周边智能体的轨迹,并基于层级的网络结构提取预测目标的空间交互特征;
轨迹编码模块,用于获取预测目标的历史轨迹信息,并利用LSTM网络提取预测目标历史轨迹信息中的轨迹时序特征;
特征融合模块,用于对所述空间交互特征和轨迹时序特征进行交互融合,得到场景上下文特征;
轨迹输出模块,用于对场景上下文特征进行解码,输出预测目标的未来轨迹。
9.一种计算机可读存储介质,其特征在于:存储有能够被处理器加载并执行如权利要求1-7中任一种方法中的计算机程序。
CN202211002636.0A 2022-08-22 2022-08-22 面向城市场景下行人轨迹预测方法、模型及存储介质 Active CN115071762B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211002636.0A CN115071762B (zh) 2022-08-22 2022-08-22 面向城市场景下行人轨迹预测方法、模型及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211002636.0A CN115071762B (zh) 2022-08-22 2022-08-22 面向城市场景下行人轨迹预测方法、模型及存储介质

Publications (2)

Publication Number Publication Date
CN115071762A true CN115071762A (zh) 2022-09-20
CN115071762B CN115071762B (zh) 2022-12-16

Family

ID=83244294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211002636.0A Active CN115071762B (zh) 2022-08-22 2022-08-22 面向城市场景下行人轨迹预测方法、模型及存储介质

Country Status (1)

Country Link
CN (1) CN115071762B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115330360A (zh) * 2022-10-13 2022-11-11 广东泳华科技有限公司 一种基于多智能体仿真技术的行人轨迹推算方法
CN116245183A (zh) * 2023-02-28 2023-06-09 清华大学 基于图神经网络的交通场景泛化理解方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210035310A1 (en) * 2019-07-29 2021-02-04 Honda Motor Co., Ltd. Trajectory prediction
CN113256681A (zh) * 2021-05-26 2021-08-13 北京易航远智科技有限公司 基于时空注意力机制的行人轨迹预测方法
CN113362367A (zh) * 2021-07-26 2021-09-07 北京邮电大学 一种基于多精度交互的人群轨迹预测方法
WO2021180130A1 (zh) * 2020-03-13 2021-09-16 商汤集团有限公司 轨迹预测
CN113538506A (zh) * 2021-07-23 2021-10-22 陕西师范大学 基于全局动态场景信息深度建模的行人轨迹预测方法
CN114022847A (zh) * 2021-11-23 2022-02-08 清华大学 一种智能体轨迹预测方法、系统、设备和存储介质
CN114638408A (zh) * 2022-03-03 2022-06-17 南京航空航天大学 一种基于时空信息的行人轨迹预测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210035310A1 (en) * 2019-07-29 2021-02-04 Honda Motor Co., Ltd. Trajectory prediction
WO2021180130A1 (zh) * 2020-03-13 2021-09-16 商汤集团有限公司 轨迹预测
CN113256681A (zh) * 2021-05-26 2021-08-13 北京易航远智科技有限公司 基于时空注意力机制的行人轨迹预测方法
CN113538506A (zh) * 2021-07-23 2021-10-22 陕西师范大学 基于全局动态场景信息深度建模的行人轨迹预测方法
CN113362367A (zh) * 2021-07-26 2021-09-07 北京邮电大学 一种基于多精度交互的人群轨迹预测方法
CN114022847A (zh) * 2021-11-23 2022-02-08 清华大学 一种智能体轨迹预测方法、系统、设备和存储介质
CN114638408A (zh) * 2022-03-03 2022-06-17 南京航空航天大学 一种基于时空信息的行人轨迹预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
余力等: "基于多头注意力对抗机制的复杂场景行人轨迹预测", 《计算机学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115330360A (zh) * 2022-10-13 2022-11-11 广东泳华科技有限公司 一种基于多智能体仿真技术的行人轨迹推算方法
CN116245183A (zh) * 2023-02-28 2023-06-09 清华大学 基于图神经网络的交通场景泛化理解方法及装置
CN116245183B (zh) * 2023-02-28 2023-11-07 清华大学 基于图神经网络的交通场景泛化理解方法及装置

Also Published As

Publication number Publication date
CN115071762B (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
Messaoud et al. Attention based vehicle trajectory prediction
Messaoud et al. Non-local social pooling for vehicle trajectory prediction
Chen et al. Importance-aware semantic segmentation for autonomous vehicles
CN115071762B (zh) 面向城市场景下行人轨迹预测方法、模型及存储介质
CN110796168A (zh) 一种基于改进YOLOv3的车辆检测方法
Karle et al. Scenario understanding and motion prediction for autonomous vehicles—review and comparison
CN112651995B (zh) 基于多功能聚合和跟踪模拟训练的在线多目标跟踪方法
Yang et al. Online multi-object tracking using multi-function integration and tracking simulation training
CN115009275B (zh) 面向城市场景下车辆轨迹预测方法、系统及存储介质
CN110530371B (zh) 一种基于深度强化学习的室内地图匹配方法
CN110570035A (zh) 同时建模时空依赖性和每日流量相关性的人流量预测系统
Hu et al. Vehicle trajectory prediction considering aleatoric uncertainty
Kawasaki et al. Multimodal trajectory predictions for autonomous driving without a detailed prior map
CN114881339A (zh) 车辆轨迹预测方法、系统、计算机设备及存储介质
CN113435356B (zh) 一种克服观察噪声与感知不确定性的轨迹预测方法
Wang et al. Reconstruction of missing trajectory data: a deep learning approach
Bharilya et al. Machine learning for autonomous vehicle's trajectory prediction: A comprehensive survey, challenges, and future research directions
WO2023155903A1 (en) Systems and methods for generating road surface semantic segmentation map from sequence of point clouds
Gupta et al. Object detection for connected and autonomous vehicles using CNN with attention mechanism
Gao et al. Probabilistic multi-modal expected trajectory prediction based on LSTM for autonomous driving
CN115861944A (zh) 一种基于激光雷达的交通目标检测系统
CN113119996B (zh) 一种轨迹预测方法、装置、电子设备及存储介质
Gao et al. Deep learning‐based hybrid model for the behaviour prediction of surrounding vehicles over long‐time periods
Wang et al. Real-time Semantic Segmentation of LiDAR Point Clouds on Edge Devices for Unmanned Systems
CN117036966B (zh) 地图中点位特征的学习方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant