CN113281718B - 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法 - Google Patents

一种基于激光雷达场景流估计的3d多目标跟踪系统及方法 Download PDF

Info

Publication number
CN113281718B
CN113281718B CN202110738246.9A CN202110738246A CN113281718B CN 113281718 B CN113281718 B CN 113281718B CN 202110738246 A CN202110738246 A CN 202110738246A CN 113281718 B CN113281718 B CN 113281718B
Authority
CN
China
Prior art keywords
scene flow
flow estimation
layer
bounding box
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110738246.9A
Other languages
English (en)
Other versions
CN113281718A (zh
Inventor
王海
李洋
蔡英凤
李祎承
陈龙
陈小波
刘擎超
孙晓强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202110738246.9A priority Critical patent/CN113281718B/zh
Publication of CN113281718A publication Critical patent/CN113281718A/zh
Application granted granted Critical
Publication of CN113281718B publication Critical patent/CN113281718B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种基于激光雷达场景流估计的3D多目标跟踪系统及方法,通过检测模块对当前k时刻周围环境点云进行检测;通过场景流估计模块采用激光雷达场景流估计网络对k时刻检测目标与k‑1时刻轨迹进行场景流估计;通过目标关联模块将k时刻检测结果与场景流估计层L4输出的估计进行关联匹配;通过轨迹管理模块判定轨迹成功或轨迹消失;本发明提出的基于激光雷达场景流估计的3D多目标跟踪系统及方法,在两帧间的目标关联上可以对点云中的每个点进行运动估计,从而提升目标关联的精度,实现对目标更好的跟踪。

Description

一种基于激光雷达场景流估计的3D多目标跟踪系统及方法
技术领域
本发明属于智能汽车技术领域,特别涉及了一种基于激光雷达场景流估计的3D多目标跟踪系统及方法。
背景技术
随着智能汽车的不断发展,其对周围环境的感知需求日益增加。基于激光雷达的3D多目标跟踪算法具有感知精度高,对光照和天气适应能力强的特点,受到学术界和工业界的广泛关注。多目标跟踪算法为智能汽车对周围车辆的轨迹预测,对自身车辆的轨迹规划与决策提供了必要的环境信息,是智能车辆感知算法中的重要组成部分。
而场景流是两个连续帧中每个表面点之间的3D位移向量所组成的3D向量场。传统上,场景流是直接由图片数据进行估计。但近年来,由于激光雷达三维传感器应用的增多和针对点云数据的3D深层网络进展显著,从三维点云直接进行场景流估计越来越受到关注。
将场景流估计应用到3D多目标跟踪上,相较于传统3D跟踪方法只针对于目标运动的估计,可以对于场景中的每个点进行估计,而后再从点估计得出目标的运动估计,从而能够实现更加准确的目标运动估计,提升跟踪算法精度。
发明内容
针对上述问题,本发明提出了一种基于激光雷达场景流估计的3D多目标跟踪系统,包括检测模块、场景流估计模块、目标关联模块、轨迹管理模块;
所述检测模块用于对当前k时刻周围环境点云进行检测,获得目标检测结果;
所述场景流估计模块采用激光雷达场景流估计网络对k时刻检测目标与k-1时刻轨迹进行场景流估计;
所述目标关联模块将k时刻检测结果与场景流估计层L4输出的估计进行关联匹配;
所述轨迹管理模块用于:在轨迹起始时对轨迹进行判定,在连续3帧中若有2帧及2帧以上成功关联,判定轨迹成功;在轨迹结束时,对于没有目标匹配的预测3D包围盒继续使用场景流估计模块进行连续3帧的预测,若3帧中有2帧及2帧以上关联失败,即判定轨迹消失。
进一步,所述检测模块具体如下:
从车载激光雷达获得当前k时刻周围环境点云,并通过预设检测器获得目标序列的检测结果其中/>代表在k时刻获得的第n个检测目标,假设k时刻共检测出n个目标,/>向量(x,y,z,l,w,h,θ)表示3D包围盒信息,其中(x,y,z)为3D包围盒的中心点坐标,(l,w,h)为3D包围盒的长宽高体积信息,θ为车头朝向角,包围盒内原始点云以3维坐标信息表示,记为/>其中代表3D包围盒中第p个点的坐标。
进一步,所述场景流估计模块包括PointConv卷积特征提取网络模块、估计体积成本模块、场景流估计层模块;
所述PointConv卷积特征提取网络模块:使用PointConv卷积层建立4层下采样组成的特征提取网络,每一层都使用PointConv卷积进行计算,其每层的通道数依次增加,分别为64,96,192,320,对当前获得的4个不同维度的特征会进行储存,在进行k+1时刻的场景流估计时作为历史轨迹特征提取网络的结果使用,避免重复计算;
所述PointConv卷积特征提取网络模块使用的PointConv卷积公式如下所示:
其中,9δxyz)表示区域G内的任意可能位置;S(δxyz)为(δxyz)的逆密度系数;W(δxyz)为(δxyz)的权函数;F(x+δx,y+δy,z+δz)为以(x,y,z)为中心的局部临近区域G内的点的特征。
所述估计体积成本模块:使用MLP(多层感知机)通过学习的方式计算每层的体积成本,计算公式为:
Cost(k,k-1)=MLP(fi,gj,pck-pck-1)
式中,fi为当前检测特征提取网络从当前帧点云pck中提取的特征,gj为历史轨迹特征提取网络从历史轨迹点云pck-1中提取的特征,pck-pck-1为k时刻与k-1时刻对应点云的坐标差,表征匹配的方向信息;
对于MLP,其输入维度为串联fi,gj,pck-pck-1后的维度,对于不同的下采样层其输入维度进行不同的设定,其输出维度为N×K,其中N为点云k-1时刻的对应下采样层的点云总数,K为临近阈值;
所述场景流估计层模块:将来自上一场景流估计层的场景流输出与预测特征进行上采样,使其获得与当前场景流估计层相同的维度,随后将k-1时刻的点云特征与体积成本结合上采样后的上一场景流估计层的场景流输出与预测特征共同输入到PointConv层中进行场景流估计,随后使用多个1×1卷积对输出维度进行调整,输出第L层的特征预测与场景流估计。
进一步,所述目标关联模块具体如下:
将场景流估计层模块的L4输出的估计结果使用聚类算法,将分散的点云还原成预测3D包围盒,记为
计算第i个预测3D包围盒与第j个检测3D包围盒中心点的欧氏距离记为cij,将cij组成距离矩阵C;
将距离矩阵C中的每个元素,进行逐行逐列的筛查,剔除其中cij<dij的元素,其中dyj为对应检测3D包围盒Tj的对角线长度的一半,即
筛查出每行每列最小的元素cij,视为预测3D包围盒Di与检测3D包围盒Tj关联成功。
本发明还提出了一种基于激光雷达场景流估计的3D多目标跟踪方法,其具体的实施过程如图1所示,主要包括以下步骤:
步骤1:建立检测模块对当前k时刻周围环境点云进行检测,获得目标检测结果;
从车载激光雷达获得当前k时刻周围环境点云,并通过预设检测器获得目标序列的检测结果其中/>代表在k时刻获得的第n个检测目标,假设k时刻共检测出n个目标。/>向量(x,y,z,l,w,h,θ)表示3D包围盒信息,其中(x,y,z)为3D包围盒的中心点坐标,(l,w,h)为3D包围盒的长宽高体积信息,θ为车头朝向角。而包围盒内原始点云以3维坐标信息表示,记为/>其中代表3D包围盒中第p个点的坐标。
步骤2:使用激光雷达场景流估计网络对k时刻检测目标与k-1时刻轨迹进行场景流估计,其具体步骤如下所示。
步骤2.1:使用PointConv卷积建立特征提取网络;
PointConv卷积公式如下所示:
其中,(δxyz)表示区域G内的任意可能位置;S(δxyz)为(δxyz)的逆密度系数;W(δxyz)为(δxyz)的权函数;F(x+δx,y+δy,z+δz)为以(x,y,z)为中心的局部临近区域G内的点的特征。
使用PointConv卷积层建立4层下采样组成的特征提取网络,每一层都使用PointConv卷积进行计算,每层的通道数依次增加,分别为64,128,256,256,通过四层卷积将特征从当前帧实际点云点数下采样到2048,512,128,如流程图1的特征提取网络所示。对当前由上述4层PointConv组成的检测特征提取网络获得的4个不同维度大小的激光雷达点云特征进行储存,在进行k+1时刻的场景流估计时作为历史轨迹特征提取网络的结果使用,避免重复计算。
步骤2.2:构建估计体积成本;
在进行场景流估计时,需要首先计算出k时刻与k-1时刻两帧之间的体积成本,以体积成本和两帧特征作为输入来计算场景流估计。使用MLP(多层感知机)通过可学习的方式来计算每层的体积成本,其公式如下所示。
Cost(k,k-1)=MLP(fi,gj,pck-pck-1)
其中,fi为当前检测特征提取网络从当前帧点云pck中提取的特征,gj为历史轨迹特征提取网络从历史轨迹点云pck-1中提取的特征,pck-pck-1为k时刻与k-1时刻对应点云的坐标差,表征匹配的方向信息。
同时对于MLP,其输入维度为串联fi、gk、pck-pck-1后的维度,对于不同的下采样层其输入维度进行不同的设定。其输出维度为N×K,其中N为点云k-1时刻的对应下采样层的点云总数,K为临近阈值,即设定某一点周围的K个点与该点相关。
步骤2.3:进行场景流估计;
将上一步获得的体积成本与对应的k-1时刻的点云特征作为场景流估计层的输入,进行场景流估计,其结构如图2所示。
首先将来自上一场景流估计层的场景流输出与预测特征进行上采样,使其获得与当前场景流估计层相同的维度。随后将k-1时刻的点云特征与体积成本结合上采样后的上一场景流估计层的场景流输出与预测特征共同输入到PointConv层中进行场景流估计,随后使用多个1×1卷积对输出维度进行调整,输出第L层的特征预测与场景流估计。
上述为正常的一层场景流估计层,整个场景流估计模块由4层场景流估计层组成。依据对当前检测特征提取网络与历史轨迹特征提取网络所对应层级的关系,将4层场景流分别命名为L1、L2、L3、L4层。L1层对应于当前检测特征提取网络与历史轨迹特征提取网络的第4层PointConv层,即输出点数为128通道为256的PointConv层,依顺序L2对应于当前检测特征提取网络与历史轨迹特征提取网络中输出点数为512通道为256的第三层PointConv层。L3、L4层依次对应。对于场景流估计层L1,由于其为第一层场景流估计层,对其输入进行调整,取消来自上一场景流估计层的输入,仅使用k-1时刻特征与体积成本作为输入。对于场景流估计层L4,取消特征预测,仅输出最终场景流估计。
步骤3:使用目标关联模块将k时刻检测结果与场景流估计层L4输出的估计进行关联匹配,其具体步骤如下;
步骤3.1:将场景流估计层L4输出的估计结果使用聚类算法,将分散的点云还原成预测3D包围盒,记为
步骤3.2:计算第i个预测3D包围盒与第j个检测3D包围盒中心点的欧氏距离记为cij,将cij组成距离矩阵C。
步骤3.3:对于距离矩阵C中的每个元素,进行逐行逐列的筛查,剔除其中cij>dij的元素。其中dij作为距离匹配上限值,其值为对应检测3D包围盒Tj的对角线长度的一半,即
步骤3.4:筛查找到每行每列最小的元素cij,保证每一行或每一列至多有一个元素被选中。找到每行每列最小元素cij后,视为预测3D包围盒Di与检测3D包围盒Tj关联成功。
步骤4:对关联后的结果进行轨迹管理;
由于关联会产生误报,在轨迹起始时,对轨迹进行判定在连续3帧中若有2帧及2帧以上成功关联,判定轨迹成功开始。
在轨迹结束时,对于没有目标匹配的预测3D包围盒继续使用场景流估计对其进行连续3帧的预测,若3帧中有2帧及2帧以上关联失败,即判定轨迹消失。
步骤5:将进行过步骤4轨迹管理的最终轨迹进行输出。
本发明的有益效果:
1、本发明提出的基于激光雷达场景流估计的3D多目标跟踪系统及方法,在两帧间的目标关联上可以对点云中的每个点进行运动估计,从而提升目标关联的精度,实现对目标更好的跟踪。
2、本发明所提出的场景流估计方法使用多个层级相互贯通,保证了不同大小尺度范围的点云特征都能得到精确匹配,保证了帧间的关联精度。
3、本发明所提出的场景流估计方法替换了传统跟踪中的卡尔曼滤波方法,避免了在机动目标跟踪时卡尔曼滤波需要使用的复杂运动模型,直接获得两帧间的运动关联,提升了算法速度。
附图说明
图1为本发明一种基于激光雷达场景流估计的3D多目标跟踪方法流程图。
图2为所述场景流估计层结构图。
具体实施方式
下面将结合附图说明及具体实施方式具体对本发明作进一步的说明,但本发明的保护范围并不仅限于此。
本发明提出一种基于激光雷达场景流估计的3D多目标跟踪方法,其具体的实施过程如图1所示,主要包括以下步骤:
步骤1:建立检测模块对当前k时刻周围环境点云进行检测,获得目标检测结果;
从车载激光雷达获得当前k时刻周围环境点云,并通过预设检测器获得目标序列的检测结果其中/>代表在k时刻获得的第n个检测目标,假设k时刻共检测出n个目标。/>作为检测结果包含目标的3D包围盒与包围盒内的原始点云。3D包围盒以向量(x,y,z,l,w,h,θ)表示,其中(x,y,z)为3D包围盒的中心点坐标,(l,w,h)为3D包围盒的长宽高体积信息,θ为车头朝向角。而包围盒内原始点云以3维坐标信息表示,记为其中/>代表3D包围盒中第p个点的坐标。则最终k时刻获得的第n个检测目标可表示为/>
步骤2:使用激光雷达场景流估计网络对k时刻检测目标与k-1时刻轨迹进行场景流估计,其具体步骤如下所示。
步骤2.1:使用PointConv卷积建立特征提取网络;
PointConv卷积公式如下所示:
其中,(δxyz)表示区域G内的任意可能位置;S(δxyz)为(δxyz)的逆密度系数;W(δxyz)为(δxyz)的权函数;F(x+δx,y+δy,z+δz)为以(x,y,z)为中心的局部临近区域G内的点的特征。使用PointConv卷积层建立4层下采样组成的特征提取网络,每一层都使用PointConv卷积进行计算,每层的通道数依次增加,分别为64,128,256,256,通过四层卷积将特征从当前帧实际点云点数下采样到2048,512,128,如流程图1的特征提取网络所示。需说明的是当前检测特征提取网络与历史轨迹特征提取网络结构完全相同,只是由于针对不同的提取对象进行了区分。对当前由上述4层PointConv组成的检测特征提取网络获得的4个不同维度的大小的激光雷达点云特征进行储存,在进行k+1时刻的场景流估计时作为历史轨迹特征提取网络的结果使用,避免重复计算。
步骤2.2:构建估计体积成本;
在进行场景流估计时,需要首先计算出k时刻与k-1时刻两帧之间的体积成本,以体积成本和两帧特征作为输入来计算场景流估计。在本申请中对于下采样的4层,计算4层大小不同的体积成本,从而获得不同尺度的成本信息,从而能够综合的考虑提升场景流估计的精度。本申请使用MLP(多层感知机)通过可学习的方式来计算每层的体积成本,其公式如下所示。
Cost(k,k-1)=MLP(fi,gj,pck-pck-1)
其中,fi为当前检测特征提取网络从当前帧点云pck中提取的特征,gj为历史轨迹特征提取网络从历史轨迹点云pck-1中提取的特征,pck-pck-1为k时刻与k-1时刻对应点云的坐标差,表征匹配的方向信息。
同时对于MLP,其输入维度为串联fi、gj、pck-pck-1后的维度,对于不同的下采样层其输入维度进行不同的设定。其输出维度为N×K,其中N为点云k-1时刻的对应下采样层的点云总数,K为临近阈值,即设定一点周围的K个点与该点相关。
步骤2.3:进行场景流估计;
将上一步获得的体积成本与对应的k-1时刻的点云特征作为场景流估计层的输入,进行场景流估计,其结构如图2所示。
首先将来自上一场景流估计层的场景流输出与预测特征进行上采样,使其获得与当前场景流估计层相同的维度。随后将k-1时刻的点云特征与体积成本结合上采样后的上一场景流估计层的场景流输出与预测特征共同输入到PointConv层中进行场景流估计,随后使用多个1×1卷积对输出维度进行调整,输出第L层的特征预测与场景流估计。
上述为正常的一层场景流估计层,整个场景流估计模块由4层场景流估计层组成。依据对当前检测特征提取网络与历史轨迹特征提取网络所对应层级的关系,将4层场景流分别命名为L1、L2、L3、L4层。L1层对应于当前检测特征提取网络与历史轨迹特征提取网络的第4层PointConv层,即输出点数为128通道为256的PointConv层,依顺序L2对应于当前检测特征提取网络与历史轨迹特征提取网络中输出点数为512通道为256的第三层PointConv层。L3、L4层依次对应。对于场景流估计层L1,由于其为第一层场景流估计层,对其输入进行调整,取消来自上一场景流估计层的输入,仅使用k-1时刻特征与体积成本作为输入。对于场景流估计层L4,取消特征预测,仅输出最终场景流估计。
步骤3:使用目标关联模块将k时刻检测结果与场景流估计层L4输出的估计进行关联匹配,其具体步骤如下;
步骤3.1:将场景流估计层L4输出的估计结果使用聚类算法,将分散的点云还原成预测3D包围盒,记为
步骤3.2:计算第i个预测3D包围盒与第j个检测3D包围盒中心点的欧氏距离记为cij,将cij组成距离矩阵C。
步骤3.3:对于距离矩阵C中的每个元素,进行逐行逐列的筛查剔除其中cij>dij的元素。其中dij作为距离匹配上限值,其值为对应检测3D包围盒Tj的对角线长度的一半,即
步骤3.4:筛查找到每行每列最小的元素cij,保证每一行或每一列至多有一个元素被选中。找到每行每列最小元素cij后,视为预测3D包围盒Di与检测3D包围盒Tj关联成功。
步骤4:对关联后的结果进行轨迹管理;
由于关联会产生误报,在轨迹起始时,对轨迹进行判定在连续3帧中若有2帧及2帧以上成功关联,判定轨迹成功开始。
在轨迹结束时,对于没有目标匹配的预测3D包围盒继续使用场景流估计对其进行连续3帧的预测,若3帧中有2帧及2帧以上关联失败,即判定轨迹消失。
步骤5:将进行过步骤4轨迹管理的最终轨迹进行输出。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技术所创的等效方式或变更均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于激光雷达场景流估计的3D多目标跟踪系统,其特征在于,包括检测模块、场景流估计模块、目标关联模块、轨迹管理模块;
所述检测模块用于对当前k时刻周围环境点云进行检测,获得目标检测结果;所述检测模块具体如下:
从车载激光雷达获得当前k时刻周围环境点云,并通过预设检测器获得目标序列的检测结果其中/>代表在k时刻获得的第n个检测目标,假设k时刻共检测出n个目标,/>向量(x,y,z,l,w,h,θ)表示3D包围盒信息,其中(x,y,z)为3D包围盒的中心点坐标,(l,w,h)为3D包围盒的长宽高体积信息,θ为车头朝向角,包围盒内原始点云以3维坐标信息表示,记为/>其中代表3D包围盒中第p个点的坐标;
所述场景流估计模块采用激光雷达场景流估计网络对k时刻检测目标与k-1时刻轨迹进行场景流估计,所述场景流估计模块由4层场景流估计层组成,依据对当前检测特征提取网络与历史轨迹特征提取网络所对应层级的关系,将4层场景流分别命名为L1、L2、L3、L4层;所述场景流估计模块包括PointConv卷积特征提取网络模块、估计体积成本模块、场景流估计层模块;
所述PointConv卷积特征提取网络模块:使用PointConv卷积层建立4层下采样组成的特征提取网络,每一层都使用PointConv卷积进行计算,其每层的通道数依次增加,分别为64,96,192,320,对当前获得的4个不同维度的特征会进行储存,在进行k+1时刻的场景流估计时作为历史轨迹特征提取网络的结果使用,避免重复计算;
所述PointConv卷积特征提取网络模块使用的PointConv卷积公式如下所示:
其中,(δxyz)表示区域G内的任意可能位置;S(δxyz)为(δxyz)的逆密度系数;W(δxyz)为(δxyz)的权函数;F(x+δx,y+δy,z+δz)为以(x,y,z)为中心的局部临近区域G内的点的特征;
所述估计体积成本模块:使用多层感知机MLP通过学习的方式计算每层的体积成本,计算公式为:
Cost(k,k-1)=MLP(fi,gj,pck-pck-1)
式中,fi为当前检测特征提取网络从当前帧点云pck中提取的特征,gj为历史轨迹特征提取网络从历史轨迹点云pck-1中提取的特征,pck-pck-1为k时刻与k-1时刻对应点云的坐标差,表征匹配的方向信息;
对于MLP,其输入维度为串联fi、gj、pck-pck-1后的维度,对于不同的下采样层其输入维度进行不同的设定,其输出维度为N×K,其中N为点云k-1时刻的对应下采样层的点云总数,K为临近阈值;
所述场景流估计层模块:将来自上一场景流估计层的场景流输出与预测特征进行上采样,使其获得与当前场景流估计层相同的维度,随后将k-1时刻的点云特征与体积成本结合上采样后的上一场景流估计层的场景流输出与预测特征共同输入到PointConv层中进行场景流估计,随后使用多个1×1卷积对输出维度进行调整,输出第L层的特征预测与场景流估计;
所述目标关联模块将k时刻检测结果与场景流估计层L4输出的估计进行关联匹配;
所述轨迹管理模块用于:在轨迹起始时对轨迹进行判定,在连续3帧中若有2帧及2帧以上成功关联,判定轨迹成功;在轨迹结束时,对于没有目标匹配的预测3D包围盒继续使用场景流估计模块进行连续3帧的预测,若3帧中有2帧及2帧以上关联失败,即判定轨迹消失。
2.根据权利要求1所述的一种基于激光雷达场景流估计的3D多目标跟踪系统,其特征在于,所述目标关联模块具体如下:
将场景流估计层模块的L4输出的估计结果使用聚类算法,将分散的点云还原成预测3D包围盒,记为
计算第i个预测3D包围盒与第j个检测3D包围盒中心点的欧氏距离记为cij,将cij组成距离矩阵C;
将距离矩阵C中的每个元素,进行逐行逐列的筛查,剔除其中cij>dij的元素,其中dij为对应检测3D包围盒Tj的对角线长度的一半,即
筛查出每行每列最小的元素cij,视为预测3D包围盒Di与检测3D包围盒Tj关联成功。
3.一种根据权利要求1所述基于激光雷达场景流估计的3D多目标跟踪系统的基于激光雷达场景流估计的3D多目标跟踪方法,其特征在于,包括如下步骤:
步骤1:对当前k时刻周围环境点云进行检测,获得目标检测结果;
步骤2:使用激光雷达场景流估计网络对k时刻检测目标与k-1时刻轨迹进行场景流估计;
步骤3:将k时刻检测的结果与场景流估计网络输出的估计进行关联匹配;
步骤4:对关联后的结果进行轨迹管理;
步骤5:输出步骤4轨迹管理的最终轨迹;
所述步骤1具体如下:
从车载激光雷达获得当前k时刻周围环境点云,并通过预设检测器获得目标序列的检测结果其中/>代表在k时刻获得的第n个检测目标,假设k时刻共检测出n个目标,/>向量(x,y,z,l,w,h,θ)表示3D包围盒信息,其中(x,y,z)为3D包围盒的中心点坐标,(l,w,h)为3D包围盒的长宽高体积信息,θ为车头朝向角,包围盒内原始点云以3维坐标信息表示,记为/>其中代表3D包围盒中第p个点的坐标;
所述步骤2具体如下:
步骤2.1:使用PointConv卷积建立特征提取网络;
PointConv卷积公式如下所示:
其中,(δxyz)表示区域G内的任意可能位置;S(δxyz)为(δxyz)的逆密度系数;W(δxyz)为(δxyz)的权函数;F(x+δx,y+δy,z+δz)为以(x,y,z)为中心的局部临近区域G内的点的特征;
使用PointConv卷积层建立4层下采样组成的特征提取网络,每一层都使用PointConv卷积进行计算,每层的通道数依次增加,分别为64,96,192,320,对当前获得的4个不同维度的特征进行储存,在进行k+1时刻的场景流估计时作为历史轨迹特征提取网络的结果使用,避免重复计算;
步骤2.2:构建估计体积成本;
在进行场景流估计时,需要首先计算出k时刻与k-1时刻两帧之前的体积成本,以体积成本和两帧特征作为输入来计算场景流估计,使用多层感知机MLP通过可学习的方式来计算每层的体积成本,其公式如下所示:
Cost(k,k-1)=MLP(fi,gj,pck-pck-1)
其中,fi为当前检测特征提取网络从当前帧点云pck中提取的特征,gj为历史轨迹特征提取网络从历史轨迹点云pck-1中提取的特征,pck-pck-1为k时刻与k-1时刻对应点云的坐标差,表征匹配的方向信息;
对于MLP,其输入维度为串联fi,gj,pck-pck-1后的维度,对于不同的下采样层其输入维度进行不同的设定,其输出维度为N×K,其中N为点云k-1时刻的对应下采样层的点云总数,K为临近阈值,即设定某一点周围的K个点与该点相关;
步骤2.3:进行场景流估计;
将上一步获得的体积成本与对应的k-1时刻的点云特征作为场景流估计层的输入,进行场景流估计;具体如下:
首先将来自上一场景流估计层的场景流输出与预测特征进行上采样,使其获得与当前场景流估计层相同的维度,随后将k-1时刻的点云特征与体积成本结合上采样后的上一场景流估计层的场景流输出与预测特征共同输入到PointConv层中进行场景流估计,随后使用多个1×1卷积对输出维度进行调整,输出第L层的特征预测与场景流估计。
4.根据权利要求3所述的一种基于激光雷达场景流估计的3D多目标跟踪方法,其特征在于,所述步骤3具体如下:
步骤3.1:将场景流估计层L4输出的估计结果使用聚类算法,将分散的点云还原成预测3D包围盒,记为
步骤3.2:计算第i个预测3D包围盒与第j个检测3D包围盒中心点的欧氏距离记为cij,将cij组成距离矩阵C;
步骤3.3:对于距离矩阵C中的每个元素,进行逐行逐列的筛查剔除其中cij>dij的元素;其中dij为对应检测3D包围盒Tj的对角线长度的一半,即
步骤3.4:筛查找到每行每列最小的元素cij,保证每一行或每一列至多有一个元素被选中,找到每行每列最小元素cij后,视为预测3D包围盒Di与检测3D包围盒Tj关联成功。
5.根据权利要求3所述的一种基于激光雷达场景流估计的3D多目标跟踪方法,其特征在于,所述步骤4具体如下:
在轨迹起始时,对轨迹进行判定在连续3帧中若有2帧及2帧以上成功关联,判定轨迹成功开始;
在轨迹结束时,对于没有目标匹配的预测3D包围盒继续使用场景流估计对其进行连续3帧的预测,若3帧中有2帧及2帧以上关联失败,即判定轨迹消失。
CN202110738246.9A 2021-06-30 2021-06-30 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法 Active CN113281718B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110738246.9A CN113281718B (zh) 2021-06-30 2021-06-30 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110738246.9A CN113281718B (zh) 2021-06-30 2021-06-30 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法

Publications (2)

Publication Number Publication Date
CN113281718A CN113281718A (zh) 2021-08-20
CN113281718B true CN113281718B (zh) 2024-03-22

Family

ID=77286171

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110738246.9A Active CN113281718B (zh) 2021-06-30 2021-06-30 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法

Country Status (1)

Country Link
CN (1) CN113281718B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114025146B (zh) * 2021-11-02 2023-11-17 浙江工商大学 基于场景流网络与时间熵模型的动态点云几何压缩方法
CN116071400B (zh) * 2023-04-06 2023-07-18 浙江光珀智能科技有限公司 一种基于激光雷达设备的目标轨迹跟踪方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009014955A1 (de) * 2009-03-30 2009-11-12 Daimler Ag Verfahren zur Schätzung einer Lage, Orientierung und/oder Bewegung eines Objekts
CN107657644A (zh) * 2017-09-28 2018-02-02 浙江大华技术股份有限公司 一种移动环境下稀疏场景流检测方法和装置
CN110533687A (zh) * 2018-05-11 2019-12-03 深眸科技(深圳)有限公司 多目标三维轨迹跟踪方法及装置
CN111223101A (zh) * 2020-01-17 2020-06-02 湖南视比特机器人有限公司 点云处理方法、点云处理系统和存储介质
CN111260683A (zh) * 2020-01-09 2020-06-09 合肥工业大学 一种三维点云数据的目标检测与跟踪方法及其装置
CN111476822A (zh) * 2020-04-08 2020-07-31 浙江大学 一种基于场景流的激光雷达目标检测与运动跟踪方法
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN112862858A (zh) * 2021-01-14 2021-05-28 浙江大学 一种基于场景运动信息的多目标跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009014955A1 (de) * 2009-03-30 2009-11-12 Daimler Ag Verfahren zur Schätzung einer Lage, Orientierung und/oder Bewegung eines Objekts
CN107657644A (zh) * 2017-09-28 2018-02-02 浙江大华技术股份有限公司 一种移动环境下稀疏场景流检测方法和装置
CN110533687A (zh) * 2018-05-11 2019-12-03 深眸科技(深圳)有限公司 多目标三维轨迹跟踪方法及装置
CN111260683A (zh) * 2020-01-09 2020-06-09 合肥工业大学 一种三维点云数据的目标检测与跟踪方法及其装置
CN111223101A (zh) * 2020-01-17 2020-06-02 湖南视比特机器人有限公司 点云处理方法、点云处理系统和存储介质
CN111476822A (zh) * 2020-04-08 2020-07-31 浙江大学 一种基于场景流的激光雷达目标检测与运动跟踪方法
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN112862858A (zh) * 2021-01-14 2021-05-28 浙江大学 一种基于场景运动信息的多目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PointRCNN: 3D Object Proposal Generation and Detection from Point Cloud;Shaoshuai Shi 等;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;770-779 *
基于模型预测控制的智能网联汽车路径跟踪控制器设计;王艺;《机械工程学报》;第55卷(第8期);136-144、153 *
车载多传感器融合下的动态目标检测与跟踪;曾湘峰;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》(第04期);正文全文 *

Also Published As

Publication number Publication date
CN113281718A (zh) 2021-08-20

Similar Documents

Publication Publication Date Title
CN111127513B (zh) 一种多目标跟踪方法
CN108985171B (zh) 运动状态估计方法和运动状态估计装置
CN111626128B (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
EP1329850B1 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
CN106780631B (zh) 一种基于深度学习的机器人闭环检测方法
CN113281718B (zh) 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法
US20150036887A1 (en) Method of determining a ground plane on the basis of a depth image
CN114049382B (zh) 一种智能网联环境下目标融合跟踪方法、系统和介质
CN112052802B (zh) 一种基于机器视觉的前方车辆行为识别方法
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN117058646B (zh) 基于多模态融合鸟瞰图的复杂道路目标检测方法
CN112967388A (zh) 三维时序图像神经网络模型的训练方法和装置
CN114119659A (zh) 一种多传感器融合的目标跟踪方法
CN116503803A (zh) 障碍物检测方法、装置、电子设备以及存储介质
CN110992424B (zh) 基于双目视觉的定位方法和系统
CN114763136A (zh) 一种基于深度学习的引导车驾驶辅助系统
CN110864670B (zh) 目标障碍物位置的获取方法和系统
Lim et al. Gaussian process auto regression for vehicle center coordinates trajectory prediction
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法
CN115327529A (zh) 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法
WO2023009180A1 (en) Lidar-based object tracking
CN114706087A (zh) 一种三维成像声呐点云的水下地形匹配定位方法及系统
Peruničić et al. Vision-based Vehicle Speed Estimation Using the YOLO Detector and RNN
CN117576665B (zh) 一种面向自动驾驶的单摄像头三维目标检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant