CN113160280B - 一种基于激光雷达的动态多目标跟踪方法 - Google Patents
一种基于激光雷达的动态多目标跟踪方法 Download PDFInfo
- Publication number
- CN113160280B CN113160280B CN202110467582.4A CN202110467582A CN113160280B CN 113160280 B CN113160280 B CN 113160280B CN 202110467582 A CN202110467582 A CN 202110467582A CN 113160280 B CN113160280 B CN 113160280B
- Authority
- CN
- China
- Prior art keywords
- target
- speed
- tracked
- newly detected
- current moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种基于激光雷达的动态多目标跟踪方法,首先获取激光雷达目标检测结果,并显示检测结果,然后采用匈牙利算法进行目标关联,并同时通过目标预测位置和当前检测结果之间的交并比判断目标的生成与消失,当关联成功时,用检测框位置对目标位置进行更新,根据检测结果输出的属性标签对应的多模态卡尔曼滤波,估计目标的运动信息,关联失败时,删除未关联的目标状态并生成当前时刻新检测的目标。在一般环境中,相比于传统的多目标跟踪方法,本发明公开的多目标跟踪方法能够有效提高多目标跟踪的准确度。
Description
技术领域
本发明属于机器人自主导航技术领域,具体涉及一种基于激光雷达的动态多目标跟踪方法。
背景技术
随着应用需求的不断提升,移动机器人需要具备代替人类执行愈加复杂、高级的任务的能力。移动机器人在军事、交通、服务等领域中拥有越来越广泛的应用前景。移动机器人需要通过传感器感知环境和自身状态,才能实现在有障碍物的环境中面向目标的自主运动,从而完成复杂作业功能的机器人系统。在动态环境中,移动机器人在实现自身定位的同时,需要对周边复杂障碍物进行准确检测与预测以规划其安全行驶路线,因此,准确感知并跟踪动态障碍物对机器人自主运行有着不可或缺的作用。
常用的环境感知传感器主要有相机、激光雷达等。由于移动机器人所处环境的复杂性,激光雷达凭借视野范围广、光线依赖弱、测距精度高的优势,成为障碍物识别的主流传感器之一。当前主流的移动机器人的多目标相对定位与跟踪方法(Multiple ObjectTracking,MOT)大可分为三类:基于卡尔曼滤波匹配的后端追踪优化算法、基于多线程单目标追踪器的多目标追踪算法、基于深度学习的多目标追踪算法。
基于多线程单目标追踪器的多目标追踪算法代表性算法有KCF算法、LEDS算法、JDE算法和FAIRMOT算法,该类算法为每一个物体都分配了特定跟踪器,跟踪效果较好。但该算法对目标尺度变化要求较大,参数调试过程复杂,该算法计算量较大实时性较差。以DAN算法与MCSA算法为代表的基于深度学习的多目标跟踪算法,由于其网络架构设计难度较大,现阶段端到端的神经网络算法较少,还处于研究阶段,有待进一步落地应用。基于卡尔曼滤波器的多目标跟踪的步骤为:获得被检测到的障碍物标签,进行特征提取与运动预测,通过计算相似度进行帧间数据关联,根据关联结果更新当前时刻新检测的目标的运动状态。然而在环境中,同时存在运动特性相差较大的目标,基于单一运动模型的跟踪器无法较好地同时跟踪两类目标。
发明内容
针对现有技术的不足,本发明的目的在于提供一种基于激光雷达的动态多目标跟踪方法,以解决传统跟踪方法无法同时较好地对多类动态目标进行跟踪的问题;本发明提高了对动态多目标的跟踪准确率。
为达到上述目的,本发明的技术方案为:
一种基于激光雷达的动态多目标跟踪方法,包括步骤如下:
步骤一:获取原始激光雷达点云并进行聚类,然后对聚类后的结果进行目标识别检测,并显示检测结果;
步骤二:基于目标类别的不同,建立不同的状态方程表达式,即运动状态空间模型,并根据上一时刻的系统状态和所述运动状态空间模型,预测当前时刻的系统状态;
步骤三:对已跟踪目标和当前时刻新检测的目标进行关联:
步骤四:通过计算,判断已跟踪目标和当前时刻新检测的目标的关联结果,基于所述关联结果构建关联矩阵matrix_assignvalid;
步骤五:对于每一个已跟踪目标,若在所述关联矩阵matrix_assignvalid中成功关联到当前时刻新检测的目标mj,则针对不同类别目标分别进行多模态卡尔曼滤波,然后输出已跟踪目标的运动信息;
若未关联到当前时刻新检测的目标mj,则进行目标出现与消失的判断:对当前时刻新检测的目标,若没有被关联上,将用于生成当前时刻新检测的目标,对已跟踪目标如果没有被关联到一个当前时刻新检测的目标,将未关联目标从已跟踪目标集合中删除。
其中,px、py分别表示低速目标在x、y方向的位置分量,vx、vy分别表示低速目标在x、y方向的速度分量;
优选地,所述步骤三中,使用匈牙利算法对已跟踪目标和当前时刻新检测的目标进行关联。
优选地,记所述已跟踪目标为n个,所述当前时刻新检测的目标为m个,构建一个n×m维的得分矩阵score_matrix,所述得分矩阵score_matrix内各元素满足如下条件:
其中,max_dist为设定的最大距离阈值,表示目标预测位置和实际量测位置之间的最大偏差;dist(i,j)表示已跟踪目标预测位置和当前时刻新检测的目标位置之间的距离,dist(i,j)=||traci.pose-mj.pose||;min(dist(i,j),max_dist)表示取两者的最小值;
traci.pose表示直到上一时刻目标的位置,即已跟踪目标预测位置,mj.pose表示当前时刻目标的位置,即当前时刻新检测的目标位置。
优选地,采用匈牙利算法求解得分矩阵score_matrix,找到已跟踪目标和当前时刻新检测的目标之间的最优分配关系,记最终的求解结果为关联矩阵matrix_assignk×2,
即将每个traci最优地关联到一个mj,找到k对对应关系,且必然有k≤min(n,m)。
优选地,所述步骤四中是否关联成功的方法为:当前时刻目标的预测位置和当前时刻目标检测框之间的交并比IOU,若IOU小于指定IOU阈值,则关联失败,否则关联成功。
优选地,所述步骤五中,针对不同类别的目标,采用不同的卡尔曼滤波,针对低速目标采用线性卡尔曼滤波器,针对高速目标采用无损卡尔曼滤波器。
本发明公开了以下技术效果:本发明通过对不同运动特性的物体分别建立不同的运动模型——针对低速目标建立匀速运动模型并采用线性卡尔曼滤波器跟踪估计,针对高速目标建立匀速匀角速度运动模型并采用无损卡尔曼滤波器跟踪估计,在环境中能够有效地对多类动态目标同时进行跟踪,提高了对动态多目标的跟踪准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供一种基于激光雷达的动态多目标跟踪方法,包括步骤如下:
步骤一:基于欧式距离分割对原始激光雷达点云进行聚类,利用环形卷积神经网络PolarNet对聚类结果进行识别检测,以3D检测框显示检测结果;
1.1记3D检测结果为:
M={mj},j=1,2,...,m
其中m为检测物体的数量,mj表示每一个检测出的目标,包含如下信息:
其中,label:类别标签;
shape:形状边界盒,主要包括圆柱、长方体、多边形,并且低速目标使用圆柱进行描述,高速目标使用长方体,未知障碍物使用多边形;
pose:边界盒中心在全局坐标系下的位置和姿态(将检测结果通过叠加当前时刻激光雷达自身的位姿转换至全局系得到)。
1.2记直到上一时刻已跟踪目标集合为
TRACKERS={traci},i=1,2,...,n
其中,n为已跟踪物体的数量,每一个traci表示一个跟踪的目标,包含如下信息:
其中,label:类别标签;shape:形状边界盒,主要包括圆柱、长方体、多边形,并且低速目标使用圆柱进行描述,高速目标使用长方体,未知障碍物使用多边形;pose:边界盒中心在全局坐标系下的位置和姿态,且该位姿为上一时刻位姿通过步骤二中的状态转移函数得到的当前时刻的预测位姿object_id:唯一标识该物体的索引号;velocity:边界盒中心在全局坐标系下的速度。
步骤二:基于目标类别的不同,建立不同的状态方程表达式,即运动状态空间模型,并根据上一时刻的系统状态和所述运动状态空间模型,预测当前时刻的系统状态
2.1对于低速目标的运动状态空间模型表示为:
其中,px、py分别表示低速目标在x、y方向的位置分量,vx、vy分别表示低速目标在x、y方向的速度分量;
步骤三:采用匈牙利算法对已跟踪目标和当前时刻新检测的目标进行关联:
3.1根据n个已跟踪目标和m个当前时刻新检测的目标构建一个n×m维的得分矩阵score_matrix,该矩阵内各元素满足如下条件:
其中,max_dist为设定的最大距离阈值,表示目标预测位置和实际量测位置之间的最大偏差;dist(i,j)表示已跟踪目标预测位置和当前时刻新检测的目标位置之间的距离,dist(i,j)=||traci.pose-mj.pose||;min(dist(i,j),max_dist)表示取两者的最小值,traci表示直到上一时刻目标,mj表示当前时刻目标。
3.2采用Kuhn–Munkres算法(匈牙利算法)求解得分矩阵score_matrix,找到已跟踪目标trackers和当前时刻新检测的目标measurements之间的最优分配关系,记最终的求解结果为关联矩阵matrix_assignk×2,
即将每个traci最优地关联到一个mj,一种找到k对对应关系,且必然有k≤min(n,m)。
步骤四:计算目标在当前时刻中的预测位置和当前时刻目标检测框之间的交并比IOU,若IOU小于指定IOU阈值,则指派结果无效即关联失败,否则关联成功:
4.1将全局空间体素化,即将空间划分为若干小立方体体素,对所述关联矩阵matrix_assign的每一行计算交并比:
其中,IOUij表示traci和mj之间的交并比,Strac_i为traci的边界盒占据的空间,Sm_j为mj的边界盒占据的空间,ntrac_i为Strac_i占据的体素数量,nm_j为Sm_j占据的体素数量,nshared_ij为同时被Strac_i与Sm_j占据的体素数量。
4.2若最终计算得到的IOUij满足IOUij≥IOUthread,则指派关联结果有效,保留该关联结果;若最终计算得到的IOUij满足IOUij<IOUthread,则指派关联结果无效,在关联矩阵matrix_assign中删除该关联结果。设最终评估后指派了kinvalid对关联无效,则最终保留的关联结果有kvalid=k-kinvalid,记最终得到的关联矩阵为matrix_assignvalid,维度为kvalid×2。
步骤五:基于步骤四中的关联矩阵,对于每一个已跟踪的目标traci,在步骤四中得到的关联矩阵matrix_assignvalid中搜索关联的量测mj,若成功搜索到关联的量测目标mj,则针对不同类别目标分别进行多模态卡尔曼滤波:
5.1针对低速目标,采用线性卡尔曼滤波器(KF)
a)根据低速目标的运动状态空间模型,构建如下状态一步预测方程:
xp,k+1=Apxp,k+γ
其中,为k到k+1时刻的系统一步转移矩阵,Δt为k到k+1时刻的时间间隔,为k时刻的系统估计状态量,xk+1为k+1时刻的系统预测状态量,为k时刻的系统噪声,ax、ay分别为k时刻x、y方向的运动加速度。
其中,W=G·GT·a2为过程噪声的协方差矩阵,G=[0.5Δt2 0.5Δt2 Δt Δt]T,a=ax=ay为k时刻x和y方向的运动加速度。
c)构建量测方程并计算滤波增益:
量测方程构建如下:
zp,k=Zpxp,k+Vk
k+1时刻卡尔曼增益Kk+1计算如下:
Pk+1=(I-Kk+1Zp)P
5.2针对高速目标,采用无损卡尔曼滤波器(UKF)
a)根据高速目标运动状态空间模型,构建如下状态一步预测方程:
xv,k+1=g(xv,k)+noise
其中g()表示高速目标运动模型的状态转移函数,xv,k为k时刻估计状态,xv,k+1为k+1时刻预测状态,noise为系统噪声:
其中Δt表示k到k+1时刻的时间间隔,
计算过程噪声的协方差矩阵:
W=E[noise·noiseT]=E[GaaTGT]=G·E[aaT]·GT
根据上述系统状态一步预测方程,进行系统状态的一步预测:
其中,μ为xv,k的均值。
ii.计算sigma点:
iii.由sigma点集,用高速目标运动模型的非线性函数g()预测状态:
a)计算预测sigma点集的均值和方差:
计算各个sigma点的权重:
计算预测sigma点集的均值xv,k+1|k和方差Pk+1|k:
b)构建量测方程并计算滤波增益:
i.高速目标运动模型的量测方程构建如下:
ii.对于上述非线性函数,进行无损变换
将5.2.a.iii中生成的sigma点集,通过观测函数,映射到新的sigma点集:
计算新sigma点集的均值zv,k+1|k和方差Sk+1|k:
计算新sigma点集状态与量测的互相关函数:
iii.计算卡尔曼增益:
c)更新状态:
xv,k+1|k+1=xv,k+1|k+Kk+1|k(zv,k+1-zv,k+1|k)
其中,zv,k+1是最新得到的测量,而zv,k+1|k则是根据先验计算出来的在量测空间的测量。
d)更新状态协方差矩阵:
其中,Pk+1|k为预测sigma点集的协方差矩阵,Pk+1|k+1为最终估计状态的协方差矩阵。
若关联失败,则进行目标出现与消失的判断:对当前时刻新检测的目标,若没有被关联上,将用于生成当前时刻新检测的目标,对已跟踪目标没有关联上,将未关联目标从已跟踪目标集合中删除。
a)对于每一个已跟踪的目标traci,在步骤(4)中得到的关联矩阵matrix_assignvalid中搜索关联的量测mj,若未搜索到关联的量测目标,进入death判定,认为目标离开视野,需要相应地销毁唯一标识,将未关联目标从已跟踪目标集合TRACKERS={traci},i=1,2,...,n中删除。
b)对于每一个当前时刻新检测的目标mj,在步骤(4)中得到的关联矩阵matrix_assignvalid中搜索关联的已跟踪目标,若未搜索到关联关系,进入birth判定,认为当前时刻新检测的目标进入视野,相应地创建唯一标识,创建新的已跟踪目标对象,使用速度设置为零的边界框信息初始化跟踪器,由于此时无法观测到速度,因此速度分量设置为0,速度分量的协方差用较大的值初始化,反映出这种不确定性:
且满足track.pose.vx=0,track.pose.vy=0。
所述未搜索到关联关系指的是“一个当前时刻新检测的目标没有被关联到一个上一时刻已跟踪的目标”,那么就判定这个新检测的目标是新出现的目标,而不是上一时刻跟踪的某一个目标。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (7)
1.一种基于激光雷达的动态多目标跟踪方法,其特征在于,包括如下步骤:
步骤一:获取原始激光雷达点云并进行聚类,然后对聚类后的结果进行目标识别检测,并显示检测结果;
步骤二:基于目标类别的不同,建立不同的状态方程表达式,即运动状态空间模型,并根据上一时刻的系统状态和所述运动状态空间模型,预测当前时刻的系统状态;
步骤三:对已跟踪目标和当前时刻新检测的目标进行关联:
步骤四:通过计算,判断已跟踪目标和当前时刻新检测的目标的关联结果,基于所述关联结果构建关联矩阵matrix_assignvalid;
步骤五:对于每一个已跟踪目标,若在所述关联矩阵matrix_assignvalid中成功关联到当前时刻新检测的目标mj,则针对不同类别目标分别进行多模态卡尔曼滤波,然后输出已跟踪目标的运动信息;
若未关联到当前时刻新检测的目标mj,则进行目标出现与消失的判断:对当前时刻新检测的目标,若没有被关联上,将用于生成当前时刻新检测的目标,对已跟踪目标如果没有被关联到一个当前时刻新检测的目标,将未关联目标从已跟踪目标集合中删除;
其中,px、py分别表示低速目标在x、y方向的位置分量,vx、vy分别表示低速目标在x、y方向的速度分量;
3.根据权利要求1所述的基于激光雷达的动态多目标跟踪方法,其特征在于,所述步骤三中,使用匈牙利算法对已跟踪目标和当前时刻新检测的目标进行关联。
4.根据权利要求3所述的基于激光雷达的动态多目标跟踪方法,其特征在于,记所述已跟踪目标为n个,所述当前时刻新检测的目标为m个,构建一个n×m维的得分矩阵score_matrix,所述得分矩阵score_matrix内各元素满足如下条件:
其中,max_dist为设定的最大距离阈值,表示目标预测位置和实际量测位置之间的最大偏差;dist(i,j)表示已跟踪目标预测位置和当前时刻新检测的目标位置之间的距离,dist(i,j)=||traci.pose-mj.pose||;min(dist(i,j),max_dist)表示取两者的最小值;
traci.pose表示直到上一时刻目标的位置,即已跟踪目标预测位置,mj.pose表示当前时刻目标的位置,即当前时刻新检测的目标位置。
6.基于权利要求1所述的基于激光雷达的动态多目标跟踪方法,其特征在于,所述步骤四中是否关联成功的方法为:当前时刻目标的预测位置和当前时刻目标检测框之间的交并比IOU,若IOU小于指定IOU阈值,则关联失败,否则关联成功。
7.基于权利要求1所述的基于激光雷达的动态多目标跟踪方法,其特征在于,
所述步骤五中,针对不同类别的目标,采用不同的卡尔曼滤波,针对低速目标采用线性卡尔曼滤波器,针对高速目标采用无损卡尔曼滤波器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110467582.4A CN113160280B (zh) | 2021-04-28 | 2021-04-28 | 一种基于激光雷达的动态多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110467582.4A CN113160280B (zh) | 2021-04-28 | 2021-04-28 | 一种基于激光雷达的动态多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113160280A CN113160280A (zh) | 2021-07-23 |
CN113160280B true CN113160280B (zh) | 2022-07-08 |
Family
ID=76872098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110467582.4A Active CN113160280B (zh) | 2021-04-28 | 2021-04-28 | 一种基于激光雷达的动态多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160280B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114137562B (zh) * | 2021-11-30 | 2024-04-12 | 合肥工业大学智能制造技术研究院 | 一种基于改进全局最邻近的多目标跟踪方法 |
CN114609634B (zh) * | 2022-03-21 | 2023-04-25 | 电子科技大学 | 一种基于阴影的交互式多模型下的视频sar多目标跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292911A (zh) * | 2017-05-23 | 2017-10-24 | 南京邮电大学 | 一种基于多模型融合和数据关联的多目标跟踪方法 |
CN111932580A (zh) * | 2020-07-03 | 2020-11-13 | 江苏大学 | 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统 |
CN112285700A (zh) * | 2020-08-24 | 2021-01-29 | 江苏大学 | 基于激光雷达与毫米波雷达融合的机动目标跟踪方法 |
-
2021
- 2021-04-28 CN CN202110467582.4A patent/CN113160280B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292911A (zh) * | 2017-05-23 | 2017-10-24 | 南京邮电大学 | 一种基于多模型融合和数据关联的多目标跟踪方法 |
CN111932580A (zh) * | 2020-07-03 | 2020-11-13 | 江苏大学 | 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统 |
CN112285700A (zh) * | 2020-08-24 | 2021-01-29 | 江苏大学 | 基于激光雷达与毫米波雷达融合的机动目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113160280A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nieto et al. | Recursive scan-matching SLAM | |
Lenac et al. | Fast planar surface 3D SLAM using LIDAR | |
KR101003168B1 (ko) | 다차원 에비던스 그리드 및 그를 적용한 시스템 및 방법 | |
Rodríguez Flórez et al. | Multi-modal object detection and localization for high integrity driving assistance | |
Rapp et al. | Probabilistic ego-motion estimation using multiple automotive radar sensors | |
CN113160280B (zh) | 一种基于激光雷达的动态多目标跟踪方法 | |
Mu et al. | Research on SLAM algorithm of mobile robot based on the fusion of 2D LiDAR and depth camera | |
Yin et al. | Dynam-SLAM: An accurate, robust stereo visual-inertial SLAM method in dynamic environments | |
CN111781608A (zh) | 一种基于fmcw激光雷达的运动目标检测方法及系统 | |
Muresan et al. | Multi-object tracking of 3D cuboids using aggregated features | |
CN111915675B (zh) | 基于粒子漂移的粒子滤波点云定位方法及其装置和系统 | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
JP2023021098A (ja) | マップ構築方法、装置及び記憶媒体 | |
CN114088081A (zh) | 一种基于多段联合优化的用于精确定位的地图构建方法 | |
Muresan et al. | Multimodal sparse LIDAR object tracking in clutter | |
CN113759928B (zh) | 用于复杂大尺度室内场景的移动机器人高精度定位方法 | |
Lyrio et al. | Image-based mapping, global localization and position tracking using VG-RAM weightless neural networks | |
Xu et al. | Dynamic vehicle pose estimation and tracking based on motion feedback for LiDARs | |
Lee et al. | Robust 3-dimension point cloud mapping in dynamic environment using point-wise static probability-based NDT scan-matching | |
CN111474560B (zh) | 一种障碍物定位方法、装置及设备 | |
Diaz-Ruiz et al. | Vision-only 3d tracking for self-driving cars | |
CN117387604A (zh) | 基于4d毫米波雷达和imu融合的定位与建图方法及系统 | |
CN116681730A (zh) | 一种目标物追踪方法、装置、计算机设备和存储介质 | |
Rozsa et al. | Immediate vehicle movement estimation and 3D reconstruction for Mono cameras by utilizing epipolar geometry and direction prior |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |