CN116736330A - 一种基于动态目标跟踪的获取机器人激光里程计的方法 - Google Patents
一种基于动态目标跟踪的获取机器人激光里程计的方法 Download PDFInfo
- Publication number
- CN116736330A CN116736330A CN202310629718.6A CN202310629718A CN116736330A CN 116736330 A CN116736330 A CN 116736330A CN 202310629718 A CN202310629718 A CN 202310629718A CN 116736330 A CN116736330 A CN 116736330A
- Authority
- CN
- China
- Prior art keywords
- laser
- point
- targets
- feature
- potential dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 230000009466 transformation Effects 0.000 claims abstract description 59
- 230000003068 static effect Effects 0.000 claims abstract description 39
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000001914 filtration Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 20
- 238000010586 diagram Methods 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000002310 reflectometry Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 241000969729 Apteryx rowi Species 0.000 description 2
- 241001239379 Calophysus macropterus Species 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及一种基于动态目标跟踪的获取机器人激光里程计的方法,包括对激光雷达采集的每一帧激光雷达点云中的所有激光点进行预处理,预处理后的点云采用点云分割网络检测出潜在动态目标;利用卡尔曼滤波方法对检测出的潜在动态目标进行状态估计,得到t时刻潜在动态目标质心状态的最优估计值计算潜在动态目标的几何信息和强度信息;根据计算的潜在动态目标的速度将潜在动态划分为静态目标和动态目标,基于滑动窗口和关键帧对得到的位姿估计进行畸变补偿更新,得到最新激光里程计。本发明在目标点云几何特征的基础上引入物体的固有属性强度信息联合关联,减少了目标的误匹配,保证了多目标跟踪的精度,更有利于后续位姿及位姿变换的计算。
Description
技术领域
本发明涉及激光SLAM技术领域,特别涉及动态环境下前端激光里程计的位姿估计方法。
背景技术
实时定位与建图(Simultaneous Localization and Mapping,SLAM)是机器人人工智能导航服务的基础,高灵敏的环境感知能力直接影响了机器人导航的性能。面对单传感器获取环境信息不完善的缺陷,激光雷达SLAM与惯性测量单元(Inertial MeasurementUnit,IMU)融合的方法因不受环境中光照变化和低纹理的影响被广泛研究。但目前的研究大多都在场景是静态的或运动速度较慢的假设下实现的,面对现实应用场景中的复杂情形,如何具备稳定的环境感知能力与实现高精度的建图仍是挑战。
目前动态场景下的SLAM技术存在如下问题:
(1)传统的SLAM方法中激光里程计模块忽视了环境中动态目标对机器人自身位姿估计的影响,或者对动态目标的跟踪方法精度不高,导致大多数现有的SLAM方法在静态场景中工作良好,但在有运动障碍物的动态场景中失败。
(2)激光里程计中传统的特征匹配方法,只利用了点云的几何距离,忽略了点云的几何分布信息。
发明内容
针对现有技术存在的上述问题,本发明要解决的技术问题是:如何解决动态目标对机器人定位的影响以及如何计算出更精确的激光里程计的估计结果。
为解决上述技术问题,本发明采用如下技术方案:一种基于动态目标跟踪的获取机器人激光里程计的方法,包括如下步骤:
S1:对激光雷达采集的每一帧激光雷达点云中的所有激光点进行预处理,预处理后的点云采用基于FCNN的点云分割网络检测出潜在动态目标。
S2:利用卡尔曼滤波方法对检测出的潜在动态目标进行状态估计,得到t时刻潜在动态目标质心状态的最优估计值其中,/>表示t时刻潜在动态目标的平面坐标,/>表示t时刻潜在动态目标的速度。
S3:计算潜在动态目标的几何信息和强度信息。
S4:融合潜在动态目标的几何信息和强度信息,利用关联方法检测出所有潜在动态目标,根据S2计算的潜在动态目标的速度,如果潜在动态目标的速度t时刻的速度为0则判定该潜在动态目标为静态目标,否则为动态目标。
S5:通过曲率对静态目标进行特征点提取。
S6:对特征点通过曲率赋予不同的权重,然后基于加权函数构造位姿约束函数并求解得到激光雷达的位姿估计。
S7:基于滑动窗口和关键帧以及S6得到的位姿估计对静态目标对应的激光点进行畸变补偿更新,得到最新激光里程计即得到当前帧相对上一帧的位姿转换关系ΔTk,k+1以及更新的静态目标对应的激光点的最新坐标。
作为改进,所述S1中对激光雷达采集到的点云中的所有激光点进行预处理的步骤如下:
设第k次扫描采集到的激光点云用Pk表示,利用激光雷达坐标系与IMU坐标系之间的变换关系即可将激光点云映射到IMU坐标系下:
式中pI与pL分别表示IMU坐标系下的激光点和雷达坐标系下的激光点。
θe表示结束扫描线相对于起始线的角度,θn为当前扫描线相对于起始线的角度,当前点所在的时刻表示为:
其中,ts表示激光雷达起始扫描时间,f表示激光雷达旋转频率。
对无序点云进行序列化后,基于时序找到与tk时刻最近的两帧IMU数据并进行预积分计算,然后将计算结果投影到世界坐标系W下,从而获得tk时刻在W下的IMU姿态同理可得到tk+1时刻IMU姿态/>基于此即可得到tk+1时刻相对于tk时刻的位姿:
最后通过进行变换计算,获得在tn时刻每个激光点点的运动补偿变换矩阵/>
实现运动失真的补偿,得到补偿后的激光点
作为改进,所述S1中基于FCNN的点云分割网络检测出潜在动态目标的过程如下:
S1.1:对预处理后的点云进行降维处理,然后根据鸟瞰投影对预处理后的点云的3D空间划分区域并建立其2D索引,然后提取投影图内各网格内点柱的特征信息,些特征信息被用于生成FCNN网络的输入,即二维特征图。
FCNN网络包括特征编码器、特征解码器和属性预测器。
S1.2:特征编码器通过卷积层的卷积方式对二维特征图进行语义特征提取,并连续下采样二维特征图的空间分辨率,最后输出一个特征向量,所述卷积层包括经过训练的VGG网络和ResNet网络。
S1.3:所述特征向量输入特征解码器,采用反卷积层,进行上采样,得到与二维特征图相同尺寸的预测图。
S1.4:属性预测器计算预测图中每个网格的四个属性值,所述四个属性值是指中心偏移值、中心偏移方向值、属性概率值和物体高度值。
S1.5:根据每个网格的中心偏移值和中心偏移方向构建每个网格的偏向指针,每个多个指针指向的单元格作为候选的分类对象。
对于候选的分类对象,根据分类对象的属性概率值不小于概率阈值则认为其是可靠聚类对象;
筛选出的可靠聚类对象就是潜在的动态目标。
作为改进,所述S3中计算潜在动态目标的几何信息和强度信息的计算过程如下:
S3.1:计算潜在动态目标的几何信息即计算潜在动态目标的质心位置,利用潜在动态目标对应的激光点坐标计算潜在动态目标的质心位置如公式(6)所示:
式中n表示潜在动态目标对应的激光点的数量,xi,yi,zi表示动态目标对应的第i个激光点的坐标,表示动态目标质心的坐标。
S3.2:将激光雷达输出的原始激光点数据转换为十进制表示,并作归一化处理,得到每个激光点的强度信息。
S3.3:通过映射函数校准激光点的强度信息:
其中,d为原始激光点的距离信息,ηk表示第k个原始激光点的强度信息,ηk′表示第k个激光点校准后的强度信息。
作为改进,所述S4中利用关联方法检测出所有潜在动态目标的过程如下:
S4.1:计算潜在动态目标对应的激光点的表面反射系数ρ′:
其中,M为常量,α为激光入射角。
S4.2:判断不同帧中潜在动态目标是否为同一目标,满足公式(9)则认为不同帧中潜在动态目标是同一目标,否则不是:
式中dthr和ρthr分别表示设置的距离阈值和强度阈值,表示t时刻和t-1时刻潜在动态目标a的质心位置,/>表示在t时刻和t-1时刻a的强度平均值,通过公式(9)将t时刻图片中潜在动态目标与将t-1时刻图片中的潜在动态目标进行关联,关联出被障碍物遮挡的潜在动态目标,从而检测出所有潜在动态目标。
作为改进,所述S5中通过曲率对静态目标进行特征点提取的过程如下:
S5.1:激光雷达扫描具有M个平行读数的垂直平面,每一平行线上有N个点,将第k次激光雷达扫描的所有静态目标对应的所有激光点表示为Pk′,将每一个激光点表示为其中m∈[1,M],n∈[1,N],xk,yk,zk为第k个激光点的三维坐标。
将所在线束在水平方向上的连续点集用/>表示,则对于/>相邻点构成的平面,/>的曲率/>的计算公式为:
式中Ns表示中激光点的个数,/>表示/>中第m行中第j个激光点。
然后根据c值的大小对中的所有激光点进行分类,c值大于设定阈值的作为角点或边点,c值小于或等于设定阈值的被视为平面特征点。
S5.2:通过设置的阈值σ将点标记为待选边缘点和待选平面特征点。将每条扫描线采集到的/>平均分为四个子区域,每个子区域中最多提取两个边缘特征点和四个平面特征点,四个子区域中所有边缘特征点的集合记为εk,四个子区域中所有平面特征点的集合集记为sk。
作为改进,所述S6中求解得到激光雷达位姿估计的过程如下:
S6.1:将第k次激光雷达扫描的所有静态目标对应的所有激光点表示为Pk′,Pk′中一个激光点表示为pk={xk,yk,zk,1}T,设激光雷达在第k帧中的位姿表示Tk,则两个连续帧k-1和k之间的6自由度位姿变换为:
其中,是/>的李代数表示。函数log(·)是从齐次变换矩阵到李代数的映射,第k帧间到短时间δt内的位姿变换表示为:
式中表示当前第k帧的静态目标对应的所有激光点重投影到当前帧开始时刻的位置。
假设εk中边缘特征点pε的局部平滑度是cε,sk中平面特征点ps的局部平滑度是cs,它们的权重定义如公式(14)所示:
其中,W(pε)、W(ps)分别表示pε和ps的权重,表示εk中第i行第j个边缘特征点的曲率。
S6.2:计算每个边缘特征点pε在全局边缘特征集合中的临近点的协方差矩阵,全局边缘特征集合即一帧图像中含有的所有εk的集合,如果协方差矩阵包含最大特征值,说明pε在全局边缘特征中的临近点分布在一条直线上,这个最大特征值对应的特征向量看作直线的方向,临近点的几何中心/>看作直线的位置,此时边缘特征点pε到全局边缘特征的距离是:
式中pn是单位向量;
S6.3:计算每个平面特征点pS,在全局平面特征集合中与临近点的协方差矩阵,全局平面特征集合即一帧图像中含有的所有sk的集合,如果协方差矩阵包含一个最小特征值,说明这些临近点分布在一个平面上,这个最小特征值对应的特征向量看作曲面法线的方向,临近点的几何中心/>可以看作平面的位置,此时平面特征点pS到全局平面特征集合的距离表示为:
S6.4:优化函数定义为:
S6.5:利用高斯牛顿法对公式(18)求解非线性方程,得到最优姿态估计,应用具有左扰动的模型来估计雅可比矩阵Jp:
其中[Tp]×即[Tkpk]×,δ、ξ分别表示短时间,δt和两个连续帧之间的6自由度位姿变换Tkpk表示一个4*4矩阵和4*1的向量得到一个4*1的向量,边缘残差的雅可比矩阵Jε通过以下公式计算:
平面残差的雅可比矩阵Js:
通过雅可比矩阵表示迭代增量ΔTk,使用ΔTk更新激光里程计估计结果,反复迭代优化姿态,直到ΔTk收敛,即可计算出当前激光雷达的位姿估计Tk。
作为改进,所述S7中得到最新激光里程计输出的过程如下:
S7.1:通过设置一个位姿变换的阈值选取关键帧,即当机器人在第k时刻与k+1时刻之间的位姿变换超过位姿变换的阈值时,就会选择当前帧为关键帧Fk+1并加入滑动窗口,该Fk+1与pk的位姿相匹配;接着在时序上提取i个最靠近的关键帧,并将这些关键帧表示为一个子关键帧集{Fk-i,...,Fk},通过与W之间的变换矩阵{T'k-i,...,T'k},将子关键帧集投影到W下得到投影图Mk。
Mk由边缘特征点云投影图和平面特征点云投影图/>组成。每个关键帧与对应的投影图Mk相互关联,关联关系定义如下所示:
其中,分别代表子关键帧集中第k个关键帧和k-i个关键帧的边缘特征点, 分别代表子关键帧集合中第k个关键帧和k-i个关键帧的平面特征点。
S7.2:将最新获得的k+1关键帧个关键帧Fk+1转换到W下并与所述投影图Mk关联,获得第k+1帧的增量式位姿变换ΔTk,k+1:
其中,表示Tk的逆矩阵,Tk+1表示k+1帧激光雷达的位姿估计。
利用6自由度位姿变换重新计算失真,得到:
式中是ΔTk,k+1的李代数表示,。通过公式(19)就可以计算出激光雷达更新后的最优定位估计,ΔTk,k+1表示相邻两关键帧间位姿变换关系,/>表示更新的静态目标对应的激光点的最新坐标。
相对于现有技术,本发明至少具有如下优点:
本发明将动态目标检测与跟踪方法融进传统的激光里程计方法框架中,考虑了动态目标对机器人(激光雷达固定在机器人上,因此可以通过激光雷达的程计估计来确定机器人的程计估计)定位和环境建图的影响,同时在动态目标跟踪部分,本发明在目标点云几何特征的基础上引入物体的固有属性强度信息联合关联,减少了目标的误匹配,保证了多目标跟踪的精度,更有利于后续激光里程计中位姿及位姿变换的计算。
本发明在位姿计算部分,与传统特征匹配方法相比,一方面只对分割出来的静态点云进行特征点提取与特征匹配,另一方面同时利用了点云的几何距离信息和局部几何分布进行特征匹配,并基于滑动窗口和关键帧对特征匹配后的点云进一步畸变补偿更新,提高点云配准环节得到的位姿变换矩阵和机器人位姿的准确率。
附图说明
图1为基于动态目标跟踪的获取机器人激光里程计的方法的流程框架图。
图2为基于FCNN的分割网络模型的框架图。
图3为多目标跟踪方法的框架图。
图4为基于KF的状态估计效果示意图。
图5为单帧目标检测结果图。
图6为多目标跟踪效果图。
具体实施方式
下面对本发明作进一步详细说明。
一种基于动态目标跟踪的获取机器人激光里程计的方法,包括如下步骤:
S1:对激光雷达采集的每一帧激光雷达点云中的所有激光点进行预处理,预处理后的点云采用基于FCNN的点云分割网络检测出潜在动态目标;
S2:利用卡尔曼滤波方法对检测出的潜在动态目标进行状态估计,得到t时刻潜在动态目标质心状态的最优估计值其中,/>表示t时刻潜在动态目标的平面坐标,/>表示t时刻潜在动态目标的速度;
S3:计算潜在动态目标的几何信息和强度信息;
S4:融合潜在动态目标的几何信息和强度信息,利用关联方法检测出所有潜在动态目标,根据S2计算的潜在动态目标的速度,如果潜在动态目标的速度t时刻的速度为0则判定该潜在动态目标为静态目标,否则为动态目标
S5:通过曲率对静态目标进行特征点提取;
S6:对特征点通过曲率赋予不同的权重,然后基于加权函数构造位姿约束函数并求解得到静态目标的位姿估计;
S7:基于滑动窗口和关键帧以及S6得到的位姿估计对静态目标对应的激光点进行畸变补偿更新,得到最新激光里程计即得到相邻关键帧间位姿变换关系ΔTk,k+1以及更新的静态目标对应的激光点的最新坐标。由相邻两帧静态目标点云的位姿变换可以得到相邻两帧激光雷达的位姿变换,通过当前帧相对上一帧的位姿变换关系和上一帧激光雷达的位姿就可以计算出激光雷达当前帧的位姿估计。激光雷达的初始位姿由IMU预积分得到,然后由相邻两帧静态目标点云的位姿变换可以得到相邻两帧激光雷达的位姿变换,通过当前帧相对上一帧的位姿变换关系和上一帧激光雷达的位姿就可以计算出激光雷达当前帧的位姿估计。
具体的,所述S1中对激光雷达采集到的点云中的所有激光点进行预处理的步骤如下:
当线机械式激光雷达自转获取环境三维信息时,频率为10HZ,即扫描一圈只需要0.1s,这就导致机器人在移动过程中,因为自身的旋转运动或平移运动,一帧激光雷达点云内的所有点可能不是在同一个位置采集的。载体在向前运动的过程中,同一帧采集到的点云的坐标系不一样。对于产生的运动畸变,必须通过数据补偿以消除激光点云的失真,即将某一帧的点云重投影到同一时刻坐标系下。
设第k次扫描采集到的激光点云用Pk表示,点云失真补偿就是将Pk中所有激光点重投影到tk时刻结束的雷达坐标系下。利用激光雷达坐标系与IMU坐标系之间的变换关系即可将激光点云映射到IMU坐标系下:
式中pI与pL分别表示IMU坐标系下的激光点和雷达坐标系下的激光点。
由于激光雷达采集到的点云只包含几何信息和强度信息,不包含采集顺序,所以对点云数据进行插值处理之前,需要对点云进行序列化操作。激光雷达以恒定的角速度匀速旋转,可基于扫描一圈点云的时序,根据角度差值对点云进行编号,θe表示结束扫描线相对于起始线的角度,θn为当前扫描线相对于起始线的角度,当前点所在的时刻表示为:
其中,ts表示激光雷达起始扫描时间,f表示激光雷达旋转频率。
对无序点云进行序列化后,基于时序找到与tk时刻最近的两帧IMU数据并进行预积分计算,然后将计算结果投影到世界坐标系W下,从而获得tk时刻在W下的IMU姿态同理可得到tk+1时刻IMU姿态/>基于此即可得到tk+1时刻相对于tk时刻的位姿:
最后通过进行变换计算,获得在tn时刻每个激光点点的运动补偿变换矩阵/>
实现运动失真的补偿,得到补偿后的激光点
具体的,所述S1中基于FCNN的点云分割网络检测出潜在动态目标的过程如下:
S1.1:对预处理后的点云进行降维处理,然后根据鸟瞰投影对预处理后的点云的3D空间划分区域并建立其2D索引,然后提取投影图内各网格内点柱的特征信息,些特征信息被用于生成FCNN网络的输入,即二维特征图;
具体的提取投影图内各网格内点柱的8个特征信息,该8个特征信息包括单元格中激光点的个数、平均强度、平均高度、最高点的强度、最大高度、单元格中心与原点的角度偏差和距离以及单元格是否被占用的二进制表示,这些特征信息被用于生成FCNN网络的输入,即二维特征图。采用二维网格对鸟瞰投影点云数据进行切割,每个激光点落在一个网格中,从而变为有序的二维矩阵,一个网格中可能有几个或者0个激光点。
FCNN网络包括特征编码器、特征解码器和属性预测器;
S1.2:特征编码器通过卷积层的卷积方式对二维特征图进行语义特征提取,并连续下采样二维特征图的空间分辨率,最后输出一个特征向量,所述卷积层包括经过训练的VGG网络和ResNet网络;
S1.3:所述特征向量输入特征解码器,采用反卷积层,进行上采样,得到与二维特征图相同尺寸的预测图;
S1.4:属性预测器计算预测图中每个网格的四个属性值,所述四个属性值是指中心偏移值、中心偏移方向值、属性概率值和物体高度值;
S1.5:根据每个网格的中心偏移值和中心偏移方向构建每个网格的偏向指针,每个多个指针指向的单元格作为候选的分类对象。
对于候选的分类对象,根据分类对象的属性概率值不小于概率阈值则认为其是可靠聚类对象;
筛选出的可靠聚类对象就是潜在的动态目标。
具体的,所述S3中计算潜在动态目标的几何信息和强度信息的计算过程如下:
S3.1:计算潜在动态目标的几何信息即计算潜在动态目标的质心位置,利用潜在动态目标对应的激光点坐标计算潜在动态目标的质心位置如公式(6)所示:
式中n表示潜在动态目标对应的激光点的数量,xi,yi,zi表示动态目标对应的第i个激光点的坐标,表示动态目标质心的坐标;
S3.2:将激光雷达输出的原始激光点数据转换为十进制表示,并作归一化处理,得到每个激光点的强度信息。
S3.3:激光雷达的强度通道是有噪声的,这是由于目标表面特性,例如粗糙度、表面反射率以及采集几何距离等影响所致。因此,为了减少这些因素的干扰,通过映射函数校准激光点的强度信息:
其中,d为原始激光点的距离信息,ηk表示第k个原始激光点的强度信息,ηk′表示第k个激光点校准后的强度信息。
具体的,所述S4中利用关联方法检测出所有潜在动态目标的过程如下:
S4.1:计算潜在动态目标对应的激光点的表面反射系数ρ′:
其中,M为常量,该常量与激光雷达发射功率、光学传输系统、大气传输系数等有关,α为激光入射角;
S4.2:判断不同帧中潜在动态目标是否为同一目标,满足公式(9)则认为不同帧中潜在动态目标是同一目标,否则不是:
式中dthr和ρthr分别表示设置的距离阈值和强度阈值,表示t时刻和t-1时刻潜在动态目标a的质心位置,/>表示在t时刻和t-1时刻a的强度平均值,对潜在动态目标对应的每个激光点的反射率ρ′取平均值即可得到该潜在动态目标表面的反射率ρ。
通过公式(9)将t时刻图片中潜在动态目标与将t-1时刻图片中的潜在动态目标进行关联,关联出被障碍物遮挡的潜在动态目标,从而检测出所有潜在动态目标。
关联方法结束后可以将当前帧的目标与前一帧的目标关联起来,如图3所示,多目标跟踪方法结合关联结果和卡尔曼滤波器对目标的状态预测得到跟踪结果,即跟踪结果包括目标的运动轨迹和位置、速度等状态,然后根据判断目标的速度是否为0将目标分为静态目标和动态目标。
具体的,所述S5中通过曲率对静态目标进行特征点提取的过程如下:
S5.1:激光雷达扫描具有M个平行读数的垂直平面,每一平行线上有N个点,将第k次激光雷达扫描的所有静态目标对应的所有激光点表示为Pk′,将每一个激光点表示为其中m∈[1,M],n∈[1,N],xk,yk,zk为第k个激光点的三维坐标;
将所在线束在水平方向上的连续点集用/>表示,则对于/>相邻点构成的平面,/>的曲率/>的计算公式为:
式中Ns表示中激光点的个数,/>表示/>中第m行中第j个激光点。
然后根据c值的大小对中的所有激光点进行分类,c值大于设定阈值的作为角点或边点,c值小于或等于设定阈值的被视为平面特征点。
S5.2:通过设置的阈值σ将点标记为待选边缘点和待选平面特征点。为了获得均匀分布的特征点,将每条扫描线采集到的/>平均分为四个子区域,每个子区域中最多提取两个边缘特征点和四个平面特征点,四个子区域中所有边缘特征点的集合记为εk,四个子区域中所有平面特征点的集合集记为sk。
具体的,所述S6中求解得到静态目标位姿估计的过程如下:
S6.1:将第k次激光雷达扫描的所有静态目标对应的所有激光点表示为Pk′,Pk′中一个激光点表示为pk={xk,yk,zk,1}T,设激光雷达在第k帧中的位姿表示Tk,则两个连续帧k-1和k之间的6自由度位姿变换为:
其中,是/>的李代数表示。函数log(·)是从齐次变换矩阵到李代数的映射,第k帧间到短时间δt内的位姿变换表示为:
式中表示当前第k帧的静态目标对应的所有激光点重投影到当前帧开始时刻的位置。
假设εk中边缘特征点pε的局部平滑度是cε,sk中平面特征点ps的局部平滑度是cs,它们的权重定义如公式(14)所示:
其中,W(pε)、W(ps)分别表示pε和ps的权重,表示εk中第i行第j个边缘特征点的曲率。
S6.2:计算每个边缘特征点pε在全局边缘特征集合中的临近点的协方差矩阵,全局边缘特征集合即一帧图像中含有的所有εk的集合,如果协方差矩阵包含最大特征值,说明pε在全局边缘特征中的临近点分布在一条直线上,这个最大特征值对应的特征向量看作直线的方向,临近点的几何中心/>看作直线的位置,此时边缘特征点pε到全局边缘特征的距离是:
式中符号·是点积,pn是单位向量;
S6.3:计算每个平面特征点pS,在全局平面特征集合中与临近点的协方差矩阵,全局平面特征集合即一帧图像中含有的所有sk的集合,如果协方差矩阵包含一个最小特征值,说明这些临近点分布在一个平面上,这个最小特征值对应的特征向量看作曲面法线的方向,临近点的几何中心/>可以看作平面的位置,此时平面特征点pS到全局平面特征集合的距离表示为:
S6.4:优化函数定义为:
S6.5:利用高斯牛顿法对公式(12)求解非线性方程,得到最优姿态估计,应用具有左扰动的模型来估计雅可比矩阵Jp:
其中[Tp]×即[Tkpk]×,表示将4D点表达式{x,y,z,1}转换为3D点表达式{x,y,z}并计算其斜对称矩阵,δ、ξ分别表示短时间,δt和两个连续帧之间的6自由度位姿变换Tkpk表示一个4*4矩阵和4*1的向量得到一个4*1的向量,边缘残差的雅可比矩阵Jε通过以下公式计算:/>
平面残差的雅可比矩阵Js:
通过雅可比矩阵表示迭代增量ΔTk,使用ΔTk更新激光里程计估计结果,反复迭代优化姿态,直到ΔTk收敛,即可计算出当前激光雷达的位姿估计Tk。
具体的,所述S7中得到最新激光里程计输出的过程如下:
S7.1:通过设置一个位姿变换的阈值选取关键帧,平移和旋转阈值分别设置为1m和10°,即当机器人在第k时刻与k+1时刻之间的位姿变换超过位姿变换的阈值时,就会选择当前帧为关键帧Fk+1并加入滑动窗口,该Fk+1与pk的位姿相匹配;为了存储固定数量的最近帧激光点云的投影图,先维护一个栈作为滑动窗口。接着在时序上提取i个最靠近的关键帧,并将这些关键帧表示为一个子关键帧集{Fk-i,...,Fk},通过与W之间的变换矩阵{T'k-i,...,T'k},将子关键帧集投影到W下得到投影图Mk。
Mk由边缘特征点云投影图和平面特征点云投影图/>组成。每个关键帧与对应的投影图Mk相互关联,关联关系定义如下所示:
其中,分别代表子关键帧集中第k个关键帧和k-i个关键帧的边缘特征点,/> 分别代表子关键帧集合中第k个关键帧和k-i个关键帧的平面特征点。
S7.2:将最新获得的k+1关键帧个关键帧Fk+1转换到W下并与所述投影图Mk关联,获得第k+1帧的增量式位姿变换ΔTk,k+1:
其中,表示Tk的逆矩阵,Tk+1表示k+1帧激光雷达的位姿估计。
利用6自由度位姿变换重新计算失真,得到:
式中是ΔTk,k+1的李代数表示,。通过公式(19)就可以计算出激光雷达更新后的最优定位估计,ΔTk,k+1表示相邻两关键帧间位姿变换关系,/>表示更新的静态目标对应的激光点的最新坐标;
第k+1次激光雷达扫描的静态目标对应的所有激光点表示为Pk′+1,Pk′+1中一个激光点表示为pk+1,为两个连续帧k和k+1之间的6自由度位姿变换,根据第k+1帧的ΔTk,k+1计算得到,/>表示更新的静态目标对应的激光点的最新坐标。
输出和相邻两关键帧间位姿变换关系ΔTk,k+1。
实验验证:
采用经典的基于激光雷达SLAM框架LOAM方法作为baseline模型框架,并在LOAM框架的前端里程计部分加入本发明提出方法,做了以下几组对比实验:第一组是本发明方法和其他基于深度学习的目标跟踪方法的对比实验,第二组是不同激光SLAM框架中前端里程计方法的对比实验。
1.实验数据集
为了训练基于FCNN的点云分割网络,本发明使用KITTI数据集的object子集。该目标集包括训练点云7481帧、测试点云7518帧以及80256个被标注的对象,在目标跟踪实验中也使用该数据集。前端里程计的对比实验使用KITTI数据集中的RawData数据集,该数据集共有22组数据,其中前11个序列(0-10)带有地面真实轨迹,剩下11个序列(11-21)没有地面真实轨迹,各序列的具体信息可见表1。
表1KITTI数据集各序列信息表
2.评价标准
评估多目标跟踪方法性能的相关指标包括:大部分跟踪轨迹占比MT,大部分丢失轨迹占比ML,跟踪准确率MOTA,跟踪查全率MOTP。MT指的是Ground Truth在超过80%的时间内都匹配到轨迹的数目在全部数目的占比,ML指的是Ground Truth在小于20%的时间内匹配到轨迹的数目在全部数目的占比,MOTA给出了直观的衡量跟踪器在检测物体(TN,FP)和保持轨迹(IDSW)的性能。
评价激光里程计方法性能的相关指标包括方法输出轨迹的绝对位姿误差(ATE)和相对位姿误差(RPE),绝对位姿误差(ATE)通过计算SLAM方法输出的轨迹与真实轨迹之间的误差来得到的,可以评价方法的精度和轨迹的一致性。设i时刻方法输出位姿为pi,此时位姿的地面真值为qi,且输出位姿到真实位姿的变换矩阵为T,则i时刻的绝对位姿差值Ei为:
通常使用Ei的均方根误差(RMSE)作为ATE指标,来评估全局定位一致性,根据各时刻的绝对位姿误差可计算出全局轨迹的RMSE:
式中m表示轨迹中的位姿数,trans(Ei)表示绝对误差的平移部分。
相对位姿误差(RPE)通过计算等时间间隔的两帧位姿差值来描述测量里程计的误差,它可以帮助我们了解相邻帧之间的姿态变化情况,同时也可以反映定位方法在全局轨迹中局部位姿估计的准确性和鲁棒性。同样的,通常使用均方根误差(RMSE)作为RPE指标,先计算各时刻的相对位姿误差,假设等时间间隔为Δ,则i时刻的位姿差值Fi为:
各时刻的相对位姿差值取RMSE为:
其中n表示轨迹中的位姿个数,trans(Fi)表示相对误差的平移部分。
3.实验设置
在KITTI数据集中object3D目标子集上将本发明方法与两个前沿的基于深度学习的多目标跟踪方法TrackR-CNN和MOTSFusion进行对比实验,验证本发明跟踪方法的精度。同时通过数据集的00-08序列对激光里程计方法进行实验验证,将其与两个现有的激光雷达SLAM方法LOAM和LeGO-LOAM进行对比,其中LOAM是比较经典的纯激光SLAM框架,通过边缘特征和平面特征匹配得到相邻两帧的位姿估计,LeGO-LOAM在LOAM的基础上增加点云分割去噪工作,且加入IMU数据,是激光雷达与IMU松耦合的前沿方法,这两种方法都没有考虑动态目标与重要特征点对定位建图的影响。
4.实验结果分析
图5为目标检测实验效果,可以发现,即使在目标众多的复杂场景中,本发明采用的方法仍然可以检测出所有运动目标,并准确地输出目标的类别和3D回归框。图6为实际场景中基于INNDA的多目标跟踪下的跟踪结果,多目标检测出来的所有潜在运动都被做了单独的标记,每一个目标都有自己唯一的id编号,通过目标跟踪方法实时估计每个潜在运动目标的状态,包括速度和轨迹,并以运行速度为依据判断目标是静止还是运动的状态,然后在后续场景分割中根据被跟踪目标的id编号从原始点云中剔除速度不为0的运动目标。
表2为跟踪方法对比实验结果,根据表2中的数据可以得知,本发明提出的多目标跟踪方法在各项性能评估指标上与基于深度学习的多目标跟踪方法相当,而且它平均消耗的时间也远低于这类方法。综合对比分析,本发明的多目标跟踪方法实现了精度与计算效率之间的平衡,可以在动态场景中对原始点云进行实时动静点云分割。
表2多目标跟踪结果
表3KITTI数据集下的位姿误差对比
表3展示了各激光里程计方法在KITTI多传感器数据集中00-08序列上的绝对位姿误差(ATE)和相对位姿误差(RPE)结果,即表现了系统定位的精度和稳定性。由表可知在所有序列下,本发明的SLAM方法前端里程计输出的位姿估计均更准确,可以体现本发明激光里程计的精度相较于LOAM和LeGO-LOAM有所提高,其中在相对于里程计距离较短的城市场景07序列中,三种方法的位姿误差没有显著的区别,但在距离长达3000米且场景复杂的情况下,如00序列和08序列,本发明的绝对位姿误差明显低于另外两种方法,可以证明利用重要特征点的信息进行位姿估计且进行二次畸变校正可以提高系统的定位精度。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于,包括如下步骤:
S1:对激光雷达采集的每一帧激光雷达点云中的所有激光点进行预处理,预处理后的点云采用基于FCNN的点云分割网络检测出潜在动态目标;
S2:利用卡尔曼滤波方法对检测出的潜在动态目标进行状态估计,得到t时刻潜在动态目标质心状态的最优估计值其中,/>表示t时刻潜在动态目标的平面坐标,/>表示t时刻潜在动态目标的速度;
S3:计算潜在动态目标的几何信息和强度信息;
S4:融合潜在动态目标的几何信息和强度信息,利用关联方法检测出所有潜在动态目标,根据S2计算的潜在动态目标的速度,如果潜在动态目标的速度t时刻的速度为0则判定该潜在动态目标为静态目标,否则为动态目标;
S5:通过曲率对静态目标进行特征点提取;
S6:对特征点通过曲率赋予不同的权重,然后基于加权函数构造位姿约束函数并求解得到激光雷达的位姿估计;
S7:基于滑动窗口和关键帧以及S6得到的位姿估计对静态目标对应的激光点进行畸变补偿更新,得到最新激光里程计即得到相邻关键帧间位姿变换关系ΔTk,k+1以及更新的静态目标对应的激光点的最新坐标。
2.如权利要求1所述的基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于:所述S1中对激光雷达采集到的点云中的所有激光点进行预处理的步骤如下:
设第k次扫描采集到的激光点云用Pk表示,利用激光雷达坐标系与IMU坐标系之间的变换关系即可将激光点云映射到IMU坐标系下:
式中pI与pL分别表示IMU坐标系下的激光点和雷达坐标系下的激光点;
θe表示结束扫描线相对于起始线的角度,θn为当前扫描线相对于起始线的角度,当前点所在的时刻表示为:
其中,ts表示激光雷达起始扫描时间,f表示激光雷达旋转频率;
对无序点云进行序列化后,基于时序找到与tk时刻最近的两帧IMU数据并进行预积分计算,然后将计算结果投影到世界坐标系W下,从而获得tk时刻在W下的IMU姿态Tk W,同理可得到tk+1时刻IMU姿态基于此即可得到tk+1时刻相对于tk时刻的位姿:
最后通过进行变换计算,获得在tn时刻每个激光点点的运动补偿变换矩阵Tn k:
实现运动失真的补偿,得到补偿后的激光点
3.如权利要求2所述的基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于:所述S1中基于FCNN的点云分割网络检测出潜在动态目标的过程如下:
S1.1:对预处理后的点云进行降维处理,然后根据鸟瞰投影对预处理后的点云的3D空间划分区域并建立其2D索引,然后提取投影图内各网格内点柱的特征信息,些特征信息被用于生成FCNN网络的输入,即二维特征图;
FCNN网络包括特征编码器、特征解码器和属性预测器;
S1.2:特征编码器通过卷积层的卷积方式对二维特征图进行语义特征提取,并连续下采样二维特征图的空间分辨率,最后输出一个特征向量,所述卷积层包括经过训练的VGG网络和ResNet网络;
S1.3:所述特征向量输入特征解码器,采用反卷积层,进行上采样,得到与二维特征图相同尺寸的预测图;
S1.4:属性预测器计算预测图中每个网格的四个属性值,所述四个属性值是指中心偏移值、中心偏移方向值、属性概率值和物体高度值;
S1.5:根据每个网格的中心偏移值和中心偏移方向构建每个网格的偏向指针,每个多个指针指向的单元格作为候选的分类对象;
对于候选的分类对象,根据分类对象的属性概率值不小于概率阈值则认为其是可靠聚类对象;
筛选出的可靠聚类对象就是潜在的动态目标。
4.如权利要求2所述的基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于:所述S3中计算潜在动态目标的几何信息和强度信息的计算过程如下:
S3.1:计算潜在动态目标的几何信息即计算潜在动态目标的质心位置,利用潜在动态目标对应的激光点坐标计算潜在动态目标的质心位置如公式(6)所示:
式中n表示潜在动态目标对应的激光点的数量,xi,yi,zi表示动态目标对应的第i个激光点的坐标,表示动态目标质心的坐标;
S3.2:将激光雷达输出的原始激光点数据转换为十进制表示,并作归一化处理,得到每个激光点的强度信息;
S3.3:通过映射函数校准激光点的强度信息:
其中,d为原始激光点的距离信息,ηk表示第k个原始激光点的强度信息,ηk′表示第k个激光点校准后的强度信息。
5.如权利要求2所述的基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于:所述S4中利用关联方法检测出所有潜在动态目标的过程如下:
S4.1:计算潜在动态目标对应的激光点的表面反射系数ρ′:
其中,M为常量,α为激光入射角;
S4.2:判断不同帧中潜在动态目标是否为同一目标,满足公式(9)则认为不同帧中潜在动态目标是同一目标,否则不是:
式中dthr和ρthr分别表示设置的距离阈值和强度阈值,表示t时刻和t-1时刻潜在动态目标a的质心位置,/>表示在t时刻和t-1时刻a的强度平均值,
通过公式(9)将t时刻图片中潜在动态目标与将t-1时刻图片中的潜在动态目标进行关联,关联出被障碍物遮挡的潜在动态目标,从而检测出所有潜在动态目标。
6.如权利要求2所述的基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于:所述S5中通过曲率对静态目标进行特征点提取的过程如下:
S5.1:激光雷达扫描具有M个平行读数的垂直平面,每一平行线上有N个点,将第k次激光雷达扫描的所有静态目标对应的所有激光点表示为P′k,将每一个激光点表示为其中m∈[1,M],n∈[1,N],xk,yk,zk为第k个激光点的三维坐标;
将所在线束在水平方向上的连续点集用/>表示,则对于/>相邻点构成的平面,/>的曲率/>的计算公式为:
式中Ns表示中激光点的个数,/>表示/>中第m行中第j个激光点;
然后根据c值的大小对中的所有激光点进行分类,c值大于设定阈值的作为角点或边点,c值小于或等于设定阈值的被视为平面特征点;
S5.2:通过设置的阈值σ将点标记为待选边缘点和待选平面特征点,将每条扫描线采集到的/>平均分为四个子区域,每个子区域中最多提取两个边缘特征点和四个平面特征点,四个子区域中所有边缘特征点的集合记为εk,四个子区域中所有平面特征点的集合集记为sk。
7.如权利要求6所述的基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于:所述S6中求解得到激光雷达位姿估计的过程如下:
S6.1:将第k次激光雷达扫描的所有静态目标对应的所有激光点表示为P′k,P′k中一个激光点表示为pk={xk,yk,zk,1}T,设激光雷达在第k帧中的位姿表示Tk,则两个连续帧k-1和k之间的6自由度位姿变换为:
其中,是/>的李代数表示,函数log(·)是从齐次变换矩阵到李代数的映射,第k帧间到短时间δt内的位姿变换表示为:
式中表示当前第k帧的静态目标对应的所有激光点重投影到当前帧开始时刻的位置;
假设εk中边缘特征点pε的局部平滑度是cε,sk中平面特征点ps的局部平滑度是cs,它们的权重定义如公式(14)所示:
其中,W(pε)、W(ps)分别表示pε和ps的权重,表示εk中第i行第j个边缘特征点/>的曲率;
S6.2:计算每个边缘特征点pε在全局边缘特征集合中的临近点的协方差矩阵,全局边缘特征集合即一帧图像中含有的所有εk的集合,如果协方差矩阵包含最大特征值,说明pε在全局边缘特征中的临近点分布在一条直线上,这个最大特征值对应的特征向量看作直线的方向,临近点的几何中心/>看作直线的位置,此时边缘特征点pε到全局边缘特征的距离是:
式中pn是单位向量;
S6.3:计算每个平面特征点pS,在全局平面特征集合中与临近点的协方差矩阵,全局平面特征集合即一帧图像中含有的所有sk的集合,如果协方差矩阵包含一个最小特征值,说明这些临近点分布在一个平面上,这个最小特征值对应的特征向量看作曲面法线的方向,临近点的几何中心/>可以看作平面的位置,此时平面特征点pS到全局平面特征集合的距离表示为:
S6.4:优化函数定义为:
S6.5:利用高斯牛顿法对公式(18)求解非线性方程,得到最优姿态估计,应用具有左扰动的模型来估计雅可比矩阵Jp:
其中[Tp]×即[Tkpk]×,δ、ξ分别表示短时间,δt和两个连续帧之间的6自由度位姿变换Tkpk表示一个4*4矩阵和4*1的向量得到一个4*1的向量,边缘残差的雅可比矩阵Jε通过以下公式计算:
平面残差的雅可比矩阵Js:
通过雅可比矩阵表示迭代增量ΔTk,使用ΔTk更新激光里程计估计结果,反复迭代优化姿态,直到ΔTk收敛,即可计算出当前激光雷达的位姿估计Tk。
8.如权利要求7所述的基于动态目标跟踪的获取机器人激光里程计的方法,其特征在于:所述S7中得到最新激光里程计的过程如下:
S7.1:通过设置一个位姿变换的阈值选取关键帧,即当机器人在第k时刻与k+1时刻之间的位姿变换超过位姿变换的阈值时,就会选择当前帧为关键帧Fk+1并加入滑动窗口,该Fk+1与pk的位姿相匹配;接着在时序上提取i个最靠近的关键帧,并将这些关键帧表示为一个子关键帧集{Fk-i,...,Fk},通过与W之间的变换矩阵{T'k-i,...,T'k},将子关键帧集投影到W下得到投影图Mk;
Mk由边缘特征点云投影图和平面特征点云投影图/>组成,每个关键帧与对应的投影图Mk相互关联,关联关系定义如下所示:
其中,分别代表子关键帧集中第k个关键帧和k-i个关键帧的边缘特征点,/> 分别代表子关键帧集合中第k个关键帧和k-i个关键帧的平面特征点;
S7.2:将最新获得的k+1关键帧个关键帧Fk+1转换到W下并与所述投影图Mk关联,获得第k+1帧的增量式位姿变换ΔTk,k+1:
其中,表示Tk的逆矩阵,Tk+1表示k+1帧激光雷达的位姿估计;
利用6自由度位姿变换重新计算失真,得到:
式中是ΔTk,k+1的李代数表示,通过公式(19)就可以计算出激光雷达更新后的最优定位估计,ΔTk,k+1表示相邻两关键帧间位姿变换关系,/>表示更新的静态目标对应的激光点的最新坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310629718.6A CN116736330A (zh) | 2023-05-31 | 2023-05-31 | 一种基于动态目标跟踪的获取机器人激光里程计的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310629718.6A CN116736330A (zh) | 2023-05-31 | 2023-05-31 | 一种基于动态目标跟踪的获取机器人激光里程计的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116736330A true CN116736330A (zh) | 2023-09-12 |
Family
ID=87912515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310629718.6A Pending CN116736330A (zh) | 2023-05-31 | 2023-05-31 | 一种基于动态目标跟踪的获取机器人激光里程计的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116736330A (zh) |
-
2023
- 2023-05-31 CN CN202310629718.6A patent/CN116736330A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110645974B (zh) | 一种融合多传感器的移动机器人室内地图构建方法 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN112230243B (zh) | 一种移动机器人室内地图构建方法 | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN111781608B (zh) | 一种基于fmcw激光雷达的运动目标检测方法及系统 | |
US20130060382A1 (en) | Method of accurate mapping with mobile robots | |
Park et al. | Radar localization and mapping for indoor disaster environments via multi-modal registration to prior LiDAR map | |
CN112346463B (zh) | 一种基于速度采样的无人车路径规划方法 | |
CN114659514B (zh) | 一种基于体素化精配准的LiDAR-IMU-GNSS融合定位方法 | |
CN112731371B (zh) | 一种激光雷达与视觉融合的集成化目标跟踪系统及方法 | |
CN115731268A (zh) | 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法 | |
Konrad et al. | Localization in digital maps for road course estimation using grid maps | |
CN110187337B (zh) | 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及系统 | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
CN116758153A (zh) | 用于机器人精准位姿获取的基于多因子图的后端优化方法 | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN115451948A (zh) | 一种基于多传感器融合的农业无人车定位里程计方法及系统 | |
CN114964212A (zh) | 面向未知空间探索的多机协同融合定位与建图方法 | |
Cui et al. | Online multi-target tracking for pedestrian by fusion of millimeter wave radar and vision | |
CN114035188B (zh) | 一种地基雷达冰川流速高精度监测方法与系统 | |
Zhu et al. | Deepego: Deep instantaneous ego-motion estimation using automotive radar | |
CN117606497A (zh) | 一种实时地图构建方法、系统及导盲眼镜 | |
CN117029870A (zh) | 一种基于路面点云的激光里程计 | |
He et al. | IGICP: Intensity and geometry enhanced LiDAR odometry | |
CN116736330A (zh) | 一种基于动态目标跟踪的获取机器人激光里程计的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |