CN111929699B - 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 - Google Patents
一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 Download PDFInfo
- Publication number
- CN111929699B CN111929699B CN202010707503.8A CN202010707503A CN111929699B CN 111929699 B CN111929699 B CN 111929699B CN 202010707503 A CN202010707503 A CN 202010707503A CN 111929699 B CN111929699 B CN 111929699B
- Authority
- CN
- China
- Prior art keywords
- laser
- point
- inertial navigation
- point cloud
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 9
- 230000010354 integration Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 230000004888 barrier function Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 abstract description 7
- 238000005457 optimization Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001394244 Planea Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统,其中方法包括数据预处理,还包括以下步骤:顾及动态障碍物的特征提取;进行激光点云帧间匹配和ESKF数据融合;利用帧与局部地图进行精细点云匹配,优化激光里程计的位姿,建立全局的3D点云地图。本发明提出的顾及动态障碍物的激光雷达惯导里程计与建图方法及系统,采用深度图像的方式去除道路环境中的动态障碍物,方案不同,采用三种特征点云分类别分步骤的进行点云匹配和位姿求解,充分的问题,利用ESKF框架融合惯导的预积分信息和激光雷达帧间匹配信息,提高位姿估计的精度。
Description
技术领域
本发明涉及AB测试的技术领域,特别是一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统。
背景技术
准确的位姿估计是移动机器人定位与导航的关键技术,它能够计算出机器人的位置和姿态信息,为机器人的实时控制、决策和路径规划提供重要保障。
SLAM技术能够实现移动机器人在未知环境中的自我运动估计即“定位”,同时建立周围环境地图。按照搭载传感器的不同,SLAM技术可大致分为激光SLAM和视觉SLAM两大类[1]。基于3D激光雷达的SLAM技术无需GNSS信号,可直接获取空间三维信息,不受光照变化影响、不存在尺度漂移现象,同时无需预先布置场景,可融合多传感器生成便于导航的环境地图,因此成为目前定位方案中不可或缺的新技术[2]。另外,仅依靠3D激光SLAM进行位姿估计存在诸多局限,输出位姿的频率过低,且随着行驶距离增加,会产生较大的累计误差,不能满足机器人快速定位与导航的需求。而微机电(MicroElectroMechanicalSystem,MEMS)惯导成本低廉,能够输出高频率的三轴加速度和角速度信息,具有较高的角速度测量精度,可以在激光雷达扫描之间提供稳健的状态估计。通过多传感器融合,能够弥补单一传感器进行状态估计的不足,可以提供更可靠的位置和姿态信息。
Zhang等人提出的激光雷达里程计与地图构建方案(LidarOdometryandMapping,LOAM),它仅是个激光里程计算法,无回环检测和后端优化,LOAM方案将复杂的SLAM问题划分为两个算法的结合,即高频的粗略配准和低频的精细配准。Shan等人提出轻量级和地面优化的LOAM(LightweightandGroundOptimizedLOAM,Lego-LOAM),在LOAM基础上加入数据预处理、回环检测、后端优化,后端采用基于增量平滑的非线性优化库,是较完整的3D激光SLAM方案。Zhang等人提出在LOAM基础上利用视觉里程计高频的估计位姿,激光里程计低频的优化位姿,并校准漂移;Ye等人提出一种基于图优化的激光雷达惯导紧耦合里程计方案,经过实际测试,该算法过于耗时,为了达到实时输出位姿,被动采用跳帧处理,室内跳一帧计算,室外跳两帧计算。Qin等人在Lego-LOAM的基础上加入迭代误差状态卡尔曼滤波数据融合框架;李等人在Lego-LOAM中加入惯导因子进行后端因子图优化。Behley等人提出一种稠密的基于Surfel的3D激光SLAM方案。Zuo等人提出一种基于MSCKF融合激光惯导视觉的里程计方法。Lin等人[11]提出一种基于固态激光雷达的的里程计方法。Li等人提出一种扫描到扫描的实时激光里程计估计网络。Zhang等人提出激光雷达视觉惯导耦合的SLAM方案,能够实现较高精度的里程计。然而,由于上述方法均假设周围环境是静态的,没有顾及到动态障碍物对位姿估计和建图的影响,因此这些方法很难在室外动态道路环境中实现低漂移、鲁棒的位姿估计。
发明内容
为了解决上述的技术问题,本发明提出的顾及动态障碍物的激光雷达惯导里程计与建图方法及系统,采用深度图像的方式去除道路环境中的动态障碍物,方案不同,采用三种特征点云分类别分步骤的进行点云匹配和位姿求解,充分的问题,利用ESKF框架融合惯导的预积分信息和激光雷达帧间匹配信息,提高位姿估计的精度。
本发明的第一目的是提供一种顾及动态障碍物的激光雷达惯导里程计与建图方法,数据预处理,还包括以下步骤:
步骤1:顾及动态障碍物的特征提取;
步骤2:进行激光点云帧间匹配和ESKF数据融合;
步骤3:利用帧与局部地图进行精细点云匹配,优化激光里程计的位姿,建立全局的3D点云地图。
优选的是,所述数据预处理是指通过高频的MEMS惯导辅助激光雷达,对每一帧内的所有激光点云进行畸变补偿校正。
在上述任一方案中优选的是,所述畸变补偿校正的方法包括以下子步骤:
步骤01:首先找到与当前激光点的时间戳tcurr最接近的时间戳tk和tk+1的连续惯导测量值;
步骤02:通过惯导积分过程,分别得到惯导在时间k和时间k+1的世界坐标系W中的状态,公式为:
其中,p表示位置,v表示速度,θ表示角向量,x表示x轴朝向,y表示y轴朝向,z表示z轴朝向;
其中,ratio1和ratio2为时间插值因子,tk表示k时刻的时间戳,tk+1表示k+1时刻的时间戳;
其中,表示激光雷达当前帧起始点坐标系与世界坐标系之间的变换矩阵,i表示一帧点云数据中每个点占据一帧扫描周期的时间,表示当前激光点所对应的惯导在世界坐标系下的状态,表示起始激光点所对应的惯导在世界坐标系下的状态。
在上述任一方案中优选的是,所述步骤1包括剔除道路环境中的动态障碍物,并从静态点云中提取特征点,所述特征点包括地面特征点、非地面线特征点和非地面表面特征点。
在上述任一方案中优选的是,所述动态障碍物的剔除方法为提取地面点云,对剩余的非地面点云进行目标分割并聚类,将小于设定尺寸的目标剔除。
在上述任一方案中优选的是,所述地面点云的提取方法为采用基于深度图像的角度分割方式提取地面点,将每一帧内的激光点云投影为深度图像,将无序杂乱的非结构化点云数据转化成有组织的点云数据;深度图像中的行数r由激光雷达垂直方向的激光线束数量决定,列数c由激光雷达的水平分辨率决定;
点A和点B是激光雷达在同一水平分辨率下发射,在竖直方向的相邻激光点,角度和对应在深度图像中r-1和r行激光束的垂直角度;
其中,Rr-1,c表示第r-1行第c列激光点的深度值,Rr,c表示第r行第c列激光点的深度值,θ1和θ2表示不同激光束在竖直方向上的角度,
每一个角度α计算需要两个距离读数,将这些角度的所有集合视为矩阵Mα,得到夹角图像,将Savitsky-Golay平滑算法应用在矩阵Mα的每一列,在夹角图像上进行地面标记,从期望属于地面的行开始,使用广度优先搜索将相似的组件标记在一起。
在上述任一方案中优选的是,所述目标分割的方法为对剩余的3D激光点云进行目标聚类,即将3D激光点云圆柱投影到2D深度图像,基于点云深度图的实时目标分割,然后从每一帧激光雷达数据中剔除动态障碍物,包括以下子步骤:
步骤11:计算在深度图像中行方向或列方向上相邻点A和B的角度β;
步骤12:当所述角度β小于阈值θ,则认为两条激光束的测量深度值变化过大,将扫描得到的两点分割为不同的类别,它们之间的夹角β大于阈值θ,则将它们视为来自同一对象;
步骤13:处理动态障碍物,将目标点云的包围盒在X方向、Y方向、Z方向小于设定阈值的剔除;
步骤14:把地面点云重新加载进来。
在上述任一方案中优选的是,将每一帧的地面点云使用体素栅格滤波的方法进行不同程度的下采样,标记为地面特征点PG(more)和点PG(less)。
在上述任一方案中优选的是,设置平滑度阈值,将平滑度大于所述平滑度阈值的视为的点记为非地面线特征点PE,将平滑度小于所述平滑度阈值的点记为非地面表面特征点PS,从PE中挑选nE个u值最大的点构成PE(max),并满足PE(max)∈PE,从PS中挑选个u值最小的点构成PS(min),并满足PS(min)∈PS。
在上述任一方案中优选的是,所述平滑度的计算方法包括以下子步骤:
步骤120:在同一扫描内,对于任意点A,选取左右各五个点;
步骤124:计算点A的平滑度,公式为u=(ux)2+(uy)2+(uz)2。
在上述任一方案中优选的是,在所述特征点提取时,使用过滤策略对所述特征点进行过滤,移除实时帧中不稳定的噪声点。
在上述任一方案中优选的是,所述过滤策略包括:
1)当飞行时间小于阈值,返回的激光点会带有误差,需要去除深度值小的点;
2)去掉视场边缘的点即深度值大的点;
3)去除激光束和平面夹角过小的点,定义点A的深度值为PA,点D的深度值为PD,点E的深度值为PE,计算激光束和局部平面的入射夹角,如果所述入射夹角接近180°或者0°,则删除该激光点,所述入射夹角的计算公式为
4)去除部分被遮挡的激光点,定义点B的深度值为PB,点A的深度值为PA,遮挡点的判别公式为|PB|<|PA|,|PB-PA|≥0.1|PA|。
在上述任一方案中优选的是,所述激光点云帧间匹配包括基于三种特征点云进行分类别的帧间匹配与分步骤的位姿解算。
在上述任一方案中优选的是,所述分类别的帧间匹配的方法包括:
在上述任一方案中优选的是,所述分步骤的位姿解算方法为将位姿中的六个变量分成三组,分步骤的求解位姿{tx,ty,tz,θroll,θpitch,θyaw},使用地面特征点、非地面线特征点和非地面表面特征点依次进行L-M算法位姿解算。
在上述任一方案中优选的是,所述ESKF数据融合的方法包括以下子步骤:
其中,ba为加速度偏差,bg为角速度偏差其中,ba为加速度偏差,bg为角速度偏差;
步骤:202:通过惯导数据预积分实现离散传播,传播预测状态、误差状态以及误差状态的协方差矩阵;
步骤203:进行状态更新,将状态更新转化为误差状态与点线距离或者点面距离的最小化,随着激光雷达帧间匹配估计的位姿测量值,计算卡尔曼增益矩阵,并更新全误差状态和误差状态的协方差矩阵。
本发明的第二目的是提供一种顾及动态障碍物的激光雷达惯导里程计与建图系统,包括预处理模块,还包括以下模块:
特征提取模块:用于顾及动态障碍物的特征提取;
激光里程计模块:用于进行激光点云帧间匹配和ESKF数据融合;
激光建图模块:用于利用帧与局部地图进行精细点云匹配,优化激光里程计的位姿,建立全局的3D点云地图;
所述系统按照如第一目的所述的方法自动生成3D点云地图。
本发明提出了一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统,能够模块,避免在动态物体上提取不稳定的特征点,提高计算效率和位姿估计的精度。
附图说明
图1为按照本发明的顾及动态障碍物的激光雷达惯导里程计与建图方法的一优选实施例的流程图。
图2为按照本发明的顾及动态障碍物的激光雷达惯导里程计与建图系统的一优选实施例的模块图。
图3为按照本发明的顾及动态障碍物的激光雷达惯导里程计与建图方法的一优选实施例的从点云自动重建室内语义模型流程图。
图4为按照本发明的顾及动态障碍物的激光雷达惯导里程计与建图方法的一优选实施例的道路场景示意图。
图5为按照本发明的顾及动态障碍物的激光雷达惯导里程计与建图方法的一优选实施例的激光雷达场景示意图。
图6为按照本发明的顾及动态障碍物的激光雷达惯导里程计与建图方法的一优选实施例的筛选点示意图。
图7为按照本发明的顾及动态障碍物的激光雷达惯导里程计与建图方法的一优选实施例的分步骤优化求解示意图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的阐述。
实施例一
如图1、2所示,执行步骤100,预处理模块200进行数据预处理,通过高频的MEMS惯导辅助激光雷达,对每一帧内的所有激光点云进行畸变补偿校正。
畸变补偿校正的方法包括以下子步骤:
步骤01:首先找到与当前激光点的时间戳tcurr最接近的时间戳tk和tk+1的连续惯导测量值;
步骤02:通过惯导积分过程,分别得到惯导在时间k和时间k+1的世界坐标系W中的状态,公式为:
其中,p表示位置,v表示速度,θ表示角向量,x表示x轴朝向,y表示y轴朝向,z表示z轴朝向;
其中,ratio1和ratio2为时间插值因子,tk表示k时刻的时间戳,tk+1表示k+1时刻的时间戳;
其中,表示激光雷达当前帧起始点坐标系与世界坐标系之间的变换矩阵,i表示一帧点云数据中每个点占据一帧扫描周期的时间,表示当前激光点所对应的惯导在世界坐标系下的状态,表示起始激光点所对应的惯导在世界坐标系下的状态。
执行步骤110,特征提取模块210进行顾及动态障碍物的特征提取,剔除道路环境中的动态障碍物,并从静态点云中提取特征点,所述特征点包括地面特征点、非地面线特征点和非地面表面特征点。
动态障碍物的剔除方法为提取地面点云,对剩余的非地面点云进行目标分割并聚类,将小于设定尺寸的目标剔除。
地面点云的提取方法为采用基于深度图像的角度分割方式提取地面点,将每一帧内的激光点云投影为深度图像,将无序杂乱的非结构化点云数据转化成有组织的点云数据;深度图像中的行数r由激光雷达垂直方向的激光线束数量决定,列数c由激光雷达的水平分辨率决定;
点A和点B是激光雷达在同一水平分辨率下发射,在竖直方向的相邻激光点,角度和对应在深度图像中r-1和r行激光束的垂直角度;
其中,Rr-1,c表示第r-1行第c列激光点的深度值,Rr,c表示第r行第c列激光点的深度值,θ1和θ2表示不同激光束在竖直方向上的角度,
每一个角度α计算需要两个距离读数,将这些角度的所有集合视为矩阵Mα,得到夹角图像,将Savitsky-Golay平滑算法应用在矩阵Mα的每一列,在夹角图像上进行地面标记,从期望属于地面的行开始,使用广度优先搜索将相似的组件标记在一起。
目标分割的方法为对剩余的3D激光点云进行目标聚类,即将3D激光点云圆柱投影到2D深度图像,基于点云深度图的实时目标分割,然后从每一帧激光雷达数据中剔除动态障碍物,包括以下子步骤:
步骤11:计算在深度图像中行方向或列方向上相邻点A和B的角度β;
步骤12:当所述角度β小于阈值θ,则认为两条激光束的测量深度值变化过大,将扫描得到的两点分割为不同的类别,它们之间的夹角β大于阈值θ,则将它们视为来自同一对象;
步骤13:处理动态障碍物,将目标点云的包围盒在X方向、Y方向、Z方向小于设定阈值的剔除;
步骤14:把地面点云重新加载进来。将每一帧的地面点云使用体素栅格滤波的方法进行不同程度的下采样,标记为地面特征点PG(more)和点PG(less)。设置平滑度阈值,将平滑度大于所述平滑度阈值的视为的点记为非地面线特征点PE,将平滑度小于所述平滑度阈值的点记为非地面表面特征点PS,从PE中挑选nE个u值最大的点构成PE(max),并满足PE(max)∈PE,从PS中挑选个u值最小的点构成PS(min),并满足PS(min)∈PS所述平滑度的计算方法包括以下子步骤:
步骤120:在同一扫描内,对于任意点A,选取左右各五个点;
步骤124:计算点A的平滑度,公式为u=(ux)2+(uy)2+(uz)2。
在所述特征点提取时,使用过滤策略对所述特征点进行过滤,移除实时帧中不稳定的噪声点。所述过滤策略包括:
1)当飞行时间小于阈值,返回的激光点会带有误差,需要去除深度值小的点;
2)去掉视场边缘的点即深度值大的点;
3)去除激光束和平面夹角过小的点,定义点A的深度值为PA,点D的深度值为PD,点E的深度值为PE,计算激光束和局部平面的入射夹角,如果所述入射夹角接近180°或者0°,则删除该激光点(为入射夹角过小的激光点即激光束和局部平面近似平行的激光点),所述入射夹角的计算公式为
4)去除部分被遮挡的激光点,定义点B的深度值为PB,点A的深度值为PA,遮挡点的判别公式为|PB|<|PA|,|PB-PA|≥0.1|PA|。
执行步骤120,激光里程计模块220进行激光点云帧间匹配和ESKF数据融合。激光点云帧间匹配包括基于三种特征点云进行分类别的帧间匹配与分步骤的位姿解算。分类别的帧间匹配的方法包括:
分步骤的位姿解算方法为将位姿中的六个变量分成三组,分步骤的求解位姿{tx,ty,tz,θroll,θpitch,θyaw},使用地面特征点、非地面线特征点和非地面表面特征点依次进行L-M算法位姿解算。
ESKF数据融合的方法包括以下子步骤:
其中,ba为加速度偏差,bg为角速度偏差其中,ba为加速度偏差,bg为角速度偏差;
步骤:202:通过惯导数据预积分实现离散传播,传播预测状态、误差状态以及误差状态的协方差矩阵;
步骤203:进行状态更新,将状态更新转化为误差状态与点线距离或者点面距离的最小化,随着激光雷达帧间匹配估计的位姿测量值,计算卡尔曼增益矩阵,并更新全误差状态和误差状态的协方差矩阵。
执行步骤130,激光建图模块230利用帧与局部地图进行精细点云匹配,优化激光里程计的位姿,建立全局的3D点云地图。
实施例二
本发明在LOAM、Lego-LOAM方案基础上进行改进,重点改进它们的特征提取和激光里程计部分,主要包括以下三个方面:
1)在特征点提取之前增加动态障碍物剔除模块,避免在动态物体上提取不稳定的特征点,从而影响正确的数据关联。
2)与LOAM方案和Lego-LOAM方案不同,采用三种特征点云分类别分步骤的进行点云匹配和位姿求解,提高计算效率。
3)针对LOAM方案和Lego-LOAM方案融合惯导数据不充分的问题,利用ESKF框架融合惯导的预积分信息和激光雷达帧间匹配信息,提高位姿估计的精度。
本申请的改进方案的框架如图3所示。
1.1数据预处理
由于在动态的环境中,搭载激光雷达的载体不可避免的产生非线性运动,导致扫描的激光点云存在非线性运动畸变,因此通过高频的MEMS惯导辅助激光雷达,对每一帧内的所有激光点云进行补偿校正。畸变补偿方法如下:
首先找到与当前激光点的时间戳tcurr最接近的时间戳tk和tk+1的连续惯导测量值。通过惯导积分过程,分别得到惯导在时间k和时间k+1的世界坐标系W中的状态,如公式(1)所示:
其中,p表示位置,v表示速度,θ表示角向量,x表示x轴朝向,y表示y轴朝向,z表示z轴朝向,将世界坐标系W定义为起始惯导坐标系,可利用时间因子线性插值来确定惯导在时刻tcurr在世界坐标系中的状态如公式(2)所示:
其中ratio1和ratio2为时间插值因子。
其中,表示激光雷达当前帧起始点坐标系与世界坐标系之间的变换矩阵,i表示一帧点云数据中每个点占据一帧扫描周期的时间。将每一帧激光点云转换到每帧激光雷达起点坐标系中,将每个激光点的原始坐标减去每个激光点的点云运动畸变量。
1.2顾及动态障碍物的特征提取
由于每帧原始激光点云包含数据量较大,使用全部点匹配来估计位姿,对计算资源的消耗巨大,可利用特征点云代替全部点云进行点云配准恢复位姿。此外,道路场景中存在许多动态障碍物,例如行人、车辆等,这些动态物体在点云匹配过程中是不稳定的噪声点,会影响点云匹配精度,从而导致激光里程计精度低。因此本模块首先剔除道路环境中的动态障碍物,然后从静态点云中提取特征点。
1.2.1动态障碍物处理
去除动态障碍物的手段是基于几何的方式,包括地面提取和目标分割两部分,首先提取地面点云,然后对剩余的非地面点云进行目标分割并聚类,将小于设定尺寸的目标剔除。
(1)地面提取
考虑到系统的实时性以及地面提取的准确性,采用基于深度图像的角度分割方式提取地面点。将每一帧内的激光点云投影为深度图像,将无序杂乱的非结构化点云数据转化成有组织的点云数据。深度图像中的行数r由激光雷达垂直方向的激光线束数量决定,列数c由激光雷达的水平分辨率决定。
道路场景如图4所示,点点A和点B是激光雷达在同一水平分辨率下发射,在竖直方向的相邻激光点,角度和对应在深度图像中r-1和r行激光束的垂直角度。
定义一个竖直角度,将深度图像R的每列c转换成角度的形式。已知两个相邻垂直激光束的深度值,角度的计算方法如公式(4)所示:
每一个角度α计算需要两个距离读数,将这些角度的所有集合视为矩阵Mα,得到夹角图像,将Savitsky-Golay平滑算法应用在矩阵Mα的每一列,在夹角图像上进行地面标记,从期望属于地面的行开始,使用广度优先搜索(Breadth-FirstSearch,BFS)将相似的组件标记在一起。通常将角度α<2°且同一列相邻两点的高差,视为地面点所对应的区域。
(2)目标分割
接下来对剔除地面点云后的深度图像进行实时目标分割,从每一帧激光雷达数据中剔除动态障碍物。
如图5所示,图中表示激光雷达的XOY平面,从位于O处的激光雷达发射激光束OA和OB,得到点A和点B,点C为点B在OA上的垂直投影点,假设Y轴沿着两条激光束中较长的方向,此处参数μ为两条激光线束的夹角。角度β是深度值较大的扫描线与相邻扫描线构成的AB之间的夹角,定义如公式(5)所示:
其中‖OB‖为第一条激光线束的深度值,对应d1,‖OA‖为第二条激光线束的深度值,对应d2,μ为角分辨率,计算在深度图像中行方向或列方向上相邻点A和B的角度β。角度β背后的含义是它对于大多数单个物体保持相对较大,此处需要设置一个分界值参数θ,该分界值用于判断将深度图像中的相邻两激光点分割为两个类别还是合并为一个类别。因此,可以将目标分割看作成利用深度图像结构和β的约束来寻找连通的二维分量的问题,直接对深度图像进行分割。
剔除地面点云后,接下来对剩余的3D激光点云进行目标聚类,此处采用的方法是将3D激光点云圆柱投影到2D深度图像,基于点云深度图的实时目标分割,然后从每一帧激光雷达数据中剔除动态障碍物。定义一个参数β,计算在深度图像中行方向或列方向上相邻点A和B的角度β。在第一种情况下,角度β对应行方向上的角度增量,而另一种情况对应列方向上的增量。角度β背后的含义是它对于大多数单个物体保持相对较大,此处需要设置一个阈值参数θ,该分界值用于判断将深度图像中的相邻两激光点分割为两个类别还是合并为一个类别。如果角度β小于阈值θ,则认为两条激光束的测量深度值变化过大,将扫描得到的两点分割为不同的类别,如果深度图像中相邻的两个激光点,它们之间的夹角β大于阈值θ,则将它们视为来自同一对象。因此,可以将目标分割看作成利用深度图像结构和β的约束来寻找连通的二维分量的问题,直接对深度图像进行分割。连接同一物体的过程采用BFS算法。当目标分割全部完毕即目标点云聚类后,开始处理动态障碍物,由于道路上的车辆和行人的包围盒是有阈值限制的将目标点云的包围盒在X方向、Y方向、Z方向小于设定阈值的剔除,认为是道路上的动态障碍物,例如行人、车辆等。障碍物剔除完毕后,将地面点云重新加载进来。
连接组件时使用具有复杂度O(N)的直通滤波器的变体,其中N是像素的数量,即每次扫描的距离读数的数量,保证最多访问深度图像中的每个点两次。此时,标记为地面的深度图像的所有像素都设置为零,并且不参与以下过程:从深度图像的左上角开始,从上到下、从左到右遍历每个像素,每当遇到未被标记的像素,从该像素开始BFS,搜索的目标是标记此组件的每个像素。BFS使用队列和N4邻域,根据相邻点和当前点生成的角度β,决定是否将N4邻域中的点添加到BFS队列中,此过程保证整个连接的组件将获得相同的标签。若BFS的队列为空,将继续按顺序遍历深度图像,直至到达一个新的未标记点。
当目标分割全部完毕即目标点云聚类后,开始处理动态障碍物,将目标点云的包围盒在X方向、Y方向、Z方向小于设定阈值的剔除,认为是道路上的动态障碍物,例如行人、车辆等。当动态障碍物剔除完毕后,将提取的地面点云重新加载进来。
1.2.1特征点提取
(1)三类特征点提取
对于地面特征点提取方法见1.2.1节地面提取,基本原理是在深度图像基础上加入几何约束,利用竖直角度α和高程差联合约束地面点,由于激光雷达是水平安置在载体上,这种地面提取方法的优势是并不严格要求地面处于完全水平状态。将每一帧的地面点云使用体素栅格滤波的方法进行不同程度的下采样,标记为地面特征点PG(more)和点PG(less)。
在剔除动态障碍物后,将剩余的非地面点云进行线特征点和表面特征点的提取,定义平滑度u,步骤如下:
1)在同一扫描内,对于任意点A,选取左右各五个点;
2)每个点的X坐标与点A的X坐标求差,将所有的差求和,得到ux;
3)每个点的Y坐标与点A的Y坐标求差,将所有的差求和,得到uy;
4)每个点的Z坐标与点A的Z坐标求差,将所有的差求和,得到uz;
5)计算平滑度:u=(ux)2+(uy)2+(uz)2。
需要说明的是,每个扫描的边缘5个点不参与特征点选取,因为不满足前后五个点计算平滑度的条件。为了防止一帧数据中的特征点过于聚集,将每一帧点云中每个扫描从起始扫描到终止扫描均分为六份。设置平滑度阈值。线特征点选择条件:将平滑度大于阈值的点视为线特征点,若该点前后五个点中已存在线特征点,则跳过该点,从平滑度更小的点中选择。表面特征点选择条件:将平滑度小于阈值的点视为表面特征点,若该点前后五个点中已存在表面特征点,则跳过该点,从平滑度更大的点中选择。
对于每一帧点云,将u值较大的点标记为线特征点PE,将u值较小的点标记为表面特征点PS,从PE中挑选nE个u值最大的点构成PE(max),并满足PE(max)∈PE,从PS中挑选个u值最小的点构成PS(min),并满足PS(min)∈PS。对每一帧激光点云进行三种特征点提取,包括地面特征点、非地面线特征点、非地面表面特征点,并对每一种特征点云又分为两份进行存储,即PG (more)和点PG(less)、PE和PE(max)、PS和PS(min)。
(2)筛选点策略
在特征点提取时设计了四种过滤特征点的策略,移除实时帧中不稳定的噪声点。
1)由于TOF型机械激光雷达的工作原理,当飞行时间小于阈值,返回的激光点会带有误差,需要去除深度值小的点;
2)由于激光雷达视场边缘的点存在变形,会产生大曲率现象,影响特征提取的质量,因此去掉视场边缘的点即深度值大的点;
3)去除激光束和平面夹角过小的点,即激光束和平面接近平行的情况。如图6所示,定义点A的深度值为PA,点D的深度值为PD,点E的深度值为PE,计算激光束和局部平面的入射夹角,如公式(6)所示,若入射夹角接近180°或者0°,该特征点会被拉长导致量测不准确,不利于点云匹配:
4)去除部分被遮挡的激光点,由于激光雷达在移动的时,被遮挡的点所处的面可能在下一帧中消失,如图6中点B的情况。定义点B的深度值为PB,点A的深度值为PA,遮挡点的判别标准如公式(7)所示:
|PB|<|PA|,|PB-PA|≥0.1|PA| (7)
1.3激光里程计
该模块是恢复位姿的过程,包括激光点云帧间匹配和ESKF数据融合。
1.3.1点云匹配
本模块借鉴LOAM方案[3]以及Lego-LOAM方案[4]的点云匹配思想即利用点与直线匹配和点与平面匹配策略。与LOAM、Lego-LOAM方案不同,本模块提出基于三种特征点云进行分类别的帧间匹配与分步骤的位姿解算。
(1)分类别的帧间匹配
由于提取的三类特征点是分开维护的,因此在进行点云匹配时,充分利用类别信息,仅从同一类别的特征点云中寻找对应点,例如对于地面特征点,在中索引的对应匹配点,构建的点到平面的距离约束;对于非地面线特征点,在中索引的对应匹配点,构建的点到直线的距离约束;对于非地面表面特征点,在中索引的对应匹配点,构建的点到平面的距离约束。
考虑提取特征点的几何特性,例如提取地面特征点方向与激光雷达XOY平面平行,基于该先验信息,对于地面特征点,在连续帧匹配时只需要索引一个最临近邻点,法向量直接设置为d(0,0,1)。在帧间匹配过程中,对于不同的特征点类型、匹配方式、所需的最近点数以及方向向量和法向量的计算方法如表1所示:
表1不同类型特征点的帧间匹配
(2)分步骤的位姿解算
考虑到每种类型的特征点具有不同的空间几何特征,它们约束不同位姿变量的能力存在显著差异。例如非地面线特征点,对位姿中{tx,ty,θyaw}具有很强的约束,但是对{tz}不构成约束,而地面特征点能够很好的约束{tz,θroll,θpitch},但是对{tx,ty,θyaw}无任何约束。因此,将位姿中的六个变量分成三组,分步骤的求解位姿{tx,ty,tz,θroll,θpitch,θyaw},使用地面特征点、非地面线特征点和非地面表面特征点依次进行L-M算法位姿解算,分步骤优化求解路线如图7所示。
上述过程将上一步优化求解的结果作为下一步优化的初值,更好的初值可以降低陷入局部最优的可能。需要说明的是,优化是有顺序的,具有最多约束的表面特征点用于最后的优化。
1.3.2ESKF数据融合
LOAM、Lego-LOAM方案中激光里程计的输出没有融合惯导信息,仅依靠激光雷达点云匹配进行位姿估计,而惯导的作用只是在数据预处理阶段辅助激光雷达进行点云的运动畸变补偿。为了对惯导预积分信息和激光雷达帧间匹配信息有效的融合,本文采用误差状态卡尔曼滤波来实现。滤波器状态为15维的误差状态,包括位置、速度、姿态、加速度偏差和角速度偏差。相比于KF或EKF,ESKF的优势如下:
(1)误差状态是小量,可以省略二阶小项,减少计算量;
(2)姿态的误差状态是小量,避免过参数化,万向锁,三维的旋转误差比旋转矩阵和四元数更直观;
(3)相比于预测阶段,能够以更低的频率进行卡尔曼滤波校正。
离散传播阶段:该阶段传播预测状态、误差状态以及误差状态的协方差矩阵,该阶段是通过惯导数据预积分实现。
状态更新阶段:将状态更新问题转化为误差状态与点线距离或者点面距离的最小化,随着激光雷达帧间匹配估计的位姿测量值,计算卡尔曼增益矩阵,并更新全误差状态和误差状态的协方差矩阵。将误差状态加入到预测状态得到融合后的位姿,并重置预测状态。
1.4激光建图
通过激光里程计模块,获取了高频的激光里程计,但是恢复的激光里程计是低精度的。激光建图模块利用帧与前面的局部地图进行精细点云匹配,进一步优化激光里程计的位姿,并且建立全局的3D点云地图。帧与局部地图的精配准,与1.3.1节连续帧之间的点云匹配过程类似,仍然采用三种特征点的分类别匹配和分步骤L-M的位姿解算,位姿解算路线如图7所示。LOAM方案中帧与局部地图进行匹配时,方向向量和法向量通过搜索查找5个最近邻点进行主成分分析(PrincipalComponentsAnalysis,PCA),通过特征值分解拟合所需要的模型参数,与LOAM方案线面两类特征点均采用PCA方式计算方向向量和法向量不同,本方案对于不同的特征点类型,匹配方法、所需的最近点数以及方向向量和法向量的计算方法进行区分,如表2所示。
表2不同类型特征点的帧间匹配
本发明提出的顾及动态障碍物的激光雷达惯导里程计与建图方法及系统,采用深度图像的方式去除道路环境中的动态障碍物,方案不同,采用三种特征点云分类别分步骤的进行点云匹配和位姿求解,充分的问题,利用ESKF框架融合惯导的预积分信息和激光雷达帧间匹配信息,提高位姿估计的精度。
在激光里程计中,首先进行连续帧间匹配,对提取的三类特征点云按照一定顺序,分类别的进行数据关联,即当前帧的地面特征、非地面线特征和非地面表面特征点云分别与上一帧对应的地面特征、非地面线特征和非地面表面特征点云进行配准,经帧间匹配后获得粗略的位姿信息(三个平移量,三个旋转量)。接下来利用误差状态卡尔曼滤波框架融合惯导的预积分信息与激光雷达帧间匹配的信息,进一步提高位姿估计的精度,同时估计出惯导中加速度计与陀螺仪的零偏误差,而校正后的惯导能够对下一帧激光点云产生的非线性运动畸变进行补偿。
为了更好地理解本发明,以上结合本发明的具体实施例做了详细描述,但并非是对本发明的限制。凡是依据本发明的技术实质对以上实施例所做的任何简单修改,均仍属于本发明技术方案的范围。本说明书中每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
Claims (8)
1.一种顾及动态障碍物的激光雷达惯导里程计与建图方法,包括数据预处理,其特征在于,还包括以下步骤:
步骤1:顾及动态障碍物的特征提取;
步骤2:进行激光点云帧间匹配和ESKF数据融合;
步骤3:利用帧与局部地图进行精细点云匹配,优化激光里程计的位姿,建立全局的3D点云地图;
所述数据预处理是指通过高频的MEMS惯导辅助激光雷达,对每一帧内的所有激光点云进行畸变补偿校正,所述畸变补偿校正的方法包括以下子步骤:
步骤01:首先找到与当前激光点的时间戳tcurr最接近的时间戳tk和tk+1的连续惯导测量值;
步骤02:通过惯导积分过程,分别得到惯导在时间k和时间k+1的世界坐标系W中的状态,公式为:
其中,p表示位置,v表示速度,θ表示角向量,x表示x轴朝向,y表示y轴朝向,z表示z轴朝向;
其中,ratio1和ratio2为时间插值因子,tk表示k时刻的时间戳,tk+1表示k+1时刻的时间戳;
2.如权利要求1所述的顾及动态障碍物的激光雷达惯导里程计与建图方法,其特征在于,所述步骤1包括剔除道路环境中的动态障碍物,并从静态点云中提取特征点,所述特征点包括地面特征点、非地面线特征点和非地面表面特征点。
3.如权利要求2所述的顾及动态障碍物的激光雷达惯导里程计与建图方法,其特征在于,所述动态障碍物的剔除方法为提取地面点云,对剩余的非地面点云进行目标分割并聚类,将小于设定尺寸的目标剔除。
4.如权利要求3所述的顾及动态障碍物的激光雷达惯导里程计与建图方法,其特征在于,所述地面点云的提取方法为采用基于深度图像的角度分割方式提取地面点,将每一帧内的激光点云投影为深度图像,将无序杂乱的非结构化点云数据转化成有组织的点云数据;深度图像中的行数r由激光雷达垂直方向的激光线束数量决定,列数c由激光雷达的水平分辨率决定;
点A和点B是激光雷达在同一水平分辨率下发射,在竖直方向的相邻激光点,角度和对应在深度图像中r-1和r行激光束的垂直角度;定义一个竖直角度α,将深度图像R的每列c转换成角度的形式,已知两个相邻垂直激光束的深度值,角度α的计算公式为:
5.如权利要求4所述的顾及动态障碍物的激光雷达惯导里程计与建图方法,其特征在于,所述目标分割的方法为对剩余的3D激光点云进行目标聚类,即将3D激光点云圆柱投影到2D深度图像,基于点云深度图的实时目标分割,然后从每一帧激光雷达数据中剔除动态障碍物,包括以下子步骤:
步骤11:计算在深度图像中行方向或列方向上相邻点A和B的角度β;
步骤12:当所述角度β小于阈值θ,则认为两条激光束的测量深度值变化过大,将扫描得到的两点分割为不同的类别,它们之间的夹角β大于阈值θ,则将它们视为来自同一对象;
步骤13:处理动态障碍物,将目标点云的包围盒在X方向、Y方向、Z方向小于设定阈值的剔除;
步骤14:把地面点云重新加载进来。
6.如权利要求5所述的顾及动态障碍物的激光雷达惯导里程计与建图方法,其特征在于,将每一帧的地面点云使用体素栅格滤波的方法进行不同程度的下采样,标记为地面特征点PG(more)和点PG(less)。
7.如权利要求6所述的顾及动态障碍物的激光雷达惯导里程计与建图方法,其特征在于,设置平滑度阈值,将平滑度大于所述平滑度阈值的视为的点记为非地面线特征点PE,将平滑度小于所述平滑度阈值的点记为非地面表面特征点PS,从PE中挑选nE个u值最大的点构成PE(max),并满足PE(max)∈PE,从PS中挑选个u值最小的点构成PS(min),并满足PS(min)∈PS。
8.一种顾及动态障碍物的激光雷达惯导里程计与建图系统,包括
预处理模块,其特征在于,还包括以下模块:
特征提取模块:用于顾及动态障碍物的特征提取;
激光里程计模块:用于进行激光点云帧间匹配和ESKF数据融合;
激光建图模块:用于利用帧与局部地图进行精细点云匹配,优化激光里程计的位姿,建立全局的3D点云地图;
所述预处理模块用于通过高频的MEMS惯导辅助激光雷达,对每一帧内的所有激光点云进行畸变补偿校正,所述畸变补偿校正的方法包括以下子步骤:
步骤01:首先找到与当前激光点的时间戳tcurr最接近的时间戳tk和tk+1的连续惯导测量值;
步骤02:通过惯导积分过程,分别得到惯导在时间k和时间k+1的世界坐标系W中的状态,公式为:
其中,p表示位置,v表示速度,θ表示角向量,x表示x轴朝向,y表示y轴朝向,z表示z轴朝向;
其中,ratio1和ratio2为时间插值因子,tk表示k时刻的时间戳,tk+1表示k+1时刻的时间戳;
其中,表示激光雷达当前帧起始点坐标系与世界坐标系之间的变换矩阵,i表示一帧点云数据中每个点占据一帧扫描周期的时间,表示当前激光点所对应的惯导在世界坐标系下的状态,表示起始激光点所对应的惯导在世界坐标系下的状态;
所述系统按照如权利要求1所述的方法自动生成3D点云地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010707503.8A CN111929699B (zh) | 2020-07-21 | 2020-07-21 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010707503.8A CN111929699B (zh) | 2020-07-21 | 2020-07-21 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111929699A CN111929699A (zh) | 2020-11-13 |
CN111929699B true CN111929699B (zh) | 2023-05-09 |
Family
ID=73315150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010707503.8A Active CN111929699B (zh) | 2020-07-21 | 2020-07-21 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111929699B (zh) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112665575B (zh) * | 2020-11-27 | 2023-12-29 | 重庆大学 | 一种基于移动机器人的slam回环检测方法 |
CN112433211B (zh) * | 2020-11-27 | 2022-11-29 | 浙江商汤科技开发有限公司 | 一种位姿确定方法及装置、电子设备和存储介质 |
CN112966542A (zh) * | 2020-12-10 | 2021-06-15 | 武汉工程大学 | 一种基于激光雷达的slam系统和方法 |
CN112731357A (zh) * | 2020-12-30 | 2021-04-30 | 清华大学 | 一种激光点云里程计定位误差的实时修正方法和系统 |
CN112669358B (zh) * | 2020-12-30 | 2023-09-26 | 中山大学 | 一种适用于多平台协同感知的地图融合方法 |
CN112925322B (zh) * | 2021-01-26 | 2023-01-13 | 哈尔滨工业大学(深圳) | 一种长期场景下无人车的自主定位方法 |
CN112987065B (zh) * | 2021-02-04 | 2024-01-12 | 东南大学 | 一种融合多传感器的手持式slam装置及其控制方法 |
CN113031005B (zh) * | 2021-02-22 | 2022-06-21 | 江苏大学 | 基于激光雷达的吊车动态障碍物识别方法 |
CN112578800A (zh) * | 2021-02-25 | 2021-03-30 | 湖南擎谱数字科技有限公司 | 一种移动机器人室内自动定位系统及方法 |
CN112907491B (zh) * | 2021-03-18 | 2023-08-22 | 中煤科工集团上海有限公司 | 一种适用于井下巷道的激光点云回环检测方法及系统 |
CN113066105B (zh) * | 2021-04-02 | 2022-10-21 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN113126115B (zh) * | 2021-04-06 | 2023-11-17 | 北京航空航天大学杭州创新研究院 | 基于点云的语义slam方法、装置、电子设备和存储介质 |
CN113345025B (zh) * | 2021-04-26 | 2022-09-09 | 香港理工大学深圳研究院 | 一种基于背包式激光雷达系统的建图和地面分割方法 |
CN113156461B (zh) * | 2021-05-17 | 2021-11-05 | 紫清智行科技(北京)有限公司 | 一种2d激光雷达slam地图动态加载方法及系统 |
CN113466890B (zh) * | 2021-05-28 | 2024-04-09 | 中国科学院计算技术研究所 | 基于关键特征提取的轻量化激光雷达惯性组合定位方法和系统 |
CN113358112B (zh) * | 2021-06-03 | 2023-01-17 | 北京超星未来科技有限公司 | 一种地图构建方法及一种激光惯性里程计 |
CN113340295B (zh) * | 2021-06-16 | 2021-12-21 | 广东工业大学 | 一种多个测距传感器的无人艇近岸实时定位与建图方法 |
CN113504543B (zh) * | 2021-06-16 | 2022-11-01 | 国网山西省电力公司电力科学研究院 | 无人机LiDAR系统定位定姿系统及方法 |
CN113532421B (zh) * | 2021-06-30 | 2024-04-26 | 同济人工智能研究院(苏州)有限公司 | 一种基于子图更新和反光板优化的动态激光slam方法 |
CN113379915B (zh) * | 2021-07-05 | 2022-12-23 | 广东工业大学 | 一种基于点云融合的行车场景构建方法 |
CN113487631B (zh) * | 2021-07-21 | 2024-04-23 | 智能移动机器人(中山)研究院 | 基于lego-loam的可调式大角度探测感知及控制方法 |
WO2023000294A1 (zh) * | 2021-07-23 | 2023-01-26 | 深圳市大疆创新科技有限公司 | 位姿估计方法、激光雷达-惯性里程计、可移动平台及存储介质 |
CN113740871B (zh) * | 2021-07-30 | 2024-04-02 | 西安交通大学 | 一种在高动态环境下的激光slam方法、系统设备及存储介质 |
CN113639745B (zh) * | 2021-08-03 | 2023-10-20 | 北京航空航天大学 | 一种点云地图的构建方法、装置及存储介质 |
CN113503875B (zh) * | 2021-09-10 | 2021-12-14 | 江苏霆升科技有限公司 | 一种基于扩展特征的数据关联的建图方法 |
CN113781582B (zh) * | 2021-09-18 | 2023-09-19 | 四川大学 | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 |
CN113985429A (zh) * | 2021-09-23 | 2022-01-28 | 天津大学 | 基于三维激光雷达的无人机环境扫描与重构方法 |
CN113607166B (zh) * | 2021-10-08 | 2022-01-07 | 广东省科学院智能制造研究所 | 基于多传感融合的自主移动机器人室内外定位方法及装置 |
CN113838051B (zh) * | 2021-11-25 | 2022-04-01 | 之江实验室 | 一种基于三维点云的机器人闭环检测方法 |
CN114066773B (zh) * | 2021-11-26 | 2023-10-27 | 哈尔滨理工大学 | 一种基于点云特征与蒙特卡洛扩展法的动态物体去除 |
CN114331966B (zh) * | 2021-12-02 | 2024-02-13 | 北京斯年智驾科技有限公司 | 基于高斯过程占位图估计辅助的港口锁站方法及其系统 |
CN114264301B (zh) * | 2021-12-13 | 2024-06-21 | 青岛慧拓智能机器有限公司 | 车载多传感器融合定位方法、装置、芯片及终端 |
CN114526745B (zh) * | 2022-02-18 | 2024-04-12 | 太原市威格传世汽车科技有限责任公司 | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 |
CN114563000B (zh) * | 2022-02-23 | 2024-05-07 | 南京理工大学 | 一种基于改进型激光雷达里程计的室内外slam方法 |
CN114646936A (zh) * | 2022-03-30 | 2022-06-21 | 北京洛必德科技有限公司 | 一种点云地图构建方法、装置以及电子设备 |
CN115079202A (zh) * | 2022-06-16 | 2022-09-20 | 智道网联科技(北京)有限公司 | 激光雷达建图方法、装置及电子设备、存储介质 |
CN115273068B (zh) * | 2022-08-02 | 2023-05-12 | 湖南大学无锡智能控制研究院 | 一种激光点云动态障碍物剔除方法、装置及电子设备 |
CN115356740A (zh) * | 2022-08-09 | 2022-11-18 | 群周科技(上海)有限公司 | 一种机载环境下的可降落区域降落定位方法 |
CN115328163B (zh) * | 2022-09-16 | 2023-03-28 | 西南交通大学 | 一种巡检机器人雷达里程计的速度与精度优化方法 |
CN115326068B (zh) * | 2022-10-17 | 2023-01-24 | 北京理工大学 | 激光雷达-惯性测量单元融合里程计设计方法及系统 |
CN116071550B (zh) * | 2023-02-09 | 2023-10-20 | 安徽海博智能科技有限责任公司 | 一种激光雷达灰尘点云过滤方法 |
CN116879870A (zh) * | 2023-06-08 | 2023-10-13 | 哈尔滨理工大学 | 一种适用于低线束3d激光雷达的动态障碍物去除方法 |
CN117274566B (zh) * | 2023-09-25 | 2024-04-26 | 北京工业大学 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
CN117387598A (zh) * | 2023-10-08 | 2024-01-12 | 北京理工大学 | 一种紧耦合轻量级的实时定位与建图方法 |
CN117315268B (zh) * | 2023-11-27 | 2024-02-09 | 武汉大学 | 一种基于毫米波雷达的slam方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110125928A (zh) * | 2019-03-27 | 2019-08-16 | 浙江工业大学 | 一种基于前后帧进行特征匹配的双目惯导slam系统 |
WO2019157925A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
CN111207774A (zh) * | 2020-01-17 | 2020-05-29 | 山东大学 | 一种用于激光-imu外参标定的方法及系统 |
CN111427370A (zh) * | 2020-06-09 | 2020-07-17 | 北京建筑大学 | 一种基于稀疏位姿调整的移动机器人的Gmapping建图方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103308925B (zh) * | 2013-05-31 | 2015-05-06 | 中国科学院合肥物质科学研究院 | 一种一体化三维彩色激光雷达数据点云产生方法 |
US9715016B2 (en) * | 2015-03-11 | 2017-07-25 | The Boeing Company | Real time multi dimensional image fusing |
US20180088234A1 (en) * | 2016-09-27 | 2018-03-29 | Carnegie Mellon University | Robust Localization and Localizability Prediction Using a Rotating Laser Scanner |
KR101985344B1 (ko) * | 2017-06-26 | 2019-06-04 | 서울대학교산학협력단 | 관성 및 단일 광학 센서를 이용한 슬라이딩 윈도우 기반 비-구조 위치 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 |
CN108152831B (zh) * | 2017-12-06 | 2020-02-07 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
CN109974742A (zh) * | 2017-12-28 | 2019-07-05 | 沈阳新松机器人自动化股份有限公司 | 一种激光里程计算方法和地图构建方法 |
CN109099901B (zh) * | 2018-06-26 | 2021-09-24 | 中科微易(苏州)智能科技有限公司 | 基于多源数据融合的全自动压路机定位方法 |
CN111380514A (zh) * | 2018-12-29 | 2020-07-07 | 深圳市优必选科技有限公司 | 机器人位姿估计方法、装置、终端及计算机存储介质 |
CN109883426B (zh) * | 2019-03-08 | 2022-01-14 | 哈尔滨工程大学 | 基于因子图的动态分配与校正多源信息融合方法 |
CN109993113B (zh) * | 2019-03-29 | 2023-05-02 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110221603B (zh) * | 2019-05-13 | 2020-08-14 | 浙江大学 | 一种基于激光雷达多帧点云融合的远距离障碍物检测方法 |
CN110441791B (zh) * | 2019-08-14 | 2023-07-04 | 深圳无境智能机器人有限公司 | 一种基于前倾2d激光雷达的地面障碍物检测方法 |
CN111337941B (zh) * | 2020-03-18 | 2022-03-04 | 中国科学技术大学 | 一种基于稀疏激光雷达数据的动态障碍物追踪方法 |
CN111351482B (zh) * | 2020-03-19 | 2023-08-18 | 南京理工大学 | 基于误差状态卡尔曼滤波的多旋翼飞行器组合导航方法 |
-
2020
- 2020-07-21 CN CN202010707503.8A patent/CN111929699B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019157925A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
CN110125928A (zh) * | 2019-03-27 | 2019-08-16 | 浙江工业大学 | 一种基于前后帧进行特征匹配的双目惯导slam系统 |
CN111207774A (zh) * | 2020-01-17 | 2020-05-29 | 山东大学 | 一种用于激光-imu外参标定的方法及系统 |
CN111427370A (zh) * | 2020-06-09 | 2020-07-17 | 北京建筑大学 | 一种基于稀疏位姿调整的移动机器人的Gmapping建图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111929699A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111929699B (zh) | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 | |
CN112014857B (zh) | 用于智能巡检的三维激光雷达定位导航方法及巡检机器人 | |
CN115407357B (zh) | 基于大场景的低线束激光雷达-imu-rtk定位建图算法 | |
CN114526745A (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN114964212B (zh) | 面向未知空间探索的多机协同融合定位与建图方法 | |
WO2024114119A1 (zh) | 一种基于双目相机引导的传感器融合方法 | |
Yang et al. | A hierarchical approach for refining point cloud quality of a low cost UAV LiDAR system in the urban environment | |
CN117218350A (zh) | 一种基于固态雷达的slam实现方法及系统 | |
CN115355904A (zh) | 一种针对地面移动机器人的Lidar-IMU融合的slam方法 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
CN114419259B (zh) | 一种基于物理模型成像仿真的视觉定位方法及系统 | |
WO2020118623A1 (en) | Method and system for generating an environment model for positioning | |
CN115468576A (zh) | 一种基于多模态数据融合的自动驾驶定位方法及系统 | |
Li et al. | BA-LIOM: tightly coupled laser-inertial odometry and mapping with bundle adjustment | |
Gao et al. | Vehicle-borne multi-sensor temporal–spatial pose globalization via cross-domain data association | |
Geyer et al. | The recursive multi-frame planar parallax algorithm | |
Zhang et al. | UAV-borne Mapping Algorithms for Canopy-Level and High-Speed Drone Applications | |
CN114993293B (zh) | 室内弱纹理环境下移动无人系统同步定位与建图方法 | |
CN116399350B (zh) | 一种融合YOLOv5的半直接法视觉里程计的确定方法 | |
CN114663596B (zh) | 基于无人机实时仿地飞行方法的大场景建图方法 | |
CN117128970A (zh) | 一种多传感器融合的自动驾驶位姿估计方法 | |
CN118298122A (zh) | 基于ndt-icp点云配准的无人平台用激光雷达-imu紧耦合建图方法 | |
Luo et al. | A 3D LiDAR localization and mapping method incorporating inertial measurement unit | |
Pan et al. | LiDAR-IMU Tightly-Coupled SLAM Method Based on IEKF and Loop Closure Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |