CN113985435A - 一种融合多激光雷达的建图方法及系统 - Google Patents
一种融合多激光雷达的建图方法及系统 Download PDFInfo
- Publication number
- CN113985435A CN113985435A CN202111193448.6A CN202111193448A CN113985435A CN 113985435 A CN113985435 A CN 113985435A CN 202111193448 A CN202111193448 A CN 202111193448A CN 113985435 A CN113985435 A CN 113985435A
- Authority
- CN
- China
- Prior art keywords
- point
- points
- point cloud
- segmentation
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000013507 mapping Methods 0.000 title claims abstract description 36
- 230000009466 transformation Effects 0.000 claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims description 33
- 238000005457 optimization Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000009434 installation Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种融合多激光雷达的建图方法,该方法包括以下步骤:步骤1:多个激光雷达通过对环境进行不同俯仰角度和水平角度的扫描检测得到环境信息,即获取三维点云,并通过ROS节点发布话题;步骤2:在ROS节点选取一个激光雷达作为主激光雷达,将其余激光雷达对应的三维点云基于相对TF变换关系旋转平移到主激光雷达的坐标系上,并对所有的三维点云进行融合得到融合三维点云,进而通过ROS节点发布新的融合点云话题;步骤3:基于开源的3D激光雷达LeGO‑LOAM算法根据融合三维点云进行建图,以提高建图精度,与现有技术相比,本发明具有提高点云的密度、缓解目前移动平台上激光雷达的固定安装方式造成的不方便性以及提高算法的建图精度等优点。
Description
技术领域
本发明涉及建图技术领域,尤其是涉及一种融合多激光雷达的建图方法及系统。
背景技术
近年来,随着人工智能的发展,机器人技术获得越来越广泛的关注,移动机器人是一个能对周围环境进行感知和特征提取,并针对动、静态干扰进行相应路径规划,从而实现实时运动控制的智能装置,环境感知是机器人通过自身携带的传感器来感知外部环境,并从获得的传感器数据中提取出有意义的信息实现的,激光雷达因其具有测距精度高、实时性能好等特点广泛应用于移动机器人领域,激光雷达有单线与多线之分,与单线激光雷达不同的是,多线激光雷达能够直接对环境进行不同俯仰角度和水平角度的扫描得到三维点云,通过搭载3D激光进行建图,目前有许多开源的3DSLAM算法,LeGO-LOAM就是较为经典的建图算法,它是铁小山等人提出一种轻量级和地面优化的激光雷达测距和建图算法,能够实现较好的精度及建图工作,它的闭环检测机制能够有效的抑制漂移。
目前无人车上常用的64线激光雷达获得的点云信息较为丰富,对环境的感知也较为精确,LeGO-LOAM算法也是在采用64线激光雷达设备采集的开源数据集上取得良好的成绩,通过搭载高线数激光雷达去进行3DSLAM算法建图,最终的建图效果能较好的反映出周围环境信息,尽管如此,搭载高线数的雷达使用LeGO-LOAM算法建图会有一些不足:
第一,64线的激光雷达价格相较于16线的低线数雷达多了几倍,使用成本太高,实际项目的可行性较低,同时64线激光雷达大多会采用垂直的安装方式会导致在移动平台周围存在盲区,而雷达是固定安装在在平台上面不能够调节视野;同时距离越远,雷达点就越稀疏,在机器人的环境感知中,雷达点的稀疏度直接影响着感知的能力以及效果,因为点云稀疏,能够提取的细节信息就较少。
第二,LeGO-LOAM算法是通过设定半径搜索的方式来实现简单的闭环检测,在对数据大且距离远的点云场景容易受到噪声影响从而影响回环的效率,最终影响建图的精度。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种融合多激光雷达的建图方法及系统。
本发明的目的可以通过以下技术方案来实现:
一种融合多激光雷达的建图方法,该方法包括以下步骤:
步骤1:多个激光雷达通过对环境进行不同俯仰角度和水平角度的扫描检测得到环境信息,即获取三维点云,并通过ROS节点发布话题;
步骤2:在ROS节点选取一个激光雷达作为主激光雷达,将其余激光雷达对应的三维点云基于相对TF变换关系旋转平移到主激光雷达的坐标系上,并对所有的三维点云进行融合得到融合三维点云,进而通过ROS节点发布新的融合点云话题;
步骤3:基于开源的3D激光雷达LeGO-LOAM算法根据融合三维点云进行建图,以提高建图精度。
步骤3中,基于开源的3D激光雷达LeGO-LOAM算法进行建图的过程具体包括以下步骤:
步骤301:通过点云分割与匹配模块将获得的融合三维点云投影到二维的距离图像上,投影完成后得到一个矩阵,对距离图像进行逐列评估并提取地面点,采用基于图像的分割方法将地面点分割为多个聚类簇,在分割过程中产生分割点,且分割后的每个点均具有分割标签、在距离图像中的行和列的索引以及与传感器的距离值;
步骤302:通过特征提取模块从分割后的地面点和分割点中提取面特征和线特征,具体操作为:
在水平方向上将距离图像均分成多个子图像,计算每个子图像上每个点的曲率,每个子图像的每一行根据曲率的大小选择面特征和线特征,进而获得四种点云类型;
步骤303:通过雷达里程计模块将特征提取部分获得的四种点云类型进行标签匹配,并基于两步最小二乘化优化方法估计激光雷达的位姿,进而得到高频的里程计信息;
步骤304:激光建图模块根据以低频率运行的里程计信息,将当前进程的特征点与点云类型进行配准,以进一步优化姿势变换,在LeGO-LOAM算法的闭环优化进程中通过设定半径距离约束和ICP检测回环的基础上添加全局描述子回环策略共同进行闭环优化,得到低频率的精准位姿信息;
步骤305:通过变换融合模块将高频的里程计信息和低频率的精准位姿信息进行融合,输出最终的高频位姿估计信息。
步骤301中,所述的分割标签包括地面点对应的地面点标签和分割点对应的分割点标签。
步骤302中,计算第i个点pi的平滑度,即曲率,对计算得到的平滑度进行排序,并根据划分标准将各个点划分为边缘点和平面点,平滑度大于阈值cth的点为边缘点,平滑度不大于阈值cth的点为平面点,从子图像中选取点并得到四种点云类型,计算平滑度的公式为:
其中,S为距离图像同一行的连续点pi的点集,ri表示第i个点到传感器的距离值,rj表示第j个点到传感器的距离值,ci表示第i个点的平滑度,即曲率,|·|表示绝对值,||·||表示范数。
四种点云类型为边缘点集Fe、平面点集Fp、边缘点集合Fme和平面点集合Fmp:
从每一行中选取不属于地面点且平滑度最大的边缘点,组成边缘点集合Fme;从每一行中选取平滑度最小的平面点,组成平面点集合Fmp,将两组集合进一步筛选,从分割点中选取边缘点得到的精炼的边缘点集Fe,从地面点中选取平面点得到平面点集Fp。
步骤303中,进行标签匹配的过程具体为:
对于平面点:在前一帧的平面点集合Fmp中具有分割点标签的点云中寻找当前帧的平面点集Fp对应的关联点;
对于边缘点:在前一帧的边缘点集合Fme中具有分割点标签的点云中寻找当前帧的边缘点集Fe对应的关联点;
基于两步最小二乘化优化方法估计激光雷达的位姿的过程具体为:
通过配准点和面的对应关系得到平面点集合Fmp和平面点集Fp不同时刻对应的约束以及边缘点集合Fme和边缘点集Fe不同时刻对应的约束,基于平面点集合Fmp和平面点集Fp不同时刻对应的约束优化计算得到三个竖直维度向量,竖直维度向量包括竖坐标z、滚转角roll和俯仰角pitch,基于边缘点集合Fme和边缘点集Fe不同时刻对应的约束以及三个竖直维度向量,优化计算得到三个竖直维度向量,竖直维度向量包括水平坐标x和y以及偏航角yaw,两次优化结果融合,得到最终的变换参数。
步骤304中,全局描述子回环策略具体为:
a)采用基于环和扇形的方法重新组织输入的三维点云,将三维点云通过二维特征图表示,以构建矩阵形式的全局描述子;
b)通过描述子之间的距离公式比较描述子之间的相似性;
c)计算得到描述子的每一行的均值,将其作为RingKey特征,再将所有历史帧的RingKey特征通过Kd-tree查找最接近的候选关键帧,最后基于距离公式求得的阈值从候选关键帧中筛选出可能性最大的相似场景,完成闭环检测。
距离公式为:
一种建图系统,该系统包括:
多激光雷达融合模块:包括移动平台和可调节方向地安装于移动平台上的多个激光雷达,用以将得到的多个三维点云根据外参融合得到融合三维点云,并发布新的融合点云话题;
点云分割与匹配模块:用以将融合三维点云投影到二维的距离图像上,即距离图像,并基于图像的分割方法将距离图像分割为多个聚类簇;
特征提取模块:用以提取分割后的距离图像的面特征和线特征,以获得四种点云类型;
雷达里程计模块:用以对获得的四种点云类型进行标签匹配,并根据两步最小二乘化优化方法估计激光雷达的位姿信息,以得到高频的里程计信息;
激光建图模块:用以根据以低频率运行的里程计信息,将当前进程的特征点与点云类型进行配准,进一步优化姿势变换,在LeGO-LOAM算法的闭环优化进程中通过设定半径距离约束和ICP检测回环的基础上添加全局描述子回环策略共同进行闭环优化,得到精准的位姿信息;
变换融合模块:用以将高频的里程计信息和低频率的精准位姿信息进行融合,输出最终的高频位姿估计信息。
当移动平台在特定的环境中需要改变激光雷达的方向以便更好的进行观测时,通过可调节方向的云台对激光雷达的方向进行调整,进而基于标定技术更新调整方向后的各个激光雷达的相对TF变换关系,并将多激光雷达的点云话题融合后发布的新的融合话题作为建图的数据输入。
与现有技术相比,本发明具有以下优点:
一、本发明使用的多个低线数雷达与高线数雷达相比较而言,低线数雷达体积更小,能够更加灵活的安装于移动载体上面,同时采用这种多激光雷融合的方式进行工作,可以有效的增加系统测量范围,补全观测盲区,也能够提高点云的密度;
二、本发明设计的多激光雷达融合系统,可以在针对特定的环境中,合理的调节雷达的方向,有效的缓解了目前移动平台上激光雷达的固定安装方式造成的不方便性,可以更好的进行感知工作;
三、本发明的建图算法是基于开源的3D激光雷达LeGO-LOAM算法,在LeGO-LOAM算法的闭环优化进程中引用了全局描述子进行共同优化,能够提高算法的建图精度。
附图说明
图1为本发明的多激光雷达方向调节示意图,其中,图(1a)为多激光雷达呈相同方向的示意图,图(1b)为多激光雷达呈不同方向的示意图。
图2为本发明的建图算法流程示意图。
图3为本发明的激光建图效果示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
本发明提供了一种融合多激光雷达的建图方法,该方法在Ubantu16.04系统上运行,包括以下步骤:
步骤1:多个激光雷达通过对环境进行不同俯仰角度和水平角度的扫描检测得到环境信息,即获取三维点云,并通过ROS节点发布话题;
步骤2:在ROS节点选取一个激光雷达作为主激光雷达,将其余激光雷达对应的三维点云基于相对TF变换关系旋转平移到主激光雷达的坐标系上,并对所有的三维点云进行融合得到融合三维点云,进而通过ROS节点发布新的融合点云话题;
步骤3:基于开源的3D激光雷达LeGO-LOAM(面向复杂情况的轻量级优化地面的雷达里程计)算法根据融合三维点云进行建图,以提高建图精度。
在步骤3中,基于开源的3D激光雷达LeGO-LOAM算法进行建图的过程具体包括以下步骤:
步骤301:通过点云分割与匹配模块将获得的融合三维点云投影到二维的距离图像上,完成投影后得到一个矩阵,对距离图像进行逐列评估并提取地面点,采用基于图像的分割方法将提取的地面点分割为多个聚类簇,形成分割点,分割后的每个点均具有分割标签(地面点或分割点)、在距离图像中的行和列的索引以及与传感器的距离值,地面点具有地面点标签,分割点具有分割点标签;
步骤302:通过特征提取模块从分割后的地面点和分割点中提取面特征和线特征,具体操作为:在水平方向上将距离图像均分成多个子图像,然后计算每个子图像上每个点的曲率,每个子图像的每一行根据曲率的大小选择面特征和线特征,进而获得四种点云类型。
步骤303:通过雷达里程计模块将特征提取部分获得的四种点云类型进行标签匹配,并根据最小二乘化优化方法估计激光雷达的位姿信息,以得到高频的里程计信息;
步骤304:激光建图模块根据以低频率运行的里程计信息,将当前进程的特征点与点云类型进行配准,进一步优化姿势变换,在LeGO-LOAM算法的闭环检测进程中通过设定半径距离约束和ICP检测回环的基础上添加全局描述子回环策略共同进行闭环优化,得到低频率的精准位姿信息。
步骤305:通过变换融合模块将高频的里程计信息和低频率的精准位姿信息进行融合,输出最终的高频位姿估计信息。
在步骤301中,当移动平台在特定的环境中需要改变激光雷达的方向以便更好的进行观测时,通过可调节方向的云台调整激光雷达的方向,然后再通过标定技术更新调整方向后的各个激光雷达的相对TF变换关系,并将多激光雷达的点云话题融合后发布新的融合话题作为建图的数据输入。
在步骤302中,计算第i个点pi的平滑度,即曲率,对计算得到的平滑度进行排序,根据阈值cth区分边缘点(c>cth)和平面点(c<cth),从每一行中选取不属于地面点且c最大的边缘点,组成边缘点集合Fme;从每一行中选取最小c值的平面点,组成平面点集合Fmp,将两组集合进一步筛选,得到精炼的边缘点集Fe和平面点集Fp,四种点云类型包括边缘点集合Fme、平面点集合Fmp、边缘点集Fe和平面点集Fp,计算平滑度的公式为:
其中,S为距离图像同一行的连续点pi的点集,ri表示第i个点到传感器的距离值,rj表示第j个点到传感器的距离值,ci表示第i个点的平滑度,即曲率,|·|表示绝对值,||·||表示范数。
在步骤303中,最小二乘化优化方法的优化过程具体为:
通过配准点和面的对应关系来优化计算六个维度向量,即基于平面点集Fp不同时刻对应的约束优化计算得到三个竖直维度向量(z,roll,pitch),然后以得到的三个竖直维度向量和边缘点集Fe不同时刻对应的约束作为约束条件优化计算边缘点集Fe的对应约束得到三个水平维度向量(x,y,yaw),其中,x、y和z为三维坐标,roll为滚转角,pitch为俯仰角,yaw为偏航角。
在步骤304中,全局描述子算法具体为:
a)采用基于环(ring)和扇形(sector)的方法重新组织输入的三维点云,将三维点云通过二维特征图表示以构建矩阵形式的全局描述子;
b)通过描述子之间的距离公式比较描述子之间的相似性,距离公式为:
c)计算得到描述子的每一行的均值,将其作为RingKey特征,再将所有历史帧的RingKey特征通过Kd-tree查找最接近的候选关键帧,最后从候选关键帧中基于距离公式求得的阈值筛选出可能性最大的相似场景,完成闭环检测。
如图3所示,为验证本发明的性能,本实施例在ubantu16.04系统上进行验证,通过设计的系统平台在校园室内以及室外环境进行建图实验,在ROS节点中,用pcl_viewer工具查看建立的最终地图pcd文件,定量对比单激光雷达和多激光雷达的三维点云数量,由表1可以清晰的看出,在室内外环境中建图时,多激光雷达融合方式的建图比单雷达建图的三维点云密度更大,可见多激光雷达融合能够有效的改善单雷达方式的三维点云稀疏问题,同时由图3也能够看出优化后的回环效果比未优化前的回环效果好。
表1点云数量定量分析表
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种融合多激光雷达的建图方法,其特征在于,该方法包括以下步骤:
步骤1:多个激光雷达通过对环境进行不同俯仰角度和水平角度的扫描检测得到环境信息,即获取三维点云,并通过ROS节点发布话题;
步骤2:在ROS节点选取一个激光雷达作为主激光雷达,将其余激光雷达对应的三维点云基于相对TF变换关系旋转平移到主激光雷达的坐标系上,并对所有的三维点云进行融合得到融合三维点云,进而通过ROS节点发布新的融合点云话题;
步骤3:基于开源的3D激光雷达LeGO-LOAM算法根据融合三维点云进行建图,以提高建图精度。
2.根据权利要求1所述的一种融合多激光雷达的建图方法,其特征在于,所述的步骤3中,基于开源的3D激光雷达LeGO-LOAM算法进行建图的过程具体包括以下步骤:
步骤301:通过点云分割与匹配模块将获得的融合三维点云投影到二维的距离图像上,投影完成后得到一个矩阵,对距离图像进行逐列评估并提取地面点,采用基于图像的分割方法将地面点分割为多个聚类簇,在分割过程中产生分割点,且分割后的每个点均具有分割标签、在距离图像中的行和列的索引以及与传感器的距离值;
步骤302:通过特征提取模块从分割后的地面点和分割点中提取面特征和线特征,具体操作为:
在水平方向上将距离图像均分成多个子图像,计算每个子图像上每个点的曲率,每个子图像的每一行根据曲率的大小选择面特征和线特征,进而获得四种点云类型;
步骤303:通过雷达里程计模块将特征提取部分获得的四种点云类型进行标签匹配,并基于两步最小二乘化优化方法估计激光雷达的位姿,进而得到高频的里程计信息;
步骤304:激光建图模块根据以低频率运行的里程计信息,将当前进程的特征点与点云类型进行配准,以进一步优化姿势变换,在LeGO-LOAM算法的闭环优化进程中通过设定半径距离约束和ICP检测回环的基础上添加全局描述子回环策略共同进行闭环优化,得到低频率的精准位姿信息;
步骤305:通过变换融合模块将高频的里程计信息和低频率的精准位姿信息进行融合,输出最终的高频位姿估计信息。
3.根据权利要求2所述的一种融合多激光雷达的建图方法,其特征在于,所述的步骤301中,所述的分割标签包括地面点对应的地面点标签和分割点对应的分割点标签。
5.根据权利要求4所述的一种融合多激光雷达的建图方法,其特征在于,所述的四种点云类型为边缘点集Fe、平面点集Fp、边缘点集合Fme和平面点集合Fmp:
从每一行中选取不属于地面点且平滑度最大的边缘点,组成边缘点集合Fme;从每一行中选取平滑度最小的平面点,组成平面点集合Fmp,将两组集合进一步筛选,从分割点中选取边缘点得到的精炼的边缘点集Fe,从地面点中选取平面点得到平面点集Fp。
6.根据权利要求2所述的一种融合多激光雷达的建图方法,其特征在于,所述的步骤303中,进行标签匹配的过程具体为:
对于平面点:在前一帧的平面点集合Fmp中具有分割点标签的点云中寻找当前帧的平面点集Fp对应的关联点;
对于边缘点:在前一帧的边缘点集合Fme中具有分割点标签的点云中寻找当前帧的边缘点集Fe对应的关联点;
基于两步最小二乘化优化方法估计激光雷达的位姿的过程具体为:
通过配准点和面的对应关系得到平面点集合Fmp和平面点集Fp不同时刻对应的约束以及边缘点集合Fme和边缘点集Fe不同时刻对应的约束,基于平面点集合Fmp和平面点集Fp不同时刻对应的约束优化计算得到三个竖直维度向量,竖直维度向量包括竖坐标z、滚转角roll和俯仰角pitch,基于边缘点集合Fme和边缘点集Fe不同时刻对应的约束以及三个竖直维度向量,优化计算得到三个竖直维度向量,竖直维度向量包括水平坐标x和y以及偏航角yaw,两次优化结果融合,得到最终的变换参数。
7.根据权利要求2所述的一种融合多激光雷达的建图方法,其特征在于,所述的步骤304中,全局描述子回环策略具体为:
a)采用基于环和扇形的方法重新组织输入的三维点云,将三维点云通过二维特征图表示,以构建矩阵形式的全局描述子;
b)通过描述子之间的距离公式比较描述子之间的相似性;
c)计算得到描述子的每一行的均值,将其作为RingKey特征,再将所有历史帧的RingKey特征通过Kd-tree查找最接近的候选关键帧,最后基于距离公式求得的阈值从候选关键帧中筛选出可能性最大的相似场景,完成闭环检测。
9.一种实现如权利要求1~8任一项所述的建图方法的建图系统,其特征在于,该系统包括:
多激光雷达融合模块:包括移动平台和可调节方向地安装于移动平台上的多个激光雷达,用以将得到的多个三维点云根据外参融合得到融合三维点云,并发布新的融合点云话题;
点云分割与匹配模块:用以将融合三维点云投影到二维的距离图像上,即距离图像,并基于图像的分割方法将距离图像分割为多个聚类簇;
特征提取模块:用以提取分割后的距离图像的面特征和线特征,以获得四种点云类型;
雷达里程计模块:用以对获得的四种点云类型进行标签匹配,并根据两步最小二乘化优化方法估计激光雷达的位姿信息,以得到高频的里程计信息;
激光建图模块:用以根据以低频率运行的里程计信息,将当前进程的特征点与点云类型进行配准,进一步优化姿势变换,在LeGO-LOAM算法的闭环优化进程中通过设定半径距离约束和ICP检测回环的基础上添加全局描述子回环策略共同进行闭环优化,得到精准的位姿信息;
变换融合模块:用以将高频的里程计信息和低频率的精准位姿信息进行融合,输出最终的高频位姿估计信息。
10.根据权利要求9所述的一种建图系统,其特征在于,当移动平台在特定的环境中需要改变激光雷达的方向以便更好的进行观测时,通过可调节方向的云台对激光雷达的方向进行调整,进而基于标定技术更新调整方向后的各个激光雷达的相对TF变换关系,并将多激光雷达的点云话题融合后发布的新的融合话题作为建图的数据输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111193448.6A CN113985435A (zh) | 2021-10-13 | 2021-10-13 | 一种融合多激光雷达的建图方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111193448.6A CN113985435A (zh) | 2021-10-13 | 2021-10-13 | 一种融合多激光雷达的建图方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113985435A true CN113985435A (zh) | 2022-01-28 |
Family
ID=79738487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111193448.6A Pending CN113985435A (zh) | 2021-10-13 | 2021-10-13 | 一种融合多激光雷达的建图方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113985435A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117289298A (zh) * | 2023-10-19 | 2023-12-26 | 广州行深智能科技有限公司 | 基于激光雷达的多机协同在线建图方法、系统及终端设备 |
CN118053153A (zh) * | 2024-04-16 | 2024-05-17 | 之江实验室 | 一种点云数据的识别方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180356526A1 (en) * | 2017-06-13 | 2018-12-13 | TuSimple | Sensor calibration and time method for ground truth static scene sparse flow generation |
CN111364549A (zh) * | 2020-02-28 | 2020-07-03 | 江苏徐工工程机械研究院有限公司 | 一种基于激光雷达的同步建图和自动作业方法及系统 |
CN111578932A (zh) * | 2020-05-28 | 2020-08-25 | 长沙中联重科环境产业有限公司 | 一种基于多线激光雷达的建图方法、装置、介质及设备 |
CN112698306A (zh) * | 2020-12-17 | 2021-04-23 | 上海交通大学宁波人工智能研究院 | 一种多激光雷达结合相机解决地图构建盲区的系统和方法 |
CN112767490A (zh) * | 2021-01-29 | 2021-05-07 | 福州大学 | 一种基于激光雷达的室外三维同步定位与建图方法 |
CN112966542A (zh) * | 2020-12-10 | 2021-06-15 | 武汉工程大学 | 一种基于激光雷达的slam系统和方法 |
CN112987010A (zh) * | 2021-01-28 | 2021-06-18 | 上海思岚科技有限公司 | 一种用于机器人的多雷达建图的系统及方法 |
CN113487631A (zh) * | 2021-07-21 | 2021-10-08 | 智能移动机器人(中山)研究院 | 基于lego-loam的可调式大角度探测感知及控制方法 |
-
2021
- 2021-10-13 CN CN202111193448.6A patent/CN113985435A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180356526A1 (en) * | 2017-06-13 | 2018-12-13 | TuSimple | Sensor calibration and time method for ground truth static scene sparse flow generation |
CN111364549A (zh) * | 2020-02-28 | 2020-07-03 | 江苏徐工工程机械研究院有限公司 | 一种基于激光雷达的同步建图和自动作业方法及系统 |
CN111578932A (zh) * | 2020-05-28 | 2020-08-25 | 长沙中联重科环境产业有限公司 | 一种基于多线激光雷达的建图方法、装置、介质及设备 |
CN112966542A (zh) * | 2020-12-10 | 2021-06-15 | 武汉工程大学 | 一种基于激光雷达的slam系统和方法 |
CN112698306A (zh) * | 2020-12-17 | 2021-04-23 | 上海交通大学宁波人工智能研究院 | 一种多激光雷达结合相机解决地图构建盲区的系统和方法 |
CN112987010A (zh) * | 2021-01-28 | 2021-06-18 | 上海思岚科技有限公司 | 一种用于机器人的多雷达建图的系统及方法 |
CN112767490A (zh) * | 2021-01-29 | 2021-05-07 | 福州大学 | 一种基于激光雷达的室外三维同步定位与建图方法 |
CN113487631A (zh) * | 2021-07-21 | 2021-10-08 | 智能移动机器人(中山)研究院 | 基于lego-loam的可调式大角度探测感知及控制方法 |
Non-Patent Citations (1)
Title |
---|
KIM G 等: "Scan context: Egocentric spatial descriptor for place recognition within 3d point cloud map", 2018 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117289298A (zh) * | 2023-10-19 | 2023-12-26 | 广州行深智能科技有限公司 | 基于激光雷达的多机协同在线建图方法、系统及终端设备 |
CN118053153A (zh) * | 2024-04-16 | 2024-05-17 | 之江实验室 | 一种点云数据的识别方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN111798475B (zh) | 一种基于点云深度学习的室内环境3d语义地图构建方法 | |
CN110084272B (zh) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图系统 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN111665842B (zh) | 一种基于语义信息融合的室内slam建图方法及系统 | |
CN110781827A (zh) | 一种基于激光雷达与扇状空间分割的路沿检测系统及其方法 | |
CN111461023A (zh) | 基于三维激光雷达的四足机器人自主跟随领航员的方法 | |
CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
CN108805906A (zh) | 一种基于深度图的运动障碍物检测及定位方法 | |
CN114419147A (zh) | 一种救援机器人智能化远程人机交互控制方法及系统 | |
CN111781608A (zh) | 一种基于fmcw激光雷达的运动目标检测方法及系统 | |
CN112070770A (zh) | 一种高精度三维地图与二维栅格地图同步构建方法 | |
CN108711172B (zh) | 基于细粒度分类的无人机识别与定位方法 | |
CN111915517B (zh) | 适用于室内光照不利环境下rgb-d相机全局定位方法 | |
CN113985435A (zh) | 一种融合多激光雷达的建图方法及系统 | |
CN115032648B (zh) | 一种基于激光雷达密集点云的三维目标识别与定位方法 | |
CN112365592A (zh) | 一种基于双向高程模型的局部环境特征描述方法 | |
CN111736167B (zh) | 一种获取激光点云密度的方法和装置 | |
CN114792338A (zh) | 基于先验三维激光雷达点云地图的视觉融合定位方法 | |
Zhang et al. | Lidar odometry and mapping based on two-stage feature extraction | |
CN117053779A (zh) | 一种基于冗余关键帧去除的紧耦合激光slam方法及装置 | |
Liu et al. | A localizability estimation method for mobile robots based on 3d point cloud feature | |
CN112348950B (zh) | 一种基于激光点云分布特性的拓扑地图节点生成方法 | |
CN112084875B (zh) | 一种多激光雷达坐标系统一方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220128 |
|
RJ01 | Rejection of invention patent application after publication |