CN112966542A - 一种基于激光雷达的slam系统和方法 - Google Patents
一种基于激光雷达的slam系统和方法 Download PDFInfo
- Publication number
- CN112966542A CN112966542A CN202011454449.7A CN202011454449A CN112966542A CN 112966542 A CN112966542 A CN 112966542A CN 202011454449 A CN202011454449 A CN 202011454449A CN 112966542 A CN112966542 A CN 112966542A
- Authority
- CN
- China
- Prior art keywords
- point
- points
- point cloud
- optimization
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000005457 optimization Methods 0.000 claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 12
- 238000013459 approach Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 12
- 230000014509 gene expression Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 9
- 230000002159 abnormal effect Effects 0.000 claims description 7
- 230000002950 deficient Effects 0.000 claims description 6
- 230000004069 differentiation Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 2
- 238000000638 solvent extraction Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于激光雷达的SLAM系统和方法,该系统包括:点云处理模块,用于进行地面提取,点云分割,特征提取;里程计优化模块,用于进行标签匹配,L‑M优化;闭环检测模块,用于采用描述符网络进行点云段匹配;全局位姿和地图优化模块,当闭环检测模块检测到闭环出现时,系统后端全局位姿优化,能够消除大部分的累计误差,精确逼近地面真实情况。本发明对激光雷达点云数据进行处理,通过配准平面点和边缘点优化激光雷达里程计的估计值,再耦合上闭环检测模块进行全局位姿和地图的优化。提高定位精度和建图准确性。
Description
技术领域
本发明涉及同步定位与建图(SLAM)的技术领域,尤其涉及一种基于激光雷达的SLAM系统和方法。
背景技术
未知环境下的同步定位与建图(SLAM)一直是移动机器人的研究热点之一。由于在SLAM问题中,位姿的估计是一个由上一帧往下一帧递推的过程,在第一帧之后每求一次位姿,就会将误差带给解算的下一帧,形成累计误差。为减小累计误差。需要优化雷达SLAM系统的里程计估计方法和闭环检测方法。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于激光雷达的SLAM系统和方法。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种基于激光雷达的SLAM系统,该系统包括:
点云处理模块,用于接收激光传感器测量得到的点云数据,将接收到的每一帧点云都投影到图像上,将点云数据分为不可分割的地面点和其他分割点,对可分割点依据几何特征进行分割,而后将图像内的点进行聚类,得到数个具有不同特征的点集;利用粗糙度将图像内的点按照粗糙度阈值进行划分,分为平面特征点和边缘特征点;
里程计优化模块,雷达里程计的估计分为标签匹配和L-M优化;利用区分好的平面特征点和边缘特征点进行两帧之间的匹配;L-M优化将当前扫描的边缘特征点和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量,应用L-M方法求出两次连续扫描之间的最小距离变换;
闭环检测模块,使用SegMap框架中数据驱动的描述符从三维点云数据中提取紧凑的特征,这些特征形成一个特征数据库,将当前帧的点云特征与数据库内的特征进行对比,判断是否产生闭环;
全局位姿和地图优化模块,当闭环检测模块检测到闭环出现时,系统后端使用位形图优化方法,即GTSAM,GTSAM的自动微分功能对因子图的雅克比矩阵进行评估、增量更新和推理全局位姿图,能够消除大部分的累计误差,精确逼近地面真实情况。
进一步地,本发明的所述的点云处理模块中还包括对点集进行噪声处理的功能:
对不同特征的点集,为了增强后续点云特征提取的准确性,直接将小于 30个点的点集抛弃,处理后的点集则代表场景中占比较大的物体,以达到去除场景噪声的目的。
进一步地,本发明的所述的点云处理模块中还包括对点云进行异常值判断的功能:
对输入的点云进行异常值判断,对于点云中可能出现的互相遮挡的问题,遍历每一个点,定义当前点前后两个点的距离为d1和d2并进行计算,设定一个阈值dth,当d1和d2距离都大于阈值时,则判断当前点为瑕点,进行去除。
进一步地,本发明的所述的点云处理模块中利用粗糙度进行划分的方法具体为:
将每一层点云图像分成六份子图,在分离出的六份子图内逐一进行粗糙度的计算,计算每个点pi粗糙度:
其中,图像上的每一个像素值ri表示相应的点pi到传感器的欧氏距离,S 为同一行的连续点pi的点集,从每一份子图的start point到end point进行曲率排序,定义一个粗糙的阈值Cth,若c>Cth,则为边缘特征,若c<Cth,则为平面特征。
进一步地,本发明的所述的点云处理模块需要保证点云数据经过地面点提取被分为不可分割的地面点和其他分割点,对分割点依据粗糙阈值特征进行分割;c>Cth,则为边缘特征,若c<Cth,则为平面特征。
进一步地,本发明的所述的里程计优化模块中L-M方法的具体方法为:
L-M优化将当前扫描的边缘特征点和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量,应用 L-M方法求出两次连续扫描之间的最小距离变换;其具体方法为:
L-M方法用来优化点到直线的距离dε和点到平面的距离dH,得到一个非线性函数为[tk+1,t]的之间的雷达位姿变换,计算f相对于的雅可比矩阵,表示为J,其中通过非线性迭代通过将dε和 dH向零最小化来求解;其公式为:
进一步地,本发明的所述的闭环检测模块中进行闭环判断的方法具体为:
利用特征数据库中的特征,实时执行点云段匹配,使用传感器周围固定半径内的局部地图执行点云段检索,与深度学习方法所训练出的点云段描述符进行匹配,若符合数量要求的临域特征点云被检索到,则可判断产生闭环。
进一步地,本发明的所述的全局位姿和地图优化模块中进行评估、增量更新和推理全局位姿图的具体方法为:
系统后端使用位形图优化方法即GTSAM。GTSAM的自动微分功能对因子图的雅克比矩阵进行评估、增量更新和推理全局位姿图,能够消除大部分的累计误差,精确逼近地面真实情况。
本发明提供一种基于激光雷达的SLAM方法,包括以下步骤:
步骤1、将接收到的每一帧点云都投影到图像上;
步骤2、对所得图像矩阵每一列进行估计,完成对地面点的提取,这部分地面点的点云不用于分割;
步骤3、点云数据经过地面点提取被分为不可分割的地面点和其他分割点,对分割点依据几何特征进行分割,而后将图像内的点进行聚类,得到数个具有不同特征的点集;
步骤4、直接将小于30个点的点集抛弃;
步骤5、对输入的点云进行异常值判断,定义当前点前后两个点的距离为 d1和d2并进行计算,设定一个阈值dth,当d1和d2距离都大于阈值时,则判断当前点为瑕点,进行去除;
步骤6、计算每一个点的粗糙度,从每一份子图的start point到end point 进行曲率排序,定义一个粗糙的阈值Cth,若c>Cth,则为边缘特征,若c<Cth, 则为平面特征;
步骤7、每个子图产生边缘特征集合和平面特征集合;
步骤8、标签匹配,边缘特征集合和平面特征集合中的特征都具有标签分类,寻找具有相同标签的对应点;
步骤9、L-M优化,将当前扫描的边缘和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量、应用L-M方法求出两次连续扫描之间的最小距离变换;
步骤10、使用一个描述符提取器网络从三维点云数据中提取紧凑的特征存入特征数据库;
步骤11、实时执行当前传感器附近点云段与特征数据库内点云段特征进行匹配;
步骤12、当检测到闭环出现时,系统使用后端优化功能进行全局位姿图优化,逼近真实情况。
本发明产生的有益效果是:本发明的基于激光雷达的SLAM系统和方法,基于SLAM系统模块化的设计,可以灵活的进行模块替代,模块之间稳定性好,能达到的高精度的定位性能;本发明对激光雷达点云数据进行处理,通过配准平面点和边缘点优化激光雷达里程计的估计值,再耦合上闭环检测模块进行全局位姿和地图的优化,提高定位精度和建图准确性。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的系统框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例的基于激光雷达的SLAM系统基于slam系统模块化的设计,可以灵活的进行模块替代。模块之间稳定性好。能达到的高精度的定位性能。
该系统包括点云处理模块、里程计优化模块、环路闭合检测模块和全局位姿优化模块。
点云处理模块:将点云数据分为不可分割的地面点和其他分割点,对可分割点依据几何特征进行分割,而后将图像内的点进行聚类,得到数个具有不同特征的点集。利用粗糙度将图像内的点按照粗糙度阈值进行划分。分为平面特征点和边缘特征点。
点云处理模块中利用粗糙度进行划分的方法具体为:
将每一层点云图像分成六份子图,在分离出的六份子图内逐一进行粗糙度的计算,计算每个点pi粗糙度:
其中,图像上的每一个像素值ri表示相应的点pi到传感器的欧氏距离,S 为同一行的连续点pi的点集,从每一份子图的start point到end point进行曲率排序,定义一个粗糙的阈值Cth,若c>Cth,则为边缘特征,若c<Cth,则为平面特征。
SLAM系统接收到激光传感器的测量数据然后输出6dof的位姿估计值。将收到的每一帧点云都投影到图像上,即可得到一副分辨率为1800*16的图像,该步骤称为点云的图像化。图像上的每一个像素值ri表示相应的点pi到传感器的欧氏距离。经过图像化处理得到每幅图像的矩阵形式,对矩阵的每一列进行估计就可以完成对地面点的提取,这部分地面点的点云不用于分割。
点云数据经过地面点提取被分为不可分割的地面点和其他分割点。对分割点依据几何特征进行分割,而后将图像内的点进行聚类,得到数个具有不同特征的点集。但在一个嘈杂的环境中,场景内的小物体可能也会形成特征,在两次雷达扫描中,并不一定都会看得到这些小特征,为了增强后续点云特征提取的准确性,直接将小于30个点的点集抛弃。处理后的点集则代表场景中占比较大的物体,以达到去除场景噪声的目的。
首先对输入的点云进行异常值判断,对于点云中可能出现的互相遮挡的问题,就会出现瑕点。遍历每一个点,定义当前点前后两个点的距离为d1和d2 并进行计算,设定一个阈值dth,当d1和d2距离都大于阈值时,则判断当前点为瑕点,进行去除。去除这些瑕点后可以提高特征提取的稳定性。
为了均匀的提取点云特征,将每一层点云图像分成六份子图。在分离出的六份子图内逐一进行粗糙度的计算,从每一份子图的start point到end point进行曲率排序。定义一个粗糙的阈值Cth,若c>Cth,则为边缘特征,若c<Cth,则为平面特征。每个子图最多提供两个边缘点和四个平面点,边缘点必不属于地面点。平面点必须是地面点。每个子图产生边缘特征集合fe和平面特征集合 fp。fe和fp是所有子图边缘特征和平面特征的集合。
里程计优化模块:雷达里程计的估计分为两步,分别为标签匹配和L-M 优化。利用区分好的平面特征点和边缘特征点进行两帧之间的匹配,提高了匹配准确性,缩小了潜在的匹配特征数量。L-M优化将当前扫描的边缘和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量。应用Levenberg-Marquardt(L-M)方法求出两次连续扫描之间的最小距离变换。
里程计优化模块中L-M方法的具体方法为:
L-M优化将当前扫描的边缘特征点和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量,应用 L-M方法求出两次连续扫描之间的最小距离变换;其具体方法为:
L-M方法用来优化点到直线的距离dε和点到平面的距离dH,得到一个非线性函数为[tk+1,t]的之间的雷达位姿变换,计算f相对于的雅可比矩阵,表示为J,其中通过非线性迭代通过将dε和 dH向零最小化来求解;其公式为:
(1)标签匹配。fe和fp中的特征都具有标签分类,因此从和寻找具有相同标签的对应点。对于fe t中的平面点,只有在fe t-1中被标记为地面点的才会被用于寻找中对应的平面片。对于fp t中的边缘特征,从fp t-1中寻找对应的边缘线。这种方式提高了匹配准确性,缩小了潜在对应特征的数量。
(2)L-M优化。将当前扫描的边缘和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量。应用 Levenberg-Marquardt(L-M)方法求出两次连续扫描之间的最小距离变换。通过配准平面点得到[tz,roll,pitch],在其约束条件下,通过配准边缘点估计 [tx,ty,yaw],2个连续scan之间的6自由度变换通过融合[tz,roll,pitch]和 [tx,ty,yaw]获得。
环路闭合检测模块:使用SegMap框架中数据驱动的描述符从三维点云数据中提取紧凑的特征,这些特征形成一个特征数据库。将当前帧的点云特征与数据库内的特征进行对比,判断是否产生闭环。
描述符提取器输入的是三维点云段,输出的是641维的向量,经过描述符提取器的网络输出后,把输出值存储起来可以成为一个特征数据库。在SLAM 系统中,划定传感器周围固定半径的局部地图执行段匹配。在执行段匹配时,至少需要7个几何一致的对应。一旦检测到符合数量条件的匹配段则成功检测到闭环,可以进入全局位姿优化部分。
全局位姿优化模块:当环路闭合检测模块检测到闭环出现时,系统后端使用位形图优化方法即GTSAM。GTSAM的自动微分功能对因子图的雅克比矩阵进行评估、增量更新和推理全局位姿图,能够消除大部分的累计误差,精确逼近地面真实情况。
本发明实施例的基于激光雷达的SLAM方法,包括以下步骤:
步骤1.将接收到的每一帧点云都投影到图像上。
步骤2.对所得图像矩阵每一列进行估计就可以完成对地面点的提取,这部分地面点的点云不用于分割。
步骤3.点云数据经过地面点提取被分为不可分割的地面点和其他分割点。对分割点依据几何特征进行分割,而后将图像内的点进行聚类,得到数个具有不同特征的点集。
步骤4.为了增强后续点云特征提取的准确性,直接将小于30个点的点集抛弃。
步骤5.对输入的点云进行异常值判断,定义当前点前后两个点的距离为 d1和d2并进行计算,设定一个阈值dth,当d1和d2距离都大于阈值时,则判断当前点为瑕点,进行去除。
步骤6.计算每一个点的粗糙度。从每一份子图的start point到end point进行曲率排序。定义一个粗糙的阈值Cth,若c>Cth,则为边缘特征,若c<Cth,则为平面特征。
步骤7.每个子图产生边缘特征集合和平面特征集合。和是所有子图边缘特征和平面特征的集合。
步骤8.标签匹配。和中的特征都具有标签分类,因此从和寻找具有相同标签的对应点。对于中的平面点,只有在中被标记为地面点的才会被用于寻找中对应的平面片。对于中的边缘特征,从中寻找对应的边缘线。
步骤9.L-M优化,将当前扫描的边缘和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量。应用Levenberg-Marquardt(L-M)方法求出两次连续扫描之间的最小距离变换。通过配准平面点得到[tz,roll,pitch],在其约束条件下,通过配准边缘点估计 [tx,ty,yaw],2个连续scan之间的6自由度变换通过融合[tz,roll,pitch]和 [tx,ty,yaw]获得。
步骤10.使用一个描述符提取器网络从三维点云数据中提取紧凑的特征存入特征数据库。
步骤11.实时执行当前传感器附近点云段与特征数据库内点云段特征进行匹配。
步骤12.当检测到闭环出现时,系统使用后端优化功能进行全局位姿图优化,逼近真实情况。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (9)
1.一种基于激光雷达的SLAM系统,其特征在于,该系统包括:
点云处理模块,用于接收激光传感器测量得到的点云数据,将接收到的每一帧点云都投影到图像上,将点云数据分为不可分割的地面点和其他分割点,对可分割点依据几何特征进行分割,而后将图像内的点进行聚类,得到数个具有不同特征的点集;利用粗糙度将图像内的点按照粗糙度阈值进行划分,分为平面特征点和边缘特征点;
里程计优化模块,雷达里程计的估计分为标签匹配和L-M优化;利用区分好的平面特征点和边缘特征点进行两帧之间的匹配;L-M优化将当前扫描的边缘特征点和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量,应用L-M方法求出两次连续扫描之间的最小距离变换;
闭环检测模块,使用SegMap框架中数据驱动的描述符从三维点云数据中提取紧凑的特征,这些特征形成一个特征数据库,将当前帧的点云特征与数据库内的特征进行对比,判断是否产生闭环;
全局位姿和地图优化模块,当闭环检测模块检测到闭环出现时,系统后端使用位形图优化方法,即GTSAM,GTSAM的自动微分功能对因子图的雅克比矩阵进行评估、增量更新和推理全局位姿图,能够消除大部分的累计误差,精确逼近地面真实情况。
2.根据权利要求1所述的基于激光雷达的SLAM系统,其特征在于,所述的点云处理模块中还包括对点集进行噪声处理的功能:
对不同特征的点集,为了增强后续点云特征提取的准确性,直接将小于30个点的点集抛弃,处理后的点集则代表场景中占比较大的物体,以达到去除场景噪声的目的。
3.根据权利要求1所述的基于激光雷达的SLAM系统,其特征在于,所述的点云处理模块中还包括对点云进行异常值判断的功能:
对输入的点云进行异常值判断,对于点云中可能出现的互相遮挡的问题,遍历每一个点,定义当前点前后两个点的距离为d1和d2并进行计算,设定一个阈值dth,当d1和d2距离都大于阈值时,则判断当前点为瑕点,进行去除。
5.根据权利要求4所述的基于激光雷达的SLAM系统,其特征在于,所述的点云处理模块需要保证点云数据经过地面点提取被分为不可分割的地面点和其他分割点,对分割点依据粗糙阈值特征进行分割;c>Cth,则为边缘特征,若c<Cth,则为平面特征。
6.根据权利要求1所述的基于激光雷达的SLAM系统,其特征在于,所述的里程计优化模块中L-M方法的具体方法为:
L-M优化将当前扫描的边缘特征点和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量,应用L-M方法求出两次连续扫描之间的最小距离变换;其具体方法为:
L-M方法用来优化点到直线的距离dε和点到平面的距离dH,得到一个非线性函数 为[tk+1,t]的之间的雷达位姿变换,计算f相对于的雅可比矩阵,表示为J,其中通过非线性迭代通过将dε和dH向零最小化来求解;其公式为:
7.根据权利要求1所述的基于激光雷达的SLAM系统,其特征在于,所述的闭环检测模块中进行闭环判断的方法具体为:
利用特征数据库中的特征,实时执行点云段匹配,使用传感器周围固定半径内的局部地图执行点云段检索,与深度学习方法所训练出的点云段描述符进行匹配,若符合数量要求的临域特征点云被检索到,则可判断产生闭环。
8.根据权利要求1所述的基于激光雷达的SLAM系统,其特征在于,所述的全局位姿和地图优化模块中进行评估、增量更新和推理全局位姿图的具体方法为:
系统后端使用位形图优化方法即GTSAM,GTSAM的自动微分功能对因子图的雅克比矩阵进行评估、增量更新和推理全局位姿图,能够消除大部分的累计误差,精确逼近地面真实情况。
9.一种基于激光雷达的SLAM方法,其特征在于,包括以下步骤:
步骤1、将接收到的每一帧点云都投影到图像上;
步骤2、对所得图像矩阵每一列进行估计,完成对地面点的提取,这部分地面点的点云不用于分割;
步骤3、点云数据经过地面点提取被分为不可分割的地面点和其他分割点,对分割点依据几何特征进行分割,而后将图像内的点进行聚类,得到数个具有不同特征的点集;
步骤4、直接将小于30个点的点集抛弃;
步骤5、对输入的点云进行异常值判断,定义当前点前后两个点的距离为d1和d2并进行计算,设定一个阈值dth,当d1和d2距离都大于阈值时,则判断当前点为瑕点,进行去除;
步骤6、计算每一个点的粗糙度,从每一份子图的start point到end point进行曲率排序,定义一个粗糙的阈值Cth,若c>Cth,则为边缘特征,若c<Cth,则为平面特征;
步骤7、每个子图产生边缘特征集合和平面特征集合;
步骤8、标签匹配,边缘特征集合和平面特征集合中的特征都具有标签分类,寻找具有相同标签的对应点;
步骤9、L-M优化,将当前扫描的边缘和平面特征点之间的距离以及它们与前一次扫描的对应关系的一系列非线性表达式编译为一个综合距离向量、应用L-M方法求出两次连续扫描之间的最小距离变换;
步骤10、使用一个描述符提取器网络从三维点云数据中提取紧凑的特征存入特征数据库;
步骤11、实时执行当前传感器附近点云段与特征数据库内点云段特征进行匹配;
步骤12、当检测到闭环出现时,系统使用后端优化功能进行全局位姿图优化,逼近真实情况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011454449.7A CN112966542A (zh) | 2020-12-10 | 2020-12-10 | 一种基于激光雷达的slam系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011454449.7A CN112966542A (zh) | 2020-12-10 | 2020-12-10 | 一种基于激光雷达的slam系统和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112966542A true CN112966542A (zh) | 2021-06-15 |
Family
ID=76271405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011454449.7A Pending CN112966542A (zh) | 2020-12-10 | 2020-12-10 | 一种基于激光雷达的slam系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966542A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379915A (zh) * | 2021-07-05 | 2021-09-10 | 广东工业大学 | 一种基于点云融合的行车场景构建方法 |
CN113379841A (zh) * | 2021-06-21 | 2021-09-10 | 上海仙工智能科技有限公司 | 一种基于相位相关法与因子图的激光slam方法及其可读存储介质 |
CN113778096A (zh) * | 2021-09-15 | 2021-12-10 | 上海景吾智能科技有限公司 | 室内机器人的定位与模型构建方法及系统 |
CN113947636A (zh) * | 2021-10-19 | 2022-01-18 | 中南大学 | 一种基于深度学习的激光slam定位系统及方法 |
CN113985435A (zh) * | 2021-10-13 | 2022-01-28 | 上海师范大学 | 一种融合多激光雷达的建图方法及系统 |
WO2023000294A1 (zh) * | 2021-07-23 | 2023-01-26 | 深圳市大疆创新科技有限公司 | 位姿估计方法、激光雷达-惯性里程计、可移动平台及存储介质 |
CN113702941B (zh) * | 2021-08-09 | 2023-10-13 | 哈尔滨工程大学 | 一种基于改进icp的点云测速方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
CN111929699A (zh) * | 2020-07-21 | 2020-11-13 | 北京建筑大学 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
-
2020
- 2020-12-10 CN CN202011454449.7A patent/CN112966542A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
CN111929699A (zh) * | 2020-07-21 | 2020-11-13 | 北京建筑大学 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
Non-Patent Citations (2)
Title |
---|
JI ZHANG,SANJIV SINGH: "Low-drift and real-time lidar odometry and mapping", 《AUTON ROBOT》 * |
JIANNAN YIN等: "Added the Odometry Optimized SLAM Loop Closure Detection System", 《2020 THE 5TH INTERNATIONAL CONFERENCE ON CONTROL, ROBOTICS AND CYBERNETICS》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379841A (zh) * | 2021-06-21 | 2021-09-10 | 上海仙工智能科技有限公司 | 一种基于相位相关法与因子图的激光slam方法及其可读存储介质 |
CN113379841B (zh) * | 2021-06-21 | 2024-04-30 | 上海仙工智能科技有限公司 | 一种基于相位相关法与因子图的激光slam方法及其可读存储介质 |
CN113379915A (zh) * | 2021-07-05 | 2021-09-10 | 广东工业大学 | 一种基于点云融合的行车场景构建方法 |
WO2023000294A1 (zh) * | 2021-07-23 | 2023-01-26 | 深圳市大疆创新科技有限公司 | 位姿估计方法、激光雷达-惯性里程计、可移动平台及存储介质 |
CN113702941B (zh) * | 2021-08-09 | 2023-10-13 | 哈尔滨工程大学 | 一种基于改进icp的点云测速方法 |
CN113778096A (zh) * | 2021-09-15 | 2021-12-10 | 上海景吾智能科技有限公司 | 室内机器人的定位与模型构建方法及系统 |
CN113985435A (zh) * | 2021-10-13 | 2022-01-28 | 上海师范大学 | 一种融合多激光雷达的建图方法及系统 |
CN113947636A (zh) * | 2021-10-19 | 2022-01-18 | 中南大学 | 一种基于深度学习的激光slam定位系统及方法 |
CN113947636B (zh) * | 2021-10-19 | 2024-04-26 | 中南大学 | 一种基于深度学习的激光slam定位系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966542A (zh) | 一种基于激光雷达的slam系统和方法 | |
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN113160192B (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
CN109615653B (zh) | 基于深度学习与视场投影模型的渗漏水面积检测与识别方法 | |
CN109101924B (zh) | 一种基于机器学习的路面交通标志识别方法 | |
CN110866430B (zh) | 一种车牌识别方法及装置 | |
Alidoost et al. | A CNN-based approach for automatic building detection and recognition of roof types using a single aerial image | |
CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
CN111046856B (zh) | 基于动静态特征提取并行位姿跟踪与地图创建的方法 | |
CN115082466B (zh) | 一种pcb表面焊点缺陷检测方法及系统 | |
CN112906583B (zh) | 一种车道线检测方法及装置 | |
CN113393426A (zh) | 一种轧钢板表面缺陷检测方法 | |
CN107862319A (zh) | 一种基于邻域投票的异源高分光学影像匹配误差剔除方法 | |
CN114549549B (zh) | 一种动态环境下基于实例分割的动态目标建模跟踪方法 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN115035089A (zh) | 适用于二维脑图像数据的脑解剖结构定位方法 | |
CN117496401A (zh) | 一种用于视频测量影像序列椭圆形目标点全自动识别与跟踪方法 | |
CN116543391A (zh) | 一种结合图像校正的文本数据采集系统及方法 | |
CN110889418A (zh) | 一种气体轮廓识别方法 | |
CN115760898A (zh) | 一种混合高斯域下道路抛洒物的世界坐标定位方法 | |
CN116309817A (zh) | 一种基于rgb-d相机的托盘检测与定位方法 | |
JPH09245168A (ja) | 画像認識装置 | |
CN114818851A (zh) | 一种基于特征差异性的农村道路矢量数据纠正方法 | |
CN114359378A (zh) | 一种带式输送机巡检机器人定位方法 | |
CN112651936A (zh) | 基于图像局部熵的钢板表面缺陷图像分割方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210615 |