CN113432600A - 基于多信息源的机器人即时定位与地图构建方法及系统 - Google Patents

基于多信息源的机器人即时定位与地图构建方法及系统 Download PDF

Info

Publication number
CN113432600A
CN113432600A CN202110644501.3A CN202110644501A CN113432600A CN 113432600 A CN113432600 A CN 113432600A CN 202110644501 A CN202110644501 A CN 202110644501A CN 113432600 A CN113432600 A CN 113432600A
Authority
CN
China
Prior art keywords
point cloud
laser
points
information
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110644501.3A
Other languages
English (en)
Other versions
CN113432600B (zh
Inventor
丁大伟
王旭
爨朝阳
王恒
安翠娟
田震松
任莹莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology Beijing USTB
Original Assignee
University of Science and Technology Beijing USTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Beijing USTB filed Critical University of Science and Technology Beijing USTB
Priority to CN202110644501.3A priority Critical patent/CN113432600B/zh
Publication of CN113432600A publication Critical patent/CN113432600A/zh
Application granted granted Critical
Publication of CN113432600B publication Critical patent/CN113432600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Abstract

本发明公开了一种基于多信息源的机器人即时定位与地图构建方法及系统,该方法包括:获取激光点云数据并对点云数据进行预处理;基于点云数据的几何特征和激光点反射强度信息,对预处理后的每一帧的点云进行特征点提取;利用聚类标签和激光点反射强度信息作为联合的约束条件,根据特征点进行点云配准;基于点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图。本发明采用紧耦合的方式,利用IMU和激光雷达的信息,引入激光反射强度信息,避免了单一几何信息的不足。同时融合了目前先进的scan context描述符进行回环检测,从而提升了定位以及建图精度,提高了系统整体的鲁棒性。

Description

基于多信息源的机器人即时定位与地图构建方法及系统
技术领域
本发明涉及机器人技术领域,特别涉及一种基于多信息源的机器人即时定位与地图构建方法及系统。
背景技术
SLAM(即时定位与地图构建)作为移动机器人的核心功能,在过去的几十年时间里得到了飞速的发展,引起了国际社会学者们的广泛兴趣。
为了构建良好的激光惯导SLAM系统,人们也提出了诸如LOAM,Lego-loam,LIO-Mapping、LIO-SAM等算法,但是这些现有的算法都不可避免的采取单一的几何特征,信息源较为单一,并且这些现有的惯导系统大多没有对地面进行优化,缺少地平面这一有明显特征的几何约束,因此,需要改进。
发明内容
本发明提供了一种基于多信息源的机器人即时定位与地图构建方法及系统,以解决目前SLAM大多以3D激光雷达为主,信息源大多采取几何信息的特征,在一些场景下,如室外,发生纯旋转等情况下的鲁棒性不高的技术问题。
为解决上述技术问题,本发明提供了如下技术方案:
一方面,本发明提供了一种基于多信息源的机器人即时定位与地图构建方法,该基于多信息源的机器人即时定位与地图构建方法包括:
获取激光点云数据,并对获取的激光点云数据进行预处理,以去除激光点云数据中的杂点,并且获得激光点反射强度信息和激光点云数据的聚类标签;
基于激光点云数据的几何特征和激光点反射强度信息,对预处理后的激光点云数据中的每一帧的点云进行特征点提取,以获取每一帧点云的特征点;
利用提取到的特征点进行点云配准;其中,在点云配准过程中,利用所述聚类标签和所述激光点反射强度信息作为联合的约束条件;
基于点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图。
进一步地,所述对获取的激光点云数据进行预处理,包括:
根据反射强度的生成原理,建立数学模型,利用所述数学模型进行激光点反射强度的矫正和归一化处理,获得激光点反射强度信息,所述数学模型如下:
Figure BDA0003108576540000021
其中,ρ是反射率,即相当于反射强度消除外在因素干扰后的信息,I是测得的反射强度信息,R是激光点距离激光雷达的距离,可以直接测得,α是入射角度,可通过测量得到,经过推导,我们可以知道反射∝(正相关于)反射强度。
进一步地,所述对获取的激光点云数据进行预处理,还包括:
利用激光点间的角度关系进行线束分割,以确定每个激光点属于哪个线束;
利用相邻点与地平线的夹角关系进行地面点与非地面点的点云分割;
利用惯性传感器IMU信息进行点云数据的运动畸变去除;
对非地面点投影聚类,对每个聚类分配一个唯一的聚类标签并去除边缘点。
进一步地,所述利用惯性传感器IMU信息进行运动畸变去除,包括:
将IMU直接测得的角速度和线加速度进行积分;
根据积分结果将速度补偿给激光点,以实现点云数据的运动畸变去除。
进一步地,所述基于激光点云数据的几何特征和激光点反射强度信息,对预处理后的激光点云数据中的每一帧的点云进行特征点提取,包括:
基于激光点云数据的几何特征和激光点反射强度信息,构建平滑度公式,设置特征点判断阈值,表达式如下:
Figure BDA0003108576540000022
其中,
Figure BDA0003108576540000023
代表两个激光点的距离,dI=‖ρjl‖代表两个反射率的差值,S指计算平滑度选取相邻点的个数,
Figure BDA0003108576540000024
指的是S个激光点到激光雷达的距离和;α和β为预设参数,并且α∈[0,1],β∈[0,1];xj指第j个激光点到激光雷达的距离,T表示向量的转置;ρj表示第j个激光点的反射率;xl指第l个激光点到激光雷达的距离;ρl表示第l个激光点的反射率。
将每一帧点云均匀的分为8个部分,每个部分的扫描范围均为45度;
在提取特征点时,在每一帧点云的每一部分分别提取2个特征点和4个平面点,从而构成每一帧点云的边缘点集合和平面点集合。
进一步地,在提取特征点时,所述方法还包括:
去除点云中深度值小于预设深度值阈值的点;
去除点云中激光雷达视场边缘的点;
去除点云中激光束和平面夹角小于预设夹角阈值的点;
去除点云中在当前帧点云的前后N帧发现遮挡的点;其中,N为预设整数。
进一步地,所述利用提取到的特征点进行点云配准,包括:
采用PL-ICP的方式,利用提取到的特征点进行点云配准,约束条件如下:
Lj=Ll|||ρjl|<ρI
其中,Ll和Lj分别代表两个激光点的聚类标签,ρj和ρl分别代表两个点的反射率,ρI是设定的反射率的阈值。
进一步地,所述基于点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图,包括:
基于点云配准结果,得到机器人的局部位姿并构建局部子图,同时将其转换为激光里程计因子;
对IMU测得的角速度和加速度信息进行预积分处理,构建预积分因子;
采用预设的回环检测算法进行回环检测,形成回环检测因子;
将机器人位姿构建为变量节点,将所述回环检测因子,激光里程计因子和预积分因子构成相关变量节点间的因子节点,一起加入因子图中进行联合优化,得到全局一致的位姿轨迹,并经过地图的拼接后,得到全局一致性的地图。
进一步地,所述预设的回环检测算法为scan context回环描述符。
另一方面,本发明还提供了一种基于多信息源的机器人即时定位与地图构建系统,该基于多信息源的机器人即时定位与地图构建系统包括:
激光点云数据获取与预处理模块,用于获取激光点云数据,并对获取的激光点云数据进行预处理,以去除激光点云数据中的杂点,并且获得激光点反射强度信息和激光点云数据的聚类标签;
特征提取模块,用于基于激光点云数据的几何特征和激光点反射强度信息,对经过所述激光点云数据获取与预处理模块预处理后的激光点云数据中的每一帧的点云进行特征点提取,以获取每一帧点云的特征点;
点云配准模块,用于利用所述特征提取模块提取到的特征点进行点云配准;其中,在点云配准过程中,所述点云配准模块利用所述聚类标签和所述激光点反射强度信息作为联合的约束条件;
全局位姿与地图构建模块,用于基于所述点云配准模块输出的点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图。
再一方面,本发明还提供了一种电子设备,其包括处理器和存储器;其中,存储器中存储有至少一条指令,所述指令由处理器加载并执行以实现上述方法。
又一方面,本发明还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现上述方法。
本发明提供的技术方案带来的有益效果至少包括:
本发明将激光雷达和IMU信息用因子图的方式融合在一起进行联合优化,除了使用几何信息外,还引入了反射强度信息,避免了单一几何信息的不足,通过增加新的约束,提高了点云匹配的效率和精度,相比于单传感器和单一信息源的系统,本发明具有更高的鲁棒性。同时本发明融合目前先进的scan context描述符进行回环检测,从而提升了定位和建图精度,提高了系统整体的鲁棒性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于多信息源的机器人即时定位与地图构建方法的整体执行流程示意图;
图2为本发明实施例提供的激光点云数据预处理流程示意图;
图3为本发明实施例提供的点云配准的流程示意图;
图4为本发明实施例提供的IMU预积分模型示意图;
图5为本发明实施例提供的Scan Context描述符执行流程示意;
图6为本发明实施例提供的因子图优化的整体模型示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
第一实施例
本实施例提供了一种基于多信息源的机器人即时定位与地图构建方法,该方法可以由电子设备实现。具体地,本实施例的方法包括以下步骤:
S1,获取激光点云数据,并对获取的激光点云数据进行预处理,以去除激光点云数据中的杂点,并获得激光点反射强度信息和激光点云数据的聚类标签;
具体地,在本实施例中,对获取的激光点云数据进行预处理,包括:
根据反射强度的生成原理,建立数学模型,利用所述数学模型进行激光点反射强度的矫正和归一化处理,获得激光点反射强度信息,所述数学模型如下:
Figure BDA0003108576540000051
其中,ρ是反射率,即相当于反射强度消除外在因素干扰后的信息,I是测得的反射强度信息,R是激光点距离激光雷达的距离,可以直接测得,α是入射角度,可通过测量得到,经过推导,我们可以知道反射∝(正相关于)反射强度。
利用激光点间的角度关系进行线束分割,以确定每个激光点属于哪个线束;
利用相邻点与地平线的夹角关系进行地面点与非地面点的点云分割;
利用惯性传感器IMU信息进行点云数据的运动畸变去除;
对非地面点投影聚类,对每个聚类分配一个唯一的聚类标签并去除边缘点。
进一步地,利用惯性传感器IMU信息进行运动畸变去除,实现原理为:
将IMU直接测得的角速度和线加速度进行积分;
根据积分结果将速度补偿给激光点,以实现点云数据的运动畸变去除。
S2,基于激光点云数据的几何特征和激光点反射强度信息,对预处理后的激光点云数据中的每一帧的点云进行特征点提取,以获取每一帧点云的特征点;
具体地,在本实施例中,上述S2的实现过程如下:
基于激光点云数据的几何特征和激光点反射强度信息,构建平滑度公式,设置特征点判断阈值,表达式如下:
Figure BDA0003108576540000052
其中,
Figure BDA0003108576540000053
代表两个激光点的距离,dI=‖ρjl‖代表两个反射率的差值,S指计算平滑度选取相邻点的个数,
Figure BDA0003108576540000054
指的是S个激光点到激光雷达的距离和;α和β为预设参数,并且α∈[0,1],β∈[0,1];xj指第j个激光点到激光雷达的距离,T表示向量的转置;ρj表示第j个激光点的反射率;xl指第l个激光点到激光雷达的距离;ρl表示第l个激光点的反射率。
将每一帧点云均匀的分为8个部分,每个部分的扫描范围均为45度;
在提取特征点时,在每一帧点云的每一部分分别提取2个特征点和4个平面点,从而构成每一帧点云的边缘点集合和平面点集合。
进一步地,在提取特征点时,本实施例的方法还包括对不符合要求的点进行去除,包括:去除点云中深度值小于预设深度值阈值的点;去除点云中激光雷达视场边缘的点;去除点云中激光束和平面夹角小于预设夹角阈值的点;去除点云中在当前帧点云的前后N帧发现遮挡的点;其中,N为预设整数。
S3,利用提取到的特征点进行点云配准;其中,在点云配准过程中,利用所述聚类标签和所述激光点反射强度信息作为联合的约束条件;
具体地,在本实施例中,上述S3的实现过程如下:
采用PL-ICP的方式,利用提取到的特征点进行点云配准,约束条件如下:
Lj=Ll|||ρjl|<ρI
其中,Ll和Lj分别代表两个激光点的标签,ρj和ρl分别代表两个点的反射率,ρI是设定的反射率的阈值。
S4,基于点云配准结果,结合IMU和回环检测信息,得到全局位姿和地图。
具体地,在本实施例中,上述S4的实现过程如下:
基于点云配准结果,得到机器人的局部位姿并构建局部子图,同时将其转换为激光里程计因子;
对IMU测得的角速度和加速度信息进行预积分处理,构建预积分因子;
采用预设的回环检测算法进行回环检测,形成回环检测因子;
将机器人位姿构建为变量节点,将所述回环检测因子,激光里程计因子和预积分因子构成相关变量节点间的因子节点,一起加入因子图中进行联合优化,得到全局一致的位姿轨迹,并经过地图的拼接后,得到全局一致性的地图。
进一步地,本实施例采用的回环检测算法为scan context回环描述符。
综上,本实施例的机器人SLAM方法主要有以下特点:1、本方法利用了激光点反射强度信息,丰富了系统信息源,目的在于提高系统整体的鲁棒性,其主要特点如下:(1)根据反射强度的生成原理,建立数学模型,利用该模型进行激光点反射强度的矫正和归一化处理,消除了距离,入射角度等信息的干扰;(2)本方法提出了一种新的特征提取方案,传统的三维激光SLAM系统单纯的使用几何信息提取平滑度,而本方法在此基础上融合了激光点反射强度信息;(3)本方法在匹配阶段利用聚类标签和激光点反射强度信息进行二次约束,缩小了配准搜索范围,提高了迭代效率。2、相比现有的LIO-SAM和LIO-MAPPING这些激光惯导系统,本方法增加了地面优化;3、传统的三维激光SLAM系统通常采用最近邻搜索的方式进行回环检测,这种方法的召回率和准确度都比较低,而本方法所采用的scan context回环描述符拥有更好的召回率和准确度。
第二实施例
本实施例将结合相应的附图对本发明的基于多信息源的机器人即时定位与地图构建方法进行更详细的描述,如图1所示,该方法主要分为三个线程,一是激光里程计,其中主要包含传感器信息的预处理、点云特征提取、点云配准等内容;二是IMU(惯性传感器)信息的处理,一方面参与激光点云运动畸变的去除,另一方面经过预积分处理形成预积分因子,成为点云的帧间约束;三是采用Scan-Context描述符的方式做回环检测,形成回环检测因子,最后将激光里程计因子、回环检测因子和预积分因子用GTSAM库作因子图优化。其中,GTSAM是一个在机器人领域和计算机视觉领域用于平滑和建图的C++库。
具体地,本实施例的方法包括以下步骤:
步骤1:利用VPL-16线激光雷达采集激光点云数据并对数据进行预处理;
需要说明的是,由于激光雷达的扫描原理,得到的点云数据含有较多杂点,因此需要对点云数据进行预处理操作。而且不同于通常的预处理操作,本实施例的预处理操作主要包含两部分内容。一方面,由于本实施例使用了激光反射强度信息,因此需要对激光点反射强度信息进行矫正,另一方面,需要对激光点进行线束分割、运动补偿等操作。点云数据的预处理步骤如图2所示,包括:
由于激光反射强度受到距离,角度和物体表面材质的影响,因此为了消除这些因素的干扰,本实施例根据反射强度的生成原理,建立数学模型,进行激光点反射强度的矫正和归一化处理,以更好的利用反射强度信息,模型如下:
Figure BDA0003108576540000071
其中,ρ是反射率,即相当于反射强度消除外在因素干扰后的信息,I是测得的反射强度信息,R是激光点距离激光雷达的距离,可以直接测得,α是入射角度,可通过测量得到,经过推导,我们可以知道反射∝(正相关于)反射强度。
利用激光点间的角度关系进行线束分割,以确定每个激光点属于哪一个线束,利用相邻点与地平线的夹角关系进行地面点与非地面点的点云分割,利用IMU信息进行运动畸变去除,最后对非地面点投影聚类并去除边缘点,在投影聚类的过程中,会对每个聚类分配唯一一个聚类标签,在之后的点云配准中,将利用其和反射强度作为联合的约束条件,对点进行预判断。
其中,需要说明的是,在上述步骤1的预处理过程中,本实施例仅利用IMU的数据完成了畸变去除的任务,实现了运动补偿的功能。其实现原理为:由于IMU和激光雷达的工作频率不同,前者在75HZ左右,而后者在10HZ左右,假设在一段时间内机器人是匀速运动,利用IMU直接测得角速度和线加速度,再将测得的值进行积分,然后将速度补偿给激光点,从而实现运动畸变的去除。
步骤2:对每一帧的点云进行特征提取。
需要说明的是,激光点云经过预处理后,得到的点云信息杂点较少,就可以对每一帧的点云进行特征提取,其中,本实施例的特征仍然以平面点和边缘点为主,不同的是传统算法只是单纯采用几何特征去提取这些特征点,而本实施例则加入反射强度信息,去构建平滑度c的计算公式,设置阈值。
Figure BDA0003108576540000081
其中,
Figure BDA0003108576540000082
代表两个激光点的距离,dI=‖ρjl‖代表两个反射率的差值,S指计算平滑度选取相邻点的个数,
Figure BDA0003108576540000083
指的是S个激光点到激光雷达的距离和;α和β为预设参数,并且α∈[0,1],β∈[0,1];xj指第j个激光点到激光雷达的距离,T表示向量的转置;ρj表示第j个激光点的反射率;xl指第l个激光点到激光雷达的距离;ρl表示第l个激光点的反射率。
为了更好的区分特征,避免特征的聚集,将一帧点云均匀的分为8个部分,每个部分的扫描范围是45度,并且在提取特征时,在每一部分分别提取2个特征点和4个平面点,从而构成每一帧边缘点集合εk和平面点集合Hk
其中,在提取特征点的时候难免会有一些干扰,这些干扰主要来自遮挡点及相邻点都是特征点的问题,为了使特征点具有分散性,本实施例做以下处理:
(1)由于飞行时间型(Time of Flight,TOF)机械激光雷达的工作特点,当飞行时间小于阈值时,返回的激光点会带有误差,因此需要去除深度值小的点;(2)由于激光雷达视场边缘的点存在变形,会产生大曲率现象,影响特征提取的质量,因此去掉视场边缘的点即深度值大的点;(3)去除激光束和平面夹角过小的点,即激光束和平面束接近平行的情况;(4)由于遮挡问题,如果选取遮挡点,不利于点云的配准,因此要去除前后几帧发现遮挡的点。
步骤3:利用特征点进行点云的配准。
需要说明的是,如图3所示,在提取特征点后,可利用特征点进行点云配准,这样可有效减少计算量,提高系统的运算效率,本实施例采用的点云配准方法主要是PL-ICP的方式。为了进一步提升计算效率,增加一个新的约束条件:
Lj=Ll|||ρjl|<ρI
其中,Ll和Lj分别代表两个激光点的标签,ρj和ρl分别代表两个点的反射率,ρI是设定的反射率的阈值。
通过上述约束条件的提前判断,可以更加快速的找到对应点。
此外,由于进行了聚类分割的处理,可以分别得到分割后的点云和地面点,引入分层的思想对其进行分别的处理,对于分割的点云,提取边缘点和平面点,例如对于边缘点,在i+1时刻,对于当前第k扫描线上的一个边缘点
Figure BDA0003108576540000091
利用KD树的方式,寻找上时刻i的最近第u条扫描线之后在u的上下线束寻找最近v扫描线,将u与v上各寻找一点
Figure BDA0003108576540000092
Figure BDA0003108576540000093
构建拟合直线,误差函数就是
Figure BDA0003108576540000094
到拟合直线的距离;构建平面点的误差函数同理。对于地面点,只提取平面点,构建对地面的约束。这样,最后需要构建误差函数,分别如下所示:
分割的点云:
Figure BDA0003108576540000095
Figure BDA0003108576540000096
地面点云:
Figure BDA0003108576540000097
其中,de是指边缘点的误差函数,dp是指非地面点的平面点的误差函数,ddp是指非地面点的平面点的误差函数。
Figure BDA0003108576540000098
是指在第i+1时刻第k条扫描线(scan)的边缘点,其他边缘点同理;
Figure BDA0003108576540000099
是指在第i+1时刻第k条扫描线(scan)的平面点,其他平面点同理;同理LIDAR的运动模拟为在扫描过程中角速度和线速度是恒定的。这允许线性插值一个扫描内不同时间点的姿态变换。设t是当前的时间戳,并记得t是当前扫描的起始时间。
Figure BDA0003108576540000101
是激光LIDAR在(tm,t)之间的姿态变换。
Figure BDA0003108576540000102
包含激光的六自由度运动
Figure BDA0003108576540000103
是平移矩阵,
Figure BDA0003108576540000104
是旋转矩阵在Lm坐标系统下,
Figure BDA0003108576540000105
是指得到对应旋转向量的反对称矩阵。相应的旋转矩阵可以由罗德里格斯公式定义
Figure BDA0003108576540000106
当给定一个点y,y∈Pk,t是它的时间戳。
Figure BDA0003108576540000107
可以通过线性插值
Figure BDA0003108576540000108
计算出
Figure BDA0003108576540000109
在这里,m,i是指某一时刻。值得注意的是,
Figure BDA00031085765400001010
是一个随着时间不断变化的变量,插值采用当前时间t的位姿变换。之后我们可以得到边缘点与边缘线,平面点与拟合平面间的集合关系,如下所示:
Figure BDA00031085765400001011
Figure BDA00031085765400001012
fε是指关于边缘点的函数,fH是指关于平面点的函数,
Figure BDA00031085765400001013
是指在[m,i]时间末得到的变换位姿。de是指边缘点的误差函数,dH是指所有平面点的误差函数,包含ddp和dp。在得到误差函数之后,需要对误差函数进行求解,采取的方法是LM算法进行激光里程计的运动估计,最后统一为一个非线性函数求解计算,得到机器人的局部位姿并构建局部子图。同时将其转换为激光里程计因子进行联合优化,其中f是总的关于位姿的函数,d是边缘点和平面点误差函数的和。
Figure BDA00031085765400001014
步骤4:对IMU信息进行处理。
需要说明的是,为了弥补纯旋转及快速变化的不足,本实施例引入IMU信息。IMU主要可以测量得到角速度和加速度信息。具体形式如下公式所示:
Figure BDA00031085765400001015
Figure BDA00031085765400001016
其中,
Figure BDA00031085765400001017
Figure BDA00031085765400001018
代表了IMU的测量值旋转角速度和加速度,由于存在随机游走bias(其中
Figure BDA00031085765400001019
Figure BDA00031085765400001020
分别是在t时刻角速度和加速度的随机游走)和白噪声(其中
Figure BDA00031085765400001021
Figure BDA00031085765400001022
分别是t时刻角速度和加速度的白噪声),因此测量值会存在干扰,wt和at是角速度和加速度的真实值,
Figure BDA0003108576540000111
是在t时刻B机器人坐标系下测量得到的信息到W世界坐标系下的变换矩阵,g是重力常量。所以如果环境干扰过大,某些情况下仅以IMU的信息作为基准,误差过大,因此,IMU信息在构建的激光惯导SLAM系统中主要有两方面的作用。一方面,利用IMU的高频率响应,对激光雷达点云进行插值计算,进行运动补偿以去除运动畸变,另一方面,考虑IMU自身的误差干扰,为提高计算效率,对IMU信息进行预积分处理,构建预积分因子,其示意图如图4所示,具体公式如下所示,分别代表了移动机器人速度,加速度及旋转方向的变化关系。
Figure BDA0003108576540000112
Figure BDA0003108576540000113
Figure BDA0003108576540000114
其中v,p,R分别代表了机器人的速度位置和旋转的信息,vt+Δt是指在时刻t到Δt变换时间内的速度变化,其他同理,
步骤5:进行回环检测,形成回环检测因子。
需要说明的是,由于累计误差的存在,我们往往想得到全局一致地图,尤其是当经过相同地点,增加了约束信息,当检测出来,可以进一步优化得到的位姿和地图,这就是回环检测,为了防止直接利用scan-to-scan等暴力几何方式直接搜索,采用一种SCANContext描述符的方式进行回环检测。基本流程如图5所示,包括切割点云,生成scancontext、初步查找(采用向量最近邻搜索法)、精确查找(采用scan相似度评分法)、计算相对位姿等步骤。
沿半径增大方向,把点云空间等分成Nr个圆环。每个圆环宽度dr
Figure BDA0003108576540000115
Lmax是激光的最远距离,Nr是指分割的圆环数;把分割后的点云对应到Nr×Ns(每个圆环分割的格子数)的矩阵II(scan context)中:a)矩阵的每一行代表一个圆环;b)矩阵的每一列代表一个扇形;c)矩阵中每个元素的值,该分割单元Pn中所有三维点的高度最大值。为了进行scan context间的匹配,两帧scan context的距离函数d(Iq,Ic)(其中Iq是指第q个scan contex的值,Ic同理)定义:
Figure BDA0003108576540000116
其中
Figure BDA0003108576540000121
是指第q个scan context内第j个格子的所有点到激光雷达的平均值,其他同理,两帧scan context间的所有对应的列向量之间越相似,说明两帧点云越相似。距离函数小于某个阈值时,认为该历史帧为回环检测的回环帧。
假设距离最小时,对应的列的平移量n*(
Figure BDA0003108576540000122
为第c个scan context的第n列的值)为:
Figure BDA0003108576540000123
则它代表两帧之间有旋转,旋转的角度φ:
Figure BDA0003108576540000124
以上旋转量则可作为ICP或NDT匹配的初始位姿,用于精确匹配得到闭环约束的相对位姿。
scan context可以用矩阵对应列的相似度来计算两帧的相似性,但是遍历所有历史帧的相似度计算量较高,需要做一个快速初步筛选。相似帧之间,落在同等半径的圆环中点的数量应相似,可用来快速查找。这样可保证检测精度和效率,最后将回环检测得到得信息作为回环因子,放进因子图中,做联合优化。
步骤6:将构建好的预积分因子与激光里程计因子、回环检测因子一起加入因子图中进行联合优化,得到最终的全局位姿和地图。
需要说明的是,在多传感器融合的方案中,有基于滤波器法和基于图优化法,目前主流的方式是以批量处理的图优化方式,该算法不仅考虑相邻帧间的信息,而且对全局信息进行关联,可有效降低累计误差。关于本方法的因子图优化模型如图6所示。因子图是概率图的一种,能够在最大后验概率推断问题中表示为归一化后验概率的能力,因而成为概率机器人领域理想的图模型。主要内容就是构建因子图和对信息矩阵得增量优化,在因子图构建的过程中,主要有因子节点和变量节点,在SLAM问题里,把位姿X构建为变量节点,回环检测因子,激光里程计因子和预积分因子构成相关变量节点间的因子节点,最后通过GTSAM库进行优化,得到全局一致的位姿轨迹,由于准确的位姿也会使观测信息更加精准,经过地图的拼接后,从而得到全局一致性地图。
综上,本发明将激光雷达和IMU信息用因子图的方式融合在一起进行联合优化,除了使用几何信息外,还引入了反射强度信息,避免了单一几何信息的不足,通过增加新的约束,提高了点云匹配的效率和精度,相比于单传感器和单一信息源的系统,本发明具有更高的鲁棒性。同时融合目前先进的scan context描述符进行回环检测,从而提升了定位和建图精度,提高了系统整体的鲁棒性。
第三实施例
本实施例提供了一种基于多信息源的机器人即时定位与地图构建系统,该基于多信息源的机器人即时定位与地图构建系统包括以下模块:
激光点云数据获取与预处理模块,用于获取激光点云数据,并对获取的激光点云数据进行预处理,以去除激光点云数据中的杂点,并且获得激光点反射强度信息和激光点云数据的聚类标签;
特征提取模块,用于基于激光点云数据的几何特征和激光点反射强度信息,对经过所述激光点云数据获取与预处理模块预处理后的激光点云数据中的每一帧的点云进行特征点提取,以获取每一帧点云的特征点;
点云配准模块,用于利用所述特征提取模块提取到的特征点进行点云配准;其中,在点云配准过程中,所述点云配准模块利用所述聚类标签和所述激光点反射强度信息作为联合的约束条件;
全局位姿与地图构建模块,用于基于所述点云配准模块输出的点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图。
本实施例的基于多信息源的机器人即时定位与地图构建系统与上述实施例的机器人即时定位与地图构建方法相对应;其中,本实施例的基于多信息源的机器人即时定位与地图构建系统中的各功能模块所实现的功能与上述实施例的机器人即时定位与地图构建方法中的各流程步骤一一对应;故,在此不再赘述。
第四实施例
本实施例提供一种电子设备,其包括处理器和存储器;其中,存储器中存储有至少一条指令,所述指令由处理器加载并执行,以实现上述实施例的方法。
该电子设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)和一个或一个以上的存储器,其中,存储器中存储有至少一条指令,所述指令由处理器加载并执行上述方法。
第五实施例
本实施例提供一种计算机可读存储介质,该存储介质中存储有至少一条指令,所述指令由处理器加载并执行,以实现上述实施例的方法。其中,该计算机可读存储介质可以是ROM、随机存取存储器、CD-ROM、磁带、软盘和光数据存储设备等。其内存储的指令可由终端中的处理器加载并执行上述方法。
此外,需要说明的是,本发明可提供为方法、装置或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
最后需要说明的是,以上所述是本发明优选实施方式,应当指出,尽管已描述了本发明优选实施例,但对于本技术领域的技术人员来说,一旦得知了本发明的基本创造性概念,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。

Claims (10)

1.一种基于多信息源的机器人即时定位与地图构建方法,其特征在于,包括:
获取激光点云数据,并对获取的激光点云数据进行预处理,以去除激光点云数据中的杂点,并且获得激光点反射强度信息和激光点云数据的聚类标签;
基于激光点云数据的几何特征和激光点反射强度信息,对预处理后的激光点云数据中的每一帧的点云进行特征点提取,以获取每一帧点云的特征点;
利用提取到的特征点进行点云配准;其中,在点云配准过程中,利用所述聚类标签和所述激光点反射强度信息作为联合的约束条件;
基于点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图。
2.如权利要求1所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,所述对获取的激光点云数据进行预处理,包括:
根据反射强度的生成原理,建立数学模型,利用所述数学模型进行激光点反射强度的矫正和归一化处理,获得激光点反射强度信息,所述数学模型如下:
Figure FDA0003108576530000011
其中,ρ是反射率,表示反射强度消除外在因素干扰后的信息,I是测得的反射强度信息,R是激光点距离激光雷达的距离,α是入射角度,∝表示正相关。
3.如权利要求2所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,所述对获取的激光点云数据进行预处理,还包括:
利用激光点间的角度关系进行线束分割,以确定每个激光点属于哪个线束;
利用相邻点与地平线的夹角关系进行地面点与非地面点的点云分割;
利用惯性传感器IMU信息进行点云数据的运动畸变去除;
对非地面点投影聚类,对每个聚类分配一个唯一的聚类标签并去除边缘点。
4.如权利要求3所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,所述利用惯性传感器IMU信息进行运动畸变去除,包括:
将IMU直接测得的角速度和线加速度进行积分;
根据积分结果将速度补偿给激光点,以实现点云数据的运动畸变去除。
5.如权利要求1所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,所述基于激光点云数据的几何特征和激光点反射强度信息,对预处理后的激光点云数据中的每一帧的点云进行特征点提取,包括:
基于激光点云数据的几何特征和激光点反射强度信息,构建平滑度公式,设置特征点判断阈值,表达式如下:
Figure FDA0003108576530000021
其中,
Figure FDA0003108576530000022
代表两个激光点的距离,dI=‖ρjl‖代表两个反射率的差值,S指计算平滑度选取相邻点的个数,
Figure FDA0003108576530000023
指的是S个激光点到激光雷达的距离和;α和β为预设参数,并且α∈[0,1],β∈[0,1];xj指第j个激光点到激光雷达的距离,T表示向量的转置;ρj表示第j个激光点的反射率;xl指第l个激光点到激光雷达的距离;ρl表示第l个激光点的反射率。
将每一帧点云均匀的分为8个部分,每个部分的扫描范围均为45度;
在提取特征点时,在每一帧点云的每一部分分别提取2个特征点和4个平面点,从而构成每一帧点云的边缘点集合和平面点集合。
6.如权利要求5所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,在提取特征点时,所述方法还包括:
去除点云中深度值小于预设深度值阈值的点;
去除点云中激光雷达视场边缘的点;
去除点云中激光束和平面夹角小于预设夹角阈值的点;
去除点云中在当前帧点云的前后N帧发现遮挡的点;其中,N为预设整数。
7.如权利要求1所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,所述利用提取到的特征点进行点云配准,包括:
采用PL-ICP的方式,利用提取到的特征点进行点云配准,约束条件如下:
Lj=Ll|||ρjl|<ρI
其中,Ll和Lj分别代表两个激光点的聚类标签,ρj和ρl分别代表两个点的反射率,ρI是设定的反射率的阈值。
8.如权利要求1所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,所述基于点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图,包括:
基于点云配准结果,得到机器人的局部位姿并构建局部子图,同时将其转换为激光里程计因子;
对IMU测得的角速度和加速度信息进行预积分处理,构建预积分因子;
采用预设的回环检测算法进行回环检测,形成回环检测因子;
将机器人位姿构建为变量节点,将所述回环检测因子,激光里程计因子和预积分因子构成相关变量节点间的因子节点,一起加入因子图中进行联合优化,得到全局一致的位姿轨迹,并经过地图的拼接后,得到全局一致性的地图。
9.如权利要求8所述的基于多信息源的机器人即时定位与地图构建方法,其特征在于,所述预设的回环检测算法为scan context回环描述符。
10.一种基于多信息源的机器人即时定位与地图构建系统,其特征在于,包括:
激光点云数据获取与预处理模块,用于获取激光点云数据,并对获取的激光点云数据进行预处理,以去除激光点云数据中的杂点,并且获得激光点反射强度信息和激光点云数据的聚类标签;
特征提取模块,用于基于激光点云数据的几何特征和激光点反射强度信息,对经过所述激光点云数据获取与预处理模块预处理后的激光点云数据中的每一帧的点云进行特征点提取,以获取每一帧点云的特征点;
点云配准模块,用于利用所述特征提取模块提取到的特征点进行点云配准;其中,在点云配准过程中,所述点云配准模块利用所述聚类标签和所述激光点反射强度信息作为联合的约束条件;
全局位姿与地图构建模块,用于基于所述点云配准模块输出的点云配准结果,结合IMU数据和回环检测信息,得到全局位姿和地图。
CN202110644501.3A 2021-06-09 2021-06-09 基于多信息源的机器人即时定位与地图构建方法及系统 Active CN113432600B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110644501.3A CN113432600B (zh) 2021-06-09 2021-06-09 基于多信息源的机器人即时定位与地图构建方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110644501.3A CN113432600B (zh) 2021-06-09 2021-06-09 基于多信息源的机器人即时定位与地图构建方法及系统

Publications (2)

Publication Number Publication Date
CN113432600A true CN113432600A (zh) 2021-09-24
CN113432600B CN113432600B (zh) 2022-08-16

Family

ID=77755515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110644501.3A Active CN113432600B (zh) 2021-06-09 2021-06-09 基于多信息源的机器人即时定位与地图构建方法及系统

Country Status (1)

Country Link
CN (1) CN113432600B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113933861A (zh) * 2021-11-12 2022-01-14 成都航维智芯科技有限公司 机载激光雷达点云生成方法及系统
CN113970330A (zh) * 2021-12-22 2022-01-25 比亚迪股份有限公司 车载多传感器融合定位方法、计算机设备及存储介质
CN114046790A (zh) * 2021-10-22 2022-02-15 南京航空航天大学 一种因子图双重回环的检测方法
CN114577198A (zh) * 2022-01-18 2022-06-03 辽宁华盾安全技术有限责任公司 一种高反物体定位方法、装置及终端设备
CN114608554A (zh) * 2022-02-22 2022-06-10 北京理工大学 一种手持slam设备以及机器人即时定位与建图方法
CN115183778A (zh) * 2022-07-01 2022-10-14 北京斯年智驾科技有限公司 一种基于码头石墩的建图方法、装置、设备以及介质
CN115855082A (zh) * 2022-12-07 2023-03-28 北京理工大学 一种基于点云先验地图的双模式快速重定位方法
CN116380935A (zh) * 2023-06-02 2023-07-04 中南大学 一种高铁箱梁损伤检测机器车及损伤检测方法
CN116449391A (zh) * 2023-04-17 2023-07-18 深圳直角设计工程有限公司 一种基于3d点云的室内全景成像方法与系统
CN116449392A (zh) * 2023-06-14 2023-07-18 北京集度科技有限公司 一种地图构建方法、装置、计算机设备及存储介质
CN117095061A (zh) * 2023-10-20 2023-11-21 山东大学 基于点云强度显著点的机器人位姿优化方法及系统
CN114608554B (zh) * 2022-02-22 2024-05-03 北京理工大学 一种手持slam设备以及机器人即时定位与建图方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104298971A (zh) * 2014-09-28 2015-01-21 北京理工大学 一种3d点云数据中的目标识别方法
CN107918753A (zh) * 2016-10-10 2018-04-17 腾讯科技(深圳)有限公司 点云数据处理方法及装置
CN108332759A (zh) * 2018-01-12 2018-07-27 浙江国自机器人技术有限公司 一种基于3d激光的地图构建方法及系统
CN108537844A (zh) * 2018-03-16 2018-09-14 上海交通大学 一种融合几何信息的视觉slam回环检测方法
US20190056501A1 (en) * 2017-08-15 2019-02-21 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for constructing reflectance map
CN110163900A (zh) * 2019-05-31 2019-08-23 北京百度网讯科技有限公司 用于调整点云数据方法和装置
US20190323843A1 (en) * 2018-07-04 2019-10-24 Baidu Online Network Technology (Beijing) Co., Ltd. Method for generating a high precision map, apparatus and storage medium
CN110796714A (zh) * 2019-08-22 2020-02-14 腾讯科技(深圳)有限公司 一种地图构建方法、装置、终端以及计算机可读存储介质
CN111337947A (zh) * 2020-05-18 2020-06-26 深圳市智绘科技有限公司 即时建图与定位方法、装置、系统及存储介质
CN111664842A (zh) * 2020-05-07 2020-09-15 苏州品坤智能科技有限公司 一种无人扫地机的即时定位与地图构建系统
CN111983639A (zh) * 2020-08-25 2020-11-24 浙江光珀智能科技有限公司 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法
CN112258618A (zh) * 2020-11-04 2021-01-22 中国科学院空天信息创新研究院 基于先验激光点云与深度图融合的语义建图与定位方法
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104298971A (zh) * 2014-09-28 2015-01-21 北京理工大学 一种3d点云数据中的目标识别方法
CN107918753A (zh) * 2016-10-10 2018-04-17 腾讯科技(深圳)有限公司 点云数据处理方法及装置
US20190056501A1 (en) * 2017-08-15 2019-02-21 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for constructing reflectance map
CN108332759A (zh) * 2018-01-12 2018-07-27 浙江国自机器人技术有限公司 一种基于3d激光的地图构建方法及系统
CN108537844A (zh) * 2018-03-16 2018-09-14 上海交通大学 一种融合几何信息的视觉slam回环检测方法
US20190323843A1 (en) * 2018-07-04 2019-10-24 Baidu Online Network Technology (Beijing) Co., Ltd. Method for generating a high precision map, apparatus and storage medium
CN110163900A (zh) * 2019-05-31 2019-08-23 北京百度网讯科技有限公司 用于调整点云数据方法和装置
CN110796714A (zh) * 2019-08-22 2020-02-14 腾讯科技(深圳)有限公司 一种地图构建方法、装置、终端以及计算机可读存储介质
CN111664842A (zh) * 2020-05-07 2020-09-15 苏州品坤智能科技有限公司 一种无人扫地机的即时定位与地图构建系统
CN111337947A (zh) * 2020-05-18 2020-06-26 深圳市智绘科技有限公司 即时建图与定位方法、装置、系统及存储介质
CN111983639A (zh) * 2020-08-25 2020-11-24 浙江光珀智能科技有限公司 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN112258618A (zh) * 2020-11-04 2021-01-22 中国科学院空天信息创新研究院 基于先验激光点云与深度图融合的语义建图与定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
欧阳仕晗等: "移动机器人三维激光SLAM算法研究", 《微处理机》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114046790A (zh) * 2021-10-22 2022-02-15 南京航空航天大学 一种因子图双重回环的检测方法
CN113933861A (zh) * 2021-11-12 2022-01-14 成都航维智芯科技有限公司 机载激光雷达点云生成方法及系统
WO2023116797A3 (zh) * 2021-12-22 2023-08-17 比亚迪股份有限公司 车载多传感器融合定位方法、计算机设备及存储介质
CN113970330A (zh) * 2021-12-22 2022-01-25 比亚迪股份有限公司 车载多传感器融合定位方法、计算机设备及存储介质
CN114577198A (zh) * 2022-01-18 2022-06-03 辽宁华盾安全技术有限责任公司 一种高反物体定位方法、装置及终端设备
CN114577198B (zh) * 2022-01-18 2024-02-02 辽宁华盾安全技术有限责任公司 一种高反物体定位方法、装置及终端设备
CN114608554A (zh) * 2022-02-22 2022-06-10 北京理工大学 一种手持slam设备以及机器人即时定位与建图方法
CN114608554B (zh) * 2022-02-22 2024-05-03 北京理工大学 一种手持slam设备以及机器人即时定位与建图方法
CN115183778A (zh) * 2022-07-01 2022-10-14 北京斯年智驾科技有限公司 一种基于码头石墩的建图方法、装置、设备以及介质
CN115855082B (zh) * 2022-12-07 2023-10-20 北京理工大学 一种基于点云先验地图的双模式快速重定位方法
CN115855082A (zh) * 2022-12-07 2023-03-28 北京理工大学 一种基于点云先验地图的双模式快速重定位方法
CN116449391A (zh) * 2023-04-17 2023-07-18 深圳直角设计工程有限公司 一种基于3d点云的室内全景成像方法与系统
CN116380935A (zh) * 2023-06-02 2023-07-04 中南大学 一种高铁箱梁损伤检测机器车及损伤检测方法
CN116449392A (zh) * 2023-06-14 2023-07-18 北京集度科技有限公司 一种地图构建方法、装置、计算机设备及存储介质
CN116449392B (zh) * 2023-06-14 2023-09-19 北京集度科技有限公司 一种地图构建方法、装置、计算机设备及存储介质
CN117095061A (zh) * 2023-10-20 2023-11-21 山东大学 基于点云强度显著点的机器人位姿优化方法及系统
CN117095061B (zh) * 2023-10-20 2024-02-09 山东大学 基于点云强度显著点的机器人位姿优化方法及系统

Also Published As

Publication number Publication date
CN113432600B (zh) 2022-08-16

Similar Documents

Publication Publication Date Title
CN113432600B (zh) 基于多信息源的机器人即时定位与地图构建方法及系统
CN111929699B (zh) 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统
CN111583369B (zh) 一种基于面线角点特征提取的激光slam方法
CN107301654B (zh) 一种多传感器的高精度即时定位与建图方法
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
Huang Review on LiDAR-based SLAM techniques
CN113168717A (zh) 一种点云匹配方法及装置、导航方法及设备、定位方法、激光雷达
CN114526745B (zh) 一种紧耦合激光雷达和惯性里程计的建图方法及系统
CN111612728B (zh) 一种基于双目rgb图像的3d点云稠密化方法和装置
CN111986219B (zh) 一种三维点云与自由曲面模型的匹配方法
CN107818598B (zh) 一种基于视觉矫正的三维点云地图融合方法
CN112767490A (zh) 一种基于激光雷达的室外三维同步定位与建图方法
CN114964212B (zh) 面向未知空间探索的多机协同融合定位与建图方法
CN112215958B (zh) 一种基于分布式计算的激光雷达点云数据投影方法
CN114648584B (zh) 一种用于多源融合定位的鲁棒性控制方法和系统
CN116878501A (zh) 一种基于多传感器融合的高精度定位与建图系统及方法
Cai et al. A lightweight feature map creation method for intelligent vehicle localization in urban road environments
Zhang et al. Accurate real-time SLAM based on two-step registration and multimodal loop detection
Dos Santos et al. Building boundary extraction from LiDAR data using a local estimated parameter for alpha shape algorithm
CN112612034A (zh) 基于激光帧和概率地图扫描的位姿匹配方法
CN116758153A (zh) 用于机器人精准位姿获取的基于多因子图的后端优化方法
CN112146647B (zh) 一种地面纹理的双目视觉定位方法及芯片
Li et al. An SLAM Algorithm Based on Laser Radar and Vision Fusion with Loop Detection Optimization
CN115131514A (zh) 一种同时定位建图的方法、装置、系统及存储介质
Zhang et al. A LiDAR-intensity SLAM and loop closure detection method using an intensity cylindrical-projection shape context descriptor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant