CN111951341A - 一种基于rgb-d slam的闭环检测改进方法 - Google Patents

一种基于rgb-d slam的闭环检测改进方法 Download PDF

Info

Publication number
CN111951341A
CN111951341A CN202010875932.6A CN202010875932A CN111951341A CN 111951341 A CN111951341 A CN 111951341A CN 202010875932 A CN202010875932 A CN 202010875932A CN 111951341 A CN111951341 A CN 111951341A
Authority
CN
China
Prior art keywords
frame
matching
loop detection
closed loop
new frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010875932.6A
Other languages
English (en)
Inventor
罗笑南
邓春贵
钟艳如
李芳�
汪华登
李一媛
刘忆宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202010875932.6A priority Critical patent/CN111951341A/zh
Publication of CN111951341A publication Critical patent/CN111951341A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

本发明公开了一种基于RGB‑D SLAM的闭环检测改进方法,包括如下步骤:1)接收系统前端的关键帧序列Fs和新帧Fk+1,计算新帧Fk+1的运动估计,获得旋转矩阵R和平移向量t;2)计算新帧Fk+1的运动轨迹曲率c;3)选取阈值m的数值;4)比较c与m;5)检测完毕。这种方法能构建全局一致的轨迹和地图,能构建更准确地闭环,提高系统的可靠性。

Description

一种基于RGB-D SLAM的闭环检测改进方法
技术领域
本发明涉及RGB-D SLAM室内定位与地图构建系统相机位姿优化和闭环检测技术领域,具体是一种基于深度图像映射的(RGB+Depth Map simultaneous localization andmapping,简称RGB-D SLAM)的闭环检测改进方法。
背景技术
同时定位和地图构建(SLAM)是机器人实现自主移动的基本条件之一,近年来,随着非线性优化与图优化的研究的深入,SLAM技术的鲁棒性和实时性日渐提高,实际应用越来越广泛。在SLAM技术下,机器人能够在室内未知环境中,实时构建出室内地图,并且实现自主导航定位。该技术将为现实生活中的许多未知环境下的作业难题提供解决方案。
传统的SLAM主要基于扩展卡尔曼滤波器、Rao-CBlackwellized粒子滤波器和最大似然估计。随着传感器技术和优化算法的发展,Visual-SLAM成为主流。其通常使用深度相机,激光雷达,IMU作为前端传感器接收环境和机器人运动信息。在RGB-D SLAM中,深度相机获得的图像信息和深度信息可以有效地解决尺度不确定问题,前端使用ICP或PNP算法解算机器人位姿,后端使用非线性优化算法以及g2o优化框架对机器人位姿和运动情况进行优化,最后构建全局3D地图。但传统的RGB-D SLAM存在系统实时性较差,环路闭合不准等问题。
前端视觉里程计随着时间和帧数的增加,累计误差会越来越大。这将使得整个SLAM的结果不可靠,无法构建全局一致的轨迹和地图。回环检测提供了当前数据和所有历史数据的关联,在跟踪算法丢失后,能够利用回环检测进行重定位,它保证了估计的轨迹和地图在长时间下的正确性。为了提高闭环的准确性。将循环闭包检测算法与机器人运动轨迹曲率结合,该算法根据轨迹曲率值在全局环路检测和局部环路检测之间切换,在保证系统效率的同时,构建更准确的闭环。
发明内容
本发明的目的是针对现有技术的不足,而提供一种基于RGB-D SLAM的闭环检测改进方法。这种方法能构建全局一致的轨迹和地图,能构建更准确地闭环,提高系统的可靠性。
实现本发明目的的技术方案是:
一种基于RGB-D SLAM的闭环检测改进方法,包括如下步骤:
1)接收系统前端的关键帧序列Fs和新帧Fk+1,计算新帧Fk+1的运动估计,获得旋转矩阵R和平移向量t:
在RGB-D SLAM系统闭环检测过程中,对相机位姿估计进行优化,依据图优化理论,通过3D-3D模型,在特征点匹配时使用最小二乘优化重投影误差,过程如下:对关键帧Fk和新帧Fk+1,其中关键帧Fk为关键帧序列Fs中最后一帧关键帧,提取它们的特征点并匹配它们的描述符,得到两个特征点集Sk={s1 k,s2 k,...,sn k}和Sk+1={s1 k+1,s2 k+1,...,sn k+1},结合给定图像深度的深度信息,得到3D特征点集P={p1,p2,...,pn}和Q={q1,q2,...,qn},相机内部参数为C,利用下述公式(1)可求得旋转矩阵R和平移向量t为:
Figure BDA0002649720990000021
由于存在误差,构建最小二乘来求解R和t,为公式(2):
Figure BDA0002649720990000022
其中n表示特征点索引,最后采用ICP算法求解得旋转矩阵R和平移向量t的最优解;
2)计算新帧Fk+1的运动轨迹曲率c:轨迹曲率使用公式(3)计算:
Figure BDA0002649720990000023
3)选取阈值m的数值:为机器人轨迹曲率设定阈值m的范围,根据实测需要从设定阈值m的范围中选取阈值m的数值;
4)比较c与m:比较c与选取的阈值m的大小:
4-1)若c<m,说明机器人在局部闭环的概率大,则进行局部闭环检测:将新帧Fk+1与关键帧序列Fs最后的u帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
4-2)若m<c<1,说明机器人在全局闭环的概率大,则进行全局闭环检测:将新帧Fk+1与关键帧序列Fs中的随机v帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
4-3)若c=1,则先进行局部闭环检测,再进行全局闭环检测:将新帧Fk+1与关键帧序列Fs中的随机v帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
5)检测完毕:将符合步骤4)中任一条件下匹配成功的新帧Fk+1添加到关键帧序列Fs的末尾;对于后续的新帧,重复步骤1)到步骤4)的过程,直至闭环检测完毕即可。
与现有技术相比,本技术方案构造机器人运动轨迹曲率,减少前端视觉里程计累积误差的影响,在局部闭环检测和全局闭环检测策略中切换,提高系统检测闭环的效率和可靠性,构建更准确的系统闭环和全局一致的轨迹和地图。
这种方法能提高系统检测闭环的效率和可靠性,能构建全局一致的轨迹和地图。
附图说明
图1为实施例的流程示意图;
图2为实施例的结构示意图;
图3为实施例的效果图。
具体实施方式
下面结合附图和实施例对本发明内容作进一步的说明,但不是对本发明的限定。
实施例:
参照图1,一种基于RGB-D SLAM的闭环检测改进方法,包括如下步骤:
1)接收系统前端的关键帧序列Fs和新帧Fk+1,计算新帧Fk+1的运动估计,获得旋转矩阵R和平移向量t:
在RGB-D SLAM系统闭环检测过程中,对相机位姿估计进行优化,依据图优化理论,通过3D-3D模型,在特征点匹配时使用最小二乘优化重投影误差,过程如下:对关键帧Fk和新帧Fk+1,其中关键帧Fk为关键帧序列Fs中最后一帧关键帧,提取它们的特征点并匹配它们的描述符,得到两个特征点集Sk={s1 k,s2 k,...,sn k}和Sk+1={s1 k+1,s2 k+1,...,sn k+1},结合给定图像深度的深度信息,得到3D特征点集P={p1,p2,...,pn}和Q={q1,q2,...,qn},相机内部参数为C,利用下述公式(1)可求得旋转矩阵R和平移向量t为:
Figure BDA0002649720990000031
由于存在误差,构建最小二乘来求解R和t,为公式(2):
Figure BDA0002649720990000032
其中n表示特征点索引,最后采用ICP算法求解得旋转矩阵R和平移向量t的最优解;
2)计算新帧Fk+1的运动轨迹曲率c:轨迹曲率使用公式(3)计算:
Figure BDA0002649720990000033
3)选取阈值m的数值:为机器人轨迹曲率设定阈值m的范围,根据实测需要从设定阈值m的范围中选取阈值m的数值;
4)比较c与m:比较c与选取的阈值m的大小:
4-1)若c<m,说明机器人在局部闭环的概率大,则进行局部闭环检测:将新帧Fk+1与关键帧序列Fs最后的u帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
4-2)若m<c<1,说明机器人在全局闭环的概率大,则进行全局闭环检测:将新帧Fk+1与关键帧序列Fs中的随机v帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
4-3)若c=1,则先进行局部闭环检测,再进行全局闭环检测:将新帧Fk+1与关键帧序列Fs中的随机v帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
5)检测完毕:将符合步骤4)中任一条件下匹配成功的新帧Fk+1添加到关键帧序列Fs的末尾;对于后续的新帧,重复步骤1)到步骤4)的过程,直至闭环检测完毕即可。
如图2所示,本例通过构造机器人运动轨迹曲率,减少前端视觉里程计累积误差的影响,在局部闭环检测和全局闭环检测策略中切换,提高系统检测闭环的效率和可靠性,构建更准确的系统闭环和全局一致的轨迹和地图。
使用本例方法在Ubuntu 16.4中具有4GB内存的双核CPU上进行实验,使用nynv2和TUM RGB-D的室内数据集验证系统方法。图3显示了改进闭环检测方法的效果,其中图3的a图是由56帧关键帧构成的3D点云图,图3的b图是由改进闭环检测方法得到的位姿图,从图3可以看出本例方法对闭环检测具有良好的鲁棒性。

Claims (1)

1.一种基于RGB-D SLAM的闭环检测改进方法,其特征在于,包括如下步骤:
1)接收系统前端的关键帧序列Fs和新帧Fk+1,计算新帧Fk+1的运动估计,获得旋转矩阵R和平移向量t:
在RGB-D SLAM系统闭环检测过程中,对相机位姿估计进行优化,依据图优化理论,通过3D-3D模型,在特征点匹配时使用最小二乘优化重投影误差,过程如下:对关键帧Fk和新帧Fk+1,其中关键帧Fk为关键帧序列Fs中最后一帧关键帧,提取它们的特征点并匹配它们的描述符,得到两个特征点集Sk={s1 k,s2 k,...,sn k}和Sk+1={s1 k+1,s2 k+1,...,sn k+1},结合给定图像深度的深度信息,得到3D特征点集P={p1,p2,...,pn}和Q={q1,q2,...,qn},相机内部参数为C,利用下述公式(1)可求得旋转矩阵R和平移向量t为:
Figure FDA0002649720980000011
由于存在误差,构建最小二乘来求解R和t,为公式(2):
Figure FDA0002649720980000012
其中n表示特征点索引,最后采用ICP算法求解得旋转矩阵R和平移向量t的最优解;
2)计算新帧Fk+1的运动轨迹曲率c:轨迹曲率使用公式(3)计算:
Figure FDA0002649720980000013
3)选取阈值m的数值:为机器人轨迹曲率设定阈值m的范围,根据实测需要从设定阈值m的范围中选取阈值m的数值;
4)比较c与m:比较c与选取的阈值m的大小:
4-1)若c<m,说明机器人在局部闭环的概率大,则进行局部闭环检测:将新帧Fk+1与关键帧序列Fs最后的u帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
4-2)若m<c<1,说明机器人在全局闭环的概率大,则进行全局闭环检测:将新帧Fk+1与关键帧序列Fs中的随机v帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
4-3)若c=1,则先进行局部闭环检测,再进行全局闭环检测:将新帧Fk+1与关键帧序列Fs中的随机v帧进行特征匹配,如果匹配成功,在优化求解器中添加一条边,如果匹配不成功,舍弃该帧;
5)检测完毕:将符合步骤4)中任一条件下匹配成功的新帧Fk+1添加到关键帧序列Fs的末尾;对于后续的新帧,重复步骤1)到步骤4)的过程,直至闭环检测完毕即可。
CN202010875932.6A 2020-08-25 2020-08-25 一种基于rgb-d slam的闭环检测改进方法 Withdrawn CN111951341A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010875932.6A CN111951341A (zh) 2020-08-25 2020-08-25 一种基于rgb-d slam的闭环检测改进方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010875932.6A CN111951341A (zh) 2020-08-25 2020-08-25 一种基于rgb-d slam的闭环检测改进方法

Publications (1)

Publication Number Publication Date
CN111951341A true CN111951341A (zh) 2020-11-17

Family

ID=73366788

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010875932.6A Withdrawn CN111951341A (zh) 2020-08-25 2020-08-25 一种基于rgb-d slam的闭环检测改进方法

Country Status (1)

Country Link
CN (1) CN111951341A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112781594A (zh) * 2021-01-11 2021-05-11 桂林电子科技大学 基于imu耦合的激光雷达迭代最近点改进算法
CN112990040A (zh) * 2021-03-25 2021-06-18 北京理工大学 一种结合全局和局部特征的鲁棒回环检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105856230A (zh) * 2016-05-06 2016-08-17 简燕梅 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105856230A (zh) * 2016-05-06 2016-08-17 简燕梅 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHUNGUI DENG,ET AL.: "Improved closed-loop detection and Octomap algorithm based on RGB-D SLAM", 《2020 IEEE INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE AND COMPUTER APPLICATIONS (ICAICA)》, pages 73 - 76 *
WENCHI SUN,ET AL.: "An improved RGB-D SLAM algorithm", 《 2017 IEEE 2ND ADVANCED INFORMATION TECHNOLOGY,ELECTRONIC AND AUTOMATION CONTROL CONFERENCE (IAEAC 2017)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112781594A (zh) * 2021-01-11 2021-05-11 桂林电子科技大学 基于imu耦合的激光雷达迭代最近点改进算法
CN112990040A (zh) * 2021-03-25 2021-06-18 北京理工大学 一种结合全局和局部特征的鲁棒回环检测方法
CN112990040B (zh) * 2021-03-25 2022-09-06 北京理工大学 一种结合全局和局部特征的鲁棒回环检测方法

Similar Documents

Publication Publication Date Title
CN107687850B (zh) 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN109798896B (zh) 一种室内机器人定位与建图方法及装置
CN112230243B (zh) 一种移动机器人室内地图构建方法
CN110849374A (zh) 地下环境定位方法、装置、设备及存储介质
CN103471589A (zh) 一种室内行人行走模式识别和轨迹追踪的方法
CN110763239B (zh) 滤波组合激光slam建图方法及装置
CN114001733B (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN110487286B (zh) 基于点特征投影与激光点云融合的机器人位姿判断方法
CN115880364B (zh) 基于激光点云和视觉slam的机器人位姿估计方法
CN110986956A (zh) 一种基于改进的蒙特卡洛算法的自主学习全局定位方法
US11067694B2 (en) Locating method and device, storage medium, and electronic device
CN110838145B (zh) 一种室内动态场景的视觉定位与建图方法
CN111951341A (zh) 一种基于rgb-d slam的闭环检测改进方法
CN111121807A (zh) 一种移动机器人路径规划方法
CN114323033B (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
Lin et al. Mobile robot self-localizationusing visual odometry based on ceiling vision
CN111275748B (zh) 动态环境下基于激光雷达的点云配准方法
CN116592897A (zh) 基于位姿不确定性的改进orb-slam2定位方法
CN114710744B (zh) 一种深度融合WiFi测距与PDR推算的室内定位方法
CN113947636B (zh) 一种基于深度学习的激光slam定位系统及方法
CN113554705B (zh) 一种变化场景下的激光雷达鲁棒定位方法
Chang et al. Robust accurate LiDAR-GNSS/IMU self-calibration based on iterative refinement
CN113916232B (zh) 一种改进图优化的地图构建方法及系统
Zhang et al. Combined GNSS/SLAM-Based High Accuracy Indoor Dynamic Target Localization Method
Wang et al. A consistent map building method based on surf loop closure detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20201117