CN116592897B - 基于位姿不确定性的改进orb-slam2定位方法 - Google Patents

基于位姿不确定性的改进orb-slam2定位方法 Download PDF

Info

Publication number
CN116592897B
CN116592897B CN202310873189.4A CN202310873189A CN116592897B CN 116592897 B CN116592897 B CN 116592897B CN 202310873189 A CN202310873189 A CN 202310873189A CN 116592897 B CN116592897 B CN 116592897B
Authority
CN
China
Prior art keywords
current frame
map
representing
pose
uncertainty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310873189.4A
Other languages
English (en)
Other versions
CN116592897A (zh
Inventor
黄浩乾
武鹏
马惊天
王迪
王冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202310873189.4A priority Critical patent/CN116592897B/zh
Publication of CN116592897A publication Critical patent/CN116592897A/zh
Application granted granted Critical
Publication of CN116592897B publication Critical patent/CN116592897B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于位姿不确定性的改进ORB‑SLAM2定位方法,属于机器人导航定位技术领域。本发明首先将局部地图点投影到当前帧,并构造重投影误差函数;再通过最小化代价函数对当前帧的位姿进行优化,并计算当前帧的不确定性半径;然后重新计算待融合地图点的权重并对地图点进行加权融合;再对ORB‑SLAM2的闭环检测线程进行约束,对满足位姿约束的关键帧进行闭环检测;若当前帧满足位姿约束,则对当前帧进行图片相似度检测,若检测到闭环则执行全局优化,优化整个地图。本发明在不影响ORB‑SLAM2的实时运行的情况下,提高了定位精度,并且通过对闭环区域进行筛选大幅度增加了闭环效率。

Description

基于位姿不确定性的改进ORB-SLAM2定位方法
技术领域
本发明属于机器人导航定位技术领域,具体涉及基于位姿不确定性的改进ORB-SLAM2定位方法。
背景技术
想要机器人在未知环境中独立和安全地完成任务,就必须准确地知道其在环境中的位置。这就是SLAM(Simultaneous Localization And Mapping)要解决的问题。SLAM可以在未知环境建立环境地图,同时实现机器人的在环境中定位。激光SLAM技术目前已经十分成熟,但由于激光雷达的昂贵的价格,还无法在日常生活中普及。视觉SLAM由于其优越的感知和重新定位能力,以及较低的成本和易于安装的特点而越来越受欢迎。在过去的几年里,许多性能良好的视觉SLAM算法已经被提出。视觉SLAM框架通常由传感器数据、前端、后端、回路检测和建图等线程组成。在长期和大规模的导航场景中,累积误差是不可避免的,仅仅依靠视觉里程计来估计机器人的位置会出现严重的误差。闭环检测通过建立当前帧与之前某一帧间的位姿约束消除视觉里程计所产生的累积误差,进而实现地图优化。闭环检测在地图优化中起着关键作用,没有闭环检测的SLAM就等同于一个视觉里程计。因此,想要在长期和大规模的导航场景下实现精准定位,闭环检测是不可或缺的。
但目前的SLAM算法都专注于基于外观的闭环检测,而忽略了视觉里程计信息在闭环检测中的作用。在这些方法中,每输入一个图像帧闭环检测线程就需要检索整个闭环数据库进行图片相似度对比,这样做会浪费大量的计算资源。以ORB-SLAM2为例,每创建一个新的关键帧,就需要检索整个DBoW2的词汇字典进行图片相似度对比,虽然它限定了只对当前帧的非共视帧进行对比,但剩余的关键帧检索范围依然很大,尤其是随着地图规模的增长,检索的代价将越来越大。目前的研究很少有将视觉里程计和外观信息相结合在一起。
发明内容
为了解决单纯依靠外观信息,闭环检测计算量过大的问题,本发明的目的在于提供一种基于位姿不确定性的改进ORB-SLAM2定位方法,通过计算当前帧的不确定性半径,结合视觉里程计信息对ORB-SLAM2的闭环检测线程进行约束,有选择的进行闭环检测。同时考虑到不同关键帧对观测到的地图点的贡献不同,基于不确定性半径对ORB-SLAM2的地图点融合策略进行改进,利用重新计算的地图点权重,改进后的地图点融合策略提高了ORB-SLAM2的定位精度。
为达到上述目的,本发明的技术方案如下:
基于位姿不确定性的改进ORB-SLAM2定位方法,该方法包括如下步骤:
该方法包括如下步骤:
步骤1、根据当前帧的共视关系创建局部地图,将局部地图点投影到当前帧,并构造重投影误差函数;
步骤2、利用步骤1得到的重投影误差函数构建代价函数,通过最小化代价函数对当前帧的位姿进行优化,利用优化结果评估当前帧和前一帧的跟踪质量,并计算当前帧的不确定性半径;
步骤3、利用步骤2所得的不确定性半径,重新计算待融合地图点的权重并对地图点进行加权融合;
步骤4、利用里程计信息和步骤2所得的不确定性半径构建位姿约束,对ORB-SLAM2的闭环检测线程进行约束,对满足位姿约束的关键帧进行闭环检测;
步骤5、若当前帧满足位姿约束,则对当前帧进行图片相似度检测,若检测到闭环则执行全局优化,优化整个地图,完成优化后,重新计算地图内所有关键帧的不确定性半径。
进一步地,步骤1包括以下子步骤:
子步骤1.1、 利用当前帧在地图内的共视关系,创建局部地图;
子步骤1.2、 将局部地图的所有地图点投影到当前帧上,并建立重投影误差函数:
其中,e i 表示地图点到当前帧的重投影误差,T cw 表示当前帧的在世界坐标系下的位姿,表示地图点在世界坐标系下的三维坐标,/>表示三维实数向量,是/>在当前帧下对应的二维特征点的像素坐标,/>表示二维实数向量,/>是投影函数:
其中,和t cw 分别表示/>的旋转矩阵和平移向量部分,/>和/>分别表示相机的焦距和主点,x i y i z i 分别表示地图点/>在当前帧相机坐标系下的三维坐标,上标T表示矩阵的转置。
进一步地,步骤2具体包括以下子步骤:
子步骤2.1、 固定地图点,求解代价函数:
其中C表示代价函数的值,N表示局部地图的内点数量,表示Huber鲁棒核函数,/>是信息矩阵,和特征点被检测到时的尺度有关;
子步骤2.2、多次优化后取最后一次的优化结果,计算平均误差:
其中c表示当前帧优化后的平均误差;
子步骤2.3、计算当前帧的不确定性半径:
其中和/>分别表示当前帧和上一关键帧的不确定性半径,/>表示当前帧和上一关键帧在世界坐标系下三维坐标,/>是可靠系数,表示当前帧跟踪到的地图点数量。
进一步地,步骤3包括以下子步骤:
子步骤3.1、根据不确定性半径,重新计算地图点权重:
其中,表示待计算的地图点权重,/>表示跟踪到该待计算的地图点的关键帧数量,/>表示第i个关键帧的不确定性半径;
子步骤3.2、根据地图点权重,对地图点进行加权融合,融合后的地图点位置为:
其中,p ab 表示地图点融合后在世界坐标系下的三维坐标,p a 和p b 分别表示待融合地图点ab融合前在世界坐标系下的三维坐标,ω a ω b 分别表示待融合地图点ab的权重;
子步骤3.3、完成融合后更新融合后地图点的权重和观测信息。
进一步地,步骤4包括以下子步骤:
子步骤4.1、计算当前帧与地图任意关键帧间的相对位姿:
其中,T ci 表示当前帧与地图内第i个关键帧间的相对位姿,T cw 和T iw 分别表示当前帧和地图中第i个关键帧在世界坐标系下的位姿,R iw 和t iw 分别表示T iw 的旋转和平移部分,R cw 和t cw 分别表示T cw 的旋转和平移部分,t ci 和R ci 分别表示T ci 的旋转和平移部分;
子步骤4.2、检测该关键帧是否满足位置约束:
其中,表示欧氏距离,r c r i 分别表示当前帧和地图内第i个关键帧的不确定性半径;若该关键帧满足位置约束,则进一步检测姿态约束;若不满足,继续检测下一关键帧,直到遍历完整个地图;
子步骤4.3、检测该关键帧是否满足姿态约束:
其中,表示矩阵的迹;如果该关键帧也能满足的姿态约束,就认为这是一个闭环区域,对当前帧进行进一步的图片相似度检测。
进一步地,步骤(5)包括以下内容:
利用DBoW2模型,计算当前帧和其共视关键帧间的图片相似度,如果当前帧可以通过图片相似度检测,则认为检测到了一次闭环,将对整个地图进行一次全局优化,优化完成后重新计算地图内所有关键帧的不确定性半径
其中,表示当前帧到对应的闭环帧间的关键帧数量。
与现有技术相比,本发明具有如下优点:
本发明公开的一种基于位姿不确定性的改进ORB-SLAM2定位方法,通过建立局部地图对当前帧的位姿进行优化,利用多次优化后的投影误差估计当前帧的位姿不确定性;根据位姿不确定性重新计算地图点的权重,并对地图点进行加权融合;结合视觉里程计信息,构建位姿约束,只对满足约束的关键帧进行闭环检测;本发明在不影响ORB-SLAM2的实时运行的情况下,提高了定位精度,并且通过对闭环区域进行筛选大幅度增加了闭环效率。
附图说明
图1为本发明的基于位姿不确定性的改进ORB-SLAM2定位方法流程图;
图2为本发明的基于位姿不确定性的改进ORB-SLAM2定位方法框图。
具体实施方式
使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施方式,对本发明经行进一步的详细说明。显然,此处所描述的具体实施方式仅仅用于解释本发明,是本发明的一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域技术普通人员在没有做出创造性劳动的前提下所获得的所有其他实施方式,都属于本发明保护的范围。
图1所示是本发明提供的一种位姿不确定性的改进ORB-SLAM2的方法流程图。本专利所提出的所有方法都在ORB-SLAM2的跟踪,局部建图和闭环三大线程下运行,具体的系统框图如图2所示。方法具体流程包括:
步骤1,根据当前帧的共视关系创建局部地图,将局部地图点投影到当前帧,并构造重投影误差函数:
其中,e i 表示地图点到当前帧的重投影误差,T cw 表示当前帧的在世界坐标系下的位姿,表示地图点在世界坐标系下的三维坐标,/>表示三维实数向量,是/>在当前帧下对应的二维特征点的像素坐标,/>表示二维实数向量,/>是投影函数。
为了表示关键帧间的相互联系,利用了共视图(Covisibility Graph)的概念,每个节点代表一个关键帧,如果两个关键帧间共同观测(至少15个地图点)则两个关键帧代表的节点间存在一条边。当前帧在被创建时,与当前帧帧共视关系最强的关键帧,被设为当前帧的父关键帧。
所建立的局部地图包括:
(a)当前帧的所有共视关键帧;
(b)步骤(a)中关键帧的所有父子关键帧;
(c)步骤(a)中所有关键帧的共视关系前十(观测到共同地图点数量最多)的关键帧;
(d)上述所有关键帧观测到的地图点;
步骤2,利用优化结果评估两帧间的跟踪质量,并计算当前帧的不确定性半径;
步骤(2.1)利用g2o下的列文伯格-马尔夸特算法求解代价函数:
其中C表示代价函数的值,N表示局部地图的内点数量,表示Huber鲁棒核函数,/>是信息矩阵,和特征点被检测到时的尺度有关。
步骤(2.2)多次优化后取最后一次的优化结果,计算平均误差:
其中c表示当前帧优化后的平均误差。
步骤(2.3)计算当前帧的不确定性半径:
其中和/>分别表示当前帧和上一关键帧的不确定性半径,/>表示当前帧和上一关键帧在世界坐标系下三维坐标,/>是可靠系数,表示当前帧跟踪到的地图点数量。
步骤3,改进ORB-SLAM2地图点融合策略,利用步骤2所得的不确定性半径,重新计算待融合地图点权重并对地图点进行加权融合。具体地,地图点加权融合步骤如下:
步骤(3.1),根据不确定性半径,重新计算地图点权重:
其中,表示待计算的地图点权重,/>表示跟踪到该待计算的地图点的关键帧数量,/>表示第i个关键帧的不确定性半径。
步骤(3.2),根据地图点权重,对地图点进行加权融合,融合后的地图点位置为:
其中,p ab 表示地图点融合后在世界坐标系下的三维坐标,p a 和p b 分别表示待融合地图点ab融合前在世界坐标系下的三维坐标,ω a ω b 分别表示待融合地图点ab的权重。
步骤4,利用步骤2所得的位姿不确定性半径和里程计信息构建位姿约束,对ORB-SLAM2的闭环检测线程进行约束,对满足位姿约束的关键帧进行闭环检测;
位姿约束包括位置约束和姿态约束两个部分,如果当前帧和之前任意关键间的欧氏距离小于它们的不确定性半径之和则满足位置约束;如果当前帧和之前任意关键间相对旋转角度小于根据不确定性半径计算的旋转角度阈值则满足姿态约束。若当前地图存在关键帧与当前帧之间满足位姿约束,则进入图片相似度检测;若不存在将当前帧加入BoW字典数据库,继续对下一帧执行闭环检测,位姿约束的计算方法如下:
步骤(4.1),计算当前帧与地图任意关键帧间的相对位姿:
其中,T ci 表示当前帧与地图内第i个关键帧间的相对位姿,T cw 和T iw 分别表示当前帧和地图中第i个关键帧在世界坐标系下的位姿,R iw 和t iw 分别表示T iw 的旋转和平移部分,R cw 和t cw 分别表示T cw 的旋转和平移部分,t ci 和R ci 分别表示T ci 的旋转和平移部分。
步骤(4.2),检测该关键帧是否满足位置约束:
其中,表示欧氏距离,r c r i 分别表示当前帧和地图内第i个关键帧的不确定性半径;若该关键帧满足位置约束,则进一步检测姿态约束;若不满足,继续检测下一关键帧,直到遍历完整个地图。
步骤(4.3),检测该关键帧是否满足姿态约束:
其中,表示矩阵的迹;如果该关键帧也能满足的姿态约束,就认为这是一个闭环区域,对当前帧进行进一步的图片相似度检测。
步骤5,进行图片相似度检测。若检测到闭环则执行全局优化,优化整个地图;完成优化后对重新评估地图内所有关键帧的不确定性半径。
具体的,步骤5包括以下内容:
步骤(5.1),利用DBoW2模型,计算当前帧和其共视关键帧间的图片相似度:
其中,和/>分别表示当前帧和其共视关键帧的词袋向量;计算结束后,将最低得分记为S min
步骤(5.2),检索所有与当前帧存在相同视觉单词,但不相邻的关键帧,将所有相似度大于阈值S min的关键帧列为候选闭环帧。
步骤(5.3),将每个候选闭环帧和他的共视关键帧设为一个候选关键帧组;继续对下一关键帧进行图片相似度检测。
步骤(5.4),若当前帧和上一关键帧的候选关键帧组间存在相同关键帧,则当前帧关键帧组的连续性加一。
步骤(5.5),如果当前帧存在候选关键帧组的连续性大于3,就将创建该组的候选关键帧设为闭环帧。
步骤(5.5),如果当前帧可以通过图片相似度检测,则认为检测到了一次闭环,将对整个地图进行一次全局优化;优化完成后重新计算地图内关键帧的不确定性半径
其中,表示当前帧到对应的闭环帧间的关键帧数量。图2为本专利所用算法的系统框图。
为了进一步验证本发明的方法,本发明采用室外汽车数据KITTI进行了定位精度的实验,该数据集由一辆行驶在居民区的汽车所载相机采集,为了更清楚的表示本发明的方法在定位精度方面做出的改进,我们计算了每段轨迹的绝对轨迹误差,量化对比结果如下表1所示。
表1 KITTI室外数据集下ORB-SLAM2和本专利方法轨迹误差量化对比图
从表1可以看到,在这些序列中,本发明的方法提升了20-30%的定位精度。
接下来,对本发明的方法的闭环效率进行了验证,实验在室外数据集KITTI和室内数据集TUM下进行,TUM数据集是一个针对室内办公场景采集,由手持相机采集的数据集,本发明对KITTI和TUM数据集所有包含闭环的序列都进行了实验,并统计了过程中闭环检测所耗的总时间,实验结果如表2所示。
表2TUM和KITTI数据集下所有含有闭环区域的序列闭环检测时间对比
从表2可以看到本发明的方法节约了40%左右的闭环检测时间。随着地图规模的增加,遍历闭环数据库的时间会越来越长,位姿约束的加入对闭环检测有着重要意义。
本发明的方法已经在无人机上进行了实地实验,无人机搭载gopro运动相机和云台,实验结果证明本发明的方法可以在保证实时运行的情况下,有效提高ORB-SLAM2的定位精度和闭环效率。
本发明未尽事宜为公知技术。
上述实施方式只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。

Claims (5)

1.一种基于位姿不确定性的改进ORB-SLAM2定位方法,其特征在于:该方法包括如下步骤:
步骤1、根据当前帧的共视关系创建局部地图,将局部地图点投影到当前帧,并构造重投影误差函数;
步骤2、利用步骤1得到的重投影误差函数构建代价函数,通过最小化代价函数对当前帧的位姿进行优化,利用优化结果评估当前帧和前一帧的跟踪质量,并计算当前帧的不确定性半径;
步骤3、利用步骤2所得的不确定性半径,重新计算待融合地图点的权重并对地图点进行加权融合;
步骤4、利用里程计信息和步骤2所得的不确定性半径构建位姿约束,对ORB-SLAM2的闭环检测线程进行约束,对满足位姿约束的关键帧进行闭环检测;
步骤4包括以下子步骤:
子步骤4.1、计算当前帧与地图任意关键帧间的相对位姿:
其中,Tci表示当前帧与地图内第i个关键帧间的相对位姿,Tcw和Tiw分别表示当前帧和地图中第i个关键帧在世界坐标系下的位姿,Riw和tiw分别表示Tiw的旋转和平移部分,Rcw和tcw分别表示Tcw的旋转和平移部分,tci和Rci分别表示Tci的旋转和平移部分;
子步骤4.2、检测该关键帧是否满足位置约束:
rc+ri>||tci||
其中,||·||表示欧氏距离,rc和ri分别表示当前帧和地图内第i个关键帧的不确定性半径;若该关键帧满足位置约束,则进一步检测姿态约束,若不满足,继续检测下一关键帧,直到遍历完整个地图;
子步骤4.3、检测该关键帧是否满足姿态约束:
其中,tr(·)表示矩阵的迹;如果该关键帧也能满足的姿态约束,就认为这是一个闭环区域,对当前帧进行进一步的图片相似度检测;
步骤5、若当前帧满足位姿约束,则对当前帧进行图片相似度检测,若检测到闭环则执行全局优化,优化整个地图,完成优化后,重新计算地图内所有关键帧的不确定性半径。
2.根据权利要求1所述的基于位姿不确定性的改进ORB-SLAM2定位方法,其特征在于:步骤1包括以下子步骤:
子步骤1.1、利用当前帧在地图内的共视关系,创建局部地图;
子步骤1.2、将局部地图的所有地图点投影到当前帧上,并建立重投影误差函数:
其中,ei表示地图点到当前帧的重投影误差,Tcw表示当前帧的在世界坐标系下的位姿,表示地图点在世界坐标系下的三维坐标,/>表示三维实数向量,/>是/>在当前帧下对应的二维特征点的像素坐标,/>表示二维实数向量,h(·)是投影函数:
其中,Rcw和tcw分别表示Tcw的旋转矩阵和平移向量部分,(fx,fy)和(cx,cy)分别表示相机的焦距和主点,xi、yi、zi分别表示地图点在当前帧相机坐标系下的三维坐标,上标T表示矩阵的转置。
3.根据权利要求1所述的基于位姿不确定性的改进ORB-SLAM2定位方法,其特征在于:步骤2具体包括以下子步骤:
子步骤2.1、固定地图点,求解代价函数:
其中C表示代价函数的值,N表示局部地图的内点数量,ρh(·)表示Huber鲁棒核函数,Λi是信息矩阵,和特征点被检测到时的尺度有关;
子步骤2.2、多次优化后取最后一次的优化结果,计算平均误差:
其中c'表示当前帧优化后的平均误差;
子步骤2.3、计算当前帧的不确定性半径:
其中rc和rl分别表示当前帧和上一关键帧的不确定性半径,和/>表示当前帧和上一关键帧在世界坐标系下三维坐标,α是可靠系数,ntrack表示当前帧跟踪到的地图点数量。
4.按照权利要求1所述的基于位姿不确定性的改进ORB-SLAM2定位方法,其特征在于:步骤3包括以下子步骤:
子步骤3.1、根据不确定性半径,重新计算地图点权重:
其中,w表示地图点权重,nob表示跟踪到该地点的关键帧数量,ri表示第i个关键帧的不确定性半径;
子步骤3.2、根据地图点权重,对地图点进行加权融合,融合后的地图点位置为:
其中,pab表示地图点融合后在世界坐标系下的三维坐标,pa和pb分别表示待融合地图点a和b融合前在世界坐标系下的三维坐标,ωa和ωb分别表示待融合地图点a和b的权重;
子步骤3.3、完成融合后更新融合后地图点的权重和观测信息。
5.根据权利要求1所述的基于位姿不确定性的改进ORB-SLAM2定位方法,其特征在于,步骤(5)包括以下内容:
利用DBoW2模型,计算当前帧和其共视关键帧间的图片相似度,如果当前帧可以通过图片相似度检测,则认为检测到了一次闭环,将对整个地图进行一次全局优化,优化完成后重新计算地图内所有关键帧的不确定性半径rre
其中,nloop表示当前帧到对应的闭环帧间的关键帧数量。
CN202310873189.4A 2023-07-17 2023-07-17 基于位姿不确定性的改进orb-slam2定位方法 Active CN116592897B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310873189.4A CN116592897B (zh) 2023-07-17 2023-07-17 基于位姿不确定性的改进orb-slam2定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310873189.4A CN116592897B (zh) 2023-07-17 2023-07-17 基于位姿不确定性的改进orb-slam2定位方法

Publications (2)

Publication Number Publication Date
CN116592897A CN116592897A (zh) 2023-08-15
CN116592897B true CN116592897B (zh) 2023-09-22

Family

ID=87599519

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310873189.4A Active CN116592897B (zh) 2023-07-17 2023-07-17 基于位姿不确定性的改进orb-slam2定位方法

Country Status (1)

Country Link
CN (1) CN116592897B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117893693A (zh) * 2024-03-15 2024-04-16 南昌航空大学 一种密集slam三维场景重建方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN110501017A (zh) * 2019-08-12 2019-11-26 华南理工大学 一种基于orb_slam2的移动机器人导航地图生成方法
CN111709893A (zh) * 2020-06-16 2020-09-25 华南师范大学 一种基于信息熵和锐化调整的orb-slam2改进算法
CN112240768A (zh) * 2020-09-10 2021-01-19 西安电子科技大学 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法
CN112734841A (zh) * 2020-12-31 2021-04-30 华南理工大学 一种用轮式里程计-imu和单目相机实现定位的方法
CN113850293A (zh) * 2021-08-20 2021-12-28 北京大学 基于多源数据和方向先验联合优化的定位方法
CN114187447A (zh) * 2021-12-09 2022-03-15 西安电子科技大学 一种基于实例分割的语义slam方法
CN114255323A (zh) * 2021-12-22 2022-03-29 深圳市普渡科技有限公司 机器人、地图构建方法、装置和可读存储介质
CN115355904A (zh) * 2022-07-25 2022-11-18 之江实验室 一种针对地面移动机器人的Lidar-IMU融合的slam方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230013883A (ko) * 2021-07-20 2023-01-27 삼성전자주식회사 Slam 기반의 전자 장치 및 그 동작 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN110501017A (zh) * 2019-08-12 2019-11-26 华南理工大学 一种基于orb_slam2的移动机器人导航地图生成方法
CN111709893A (zh) * 2020-06-16 2020-09-25 华南师范大学 一种基于信息熵和锐化调整的orb-slam2改进算法
CN112240768A (zh) * 2020-09-10 2021-01-19 西安电子科技大学 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法
CN112734841A (zh) * 2020-12-31 2021-04-30 华南理工大学 一种用轮式里程计-imu和单目相机实现定位的方法
CN113850293A (zh) * 2021-08-20 2021-12-28 北京大学 基于多源数据和方向先验联合优化的定位方法
CN114187447A (zh) * 2021-12-09 2022-03-15 西安电子科技大学 一种基于实例分割的语义slam方法
CN114255323A (zh) * 2021-12-22 2022-03-29 深圳市普渡科技有限公司 机器人、地图构建方法、装置和可读存储介质
CN115355904A (zh) * 2022-07-25 2022-11-18 之江实验室 一种针对地面移动机器人的Lidar-IMU融合的slam方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A pose estimation method of space non-cooperative target based on ORBFPFH SLAM;Zhiqiang Yan;Optik -InternationalJournalforLightandElectronOptics286(2023)171025;全文 *
An Improved FastSLAM Using Resampling Based on Particle Fission Propagation;Haoqian Huang;IEEE;全文 *
RTM框架下基于点线特征的视觉SLAM算法;贾松敏;丁明超;张国梁;;机器人(03);全文 *
基于改进ORB的视觉SLAM闭环检测;王远配;汤小红;;中国科技论文(14);全文 *

Also Published As

Publication number Publication date
CN116592897A (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
Li et al. DXSLAM: A robust and efficient visual SLAM system with deep features
Zhou et al. To learn or not to learn: Visual localization from essential matrices
CN110335319B (zh) 一种语义驱动的相机定位与地图重建方法和系统
CN106885574B (zh) 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法
Fan et al. Deep learning on monocular object pose detection and tracking: A comprehensive overview
Fraundorfer et al. Topological mapping, localization and navigation using image collections
Liu et al. Seqlpd: Sequence matching enhanced loop-closure detection based on large-scale point cloud description for self-driving vehicles
CN110097584B (zh) 结合目标检测和语义分割的图像配准方法
Cui et al. Efficient large-scale structure from motion by fusing auxiliary imaging information
Liu et al. RGB-D inertial odometry for a resource-restricted robot in dynamic environments
CN116592897B (zh) 基于位姿不确定性的改进orb-slam2定位方法
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建系统
Li et al. Review of vision-based Simultaneous Localization and Mapping
CN113674416A (zh) 三维地图的构建方法、装置、电子设备及存储介质
CN110728751A (zh) 一种室内3d点云语义地图的构建方法
CN109242899B (zh) 一种基于在线视觉词典的实时定位与地图构建方法
Xu et al. Probabilistic visual place recognition for hierarchical localization
Xie et al. A deep feature aggregation network for accurate indoor camera localization
GB2599947A (en) Visual-inertial localisation in an existing map
GB2599948A (en) Initialising keyframes for visual-inertial localisation and/or mapping
Xie et al. Hierarchical forest based fast online loop closure for low-latency consistent visual-inertial SLAM
Vidanapathirana et al. Spectral geometric verification: Re-ranking point cloud retrieval for metric localization
Yang et al. Probabilistic projective association and semantic guided relocalization for dense reconstruction
CN116563341A (zh) 一种处理复杂环境下动态物体的视觉定位与建图方法
Zhu et al. LVIF: a lightweight tightly coupled stereo-inertial SLAM with fisheye camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant