CN110489501B - 基于线特征的slam系统快速重定位算法 - Google Patents

基于线特征的slam系统快速重定位算法 Download PDF

Info

Publication number
CN110489501B
CN110489501B CN201910672919.8A CN201910672919A CN110489501B CN 110489501 B CN110489501 B CN 110489501B CN 201910672919 A CN201910672919 A CN 201910672919A CN 110489501 B CN110489501 B CN 110489501B
Authority
CN
China
Prior art keywords
line
point
algorithm
matching
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910672919.8A
Other languages
English (en)
Other versions
CN110489501A (zh
Inventor
朱战霞
马廷宸
王铮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201910672919.8A priority Critical patent/CN110489501B/zh
Publication of CN110489501A publication Critical patent/CN110489501A/zh
Application granted granted Critical
Publication of CN110489501B publication Critical patent/CN110489501B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于线特征的SLAM系统快速重定位算法,包括以下步骤:步骤一、分线程将候选关键帧与当前图像帧进行点线特征匹配;基于点线匹配数量判断点线初步匹配数量是否要求达到设定数量,若满足则执行步骤二;步骤二、设置随机一致性算法参数,并执行EPnL算法估计初步位姿;步骤三、基于初步估计的位姿,剔除步骤一中点特征误匹配;步骤四、执行点线特征匹配同时使用的位姿优化估计,得到内点和内线数量;步骤五、根据优化后的有效内点、内线数目,分情况讨论是否执行投影匹配,完成最终重定位。本发明提供一种可以在人造环境下使用图像中的线特征实现更为快速的重定位位姿估计算法,与EPnP算法可以起到互补的作用。

Description

基于线特征的SLAM系统快速重定位算法
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于线特征的SLAM系统快速重定位算法。
背景技术
同时定位与地图构建(SLAM),随着无人驾驶、无人机技术的发展变得越发重要。它是指搭载特定传感器的主体,在没有环境先验信息的情况下,在运动过程中建立环境的模型,同时估计自己的运动。若以相机为传感器,就称为“视觉SLAM”。
由于没有先验环境信息,以及系统可能遇到问题的复杂性,如自身运动突变或者较多动态物体出现在镜头内,这些问题均有可能导致系统丢失当前位置,即无法在已经建立的地图中找到系统位置,此时,需要将系统在走过的路径上移动,找回系统在地图中的位置。
为了实现视觉SLAM系统的重定位,其中最核心的步骤是基于图像信息与地图获得匹配,计算出一个较优的初始位姿。在纯点特征的SLAM系统中,目前最为流行的是EPnP算法,该算法能够保证在线性时间内完成位姿初步估计。
另外,在目前的点线特征SLAM系统中,还有学者提出基于地图点和地图线的EPnPL算法。通过使用地图线,系统在一定程度上避免了EPnPL算法的问题,但是由于线特征在真实环境中很可能出现遮挡等问题,该算法提出在第一步位姿估计后,线特征位置进行矫正,然后再执行一次位姿估计。不可避免的,该算法是更为耗时的。
发明内容
本发明要解决的技术问题是提供一种基于线特征的SLAM系统快速重定位算法,该方法可以在人造环境下(具有直线信息的场景)使用图像中的线特征实现更为快速的重定位位姿估计算法,与EPnP算法可以起到互补的作用。
本发明的技术方案如下:
一种基于线特征的SLAM系统快速重定位算法,包括以下步骤:
步骤一、分线程将候选关键帧与当前图像帧进行点线特征匹配;基于点线匹配数量判断点线初步匹配数量是否要求达到设定数量,若满足则执行步骤二;
步骤二、设置随机一致性算法参数,并执行EPnL算法估计初步位姿;
步骤三、基于初步估计的位姿,剔除步骤一中点特征误匹配的点特征对;
步骤四、执行点线特征匹配同时使用的位姿优化估计,得到内点和内线数量;
步骤五、根据优化后的有效内点、内线数目,分情况讨论是否执行投影匹配,完成最终重定位。
作为本发明的进一步改进,所述的步骤一中,是基于BOW2库训练的字典对ORB点特征进行匹配,基于FLANN算法对LSD-LBD线特征进行匹配。
作为本发明的进一步改进,所述的步骤二中,EPnL算法步骤如下:
1)假设世界坐标系下的控制点为
Figure BDA0002142297170000021
基于输入的n个地图线中点世界坐标
Figure BDA0002142297170000022
对其进行计算;
2)通过世界坐标系下的控制点
Figure BDA0002142297170000023
和地图线中点世界坐标计算αij参数,计算公式如下:
Figure BDA0002142297170000024
3)输入线特征的ML矩阵:
假定当前相机的标定矩阵为:
Figure BDA0002142297170000031
其中,fx、fy为图像焦距,cx、cy为光心偏移。
作为本发明的进一步改进,所述的步骤三具体是指在使用线特征完成位姿估计后,需要对匹配点特征进行基于重投影误差的后验判断,进一步剔除误差较大或者误匹配的点特征对。
作为本发明的进一步改进,点特征重投影误差ErrorPoint2的计算公式如下:
ErrorPoint2=||x-K(RP+t)||2 (7)
其中,x为实际观测到的点特征图像坐标,K为3*3标定矩阵,P为地图点的世界坐标,R为3*3的旋转矩阵,t为3*1的平移矩阵。
作为本发明的进一步改进,所述的步骤四具体是指位姿优化结束后,需要基于新的位姿,对匹配的点线特征进行误差检测,剔除误差较大的匹配特征对,记录内点和内线数量。
作为本发明的进一步改进,所述的步骤分为以下情况:
1)若优化后不满足最终重定位条件,可以分为以下三种情况:
a.若点线特征在优化后均不满足最终重定位条件,则基于当前图像帧位姿,执行分线程的投影匹配,增大点线特征匹配数量;
b.若只有点特征在优化后不满足最终重定位条件,则基于当前图像帧位姿,执行点特征的投影匹配,增大点特征匹配数量;
c.若只有线特征在优化后不满足最终重定位条件,则基于当前图像帧位姿,执行线特征的投影匹配,增大线特征匹配数量;
在匹配结束后,若重新满足重定位条件,则执行第二次点线特征位姿优化,并执行类似于第一次优化后的判断;
2)若优化后满足最终重定位条件,则直接退出,重定位成功。
与现有技术相比,本发明的有益效果为:
本发明算法是一种基于地图线中点的重定位算法--EPnL,该算法可以融于EPnP算法框架中。但是,通过使用线特征中点信息,可以对线特征发生断裂、遮挡等问题导致的线重投影误差偏移起到良好的抑制效果,因此无需像EPnPL算法一样执行两步位姿估计,进而一定程度提高重定位算法的效率。另外,在步骤三对当前图像进行位姿初步估计的过程中,使用线特征中点组织ML矩阵比EPnP算法使用点特征组织的MP矩阵规模更小,可以直接影响整体重定位算法的计算效率。步骤四和步骤五,能够进一步提高重定位的位姿估计精度,及匹配到的点线特征数量。有利于SLAM系统在完成重定位功能后,继续实现高效的定位和建图工作。本发明所提出的算法可以在系统发生跟踪丢失的情况下,基于地图线中点信息实现系统的位置找回。实验表明,本算法较使用点特征的EPnP算法在计算速度上实现接近3倍提升,在人造环境中(线纹理信息充足的地方)具有更为明显优势。
附图说明
图1为本发明算法的流程示意图;
图2为PL-SLAM正常运行时的2D图像;
图3为PL-SLAM正常工作时的Pangolin地图;
图4为PL-SLAM发生跟踪丢失时的2D图像;
图5为PL-SLAM发生跟踪丢失时的Pangolin地图。
图6为PL-SLAM重定位成功时的2D图像;
图7为PL-SLAM重定位成功时的Pangolin地图。
具体实施方式
为了更好地理解本发明,下面结合附图通过具体的实施例来具体说明本发明的技术方案。
本发明适用的对象为视觉SLAM中的点线SLAM系统,使用前要求最少获得10组地图线与当前图像帧线特征的匹配(保证重定位的稳定性)。本算法拟提出一种基于地图线中点的重定位算法--EPnL,该算法可以融于EPnP算法框架中,但是使用的是线特征中点信息,由于线特征中点对线重投影误差具有良好的抑制效果,因此无需像EPnPL算法一样执行两步位姿估计,进而提高重定位算法的效率。
本发明提出一种仅基于地图线中点的重定位算法,其中,初步位姿估计是决定整体算法有效性的关键。相较于EPnP位姿估计算法中的MP矩阵,本发明中的ML矩阵规模是其一半,因此,计算时间明显缩短;最后基于ORB-SLAM2软件框架扩展的PL-SLAM系统实例,验证本发明提出方法的有效性。如图1所示,本发明的实施主要包括以下五个步骤:
步骤一、分线程将候选关键帧与当前图像帧进行点线特征匹配
基于BOW2库训练的字典对ORB点特征进行匹配,基于FLANN算法对LSD-LBD线特征进行匹配。该步骤用于获取最初的点线特征匹配,并基于点线匹配数量判断是否执行步骤二。默认设置,点线初步匹配数量均要求达到15对。
步骤二、设置RANSAC算法参数,并执行EPnL初步位姿估计
基于随机一致性算法(RANSAC)和本发明的核心算法EPnL,对当前图像帧的位姿进行估计,EPnL算法核心步骤如下:
(1)假设世界坐标系下的控制点为
Figure BDA0002142297170000061
基于输入的n个地图线中点世界坐标
Figure BDA0002142297170000062
对其进行计算。
(2)通过相机坐标系下的控制点
Figure BDA0002142297170000063
和地图线中点世界坐标计算αij参数(该参数与EPnP算法含义类似),计算公式如下:
Figure BDA0002142297170000064
(3)输入线特征的ML矩阵:
假定当前相机的标定矩阵为:
Figure BDA0002142297170000065
其中,fx、fy为图像焦距,cx、cy为光心偏移。
假定当前线特征的首尾端点分别是p和q,则当前处理线特征的方向向量l为:
Figure BDA0002142297170000066
ML矩阵公式推导如下:
a.假设相机坐标系下控制点的2D图像坐标系坐标x为:
Figure BDA0002142297170000067
其中,u、v分别是图像坐标系下的横纵坐标。
b.则相机坐标系下地图线中点Xc的重投影误差ELine可以表示为
Figure BDA0002142297170000071
其中,最终可得需要的ML矩阵为
ML=[lαi1,lαi2,lαi3,lαi4] (6)
其中,l=[lxfx,lyfy,lz+lxcx+lycy]。
c.后续位姿估计步骤与EPnP算法相似。
步骤三、基于初步估计的位姿,剔除步骤一中点特征误匹配
本发明针对的系统为点线特征SLAM系统,因此在使用线特征完成位姿估计后,需要对匹配点特征进行基于重投影误差的后验判断,进一步剔除误差较大或者误匹配的点特征对。点特征重投影误差ErrorPoint2如下:
ErrorPoint2=||x-K(RP+t)||2 (7)
其中,x为实际观测到的点特征图像坐标,K为3*3标定矩阵,P为地图点的世界坐标,R为3*3的旋转矩阵,t为3*1的平移矩阵。。
步骤四、执行点线特征同时使用的位姿优化估计
由于实际场景下,特征提取或是EPnL算法的位姿计算等步骤均会引入误差,因此,需要通过优化,来提高位姿估计的精度。位姿优化结束后,需要基于新的位姿,对匹配的点线特征进行误差检测,剔除误差较大的匹配特征对,记录内点(有效点称为内点)和内线(有效线称为内线)数量。
步骤五、根据优化后的有效内点内线数目,分情况讨论是否执行投影匹配,完成最终重定位。
(1)若优化后不满足最终重定位条件,可以分为以下三种情况:
a.若点线特征在优化后均不满足最终重定位条件,则基于当前图像帧位姿,执行分线程的投影匹配,增大点线特征匹配数量。
b.若只有点特征在优化后不满足最终重定位条件,则基于当前图像帧位姿,执行点特征的投影匹配,增大点特征匹配数量。
c.若只有线特征在优化后不满足最终重定位条件,则基于当前图像帧位姿,执行线特征的投影匹配,增大线特征匹配数量。
在匹配结束后,若重新满足重定位条件,则执行第二次点线特征位姿优化。并执行类似于第一次优化后的判断。
(2)若优化后满足最终重定位条件,则直接退出,重定位成功。
本发明是在ORB-SLAM2软件框架的基础上进行扩展并完成实验验证。主要应用场景为SLAM系统发生跟踪丢失,需要找回系统在之前建立地图中的位置。框架使用LSD-LBD线特征完成扩展,并且在默认配置文件中设置:点特征总提取数量为720,图像金字塔6层;线特征总提取数量为180,图像金字塔2层。
图2和图3分别为系统正常工作时的2D图像和点线地图。图4和图5为系统发生跟踪丢失时的2D图像和点线地图,此时系统前端在已经走过的路径上执行重定位算法,试图找到系统在已经建立的地图中的位置,此时后端建图功能失效。图6和图7为地图线中点重定位算法执行成功后,系统继续正常工作的图像。通过图7可以看出,系统开始继续执行建图功能。
表1 EPnP算法用时记录
实验次数 1 2 3 4 5
用时(ms) 0.57074 0.34188 0.349845 1.09879 0.624641
实验次数 6 7 8 9 10
用时(ms) 1.38904 0.681588 2.22139 1.40287 1.13864
平均用时:0.9819424ms。
表2 EPnL算法用时记录
实验次数 1 2 3 4 5
用时(ms) 0.417894 0.210901 0.238484 0.421786 0.165415
实验次数 6 7 8 9 10
用时(ms) 0.370573 0.246632 0.623551 0.354295 0.400963
平均用时:0.3450494ms。
通过对比表1和表2算法执行时间可以看出,本文提出的重定位算法在时间计算效率上具有接近3倍的优势,在人造信息(线特征)较为充足的环境下,可以替代EPnP算法实现更为有效的重定位功能。
以上实施例仅用于说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细说明,所属领域的普通技术人员依然可以对本发明的具体实施方案进行修改或者等同替换,而这些并未脱离本发明精神和范围的任何修改或者等同替换,其均在本发明的权利要求保护范围之内。

Claims (6)

1.一种基于线特征的SLAM系统快速重定位算法,其特征在于,包括以下步骤:
步骤一、分线程将候选关键帧与当前图像帧进行点线特征匹配;基于点线匹配数量判断点线初步匹配数量是否要求达到设定数量,若满足则执行步骤二;
步骤二、设置随机一致性算法参数,并执行EPnL算法估计初步位姿;
步骤三、基于初步估计的位姿,剔除步骤一中点特征误匹配的点特征对;
步骤四、执行点线特征匹配同时使用的位姿优化估计,得到内点和内线数量;
步骤五、根据优化后的有效内点、内线数目,分情况讨论是否执行投影匹配,完成最终重定位;
所述的步骤二中,EPnL算法步骤如下:
1)假设世界坐标系下的控制点为
Figure FDA0003245924990000011
基于输入的n个地图线中点世界坐标
Figure FDA0003245924990000012
对其进行计算;
2)通过世界坐标系下的控制点
Figure FDA0003245924990000013
和地图线中点世界坐标计算αij参数,计算公式如下:
Figure FDA0003245924990000014
3)输入线特征的ML矩阵:
假定当前相机的标定矩阵为:
Figure FDA0003245924990000015
其中,fx、fy为图像焦距,cx、cy为光心偏移。
2.根据权利要求1所述的基于线特征的SLAM系统快速重定位算法,其特征在于,所述的步骤一中,是基于DBOW2库训练的字典对ORB点特征进行匹配,基于FLANN算法对LSD-LBD线特征进行匹配。
3.根据权利要求1所述的基于线特征的SLAM系统快速重定位算法,其特征在于,所述的步骤三具体是指在使用线特征完成位姿估计后,需要对匹配点特征进行基于重投影误差的后验判断,进一步剔除误差较大或者误匹配的点特征对。
4.根据权利要求3所述的基于线特征的SLAM系统快速重定位算法,其特征在于,点特征重投影误差ErrorPoint2的计算公式如下:
ErrorPoint2=||x-K(RP+t)||2 (7)
其中,x为实际观测到的点特征图像坐标,K为3*3标定矩阵,P为地图点的世界坐标,R为3*3的旋转矩阵,t为3*1的平移矩阵。
5.根据权利要求1所述的基于线特征的SLAM系统快速重定位算法,其特征在于,所述的步骤四具体是指位姿优化结束后,需要基于新的位姿,对匹配的点线特征进行误差检测,剔除误差较大的匹配特征对,记录内点和内线数量。
6.根据权利要求1所述的基于线特征的SLAM系统快速重定位算法,其特征在于,所述的步骤五分以下情况:
1)若优化后不满足最终重定位条件,可以分为以下三种情况:
a.若点线特征在优化后均不满足最终重定位条件,则基于当前图像帧位姿,执行分线程的投影匹配,增大点线特征匹配数量;
b.若只有点特征在优化后不满足最终重定位条件,则基于当前图像帧位姿,执行点特征的投影匹配,增大点特征匹配数量;
c.若只有线特征在优化后不满足最终重定位条件,则基于当前图像帧位姿,执行线特征的投影匹配,增大线特征匹配数量;
在匹配结束后,若重新满足重定位条件,则执行第二次点线特征位姿优化,并执行类似于第一次优化后的判断;
2)若优化后满足最终重定位条件,则直接退出,重定位成功。
CN201910672919.8A 2019-07-24 2019-07-24 基于线特征的slam系统快速重定位算法 Active CN110489501B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910672919.8A CN110489501B (zh) 2019-07-24 2019-07-24 基于线特征的slam系统快速重定位算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910672919.8A CN110489501B (zh) 2019-07-24 2019-07-24 基于线特征的slam系统快速重定位算法

Publications (2)

Publication Number Publication Date
CN110489501A CN110489501A (zh) 2019-11-22
CN110489501B true CN110489501B (zh) 2021-10-22

Family

ID=68548152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910672919.8A Active CN110489501B (zh) 2019-07-24 2019-07-24 基于线特征的slam系统快速重定位算法

Country Status (1)

Country Link
CN (1) CN110489501B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111283730B (zh) * 2020-03-03 2021-04-20 广州赛特智能科技有限公司 基于点线特征机器人初始位姿获取方法及开机自定位方法
CN112070175B (zh) * 2020-09-04 2024-06-07 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质
CN113034617B (zh) * 2021-04-09 2024-05-28 北京爱笔科技有限公司 相机的焦距的获取方法及装置、设备
CN114627309A (zh) * 2022-03-11 2022-06-14 长春工业大学 一种低纹理环境下基于点线特征的视觉slam方法
CN116468786B (zh) * 2022-12-16 2023-12-26 中国海洋大学 一种面向动态环境的基于点线联合的语义slam方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077809A (zh) * 2014-06-24 2014-10-01 上海交通大学 基于结构性线条的视觉slam方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN109682385A (zh) * 2018-11-05 2019-04-26 天津大学 一种基于orb特征的即时定位与地图构建的方法
CN109993747A (zh) * 2019-03-22 2019-07-09 上海理工大学 融合点线特征的快速图像匹配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150371440A1 (en) * 2014-06-19 2015-12-24 Qualcomm Incorporated Zero-baseline 3d map initialization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077809A (zh) * 2014-06-24 2014-10-01 上海交通大学 基于结构性线条的视觉slam方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN109682385A (zh) * 2018-11-05 2019-04-26 天津大学 一种基于orb特征的即时定位与地图构建的方法
CN109993747A (zh) * 2019-03-22 2019-07-09 上海理工大学 融合点线特征的快速图像匹配方法

Also Published As

Publication number Publication date
CN110489501A (zh) 2019-11-22

Similar Documents

Publication Publication Date Title
CN110489501B (zh) 基于线特征的slam系统快速重定位算法
CN110490085B (zh) 点线特征视觉slam系统的快速位姿估计算法
CN108225319B (zh) 基于目标特征的单目视觉快速相对位姿估计系统及方法
US20190197770A1 (en) 3d model reconstruction method, electronic device, and non-transitory computer readable storage medium thereof
CN109410316B (zh) 物体的三维重建的方法、跟踪方法、相关装置及存储介质
CN109509211B (zh) 同时定位与建图技术中的特征点提取与匹配方法及系统
CN114972377B (zh) 基于移动最小二乘法与超体素的3d点云分割方法和装置
CN111105460B (zh) 一种室内场景三维重建的rgb-d相机位姿估计方法
CN114549549B (zh) 一种动态环境下基于实例分割的动态目标建模跟踪方法
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
CN115359083A (zh) 障碍物的轮廓获取方法、系统、介质及电子设备
CN113160335A (zh) 一种基于双目视觉的模型点云及三维表面重建方法
CN113436207A (zh) 一种对于规则表面的线结构光条纹中心快速精确提取方法
CN112614161A (zh) 一种基于边缘置信度的三维物体跟踪方法
CN117456327A (zh) 一种基于几何边缘与颜色统计特征自适应融合的工业零件位姿跟踪方法
CN112465984A (zh) 一种基于双层过滤的单目相机序列图像三维重构方法
CN111709893A (zh) 一种基于信息熵和锐化调整的orb-slam2改进算法
CN109345551A (zh) 图像外轮廓中凹包络的检测方法、系统及计算机存储介质
Fu et al. FSVO: Semi-direct monocular visual odometry using fixed maps
CN116958264A (zh) 一种基于三维视觉的螺栓孔定位及位姿估计方法
CN112818428B (zh) 一种用于cad模型面结构光全自动扫描路径规划方法
CN113223189B (zh) 机械臂抓取物体三维点云模型孔洞修复及规则体拟合方法
CN112232372B (zh) 一种基于opencl的单目立体匹配及加速的方法
Li et al. Depth image restoration method based on improved FMM algorithm
CN117649495B (zh) 基于点云描述符匹配的室内三维点云地图生成方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant