CN109544636B - 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 - Google Patents

一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 Download PDF

Info

Publication number
CN109544636B
CN109544636B CN201811178602.0A CN201811178602A CN109544636B CN 109544636 B CN109544636 B CN 109544636B CN 201811178602 A CN201811178602 A CN 201811178602A CN 109544636 B CN109544636 B CN 109544636B
Authority
CN
China
Prior art keywords
point
feature
frame
points
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811178602.0A
Other languages
English (en)
Other versions
CN109544636A (zh
Inventor
朱静
汪程辉
吕鹏浩
苏启彬
花明
吴羽
姚佳岷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN201811178602.0A priority Critical patent/CN109544636B/zh
Publication of CN109544636A publication Critical patent/CN109544636A/zh
Application granted granted Critical
Publication of CN109544636B publication Critical patent/CN109544636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,包括:S1、开启视觉里程计并获取第一帧图像I1,转化为灰度图,并提取ORB特征点,构建初始化关键帧;S2、判断是否已初始化;若已初始化,则转到步骤S6,否则转到步骤S3;S3、定义参考帧和当前帧,提取ORB特征,并进行特征匹配;S4、用并行线程同时求单应矩阵H和基础矩阵F,计算判断模型得分RH,若RH大于阈值时选用单应性矩阵H,否则选用基础矩阵F,并根据选用的模型估计相机运动;S5、求相机位姿和初始3D点;S6、判断是否已提取特征点,若未提取特征点,则使用直接法进行跟踪,否则用特征点法进行跟踪;S7、完成初始相机位姿估计。通过本发明可以更为精确的进行导航定位。

Description

一种融合特征点法和直接法的快速单目视觉里程计导航定位 方法
技术领域
本发明属于导航定位的技术领域,涉及一种融合特征点法和直接法的快速单目视觉里程计导航定位方法。
背景技术
SLAM(simultaneous localization and mapping,即时定位与地图构建)指的是机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置估计和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。视觉里程计作为视觉SLAM方法的重要组成部分,在很大程度上决定了视觉SLAM方法的精度和速度。
视觉里程计主要采取2种计算方式:特征点法和直接法。特征法首先提取图像特征点和描述子,进行特征点匹配后通过最小化重投影误差计算机器人位姿。直接法相对于特征法,由于不需要提取图像特征,执行速度较快;对图像的光度误差鲁棒性较高,但是对相机内参要求很高,当存在几何噪声时算法性能下降较快;在发生图像运动模糊的情况下依然可以实现相机定位,但对大基线运动的鲁棒性较差。
现有技术中,并没有将融合特征点法和直接法同时使用进行导航定位的技术方案,所以如何克服难点,基于特征点法与直接法的特点,融合特征点法与直接法,是本领域技术人员研究的方向之一。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供了一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,通过本方法得到的结果相比于传统的单目视觉里程计对计算硬件要求更低,计算时间大幅缩短。
为了达到上述目的,本发明采用以下技术方案:
本发明提供的一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,包括下述步骤:
S1、开启视觉里程计并获取第一帧图像I1,转化为灰度图,并提取ORB特征点,构建初始化关键帧;
S2、判断是否已初始化;若已初始化,则转到步骤S6,否则转到步骤S3;
S3、定义参考帧和当前帧,提取ORB特征,并进行特征匹配;
S4、用并行线程同时求单应矩阵H和基础矩阵F,计算判断模型得分RH,若RH大于阈值时选用单应矩阵H,否则选用基础矩阵F,并根据选用的模型估计相机运动;
S5、求相机位姿和初始3D点;
S6、判断是否已提取特征点,若未提取特征点,则使用直接法进行跟踪,否则用特征点法进行跟踪;
S7、完成初始相机位姿估计;
S8、若通过一种模型完成了初始相机的位姿估计,则进一步跟踪局部地图,即和当前帧相关联的地图点做联合优化,获得一个较为准确的相机位姿;
S9、获取下一帧图像并转到步骤S2。
作为优选的技术方案,步骤S3中,采用FAST角点提取ORB特征点,具体方法为:
S3.1.1、在图像中选取像素p,假设它的亮度为Ip
S3.1.2、设置一个阈值T0
S3.1.3、以像素p为中心,选取半径为R的圆上的m个像素点;
S3.1.4、假如选取的圆上有连续的N个点的亮度大于Ip+T0或小于Ip-T0,那么像素p可以被认为是特征点;
S3.1.5、循环以上步骤S3.1.1-S3.1.5,对每一个像素执行相同的操作。
可选的,步骤S3中,采用计算BRIEF描述子提取ORB特征点,具体方法为:
BRIEF是一种二进制描述子,其描述向量由许多0和1组成,这里的0和1编码了关键点附近的两个像素p和q的大小关系:如果p比q小,取1;反之取0,其计算过程如下:
1)选定建立描述子的区域;即特征点的一个正方形邻域;
2)对该邻域用σ=2的高斯核卷积,以消除一些噪声;
3)以一定的随机化算法生成点对<p,g>,若点p的亮度小于点q的亮度,则返回值1,否则返回0;
4)重复步骤3)若干次次,得到一个256位的二进制编码,即该特征点的描述子;
特征匹配的方法如下:
S3.2.1.计算机两相邻关键帧的BRIEF描述子的汉明距离;
S3.2.2、使用FLANN快速近似最近邻算法对特征点匹配。
作为优选的技术方案,所述步骤S4中,单应矩阵H和基础矩阵F分别满足下列关系:
xc=Hcrxr
Figure GDA0003335389700000031
为了评估哪个模型更合适,在每次迭代中,计算每个模型M的得分SM,SH和SF分别表示单应矩阵H和基础矩阵F的分数,则SM统一表示SH和SF为:
Figure GDA0003335389700000041
Figure GDA0003335389700000042
其中,
Figure GDA0003335389700000043
Figure GDA0003335389700000044
表示从一帧到另一帧的对称的转换误差,分别是从当前帧到参考帧的变换误差和参考帧到当前帧的变换误差,这里:
TH=5.99,TF=3.84
τ=TH
当场景是一个平面、或近似为一个平面、或者视差较小的时候,使用单应性矩阵H,而使用基础矩阵F恢复运动,需要场景是一个非平面、视差大的场景。
作为优选的技术方案,还包括估计单应矩阵H和基础矩阵F优劣的步骤,具体采用下述公式来估计:
Figure GDA0003335389700000045
当RH大于0.45时,选择从单应矩阵H还原运动,否则选择基础矩阵F还原运动。
作为优选的技术方案,步骤S6具体为:
S6.1、若未提取特征点,使用直接法最小化图像块重投影残差来获取初始位姿估计;即通过不断优化位姿Tk,k-1最小化残差损失函数,其公式如下:
Figure GDA0003335389700000046
其中,
Figure GDA0003335389700000047
S6.2、计算像素点对齐,基于光度不变性假设,特征块在以前参考帧中的亮度应该和new frame中的亮度差不多,所以可以重新构造一个残差,对特征预测位置进行优化:
Figure GDA0003335389700000051
S6.3、若已提取特征点或者直接法跟踪失败,则改用特征点法的恒速模型进行跟踪;
S6.4、若恒速模型跟踪失败,则改用特征点法的参考帧模型进行跟踪;
S6.5、若参考帧模型跟踪失败,则进行重定位。
作为优选的技术方案,步骤S6.1具体为:
S6.1.1、准备工作,假设相邻帧之间的位姿Tk,k-1已知,初始化为上一相邻时刻的位姿或者假设为单位矩阵,通过之前多帧之间的特征检测以及深度估计,已经知道第k-1帧中特征点位置以及它们的深度;
S6.2.2、重投影,知道Ik-1中的某个特征在图像平面的位置(u,v),以及它的深度d,能够将该特征投影到三维空间pk-1,该三维空间的坐标系是定义在Ik-1摄像机坐标系的;所以,将它投影到当前帧Ik中,需要位姿转换Tk,k-1,得到该点在当前帧坐标系中的三维坐标pk,最后通过摄像机内参数,投影到Ik的图像平面(u′,v′),完成重投影;
S6.3.3、迭代优化更新位姿,不断优化位姿使得这个残差最小,就能得到优化后的位姿Tk,k-1
作为优选的技术方案,步骤S8中,所述和当前帧相关联的地图点做联合优化,获得一个较为准确的相机位姿的步骤具体为:
S8.1、更新局部地图,包括关键帧和地图点的更新;
S8.2、搜索局部地图点是否符合跟踪要求,并匹配当前帧和局部地图点;
S8.3、使用Levenberg-Marquardt非线性优化方法优化位姿;
S8.4、根据匹配和优化结果更新地图点的状态,并更新匹配的内点数量。
本发明与现有技术相比,具有如下优点和有益效果:
(1)本发明使用了特征点法和直接法融合的技术方案,解决了在单纯特征法视觉里程计在计算能力受限的计算平台运行帧率较低、实时性较差的问题,大幅降低平均跟踪时间,提升了视觉里程计的运行帧率,很好地实现了移动设备的实时定位。
(2)本发明使用了直接法和特征点法融合的技术方案,解决了单纯直接法视觉里程计鲁棒性较差,在光线变化大的环境下跟踪容易失败的问题,提高了视觉里程计的鲁棒性和稳定性。
附图说明
图1是本发明导航定位方法的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,包括下述步骤:
S1、开启视觉里程计并获取第一帧图像I1,转化为灰度图,并提取ORB特征点,构建初始化关键帧。
S2、判断是否已初始化;若已初始化,则转到步骤S6,否则转到步骤S3。
S3、定义参考帧和当前帧,提取ORB特征,并进行特征匹配。
提取ORB特征点的方法如下:
(1)采用FAST角点提取,FAST的主要思想是:如果一个像素与邻域的像素差别较大(过亮或过暗),那么它更可能是角点。相比其它角点检测算法,FAST只需比较像素亮度的大小,十分快捷。它的检测过程如下:
1)在图像中选取像素p,假设它的亮度为Ip
2)设置一个阈值T0(比如,Ip的20%)
3)以像素p为中心,选取半径为3的圆上的16个像素点。
4)假如选取的圆上有连续的N个点的亮度大于Ip+T0或小于Ip-T0,那么像素p可以被认为是特征点。
5)循环以上四步,对每一个像素执行相同的操作。
针对FAST角点不具有方向性和尺度的弱点,ORB添加了尺度和旋转的描述,尺度不变性由构建图像金字塔,并在金字塔的每一层上检测角点来实现。而特征的旋转是由灰度质心法实现的。通过以上方法,FAST角点便具有了尺度与旋转的描述,大大提升其在不同图像之间的表述的健壮性。
(2)计算BRIEF描述子。BRIEF是一种二进制描述子,其描述向量由许多0和1组成。这里的0和1编码了关键点附近的两个像素(比如p和q)的大小关系:如果p比q小,取1;反之取0。其计算过程如下:
1)选定建立描述子的区域(特征点的一个正方形邻域)。
2)对该邻域用σ=2的高斯核卷积,以消除一些噪声。因为该描述子随机性强,对噪声较为敏感。
3)以一定的随机化算法生成点对<p,g>,若点p的亮度小于点q的亮度,则返回值1,否则返回0。
4)重复第三步若干次(如256次),得到一个256位的二进制编码,即该特征点的描述子。
特征匹配的方法如下:
1)计算机两相邻关键帧的BRIEF描述子的汉明距离;
2)使用FLANN快速近似最近邻算法对特征点匹配。
S4、用并行线程同时求单应矩阵H和基础矩阵F,计算判断模型得分RH,若RH大于阈值时选用单应矩阵H,否则选用基础矩阵F,并根据选用的模型估计相机运动;
所述步骤S4中,单应矩阵H和基础矩阵F分别满足下列关系:
xc=Hcrxr
Figure GDA0003335389700000081
为了评估哪个模型更合适,使用SH和SF来计算各自的分值,其中SM统一表示SH和SF为:
Figure GDA0003335389700000082
Figure GDA0003335389700000083
当场景是一个平面、或近似为一个平面、或者视差较小的时候,使用单应性矩阵H,而使用基础矩阵F恢复运动,需要场景是一个非平面、视差大的场景。
为了进一步的进行更为精确的导航定位,还包括估计单应矩阵H和基础矩阵F优劣的步骤,具体采用下述公式来估计:
Figure GDA0003335389700000084
当RH大于0.45时,选择从单应矩阵H还原运动,否则选择基础矩阵F还原运动。
S5、求相机位姿和初始3D点。
S6、判断是否已提取特征点,若未提取特征点,则使用直接法进行跟踪,否则用特征点法进行跟踪;
步骤S6具体为:
S6.1、若未提取特征点,使用直接法最小化图像块重投影残差来获取初始位姿估计;即通过不断优化位姿Tk,k-1最小化残差损失函数,其公式如下:
Figure GDA0003335389700000091
其中,
Figure GDA0003335389700000092
上述步骤S6.1具体为:
S6.1.1、准备工作,假设相邻帧之间的位姿Tk,k-1已知,初始化为上一相邻时刻的位姿或者假设为单位矩阵,通过之前多帧之间的特征检测以及深度估计,已经知道第k-1帧中特征点位置以及它们的深度;
S6.2.2、重投影,知道Ik-1中的某个特征在图像平面的位置(u,v),以及它的深度d,能够将该特征投影到三维空间pk-1,该三维空间的坐标系是定义在Ik-1摄像机坐标系的;所以,将它投影到当前帧Ik中,需要位姿转换Tk,k-1,得到该点在当前帧坐标系中的三维坐标pk,最后通过摄像机内参数,投影到Ik的图像平面(u′,v′),完成重投影;
S6.3.3、迭代优化更新位姿,不断优化位姿使得这个残差最小,就能得到优化后的位姿Tk,k-1;
S6.2、计算像素点对齐,基于光度不变性假设,特征块在以前参考帧中的亮度应该和new frame中的亮度差不多,所以可以重新构造一个残差,对特征预测位置进行优化:
Figure GDA0003335389700000101
S6.3、若已提取特征点或者直接法跟踪失败,则改用特征点法的恒速模型进行跟踪;
S6.4、若恒速模型跟踪失败,则改用特征点法的参考帧模型进行跟踪;
S6.5、若参考帧模型跟踪失败,则进行重定位。
S7、完成初始相机位姿估计。
S8、若通过一种模型完成了初始相机的位姿估计,则进一步跟踪局部地图,即和当前帧相关联的地图点做联合优化,获得一个较为准确的相机位姿。
所述和当前帧相关联的地图点做联合优化,获得一个较为准确的相机位姿的步骤具体为:
S8.1、更新局部地图,包括关键帧和地图点的更新;
S8.2、搜索局部地图点是否符合跟踪要求,并匹配当前帧和局部地图点;
S8.3、使用Levenberg-Marquardt非线性优化方法优化位姿;
S8.4、根据匹配和优化结果更新地图点的状态,并更新匹配的内点数量。
S9、获取下一帧图像并转到步骤S2。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,其特征在于,包括下述步骤:
S1、开启视觉里程计并获取第一帧图像I1,转化为灰度图,并提取ORB特征点,构建初始化关键帧;
S2、判断是否已初始化;若已初始化,则转到步骤S6,否则转到步骤S3;
S3、定义参考帧和当前帧,提取ORB特征,并进行特征匹配;步骤S3中,采用计算BRIEF描述子提取ORB特征点,具体方法为:
BRIEF是一种二进制描述子,其描述向量由许多0和1组成,这里的0和1编码了关键点附近的两个像素p和q的大小关系:如果p比q小,取1;反之取0,其计算过程如下:
1)选定建立描述子的区域;即特征点的一个正方形邻域;
2)对该正方形邻域用σ=2的高斯核卷积,以消除一些噪声;
3)以一定的随机化算法生成点对<p,g>,若点p的亮度小于点q的亮度,则返回值1,否则返回0;
4)重复步骤3)若干次,得到一个256位的二进制编码,即该特征点的描述子;
特征匹配的方法如下:
S3.2.1.计算机两相邻关键帧的BRIEF描述子的汉明距离;
S3.2.2、使用FLANN快速近似最近邻算法对特征点匹配;
S4、用并行线程同时求单应矩阵H和基础矩阵F,计算判断模型得分RH,若RH大于阈值时选用单应矩阵H,否则选用基础矩阵F,并根据选用的模型估计相机运动;
所述步骤S4中,单应矩阵H和基础矩阵F分别满足下列关系:
Figure 98638DEST_PATH_IMAGE001
为了评估哪个模型更合适,在每次迭代中,计算每个模型M的得分SM, SH和SF分别表示单应矩阵H和基础矩阵F的分数,则SM统一表示SH和SF为:
Figure 37776DEST_PATH_IMAGE002
Figure 174359DEST_PATH_IMAGE003
其中,
Figure 780921DEST_PATH_IMAGE004
Figure 446388DEST_PATH_IMAGE005
表示从一帧到另一帧的对称的转换误差,分别是从当前帧到参考帧的变换误差和参考帧到当前帧的变换误差,这里:
Figure 669559DEST_PATH_IMAGE006
当场景是一个平面、或近似为一个平面、或者视差较小的时候,使用单应矩阵H,而使用基础矩阵F恢复运动,需要场景是一个非平面、视差大的场景;
S5、求相机位姿和初始3D点;
S6、判断是否已提取特征点,若未提取特征点,则使用直接法进行跟踪,否则用特征点法进行跟踪;步骤S6具体为:
S6.1、若未提取特征点,使用直接法最小化图像块重投影残差来获取初始位姿估计;即通过不断优化位姿Tk,k−1最小化残差损失函数,其公式如下:
Figure 78675DEST_PATH_IMAGE007
其中,
Figure 274164DEST_PATH_IMAGE008
S6.2、计算像素点对齐,基于光度不变性假设,特征块在以前参考帧中的亮度应该和new frame中的亮度差不多,所以可以重新构造一个残差,对特征预测位置进行优化:
Figure 641692DEST_PATH_IMAGE009
S6.3、若已提取特征点或者直接法跟踪失败,则改用特征点法的恒速模型进行跟踪;
S6.4、若恒速模型跟踪失败,则改用特征点法的参考帧模型进行跟踪;
S6.5、若参考帧模型跟踪失败,则进行重定位;
步骤S6.1具体为:
S6.1.1、准备工作,假设相邻帧之间的位姿Tk,k−1已知,初始化为上一相邻时刻的位姿或者假设为单位矩阵,通过之前多帧之间的特征检测以及深度估计,已经知道第k-1帧中特征点位置以及它们的深度;
S6.2.2、重投影,知道Ik−1中的某个特征在图像平面的位置(u,v),以及它的深度d,能够将该特征投影到三维空间pk−1,该三维空间的坐标系是定义在Ik−1摄像机坐标系的;所以,将它投影到当前帧Ik中,需要位姿转换Tk,k−1,得到该点在当前帧坐标系中的三维坐标pk,最后通过摄像机内参数,投影到Ik的图像平面(u′,v′),完成重投影;
S6.3.3、迭代优化更新位姿,不断优化位姿使得这个残差最小,就能得到优化后的位姿Tk,k−1;
S7、完成初始相机位姿估计;
S8、若通过一种模型完成了初始相机的位姿估计,则进一步跟踪局部地图,即和当前帧相关联的地图点做联合优化,获得一个较为准确的相机位姿;
S9、获取下一帧图像并转到步骤S2。
2.根据权利要求1所述一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,其特征在于,步骤S3中,采用FAST角点提取ORB特征点,具体方法为:
S3.1.1、在图像中选取像素p,假设它的亮度为Ip;
S3.1.2、设置一个阈值T0
S3.1.3、以像素p为中心,选取半径为R的圆上的m个像素点;
S3.1.4、假如选取的圆上有连续的N个点的亮度大于Ip+ T0或小于Ip- T0,那么像素p可以被认为是特征点;
S3.1.5、循环以上步骤S3.1.1-S3.1.4,对每一个像素执行相同的操作。
3.根据权利要求1所述一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,其特征在于,还包括估计单应矩阵H和基础矩阵F优劣的步骤,具体采用下述公式来估计:
Figure 821000DEST_PATH_IMAGE010
当RH大于0.45时,选择从单应矩阵H还原运动,否则选择基础矩阵F还原运动。
4.根据权利要求1所述一种融合特征点法和直接法的快速单目视觉里程计导航定位方法,其特征在于,步骤S8中,所述和当前帧相关联的地图点做联合优化,获得一个较为准确的相机位姿的步骤具体为:
S8.1、更新局部地图,包括关键帧和地图点的更新;
S8.2、搜索局部地图点是否符合跟踪要求,并匹配当前帧和局部地图点;
S8.3、使用Levenberg-Marquardt非线性优化方法优化位姿;
S8.4、根据匹配和优化结果更新地图点的状态,并更新匹配的内点数量。
CN201811178602.0A 2018-10-10 2018-10-10 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 Active CN109544636B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811178602.0A CN109544636B (zh) 2018-10-10 2018-10-10 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811178602.0A CN109544636B (zh) 2018-10-10 2018-10-10 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法

Publications (2)

Publication Number Publication Date
CN109544636A CN109544636A (zh) 2019-03-29
CN109544636B true CN109544636B (zh) 2022-03-15

Family

ID=65843563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811178602.0A Active CN109544636B (zh) 2018-10-10 2018-10-10 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法

Country Status (1)

Country Link
CN (1) CN109544636B (zh)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993802B (zh) * 2019-04-03 2020-12-25 浙江工业大学 一种城市环境中的混合相机标定方法
CN110108258B (zh) * 2019-04-09 2021-06-08 南京航空航天大学 一种单目视觉里程计定位方法
CN110060277A (zh) * 2019-04-30 2019-07-26 哈尔滨理工大学 一种多特征融合的视觉slam方法
CN110148159B (zh) * 2019-05-20 2021-03-26 厦门大学 一种基于事件相机的异步目标跟踪方法
CN110298884B (zh) * 2019-05-27 2023-05-30 重庆高开清芯科技产业发展有限公司 一种适于动态环境中单目视觉相机的位姿估计方法
CN110274598B (zh) * 2019-06-24 2023-03-24 西安工业大学 一种机器人单目视觉鲁棒定位估计方法
CN110375739B (zh) * 2019-06-26 2021-08-24 中国科学院深圳先进技术研究院 一种移动端视觉融合定位方法、系统及电子设备
CN112150538B (zh) * 2019-06-27 2024-04-12 北京初速度科技有限公司 一种在三维地图构建过程中车辆位姿的确定方法和装置
CN110473258B (zh) * 2019-07-24 2022-05-13 西北工业大学 基于点线统一框架的单目slam系统初始化算法
CN110514212A (zh) * 2019-07-26 2019-11-29 电子科技大学 一种融合单目视觉和差分gnss的智能车地图地标定位方法
CN110428461B (zh) * 2019-07-30 2022-07-05 清华大学 结合深度学习的单目slam方法及装置
CN110675455B (zh) * 2019-08-30 2023-09-22 的卢技术有限公司 一种基于自然场景的车身环视相机自标定方法和系统
CN110766024B (zh) * 2019-10-08 2023-05-23 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN110864685B (zh) * 2019-10-18 2023-03-21 浙江天尚元科技有限公司 一种基于松耦合的车辆单目视觉轮式里程计定位方法
CN110967014B (zh) * 2019-10-24 2023-10-31 国家电网有限公司 一种基于增强现实技术的机房室内导航和设备追踪的方法
CN112734797A (zh) * 2019-10-29 2021-04-30 浙江商汤科技开发有限公司 图像特征跟踪方法、装置及电子设备
CN110992487B (zh) * 2019-12-10 2020-09-29 南京航空航天大学 手持式飞机油箱快速三维地图重建装置及重建方法
CN113129366B (zh) * 2020-01-10 2024-04-30 北京字节跳动网络技术有限公司 单目slam初始化方法、装置及电子设备
CN111210463B (zh) * 2020-01-15 2022-07-15 上海交通大学 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统
CN111444768A (zh) * 2020-02-25 2020-07-24 华中科技大学 一种用于反光地面场景的微小障碍物发现方法
CN111583331B (zh) * 2020-05-12 2023-09-01 北京轩宇空间科技有限公司 用于同时定位和地图构建的方法及装置
CN111833402B (zh) * 2020-06-30 2023-06-06 天津大学 基于暂停信息补充机制的视觉里程计旋转运动处理方法
CN111862200B (zh) * 2020-06-30 2023-04-28 同济大学 一种煤棚内无人机定位方法
CN111780763B (zh) * 2020-06-30 2022-05-06 杭州海康机器人技术有限公司 一种基于视觉地图的视觉定位方法、装置
CN111915651B (zh) * 2020-07-31 2023-09-12 西安电子科技大学 基于数字影像地图与特征点跟踪的视觉位姿实时估计方法
CN112001970A (zh) * 2020-08-25 2020-11-27 哈尔滨工业大学 一种基于点线特征的单目视觉里程计方法
CN112025709B (zh) * 2020-08-31 2021-08-27 东南大学 一种基于车载摄像头视觉的移动机器人定位系统及方法
CN112184763A (zh) * 2020-09-09 2021-01-05 南京师范大学镇江创新发展研究院 一种机器人视觉导航中视觉里程计构建方法
CN112115874B (zh) * 2020-09-21 2022-07-15 武汉大学 一种融合云端的视觉slam系统及方法
CN112393721B (zh) * 2020-09-30 2024-04-09 苏州大学应用技术学院 相机位姿估计方法
CN112284402B (zh) * 2020-10-15 2021-12-07 广州小鹏自动驾驶科技有限公司 一种车辆定位的方法和装置
CN112419497A (zh) * 2020-11-13 2021-02-26 天津大学 基于单目视觉的特征法与直接法相融合的slam方法
CN112633122B (zh) * 2020-12-17 2024-01-23 厦门大学 一种单目vio系统的前端里程计算法及系统
CN112634305B (zh) * 2021-01-08 2023-07-04 哈尔滨工业大学(深圳) 一种基于边缘特征匹配的红外视觉里程计实现方法
CN112819853B (zh) * 2021-02-01 2023-07-25 太原理工大学 一种基于语义先验的视觉里程计方法
CN112862803B (zh) * 2021-02-26 2023-09-26 中国人民解放军93114部队 基于边缘和特征点融合的红外成像slam方法和装置
CN113108771B (zh) * 2021-03-05 2022-08-16 华南理工大学 一种基于闭环直接稀疏视觉里程计的移动位姿估计方法
CN113010724A (zh) * 2021-04-29 2021-06-22 山东新一代信息产业技术研究院有限公司 一种基于视觉特征点匹配的机器人地图选择方法及系统
CN113379839B (zh) * 2021-05-25 2022-04-29 武汉大学 一种基于事件相机系统的地面视角单目视觉里程计方法
CN113701760B (zh) * 2021-09-01 2024-02-27 火种源码(中山)科技有限公司 基于滑动窗口位姿图优化的机器人抗干扰定位方法及装置
CN115371699B (zh) * 2021-09-30 2024-03-15 达闼科技(北京)有限公司 视觉惯性里程计方法、装置及电子设备
CN114066824B (zh) * 2021-10-28 2024-05-14 华南理工大学 一种具有动态目标检测功能的双目视觉里程计方法
CN114170306B (zh) * 2021-11-17 2022-11-04 埃洛克航空科技(北京)有限公司 图像的姿态估计方法、装置、终端及存储介质
CN113920198B (zh) * 2021-12-14 2022-02-15 纽劢科技(上海)有限公司 一种基于语义边缘对齐的由粗到精的多传感器融合定位方法
CN114440892B (zh) * 2022-01-27 2023-11-03 中国人民解放军军事科学院国防科技创新研究院 一种基于拓扑地图和里程计的自定位方法
CN114972514A (zh) * 2022-05-30 2022-08-30 歌尔股份有限公司 Slam定位方法、装置、电子设备和可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548486A (zh) * 2016-11-01 2017-03-29 浙江大学 一种基于稀疏视觉特征地图的无人车位置跟踪方法
CN107025668A (zh) * 2017-03-30 2017-08-08 华南理工大学 一种基于深度相机的视觉里程计的设计方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
CN107341814B (zh) * 2017-06-14 2020-08-18 宁波大学 基于稀疏直接法的四旋翼无人机单目视觉测程方法
CN108196828A (zh) * 2017-12-11 2018-06-22 江苏大学 基于android智能手机的无人插秧机监控系统APP软件的设计方法
CN108428249A (zh) * 2018-01-30 2018-08-21 哈尔滨工业大学深圳研究生院 一种基于光流跟踪和双几何模型的初始位姿估计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548486A (zh) * 2016-11-01 2017-03-29 浙江大学 一种基于稀疏视觉特征地图的无人车位置跟踪方法
CN107025668A (zh) * 2017-03-30 2017-08-08 华南理工大学 一种基于深度相机的视觉里程计的设计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《SVO:FAST semi-direct monocular visual odometry》;Forster C et al;《2014 IEEE International Conference on Robotics and Automation(ICRA)》;20140929;正文第4部分、图2、图3 *
《基于Android平台的单目SLAM系统研究》;赵放;《中国优秀硕士学位论文全文数据库信息科技辑》;20180315(第2018年第03期);正文第2.2.3部分、正文第3.2部分、正文第4.2部分 *

Also Published As

Publication number Publication date
CN109544636A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN109544636B (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN107025668B (zh) 一种基于深度相机的视觉里程计的设计方法
Engel et al. Large-scale direct SLAM with stereo cameras
Concha et al. DPPTAM: Dense piecewise planar tracking and mapping from a monocular sequence
CN103325112B (zh) 动态场景中运动目标快速检测方法
Herrera et al. Dt-slam: Deferred triangulation for robust slam
CN110570453B (zh) 一种基于双目视觉的闭环式跟踪特征的视觉里程计方法
CN108597009B (zh) 一种基于方向角信息进行三维目标检测的方法
CN104851094A (zh) 一种基于rgb-d的slam算法的改进方法
WO2020000395A1 (en) Systems and methods for robust self-relocalization in pre-built visual map
CN113658337B (zh) 一种基于车辙线的多模态里程计方法
CN111127522B (zh) 基于单目相机的深度光流预测方法、装置、设备及介质
CN112418288A (zh) 一种基于gms和运动检测的动态视觉slam方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
CN112101160A (zh) 一种面向自动驾驶场景的双目语义slam方法
CN115471748A (zh) 一种面向动态环境的单目视觉slam方法
Zhu et al. Fusing panoptic segmentation and geometry information for robust visual slam in dynamic environments
Zhuang et al. Amos-SLAM: An Anti-Dynamics Two-stage SLAM Approach
US20200184656A1 (en) Camera motion estimation
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置
Milford et al. Feature-based visual odometry and featureless place recognition for SLAM in 2.5 D environments
CN108534797A (zh) 一种实时高精度视觉里程计方法
Zhang et al. Feature regions segmentation based RGB-D visual odometry in dynamic environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant