CN108519102A - 一种基于二次投影的双目视觉里程计算方法 - Google Patents

一种基于二次投影的双目视觉里程计算方法 Download PDF

Info

Publication number
CN108519102A
CN108519102A CN201810253281.XA CN201810253281A CN108519102A CN 108519102 A CN108519102 A CN 108519102A CN 201810253281 A CN201810253281 A CN 201810253281A CN 108519102 A CN108519102 A CN 108519102A
Authority
CN
China
Prior art keywords
point
image
matching
projection
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810253281.XA
Other languages
English (en)
Other versions
CN108519102B (zh
Inventor
张涛
陈浩
颜亚雄
王健
朱永云
王自强
翁铖铖
王帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201810253281.XA priority Critical patent/CN108519102B/zh
Publication of CN108519102A publication Critical patent/CN108519102A/zh
Application granted granted Critical
Publication of CN108519102B publication Critical patent/CN108519102B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于二次投影的双目视觉里程计算方法,包括以下步骤:使用ORB对KITTI数据集进行特征点提取、描述子建立以及记录特征点的寿命;采用环形匹配方法进行特征点匹配,环形匹配分为左右匹配和前后匹配;在当前帧中,采用三角测量建立3D空间点;将这些3D空间点投影到下一帧,并求解最小化重投影误差,得到最优的投影点;在下一帧图像中,由最优的投影点更新3D空间点,并将更新后的3D空间点重新投影到当前帧,求解最小化重投影误差,进而求解得到双目视觉里程计的位姿状态。本发明通过采用可靠性更高的特征点以及二次投影的方法,提高了视觉里程计的精度,降低了特征点的漂移。

Description

一种基于二次投影的双目视觉里程计算方法
技术领域
本发明涉及机器人/无人机自主导航技术领域,尤其是一种基于二次投影的双目视觉里程计算方法。
背景技术
随着机器人/无人机定位理论的不断发展以及计算机视觉技术的不断进步,基于视觉的机器人/无人机即时定位与建图(SLAM)的研究成为机器人/无人机领域的研究热点。SLAM的主要目标是同时估计摄像机位置和建立周边三维地图。视觉里程计就是估计摄像机相对其周围环境的位姿变化,视觉里程计在机器人/无人机自主导航中担任十分重要的角色。
当前,视觉里程计主要基于单目、多目以及RGB相机,其中多目中以双目相机为主。双目视觉里程计是建立在立体视觉基础上的,它通过双目立体摄像机获取立体图像序列,通过特征提取、特征点立体匹配、特征点跟踪匹配、坐标变换和运动估计等步骤求得相机的位姿变化,一般来说,双目视觉里程计比单目更可靠,能获得更加精确的结果。
同时,视觉里程计也属于航位推算方法,通过对当前运动的积分来估计当前位置,因此不可避免的带来累积误差,其主要误差来源于特征点的检测与匹配阶段,由相机分辨率带来特征点的不确定性以及特征点的漂移,会很大程度影响双目视觉里程计的精度。
发明内容
发明目的:针对上述双目视觉里程计存在的累积误差以及漂移,本发明旨在提供一种定位精度更高的基于二次投影的双目视觉里程计算方法。
技术方案:本发明提供了一种基于二次投影的双目视觉里程计算方法,包括以下步骤:
步骤1:采用KITTI数据集,对其中的图像进行特征点提取,并记录特征点的寿命;
步骤2:采用环形匹配方法进行连续两帧图像间特征点匹配;
步骤3:利用RANSAC算法对步骤2的匹配进行误匹配消除,进而在当前帧中根据三角测量确定3D空间点P;
其中I表示图像,i表示当前帧的编号,l,r分别表示当前帧的左右图像;
步骤4:采用PnP和RANSAC算法,将步骤3得到的3D空间点P投影到下一帧图像计算最小化重投影误差,进而可以得到最优的投影点
步骤5:采用二次投影方法求取更精确的位姿状态,根据步骤4得到的投影点在下一帧图像中运用三角测量重新确定3D空间点Q,将Q投影到当前帧重新计算最小化重投影误差,进而可以得到两帧图像之间的旋转矩阵R和平移向量t。
进一步的,步骤1中所述的特征点提取具体包括如下步骤:
步骤1.1:采用ORB算法的OrientFAST算子提取特征点,并记录特征点的寿命,当前后两帧中该特征点所处位置的距离小于1个像素时,寿命加1;
步骤1.2:采取网格法,将图像分成10n×10n的网格,对每个网格点内的特征点,按寿命大小进行排序,每个网格只保留前n个特征点;
步骤1.3:计算每个特征点的BRIEF描述子,但当该特征点的寿命大于1时,使用该特征点首次出现时的BRIEF描述子。
进一步的,步骤1.2中所述网格法具体是将图像分成50×50的网格,对每个网格点内的特征点,按寿命大小进行排序,每个网格只保留前5个特征点。
进一步的,步骤2中所述的特征点匹配具体包括如下步骤:
步骤2.1:利用极线约束,对当前帧和下一帧图像的特征点进行左右图像匹配,得到左右匹配点对
步骤2.2:利用直接法和最近邻方法,求取最小汉明距离,对当前帧和下一帧图像的特征点进行前后帧间匹配,得到匹配点对
步骤2.3:当步骤2.1和步骤2.2得到的匹配点能够形成完整的环形时,即视为正确匹配。
进一步的,步骤3中所述的误匹配的消除和确定3D空间点具体包括以下步骤:
步骤3.1:对步骤2.3得到的匹配点对应用RANSAC算法,消除误匹配,得到环形匹配点集:
步骤3.2:对步骤3.1得到的点集C进一步挑选出C中寿命大于3且处于图像中间40×40网格内的匹配点,形成新的点集C';
步骤3.3:在匹配点集C'中,选取当前帧的n对左右匹配点采用三角测量法计算得到n个空间3D点Pk,k=1,2,3…n;
进一步的,所述步骤4具体包括如下步骤:
根据步骤3.3得到的空间3D点集Pk=[Xk,Yk,Zk]T,将其投影到下一帧图像中,得到图像中的投影点集与投影点集与空间3D点集Pk的对应关系;
计算图像中投影点集与匹配点集的重投影误差:
其中,Pi,j表示由当前帧图像中特征点确定的与下一帧图像之间的3D空间点;为图像中的匹配点集,d=(l,r),k=1,2,3…n;
求解使重投影误差最小时的R、t,再根据所述投影点集与空间3D点集Pk的对应关系计算R、t最优时候的投影点集
进一步的,所述投影点集与空间3D点集Pk在相机图像中的对应关系为:
其中,K为相机内参矩阵,f为相机焦距,(cu,cv)为相机光学投影中心坐标,R为相机由当前帧到下一帧的旋转矩阵,t为相机由当前帧到下一帧的平移向量。
进一步的,所述求解使重投影误差最小时的R、t采用列文伯格-马夸尔特方法。
进一步的,所述步骤5具体包括如下步骤:
在下一帧图像中,由最优投影点集重新确定3D空间点Q=[X's,Y's,Z's]T,s=1,2,3…n,并将其投影到当前一帧中,计算当前帧中投影点与观测点的重投影误差,求解最小重投影误差
其中,Qj,i表示由下一帧图像中投影点确定的与当前帧图像之间的3D空间点Q;
得到由下一帧图像到当前帧图像之间的旋转矩阵和平移向量则当前帧图像到下一帧图像之间的旋转矩阵R和平移向量t为:
进一步的,所述求解最小重投影误差是采用列文伯格-马夸尔特方法。
有益效果:在特征提取与匹配中,选取了可靠性更高的特征点,提高了视觉里程计的精度;针对运动估计过程中3D点的漂移以及带来的累积性误差问题,本发明采取二次投影的方法,抑制了3D点漂移,提高了精度。
附图说明
图1是本发明的方法流程图。
图2是环形匹配的示意图。
图3是首次投影示意图。
图4是二次投影示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,结合附图,对本发明进一步详细说明。
图1是本发明的方法流程图。如图1所示,本发明提出的双目视觉里程计实现方法包括以下步骤:
步骤1:采用KITTI数据集(KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。),对其中的图像进行特征点提取,并记录特征点的寿命;
步骤2:采用环形匹配方法进行连续两帧图像间特征点匹配;
步骤3:利用RANSAC算法对步骤2的匹配进行误匹配消除,进而在当前帧中根据三角测量确定3D空间点P;
其中I表示图像,i表示当前帧的编号,l,r分别表示当前帧的左右图像
步骤4:采用PnP(Perspective-n-Point)和RANSAC(Random Sample Consensus)算法,将步骤3得到的3D空间点P投影到下一帧图像计算最小化重投影误差,进而可以得到最优的投影点
步骤5:采用二次投影方法求取更精确的位姿状态,根据步骤4得到的投影点在下一帧图像中运用三角测量重新确定3D空间点Q,将Q投影到当前帧重新计算最小化重投影误差,进而可以得到两帧图像之间的旋转矩阵R和平移向量t;
相比于SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up RobustFeatures)、Harris等方法,ORB(Oriented FAST and Rotated BRIEF)算法的精度较高,而且速度较快,能满足实时的要求,因此本发明的特征点提取是基于ORB算法的,其具体步骤如下:
步骤1.1:采用ORB算法的OrientFAST(Orient Features From AcceleratedSegment Test)算子提取特征点,并记录特征点的寿命,即特征点在图像帧间出现的次数,含有该特征点的帧数越多,该特征点的可靠性越大,当前后两帧中该特征点所处位置的距离小于1个像素时,寿命加1;
步骤1.2:采取网格法,将图像分成50×50的网格,对每个网格点内的特征点,按寿命大小进行排序,每个网格只保留前5个特征点;
步骤1.3:计算每个特征点的BRIEF(Binary Robust Independent ElementaryFeatures)描述子(对特征点进行描述而建立的特征描述符),但当该特征点的寿命大于1时,使用该特征点首次出现时的BRIEF描述子;
图2是环形匹配示意图,匹配的步骤如下:
步骤2.1:利用极线约束,对当前帧和下一帧图像的特征点进行左右图像匹配,得到左右匹配点对
步骤2.2:利用直接法和最近邻方法,求取最小汉明距离,对当前帧和下一帧图像的特征点进行前后帧间匹配,得到匹配点对
步骤2.3:当步骤2.1和步骤2.2得到的匹配点能够形成完整的环形时,即视为正确匹配;
误匹配的消除和空间3D点的确定包括以下步骤:
步骤3.1:对步骤2.3得到的匹配点对应用RANSAC算法,消除误匹配,得到环形匹配点集:
步骤3.2:对步骤3.1得到的点集C进一步处理,挑选出C中寿命大于3且处于图像中间40×40网格内的匹配点,形成新的点集C';
步骤3.3:在匹配点集C'中,选取当前帧的n对左右匹配点采用三角测量法,可以计算得到n个空间3D点Pk,k=1,2,3…n;
图3是获得重投影误差的示意图,重投影误差由如下方法获得:
根据步骤3.3得到的空间3D点集Pk=[Xk,Yk,Zk]T,将其投影到下一帧图像中,得到图像中的投影点集投影点集与空间3D点集Pk的对应关系为:
其中,K为相机内参矩阵,f为相机焦距,(cu,cv)为相机光学投影中心坐标,R为相机由当前帧到下一帧的旋转矩阵,t为相机由当前帧到下一帧的平移向量;
由步骤2.2可得,图像中的匹配点集为d=(l,r),k=1,2,3…n;则图像中投影点集与匹配点集的重投影误差为:
其中,Pi,j表示由当前帧图像中特征点确定的与下一帧图像之间的3D空间点;
由于相机的内参已知,所以重投影误差D(Pi,j)中只有外参R、t为未知量,利用列文伯格-马夸尔特方法,可以求解使重投影误差最小时的R、t,再由上述投影点集与空间3D点集Pk的对应关系可以求得R、t最优时候的投影点集
图4是二次投影的示意图,二次重投影的具体处理方法如下:
在下一帧图像中,根据三角测量,由最优投影点集重新确定3D空间点Q=[X's,Y's,Z's]T,s=1,2,3…n,并将其投影到当前一帧中,计算当前帧中投影点与观测点的重投影误差,利用列文伯格-马夸尔特方法求解最小重投影误差
其中,Qj,i表示由下一帧图像中投影点确定的与当前帧图像之间的3D空间点Q;
可以解得由下一帧图像到当前帧图像之间的旋转矩阵和平移向量则当前帧图像到下一帧图像之间的旋转矩阵R和平移向量t可以由下式求得:
至此,完成双目视觉的位姿估计全过程。

Claims (10)

1.一种基于二次投影的双目视觉里程计算方法,其特征在于,包括以下步骤:
步骤1:采用KITTI数据集,对其中的图像进行特征点提取,并记录特征点的寿命;
步骤2:采用环形匹配方法进行连续两帧图像间特征点匹配;
步骤3:利用RANSAC算法对步骤2的匹配进行误匹配消除,进而在当前帧中根据三角测量确定3D空间点P;
其中I表示图像,i表示当前帧的编号,l,r分别表示当前帧的左右图像;
步骤4:采用PnP和RANSAC算法,将步骤3得到的3D空间点P投影到下一帧图像计算最小化重投影误差,进而可以得到最优的投影点
步骤5:采用二次投影方法求取更精确的位姿状态,根据步骤4得到的投影点在下一帧图像中运用三角测量重新确定3D空间点Q,将Q投影到当前帧重新计算最小化重投影误差,进而可以得到两帧图像之间的旋转矩阵R和平移向量t。
2.根据权利要求1所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,步骤1中所述的特征点提取具体包括如下步骤:
步骤1.1:采用ORB算法的OrientFAST算子提取特征点,并记录特征点的寿命,当前后两帧中该特征点所处位置的距离小于1个像素时,寿命加1;
步骤1.2:采取网格法,将图像分成10n×10n的网格,对每个网格点内的特征点,按寿命大小进行排序,每个网格只保留前n个特征点;
步骤1.3:计算每个特征点的BRIEF描述子,但当该特征点的寿命大于1时,使用该特征点首次出现时的BRIEF描述子。
3.根据权利要求2所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,步骤1.2中所述网格法具体是将图像分成50×50的网格,对每个网格点内的特征点,按寿命大小进行排序,每个网格只保留前5个特征点。
4.根据权利要求3所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,步骤2中所述的特征点匹配具体包括如下步骤:
步骤2.1:利用极线约束,对当前帧和下一帧图像的特征点进行左右图像匹配,得到左右匹配点对
步骤2.2:利用直接法和最近邻方法,求取最小汉明距离,对当前帧和下一帧图像的特征点进行前后帧间匹配,得到匹配点对
步骤2.3:当步骤2.1和步骤2.2得到的匹配点能够形成完整的环形时,即视为正确匹配。
5.根据权利要求4所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,步骤3中所述的误匹配的消除和确定3D空间点具体包括以下步骤:
步骤3.1:对步骤2.3得到的匹配点对应用RANSAC算法,消除误匹配,得到环形匹配点集:
步骤3.2:对步骤3.1得到的点集C进一步挑选出C中寿命大于3且处于图像中间40×40网格内的匹配点,形成新的点集C';
步骤3.3:在匹配点集C'中,选取当前帧的n对左右匹配点采用三角测量法计算得到n个空间3D点Pk,k=1,2,3…n。
6.根据权利要求5所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,所述步骤4具体包括如下步骤:
根据步骤3.3得到的空间3D点集Pk=[Xk,Yk,Zk]T,将其投影到下一帧图像中,得到图像中的投影点集与投影点集与空间3D点集Pk的对应关系;
计算图像中投影点集与匹配点集的重投影误差:
其中,Pi,j表示由当前帧图像中特征点确定的与下一帧图像之间的3D 空间点;为图像中的匹配点集,d=(l,r),k=1,2,3…n;
求解使重投影误差最小时的R、t,再根据所述投影点集与空间3D点集Pk的对应关系计算R、t最优时候的投影点集
7.根据权利要求6所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,所述投影点集与空间3D点集Pk的在相机图像中的对应关系为:
其中,K为相机内参矩阵,f为相机焦距,(cu,cv)为相机光学投影中心坐标,R为相机由当前帧到下一帧的旋转矩阵,t为相机由当前帧到下一帧的平移向量。
8.根据权利要求6所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,所述求解使重投影误差最小时的R、t采用列文伯格-马夸尔特方法。
9.根据权利要求6所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,所述步骤5具体包括如下步骤:
在下一帧图像中,由最优投影点集重新确定3D空间点Q=[X′s,Y′s,Z′s]T,s=1,2,3…n,并将其投影到当前一帧中,计算当前帧中投影点与观测点的重投影误差,求解最小重投影误差
其中,Qj,i表示由下一帧图像中投影点确定的与当前帧图像之间的3D空间点Q;
得到由下一帧图像到当前帧图像之间的旋转矩阵和平移向量则当前帧图像到下一帧图像之间的旋转矩阵R和平移向量t为:
10.根据权利要求9所述的一种基于二次投影的双目视觉里程计算方法,其特征在于,所述求解最小重投影误差是采用列文伯格-马夸尔特方法。
CN201810253281.XA 2018-03-26 2018-03-26 一种基于二次投影的双目视觉里程计算方法 Active CN108519102B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810253281.XA CN108519102B (zh) 2018-03-26 2018-03-26 一种基于二次投影的双目视觉里程计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810253281.XA CN108519102B (zh) 2018-03-26 2018-03-26 一种基于二次投影的双目视觉里程计算方法

Publications (2)

Publication Number Publication Date
CN108519102A true CN108519102A (zh) 2018-09-11
CN108519102B CN108519102B (zh) 2021-06-01

Family

ID=63434011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810253281.XA Active CN108519102B (zh) 2018-03-26 2018-03-26 一种基于二次投影的双目视觉里程计算方法

Country Status (1)

Country Link
CN (1) CN108519102B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109579844A (zh) * 2018-12-04 2019-04-05 电子科技大学 定位方法及系统
CN110136114A (zh) * 2019-05-15 2019-08-16 厦门理工学院 一种波面高度测量方法、终端设备及存储介质
CN110335308A (zh) * 2019-06-28 2019-10-15 中国科学院自动化研究所 基于视差约束与双向环形检验的双目视觉里程计计算方法
CN110570453A (zh) * 2019-07-10 2019-12-13 哈尔滨工程大学 一种基于双目视觉的闭环式跟踪特征的视觉里程计方法
CN110766024A (zh) * 2019-10-08 2020-02-07 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN112115980A (zh) * 2020-08-25 2020-12-22 西北工业大学 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法
CN113674340A (zh) * 2021-07-05 2021-11-19 北京物资学院 一种基于路标点的双目视觉导航方法与装置
CN115451996A (zh) * 2022-08-30 2022-12-09 华南理工大学 一种面向室内环境的单应视觉里程计方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310464A (zh) * 2013-06-26 2013-09-18 北京航空航天大学 一种基于法向流的直接估算相机自运动参数的方法
US20140105486A1 (en) * 2011-05-30 2014-04-17 Commissariat A L'energie Atomique Et Aux Energies Alternatives Method for locating a camera and for 3d reconstruction in a partially known environment
CN104766309A (zh) * 2015-03-19 2015-07-08 江苏国典艺术品保真科技有限公司 一种平面特征点导航定位方法与装置
CN105300403A (zh) * 2015-09-22 2016-02-03 清华大学 一种基于双目视觉的车辆里程计算法
CN106556412A (zh) * 2016-11-01 2017-04-05 哈尔滨工程大学 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140105486A1 (en) * 2011-05-30 2014-04-17 Commissariat A L'energie Atomique Et Aux Energies Alternatives Method for locating a camera and for 3d reconstruction in a partially known environment
CN103310464A (zh) * 2013-06-26 2013-09-18 北京航空航天大学 一种基于法向流的直接估算相机自运动参数的方法
CN104766309A (zh) * 2015-03-19 2015-07-08 江苏国典艺术品保真科技有限公司 一种平面特征点导航定位方法与装置
CN105300403A (zh) * 2015-09-22 2016-02-03 清华大学 一种基于双目视觉的车辆里程计算法
CN106556412A (zh) * 2016-11-01 2017-04-05 哈尔滨工程大学 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
程传奇等: "结合光流跟踪和三焦点张量约束的双目视觉里程计", 《中国惯性技术学报》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109579844A (zh) * 2018-12-04 2019-04-05 电子科技大学 定位方法及系统
CN109579844B (zh) * 2018-12-04 2023-11-21 电子科技大学 定位方法及系统
CN110136114A (zh) * 2019-05-15 2019-08-16 厦门理工学院 一种波面高度测量方法、终端设备及存储介质
CN110136114B (zh) * 2019-05-15 2021-03-02 厦门理工学院 一种波面高度测量方法、终端设备及存储介质
CN110335308A (zh) * 2019-06-28 2019-10-15 中国科学院自动化研究所 基于视差约束与双向环形检验的双目视觉里程计计算方法
CN110335308B (zh) * 2019-06-28 2021-07-30 中国科学院自动化研究所 基于视差约束与双向环形检验的双目视觉里程计计算方法
CN110570453A (zh) * 2019-07-10 2019-12-13 哈尔滨工程大学 一种基于双目视觉的闭环式跟踪特征的视觉里程计方法
CN110766024A (zh) * 2019-10-08 2020-02-07 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN112115980A (zh) * 2020-08-25 2020-12-22 西北工业大学 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法
CN113674340A (zh) * 2021-07-05 2021-11-19 北京物资学院 一种基于路标点的双目视觉导航方法与装置
CN115451996A (zh) * 2022-08-30 2022-12-09 华南理工大学 一种面向室内环境的单应视觉里程计方法
CN115451996B (zh) * 2022-08-30 2024-03-29 华南理工大学 一种面向室内环境的单应视觉里程计方法

Also Published As

Publication number Publication date
CN108519102B (zh) 2021-06-01

Similar Documents

Publication Publication Date Title
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN108519102A (zh) 一种基于二次投影的双目视觉里程计算方法
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
Cvišić et al. Stereo odometry based on careful feature selection and tracking
CN108955718B (zh) 一种视觉里程计及其定位方法、机器人以及存储介质
CN106920259B (zh) 一种定位方法及系统
Forster et al. SVO: Fast semi-direct monocular visual odometry
Veľas et al. Calibration of rgb camera with velodyne lidar
CN111445526B (zh) 一种图像帧之间位姿的估计方法、估计装置和存储介质
Herrera et al. Dt-slam: Deferred triangulation for robust slam
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN111141264B (zh) 一种基于无人机的城市三维测绘方法和系统
CN112902953A (zh) 一种基于slam技术的自主位姿测量方法
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位系统及方法
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
Liu et al. Direct visual odometry for a fisheye-stereo camera
JP2015521419A (ja) コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム
Meilland et al. Dense visual mapping of large scale environments for real-time localisation
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
Prasad et al. Sfmlearner++: Learning monocular depth & ego-motion using meaningful geometric constraints
CN109902675B (zh) 物体的位姿获取方法、场景重构的方法和装置
Huang et al. 360vo: Visual odometry using a single 360 camera
Tang et al. Fmd stereo slam: Fusing mvg and direct formulation towards accurate and fast stereo slam
CN117456114B (zh) 基于多视图的三维图像重建方法及系统
CN114882106A (zh) 位姿确定方法和装置、设备、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant