CN109166149B - 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 - Google Patents

一种融合双目相机与imu的定位与三维线框结构重建方法与系统 Download PDF

Info

Publication number
CN109166149B
CN109166149B CN201810917346.6A CN201810917346A CN109166149B CN 109166149 B CN109166149 B CN 109166149B CN 201810917346 A CN201810917346 A CN 201810917346A CN 109166149 B CN109166149 B CN 109166149B
Authority
CN
China
Prior art keywords
line segments
frame
matching
dimensional
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810917346.6A
Other languages
English (en)
Other versions
CN109166149A (zh
Inventor
王星博
石瑞星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201810917346.6A priority Critical patent/CN109166149B/zh
Publication of CN109166149A publication Critical patent/CN109166149A/zh
Application granted granted Critical
Publication of CN109166149B publication Critical patent/CN109166149B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种融合双目相机与IMU的定位与三维线框结构重建的方法与系统。本发明在双目视觉基础上,利用分治的策略初始化并融合惯性测量信息,实施跟踪定位与建图,可以稳健地在室内室外等环境以及复杂的运动条件下运行。在精确定位的基础上,基于关键帧优化后的位姿进行三维线框的重建与迭代优化。通过局部特征与空间几何约束匹配直线段并反投影到三维空间中。通过角度与距离约束,将直线段分成不同的集合。基于分组的结果,确定拟合区域并合并直线段。最终输出三维线框结构。本发明在传统的基于视觉的定位与建图的方法上,融合多源信息提高系统的稳定性与鲁棒性。同时在关键帧处,加入线信息,稀疏表达了三维环境的结构特征,提高了计算效率。

Description

一种融合双目相机与IMU的定位与三维线框结构重建方法与 系统
技术领域
本发明属于是计算机视觉领域,特别是涉及一种融合双目相机与IMU的定位与三维线框结构重建的方法与系统。
背景技术
基于视觉的同时定位与建图是计算机视觉领域的重要研究课题。它是指运载体搭载特定的视觉传感器,在没有先验环境信息情况下,对周围环境进行感知与描述,同时估计自己的运动。完整的视觉定位建图系统可以分为五个部分:传感器数据的获取、前端视觉里程计、后端非线性优化、回环检测以及建图。与其它的测量方法相比较,视觉测量的方法具有精度高、效率高、成本低廉、系统结构简单等优势,被广泛地应用于机器人导航、无人驾驶、三维测量、增强现实以及虚拟现实等方面。根据采用的视觉传感器的类型,可以将基于视觉的定位与建图系统分为三种类型:基于单目相机的系统、基于双目相机的系统以及结合单目相机与红外传感器的系统。
基于单目的视觉测量系统无法直接得到可靠的深度信息,初始化和重建的难度大,具有尺度的不确定性。基于深度相机的视觉测量系统成本较高,体积大,有效测量范围有限,限制了应用场景。而基于双目的视觉测量系统,在一次拍摄过程中,通过视差得到环境立体信息,精度比单目高。
根据算法处理图像信息方式的不同,可以分为基于特征的方法以及直接法。直接法操作的对象是图像的像素点,直接利用图像所有的信息。但是这种方法在优化时会受到图像梯度影响,同时在外界光照条件发生变化、相机发生大尺度移动、旋转无法进行跟踪。而特征法通过提取、匹配特征点,计算相机位姿并对环境建图,在保存图像重要信息的同时,有效地减少了计算量,从而被广泛地使用。早期的单目视觉定位建图系统通过滤波的方法实现,利用概率密度函数表示不确定性,并利用观测模型和递归运算,更新存储在状态变量中的相机位姿与地图点。但是此系统的精度不够高。之后,基于关键帧的单目定位建图系统开始流行,并以此进行了一系列优化策略,进一步提高准确性与实时性。后来,为了构建稠密的三维地图,出现了基于直接法的视觉测量系统。
随着科技发展,人们对于环境感知与定位建图的性能提出了更高的要求。一方面,基于特征点的稀疏地图的构建,丢失了环境中的关键结构信息,无法形成对环境进行有效的描述。稠密的地图的构建则需要处理数量庞大的点云数据,计算代价高。另一方面,仅仅依靠单一的视觉传感器无法满足某些复杂场景下(比如,光照变化、遮挡、高光、重复纹理以及独立运动物体等)系统对于鲁棒性与稳定性的要求。目前还没有能够在复杂环境中,高效率、高精度地重建环境结构信息的系统。因此,本发明融合视觉传感器和惯性测量单元,提高定位与建图的鲁棒性,提取并处理线结构特征,对周围三维环境的结构进行感知与重建,为实际工程应用设计了一套更加稳定、精确、廉价的自动化解决方案与系统。
发明内容
本发明针对现有技术的不足,提供一种融合双目相机与IMU的定位与三维线框结构重建方法与系统,本发明对于数据采集没有特殊的要求,可以是手持、车载等方式;在数据采集的同时,即可形成线框结构的重建与优化,保证了全局结构的一致性和连续性;抗干扰能力强,可以在复杂运动条件下稳定运行;不受应用场景的限制,可以在室内与室外运行。
为了达到上述目的,本发明提供的技术方案是:一种融合双目相机与IMU的定位与三维线框结构重建系统,包括如下模块:
数据采集模块,分别对双目相机拍摄的低频的图像流以及惯性测量单元中加速计与陀螺仪采集的高频的数据进行读取与预处理;
特征提取与匹配模块,通过左右目图像特征点的提取与匹配,计算视差,恢复点在相机坐标系下的三维位置;提取图像流中关键帧以及关键帧中的直线段特征,而后基于局部特征描述子和外观、几何特征进行匹配,分别计算直线段两个端点的视差,从而恢复线在相机坐标系下的三维位置;
跟踪模块,联合视觉特征点和惯性信息估计相邻图像之间的相对运动,从而确定图像帧位姿,并将特征提取与匹配模块得到的三维点与线统一到世界坐标系下,描述局部地图;
优化模块,对跟踪模块得到的位姿与三维空间位置以及惯性测量值进行优化,计算全局一致的精确的运动轨迹与地图;同时在运载体运动的同时,对当前运动场景进行识别,判断是否与之前到访的地点形成回环,形成空间上几何强约束;
线框重建与优化模块,基于优化后的结果,将二维图像中匹配的线特征,反投影到三维空间中,并依据距离与方向阈值对空间中线段进行分组拟合,通过迭代求解,最后形成全局一致的结构描述。
本发明还提供一种融合双目相机与IMU的定位与三维线框结构重建方法,包括如下步骤:
步骤1,读取惯性测量信息流和双目视频流数据,并根据相机的参数,对图像进行几何校正,消除左右视图的畸变,使得行对准;同时在时间维度上对齐读入的惯性测量数据与双目图像数据;
步骤2,在纯双目视觉模式下运行,提取特征点和关键帧中的LSD特征线段,进行左右目图像特征匹配,并基于关键帧进行跟踪定位与建图;
步骤3,利用步骤2中估计的关键帧的位置与姿态,初始化惯性测量单元;
步骤4,完成步骤3的IMU初始化以后,重新进行特征提取与图像匹配,而后联合双目视觉与惯性测量单元进行跟踪定位与建图;
步骤5,根据步骤4中的关键帧的位姿,更新步骤2中特征线段端点的坐标,得到初始的三维线框的位置;然后,遍历三维线框中的所有线段,计算线段间距离和夹角,与角度阈值和距离阈值相比较,判断线段是否表示同一条边,将同一边的线段聚为一个组,得到不同的线段的组;
步骤6,遍历步骤5得到的线段的组的集合,分别使用各组内包含的所有线段拟合出各组所对应的边;
步骤7,所有组的线段拟合完成后,统计拟合结果数量N2,设定拟合阈值Ndelta,若|N-N2|<Ndelta(N为线段总数),则说明所有线段拟合完毕,不存在表示同一条边的线段组合;若|N-N2|≥Ndelta,N=N2,返回步骤5中重新计算线段间的距离;
步骤8,输出三维线框结构。
进一步的,步骤2的具体实现方式如下,
步骤2.1,提取并匹配所有左右目图像帧的ORB特征点以及关键帧的左右目图像的LSD特征线段,通过特征点计算视差,并恢复特征点与LSD特征线段在相机坐标系下的三维空间位置;
步骤2.2,进行视觉跟踪定位,通过ORB-SLAM2跟踪线程,计算双目相机相邻帧之间的位姿变化以及特征点和特征线段在世界坐标系下的三维坐标;
步骤2.3,在跟踪线程后,将关键帧插入队列,更新关键帧之间的共视关系,剔除质量不好的地图点,对步骤2.1中反投影到空间中的地图点进行融合,构造g2o优化器,进一步优化共视关键帧的位姿,剔除冗余的关键帧并判断是否加入新的关键帧;
步骤2.4,利用DBoW2库进行回环检测、回环验证以及回环校正;
步骤2.5,固定优化的回环帧、当前关键帧及两者邻域内的帧,优化剩余帧的位姿;
步骤2.6,根据优化后的关键帧的位姿和针孔相机投影模型,计算特征点与特征线段在世界坐标系下的三维坐标。
进一步的,步骤2.1的具体实现方式如下,
步骤2.1.1,创建点特征提取匹配线程与线特征提取匹配线程;
步骤2.1.2,在点特征提取线程中,将读入的双目图像转换为灰度图像,分别提取左右目图像的ORB特征点;
步骤2.1.3,以左图为基准,在右图相对应基线上下δ//行的宽度范围内寻找最佳匹配点,并变换到尺度对应层,根据SAD(Sum of absolute differences)算法,评估左图模板T(M×N)与右搜索图S(m×n)的相似度D(i,j):
Figure GDA0002922242360000041
其中,1≤i≤m-M+1,1≤j≤n-N+1;计算搜索范围内的最高相似度D对应的像素块位置及其匹配相似度,并结合此像素块左右邻域距离为1的像素块及其匹配相似度,利用抛物线拟合得到亚像素级的最佳匹配块位置;
步骤2.1.4,计算左图像特征点和步骤2.1.3得到的对应的右图像的最佳匹配块位置的差异d=UL-UR,其中UL表示特征点在左图像的位置,UR表示最佳匹配块在右图像的位置;根据针孔相机投影模型,先计算特征点深度
Figure GDA0002922242360000042
其中f为焦距,b为左右目相机的基线长度,然后计算特征点X,Y坐标,得到当前相机坐标系下位置(X,Y,Z);
步骤2.1.5,利用开源代码框架ORB-SLAM模块,提取视频中关键帧,此时进入线特征提取与匹配线程,在关键帧处,利用LSD算法提取图像的线段特征;
步骤2.1.6,构建线段的LBD局部特征描述子,并计算线段的一元几何属性与局部外观(LBD)相似度,通过阈值筛选,得到候选匹配组;
步骤2.1.7,对于候选匹配组,首先进行线段二维投影长度值L2d和三维空间长度值L3d的筛选,在此基础上,基于LBD局部特征描述子进行强约束:为了减少误匹配线对,只考虑左右图像中某两条线段都互为对方最佳匹配的情况;为了进一步加强匹配的有效性,对最佳匹配的距离设置阈值,每两对最相近的匹配组合间的距离应该小于其中最佳匹配的距离的2倍;
步骤2.1.8,在对LBD描述子之间距离计算与匹配之后,通过直线段相对角度、投影比率、交点比率端点最小最大视差比率进行局部外观统计量的二次筛选;
步骤2.1.9,二次筛选后,将线段的两个端点反投影到三维空间中,并除去平行于基线的向量以及视场之外、深度超过最大深度阈值的离群向量。
进一步的,步骤2.2的具体实现方式如下,
步骤2.2.1,首先按照恒速运动假设,估计当前帧的相机位姿,搜索当前帧中观测到的前一帧的地图点,根据上一帧特征点对应的投影点的位置,缩小特征匹配的范围,得到匹配点对组,根据匹配结果,构造g2o优化器,最小化重投影误差e,优化位姿:
e=(u,v)-Proj(Tcw×Pw)
其中,(u,v)表示特征点在待匹配二维图像上的位置,Tcw表示当前帧的位姿,Pw表示特征点的三维空间中的世界坐标;
步骤2.2.2,如果恒速运动模型失败,则使用跟踪参考帧的模型,将上一帧的位姿作为当前帧的初始位姿,通过词袋BoW在参考帧中搜索当前帧特征点的匹配点,构造g2o优化器,优化位姿;
步骤2.2.3,如果跟踪参考帧的模型失败了,则使用重定位模型,计算BoW向量,找到与当前帧相似的候选关键帧,根据ORB匹配点,计算关键帧所对应的地图点,然后通过EPnP算法估计姿态,构造g2o优化器,优化位姿。
进一步的,步骤3中初始化惯性测量单元的具体实现方式如下,
首先利用预积分模型表示惯性测量单元Δti,i+1时间内两连续关键帧i,i+1之间运动:
Figure GDA0002922242360000051
Figure GDA0002922242360000052
Figure GDA0002922242360000053
其中,W为世界坐标系,B为惯性测量坐标系,ab为加速度,ωB为角速度,gw为重力加速度,ba为加速度偏差,bg为陀螺仪偏差,RWB为B位置对应于W的姿态矩阵,vWB为B对应于W中的速度,pWB为B对应于W中的位置,ΔRi,i+1表示陀螺仪测量的i到i+1关键帧时间内的姿态变化量,
Figure GDA0002922242360000054
雅克比矩阵表示(·)关于bg、ba一阶变化估计;然后利用分治的策略,分别对陀螺仪偏差、重力加速度、加速度偏差进行估计与优化,最后计算帧间的速度;具体包括以下子步骤:
步骤3.1,陀螺仪偏差可以从两连续的相邻的关键帧i,i+1之间的相对方向估计,系统优化一个陀螺仪偏差bg使得双目视觉估计N个连续关键帧之间的相对方向与陀螺仪积分所得到的相对方向的差值最小化,
Figure GDA0002922242360000055
步骤3.2,重力估计,忽略此时刻的加速度的偏移,得到Δt时间内连续两关键帧相对关系:
Figure GDA0002922242360000061
其中,C表示相机坐标系,
Figure GDA0002922242360000062
RCB可以通过校正文件获得,而后解得gw值记为
Figure GDA0002922242360000063
步骤3.3,加速度偏差估计,惯性系统参考系I中重力方向向量为
Figure GDA0002922242360000064
和已经计算得到的重力方向
Figure GDA0002922242360000065
可以计算旋转矩阵RWI
Figure GDA0002922242360000066
Figure GDA0002922242360000067
重力加速度
Figure GDA0002922242360000068
其中G表示的是当地重力大小,得到:
Figure GDA0002922242360000069
其中,绕Z轴旋转的扰动项δθ=[δθxy 0]T
Figure GDA00029222423600000610
Figure GDA00029222423600000611
Figure GDA00029222423600000612
Figure GDA00029222423600000613
从而解得重力方向修正值δθxy,加速度偏差ba
步骤3.4,根据连续三个关键帧i,i+1,i+2的关系式以及计算得到的bg,ba,δθxy,代入预积分模型,估计速度vWB
进一步的,步骤4的具体实现方式如下,
步骤4.1,将步骤2的视觉跟踪定位中子步骤2.2.1的恒速模型替换为惯性测量单元预积分得到的速度值vWB,其余跟踪模型保持不变;
步骤4.2,跟踪得到相机位姿后,局部地图中的三维点被投影到像面,与帧中提取的关键点进行匹配,通过最小化匹配点的重投影误差与惯性测量误差来优化当前帧;
步骤4.2.1,地图尚未更新阶段,系统通过上一关键帧i的参数以及当前地图点的重投影参数对当前帧j进行估计:
Figure GDA0002922242360000071
Figure GDA0002922242360000072
其中,k为给定的匹配结果,Eproj(k,j)为当前帧左图像特征点的重投影误差,EIMU(i,j)为IMU在帧i,j之间的测量误差;通过将g2o牛顿法得到优化的结果作为下次优化的先验值Eprior(j);
步骤4.2.2,在步骤4.2.1基础上,加入Eproj(j),θ*=argminθ(∑kEproj(k,j+1)+EIMU(j,j+1)+Eprior(j)),将帧j和帧j+1进行联合优化,优化以后,帧j被边缘化处理,不再参与后续的跟踪优化中,而帧j+1的值将作为下次优化的初始值,如此循环往复直到地图被更新为止(检测到闭环或者开始局部建图);
步骤4.3,在视觉局部建图的基础上,控制关键帧之间的时间间隔,固定当前共视区域外的关键帧,计算当前N个关键帧所观测的局部地图中的地图点的重投影误差;N+1关键帧将约束之前N个关键帧的惯性测量值,最后通过光束法平差优化惯性测量误差与重投影误差的和,估计N个关键帧的位姿以及惯性测量值;
步骤4.4,利用DBoW2库进行回环检测、回环验证以及根据重投影误差值进行回环校正;
步骤4.5,计算全局(所有帧)的重投影误差与惯性测量误差,并构造g2o,进行全局的位姿优化以及三维位置的优化。
进一步的,步骤5中得到不同的线段的组的具体实现方式如下,
步骤5.1,遍历所有线段(i=1,j=1),计算线段间距离,通过距离阈值Td约束,分为以下子步骤:
步骤5.1.1,若i≤N(线段总数)时,计算第i条线段所在直线与第j条线段的两个端点的距离之和D:
Figure GDA0002922242360000073
Figure GDA0002922242360000074
Figure GDA0002922242360000075
D=d1+d2
其中Pisx、Pisy、Pisz和Piex、Piey、Piez代表第i条线段的起点和终点的坐标,Pjsx、Pjsy、Pjsz和Pjex、Pjey、Pjez代表第j条线段的起点和终点的坐标,
Figure GDA0002922242360000081
代表第i条线段的向量,d1、d2分别为第j条线段的起点和终点到第i条线段所在直线距离;若i>N,则进入步骤6;
步骤5.1.2,比较D和距离阈值Td,小于Td则进行下一步骤;大于Td则j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1;
步骤5.2,计算线段间夹角,通过夹角阈值Tα约束,分为以下子步骤:
步骤5.2.1,计算第i条线段所在直线与第j条线段的夹角:
Figure GDA0002922242360000082
Figure GDA0002922242360000083
其中
Figure GDA0002922242360000084
代表第j条线段的向量,cos-1代表反余弦函数;
步骤5.2.2,比较α和夹角阈值Tα,小于Tα则进行下一步骤;大于Tα则j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1;
步骤5.3,线段i,j通过距离阈值和夹角阈值约束,将第j条线段与第i条线段归为一组,j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1。
进一步的,步骤6的具体实现包括如下步骤,
步骤6.1,获取每个组内所有线段的端点,基于M估计(M-estimators)的方法进行直线迭代加权拟合,分为以下几个子步骤:
步骤6.1.1,选取Huber’s M-estimators,对应的ρ函数为:
Figure GDA0002922242360000085
其中,r表示自变量;
步骤6.1.2,使用选取的ρ函数,构造参数求解模型F:
Figure GDA0002922242360000086
其中n为每组线段的总数,ρ为选择的Distance function,ai、L为观测值,X为直线方程中的未知量,空间直线可以表示为:
Figure GDA0002922242360000087
待求参数为X0、Y0、Z0、m、n,观测值(每条线段的端点坐标)为X、Y、Z
将空间直线转化为矩阵形式可得:
Figure GDA0002922242360000091
带入上面的求解模型:
Figure GDA0002922242360000092
n条线段得到2n个M-估计方程,通过模型残差倒数加权最小二乘迭代拟合求解(X0,Y0,Z0),(m,n,1);
步骤6.1.3,解得直线通过的三维点坐标P:(X0,Y0,Z0)以及直线的方向向量ldirection:(m,n,1);
步骤6.2,在步骤6.1将同组线段进行直线拟合,确定直线的范围,得到表示边的线段,分为以下子步骤:
步骤6.2.1,遍历同组内所有线段的端点,找到距离最远的两个点P1、P2;
步骤6.2.2,根据拟合直线的方向向量ldirection,提取P1、P2对应方向向量主方向(绝对值最大的)的值,带入直线方程中,解得表示边框线段的两个端点,从而确定线段的空间位置。
本发明在双目视觉基础上,利用分治的策略初始化并融合惯性测量信息,实施跟踪定位与建图,可以稳健地在室内室外等环境以及复杂的运动条件下运行。在精确定位的基础上,本发明基于关键帧优化后的位姿进行三维线框的重建与迭代优化。通过局部特征与空间几何约束匹配直线段并反投影到三维空间中。通过角度与距离约束,将直线段分成不同的集合。基于分组的结果,确定拟合区域并合并直线段。最终输出三维线框结构。本发明在传统的基于视觉的定位与建图的方法上,融合多源信息提高系统的稳定性与鲁棒性。同时在关键帧处,加入线信息,稀疏表达了三维环境的结构特征,同时提高了计算效率。
附图说明
图1为本发明实施例的具体流程框图。
图2为本发明实施例中实验数据集部分场景(图2(a)),以及视觉跟踪定位结果图(图2(b)和(c))。
图3为本发明实施例最终得到的优化的轨迹位置数据平面投影结果(图3(a)和(b))、三维结构的平面投影图(图3(c)和(d))以及重建的三维线框的三维视图(图3(e)—(g))。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
本发明实施例提供的一种融合双目相机与IMU的定位与三维线框结构重建系统,包括如下模块:
数据采集模块,分别对双目相机拍摄的低频的图像流以及惯性测量单元中加速计与陀螺仪采集的高频的数据进行读取与预处理;
特征提取与匹配模块,通过左右目图像特征点的提取与匹配,计算视差,恢复点在相机坐标系下的三维位置;提取图像流中关键帧以及关键帧中的直线段特征,而后基于局部特征描述子和外观、几何特征进行匹配,分别计算直线段两个端点的视差,从而恢复线在相机坐标系下的三维位置。
跟踪模块,联合视觉特征点和惯性信息估计相邻图像之间的相对运动,从而确定图像帧位姿,并将特征提取与匹配模块得到的三维点与线统一到世界坐标系下,描述局部地图;
优化模块,对跟踪模块得到的位姿与三维空间位置以及惯性测量值进行优化,计算全局一致的精确的运动轨迹与地图;同时在运载体运动的同时,对当前运动场景进行识别,判断是否与之前到访的地点形成回环,形成空间上几何强约束;
线框重建与优化模块,基于优化后的结果,将二维图像中匹配的线特征,反投影到三维空间中,并依据距离与方向阈值对空间中线段进行分组拟合,通过迭代求解,最后形成全局一致的结构描述。
如图1所示,本发明实施例提供的一种融合双目相机与IMU的定位与三维线框结构重建方法,具体包括如下步骤:
步骤1,读取惯性测量信息流和双目视频流数据(实验数据集部分场景见图2-(a)),并根据相机的参数,对图像进行几何校正,消除左右视图的畸变,使得行对准;同时在时间维度上对齐读入的惯性测量数据与双目图像数据;
步骤2,在纯双目视觉模式下运行,提取特征点和关键帧中的LSD特征线段,进行左右目图像特征匹配,并基于关键帧进行跟踪定位与建图;
步骤2.1,提取并匹配所有左右目图像帧的ORB特征点以及关键帧的左右目图像的LSD特征线段,通过特征点计算视差,并恢复特征点与LSD特征线段在相机坐标系下的三维空间位置;
步骤2.1.1,创建点特征提取匹配线程与线特征提取匹配线程;
步骤2.1.2,在点特征提取线程中,将读入的双目图像转换为灰度图像,分别提取左右目图像的ORB特征点;
步骤2.1.3,以左图为基准,在右图相对应基线上下δ//行的宽度范围内寻找最佳匹配点,并变换到尺度对应层,根据SAD(Sum of absolute differences)算法,评估左图模板T(M×N)与右搜索图S(m×n)的相似度D(i,j):
Figure GDA0002922242360000111
其中,1≤i≤m-M+1,1≤j≤n-N+1;计算搜索范围内的最高相似度D对应的像素块位置及其匹配相似度,并结合此像素块左右邻域距离为1的像素块及其匹配相似度,利用抛物线拟合得到亚像素级的最佳匹配块位置;
步骤2.1.4,计算左图像特征点和步骤2.1.3得到的对应的右图像的最佳匹配块位置的差异d=UL-UR,其中UL表示特征点在左图像的位置,UR表示最佳匹配块在右图像的位置;根据针孔相机投影模型,先计算特征点深度
Figure GDA0002922242360000112
其中f为焦距,b为左右目相机的基线长度,然后计算特征点X,Y坐标,得到当前相机坐标系下位置(X,Y,Z);
步骤2.1.5,利用开源代码框架ORB-SLAM模块,提取视频中关键帧,此时进入线特征提取与匹配线程,在关键帧处,利用LSD算法提取图像的线段特征;
步骤2.1.6,构建线段的LBD局部特征描述子,并计算线段的一元几何属性与局部外观(LBD)相似度,通过阈值筛选,得到候选匹配组[1]。
[1]Zhang L,Koch R.An efficient and robust line segment matchingapproach based on LBD descriptor and pairwise geometric consistency[J].Journal of Visual Communication&Image Representation,2013,24(7):794-805.
步骤2.1.7,对于候选匹配组,首先进行线段二维投影长度值L2d和三维空间长度值L3d的筛选(L2d>L1 pixels,L3d>L2m,这里取L1=0.05*min(Iw,Ih),其中Iw表示图像的宽度,Ih表示图像的高度;L2=0.5m),在此基础上,基于LBD局部特征描述子进行强约束:为了减少误匹配线对,只考虑左右图像中某两条线段都互为对方最佳匹配的情况;为了进一步加强匹配的有效性,对最佳匹配的距离设置阈值,每两对最相近的匹配组合间的距离应该小于其中最佳匹配的距离的2倍;
步骤2.1.8,在对LBD描述子之间距离计算与匹配之后,通过直线段相对角度θ12(cos(θ12)>0.75)、投影比率(θproj>0.85)、交点比率端点最小最大视差比率(Rdisp>0.6)进行局部外观统计量的二次筛选;
步骤2.1.9,二次筛选后,将线段的两个端点反投影到三维空间中,除去平行于基线的向量以及视场之外、深度超过最大深度阈值d>Max_Depth,(这里Max_Depth取5m)的离群向量;
步骤2.2,在分别进行特征点和特征线段的立体匹配后,开始视觉跟踪定位。通过ORB-SLAM2跟踪线程,计算双目相机相邻帧之间的位姿变化以及特征点、特征线段在世界坐标系下的三维坐标(运行结果见图2-(b)与(c),其中图2-(b)表示当前系统输入的左图像,方框表示匹配成功的左图像特征点,图2-(c)表示系统根据关键帧位姿恢复的线的三维坐标);
步骤2.2.1,首先按照恒速运动假设,估计当前帧的相机位姿,搜索当前帧中观测到的前一帧的地图点,根据上一帧特征点对应的投影点的位置,缩小特征匹配的范围,得到匹配点对组,根据匹配结果,构造g2o优化器,最小化重投影误差e,优化位姿:
e=(u,v)-Proj(Tcw×Pw)
其中,(u,v)表示特征点在待匹配二维图像上的位置,Tcw表示当前帧的位姿,Pw表示特征点的三维空间中的世界坐标;
步骤2.2.2,如果恒速运动模型失败,则使用跟踪参考帧的模型,将上一帧的位姿作为当前帧的初始位姿,通过词袋BoW在参考帧中搜索当前帧特征点的匹配点,构造g2o优化器,优化位姿;
步骤2.2.3,如果跟踪参考帧的模型失败了,则使用重定位模型,计算BoW向量,找到与当前帧相似的候选关键帧,根据ORB匹配点,计算关键帧所对应的地图点,然后通过EPnP算法估计姿态,构造g2o优化器,优化位姿;
步骤2.3,在跟踪线程后,将关键帧插入队列,更新关键帧之间的共视关系,剔除质量不好的地图点(这里的质量不好的地图点是指:可跟踪该点的图像帧占可观测图像帧比例小于
Figure GDA0002922242360000121
可观测到该点的关键帧数目小于Nkeyframe,这里
Figure GDA0002922242360000122
Nkeyframe=3),对步骤2.1中反投影到空间中的地图点进行融合,构造g2o优化器,进一步优化共视关键帧的位姿,剔除冗余的关键帧并判断是否加入新的关键帧;
步骤2.4,利用DBoW2库进行回环检测、回环验证以及回环校正;
步骤2.5,固定优化的回环帧、当前关键帧及两者邻域内的帧,优化剩余帧的位姿;
步骤2.6,根据优化后的关键帧的位姿和针孔相机投影模型,计算特征点与特征线段在世界坐标系下的三维坐标。
步骤3,利用步骤2中估计的关键帧的位置与姿态,初始化惯性测量单元;
惯性测量单元Δti,i+1时间内两连续关键帧i,i+1之间运动,可以利用预积分模型[2]表示为:
Figure GDA0002922242360000131
Figure GDA0002922242360000132
Figure GDA0002922242360000133
其中,W为世界坐标系,B为惯性测量坐标系,ab为加速度,ωB为角速度,gw为重力加速度,ba为加速度偏差,bg为陀螺仪偏差,RWB为B位置对应于W的姿态矩阵,vWB为B对应于W中的速度,pWB为B对应于W中的位置,ΔRi,i+1表示陀螺仪测量的i到i+1关键帧时间内的姿态变化量,
Figure GDA0002922242360000134
雅克比矩阵表示(·)关于bg、ba一阶变化估计;利用分治的策略,分别对陀螺仪偏差、重力加速度、加速度偏差进行估计与优化,最后计算帧间的速度。
[2]Forster C,Carlone L,Dellaert F,et al.On-Manifold Preintegrationfor Real-Time Visual--Inertial Odometry[J].IEEE Transactions on Robotics,2017,33(1):1-21.
具体包括以下子步骤:
步骤3.1,陀螺仪偏差可以从两连续的相邻的关键帧i,i+1之间的相对方向估计,系统优化一个陀螺仪偏差bg使得双目视觉估计N个连续关键帧之间的相对方向与陀螺仪积分所得到的相对方向的差值最小化,
Figure GDA0002922242360000135
步骤3.2,重力估计,忽略此时刻的加速度的偏移,得到Δt时间内连续两关键帧相对关系:
Figure GDA0002922242360000136
其中,C表示相机坐标系,
Figure GDA0002922242360000137
RCB可以通过校正文件获得,而后解得gw值记为
Figure GDA0002922242360000138
步骤3.3,加速度偏差估计,惯性系统参考系I中重力方向向量为
Figure GDA0002922242360000139
和已经计算得到的重力方向
Figure GDA00029222423600001310
可以计算旋转矩阵RWI
Figure GDA00029222423600001311
Figure GDA00029222423600001312
重力加速度
Figure GDA0002922242360000141
其中G表示的是当地重力大小,得到:
Figure GDA0002922242360000142
其中,绕Z轴旋转的扰动项δθ=[δθxy 0]T,vWB可以用连续三个关键帧之间关系消除,得到:
Figure GDA0002922242360000143
Figure GDA0002922242360000144
Figure GDA0002922242360000145
Figure GDA0002922242360000146
从而解得重力方向修正值δθxy,加速度偏差ba
步骤3.4,根据连续三个关键帧i,i+1,i+2的关系式以及计算得到的bg,ba,δθxy,代入预积分模型,估计速度vWB
步骤4,在系统完成步骤3的IMU初始化以后,仿照步骤2.1,提取与匹配图像特征,而后联合双目视觉与惯性测量单元进行跟踪定位与建图。
步骤4.1,将步骤2的视觉跟踪定位中子步骤2.2.1的恒速模型替换为惯性测量单元预积分得到的速度值vWB,其余跟踪模型保持不变。
步骤4.2,跟踪得到相机位姿后,局部地图中的三维点被投影到像面,与帧中提取的关键点进行匹配,通过最小化匹配点的重投影误差与惯性测量误差来优化当前帧;
步骤4.2.1,地图尚未更新阶段,系统通过上一关键帧i的参数以及当前地图点的重投影参数对当前帧j进行估计:
Figure GDA0002922242360000147
Figure GDA0002922242360000148
其中,k为给定的匹配结果,Eproj(k,j)为当前帧左图像特征点的重投影误差,EIMU(i,j)为IMU在帧i,j之间的测量误差;通过将g2o牛顿法得到优化的结果(位姿估计和H矩阵)作为下次优化的先验值Eprior(j)[3];
[3]Mur-Artal R,Tardós J D.Visual-Inertial Monocular SLAM With MapReuse[J].IEEE Robotics&Automation Letters,2017,2(2):796-803.
步骤4.2.2,在步骤4.2.1基础上,加入Eproj(j),θ*=argminθ(∑kEproj(k,j+1)+EIMU(j,j+1)+Eprior(j)),将帧j和帧j+1进行联合优化,优化以后,帧j被边缘化处理,不再参与后续的跟踪优化中,而帧j+1的值将作为下次优化的初始值,如此循环往复直到地图被更新为止(检测到闭环或者开始局部建图);此时,当前帧关联的上一关键帧将代替上一帧重新开始新一轮循环优化过程中。
步骤4.3,在视觉局部建图的基础上,控制关键帧之间的时间间隔T<0.5s,固定当前共视区域外的关键帧,计算当前N个关键帧所观测的局部地图中的地图点的重投影误差;N+1关键帧将约束之前N个关键帧的惯性测量值,最后通过光束法平差优化惯性测量误差与重投影误差的和,估计N个关键帧的位姿以及惯性测量值;
步骤4.4,利用DBoW2库进行回环检测、回环验证以及根据重投影误差值进行回环校正。
步骤4.5,计算全局(所有帧)的重投影误差与惯性测量误差,并构造g2o,进行全局的位姿优化以及三维位置的优化;最终得到的优化的轨迹位置数据平面投影结果见图3-(a)(b)。
步骤5,根据步骤4中的关键帧的位姿,更新步骤2中特征线段端点的坐标,得到初始的三维线框的位置;然后,遍历所有线段,计算线段间距离和夹角,与角度阈值和距离阈值相比较,判断线段是否表示同一条边,将同一边的线段聚为一个组,得到不同的线段的组;
步骤5.1,遍历所有线段(i=1,j=1),计算线段间距离,通过距离阈值Td约束,分为以下子步骤:
步骤5.1.1,若i≤N(线段总数)时,计算第i条线段所在直线与第j条线段的两个端点的距离之和D:
Figure GDA0002922242360000151
Figure GDA0002922242360000152
Figure GDA0002922242360000153
D=d1+d2
其中Pisx、Pisy、Pisz和Piex、Piey、Piez代表第i条线段的起点和终点的坐标,Pjsx、Pjsy、Pjsz和Pjex、Pjey、Pjez代表第j条线段的起点和终点的坐标,
Figure GDA0002922242360000161
代表第i条线段的向量,d1、d2分别为第j条线段的起点和终点到第i条线段所在直线距离;若i>N,则进入步骤6;
步骤5.1.2,比较D和距离阈值Td,小于Td则进行下一步骤;大于Td则j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1;
步骤5.2,计算线段间夹角,通过夹角阈值Tα约束,分为以下子步骤:
步骤5.2.1,计算第i条线段所在直线与第j条线段的夹角:
Figure GDA0002922242360000162
Figure GDA0002922242360000163
其中
Figure GDA0002922242360000164
代表第j条线段的向量,cos-1代表反余弦函数;
步骤5.2.2,比较α和夹角阈值Tα,小于Tα则进行下一步骤;大于Tα则j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1;
步骤5.3,线段i,j通过距离阈值和夹角阈值约束,将第j条线段与第i条线段归为一组,j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1;
步骤6,遍历步骤5得到的线段的组的集合,分别使用各组内包含的所有线段拟合出各组所对应的边;
步骤6.1,获取每个组内所有线段的端点,基于M估计(M-estimators)的方法进行直线迭代加权拟合,分为以下几个子步骤:
步骤6.1.1,选取M-估计的ρ函数,在这里选取Huber’s M-estimators,对应的ρ函数为:
Figure GDA0002922242360000165
其中,r表示自变量。
步骤6.1.2,使用选取的ρ函数,构造参数求解模型F:
Figure GDA0002922242360000166
其中n为每组线段的总数,ρ为选择的Distance function,ai、L为观测值,X为直线方程中的未知量,空间直线可以表示为:
Figure GDA0002922242360000171
待求参数为X0、Y0、Z0、m、n,观测值(每条线段的端点坐标)为X、Y、Z
将空间直线转化为矩阵形式可得:
Figure GDA0002922242360000172
带入上面模型:
Figure GDA0002922242360000173
n条线段得到2n个M-估计方程,通过模型残差倒数加权最小二乘迭代拟合求解(X0,Y0,Z0),(m,n,1)。
步骤6.1.3,解得直线通过的三维点坐标P:(X0,Y0,Z0)以及直线的方向向量ldirection:(m,n,1);
步骤6.2,在步骤6.1将同组线段进行直线拟合后,确定直线的范围,得到表示边的线段,分为以下子步骤:
步骤6.2.1,遍历同组内所有线段的端点,找到距离最远的两个点P1、P2;
步骤6.2.2,根据拟合直线的方向向量ldirection,提取P1、P2对应方向向量主方向(绝对值最大的)的值(如P1y、P2y),带入直线方程中,解得表示边框线段的两个端点,从而确定线段的空间位置;
步骤7,所有组的线段拟合完成后,统计拟合结果数量N2,设定拟合阈值Ndelta,若|N-N2|<Ndelta(N为线段总数),则说明所有线段拟合完毕,不存在表示同一条边的线段组合;若|N-N2|≥Ndelta,N=N2,返回步骤5.1中重新计算线段间的距离;
步骤8,输出三维线框结构。得到的三维结构的平面投影图见图3-(c)(d),线框重建三维视图见图3-(e)(f)(g)。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (7)

1.一种融合双目相机与IMU的定位与三维线框结构重建方法,其特征在于,包括如下步骤:
步骤1,读取惯性测量信息流和双目视频流数据,并根据相机的参数,对图像进行几何校正,消除左右视图的畸变,使得行对准;同时在时间维度上对齐读入的惯性测量数据与双目图像数据;
步骤2,在纯双目视觉模式下运行,提取特征点和关键帧中的LSD特征线段,进行左右目图像特征匹配,并基于关键帧进行跟踪定位与建图;
步骤3,利用步骤2中估计的关键帧的位置与姿态,初始化惯性测量单元;
步骤4,完成步骤3的IMU初始化以后,重新进行特征提取与图像匹配,而后联合双目视觉与惯性测量单元进行跟踪定位与建图;
步骤5,根据步骤4中的关键帧的位姿,更新步骤2中特征线段端点的坐标,得到初始的三维线框的位置;然后,遍历三维线框中的所有线段,计算线段间距离和夹角,与角度阈值和距离阈值相比较,判断线段是否表示同一条边,将同一边的线段聚为一个组,得到不同的线段的组;
步骤6,遍历步骤5得到的线段的组的集合,分别使用各组内包含的所有线段拟合出各组所对应的边;具体实现包括如下步骤,
步骤6.1,获取每个组内所有线段的端点,基于M估计的方法进行直线迭代加权拟合,分为以下几个子步骤:
步骤6.1.1,选取Huber’s M-estimators,对应的ρ函数为:
Figure FDA0002922242350000011
其中,r表示自变量;
步骤6.1.2,使用选取的ρ函数,构造参数求解模型F:
Figure FDA0002922242350000012
其中n为每组线段的总数,ρ为选择的Distance function,ai、L为观测值,X为直线方程中的未知量,空间直线可以表示为:
Figure FDA0002922242350000013
待求参数为X0、Y0、Z0、m、n,观测值,即每条线段的端点坐标为X、Y、Z;
将空间直线转化为矩阵形式可得:
Figure FDA0002922242350000021
带入上面的求解模型:
Figure FDA0002922242350000022
n条线段得到2n个M-估计方程,通过模型残差倒数加权最小二乘迭代拟合求解(X0,Y0,Z0),(m,n,1);
步骤6.1.3,解得直线通过的三维点坐标P:(X0,Y0,Z0)以及直线的方向向量ldirection:(m,n,1);
步骤6.2,在步骤6.1将同组线段进行直线拟合,确定直线的范围,得到表示边的线段,分为以下子步骤:
步骤6.2.1,遍历同组内所有线段的端点,找到距离最远的两个点P1、P2;
步骤6.2.2,根据拟合直线的方向向量ldirection,提取P1、P2对应方向向量主方向的值,带入直线方程中,解得表示边框线段的两个端点,从而确定线段的空间位置;
步骤7,所有组的线段拟合完成后,统计拟合结果数量N2,设定拟合阈值Ndelta,若|N-N2|<Ndelta,N为线段总数,则说明所有线段拟合完毕,不存在表示同一条边的线段组合;若|N-N2|≥Ndelta,N=N2,返回步骤5中重新计算线段间的距离;
步骤8,输出三维线框结构。
2.如权利要求1所述的一种融合双目相机与IMU的定位与三维线框结构重建方法,其特征在于:步骤2的具体实现方式如下,
步骤2.1,提取并匹配所有左右目图像帧的ORB特征点以及关键帧的左右目图像的LSD特征线段,通过特征点计算视差,并恢复特征点与LSD特征线段在相机坐标系下的三维空间位置;
步骤2.2,进行视觉跟踪定位,通过ORB-SLAM2跟踪线程,计算双目相机相邻帧之间的位姿变化以及特征点和特征线段在世界坐标系下的三维坐标;
步骤2.3,在跟踪线程后,将关键帧插入队列,更新关键帧之间的共视关系,剔除质量不好的地图点,对步骤2.1中反投影到空间中的地图点进行融合,构造g2o优化器,进一步优化共视关键帧的位姿,剔除冗余的关键帧并判断是否加入新的关键帧;
步骤2.4,利用DBoW2库进行回环检测、回环验证以及回环校正;
步骤2.5,固定优化的回环帧、当前关键帧及两者邻域内的帧,优化剩余帧的位姿;
步骤2.6,根据优化后的关键帧的位姿和针孔相机投影模型,计算特征点与特征线段在世界坐标系下的三维坐标。
3.如权利要求2所述的一种融合双目相机与IMU的定位与三维线框结构重建方法,其特征在于:步骤2.1的具体实现方式如下,
步骤2.1.1,创建点特征提取匹配线程与线特征提取匹配线程;
步骤2.1.2,在点特征提取线程中,将读入的双目图像转换为灰度图像,分别提取左右目图像的ORB特征点;
步骤2.1.3,以左图为基准,在右图相对应基线上下δ//行的宽度范围内寻找最佳匹配点,并变换到尺度对应层,根据Sum of absolute differences算法,评估左图模板T与右搜索图S的相似度D(i,j),其中左图模板T的大小为M×N,右搜索图S的大小为m×n:
Figure FDA0002922242350000031
其中,1≤i≤m-M+1,1≤j≤n-N+1;计算搜索范围内的最高相似度D对应的像素块位置及其匹配相似度,并结合此像素块左右邻域距离为1的像素块及其匹配相似度,利用抛物线拟合得到亚像素级的最佳匹配块位置;
步骤2.1.4,计算左图像特征点和步骤2.1.3得到的对应的右图像的最佳匹配块位置的差异d=UL-UR,其中UL表示特征点在左图像的位置,UR表示最佳匹配块在右图像的位置;根据针孔相机投影模型,先计算特征点深度
Figure FDA0002922242350000032
其中f为焦距,b为左右目相机的基线长度,然后计算特征点X,Y坐标,得到当前相机坐标系下位置(X,Y,Z);
步骤2.1.5,利用开源代码框架ORB-SLAM模块,提取视频中关键帧,此时进入线特征提取与匹配线程,在关键帧处,利用LSD算法提取图像的线段特征;
步骤2.1.6,构建线段的LBD局部特征描述子,并计算线段的一元几何属性与局部外观相似度,通过阈值筛选,得到候选匹配组;
步骤2.1.7,对于候选匹配组,首先进行线段二维投影长度值L2d和三维空间长度值L3d的筛选,在此基础上,基于LBD局部特征描述子进行强约束:为了减少误匹配线对,只考虑左右图像中某两条线段都互为对方最佳匹配的情况;为了进一步加强匹配的有效性,对最佳匹配的距离设置阈值,每两对最相近的匹配组合间的距离应该小于其中最佳匹配的距离的2倍;
步骤2.1.8,在对LBD描述子之间距离计算与匹配之后,通过直线段相对角度、投影比率、交点比率端点最小最大视差比率进行局部外观统计量的二次筛选;
步骤2.1.9,二次筛选后,将线段的两个端点反投影到三维空间中,并除去平行于基线的向量以及视场之外、深度超过最大深度阈值的离群向量。
4.如权利要求3所述的一种融合双目相机与IMU的定位与三维线框结构重建方法,其特征在于:步骤2.2的具体实现方式如下,
步骤2.2.1,首先按照恒速运动假设,估计当前帧的相机位姿,搜索当前帧中观测到的前一帧的地图点,根据上一帧特征点对应的投影点的位置,缩小特征匹配的范围,得到匹配点对组,根据匹配结果,构造g2o优化器,最小化重投影误差e,优化位姿:
e=(u,v)-Proj(Tcw×Pw)
其中,(u,v)表示特征点在待匹配二维图像上的位置,Tcw表示当前帧的位姿,Pw表示特征点的三维空间中的世界坐标;
步骤2.2.2,如果恒速运动模型失败,则使用跟踪参考帧的模型,将上一帧的位姿作为当前帧的初始位姿,通过词袋BoW在参考帧中搜索当前帧特征点的匹配点,构造g2o优化器,优化位姿;
步骤2.2.3,如果跟踪参考帧的模型失败了,则使用重定位模型,计算BoW向量,找到与当前帧相似的候选关键帧,根据ORB匹配点,计算关键帧所对应的地图点,然后通过EPnP算法估计姿态,构造g2o优化器,优化位姿。
5.如权利要求4所述的一种融合双目相机与IMU的定位与三维线框结构重建方法,其特征在于:步骤3中初始化惯性测量单元的具体实现方式如下,
首先利用预积分模型表示惯性测量单元Δti,i+1时间内两连续关键帧i,i+1之间运动:
Figure FDA0002922242350000041
Figure FDA0002922242350000042
Figure FDA0002922242350000043
其中,W为世界坐标系,B为惯性测量坐标系,ab为加速度,ωB为角速度,gw为重力加速度,ba为加速度偏差,bg为陀螺仪偏差,RWB为B位置对应于W的姿态矩阵,vWB为B对应于W中的速度,pWB为B对应于W中的位置,ΔRi,i+1表示陀螺仪测量的i到i+1关键帧时间内的姿态变化量,
Figure FDA0002922242350000044
雅克比矩阵表示(·)关于bg、ba一阶变化估计;然后利用分治的策略,分别对陀螺仪偏差、重力加速度、加速度偏差进行估计与优化,最后计算帧间的速度;具体包括以下子步骤:
步骤3.1,陀螺仪偏差可以从两连续的相邻的关键帧i,i+1之间的相对方向估计,系统优化一个陀螺仪偏差bg使得双目视觉估计N个连续关键帧之间的相对方向与陀螺仪积分所得到的相对方向的差值最小化,
Figure FDA0002922242350000051
步骤3.2,重力估计,忽略此时刻的加速度的偏移,得到Δt时间内连续两关键帧相对关系:
Figure FDA0002922242350000052
其中,C表示相机坐标系,
Figure FDA0002922242350000053
RCB可以通过校正文件获得,而后解得gw值记为
Figure FDA0002922242350000054
步骤3.3,加速度偏差估计,惯性系统参考系I中重力方向向量为
Figure FDA0002922242350000055
和已经计算得到的重力方向
Figure FDA0002922242350000056
可以计算旋转矩阵RWI
Figure FDA0002922242350000057
Figure FDA0002922242350000058
Figure FDA0002922242350000059
重力加速度
Figure FDA00029222423500000510
其中G表示的是当地重力大小,得到:
Figure FDA00029222423500000511
其中,绕Z轴旋转的扰动项δθ=[δθxy 0]T
Figure FDA00029222423500000512
Figure FDA00029222423500000513
Figure FDA00029222423500000514
Figure FDA00029222423500000515
从而解得重力方向修正值δθxy,加速度偏差ba
步骤3.4,根据连续三个关键帧i,i+1,i+2的关系式以及计算得到的bg,ba,δθxy,代入预积分模型,估计速度vWB
6.如权利要求5所述的一种融合双目相机与IMU的定位与三维线框结构重建方法,其特征在于:步骤4的具体实现方式如下,
步骤4.1,将步骤2的视觉跟踪定位中子步骤2.2.1的恒速模型替换为惯性测量单元预积分得到的速度值vWB,其余跟踪模型保持不变;
步骤4.2,跟踪得到相机位姿后,局部地图中的三维点被投影到像面,与帧中提取的关键点进行匹配,通过最小化匹配点的重投影误差与惯性测量误差来优化当前帧;
步骤4.2.1,地图尚未更新阶段,系统通过上一关键帧i的参数以及当前地图点的重投影参数对当前帧j进行估计:
Figure FDA0002922242350000061
Figure FDA0002922242350000062
其中,k为给定的匹配结果,Eproj(k,j)为当前帧左图像特征点的重投影误差,EIMU(i,j)为IMU在帧i,j之间的测量误差;通过将g2o牛顿法得到优化的结果作为下次优化的先验值Eprior(j);
步骤4.2.2,在步骤4.2.1基础上,加入Eproj(j),θ*=argminθ(∑kEproj(k,j+1)+EIMU(j,j+1)+Eprior(j)),将帧j和帧j+1进行联合优化,优化以后,帧j被边缘化处理,不再参与后续的跟踪优化中,而帧j+1的值将作为下次优化的初始值,如此循环往复直到地图被更新为止;
步骤4.3,在视觉局部建图的基础上,控制关键帧之间的时间间隔,固定当前共视区域外的关键帧,计算当前N个关键帧所观测的局部地图中的地图点的重投影误差;N+1关键帧将约束之前N个关键帧的惯性测量值,最后通过光束法平差优化惯性测量误差与重投影误差的和,估计N个关键帧的位姿以及惯性测量值;
步骤4.4,利用DBoW2库进行回环检测、回环验证以及根据重投影误差值进行回环校正;
步骤4.5,计算全局所有帧的重投影误差与惯性测量误差,并构造g2o,进行全局的位姿优化以及三维位置的优化。
7.如权利要求1所述的一种融合双目相机与IMU的定位与三维线框结构重建方法,其特征在于:步骤5中得到不同的线段的组的具体实现方式如下,
步骤5.1,遍历所有线段,计算线段间距离,通过距离阈值Td约束,分为以下子步骤:
步骤5.1.1,若i≤N时,计算第i条线段所在直线与第j条线段的两个端点的距离之和D:
Figure FDA0002922242350000071
Figure FDA0002922242350000072
Figure FDA0002922242350000073
D=d1+d2
其中Pisx、Pisy、Pisz和Piex、Piey、Piez代表第i条线段的起点和终点的坐标,Pjsx、Pjsy、Pjsz和Pjex、Pjey、Pjez代表第j条线段的起点和终点的坐标,
Figure FDA0002922242350000074
代表第i条线段的向量,d1、d2分别为第j条线段的起点和终点到第i条线段所在直线距离;若i>N,则进入步骤6;
步骤5.1.2,比较D和距离阈值Td,小于Td则进行下一步骤;大于Td则j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1;
步骤5.2,计算线段间夹角,通过夹角阈值Tα约束,分为以下子步骤:
步骤5.2.1,计算第i条线段所在直线与第j条线段的夹角:
Figure FDA0002922242350000075
Figure FDA0002922242350000076
其中
Figure FDA0002922242350000077
代表第j条线段的向量,cos-1代表反余弦函数;
步骤5.2.2,比较α和夹角阈值Tα,小于Tα则进行下一步骤;大于Tα则j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1;
步骤5.3,线段i,j通过距离阈值和夹角阈值约束,将第j条线段与第i条线段归为一组,j=j+1,若j≤N返回步骤5.1.1,若j>N则j=1,i=i+1,返回步骤5.1.1。
CN201810917346.6A 2018-08-13 2018-08-13 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 Active CN109166149B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810917346.6A CN109166149B (zh) 2018-08-13 2018-08-13 一种融合双目相机与imu的定位与三维线框结构重建方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810917346.6A CN109166149B (zh) 2018-08-13 2018-08-13 一种融合双目相机与imu的定位与三维线框结构重建方法与系统

Publications (2)

Publication Number Publication Date
CN109166149A CN109166149A (zh) 2019-01-08
CN109166149B true CN109166149B (zh) 2021-04-02

Family

ID=64895744

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810917346.6A Active CN109166149B (zh) 2018-08-13 2018-08-13 一种融合双目相机与imu的定位与三维线框结构重建方法与系统

Country Status (1)

Country Link
CN (1) CN109166149B (zh)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109443320A (zh) * 2019-01-10 2019-03-08 轻客小觅智能科技(北京)有限公司 基于直接法和线特征的双目视觉里程计及测量方法
CN109764869A (zh) * 2019-01-16 2019-05-17 中国矿业大学 一种双目相机和惯导融合的自主巡检机器人定位与三维地图构建方法
CN109934862A (zh) * 2019-02-22 2019-06-25 上海大学 一种点线特征结合的双目视觉slam方法
CN110030994B (zh) * 2019-03-21 2022-08-05 东南大学 一种基于单目的鲁棒性视觉惯性紧耦合定位方法
CN109978919B (zh) * 2019-03-22 2021-06-04 广州小鹏汽车科技有限公司 一种基于单目相机的车辆定位方法及系统
CN110125928B (zh) * 2019-03-27 2021-04-06 浙江工业大学 一种基于前后帧进行特征匹配的双目惯导slam系统
CN110095136B (zh) * 2019-03-27 2023-12-01 苏州德沃物流科技有限公司 融合imu位姿修正的双目视觉三维重建标定装置和方法
CN111798566A (zh) * 2019-04-08 2020-10-20 上海未来伙伴机器人有限公司 一种视觉slam方法
CN110009732B (zh) * 2019-04-11 2023-10-03 司岚光电科技(苏州)有限公司 基于gms特征匹配的面向复杂大尺度场景三维重建方法
CN110084832B (zh) * 2019-04-25 2021-03-23 亮风台(上海)信息科技有限公司 相机位姿的纠正方法、装置、系统、设备和存储介质
CN110310331B (zh) * 2019-06-18 2023-04-14 哈尔滨工程大学 一种基于直线特征与点云特征结合的位姿估计方法
CN110375738B (zh) * 2019-06-21 2023-03-14 西安电子科技大学 一种融合惯性测量单元的单目同步定位与建图位姿解算方法
CN112129317B (zh) * 2019-06-24 2022-09-02 南京地平线机器人技术有限公司 信息采集时间差确定方法、装置以及电子设备、存储介质
CN110361005B (zh) * 2019-06-26 2021-03-26 达闼机器人有限公司 定位方法、定位装置、可读存储介质及电子设备
CN110349212B (zh) * 2019-06-28 2023-08-25 Oppo广东移动通信有限公司 即时定位与地图构建的优化方法及装置、介质和电子设备
CN110490900B (zh) * 2019-07-12 2022-04-19 中国科学技术大学 动态环境下的双目视觉定位方法及系统
CN112304321B (zh) * 2019-07-26 2023-03-28 北京魔门塔科技有限公司 一种基于视觉和imu的车辆融合定位方法及车载终端
CN110388919B (zh) * 2019-07-30 2023-05-23 上海云扩信息科技有限公司 增强现实中基于特征图和惯性测量的三维模型定位方法
CN110648398B (zh) * 2019-08-07 2020-09-11 武汉九州位讯科技有限公司 基于无人机航摄数据的正射影像实时生成方法及系统
CN110675450B (zh) * 2019-09-06 2020-09-29 武汉九州位讯科技有限公司 基于slam技术的正射影像实时生成方法及系统
CN110570474B (zh) * 2019-09-16 2022-06-10 北京华捷艾米科技有限公司 一种深度相机的位姿估计方法及系统
CN110807799B (zh) * 2019-09-29 2023-05-30 哈尔滨工程大学 一种结合深度图推断的线特征视觉里程计方法
CN110749308B (zh) * 2019-09-30 2021-10-29 浙江工业大学 使用消费级gps和2.5d建筑物模型的面向slam的室外定位方法
CN111091621A (zh) * 2019-12-11 2020-05-01 东南数字经济发展研究院 双目视觉的同步定位与构图方法、装置、设备及存储介质
CN112967311B (zh) * 2019-12-12 2024-06-07 浙江商汤科技开发有限公司 三维线图构建方法及装置、电子设备和存储介质
CN113008245B (zh) * 2019-12-20 2022-12-27 北京图森智途科技有限公司 一种定位信息融合方法及其装置、计算机服务器
CN113034538B (zh) * 2019-12-25 2023-09-05 杭州海康威视数字技术股份有限公司 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备
CN111156998B (zh) * 2019-12-26 2022-04-15 华南理工大学 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN113137968B (zh) * 2020-01-16 2023-03-14 浙江舜宇智能光学技术有限公司 基于多传感器融合的重定位方法、重定位装置和电子设备
CN111275764B (zh) * 2020-02-12 2023-05-16 南开大学 基于线段阴影的深度相机视觉里程测量方法
CN113382156A (zh) * 2020-03-10 2021-09-10 华为技术有限公司 获取位姿的方法及装置
CN111415420B (zh) * 2020-03-25 2024-01-23 北京迈格威科技有限公司 空间信息确定方法、装置及电子设备
CN111489438A (zh) * 2020-04-09 2020-08-04 深圳趣途科技有限责任公司 重建三维模型方法、重建三维模型系统及计算机存储介质
CN111538918B (zh) * 2020-04-23 2022-03-29 上海高仙自动化科技发展有限公司 一种推荐方法、装置、电子设备及存储介质
CN111595334B (zh) * 2020-04-30 2022-01-28 东南大学 基于视觉点线特征与imu紧耦合的室内自主定位方法
CN111709989B (zh) * 2020-05-11 2023-04-18 哈尔滨工业大学 一种基于多源特征数据控制的双向闭合模式的立体视觉全场测量方法
CN111998846B (zh) * 2020-07-24 2023-05-05 中山大学 基于环境几何与拓扑特征的无人系统快速重定位方法
US12002235B2 (en) * 2020-08-12 2024-06-04 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for estimating camera orientation relative to ground surface
CN111951337B (zh) * 2020-08-19 2022-05-31 武汉中海庭数据技术有限公司 图像检测目标空间定位方法及系统
CN112069967B (zh) * 2020-08-31 2022-12-06 西安工业大学 异源视频融合的夜视抗晕光行人检测及跟踪方法
CN112146647B (zh) * 2020-09-11 2022-11-15 珠海一微半导体股份有限公司 一种地面纹理的双目视觉定位方法及芯片
CN112200869B (zh) * 2020-10-09 2023-12-19 浙江大学 一种基于点线特征的机器人全局最优视觉定位方法及装置
CN112327837A (zh) * 2020-10-28 2021-02-05 深圳市银星智能科技股份有限公司 机器人行进方法、非易失性计算机可读存储介质及机器人
CN112509006A (zh) * 2020-12-11 2021-03-16 北京华捷艾米科技有限公司 一种子地图恢复融合方法及装置
CN112634305B (zh) * 2021-01-08 2023-07-04 哈尔滨工业大学(深圳) 一种基于边缘特征匹配的红外视觉里程计实现方法
CN112767538B (zh) * 2021-01-11 2024-06-07 浙江商汤科技开发有限公司 三维重建及相关交互、测量方法和相关装置、设备
CN112767541B (zh) * 2021-01-15 2024-09-13 浙江商汤科技开发有限公司 三维重建方法及装置、电子设备和存储介质
CN112802196B (zh) * 2021-02-01 2022-10-21 北京理工大学 基于点线特征融合的双目惯性同时定位与地图构建方法
CN112907654B (zh) * 2021-02-08 2024-03-26 上海汽车集团股份有限公司 多目相机外参数优化方法、装置、电子设备及存储介质
CN112950709B (zh) * 2021-02-21 2023-10-24 深圳市优必选科技股份有限公司 一种位姿预测方法、位姿预测装置及机器人
CN113012196B (zh) * 2021-03-05 2023-03-24 华南理工大学 一种基于双目相机与惯导传感器信息融合的定位方法
CN112907559B (zh) * 2021-03-16 2022-06-07 湖北工程学院 基于单目相机的深度图生成装置
CN113222891B (zh) * 2021-04-01 2023-12-22 东方电气集团东方锅炉股份有限公司 一种基于线激光的旋转物体双目视觉三维测量方法
CN113160390B (zh) * 2021-04-28 2022-07-22 北京理工大学 一种三维稠密重建方法及系统
CN113408625B (zh) * 2021-06-22 2022-08-09 之江实验室 应用于无人系统的多源异构数据单帧融合与一致表征方法
CN113514067A (zh) * 2021-06-24 2021-10-19 上海大学 一种基于点线特征的移动机器人定位方法
CN113566778A (zh) * 2021-07-27 2021-10-29 同济大学 一种多点透视成像的无人飞行器地面飞行位姿测量方法
CN113792752B (zh) * 2021-08-03 2023-12-12 北京中科慧眼科技有限公司 基于双目相机的图像特征提取方法、系统和智能终端
CN115371699B (zh) * 2021-09-30 2024-03-15 达闼科技(北京)有限公司 视觉惯性里程计方法、装置及电子设备
CN114088081B (zh) * 2021-10-10 2024-05-28 北京工业大学 一种基于多段联合优化的用于精确定位的地图构建方法
CN114623817B (zh) * 2022-02-21 2024-04-26 武汉大学 基于关键帧滑窗滤波的含自标定的视觉惯性里程计方法
CN116939529A (zh) * 2022-03-31 2023-10-24 华为技术有限公司 一种定位方法和相关设备
CN114638897B (zh) * 2022-05-18 2022-09-27 魔视智能科技(武汉)有限公司 基于无重叠视域的多相机系统的初始化方法、系统及装置
CN115131459B (zh) * 2022-05-24 2024-05-28 中国科学院自动化研究所 平面布置图重建方法及装置
CN114943755B (zh) * 2022-07-25 2022-10-04 四川省产品质量监督检验检测院 一种基于双目结构光三维重建相位图像的处理方法
CN115393432B (zh) * 2022-08-11 2023-04-28 安徽工程大学 消除静态特征误匹配的机器人定位方法、存储介质及设备
CN115618299B (zh) * 2022-10-08 2024-08-30 东南大学 一种基于投影统计量检测器的多源信息融合方法
CN116448105B (zh) * 2023-04-12 2024-04-30 北京百度网讯科技有限公司 位姿更新方法、装置、电子设备和存储介质
CN116662600B (zh) * 2023-06-08 2024-05-14 北京科技大学 一种基于轻量结构化线地图的视觉定位方法
CN116468858B (zh) * 2023-06-19 2023-08-15 中色蓝图科技股份有限公司 一种基于人工智能的地图融合方法及系统
CN116902559B (zh) * 2023-08-23 2024-03-26 中科微至科技股份有限公司 传送片状物的视觉定位矫正方法
CN117170501B (zh) * 2023-08-24 2024-05-03 北京自动化控制设备研究所 基于点线融合特征的视觉跟踪方法
CN118247265B (zh) * 2024-05-20 2024-08-13 中南大学 充电接口姿态检测方法、装置、电子设备及存储介质
CN118314162B (zh) * 2024-06-06 2024-08-30 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种面向时序性稀疏重建的动态视觉slam方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101226636A (zh) * 2008-02-02 2008-07-23 中国科学院遥感应用研究所 一种刚体变换关系的图像的匹配方法
CN101726255A (zh) * 2008-10-24 2010-06-09 中国科学院光电研究院 从三维激光点云数据中提取感兴趣建筑物的方法
CN103994755A (zh) * 2014-05-29 2014-08-20 清华大学深圳研究生院 一种基于模型的空间非合作目标位姿测量方法
CN104050643A (zh) * 2014-06-18 2014-09-17 华中师范大学 遥感影像几何与辐射一体化相对校正方法及系统
CN105222760A (zh) * 2015-10-22 2016-01-06 一飞智控(天津)科技有限公司 一种基于双目视觉的无人机自主障碍物检测系统及方法
CN106679634A (zh) * 2016-06-20 2017-05-17 山东航天电子技术研究所 一种基于立体视觉的空间非合作目标位姿测量方法
CN107301654A (zh) * 2017-06-12 2017-10-27 西北工业大学 一种多传感器的高精度即时定位与建图方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN108242079A (zh) * 2017-12-30 2018-07-03 北京工业大学 一种基于多特征视觉里程计和图优化模型的vslam方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9196050B2 (en) * 2014-04-09 2015-11-24 Google Inc. Image-based bridge identification and boundary detection
CN104809689B (zh) * 2015-05-15 2018-03-30 北京理工大学深圳研究院 一种基于轮廓的建筑物点云模型底图配准方法
CN106023183B (zh) * 2016-05-16 2019-01-11 西北工业大学 一种实时的直线段匹配方法
CN106909877B (zh) * 2016-12-13 2020-04-14 浙江大学 一种基于点线综合特征的视觉同时建图与定位方法
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101226636A (zh) * 2008-02-02 2008-07-23 中国科学院遥感应用研究所 一种刚体变换关系的图像的匹配方法
CN101726255A (zh) * 2008-10-24 2010-06-09 中国科学院光电研究院 从三维激光点云数据中提取感兴趣建筑物的方法
CN103994755A (zh) * 2014-05-29 2014-08-20 清华大学深圳研究生院 一种基于模型的空间非合作目标位姿测量方法
CN104050643A (zh) * 2014-06-18 2014-09-17 华中师范大学 遥感影像几何与辐射一体化相对校正方法及系统
CN105222760A (zh) * 2015-10-22 2016-01-06 一飞智控(天津)科技有限公司 一种基于双目视觉的无人机自主障碍物检测系统及方法
CN106679634A (zh) * 2016-06-20 2017-05-17 山东航天电子技术研究所 一种基于立体视觉的空间非合作目标位姿测量方法
CN107301654A (zh) * 2017-06-12 2017-10-27 西北工业大学 一种多传感器的高精度即时定位与建图方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN108242079A (zh) * 2017-12-30 2018-07-03 北京工业大学 一种基于多特征视觉里程计和图优化模型的vslam方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Robust Visual SLAM with Point and Line Features;Xingxing Zuo等;《2017 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS)》;20170928;第1-9页 *
SLAM室内三维重建技术综述;危双丰等;《测绘科学》;20180730;第43卷(第7期);第15-26页 *

Also Published As

Publication number Publication date
CN109166149A (zh) 2019-01-08

Similar Documents

Publication Publication Date Title
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
CN109242873B (zh) 一种基于消费级彩色深度相机对物体进行360度实时三维重建的方法
CN104732518B (zh) 一种基于智能机器人地面特征的ptam改进方法
US9613420B2 (en) Method for locating a camera and for 3D reconstruction in a partially known environment
CN106920259B (zh) 一种定位方法及系统
Seok et al. Rovo: Robust omnidirectional visual odometry for wide-baseline wide-fov camera systems
Liu et al. Direct visual odometry for a fisheye-stereo camera
CN105783913A (zh) 一种融合车载多传感器的slam装置及其控制方法
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
CN108519102B (zh) 一种基于二次投影的双目视觉里程计算方法
CN111882602B (zh) 基于orb特征点和gms匹配过滤器的视觉里程计实现方法
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
CN112767546B (zh) 移动机器人基于双目图像的视觉地图生成方法
Zhao et al. RTSfM: Real-time structure from motion for mosaicing and DSM mapping of sequential aerial images with low overlap
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
CN116128966A (zh) 一种基于环境物体的语义定位方法
US10977810B2 (en) Camera motion estimation
CN113345032B (zh) 一种基于广角相机大畸变图的初始化建图方法及系统
Zhang et al. A stereo SLAM system with dense mapping
CN115147344A (zh) 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法
Liu et al. Accurate real-time visual SLAM combining building models and GPS for mobile robot
Huang et al. Life: Lighting invariant flow estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant