CN110986968B - 三维重建中实时全局优化和错误回环判断的方法及装置 - Google Patents
三维重建中实时全局优化和错误回环判断的方法及装置 Download PDFInfo
- Publication number
- CN110986968B CN110986968B CN201910968740.7A CN201910968740A CN110986968B CN 110986968 B CN110986968 B CN 110986968B CN 201910968740 A CN201910968740 A CN 201910968740A CN 110986968 B CN110986968 B CN 110986968B
- Authority
- CN
- China
- Prior art keywords
- imu
- camera
- frame
- global optimization
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 161
- 238000000034 method Methods 0.000 title claims abstract description 85
- 239000011159 matrix material Substances 0.000 claims abstract description 83
- 230000000007 visual effect Effects 0.000 claims abstract description 68
- 230000009466 transformation Effects 0.000 claims abstract description 44
- 230000008569 process Effects 0.000 claims abstract description 34
- 230000008878 coupling Effects 0.000 claims abstract description 14
- 238000010168 coupling process Methods 0.000 claims abstract description 14
- 238000005859 coupling reaction Methods 0.000 claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims abstract description 14
- 230000005484 gravity Effects 0.000 claims description 21
- 230000001133 acceleration Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000010354 integration Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 13
- 238000009825 accumulation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种三维重建中实时全局优化和错误回环判断的方法及装置,其中,方法包括以下步骤:获取视觉信息和IMU信息,通过视觉信息的二次统计量和IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化;在全局优化函数中耦合变换矩阵,并且在全局优化过程中,提供状态估计量,使得在快速移动和特征点少的时候,继续进行建图;获取IMU零偏的估计量,并根据IMU零偏的估计量识别错误回环和正确回环。该方法可以在不损失精度的前提下实现了高效率的视觉和IMU信息的全局优化,且没有因为标定不准确导致的累积误差的问题,并可以进行准确的回环正确性的判断,简单易实现。
Description
技术领域
本发明涉及相机定位与建图技术领域,特别涉及一种三维重建中实时全局优化和错误回环判断的方法及装置。
背景技术
随着机器人室内导航、虚拟现实及增强现实技术的发展和广泛应用,三维重建需要越来越高的精度和效率,需要应对各种不同的环境和运动状态,实现更加鲁棒的重建过程。而三维重建最需要的是通过视觉进行定位的基于SLAM(SimultaneousLocalizationAndMapping,同时定位与建图)技术在特征点信息丰富的时候能够准确计算相机的姿态,通过回环检测可以实现全局一致性,但是在快速移动和特征点少的时候,相机通过视觉进行的跟踪容易失败,这时候建图和定位都不能继续进行。IMU(Inertial measurement unit,惯性测量单元)的成本低,不受特征点少喝快速运动的影响,但是数据噪声大,积分有严重的累积误差。视觉和IMU信息的融合通常使用基于扩展卡尔曼滤波和基于优化的方法,滤波的方法效率高,但是准确性差;优化方法估计量更准确,但是效率低,无法实现实时的全局优化。相机和IMU的变换矩阵在信息融合中非常重要,这个矩阵通常通过离线标定或者在线的初始化过程来标定。
相关技术,RGB-D-Inertial SLAM实现了实时视觉IMU信息的全局优化,但是全局优化的计算需要GPU(Graphics Processing Unit,图形处理器),并没有对计算本身进行理论上的加速,无法运行在可便携设备上,相关技术存在的缺点如下:
1、对于优化方面:(1)卡尔曼滤波:通过滤波的方法对视觉信息和IMU信息进行融合,缺点融合过程损失了一部分信息,得到的估计量不够准确,在有回环的时候不能实现全局一致性;(2)滑动窗口:基于滑动窗口进行的优化虽然实现了高效率,但是放弃了窗口之前的信息,估计量不够准确,也不能实现全局一致性;(3)直接进行的全局优化:效率太低,在没有GPU参与运算的情况下不能实现实时性;(4)松耦合优化:优化过程不稳定,容易震荡,优化量不够准确。
2、对于相机IMU相对位置的标定:(1)离线标定:标定过程复杂,标定误差会累积,在IMU和相机发生位置变化的时候需要重新标定;(2)初始化标定:在运行开始选取一段观测量进行初始化,这时候确定变换矩阵。这样得到的变换矩阵不够准确,标定误差会累积;
3、对于回环检测:只通过视觉信息进行回环检测很容易发生误判,损害全局一致性,使得三维重建的结果出现混乱。
发明内容
本申请是基于发明人对以下问题的认识和发现做出的:
利用深度相机(RGBD相机)可以准确计算周围环境的三维坐标,从而进行三维重建。然而在快速移动的时候,相机的彩色图和深度图会出现运动模糊,在环境纹理特征少的时候,图像不能准确匹配特征点,这时候基于特征点匹配的定位方式不能对相机位姿进行准确定位而导致重建不能继续进行。通过IMU数据进行积分也可以得到相机的位置,但是IMU数据噪声很大,有明显的累积误差。通过视觉和IMU信息的融合可以实现双方的互补,可以应对快速移动和特征点少的情况,提供更加准确的姿态估计。但是在融合视觉和IMU信息的过程中,需要对大量的状态量进行估计,以往的方法通过优化方式进行信息融合计算效率很低,如果要保证实时性就不能实现全局优化,实现全局优化就不能在线运行在可便携设备上。本发明通过分析优化问题中主要计算复杂度的来源,通过二阶统计量直接计算了优化问题中复杂度最高的部分,而且这种加速计算的方式没有精度损失。实现了实时的视觉和IMU数据的全局优化,能够在三位重建中提供更加准确鲁棒的姿态估计。对于相机和IMU的相对位置实现了在线的自标定,自标定是耦合在全局优化上的,没有累积误差的问题。通过全局优化可以得到准确的IMU零偏估计值,根据零偏估计量的变化实现了回环检测的正确性判断。
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种三维重建中实时全局优化和错误回环判断的方法,该方法可以在不损失精度的前提下实现了高效率的视觉和IMU信息的全局优化,且没有因为标定不准确导致的累积误差的问题,并可以进行准确的回环正确性的判断,简单易实现。
本发明的另一个目的在于提出一种三维重建中实时全局优化和错误回环判断的装置。
为达到上述目的,本发明一方面实施例提出了一种三维重建中实时全局优化和错误回环判断的方法,包括以下步骤:获取视觉信息和IMU信息,通过所述视觉信息的二次统计量和所述IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化;在全局优化函数中耦合变换矩阵,来提供准确的变换矩阵估计值,并且在全局优化过程中,提供IMU和相机的状态估计量,使得在快速移动和特征点少的时候,通过IMU信息进行定位,从而继续进行建图;获取IMU零偏的估计量,并根据所述IMU零偏的估计量识别错误回环和正确回环。
本发明实施例的三维重建中实时全局优化和错误回环判断的方法,在不损失精度的前提下实现了高效率的视觉和IMU信息的全局优化,系统能够实时运行在可便携设备上;紧耦合的自标定可以得到准确的相机和IMU的变换矩阵,没有因为标定不准确导致的累积误差的问题;根据优化得到的IMU零偏的变化量能够进行准确的回环正确性的判断,简单易实现。
另外,根据本发明上述实施例的三维重建中实时全局优化和错误回环判断的方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述获取视觉信息和IMU信息,通过所述视觉信息的二次统计量和所述IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化,包括:在优化过程中,采用关键帧策略,以使关键帧的状态量参与全局优化,且其他帧的状态量通过最接近的关键帧进行赋值。
进一步地,在本发明的一个实施例中,在全局优化过程中,还包括:根据视觉信息的和所述IMU信息的误差项获取雅各比矩阵;根据所述雅各比矩阵进行误差函数的最小化,并通过稀疏矩阵乘法得到状态更新量,以实现视觉IMU信息的全局优化。
进一步地,在本发明的一个实施例中,所述误差函数为:
其中,和均为相对位姿变化量,i和j表示帧数,为相机的IMU的角速度零偏,为根据IMU数据在初始零偏值的基础上积分得到的相对位姿变化量,bg为IMU的角速度零偏变量,Rci为相机的旋转方向,R0、P0均为相机到IMU的变换矩阵,VIj为第j帧相机IMU的速度,VIi为第i帧相机IMU的速度,Rg为重力的优化方向,g为初始的重力值,Δtij为第i帧和第j帧之间的时间间隔,为第i帧相机IMU的加速度零偏,Pci为相机的平移位置,ba为IMU的加速度零偏变量。
进一步地,在本发明的一个实施例中,还包括:通过李代数的扰动模型求出误差相对于需要优化的状态变量的导数。
为达到上述目的,本发明另一方面实施例提出了一种三维重建中实时全局优化和错误回环判断的装置,包括:构建模块,用于获取视觉信息和IMU信息,通过所述视觉信息的二次统计量和所述IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化;耦合模块,用于在全局优化函数中耦合变换矩阵,来提供准确的变换矩阵估计值,并且在全局优化过程中,提供IMU和相机的状态估计量,使得在快速移动和特征点少的时候,可以通过IMU信息进行定位,从而继续进行建图;识别模块,用于获取IMU零偏的估计量,并根据所述IMU零偏的估计量识别错误回环和正确回环。
本发明实施例的三维重建中实时全局优化和错误回环判断的装置,在不损失精度的前提下实现了高效率的视觉和IMU信息的全局优化,系统能够实时运行在可便携设备上;紧耦合的自标定可以得到准确的相机和IMU的变换矩阵,没有因为标定不准确导致的累积误差的问题;根据优化得到的IMU零偏的变化量能够进行准确的回环正确性的判断,简单易实现。
另外,根据本发明上述实施例的三维重建中实时全局优化和错误回环判断的装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述构建模块进一步用于在优化过程中,采用关键帧策略,以使关键帧的状态量参与全局优化,且其他帧的状态量通过最接近的关键帧进行赋值。
进一步地,在本发明的一个实施例中,在全局优化过程中,还包括:优化模块,用于根据视觉信息的和所述IMU信息的误差项获取雅各比矩阵,并根据所述雅各比矩阵进行误差函数的最小化,并通过稀疏矩阵乘法得到状态更新量,以实现视觉IMU信息的全局优化。
进一步地,在本发明的一个实施例中,所述误差函数为:
其中,和均为相对位姿变化量,i和j表示帧数,为相机的IMU的角速度零偏,为根据IMU数据在初始零偏值的基础上积分得到的相对位姿变化量,bg为IMU的角速度零偏变量,Rci为相机的旋转方向,R0、P0均为相机到IMU的变换矩阵,VIj为第j帧相机IMU的速度,VIi为第i帧相机IMU的速度,Rg为重力的优化方向,g为初始的重力值,Δtij为第i帧和第j帧之间的时间间隔,为第i帧相机IMU的加速度零偏,Pci为相机的平移位置,ba为IMU的加速度零偏变量。
进一步地,在本发明的一个实施例中,还包括:求解模块,用于通过李代数的扰动模型求出误差相对于需要优化的状态变量的导数。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的三维重建中实时全局优化和错误回环判断的方法的流程图;
图2为根据本发明实施例的系统多线程结构图;
图3为根据本发明实施例的视觉和IMU观测结果构成的约束关系示意图;
图4为根据本发明实施例的三维重建结果示意图;
图5为根据本发明实施例的J(ξ)TJ(ξ)的计算分解示意图;
图6为根据本发明实施例的实验设备实物图;
图7为根据本发明实施例的三维重建中实时全局优化和错误回环判断的装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的三维重建中实时全局优化和错误回环判断的方法及装置,首先将参照附图描述根据本发明实施例提出的三维重建中实时全局优化和错误回环判断的方法。
图1是本发明一个实施例的三维重建中实时全局优化和错误回环判断的方法的流程图。
如图1所示,该三维重建中实时全局优化和错误回环判断的方法包括以下步骤:
在步骤S101中,获取视觉信息和IMU信息,通过视觉信息的二次统计量和IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化。
可以理解的是,如图2所示,实现了视觉、IMU信息的全局优化,通过视觉的二次统计量和IMU的预计分来构建优化方程,大大加快了优化速度,从而实现了基于CPU的实时在线全局优化。
进一步地,在本发明的一个实施例中,获取视觉信息和IMU信息,通过视觉信息的二次统计量和IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化,包括:在优化过程中,采用关键帧策略,以使关键帧的状态量参与全局优化,且其他帧的状态量通过最接近的关键帧进行赋值。
具体而言,在优化中采用了关键帧策略,只有关键帧的状态量参与全局优化而其他帧的状态量通过最接近的关键帧来赋值。
定义的符号如下:第i个关键帧写作Fi,包含RGBD相机的拍摄数据彩色图Ii和深度图Di。对于关键帧Fi,需要优化的状态变量分别是Rci、Pci、VIi、表示了相机的旋转方向、平移位置、IMU的速度、IMU的角速度零偏、加速度零偏。RIi、PIi是对应的IMU的旋转和平移,R0、P0是相机到IMU的变换矩阵。g是初始的重力值,Rg是重力的优化方向。通过预先标定或者初始化过程得到的相机IMU变换矩阵和重力方向会引起误差积累,随着路径的增长会逐渐放大微小的误差。
另一方面,通过全局优化得到的相机IMU变换矩阵和重力方向将越来越精确,从而达到全局一致性,避免了误差积累。因此,本发明实施例在一个整体的全局优化函数中估计了相机的状态量Rci、Pci、VIi、相机IMU变换矩阵R0、P0和重力方向Rg。R0、P0和Rg是全局变量。为了简化表示,使用S来表示全局优化中的所有的优化量:S={R,P,V,bg,ba,R0,P0,Rg},其中相邻关键帧之间的IMU数据进行积分可以得到相邻关键帧之间的运动约束在匹配的关键帧对中,视觉找到的匹配特征点构建了视觉约束全部匹配的关键帧对写作Ω。其中,视觉和IMU观测结果构成的约束关系如图3所示。
在步骤S102中,在全局优化函数中耦合变换矩阵,来提供准确的变换矩阵估计值,并且在全局优化过程中,提供IMU和相机的状态估计量,使得在快速移动和特征点少的时候,通过IMU信息进行定位,从而继续进行建图。
可以理解的是,如图2所示,在全局优化函数中耦合了变换矩阵的优化,可以实现在线的标定,不需要视觉初始化的过程,变换矩阵的优化会越来越准确,避免了误差的累积。全局优化提供了准确的状态估计量,使得系统在快速移动和特征点少的时候能够继续进行建图。其中,在建图线程中,TSDF融合提供三维模型,三维重建结果如图4所示。
进一步地,在本发明的一个实施例中,在全局优化过程中,还包括:根据视觉信息的和IMU信息的误差项获取雅各比矩阵;根据雅各比矩阵进行误差函数的最小化,并通过稀疏矩阵乘法得到状态更新量,以实现视觉IMU信息的全局优化。
可以理解的是,本发明实施例在视觉和IMU信息的全局优化中采用了视觉特征点的二阶统计量来构建视觉部分的雅各比矩阵,结合IMU的预积分构建了整体的优化方程,从而大大加快了全局优化的计算速度。在全局优化函数中耦合了相机和IMU的变换矩阵,从而在全局优化中实现了自标定,没有标定误差积累的问题。
具体而言,构建下面的误差函数,通过最小化误差函数求出S={R,P,V,bg,ba,R0,P0,Rg}的估计值:
得到误差函数1后,通过下面的高斯牛顿优化方法来计算状态量的更新量,实现误差函数的最小化:δ=-(J(ξ)TJ(ξ))-1J(ξ)Tr(ξ) (2)
其中J(ξ)是误差函数1对所有状态量求导得到的雅各比矩阵,r(ξ)是误差函数1得到的误差项,δ是求出的状态量的更新量。J(ξ)TJ(ξ)和J(ξ)Tr(ξ)的计算过程是优化问题中计算复杂度的主要来源,下面介绍J(ξ)TJ(ξ)的计算分解过程和加速方法,J(ξ)Tr(ξ)可以通过同样的方法进行计算加速。
通过图5可以看出,整体的雅各比矩阵J(ξ)是由视觉和IMU误差项分别求出的雅各比矩阵组合而成。CF和CI的计算复杂度是O(k*Ncorr)和O(N),其中N是关键帧的个数,Ncorr是帧对的个数,k是平均每个帧对的匹配特征点对的个数。关键帧的个数远小于特征点对的个数,所以优化问题的计算复杂度主要存在于CF,即JTJ的计算耗费主要在图5的上。加速计算的关键在于加快的计算。其中JA是特征点对的雅各比矩阵,本发明通过特征点的二阶统计量可以直接得到在不损失计算精度的前提下实现了把CF的计算复杂度从O(k*Ncorr)降到了O(Ncorr),从而显著降低JTJ的计算复杂度,下面是通过二阶统计量来计算的具体方法:
每个匹配的帧对(Fi,Fj)有很多匹配的特征点对这里Pi k表示第k个特征点在第i帧观测的坐标。对第i帧来说,Tci是欧氏空间中的刚性变换矩阵,ξi是对应的李代数,Rci、Pci是变换矩阵的旋转和平移部分,Tci=[Rci|Pci]。在匹配的帧对中找到匹配的特征点对之后,对于每个匹配的特征点对,可以写出下面的误差函数:
通过组合所有的特征点的误差函数,可以得到下面的视觉部分整体的误差函数:
其中是Pi k第i帧相机坐标系下点坐标的齐次坐标,第一帧的相机位姿T0设为单位阵,由此初始化世界坐标系。N是关键帧的总数。对于视觉初始化来说,位姿估计可以通过最小化误差函数4来获得。对于相邻的关键帧Fi和Fj,可以通过视觉求出位姿Rci、Pci和Rcj、Pcj。
对于一个关键帧i和关键帧j之间的特征点对,有下面的子矩阵:
Jm只有两个非零的3*6的子矩阵,所以(m∈Ci,j)只有四个非零的处于在相同位置的6*6的子矩阵,作为(m∈Ci,j)的组合,有四个6*6的非零子矩阵,分别写作下面展示了的计算过程,其他的子矩阵可以通过同样的方法计算得到:
下面介绍IMU部分的雅各比矩阵的计算过程:
相机和IMU的变换矩阵是R0、P0,可以获得下面的从相机坐标系到IMU坐标系的转换:,
RIi=RciR0
PIi=Pci+RciP0 (10)
假设在t-[t+Δt]时刻角速度和加速度保持不变,可以通过t时刻的状态获取t+Δt时刻的状态;
RI(t+Δt)=RI(t)Exp(ω(t)Δt)
VI(t+Δt)=VI(t)+a(t)Δt (12)
把11带入12,可以得到下面的关系式:
通过多段IMU数据的积分可以得到i到j时刻的位姿关系式:
为了避免重复积分,计算下面的位姿变化量:
通过下面的方式分离ΔRij中的噪声:
在通过视觉的方法得到相机位姿之后可以经过转换得到IMU的位姿,从而在相邻的关键帧之间写出下面的位姿变化量:
通过零偏的线性化可以将式18写成下面的形式:
利用式10把相机位姿带入,通过Rgg来代替Rg,可以得到下面的误差函数:
进一步地,在本发明的一个实施例中,还包括:通过李代数的扰动模型求出误差相对于需要优化的状态变量的导数。
具体地,然后可以通过李代数的扰动模型求出误差相对于需要优化的状态变量(S={R,P,V,bg,ba,R0,P0,Rg})的雅各比矩阵。全局变量R0、P0和Rg紧耦合在全局优化函数中,从而实现了在全局优化过程中进行自标定,标定结果不会产生误差积累。得到IMU误差项的雅各比矩阵,即得到了图5中的JB、JC、JD,加上视觉部分已经得到的可以计算得到图5中的J(ξ)TJ(ξ),通过同样的方法可以得到J(ξ)Tr(ξ)。通过稀疏矩阵乘法可以得到状态更新量δ,从而实现了视觉IMU信息的全局优化。
在步骤S103中,获取IMU零偏的估计量,并根据IMU零偏的估计量识别错误回环和正确回环。
可以理解的是,通过IMU零偏的估计量来检测回环检测的正确性,使得系统能够准确识别错误和正确回环;在检测到回环的时候通过视觉和IMU的全局优化实现了全局一致性,消除了误差积累。也就是说,本发明实施例可以在全局优化后通过IMU零偏的变化量来实现错误回环的去除,能够准确识别正确回环和错误回环。
具体而言,错误回环检测的判断:回环检测可以实现建图的全局一致性,而错误的回环检测会破坏这种全局一致性;在发生正确回环检测的时候,零偏的估计量不会发生大的变化,而发生错误的回环检测时破坏了建图的一致性,为了拟合错误回环会产生轨迹的不合理形变,IMU的零偏估计量的更新量会发生突然的增大。所以根据IMU零偏估计量的变化可以判断当前回环检测的正确性。如果IMU零偏估计量发生了突变,就取消当前的回环检测,这样可以实现准确的错误回环的去除,提高了系统的鲁棒性。
综上,本发明实施例的目的为:分析全局优化中主要复杂度的来源,通过推导实现加速运算,使得整体的计算复杂度大大下降,实现了基于CPU的视觉IMU信息实时全局优化,保证了全局一致性,使系统能够运行在可便携设备上。同时在全局优化中加入紧耦合的自标定,避免了离线标定的复杂流程和误差积累,也避免了初始化过程的误差问题。通过全局优化获得准确的IMU零偏估计之后,通过IMU零偏的变化量准确识别错误回环和正确回环。
另外,本发明实施例使用如图6的实验设备:Xtion深度相机+IMU(SC-AHRS-100D2)+微软Surface Pro,进行实验、模拟、使用,实验结果验证了全局优化的速度获得了大幅度提高,可以在可便携设备上实现实时的基于视觉和IMU信息全局优化的三维重建,在视觉跟踪失败的时候利用IMU信息可以实现准确的相机定位,可以成功应对场景纹理特征少和快速移动的情况。能够成功识别回环检测的正确性,从而保证了全局一致性。
需要说明的是,本发明实施例可以通过变更设计实现三维重建中实时全局优化和错误回环判断的方法,比如,通过视觉信息的统计量构建视觉优化的雅各比矩阵,只进行视觉的优化;更改视觉和IMU全局优化时的整体雅各比矩阵的排列结构;通过IMU零偏的变化判断系统的运行状况,检测视觉跟踪的正确性。且本发明实施例还具有其他用途,比如,在视觉和IMU信息联合优化的时候,通过本方法来加速运算。
根据本发明实施例提出的三维重建中实时全局优化和错误回环判断的方法,在不损失精度的前提下实现了高效率的视觉和IMU信息的全局优化,系统能够实时运行在可便携设备上;紧耦合的自标定可以得到准确的相机和IMU的变换矩阵,没有因为标定不准确导致的累积误差的问题;根据优化得到的IMU零偏的变化量能够进行准确的回环正确性的判断,简单易实现。
其次参照附图描述根据本发明实施例提出的三维重建中实时全局优化和错误回环判断的装置。
图7是本发明一个实施例的三维重建中实时全局优化和错误回环判断的装置的结构示意图。
如图7所示,该三维重建中实时全局优化和错误回环判断的装置10包括:构建模块100、耦合模块200和识别模块300。
其中,构建模块100用于获取视觉信息和IMU信息,通过视觉信息的二次统计量和IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化。耦合模块200用于在全局优化函数中耦合变换矩阵,来提供准确的变换矩阵估计值,并且在全局优化过程中,提供IMU和相机的状态估计量,使得在快速移动和特征点少的时候,通过IMU信息进行定位,从而继续进行建图。识别模块300用于获取IMU零偏的估计量,并根据IMU零偏的估计量识别错误回环和正确回环。本发明实施例的装置10可以在不损失精度的前提下实现了高效率的视觉和IMU信息的全局优化,且没有因为标定不准确导致的累积误差的问题,并可以进行准确的回环正确性的判断,简单易实现。
进一步地,在本发明的一个实施例中,构建模块100进一步用于在优化过程中,采用关键帧策略,以使关键帧的状态量参与全局优化,且其他帧的状态量通过最接近的关键帧进行赋值。
进一步地,在本发明的一个实施例中,在全局优化过程中,本发明实施例的装置10还包括:优化模块。其中,优化模块用于根据视觉信息的和IMU信息的误差项获取雅各比矩阵,并根据雅各比矩阵进行误差函数的最小化,并通过稀疏矩阵乘法得到状态更新量,以实现视觉IMU信息的全局优化。
进一步地,在本发明的一个实施例中,误差函数为:
其中,和均为相对位姿变化量,i和j表示帧数,为相机的IMU的角速度零偏,为根据IMU数据在初始零偏值的基础上积分得到的相对位姿变化量,bg为IMU的角速度零偏变量,Rci为相机的旋转方向,R0、P0均为相机到IMU的变换矩阵,VIj为第j帧相机IMU的速度,VIi为第i帧相机IMU的速度,Rg为重力的优化方向,g为初始的重力值,Δtij为第i帧和第j帧之间的时间间隔,为第i帧相机IMU的加速度零偏,Pci为相机的平移位置,ba为IMU的加速度零偏变量。
进一步地,在本发明的一个实施例中,本发明实施例的装置10还包括:求解模块。其中,求解模块用于通过李代数的扰动模型求出误差相对于需要优化的状态变量的导数。
需要说明的是,前述对三维重建中实时全局优化和错误回环判断的方法实施例的解释说明也适用于该实施例的三维重建中实时全局优化和错误回环判断的装置,此处不再赘述。
根据本发明实施例提出的三维重建中实时全局优化和错误回环判断的装置,在不损失精度的前提下实现了高效率的视觉和IMU信息的全局优化,系统能够实时运行在可便携设备上;紧耦合的自标定可以得到准确的相机和IMU的变换矩阵,没有因为标定不准确导致的累积误差的问题;根据优化得到的IMU零偏的变化量能够进行准确的回环正确性的判断,简单易实现。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种三维重建中实时全局优化和错误回环判断的方法,其特征在于,包括以下步骤:
每个匹配的帧对(Fi,Fj)有多个匹配的特征点对其中,Pi k表示第k个特征点在第i帧观测的坐标,对第i帧来说,Tci是欧氏空间中的刚性变换矩阵,ξi是对应的李代数,Rci、Pci是变换矩阵的旋转和平移部分,Tci=[Rci|Pci],在匹配的帧对中找到匹配的特征点对后,对每个匹配的特征点对的误差函数为:
通过组合所有的特征点的误差函数,得到视觉部分整体的误差函数:
其中是Pi k第i帧相机坐标系下点坐标的齐次坐标,第一帧的相机位姿T0设为单位阵,初始化世界坐标系,N是关键帧的总数,视觉初始化中位姿估计通过最小化误差函数来获得,对于相邻的关键帧Fi和Fj,根据视觉求出位姿Rci、Pci和Rcj、Pcj,
一个关键帧i和关键帧j之间的特征点对,有子矩阵为:
在全局优化函数中耦合变换矩阵,来提供准确的变换矩阵估计值,并且在全局优化过程中,提供IMU和相机的状态估计量,使得在快速移动和特征点少的时候,通过IMU信息进行定位,从而继续进行建图,其中,第i个关键帧写作Fi,包含RGBD相机的拍摄数据彩色图Ii和深度图Di,对于关键帧Fi,需要优化的状态变量分别是Rci、Pci、VIi、 表示了相机的旋转方向、平移位置、IMU的速度、IMU的角速度零偏、加速度零偏,RIi、PIi是对应的IMU的旋转和平移,R0、P0是相机到IMU的变换矩阵,g是初始的重力值,Rg是重力的优化方向,在一个整体的全局优化函数中相机的状态量Rci、Pci、VIi、相机IMU变换矩阵R0、P0和重力方向Rg,R0、P0和Rg是全局变量,使用S来表示全局优化中的所有的优化量:S={R,P,V,bg,ba,R0,P0,Rg},其中相邻关键帧之间的IMU数据进行积分得到相邻关键帧之间的运动约束在匹配的关键帧对中,视觉找到的匹配特征点构建视觉约束全部匹配的关键帧对写作Ω,在全局优化过程中,还包括:根据视觉信息的和IMU信息的误差项获取雅各比矩阵;根据雅各比矩阵进行误差函数的最小化,并通过稀疏矩阵乘法得到状态更新量,以实现视觉IMU信息的全局优化,构建误差函数,通过最小化误差函数求出S={R,P,V,bg,ba,R0,P0,Rg}的估计值:
获取IMU零偏的估计量,并根据所述IMU零偏的估计量识别错误回环和正确回环。
2.根据权利要求1所述的方法,其特征在于,所述获取视觉信息和IMU信息,通过所述视觉信息的二次统计量和所述IMU信息的预计分构建优化方程,以进行CPU的实时在线全局优化,包括:
在优化过程中,采用关键帧策略,以使关键帧的状态量参与全局优化,且其他帧的状态量通过最接近的关键帧进行赋值。
4.根据权利要求3所述的方法,其特征在于,还包括:
通过李代数的扰动模型求出误差相对于需要优化的状态变量的导数。
5.一种三维重建中实时全局优化和错误回环判断的装置,其特征在于,包括:
每个匹配的帧对(Fi,Fj)有多个匹配的特征点对其中,Pi k表示第k个特征点在第i帧观测的坐标,对第i帧来说,Tci是欧氏空间中的刚性变换矩阵,ξi是对应的李代数,Rci、Pci是变换矩阵的旋转和平移部分,Tci=[Rci|Pci],在匹配的帧对中找到匹配的特征点对后,对每个匹配的特征点对的误差函数为:
通过组合所有的特征点的误差函数,得到视觉部分整体的误差函数:
其中是Pi k第i帧相机坐标系下点坐标的齐次坐标,第一帧的相机位姿T0设为单位阵,初始化世界坐标系,N是关键帧的总数,视觉初始化中位姿估计通过最小化误差函数来获得,对于相邻的关键帧Fi和Fj,根据视觉求出位姿Rci、Pci和Rcj、Pcj,
一个关键帧i和关键帧j之间的特征点对,有子矩阵为:
耦合模块,用于在全局优化函数中耦合变换矩阵,来提供准确的变换矩阵估计值,并且在全局优化过程中,提供IMU和相机的状态估计量,使得在快速移动和特征点少的时候,通过IMU信息进行定位,从而继续进行建图,其中,第i个关键帧写作Fi,包含RGBD相机的拍摄数据彩色图Ii和深度图Di,对于关键帧Fi,需要优化的状态变量分别是Rci、Pci、VIi、表示了相机的旋转方向、平移位置、IMU的速度、IMU的角速度零偏、加速度零偏,RIi、PIi是对应的IMU的旋转和平移,R0、P0是相机到IMU的变换矩阵,g是初始的重力值,Rg是重力的优化方向,在一个整体的全局优化函数中相机的状态量Rci、Pci、VIi、相机IMU变换矩阵R0、P0和重力方向Rg,R0、P0和Rg是全局变量,使用S来表示全局优化中的所有的优化量:S={R,P,V,bg,ba,R0,P0,Rg},其中相邻关键帧之间的IMU数据进行积分得到相邻关键帧之间的运动约束在匹配的关键帧对中,视觉找到的匹配特征点构建视觉约束全部匹配的关键帧对写作Ω,在全局优化过程中,还包括:根据视觉信息的和IMU信息的误差项获取雅各比矩阵;根据雅各比矩阵进行误差函数的最小化,并通过稀疏矩阵乘法得到状态更新量,以实现视觉IMU信息的全局优化,构建误差函数,通过最小化误差函数求出S={R,P,V,bg,ba,R0,P0,Rg}的估计值:以及
识别模块,用于获取IMU零偏的估计量,并根据所述IMU零偏的估计量识别错误回环和正确回环。
6.根据权利要求5所述的装置,其特征在于,所述构建模块进一步用于在优化过程中,采用关键帧策略,以使关键帧的状态量参与全局优化,且其他帧的状态量通过最接近的关键帧进行赋值。
8.根据权利要求7所述的装置,其特征在于,还包括:
求解模块,用于通过李代数的扰动模型求出误差相对于需要优化的状态变量的导数。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910968740.7A CN110986968B (zh) | 2019-10-12 | 2019-10-12 | 三维重建中实时全局优化和错误回环判断的方法及装置 |
US17/036,457 US11514607B2 (en) | 2019-10-12 | 2020-09-29 | 3-dimensional reconstruction method, 3-dimensional reconstruction device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910968740.7A CN110986968B (zh) | 2019-10-12 | 2019-10-12 | 三维重建中实时全局优化和错误回环判断的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110986968A CN110986968A (zh) | 2020-04-10 |
CN110986968B true CN110986968B (zh) | 2022-05-24 |
Family
ID=70081865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910968740.7A Active CN110986968B (zh) | 2019-10-12 | 2019-10-12 | 三维重建中实时全局优化和错误回环判断的方法及装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11514607B2 (zh) |
CN (1) | CN110986968B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111521187B (zh) * | 2020-05-13 | 2022-04-12 | 北京百度网讯科技有限公司 | 自动驾驶定位组合导航方法、装置、设备及存储介质 |
CN111862316B (zh) * | 2020-07-28 | 2024-01-05 | 杭州深瞳科技有限公司 | 一种基于优化的imu紧耦合稠密直接rgbd的三维重建方法 |
CN112330735B (zh) * | 2020-10-26 | 2022-06-17 | 武汉中海庭数据技术有限公司 | 一种车体相对位置测量精度置信度评估方法及系统 |
CN112461228B (zh) * | 2020-11-03 | 2023-05-09 | 南昌航空大学 | 一种相似环境下基于imu和视觉的二次回环检测定位方法 |
CN113644984B (zh) * | 2021-10-14 | 2022-03-11 | 清华大学 | 光电数字逻辑运算的光学逻辑元件及其逻辑运算方法 |
CN114013449B (zh) * | 2021-11-02 | 2023-11-03 | 阿波罗智能技术(北京)有限公司 | 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆 |
CN115908482B (zh) * | 2022-10-14 | 2023-10-20 | 荣耀终端有限公司 | 建模错误数据的定位方法和装置 |
CN115451958B (zh) * | 2022-11-10 | 2023-02-03 | 中国人民解放军国防科技大学 | 基于相对旋转角度的相机绝对姿态优化方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9651388B1 (en) * | 2007-10-25 | 2017-05-16 | Rockwell Collins, Inc. | System and method for improved simultaneous localization and mapping |
CN107504969A (zh) * | 2017-07-24 | 2017-12-22 | 哈尔滨理工大学 | 基于视觉和惯性组合的四旋翼室内导航方法 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及系统 |
CN108665540A (zh) * | 2018-03-16 | 2018-10-16 | 浙江工业大学 | 基于双目视觉特征和imu信息的机器人定位与地图构建系统 |
CN109579840A (zh) * | 2018-10-25 | 2019-04-05 | 中国科学院上海微系统与信息技术研究所 | 一种点线特征融合的紧耦合双目视觉惯性slam方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110030994A (zh) * | 2019-03-21 | 2019-07-19 | 东南大学 | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 |
CN110125928A (zh) * | 2019-03-27 | 2019-08-16 | 浙江工业大学 | 一种基于前后帧进行特征匹配的双目惯导slam系统 |
CN110207693A (zh) * | 2019-05-21 | 2019-09-06 | 南京航空航天大学 | 一种鲁棒立体视觉惯性预积分slam方法 |
CN110296702A (zh) * | 2019-07-30 | 2019-10-01 | 清华大学 | 视觉传感器与惯导紧耦合的位姿估计方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9607401B2 (en) * | 2013-05-08 | 2017-03-28 | Regents Of The University Of Minnesota | Constrained key frame localization and mapping for vision-aided inertial navigation |
US9658070B2 (en) * | 2014-07-11 | 2017-05-23 | Regents Of The University Of Minnesota | Inverse sliding-window filters for vision-aided inertial navigation systems |
US10032276B1 (en) * | 2016-08-29 | 2018-07-24 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10043076B1 (en) * | 2016-08-29 | 2018-08-07 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
EP3818499A1 (en) * | 2018-09-07 | 2021-05-12 | Huawei Technologies Co., Ltd. | Device and method for performing simultaneous localization and mapping |
US20210396522A1 (en) * | 2020-06-17 | 2021-12-23 | Microsoft Technology Licensing, Llc | Pedestrian dead reckoning using map constraining features |
-
2019
- 2019-10-12 CN CN201910968740.7A patent/CN110986968B/zh active Active
-
2020
- 2020-09-29 US US17/036,457 patent/US11514607B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9651388B1 (en) * | 2007-10-25 | 2017-05-16 | Rockwell Collins, Inc. | System and method for improved simultaneous localization and mapping |
CN107504969A (zh) * | 2017-07-24 | 2017-12-22 | 哈尔滨理工大学 | 基于视觉和惯性组合的四旋翼室内导航方法 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及系统 |
CN108665540A (zh) * | 2018-03-16 | 2018-10-16 | 浙江工业大学 | 基于双目视觉特征和imu信息的机器人定位与地图构建系统 |
CN109579840A (zh) * | 2018-10-25 | 2019-04-05 | 中国科学院上海微系统与信息技术研究所 | 一种点线特征融合的紧耦合双目视觉惯性slam方法 |
CN110030994A (zh) * | 2019-03-21 | 2019-07-19 | 东南大学 | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 |
CN110125928A (zh) * | 2019-03-27 | 2019-08-16 | 浙江工业大学 | 一种基于前后帧进行特征匹配的双目惯导slam系统 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110207693A (zh) * | 2019-05-21 | 2019-09-06 | 南京航空航天大学 | 一种鲁棒立体视觉惯性预积分slam方法 |
CN110296702A (zh) * | 2019-07-30 | 2019-10-01 | 清华大学 | 视觉传感器与惯导紧耦合的位姿估计方法及装置 |
Non-Patent Citations (4)
Title |
---|
Real-time Indoor Scene Reconstruction with RGBD and Inertial Input;Zunjie Zhu等;《IEEE international conference on multimedia and Expo(ICME)》;20190805;第7-12页 * |
Visual-Inertial Monocular SLAM With Map Reuse;Mur-Artal等;《IEEE Robotics and Automation Letters》;20170116;第2卷(第2期);第796-803页 * |
基于关键帧的视觉惯性SLAM闭环检测算法;张玉龙等;《计算机科学与探索》;20180411;第12卷(第11期);第1777-1787页 * |
视觉惯性SLAM综述;孙永全等;《计算机应用研究》;20190114;第36卷(第12期);第3530-3533、3552页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110986968A (zh) | 2020-04-10 |
US11514607B2 (en) | 2022-11-29 |
US20210110576A1 (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110986968B (zh) | 三维重建中实时全局优化和错误回环判断的方法及装置 | |
CN110030994B (zh) | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 | |
Kaiser et al. | Simultaneous state initialization and gyroscope bias calibration in visual inertial aided navigation | |
CN112649016B (zh) | 一种基于点线初始化的视觉惯性里程计方法 | |
CN111795686B (zh) | 一种移动机器人定位与建图的方法 | |
CN108981693B (zh) | 基于单目相机的vio快速联合初始化方法 | |
CN110702107A (zh) | 一种单目视觉惯性组合的定位导航方法 | |
US20210183100A1 (en) | Data processing method and apparatus | |
CN110455309B (zh) | 具备在线时间校准的基于msckf的视觉惯性里程计 | |
Zhang et al. | Vision-aided localization for ground robots | |
CN113516692B (zh) | 一种多传感器融合的slam方法和装置 | |
CN116342661A (zh) | 利用路标点偏置位姿修正的双目视觉惯性里程计方法 | |
CN113674412B (zh) | 基于位姿融合优化的室内地图构建方法、系统及存储介质 | |
Yu et al. | Vision-aided inertial navigation with line features and a rolling-shutter camera | |
WO2023087681A1 (zh) | 定位初始化方法、装置、计算机可读存储介质和计算机程序产品 | |
White et al. | An iterative pose estimation algorithm based on epipolar geometry with application to multi-target tracking | |
CN116929338A (zh) | 地图构建方法、设备及存储介质 | |
CN115014346A (zh) | 一种面向视觉惯性定位的基于地图的一致高效滤波算法 | |
Dinc et al. | Mirage: an O (n) time analytical solution to 3D camera pose estimation with multi-camera support | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
CN114993338B (zh) | 基于多段独立地图序列的一致性高效视觉惯性里程计算法 | |
KR102406240B1 (ko) | 강인한 스테레오 비주얼 관성 항법 장치 및 방법 | |
CN111553933B (zh) | 一种应用于不动产测量基于优化的视觉惯性组合测量方法 | |
Silveira et al. | Visual servoing over unknown, unstructured, large-scale scenes | |
Jaekel et al. | Robust multi-stereo visual-inertial odometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |