CN115235454A - 行人运动约束的视觉惯性融合定位与建图方法和装置 - Google Patents
行人运动约束的视觉惯性融合定位与建图方法和装置 Download PDFInfo
- Publication number
- CN115235454A CN115235454A CN202211123604.6A CN202211123604A CN115235454A CN 115235454 A CN115235454 A CN 115235454A CN 202211123604 A CN202211123604 A CN 202211123604A CN 115235454 A CN115235454 A CN 115235454A
- Authority
- CN
- China
- Prior art keywords
- imu
- factor
- foot
- bound
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
Abstract
本申请涉及一种行人运动约束的视觉惯性融合定位与建图方法和装置。所述方法包括:对足绑式IMU进行因子图建模,得到因子图,根据足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子;根据视觉惯性里程计观测的位置信息与足绑式IMU观测的位置信息,构建视觉惯性里程计因子;将零速修正因子和视觉惯性里程计因子作为状态变量的约束条件,对因子图进行优化,得到优化因子图;根据视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据关键帧图像进行稠密重建,得到建图结果;对优化因子图和建图结果进行融合,实现行人运动的定位与建图。采用本方法能够复杂环境下的行人导航定位与建图。
Description
技术领域
本申请涉及行人导航技术领域,特别是涉及一种行人运动约束的视觉惯性融合定位与建图方法和装置。
背景技术
尽管卫星导航技术广泛应用于我们生产生活的各个领域,但是卫星导航易受遮挡而无法应用于室内、密林、隧道、地下等复杂场景,更不能全面满足行人导航需求。并且,行人运动模式更为灵活自由,动态模式更为复杂多变,导航装备精度要求高,体积成本要求低,因此与车辆、无人机等载体的导航模式有着很大的不同。行人导航也就成为了导航领域公认的难题之一,也是当前研究的热点问题之一。
为了解决行人自主导航定位问题,Hemin Zhang等人提出了一种基于航位推算的定位解算方法,其主要利用行人步态模型结合加速度计输出估计步长,结合陀螺与磁强计来进行航位推算。Skog等人足绑式MIMU上,提出了SHOE零速检测器来抑制低精度MIMU惯导的捷联惯性导航解算中的误差发散问题,从一定程度上提高了定位精度与稳定性。但是这两者方法由于主要依赖惯性信息来对行人进行定位,难以实现长航时的高精度定位。Andrei等人则提出了uNavchip结合零速检测与协同导航方法实现行人的导航定位。随着SLAM相关技术的发展,基于视觉的方法为解决行人导航问题提供了重要的思路。视觉传感器信息源包含了大量的关于运动场景的集合信息,视觉里程计或者惯性里程计通过利用这些场景中的几何信息,大大提高了行人导航定位的精度。如VINS、ORB-SLAM3等视觉SLAM方案利用视觉、惯性、深度等信息对相机进行位姿解算,将其用于行人导航可提高定位的可靠性与精度。陈泽等人则提出了利用足部惯性导航模块来修正视觉惯性里程计的行人全源导航算法,但是这种方法以视觉惯性模块为核心,易受到环境干扰而失效,鲁棒性相对不高。
视觉三维重建算法对于行人导航有着重要意义。行人导航过程中进行稠密三维重建有助于提高行人与环境的交互感知能力,是增强现实,语义分割,路径规划,导航避障等下游技术的基础。在视觉SLAM领域,RGB-D方法可以提供稠密的深度图和运动轨迹,因此也是三维重建领域的重要方法。Bylow等人和Kerl等人主要利用RGB-D相机在高精度轨迹估计反面展开了深入的研究。相较于RGB-D建图,单目方法不论是在建图还是在跟踪方面都具有许多挑战。Newcombe等人提出了DTAM算法使用一个单目相机,在GPU上实时对基于光流的代价体对相机位姿和稠密地图进行联合估计。最近有许多基于深度学习的方法相较于经典方法有了更好的表现。这些方法利用深度神经网络来构建出三维模型,这些3D模型涵盖了体积表示,3D点云表示以及深度图集表示等多种表示形式。Huang等人提出了DeepMVS算法根据输入图像预测的二维深度特征图直接计算单个体积。在接下来的工作中,Yao等人提出了MVSNet,利用一个循环网络来取代卷积神经网络进行深度预测。
发明内容
基于此,有必要针对上述技术问题,提供一种行人运动约束的视觉惯性融合定位与建图方法和装置。
一种行人运动约束的视觉惯性融合定位与建图方法,应用于行人导航中,其中足绑式IMU设置在行人足部,视觉惯性里程计设置在行人腿部以上的躯干部分;所述视觉惯性里程计包括:视觉传感器和惯性传感器,所述方法包括:
对所述足绑式IMU进行因子图建模,得到因子图;其中,所述因子图中的因子节点包括:偏差因子节点和IMU因子节点,所述偏差因子节点连接相邻的偏差变量,所述IMU因子节点连接当前时刻的状态变量和偏差变量与下一时刻的状态变量;
根据所述足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子;
根据所述视觉惯性里程计观测的位置信息与所述足绑式IMU观测的位置信息,构建视觉惯性里程计因子;
将所述零速修正因子和所述视觉惯性里程计因子作为状态变量的约束条件,对所述因子图进行优化,得到优化因子图;
根据所述视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据所述关键帧图像进行稠密重建,得到建图结果;
对所述优化因子图和所述建图结果进行融合,实现行人运动的定位与建图。
在其中一个实施例中,还包括:构建坐标系方向为右-前-上的载体坐标系以及东-北-天的导航坐标系,通过对所述足绑式IMU进行初始化;
利用所述足绑式IMU静止时的三轴加速度测量得到横滚角和俯仰角;
根据所述横滚角和所述俯仰角,将足绑式IMU的测量数据从载体坐标系转化至导航坐标系,并计算得到在导航坐标系中的初始航向角。
在其中一个实施例中,还包括:通过足绑式IMU进行零速检测之后,进行足绑式IMU和所述视觉惯性里程计时间同步的步骤包括:
将足绑式IMU和所述视觉惯性里程计的传感器信息通过话题通讯机制上传至数据处理中心,并通过数据处理中心对所述传感器数据打上时间戳;
进行足绑式IMU和所述视觉惯性里程计空间上同步的步骤包括:
确定足绑式IMU和所述视觉惯性里程计在水平方向上初始航向角偏差值,根据所述初始航向角偏差值,对足绑式IMU和所述视觉惯性里程计进行空间对齐。
在其中一个实施例中,还包括:对所述视觉惯性里程计进行因子图建模,得到定位因子图;所述定位因子图中的因子包括:视觉因子和惯性因子;所述视觉因子是根据视觉传感器对运动对象的像素点位置进行测量产生的测量位置误差确定的;所述惯性因子是通过预积分方式计算得到的;
对所述定位因子图进行计算,得到视觉惯性里程计的定位数据。
在其中一个实施例中,还包括:根据视觉传感器对运动对象的像素点位置进行测量产生的测量位置误差,得到视觉因子为:
在其中一个实施例中,还包括:对所述足绑式IMU状态随时间变化的过程建模为:
在其中一个实施例中,还包括:根据所述足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子为:
在其中一个实施例中,还包括:根据所述视觉惯性里程计观测的位置信息与所述足绑式IMU观测的位置信息,构建视觉惯性里程计因子为:
在其中一个实施例中,还包括:根据足绑式IMU的零速检测结果,剔除处于同一步态范围内的关键帧,得到不同步态中的关键帧;
将所述关键帧以及所述关键帧对应的全局位姿作为输入,输入预先构建的CVA-MVSNet模型进行分层深度估计,聚合所有关键帧的深度特征,得到深度估计结果;其中,聚合所有关键帧的深度特征包括:单阶段深度估计过程和分层深度估计过程;
所述单阶段深度估计过程为:采用自适应视图分级的方式构建成代价体为:
将所述代价体输入3D U-Net模型进行正则化并最终经过softmax非线性层输出估计深度值为:
一种行人运动约束的视觉惯性融合定位与建图装置,应用于行人导航中,其中足绑式IMU设置在行人足部,视觉惯性里程计设置在行人腿部以上的躯干部分;所述视觉惯性里程计包括:视觉传感器和惯性传感器,所述装置包括:
因子图构建模块,用于对所述足绑式IMU进行因子图建模,得到因子图;其中,所述因子图中的因子节点包括:偏差因子节点和IMU因子节点,所述偏差因子节点连接相邻的偏差变量,所述IMU因子节点连接当前时刻的状态变量和偏差变量与下一时刻的状态变量;
约束构建模块,用于根据所述足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子;根据所述视觉惯性里程计观测的位置信息与所述足绑式IMU观测的位置信息,构建视觉惯性里程计因子;
图优化模块,用于将所述零速修正因子和所述视觉惯性里程计因子作为状态变量的约束条件,对所述因子图进行优化,得到优化因子图;
定位与建图模块,用于根据所述视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据所述关键帧图像进行稠密重建,得到建图结果;对所述优化因子图和所述建图结果进行融合,实现行人运动的定位与建图。
上述行人运动约束的视觉惯性融合定位与建图方法和装置,首先,基于足绑式IMU进行因子图建模,然后基于行人上设置的视觉惯性里程计,构建了视觉惯性里程计因子,虽然两个传感器的设置在不同位置,但是在行动过程中,二者属于柔性连接,因此,通过找到足绑式IMU与视觉惯性里程计的运动关系,构建了视觉惯性里程计因子,另外还构建了零速修正因子,共同作为约束条件,对因子图进行优化,并且建图。从而,本发明可以不依赖于视觉数据,即使在复杂的环境,依然可以进行准确的行人导航与建图。
附图说明
图1为一个实施例中行人运动约束的视觉惯性融合定位与建图方法的流程示意图;
图2为一个实施例中行人运动约束的视觉惯性融合定位与建图方法的框架示意图;
图3为一个实施例中优化因子图的框架图;
图4为一个实施例中行人运动约束的视觉惯性融合定位与建图装置的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种行人运动约束的视觉惯性融合定位与建图方法,包括以下步骤:
步骤102,对所述足绑式IMU进行因子图建模,得到因子图。
因子图中的因子节点包括:偏差因子节点和IMU因子节点,所述偏差因子节点连接相邻的偏差变量,IMU因子节点连接当前时刻的状态变量和偏差变量与下一时刻的状态变量。
步骤104,根据足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子。
步骤106,根据视觉惯性里程计观测的位置信息与足绑式IMU观测的位置信息,构建视觉惯性里程计因子。
步骤108,将零速修正因子和视觉惯性里程计因子作为状态变量的约束条件,对因子图进行优化,得到优化因子图。
步骤110,根据视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据关键帧图像进行稠密重建,得到建图结果。
步骤112,对优化因子图和所述建图结果进行融合,实现行人运动的定位与建图。
上述行人运动约束的视觉惯性融合定位与建图方法,框架图如图2所示,首先,基于足绑式IMU进行因子图建模,然后基于行人上设置的视觉惯性里程计,构建了视觉惯性里程计因子,虽然两个传感器的设置在不同位置,但是在行动过程中,二者属于柔性连接,因此,通过找到足绑式IMU与视觉惯性里程计的运动关系,构建了视觉惯性里程计因子,另外还构建了零速修正因子,共同作为约束条件,对因子图进行优化,并且建图。从而,本发明可以不依赖于视觉数据,即使在复杂的环境,依然可以进行准确的行人导航与建图。
在其中一个实施例中,构建坐标系方向为右-前-上的载体坐标系以及东-北-天的导航坐标系,通过对足绑式IMU进行初始化;利用足绑式IMU静止时的三轴加速度测量得到横滚角和俯仰角;根据横滚角和所述俯仰角,将足绑式IMU的测量数据从载体坐标系转化至导航坐标系,并计算得到在导航坐标系中的初始航向角。
具体的,在系统初始化部分,主要利用磁力计进行初始航向估计,以便于后续实现空间对齐。首采集磁传感器在各个方向上的数据,即不断旋转磁传感器以对各个方向的产生充分激励来对磁传感器进行校准。之后将包含了磁传感器的足绑式IMU安装于足部,之后静止20s采集静止数据。系统载体坐标系方向为右-前-上坐标系,导航坐标系为东-北-天坐标系。利用静止时的三轴加速度数据用来测量横滚角,俯仰角(pitch):
其中一个实施例中,足绑式IMU进行零速检测步骤包括:
对于足绑式IMU,我们可以建模为
其中
则
其中,
根据广义似然比检验条件我们可以得到
简化可得:
在另一个实施例中,通过足绑式IMU进行零速检测之后,进行足绑式IMU和视觉惯性里程计时间同步的步骤包括:将足绑式IMU和视觉惯性里程计的传感器信息通过话题通讯机制上传至数据处理中心,并通过数据处理中心对传感器数据打上时间戳;进行足绑式IMU和视觉惯性里程计空间上同步的步骤包括:确定足绑式IMU和视觉惯性里程计在水平方向上初始航向角偏差值,根据初始航向角偏差值,对足绑式IMU和所述视觉惯性里程计进行空间对齐。
具体的,在将足绑式IMU数据进行零速状态检测后,由于足绑式IMU与视觉惯性里程计模块是不同的传感器源,借助ROS操作系统的话题通讯机制将不同的传感器信息实时上传至数据处理单元并将其附上时间戳,进而实现不同传感器源的时间同步。
在实际用用过程中,视觉惯性里程计位于胸前,而足绑式IMU位于脚步,二者之间初始状态在水平方向上往往会相差一个航向角。为了实现两个传感器的空间对准,需要将视觉定位模块的初始航向减去二者之间的航向角偏差,即
在其中一个实施例中,对视觉惯性里程计进行因子图建模,得到定位因子图;定位因子图中的因子包括:视觉因子和惯性因子;视觉因子是根据视觉传感器对运动对象的像素点位置进行测量产生的测量位置误差确定的;惯性因子是通过预积分方式计算得到的;对定位因子图进行计算,得到视觉惯性里程计的定位数据。
具体的,视觉惯性里程计定位主要采用现有的视觉里程计定位模块。在本示例中,采用基于VINS-Mono方法的视觉惯性里程计。在该模块中,利用相机作为视觉前端,与固联的IMU模块紧耦合形成视觉惯性里程计。并利用因子图优化的方法来处理这个问题。
1、视觉因子
外部某个特征点在世界坐标系w系的坐标为,特征点直接通过相机测量在第张和第张图像中的像素坐标分别为和。视觉系统经过运动,第张图的特征点像素坐标通过转换到第张图的像素坐标为,与之间的误差称之为重投影误差。视觉因子代价函数为:
2、视觉惯性里程计中的惯性因子
视觉系统中,MIMU 的采样频率一般都在100Hz以上,远高于相机的采样频率。为了避免优化中对 MIMU 状态的重复计算,构建视觉惯性因子采用经典的预积分方法。MIMU 在b系中测量的加速度和角速度为:
因此,视觉惯性里程计的优化目标函数可以写为:
之后我们可以用Ceressolver来优化这个因子图。
在其中一个实施例中,对足绑式IMU状态随时间变化的过程建模为:
IMU因子所表示的代价函数可以表示为:
具体的,根据足绑式IMU特点,构建以足绑式IMU为核心的全源导航因子图框架。表示因子节点的集合,表示变量节点的集合,表示因子节点与变量节点之间的边。与因子相邻的变量节点集合记作,并且我们将对这个变量集合赋值写作。则该因子图可以表示为作用于全体变量函数的分解:
即每一个因子节点都可以看做是作用于相邻变量节点的函数,因子图即为因子节点的乘积。
以下对各因子进行描述,
1、零速修正因子
根据所述足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子为:
2、视觉惯性里程计因子
根据视觉惯性里程计观测的位置信息与足绑式IMU观测的位置信息,构建视觉惯性里程计因子为:
综上,优化因子图如图3所示,最大后验估计可以写作:
在其中一个实施例中,根据足绑式IMU的零速检测结果,剔除处于同一步态范围内的关键帧,得到不同步态中的关键帧;将关键帧以及所述关键帧对应的全局位姿作为输入,输入预先构建的CVA-MVSNet模型进行分层深度估计,聚合所有关键帧的深度特征,得到深度估计结果;其中,聚合所有关键帧的深度特征包括:单阶段深度估计过程和分层深度估计过程;单阶段深度估计过程为:采用自适应视图分级的方式构建成代价体为:
将代价体输入3D U-Net模型进行正则化并最终经过softmax非线性层输出估计深度值为:
具体的,由于相机图像频率相对较高,相邻两帧图像数据之间的重叠度往往较高,选取关键帧进行三维场景重建。首先根据行人运动约束,剔除掉处于同一个零速步态范围内的关键帧。即通过零速检测我们对足绑式IMU数据进行步态分割后,将剔除掉同一步内处于零速静止状态下的重复关键帧,增大不同关键帧之间的视差,提高建图效率。
在建图过程中,利用基于深度学习的方法对关键帧进行深度估计。这里神经网络的输入为关键帧的图像及其相应的全局位姿。其中,表示第一个关键帧大小为的图像,表示第帧图像的全局位姿。利用改进的CVA-MVSNet来进行深度估计,采用级联式的代价量来进行分层深度估计,之后用自适应视图聚合模块有效地聚合所有关键帧的深度特征,从而克服了深度MVS网络对内存的限制性要求,有效提高深度估计的性能。
关键帧的多尺度深度特征首先通过共享权重的2D U-Net网络来进行特征提取,其中是特征信息的空间纬度,是尺度信息。因此是大小为的矩阵,其中是尺度因子为的特征维度,,。参考帧的深度图则分为三个阶段进行分层估计,每个阶段将特征集作为输入并预测图像的深度值,其中的大小为。下面对单阶段估计和分层多阶段估计进行分别说明。
1、单阶段深度估计
算法在每个阶段都会利用深度特征构建匹配代价函数。对于参考帧的每个像素点,我们假设深度值为,得到一个大小为的。基于深度假设、相对位姿和相机内参,将每一帧图像的深度特征通过可微单应变换,扭曲至参考图像相机前的这些平行面上。每一帧图像的深度特征可以被表示为大小为的特征卷。为了将多视图特征体的信息聚合到一个代价体中,大多数以前的深度MVS方法都将不同的视图视为等同的,并使用基于差异的指标:
其中,
但是在滑窗SLAM系统中,关键帧在优化窗口中的分布并不均匀,甚至有的滑窗中并没有关键帧,通常新的关键帧之间的距离要小于旧的关键帧。这会引起阻塞和无重叠的图像帧。因此,基于变量的代价指标是不合适的,因为它对不同的视图具有同等的权重。为了解决这个问题,我们采用自适应视图分级的方式来构建成代价体:
2、分层深度估计
网络利用先前阶段的深度估计来定义一个精确的深度假设张量。由于第一阶段之前没有阶段,深度图的每个像素具有相同的深度范围。之后的阶段深度经过上采样并作为先验来定义。特别的,对于位于处的像素,被定义为利用上采样的作为中心。然后,用预先定义的起点来围绕这个中心继续进行采样。这样,更高的阶段则需要更少的深度信息。之后,再使用适用于所有三个阶段的真实深度的L1损失函数来训练网络,并使用总和作为最终损失函数。从而获得关键帧图像的深度估计。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图4所示,提供了一种行人运动约束的视觉惯性融合定位与建图装置,应用于行人导航中,其中足绑式IMU设置在行人足部,视觉惯性里程计设置在行人腿部以上的躯干部分;所述视觉惯性里程计包括:视觉传感器和惯性传感器,包括:因子图构建模块402、约束构建模块404、图优化模块406和定位与建图模块408,其中:
因子图构建模块,用于对所述足绑式IMU进行因子图建模,得到因子图;其中,所述因子图中的因子节点包括:偏差因子节点和IMU因子节点,所述偏差因子节点连接相邻的偏差变量,所述IMU因子节点连接当前时刻的状态变量和偏差变量与下一时刻的状态变量;
约束构建模块,用于根据所述足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子;根据所述视觉惯性里程计观测的位置信息与所述足绑式IMU观测的位置信息,构建视觉惯性里程计因子;
图优化模块,用于将所述零速修正因子和所述视觉惯性里程计因子作为状态变量的约束条件,对所述因子图进行优化,得到优化因子图;
定位与建图模块,用于根据所述视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据所述关键帧图像进行稠密重建,得到建图结果;对所述优化因子图和所述建图结果进行融合,实现行人运动的定位与建图。
关于行人运动约束的视觉惯性融合定位与建图装置的具体限定可以参见上文中对于行人运动约束的视觉惯性融合定位与建图方法的限定,在此不再赘述。上述行人运动约束的视觉惯性融合定位与建图装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种行人运动约束的视觉惯性融合定位与建图方法,其特征在于,应用于行人导航中,其中足绑式IMU设置在行人足部,视觉惯性里程计设置在行人腿部以上的躯干部分;所述视觉惯性里程计包括:视觉传感器和惯性传感器,所述方法包括:
对所述足绑式IMU进行因子图建模,得到因子图;其中,所述因子图中的因子节点包括:偏差因子节点和IMU因子节点,所述偏差因子节点连接相邻的偏差变量,所述IMU因子节点连接当前时刻的状态变量和偏差变量与下一时刻的状态变量;
根据所述足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子;
根据所述视觉惯性里程计观测的位置信息与所述足绑式IMU观测的位置信息,构建视觉惯性里程计因子;
将所述零速修正因子和所述视觉惯性里程计因子作为状态变量的约束条件,对所述因子图进行优化,得到优化因子图;
根据所述视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据所述关键帧图像进行稠密重建,得到建图结果;
对所述优化因子图和所述建图结果进行融合,实现行人运动的定位与建图。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
构建坐标系方向为右-前-上的载体坐标系以及东-北-天的导航坐标系,通过对所述足绑式IMU进行初始化;
利用所述足绑式IMU静止时的三轴加速度测量得到横滚角和俯仰角;
根据所述横滚角和所述俯仰角,将足绑式IMU的测量数据从载体坐标系转化至导航坐标系,并计算得到在导航坐标系中的初始航向角。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过足绑式IMU进行零速检测之后,进行足绑式IMU和所述视觉惯性里程计时间同步的步骤包括:
将足绑式IMU和所述视觉惯性里程计的传感器信息通过话题通讯机制上传至数据处理中心,并通过数据处理中心对所述传感器数据打上时间戳;
进行足绑式IMU和所述视觉惯性里程计空间上同步的步骤包括:
确定足绑式IMU和所述视觉惯性里程计在水平方向上初始航向角偏差值,根据所述初始航向角偏差值,对足绑式IMU和所述视觉惯性里程计进行空间对齐。
4.根据权利要求1所述的方法,其特征在于,视觉惯性里程计进行定位的步骤包括:
对所述视觉惯性里程计进行因子图建模,得到定位因子图;所述定位因子图中的因子包括:视觉因子和惯性因子;所述视觉因子是根据视觉传感器对运动对象的像素点位置进行测量产生的测量位置误差确定的;所述惯性因子是通过预积分方式计算得到的;
对所述定位因子图进行计算,得到视觉惯性里程计的定位数据。
9.根据权利要求1至5任一项所述的方法,其特征在于,根据所述视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据所述关键帧图像进行稠密重建,得到建图结果,包括:
根据足绑式IMU的零速检测结果,剔除处于同一步态范围内的关键帧,得到不同步态中的关键帧;
将所述关键帧以及所述关键帧对应的全局位姿作为输入,输入预先构建的CVA-MVSNet模型进行分层深度估计,聚合所有关键帧的深度特征,得到深度估计结果;其中,聚合所有关键帧的深度特征包括:单阶段深度估计过程和分层深度估计过程;
所述单阶段深度估计过程为:采用自适应视图分级的方式构建成代价体为:
将所述代价体输入3D U-Net模型进行正则化并最终经过softmax非线性层输出估计深度值为:
10.一种行人运动约束的视觉惯性融合定位与建图装置,其特征在于,应用于行人导航中,其中足绑式IMU设置在行人足部,视觉惯性里程计设置在行人腿部以上的躯干部分;所述视觉惯性里程计包括:视觉传感器和惯性传感器,所述装置包括:
因子图构建模块,用于对所述足绑式IMU进行因子图建模,得到因子图;其中,所述因子图中的因子节点包括:偏差因子节点和IMU因子节点,所述偏差因子节点连接相邻的偏差变量,所述IMU因子节点连接当前时刻的状态变量和偏差变量与下一时刻的状态变量;
约束构建模块,用于根据所述足绑式IMU的速度预测值以及零速之间的误差,构建零速修正因子;根据所述视觉惯性里程计观测的位置信息与所述足绑式IMU观测的位置信息,构建视觉惯性里程计因子;
图优化模块,用于将所述零速修正因子和所述视觉惯性里程计因子作为状态变量的约束条件,对所述因子图进行优化,得到优化因子图;
定位与建图模块,用于根据所述视觉传感器采集的图像数据以及通过足绑式IMU的零速检测结果,筛选关键帧图像,根据所述关键帧图像进行稠密重建,得到建图结果;对所述优化因子图和所述建图结果进行融合,实现行人运动的定位与建图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211123604.6A CN115235454B (zh) | 2022-09-15 | 2022-09-15 | 行人运动约束的视觉惯性融合定位与建图方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211123604.6A CN115235454B (zh) | 2022-09-15 | 2022-09-15 | 行人运动约束的视觉惯性融合定位与建图方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115235454A true CN115235454A (zh) | 2022-10-25 |
CN115235454B CN115235454B (zh) | 2022-12-30 |
Family
ID=83680606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211123604.6A Active CN115235454B (zh) | 2022-09-15 | 2022-09-15 | 行人运动约束的视觉惯性融合定位与建图方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115235454B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115685292A (zh) * | 2023-01-05 | 2023-02-03 | 中国人民解放军国防科技大学 | 一种多源融合导航系统的导航方法和装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170227363A1 (en) * | 2015-01-08 | 2017-08-10 | Uti Limited Partnership | Method and apparatus for enhanced pedestrian navigation based on wlan and mems sensors |
US20190301871A1 (en) * | 2018-03-27 | 2019-10-03 | Artisense Corporation | Direct Sparse Visual-Inertial Odometry Using Dynamic Marginalization |
CN111024070A (zh) * | 2019-12-23 | 2020-04-17 | 哈尔滨工程大学 | 一种基于航向自观测的惯性足绑式行人定位方法 |
CN112985392A (zh) * | 2021-04-19 | 2021-06-18 | 中国人民解放军国防科技大学 | 基于图优化框架的行人惯性导航方法和装置 |
CN113091738A (zh) * | 2021-04-09 | 2021-07-09 | 安徽工程大学 | 基于视觉惯导融合的移动机器人地图构建方法及相关设备 |
US20220018962A1 (en) * | 2020-07-16 | 2022-01-20 | Beijing Tusen Weilai Technology Co., Ltd. | Positioning method and device based on multi-sensor fusion |
WO2022079292A1 (en) * | 2020-10-16 | 2022-04-21 | SLAMcore Limited | Initialising keyframes for visual-inertial localisation and/or mapping |
CN114545472A (zh) * | 2022-01-26 | 2022-05-27 | 中国人民解放军国防科技大学 | 一种gnss/ins组合系统的导航方法和装置 |
CN114608561A (zh) * | 2022-03-22 | 2022-06-10 | 中国矿业大学 | 一种基于多传感器融合的定位与建图方法及系统 |
CN114966734A (zh) * | 2022-04-28 | 2022-08-30 | 华中科技大学 | 一种结合多线激光雷达的双向深度视觉惯性位姿估计方法 |
CN114964276A (zh) * | 2022-05-26 | 2022-08-30 | 哈尔滨工业大学 | 一种融合惯导的动态视觉slam方法 |
-
2022
- 2022-09-15 CN CN202211123604.6A patent/CN115235454B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170227363A1 (en) * | 2015-01-08 | 2017-08-10 | Uti Limited Partnership | Method and apparatus for enhanced pedestrian navigation based on wlan and mems sensors |
US20190301871A1 (en) * | 2018-03-27 | 2019-10-03 | Artisense Corporation | Direct Sparse Visual-Inertial Odometry Using Dynamic Marginalization |
CN111024070A (zh) * | 2019-12-23 | 2020-04-17 | 哈尔滨工程大学 | 一种基于航向自观测的惯性足绑式行人定位方法 |
US20220018962A1 (en) * | 2020-07-16 | 2022-01-20 | Beijing Tusen Weilai Technology Co., Ltd. | Positioning method and device based on multi-sensor fusion |
WO2022079292A1 (en) * | 2020-10-16 | 2022-04-21 | SLAMcore Limited | Initialising keyframes for visual-inertial localisation and/or mapping |
CN113091738A (zh) * | 2021-04-09 | 2021-07-09 | 安徽工程大学 | 基于视觉惯导融合的移动机器人地图构建方法及相关设备 |
CN112985392A (zh) * | 2021-04-19 | 2021-06-18 | 中国人民解放军国防科技大学 | 基于图优化框架的行人惯性导航方法和装置 |
CN114545472A (zh) * | 2022-01-26 | 2022-05-27 | 中国人民解放军国防科技大学 | 一种gnss/ins组合系统的导航方法和装置 |
CN114608561A (zh) * | 2022-03-22 | 2022-06-10 | 中国矿业大学 | 一种基于多传感器融合的定位与建图方法及系统 |
CN114966734A (zh) * | 2022-04-28 | 2022-08-30 | 华中科技大学 | 一种结合多线激光雷达的双向深度视觉惯性位姿估计方法 |
CN114964276A (zh) * | 2022-05-26 | 2022-08-30 | 哈尔滨工业大学 | 一种融合惯导的动态视觉slam方法 |
Non-Patent Citations (3)
Title |
---|
MANG WANG 等: "An Optimal Cooperative Navigation Algorithm based on Factor Graph for Pedestrians", 《2021 3RD INTERNATIONAL CONFERENCE ON INTELLIGENT CONTROL, MEASUREMENT AND SIGNAL PROCESSING AND INTELLIGENT OIL FIELD (ICMSP)》 * |
李倩 等: "基于因子图的INS/UWB室内行人紧组合定位技术", 《仪器仪表学报》 * |
毛军 等: "惯性/视觉/激光雷达SLAM技术综述", 《导航定位与授时》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115685292A (zh) * | 2023-01-05 | 2023-02-03 | 中国人民解放军国防科技大学 | 一种多源融合导航系统的导航方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115235454B (zh) | 2022-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11519729B2 (en) | Vision-aided inertial navigation | |
Heo et al. | Consistent EKF-based visual-inertial odometry on matrix Lie group | |
US10371529B2 (en) | Computational budget estimation for vision-aided inertial navigation systems | |
Heo et al. | EKF-based visual inertial navigation using sliding window nonlinear optimization | |
US10203209B2 (en) | Resource-aware large-scale cooperative 3D mapping using multiple mobile devices | |
Mourikis et al. | A multi-state constraint Kalman filter for vision-aided inertial navigation | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
US10254118B2 (en) | Extrinsic parameter calibration of a vision-aided inertial navigation system | |
US11940277B2 (en) | Vision-aided inertial navigation system for ground vehicle localization | |
Laidlow et al. | Dense RGB-D-inertial SLAM with map deformations | |
CN112639502A (zh) | 机器人位姿估计 | |
CN112815939B (zh) | 移动机器人的位姿估计方法及计算机可读存储介质 | |
Mourikis et al. | A dual-layer estimator architecture for long-term localization | |
US20220051031A1 (en) | Moving object tracking method and apparatus | |
Heo et al. | Consistent EKF-based visual-inertial navigation using points and lines | |
CN111595334B (zh) | 基于视觉点线特征与imu紧耦合的室内自主定位方法 | |
Zhang et al. | Vision-aided localization for ground robots | |
Tomažič et al. | Fusion of visual odometry and inertial navigation system on a smartphone | |
CN111145251A (zh) | 一种机器人及其同步定位与建图方法和计算机存储设备 | |
CN114001733A (zh) | 一种基于地图的一致性高效视觉惯性定位算法 | |
Rahman et al. | Contour based reconstruction of underwater structures using sonar, visual, inertial, and depth sensor | |
CN115235454B (zh) | 行人运动约束的视觉惯性融合定位与建图方法和装置 | |
Nguyen et al. | Developing a cubature multi-state constraint Kalman filter for visual-inertial navigation system | |
Hong et al. | Visual inertial odometry using coupled nonlinear optimization | |
Yang et al. | An Indoor Navigation System Based on Stereo Camera and Inertial Sensors with Points and Lines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |