CN107869989B - 一种基于视觉惯导信息融合的定位方法及系统 - Google Patents
一种基于视觉惯导信息融合的定位方法及系统 Download PDFInfo
- Publication number
- CN107869989B CN107869989B CN201711077826.8A CN201711077826A CN107869989B CN 107869989 B CN107869989 B CN 107869989B CN 201711077826 A CN201711077826 A CN 201711077826A CN 107869989 B CN107869989 B CN 107869989B
- Authority
- CN
- China
- Prior art keywords
- depth
- information
- measurement unit
- frame
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉惯导信息融合的定位方法及系统,其中,所述方法包括:对采集的传感器信息进行预处理,所述传感器信息包括:深度视觉传感器的RGB图像和深度图像信息,惯性测量单元IMU数据;获取深度视觉传感器和惯性测量单元所属系统的外部参数;采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息;基于回环检测方式对所述位姿信息进行校正,获得校正后的全局一致的位姿信息。上述方法在定位过程中鲁棒性好,提升定位准确性能。
Description
技术领域
本发明涉及传感器融合技术,具体涉及一种基于视觉惯导信息融合的定位方法及系统。
背景技术
目前,视觉惯导融合技术广泛应用在三维重建、无人车和无人机的定位导航、自动驾驶等领域,旨在提供实时鲁棒精确的位置和姿态。主流的视觉惯导融合技术为基于滤波器方法。基于滤波器的方法主要采用卡尔曼滤波器及其变种,将惯导信息根据惯性测量单元的运动学模型得到系统状态向量的先验分布,在使用视觉传感器的观测模型更新卡尔曼增益,进而得到系统状态向量的后验分布。具体处理中,按照系统状态向量是否包含特征点坐标向量来分类,可分为松耦合和紧耦合两类。松耦合是指惯性测量单元和视觉传感器分别对系统状态向量进行估计,然后在进行融合。这样可以有效减小计算量,方便融合。紧耦合是指系统状态向量不仅包含惯性测量单元的状态量还包含有特征点坐标向量,统一进行状态估计。
基于滤波器的方法,无论采用松耦合或者紧耦合的方式,普遍存在的问题是无法有效消除累积误差,无法处理回环问题。
为此,业内提出一种基于优化的方法,基于优化的方法能够解决上述累积误差和无法处理回环的缺陷,但是,算法的鲁棒性比较低,无法推广使用。
特别地,当前基于优化的方法中的外参标定主要是采用kalibr工具箱,且使用kalibr工具箱只能离线标定且需要一个特制的标定板,不易操作,无法在线直接使用。
发明内容
针对现有技术中的问题,本发明提供一种基于视觉惯导信息融合的定位方法及系统。
第一方面,本发明提供一种基于视觉惯导信息融合的定位方法,包括:
步骤A1、对采集的传感器信息进行预处理,所述传感器信息包括:深度视觉传感器的RGB图像和深度图像信息,惯性测量单元IMU的数据;
步骤A2、获取深度视觉传感器和惯性测量单元所属系统的外部参数;
步骤A3、采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息;
步骤A4、基于回环检测方式对所述位姿信息进行校正,获得校正后的位姿信息并输出该位姿信息。
可选地,所述步骤A1包括:
A11、采集所述深度视觉传感器输出的当前帧的RGB图像和深度图像,每一RGB图像对应一个深度图像,所述深度图像中的像素值表示RGB像素点距深度视觉传感器中相机光心的实际距离;
判断当前帧是否是深度视觉传感器输出的第一帧;
若是,则从当前帧的RGB图像中提取harris角点;
对提取的harris角点计算BRISK描述子,得到当前帧的特征点;
否则,采用LK光流跟踪算法在当前帧的RGB图像中查找与上一帧的RGB图像匹配的特征点;
确定查找的匹配的特征点数量是否等于预设阈值,若等于,则将查找的匹配的特征点作为当前帧的特征点,否则,从当前帧的RGB图像中提取新的harris角点,根据提取的harris角点,获取新的特征点,将获取的新的特征点和查找的匹配的特征点共同作为当前帧的特征点;
A12、采集所述惯性测量单元IMU的数据;
在当前帧为关键帧时,使用预积分模型计算方式,获取相邻关键帧之间IMU的状态增量。
可选地,所述A2包括:
查看所述深度视觉传感器和惯性测量单元所属系统的外部参数是否已经设定,若是,则在步骤A3中直接使用设定的外部参数;
否则,根据当前帧的RGB图像的特征点、上一帧的RGB图像的特征点,采用ICP算法,计算当前帧与上一帧之间的相对位姿;
根据所述位姿增量、所述相对位姿、外部参数之间的坐标变换关系、以及在所述设备启动后采集的相关数据构建超定方程,并采用最小二乘方式求解以获取外部参数。
可选地,所述A3包括:
根据IMU预积分模型计算测量值与系统状态的残差项和协方差;
根据深度相机模型计算特征点从前一个关键帧到当前关键帧去畸变后的重投影误差和协方差;
初始化滑动窗口,当滑动窗口为空时,则将所述残差项与所述重投影误差的马氏范数和加到滑动窗口中;
对滑动窗口中的残差范数构造非线性最小二乘式,通过高斯牛顿法迭代求解,得到系统状态向量的最优解;
边缘化滑动窗口中的残差项。
可选地,所述A4包括:
从当前关键帧提取fast角点计算BRISK描述子作为特征点并计算对应的BoW向量;
与词袋中的特征集进行匹配,判断是否存在回环;
若存在回环,计算构成回环的两个关键帧的相对位姿残差以及关键帧库中其他相邻两个关键帧的相对位姿残差,使用残差项马氏范数构造非线性最小二乘式,对关键帧库中的所有位姿进行全局优化;
若不存在回环,则将当前关键帧的位姿和特征点描述子存入关键帧库,并将特征点描述子的BoW向量存入词袋。
可选地,所述边缘化滑动窗口中的残差项,包括:
在当前帧为关键帧时,边缘化掉滑动窗口中最旧的一组残差范数;
在当前帧为非关键帧时,去掉当前帧的相机观测值,保留IMU测量值。
表示滑动窗口中第k个状态中系统的机体在世界坐标系下的姿态、表示机体在世界坐标系下的位置、表示机体在世界坐标系下的速度、ba表示惯性测量单元中加速度计的随机游走噪声、bg表示惯性测量单元中陀螺仪的随机游走噪声;
P1 w,P2 w,…,Pl w表示局部地图中的特征点在世界坐标系下的坐标。
第二方面,本发明还提供一种基于视觉惯导信息融合的定位系统,包括:
深度视觉传感器、惯性测量单元、处理器和存储器;
其中,所述深度视觉传感器和惯性测量单元均连接所述处理器,所述存储器存储有所述处理器的可执行指令;
所述处理器被配置为:
对采集的传感器信息进行预处理,所述传感器信息包括:深度视觉传感器的RGB图像和深度图像信息,惯性测量单元IMU的数据;
获取深度视觉传感器和惯性测量单元所属系统的外部参数;
采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息;
基于回环检测方式对所述位姿信息进行校正,获得校正后的位姿信息。
第三方面,本发明还提供一种机器人,所述机器人包括上述任意的定位系统,其中所述深度视觉传感器位于所述机器人的头部,所述惯性测量单元位于所述机器人的心脏区域。
可选地,所述深度视觉传感器为深度相机;
所述惯性测量单元包括:三轴加速度计、三轴陀螺仪。
本发明具有的有益效果如下:
本发明中,可以在线实时标定系统外参,更加方便、易上手;使用轻量级的深度视觉传感器和惯导融合进行位姿估计,方便组装和拆卸,有效降低成本;
采用基于非线性优化的紧耦合方法,可有效克服基于滤波器方法固有的累积误差不易消除的缺点;
上述方法中增加回环检测模块,通过检测回环增加约束,可对各个时刻的系统状态进行全局优化,得到全局最优估计,有效减小累积误差;具有重定位功能,当某一时刻位姿估计失败,自动启动重定位功能,鲁棒性更好,也极大地提高了安全性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明一种实施例一种基于视觉惯导信息融合的定位系统整体框架示意图;
图2为本发明一种实施例的IMU预积分示意图;
图3为本发明一种实施例的深度视觉传感器针孔模型示意图;
图4为本发明一种实施例的初始边缘化操作示意图;
图5为本发明一种实施例的当缓存的图像帧中最旧的一帧不是关键帧时的边缘化操作示意图;
图6为本发明一种实施例的当缓存的图像帧中最旧的一帧不是关键帧时的边缘化操作示意图。
具体实施方式
为了更好的解释本发明,以便于理解,下面结合附图,通过具体实施方式,对本发明作详细描述。
在以下的描述中,将描述本发明的多个不同的方面,然而,对于本领域内的普通技术人员而言,可以仅仅利用本发明的一些或者全部结构或者流程来实施本发明。为了解释的明确性而言,阐述了特定的数目、配置和顺序,但是很明显,在没有这些特定细节的情况下也可以实施本发明。在其它情况下,为了不混淆本发明,对于一些众所周知的特征将不再进行详细阐述。
当前,基于非线性优化的方法则是分别计算惯导的测量残差和视觉传感器的重投影误差,通过最小化二者的残差和来得到系统状态的最优估计。
本申请中对于非线性优化的方法改进重点在于,充分利用深度相机的特性,在室内深度已知的情况下,减少计算量的同时也使系统的尺度估计更为准确;在室外无法测量深度的情况下,依然可以作为单目相机来使用,从而增强了算法的适应性。在上述方法中采用的在线标定外参的方式,计算处理更方便。
此外,采用局部地图的概念,通过增加局部地图与相机位姿之间的约束,有效减小局部累积误差,也可帮助建立更准确的地图。本实施例的局部地图可理解为下述滑动窗口中关键帧所包含特征点的世界坐标系下的坐标。
以下实施例中的系统具体是指深度视觉传感器和惯性测量单元所在的系统,即安装深度视觉传感器和惯性测量单元的机器人系统。在实际应用中,惯性测量单元位于机器人心脏中,深度视觉传感器位于机器人头部,为此在具体使用过程中,需要将机器人头部的深度相机和机器人心脏中的惯性测量单元的坐标系统一,并实时输出机器人的位姿。
本实施例的方法可应用于飞行机器人,可以估计六自由度位姿。
本申请方法估计的系统状态向量为其中 表示滑动窗口中第k个状态下机体在世界坐标系下的姿态、表示机体在世界坐标系下的位置、表示机体在世界坐标系下的速度、ba表示惯导加速度计的随机游走噪声、bg表示惯导陀螺仪的随机游走噪声;
以下实施例中的IMU的数据用于计算IMU的状态增量,状态增量包括位姿增量与速度增量。RGB图像的相对位姿增量可通过RGB图像匹配得到,二者通过外参建立约束关系。
另外,本实施例中的系统状态向量如上,在计算最后输出的位姿信息中使用系统状态向量的各个信息,最后输出校正后的位姿信息。
图1示出了一种基于视觉惯导信息融合的定位系统的整体框架,基于图1所示的定位系统的定位方法包括下述步骤:
本实施例中,深度视觉传感器可理解为指深度相机,每一帧都输出一张RGB图像和对应该RGB图像的一张深度图像,深度图像的像素和RGB图像的像素是一一对应的,该深度图像的像素值表示对应RGB图像中像素点距相机光心的实际距离。
所述惯性测量单元包括三轴加速度计、三轴陀螺仪的组合,即IMU。
第一步、对采集的传感器信息进行预处理
采集传感器输出的图像信息,对采集的图像信息提取特征点并跟踪,采集IMU数据,并对IMU数据进行预积分处理,获取IMU状态增量。
本实施例中传感器信息包括:深度视觉传感器的RGB图像和深度图像信息,惯性测量单元IMU的数据。
第一步主要包括以下子步骤:
S1、采集深度视觉传感器输出的当前帧的RGB图像和深度图像,由此可得到每个像素的像素坐标以及该像素在相机坐标系下的深度信息;
S2、判断当前帧是否是深度视觉传感器输出的第一帧,若是第一帧,则直接提取harris角点并计算BRISK描述子作为特征点;
若不是第一帧,则先使用LK光流跟踪算法在当前帧的RGB图像中找出与上一帧的RGB图像匹配的特征点,判断特征点数量若低于阈值,则提取新特征点,以补充特征点数量。
例如,从步骤S1中采集的RGB图像中提取100个关键点,并计算描述子;
可选地、使用LK光流跟踪法在当前帧中跟踪到与上一帧中的特征点匹配的特征点,当匹配到的特征点不足100的时候,在使用步骤S2中的方法提取新的特征点以凑足100个特征点;
S3、采集IMU数据,以及在当前帧为关键帧时,使用预积分模型计算方式,获取相邻关键帧之间IMU的状态增量。
举例来说,IMU数据为IMU输出的加速度和角速度信息等,状态增量包括位姿增量和速度增量。
另外,需要说明的判断当前帧是否是关键帧,计算当前帧与上一关键帧的视差,当视差大于阈值时,则认为当前帧为关键帧;或者,判断当前图像帧匹配的特征点数量,是否小于阈值,当小于阈值时,则把当前图像帧记为关键帧。
如图1和图2所示,本实施例中使用的深度相机的采样频率为30HZ,关键帧的采样频率更低,IMU的采样频率为100HZ,IMU的采样间隔记为Δt;则在相邻两个关键帧i,j之间存在多个IMU的采样值,输出的加速度和角速度信息记为
采用预积分模型,计算以i时刻IMU位姿为参考坐标系的IMU状态增量分别为
其中,IMU状态增量包括位姿增量和速度增量,IMU状态量包括位姿、速度以及随机噪声。
将公式(1)中的高斯噪声ηgk、ηak分离出来,并保持随机噪声bg、ba不变,则有下述的公式(2):
其中,i、j表示相邻的两个关键帧,关键帧之间包含多个IMU数据,k表示i、j之间的IMU数据序号,R表示IMU在世界坐标系下姿态的旋转矩阵,Rj分别表示i时刻姿态的逆矩阵和j时刻的姿态,Exp表示李代数的指数映射,为IMU角速度测量值,bg、ηg分别表示陀螺仪随机噪声与高斯噪声,Δt表示IMU采样时间,Δtij表示相机采样时间,v表示速度,g为重力加速度,为IMU加速度测量值,ba、ηa分别表示加速度计随机噪声与高斯噪声,p表示位置。
第二步、初始化
该步骤主要用于获取深度视觉传感器和惯性测量单元所属系统的外部参数即系统外参。
也就是说,用于计算得到IMU和深度视觉传感器之间的相对位姿,即获得系统外参。
具体步骤如下:
M1、判断系统外参是否已知(可在外部手动设置),外参可由外部给定初始值,若已知则转到第三步的后端非线性优化;
若初始值未知,则转到步骤M2;
M2、根据当前帧的RGB图像的特征点、上一帧的RGB图像的特征点,采用ICP算法,计算当前帧(图像帧)与上一帧(图像帧)之间的相对位姿;如图3所示。
根据所述位姿增量、所述相对位姿、外部参数之间的坐标变换关系、以及在所述设备启动后采集的相关数据构建超定方程,并采用最小二乘方式求解以获取外部参数。
也就是说,子步骤M2为:由传感器信息预处理得到相邻两个图像帧匹配的特征点,使用ICP算法计算两帧之间的相对位姿。
M23、展开步骤M22中等式:
M24、将步骤M23中的(3)式使用四元数表示,并利用四元数的性质可转换为:
其中,相对姿态为:
q=[x y z w]
M25、对已有数据构建如下所示的超定方程组:
M26、判断步骤M25中解是否收敛,若未收敛则继续加入新的测量值,直到得到收敛解;
如上求解的系统外参,该系统外参包括相对姿态和相对位置。
第三步、后端非线性优化
具体地,采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息。
即,用于对传感器测量值和系统状态向量建立最小二乘式,并使用优化方法,迭代求解出系统状态的最优值。
具体步骤如下:
N1、根据IMU预积分模型计算测量值与系统状态的残差项(即测量残差)和协方差。
根据IMU预积分模型计算测量残差和协方差;
在本实施例中,IMU的残差计算公式为:
协方差迭代计算公式为:
N2、根据深度相机模型计算特征点从前一个关键帧到当前关键帧去畸变后的重投影误差和协方差。
具体地,重投影误差计算如下:
3D-2D重投影误差:
表征局部地图点与滑动窗口中的相机位姿之间的约束关系。
其中,n表示滑动窗口中的第n个状态,表示从IMU坐标系到相机坐标系的位姿变换,表示从世界坐标系到当前IMU坐标系的位姿变换,Pl w表示局部地图中第l个地图点在世界坐标系下的坐标,表示第l个地图点在当前相机坐标系下的坐标。
上述的相机为深度传感器的深度相机,其他实施例的相机含义相同。
2D-2D重投影误差:
表征相邻两个关键帧之间的位姿约束关系。
所述第l个特征点从第i帧到第j帧的重投影误差计算公式为:
协方差矩阵默认为单位矩阵。
单位矩阵就是对角线元素均为1,其他元素均为0的矩阵,单位矩阵的性质是任何矩阵与其的乘积均为原矩阵。
N3、初始化滑动窗口;当滑动窗口为空时,则将由上述两步计算得到的残差项的马氏范数和直接加到滑动窗口中;不空则转到步骤N4。
该步骤中使用的马氏范数形式如下:
也就是说,当滑动窗口为空时,将所述残差项与所述重投影误差(即相机的测量残差)的马氏范数和加到滑动窗口中。
本实施例中的r是残差,p为协方差,且在使用的马氏范数中包含有前面步骤的协方差。
N4、对滑动窗口中的残差范数构造非线性最小二乘式,使用高斯牛顿法求解系统状态变量的最优估计。
系统的状态量在前述已经说明,可包括世界坐标系下的位置、姿态、速度、陀螺仪随机噪声、加速度计随机噪声、外参以及局部地图点的世界坐标下的坐标等。
上述非线性最小二乘式形式如下:
其中为IMU的测量残差,为深度相机的测量残差,B表示IMU的测量数据集,C表示深度相机的测量数据集,M表示局部地图点数据集,表示在机体坐标系下滑动窗口中从第i个关键帧到第j个关键帧之间的状态变化量,表示在相机坐标系下滑动窗口中第j个关键帧中第l个特征点对应的状态量。
N5、边缘化滑动窗口中的残差项;具体地,当前帧若为关键帧则边缘化掉滑动窗口中最旧的一组残差范数,否则直接去掉当前帧的相机观测值,但保留IMU测量值。
本实施例中处理的均是关键帧,判断当前帧是否为关键帧,可通过计算当前帧与上一个关键帧的视差,当视差大于阈值则认为当前帧为关键帧。或者,判断当前图像帧匹配的特征点数量,是否小于阈值,当小于阈值时,则把当前图像帧记为关键帧。
举例来说,本实施例中采用的滑动窗口中的关键帧的规模为3,缓存的图像帧的规模为3。如图4、图5、图6所示,边缘化分为三种情况。
详细介绍如下:
如图4所示,初始时,当滑动窗口刚好有3个关键帧并且缓存空间有3个图像帧,则将开始3帧的IMU预积分对应的速度和随机噪声项边缘化掉;
如图6所示,当采集到新的图像帧,缓存空间中的最旧的图像帧是关键帧,则将该帧移入滑动窗口,并将滑动窗口中最旧的关键帧和在中可见而在最新的关键帧或当前图像帧中不可见的特征点以及最新关键帧对应的IMU预积分中的速度和随机噪声项边缘化掉;
第四步、回环检测
本实施例中基于回环检测方式对所述位姿信息进行校正,获得校正后的位姿信息并输出该位姿信息,即用于检测系统轨迹是否存在闭环,当存在闭环时,则对系统状态向量中的位姿进行全局优化。
具体步骤如下:
Q1、从当前帧提取fast角点并计算BRISK描述子作为特征点;例如在当前帧v中,提取500个fast角点,并计算BRISK描述子以及对应的BoW向量。
应说明的是,前面提取的harris角点与fast角点不同,对环境的适应性更强,一般用作跟踪;fast角点计算快,数量多,可用于回环检测。
Q2、与词袋中的特征集进行匹配,判断是否存在回环;
Q3、若存在回环,计算构成回环的两个关键帧的相对位姿残差以及关键帧库中其他相邻两个关键帧的相对位姿残差,使用残差项L2范数构造非线性最小二乘式,对关键帧库中的所有位姿进行全局优化;
也就是说,若存在回环(即当前帧计算得到的描述子与词袋中的描述子匹配成功),则根据匹配的描述子从关键帧库中提取对应的关键帧位姿数据,在实施例中和v构成回环的关键帧为m;
若不存在回环,则将当前关键帧的位姿和特征点描述子存入关键帧库,并将特征点描述子的BoW向量存入词袋。
本实施例中,相对位姿与位姿增量是等价的概念,一般称相机位姿之间为相对位姿,IMU数据经预积分得到的是位姿增量。
Q5、计算关键帧库位姿残差,建立位姿图,进行位姿全局优化;步骤如下:
构造非线性最小二乘式:
其中L表示所有与回环相关的关键帧集合,S为其他关键帧集合,r为关键帧之间的位姿残差,h为鲁棒核函数,在本实施例中使用huber核函数。
r的计算公式为
使用高斯牛顿法求解上述最小二乘问题。
转到第一步,处理下一帧。
Q6、若不存在回环,则将当前帧的位姿和特征点的描述子存入关键帧库,特征点描述子的BoW向量存入词袋中。转到步骤1,处理下一帧。
为更好的理解回环检测,补充解释如下:
回环检测,采用词袋模型,对每一个关键帧,提取500个fast角点,然后对每一个角点计算BRISK描述子,在利用描述子计算唯一的BOW向量,构建特征词袋。对于最新的关键帧,提取特征点计算描述子BOW向量,然后与特征词袋中的向量进行相似性评分,当评分超过阈值时则认为当前关键帧与匹配关键帧构成回环。
关键帧库,回环检测模块中维护了一个关键帧库,其中包含每一个关键帧优化后的位置和姿态信息、BRISK描述子以及与前一个关键帧的相对位姿。当检测到回环后,通过从特征词袋中匹配的关键帧的描述子信息,可以在关键帧库中找到和该关键帧对应的位姿信息。
全局位姿图优化,将关键帧库中的关键帧分为两类,一类为构成回环的关键帧,记构成回环的两个关键帧对应的位姿分别记为相对位姿记为I3为三阶单位矩阵;一类为普通连续关键帧,记相邻两个关键帧i,j对应的位姿为Ti w、保存的ij之间的相对位姿为
计算位姿残差:
构造最小二乘问题优化函数:
通过高斯牛顿法迭代求解得到关键帧库中所有关键帧位姿的最优值。
关键帧,图2示出,相邻两个关键帧之间存在很多个图像帧,图像帧即是相机实时采集的图像数据,由于相机的采集频率比较高(一般为30HZ),所以相邻两个图像帧之间的匹配特征点比较多,但是这样并没有对计算结果的准确性带来明显的提高,反而增大了计算量,因此我们采用关键帧策略,在保证计算准确性同时,减少计算量。
关键帧的选择方式有:
1)计算当前图像帧与上一个关键帧每个匹配特征点视差,然后计算平均视差,当视差大于阈值时,则把当前图像帧记为关键帧;
2)判断当前图像帧匹配的特征点数量,是否小于阈值,当小于阈值时,则把当前图像帧记为关键帧。
上述方法中增加回环检测模块,通过检测回环增加约束,可对各个时刻的系统状态进行全局优化,得到全局最优估计,有效减小累积误差;具有重定位功能,当某一时刻位姿估计失败,自动启动重定位功能,鲁棒性更好,也极大地提高了安全性能。
根据本发明的另一方面,本发明还提供一种基于视觉惯导信息融合的定位系统,该定位系统包括:深度视觉传感器、惯性测量单元、处理器和存储器;
其中,所述深度视觉传感器和惯性测量单元均连接所述处理器,所述存储器存储有所述处理器的可执行指令;
所述处理器被配置为:
对采集的传感器信息进行预处理,所述传感器信息包括:深度视觉传感器的RGB图像和深度图像信息,惯性测量单元IMU的数据;
获取深度视觉传感器和惯性测量单元所属系统的外部参数;
采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息;
基于回环检测方式对所述位姿信息进行校正,获得校正后的位姿信息。
再一方面,本发明还提供一种机器人,所述机器人包括上述任意所述的定位系统,其中所述深度视觉传感器位于所述机器人的头部,所述惯性测量单元位于所述机器人的心脏区域。
本实施例中所述深度视觉传感器为轻量级的深度相机;所述惯性测量单元包括:三轴加速度计、三轴陀螺仪。
本发明中,可以在线实时标定系统外参,更加方便、易上手;使用轻量级的深度视觉传感器和惯导融合进行位姿估计,方便组装和拆卸,有效降低成本;
采用基于非线性优化的紧耦合方法,可有效克服基于滤波器方法固有的累积误差不可有效抑制的缺点;例如前述的后端优化用于减小局部累积误差、回环检测部分用于减小全局的累积误差。
最后应说明的是:以上所述的各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (9)
1.一种基于视觉惯导信息融合的定位方法,其特征在于,包括:
步骤A1、对采集的传感器信息进行预处理,所述传感器信息包括:深度视觉传感器的RGB图像和深度图像信息,惯性测量单元IMU的数据;
步骤A2、获取深度视觉传感器和惯性测量单元所属系统的外部参数;
步骤A3、采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息;
步骤A4、基于回环检测方式对所述位姿信息进行校正,获得校正后的位姿信息并输出;
所述系统的外部参数为惯性测量单元和深度视觉传感器之间的相对位姿;
所述处理后的传感器信息包括:传感器测量值和系统状态向量;
所述A3具体包括:
根据IMU预积分模型计算测量值与系统状态的残差项和协方差;
根据深度相机模型计算特征点从前一个关键帧到当前关键帧去畸变后的重投影误差和协方差;
初始化滑动窗口,当滑动窗口为空时,则将所述残差项与所述重投影误差的马氏范数和加到滑动窗口中;
对滑动窗口中的残差范数构造非线性最小二乘式,通过高斯牛顿法迭代求解,得到系统状态向量的最优解;
边缘化滑动窗口中的残差项;
所述传感器测量值为IMU积分得到的位置、姿态和速度以及使用LK光流跟踪法在当前帧中跟踪到与上一帧中的特征点匹配的特征点。
2.根据权利要求1所述的方法,其特征在于,所述步骤A1包括:
A11、采集所述深度视觉传感器输出的当前帧的RGB图像和深度图像,每一RGB图像对应一个深度图像,所述深度图像中的像素值表示RGB像素点距深度视觉传感器中相机光心的实际距离;
判断当前帧是否是深度视觉传感器输出的第一帧;
若是,则从当前帧的RGB图像中提取harris角点;
对提取的harris角点计算BRISK描述子,得到当前帧的特征点;
否则,采用LK光流跟踪算法在当前帧的RGB图像中查找与上一帧的RGB图像匹配的特征点;
确定查找的匹配的特征点数量是否等于预设阈值,若等于,则将查找的匹配的特征点作为当前帧的特征点,否则,从当前帧的RGB图像中提取新的harris角点,根据提取的harris角点,获取新的特征点,将获取的新的特征点和查找的匹配的特征点共同作为当前帧的特征点;
A12、采集所述惯性测量单元IMU的数据;
在当前帧为关键帧时,使用预积分模型计算方式,获取相邻关键帧之间IMU的状态增量。
3.根据权利要求2所述的方法,其特征在于,所述A2包括:
查看所述深度视觉传感器和惯性测量单元所属系统的外部参数是否已经设定,若是,则在步骤A3中直接使用设定的外部参数;
否则,根据当前帧的RGB图像的特征点、上一帧的RGB图像的特征点,采用ICP算法,计算当前帧与上一帧之间的相对位姿;
根据所述位姿增量、所述相对位姿、外部参数之间的坐标变换关系、以及在所述系统启动后采集的相关数据构建超定方程,并采用最小二乘方式求解以获取外部参数;
所述外部参数为惯性测量单元和深度视觉传感器之间的相对位姿;
所述系统启动后采集的相关数据包括:深度视觉传感器的RGB图像和深度图像信息和IMU输出的加速度和角速度信息。
4.根据权利要求3所述的方法,其特征在于,所述A4包括:
从当前关键帧提取fast角点计算BRISK描述子作为特征点并计算对应的BoW向量;
与词袋中的特征集进行匹配,判断是否存在回环;
若存在回环,计算构成回环的两个关键帧的相对位姿残差以及关键帧库中其他相邻两个关键帧的相对位姿残差,使用残差项马氏范数构造非线性最小二乘式,对关键帧库中的所有位姿进行全局优化;
若不存在回环,则将当前关键帧的位姿和特征点描述子存入关键帧库,并将特征点描述子的BoW向量存入词袋。
5.根据权利要求4所述的方法,其特征在于,所述边缘化滑动窗口中的残差项,包括:
在当前帧为关键帧时,边缘化掉滑动窗口中最旧的一组残差范数;
在当前帧为非关键帧时,去掉当前帧的相机观测值,保留IMU测量值。
7.一种基于视觉惯导信息融合的定位系统,其特征在于,包括:
深度视觉传感器、惯性测量单元、处理器和存储器;
其中,所述深度视觉传感器和惯性测量单元均连接所述处理器,所述存储器存储有所述处理器的可执行指令;
所述处理器被配置为:
对采集的传感器信息进行预处理,所述传感器信息包括:深度视觉传感器的RGB图像和深度图像信息,惯性测量单元IMU的数据;
获取深度视觉传感器和惯性测量单元所属系统的外部参数;
采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息;
基于回环检测方式对所述位姿信息进行校正,获得校正后的位姿信息;
所述系统的外部参数为惯性测量单元和深度视觉传感器之间的相对位姿;
所述处理后的传感器信息包括:传感器测量值和系统状态向量;
所述采用IMU预积分模型和深度相机模型处理所述预处理后的传感器信息、外部参数,获得位姿信息,具体包括:
根据IMU预积分模型计算测量值与系统状态的残差项和协方差;
根据深度相机模型计算特征点从前一个关键帧到当前关键帧去畸变后的重投影误差和协方差;
初始化滑动窗口,当滑动窗口为空时,则将所述残差项与所述重投影误差的马氏范数和加到滑动窗口中;
对滑动窗口中的残差范数构造非线性最小二乘式,通过高斯牛顿法迭代求解,得到系统状态向量的最优解;
边缘化滑动窗口中的残差项;
所述传感器测量值为IMU积分得到的位置、姿态和速度以及使用LK光流跟踪法在当前帧中跟踪到与上一帧中的特征点匹配的特征点。
8.一种机器人,其特征在于,所述机器人包括权利要求7所述的定位系统,其中所述深度视觉传感器位于所述机器人的头部,所述惯性测量单元位于所述机器人的心脏区域。
9.根据权利要求8所述的机器人,其特征在于,所述深度视觉传感器为深度相机;
所述惯性测量单元包括:三轴加速度计、三轴陀螺仪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711077826.8A CN107869989B (zh) | 2017-11-06 | 2017-11-06 | 一种基于视觉惯导信息融合的定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711077826.8A CN107869989B (zh) | 2017-11-06 | 2017-11-06 | 一种基于视觉惯导信息融合的定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107869989A CN107869989A (zh) | 2018-04-03 |
CN107869989B true CN107869989B (zh) | 2020-02-07 |
Family
ID=61752974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711077826.8A Active CN107869989B (zh) | 2017-11-06 | 2017-11-06 | 一种基于视觉惯导信息融合的定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107869989B (zh) |
Families Citing this family (100)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108827287B (zh) * | 2018-04-10 | 2021-12-21 | 南京航空航天大学 | 一种复杂环境下的鲁棒视觉slam系统 |
CN108680185B (zh) * | 2018-04-26 | 2020-09-22 | 广东宝乐机器人股份有限公司 | 移动机器人的陀螺仪数据校正方法、装置和设备 |
CN110599549B (zh) | 2018-04-27 | 2023-01-10 | 腾讯科技(深圳)有限公司 | 界面显示方法、装置及存储介质 |
CN108759815B (zh) * | 2018-04-28 | 2022-11-15 | 温州大学激光与光电智能制造研究院 | 一种用于全局视觉定位方法中的信息融合组合导航方法 |
CN108592950B (zh) * | 2018-05-17 | 2021-11-26 | 北京航空航天大学 | 一种单目相机和惯性测量单元相对安装角标定方法 |
CN108830191B (zh) * | 2018-05-30 | 2022-04-01 | 上海电力学院 | 基于改进环境测量模块emm及orb算法的移动机器人slam方法 |
CN109029448B (zh) * | 2018-06-28 | 2021-11-12 | 东南大学 | 单目视觉惯性定位的imu辅助跟踪模型 |
CN109029433B (zh) * | 2018-06-28 | 2020-12-11 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
WO2020000395A1 (en) * | 2018-06-29 | 2020-01-02 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Systems and methods for robust self-relocalization in pre-built visual map |
CN109141395B (zh) * | 2018-07-10 | 2020-06-09 | 深圳市无限动力发展有限公司 | 一种基于视觉回环校准陀螺仪的扫地机定位方法及装置 |
CN109141396B (zh) * | 2018-07-16 | 2022-04-26 | 南京航空航天大学 | 辅助信息与随机抽样一致算法融合的无人机位姿估计方法 |
CN109141411B (zh) * | 2018-07-27 | 2022-01-21 | 顺丰科技有限公司 | 定位方法、定位装置、移动机器人及存储介质 |
CN109186592B (zh) * | 2018-08-31 | 2022-05-20 | 腾讯科技(深圳)有限公司 | 用于视觉惯导信息融合的方法和装置以及存储介质 |
CN109147058B (zh) * | 2018-08-31 | 2022-09-20 | 腾讯科技(深圳)有限公司 | 用于视觉惯导信息融合的初始化方法和装置以及存储介质 |
CN109506642B (zh) * | 2018-10-09 | 2021-05-28 | 浙江大学 | 一种机器人多相机视觉惯性实时定位方法及装置 |
CN109520497B (zh) * | 2018-10-19 | 2022-09-30 | 天津大学 | 基于视觉和imu的无人机自主定位方法 |
CN109358624B (zh) * | 2018-10-25 | 2021-12-10 | 长沙万为机器人有限公司 | 用于机器人的耦合定位方法 |
CN109522832B (zh) * | 2018-11-06 | 2021-10-26 | 浙江工业大学 | 基于点云片段匹配约束和轨迹漂移优化的回环检测方法 |
CN109459025B (zh) * | 2018-11-08 | 2020-09-04 | 中北大学 | 一种基于光流uwb组合的类脑导航方法 |
CN109540126B (zh) * | 2018-12-03 | 2020-06-30 | 哈尔滨工业大学 | 一种基于光流法的惯性视觉组合导航方法 |
CN109341686B (zh) * | 2018-12-04 | 2023-10-27 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法 |
CN109341724B (zh) * | 2018-12-04 | 2023-05-05 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载相机-惯性测量单元相对位姿在线标定方法 |
CN109631894A (zh) * | 2018-12-11 | 2019-04-16 | 智灵飞(北京)科技有限公司 | 一种基于滑动窗口的单目视觉惯性紧耦合方法 |
CN109465832A (zh) * | 2018-12-18 | 2019-03-15 | 哈尔滨工业大学(深圳) | 高精度视觉和imu紧融合定位方法与系统 |
CN109752003B (zh) * | 2018-12-26 | 2021-03-02 | 浙江大学 | 一种机器人视觉惯性点线特征定位方法及装置 |
CN109648558B (zh) * | 2018-12-26 | 2020-08-18 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
CN109917644B (zh) * | 2018-12-26 | 2022-06-14 | 达闼科技(北京)有限公司 | 一种提高视觉惯导系统鲁棒性的方法、装置和机器人设备 |
CN109676604B (zh) * | 2018-12-26 | 2020-09-22 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
CN109712170B (zh) * | 2018-12-27 | 2021-09-07 | 广东省智能制造研究所 | 基于视觉惯性里程计的环境对象追踪方法和装置 |
CN109798889A (zh) * | 2018-12-29 | 2019-05-24 | 航天信息股份有限公司 | 基于单目vins系统的优化方法、装置、存储介质及电子设备 |
CN111383282B (zh) * | 2018-12-29 | 2023-12-01 | 杭州海康威视数字技术股份有限公司 | 位姿信息确定方法及装置 |
CN111507132B (zh) * | 2019-01-31 | 2023-07-07 | 杭州海康机器人股份有限公司 | 一种定位方法、装置及设备 |
CN109764880B (zh) * | 2019-02-19 | 2020-12-25 | 中国科学院自动化研究所 | 紧耦合车辆轮子编码器数据的视觉惯性测程方法及系统 |
CN111750850B (zh) * | 2019-03-27 | 2021-12-14 | 杭州海康威视数字技术股份有限公司 | 角度信息获取方法、装置和系统 |
CN110044354B (zh) * | 2019-03-28 | 2022-05-20 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN109993113B (zh) * | 2019-03-29 | 2023-05-02 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN109976344B (zh) * | 2019-03-30 | 2022-05-27 | 南京理工大学 | 巡检机器人姿态矫正方法 |
CN109978931B (zh) * | 2019-04-04 | 2021-12-31 | 中科海微(北京)科技有限公司 | 三维场景重建方法及设备、存储介质 |
CN110162036A (zh) * | 2019-04-09 | 2019-08-23 | 中国矿业大学 | 一种掘进机自主导航定位系统及其方法 |
CN110160522A (zh) * | 2019-04-16 | 2019-08-23 | 浙江大学 | 一种基于稀疏特征法的视觉惯导里程计的位姿估计方法 |
US10955245B2 (en) * | 2019-04-30 | 2021-03-23 | Samsung Electronics Co., Ltd. | System and method for low latency, high performance pose fusion |
CN110095752B (zh) * | 2019-05-07 | 2021-08-10 | 百度在线网络技术(北京)有限公司 | 定位方法、装置、设备和介质 |
CN110207692B (zh) * | 2019-05-13 | 2021-03-30 | 南京航空航天大学 | 一种地图辅助的惯性预积分行人导航方法 |
CN110221690B (zh) | 2019-05-13 | 2022-01-04 | Oppo广东移动通信有限公司 | 基于ar场景的手势交互方法及装置、存储介质、通信终端 |
CN110132306B (zh) * | 2019-05-20 | 2021-02-19 | 广州小鹏汽车科技有限公司 | 车辆定位误差的纠正方法及系统 |
CN110207693B (zh) * | 2019-05-21 | 2021-05-11 | 南京航空航天大学 | 一种鲁棒立体视觉惯性预积分slam方法 |
CN110345944A (zh) * | 2019-05-27 | 2019-10-18 | 浙江工业大学 | 融合视觉特征和imu信息的机器人定位方法 |
CN112050806B (zh) * | 2019-06-06 | 2022-08-30 | 北京魔门塔科技有限公司 | 一种移动车辆的定位方法及装置 |
CN110196047A (zh) * | 2019-06-20 | 2019-09-03 | 东北大学 | 基于tof深度相机与imu的平仓机器人自主定位方法 |
CN110349213B (zh) * | 2019-06-28 | 2023-12-12 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN112212852A (zh) * | 2019-07-12 | 2021-01-12 | 阿里巴巴集团控股有限公司 | 定位方法、移动设备及存储介质 |
CN112284399B (zh) * | 2019-07-26 | 2022-12-13 | 北京魔门塔科技有限公司 | 一种基于视觉和imu的车辆定位方法及车载终端 |
CN110296702A (zh) * | 2019-07-30 | 2019-10-01 | 清华大学 | 视觉传感器与惯导紧耦合的位姿估计方法及装置 |
DE102019212021B4 (de) * | 2019-08-09 | 2024-02-08 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren |
CN110580054B (zh) * | 2019-08-21 | 2022-06-14 | 东北大学 | 一种基于自主视觉跟踪的光电吊舱的控制系统及方法 |
CN110517324B (zh) * | 2019-08-26 | 2023-02-17 | 上海交通大学 | 基于变分贝叶斯自适应算法的双目vio实现方法 |
US11181379B2 (en) * | 2019-09-12 | 2021-11-23 | Robert Bosch Gmbh | System and method for enhancing non-inertial tracking system with inertial constraints |
CN110717927A (zh) * | 2019-10-10 | 2020-01-21 | 桂林电子科技大学 | 基于深度学习和视惯融合的室内机器人运动估计方法 |
CN110986968B (zh) * | 2019-10-12 | 2022-05-24 | 清华大学 | 三维重建中实时全局优化和错误回环判断的方法及装置 |
CN110763251B (zh) * | 2019-10-18 | 2021-07-13 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
CN112747754A (zh) * | 2019-10-30 | 2021-05-04 | 北京初速度科技有限公司 | 一种多传感器数据的融合方法、装置及系统 |
CN111156998B (zh) * | 2019-12-26 | 2022-04-15 | 华南理工大学 | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 |
CN113124854B (zh) * | 2019-12-31 | 2023-04-25 | 杭州海康机器人股份有限公司 | 一种视觉定位方法、以及地图构建方法、装置 |
CN113091767B (zh) * | 2020-01-09 | 2022-08-30 | 舜宇光学(浙江)研究院有限公司 | 滤波式后端回环校正方法及其系统和电子设备 |
CN111260726A (zh) * | 2020-02-07 | 2020-06-09 | 北京三快在线科技有限公司 | 一种视觉定位方法及装置 |
CN111288989B (zh) * | 2020-02-25 | 2021-11-05 | 浙江大学 | 一种小型无人机视觉定位方法 |
CN111323009A (zh) * | 2020-03-09 | 2020-06-23 | 西南交通大学 | 一种磁悬浮列车定位方法及系统 |
CN111178342B (zh) * | 2020-04-10 | 2020-07-07 | 浙江欣奕华智能科技有限公司 | 一种位姿图的优化方法、装置、设备及介质 |
CN111539982B (zh) * | 2020-04-17 | 2023-09-15 | 北京维盛泰科科技有限公司 | 一种移动平台中基于非线性优化的视觉惯导初始化方法 |
CN111583387A (zh) * | 2020-04-21 | 2020-08-25 | 北京鼎路科技有限公司 | 一种无人驾驶室外场景三维重建的方法和系统 |
CN111538029A (zh) * | 2020-04-24 | 2020-08-14 | 江苏盛海智能科技有限公司 | 一种视觉与雷达融合的测量方法及终端 |
CN111609868A (zh) * | 2020-05-29 | 2020-09-01 | 电子科技大学 | 一种基于改进光流法的视觉惯性里程计方法 |
CN111811501B (zh) * | 2020-06-28 | 2022-03-08 | 鹏城实验室 | 一种基于树干特征的无人机定位方法、无人机及存储介质 |
CN112025697B (zh) * | 2020-07-10 | 2022-06-17 | 浙江工业大学 | 一种全向移动机器人的积分模型预测控制方法 |
CN114119885A (zh) * | 2020-08-11 | 2022-03-01 | 中国电信股份有限公司 | 图像特征点匹配方法、装置及系统、地图构建方法及系统 |
CN112179373A (zh) * | 2020-08-21 | 2021-01-05 | 同济大学 | 一种视觉里程计的测量方法及视觉里程计 |
CN114088131A (zh) * | 2020-08-24 | 2022-02-25 | 北京市安全生产科学技术研究院 | 监测建模装置及森林应急消防监测系统 |
CN112115980A (zh) * | 2020-08-25 | 2020-12-22 | 西北工业大学 | 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法 |
CN112179338A (zh) * | 2020-09-07 | 2021-01-05 | 西北工业大学 | 一种基于视觉和惯导融合的低空无人机自身定位方法 |
CN114322996B (zh) * | 2020-09-30 | 2024-03-19 | 阿里巴巴集团控股有限公司 | 一种多传感器融合定位系统的位姿优化方法和装置 |
CN112450820B (zh) * | 2020-11-23 | 2022-01-21 | 深圳市银星智能科技股份有限公司 | 位姿优化方法、移动机器人及存储介质 |
CN114723779A (zh) * | 2021-01-06 | 2022-07-08 | 广州汽车集团股份有限公司 | 一种车辆定位方法、装置及计算机可读存储介质 |
CN112873280B (zh) * | 2021-01-11 | 2022-10-25 | 上海思岚科技有限公司 | 一种用于机器人的传感器的标定方法及设备 |
CN112614194B (zh) * | 2021-01-29 | 2021-09-03 | 北京经纬恒润科技股份有限公司 | 一种图像采集设备的数据处理方法、系统及装置 |
CN112964276B (zh) * | 2021-02-09 | 2022-08-05 | 中国科学院深圳先进技术研究院 | 一种基于激光和视觉融合的在线标定方法 |
CN113155121B (zh) * | 2021-03-22 | 2024-04-02 | 珠海深圳清华大学研究院创新中心 | 一种车辆定位方法、装置及电子设备 |
CN113159197A (zh) * | 2021-04-26 | 2021-07-23 | 北京华捷艾米科技有限公司 | 一种纯旋转运动状态判定方法及装置 |
CN113140040A (zh) * | 2021-04-26 | 2021-07-20 | 北京天地玛珂电液控制系统有限公司 | 一种多传感器融合的煤矿井下空间定位及建图方法与装置 |
CN115307626A (zh) * | 2021-05-06 | 2022-11-08 | 北京航通云科技有限公司 | 一种应用于小型无人机的冗余定位方法 |
CN113077515B (zh) * | 2021-06-07 | 2021-09-21 | 之江实验室 | 一种水下视觉惯导压力定位的紧耦合初始化方法 |
CN113465596B (zh) * | 2021-06-25 | 2023-05-30 | 电子科技大学 | 一种基于多传感器融合的四旋翼无人机定位方法 |
CN113610001B (zh) * | 2021-08-09 | 2024-02-09 | 西安电子科技大学 | 基于深度相机和imu组合的室内移动终端定位方法 |
CN114111776B (zh) * | 2021-12-22 | 2023-11-17 | 广州极飞科技股份有限公司 | 定位方法及相关装置 |
CN114485649B (zh) * | 2022-02-09 | 2023-09-12 | 北京自动化控制设备研究所 | 面向无人机的惯性、视觉和高度信息融合导航方法 |
CN114608554B (zh) * | 2022-02-22 | 2024-05-03 | 北京理工大学 | 一种手持slam设备以及机器人即时定位与建图方法 |
CN114529585A (zh) * | 2022-02-23 | 2022-05-24 | 北京航空航天大学 | 基于深度视觉和惯性测量的移动设备自主定位方法 |
CN115239758A (zh) * | 2022-05-24 | 2022-10-25 | 广东人工智能与先进计算研究院 | 时间戳校正方法、装置、设备、介质及计算机程序产品 |
CN115171030B (zh) * | 2022-09-09 | 2023-01-31 | 山东省凯麟环保设备股份有限公司 | 基于多级特征融合的多模态图像分割方法、系统及器件 |
CN116026316B (zh) * | 2023-03-30 | 2023-08-29 | 山东科技大学 | 一种耦合视觉惯性里程计与gnss的无人船航迹推算方法 |
CN117760428B (zh) * | 2024-02-22 | 2024-04-30 | 西北工业大学 | 一种基于多立体视觉惯性紧耦合的自主定位方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
WO2016187759A1 (en) * | 2015-05-23 | 2016-12-01 | SZ DJI Technology Co., Ltd. | Sensor fusion using inertial and image sensors |
CN106446815A (zh) * | 2016-09-14 | 2017-02-22 | 浙江大学 | 一种同时定位与地图构建方法 |
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN106708066A (zh) * | 2015-12-20 | 2017-05-24 | 中国电子科技集团公司第二十研究所 | 基于视觉/惯导的无人机自主着陆方法 |
CN106909877A (zh) * | 2016-12-13 | 2017-06-30 | 浙江大学 | 一种基于点线综合特征的视觉同时建图与定位方法 |
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
-
2017
- 2017-11-06 CN CN201711077826.8A patent/CN107869989B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
WO2016187759A1 (en) * | 2015-05-23 | 2016-12-01 | SZ DJI Technology Co., Ltd. | Sensor fusion using inertial and image sensors |
CN106708066A (zh) * | 2015-12-20 | 2017-05-24 | 中国电子科技集团公司第二十研究所 | 基于视觉/惯导的无人机自主着陆方法 |
CN106446815A (zh) * | 2016-09-14 | 2017-02-22 | 浙江大学 | 一种同时定位与地图构建方法 |
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN106909877A (zh) * | 2016-12-13 | 2017-06-30 | 浙江大学 | 一种基于点线综合特征的视觉同时建图与定位方法 |
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
Non-Patent Citations (4)
Title |
---|
Kinematic chain based multi-joint capturing using monocular visual-inertial measurements;Yinlong Zhang等;《2017IEEE/RSJ International Conference on Intelligent Robots and Systemns(IROS)》;20170930;1818-1823 * |
基于ORB词袋模型的SLAM回环检测研究;李同等;《信息通信》;20171031(第10期);20-25 * |
基于非线性优化的单目视觉/惯性组合导航算法;程传奇;《中国惯性技术学报》;20171031;第25卷(第5期);643-649 * |
视觉惯导融合实时6DOF机器人定位方法研究;郑新芳;《中国优秀硕士学位论文全文数据库信息科技辑》;20170615(第6期);I140-203 * |
Also Published As
Publication number | Publication date |
---|---|
CN107869989A (zh) | 2018-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107869989B (zh) | 一种基于视觉惯导信息融合的定位方法及系统 | |
CN111156984B (zh) | 一种面向动态场景的单目视觉惯性slam方法 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN109029433B (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN110009681B (zh) | 一种基于imu辅助的单目视觉里程计位姿处理方法 | |
CN111024066B (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN111258313B (zh) | 多传感器融合slam系统及机器人 | |
CN109993113B (zh) | 一种基于rgb-d和imu信息融合的位姿估计方法 | |
CN108717712B (zh) | 一种基于地平面假设的视觉惯导slam方法 | |
CN112304307A (zh) | 一种基于多传感器融合的定位方法、装置和存储介质 | |
CN106679648B (zh) | 一种基于遗传算法的视觉惯性组合的slam方法 | |
CN112598757B (zh) | 一种多传感器时间空间标定方法及装置 | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN112649016A (zh) | 一种基于点线初始化的视觉惯性里程计方法 | |
CN112734841B (zh) | 一种用轮式里程计-imu和单目相机实现定位的方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN112381890B (zh) | 一种基于点线特征的rgb-d视觉slam方法 | |
CN112577493B (zh) | 一种基于遥感地图辅助的无人机自主定位方法及系统 | |
CN112862768B (zh) | 一种基于点线特征的自适应单目vio初始化方法 | |
CN111609868A (zh) | 一种基于改进光流法的视觉惯性里程计方法 | |
CN113503873B (zh) | 一种多传感器融合的视觉定位方法 | |
CN114529576A (zh) | 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法 | |
CN111780781A (zh) | 基于滑动窗口优化的模板匹配视觉和惯性组合里程计 | |
CN114485640A (zh) | 基于点线特征的单目视觉惯性同步定位与建图方法及系统 | |
CN114608554A (zh) | 一种手持slam设备以及机器人即时定位与建图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |