CN110375738B - 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 - Google Patents
一种融合惯性测量单元的单目同步定位与建图位姿解算方法 Download PDFInfo
- Publication number
- CN110375738B CN110375738B CN201910540351.4A CN201910540351A CN110375738B CN 110375738 B CN110375738 B CN 110375738B CN 201910540351 A CN201910540351 A CN 201910540351A CN 110375738 B CN110375738 B CN 110375738B
- Authority
- CN
- China
- Prior art keywords
- representing
- pose
- imu
- coordinate system
- measurement unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
本发明涉及机器人感知领域,特别是一种融合惯性测量单元的单目同步定位与建图位姿解算方法。其特征是:至少包含以下步骤:步骤1)获取机器人视觉信息,依据机器人视觉信息和机器人惯性信息确定机器人位姿;步骤2)依据步骤1)给出机器人视觉信息坐标系C相对于世界坐标系W上的平移分量;步骤3)给出视觉与惯性在后端的误差项,优化目标函数构造及位姿求解。本发明具有良好的鲁棒性,建图精度和点云质量,可以求解更高精度的位姿,从而应用于在未知环境中行走的机器人时,能够获得精准的定位,使机器人在后续自动导航过程中可以实现精准壁障、精确规划最优路线等功能。
Description
技术领域
本发明涉及机器人感知领域,特别是一种融合惯性测量单元的单目同步定位与建图位姿解算方法。
背景技术
在未知环境状态下移动机器人感知技术,其依据的核心为同步定位与地图构建SLAM(Simultaneous Localization and Mapping,SLAM),它是实现机器人自主移动的关键。视觉SLAM从匹配原理上分为直接法与间接法两类。其中,基于间接法的主流方法是RaúlMur-Artal和J.M.M.Montiel提出的ORB-SLAM,在PTAM的基础上提出了初始化算法自动计算初始位姿,提取高速的ORB(Oriented FAST and Rotated BRIEF,ORB)图像特征点并使用G2O(General Graph Optimization,G2O)库进行全局误差最小化,使其更适应于大规模场景;添加了回环检测线程,引进本质图的概念来加速闭环校正过程。
基于直接法的是Engel J在2016年提出的DSO(Direct Sparse Odometry,DSO)算法,添加了光度标定模型,直接采用像素点构造光度误差项参与优化,与直接法相比极大地简化了运算量,且应用于弱纹理环境具有高鲁棒性。
在视觉惯性融合算法中,目前主要的融合方法为紧耦合的基于滤波和基于优化两类。基于滤波的有rovio算法,将IMU与图像帧和点云一起进行估计,并提出特征块辅助EKF过程,解决参与优化点的不确定性,预测过程估计块位置,在更新步骤中使用特征块求解投影后点强度差值,更新优化状态量。
对于基于优化的视觉惯性系统中,Okvis算法基于关键帧进行耦合优化减少了计算量,通过IMU偏差项以完全概率的方式与路标重投影误差构造目标函数进行共同非线性优化,边缘化旧状态以限制复杂性。
发明内容
本发明的目的在于提供了一种具有运动性、快速性、高精度、误差小的单目同步定位与建图的机器人位姿解算方法。
本发明的技术方案如下:一种融合惯性测量单元的单目同步定位与建图的高精度位姿解算方法,其特征是:至少包含以下步骤:
步骤1)获取机器人视觉信息,依据机器人视觉信息和机器人惯性信息确定机器人位姿;
步骤2)依据步骤1)给出机器人视觉信息坐标系C相对于世界坐标系W上的平移分量;
步骤3)给出视觉与惯性在后端的误差项,优化目标函数构造及位姿求解。
所述的步骤1)包括以下步骤:
步骤1.1前端初始位姿估计,特别是去畸变帧间位姿估计:
步骤1.1,通过机器人视觉传感器,获取机器人视觉图像信息,对当前图像帧的像素点pi投影得到对应点pj,投影公式:
pj表示像素点pi投影后对应像素点,pi表示当前图像帧中的第i个像素点,K表示相机内参矩阵,r2=u2+v2表示像到光轴中心的距离,即像素点pi在像素坐标系上横轴变量与纵轴变量的平方和,r4表示r2的平方,(·)-1表示取逆操作,exp(·)表示取指数操作,ξk,k+1表示k到k+1时刻位姿的李代数形式,(·)^表示将六维向量转变成四维矩阵的从向量到矩阵操作。
步骤1.2对步骤1.1)的投影公式进行非线性优化后得到位姿的更新量Δξ,利用更新量对步骤1.1.1中位姿的李代数形式ξk,k+1进行迭代更新:ξk,k+1_update←ξk,k+1_cur+Δξ,得到更新后的ξk,k+1_update就是前端初始位姿;
步骤1.3,通过机器人惯性传感器获取机器人惯性信息,对机器人惯性信息的实际测量值进行预积分:
表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的旋转分量,表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的速度分量,表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的平移分量。表示IMU第i次采样得到的真实角速度测量值,表示IMU第i次采样得到的真实加速度测量值,gW表示重力矢量,分别表示第i时刻时的陀螺仪偏差、加速度计偏差,ηgd、ηad分别表示陀螺仪、加速度计的离散化噪声。
所述的步骤2包括以下步骤:
步骤2.1根据步骤1.3的预积分所得的旋转分量、速度分量、平移分量以及惯性测量单元(IMU)模块固有偏差bg、ba,定义k时刻下相机采集的图像帧状态xk对应的优化变量为:
xk=[Wpk,Wvk,Wqk,bg,ba,s]
xk表示k时刻时图像帧状态优化变量,Wpk表示在世界坐标系中在k时刻时的平移分量;Wvk表示在世界坐标系中在k时刻时的速度分量;Wqk表示在世界坐标系中在k时刻时的旋转分量;bg表示陀螺仪偏差;ba表示加速度计偏差;s表示尺度因子,使视觉光度误差项与惯性误差项中的位姿信息保持尺度一致性。
步骤2.2根据步骤1.1.1的视觉投影公式和步骤1.1.3的惯性测量单元(IMU)预积分中的各个变量,定义融合惯性测量单元后的全局优化状态变量为
x=[x1,x2,...,xm,k1,k2,kc,ρ1,...,ρn]
xk表示待求解的全局优化状态变量,x1,x2,...,xm表示有m个图像帧状态优化变量,k1,k2表示径向畸变参数,kc表示单目相机内参矩阵,ρ1,...,ρn表示n个不同像素点对应的逆深度。
步骤2.3对步骤1.1.3的惯性测量单元(IMU)预积分中的旋转分量、平移分量与步骤1.1.1的视觉投影公式中位姿的旋转分量、平移分量,定义尺度因子s,使得惯性测量单元(IMU)预积分中的旋转分量、平移分量与视觉视觉投影公式中位姿的旋转分量、平移分量之间满足:
s·WCp=WBqWBp-WCq·CBq·CBp
s表示定义的尺度因子,WCp表示相机坐标系C相对于世界坐标系W上的平移分量,WBq表示IMU坐标系B相对于世界坐标系W上的旋转分量,WBp表示IMU坐标系B相对于世界坐标系W上的平移分量,WCq表示相机坐标系C相对于世界坐标系W上的旋转量,CBq表示IMU坐标系B相对于相机坐标系C上的旋转分量,CBp表示IMU坐标系B相对于相机坐标系C上的平移分量。
所述的步骤3)包括以下步骤:
步骤3.1给出视觉的光度误差项
步骤3.1.1给出视觉的光度误差项,对第k帧图像上的像素点pi与投影后第k+1帧上的对应点pj构造光度误差项:
Ik(ci)表示在第k时刻时的像素点pi对应的灰度值,Ik+1(pj)表示在第k+1时刻时的像素点pj对应的灰度值。
步骤3.1.2对光度误差项进行最大后验估计得到后端位姿优化目标函数的视觉分量:
步骤3.2给出惯性测量单元(IMU)的误差项:
步骤3.2.1利用惯性测量单元(IMU)采样测量值进行预积分获得的理想测量值与实际测量值来给出惯性测量单元(IMU)的误差项:
步骤3.2.2对惯性测量单元(IMU)的误差项进行最大后验估计并转换为最小二乘问题得到后端位姿优化目标函数的IMU惯性分量:
其中∑k,k+1是关于IMU预积分误差项中噪声项的协方差矩阵。∑k,k+1的构成过程如下:
a)假定预积分后噪声项为:
b)将各个噪声项线性展开:
c)将b)中的噪声项简写成:
其中,∑k,i+n-1为上一时刻预积分的信息矩阵,Ση为IMU模块固有噪声的信息矩阵,Ak,i+n-1表示第一个矩阵,(·)T表示取转置操作,∑k,i+n-1表示噪声项的信息矩阵,Bi+n-1表示第二个矩阵,Ση表示噪声项的信息矩阵。
步骤3.3优化目标函数求解
步骤3.3.1构建后端位姿优化的目标函数
θ*表示待求解的全局优化状态变量的目标函数,r0表示先验信息。
步骤3.3.2使用优化目标函数求解位姿
(1)步骤3.1.1中的视觉光度误差项的雅可比矩阵求解:对视觉误差项中关于全局优化状态变量x包含的每一个变量求偏导,得到视觉光度误差项对位姿、地图点逆深度、相机内参以及畸变的雅可比矩阵。
表示视觉光度误差项对图像帧状态xk对应的优化变量的雅可比矩阵,表示视觉光度误差项对旋转分量的雅可比矩阵,u||表示像素坐标系上的像素点坐标的归一化向量,分别表示视觉光度误差项对地图点逆深度、相机内参以及畸变的雅可比矩阵。
(2)IMU惯性误差项的雅可比矩阵求解:对k、k+1时刻分别求IMU惯性误差项中图像帧状态xk对应的优化变量的雅可比矩阵。
(3)将上述的雅可比矩阵构造为全局雅可比矩阵J,对步骤3.2.1中的d)所述的IMU预积分信息矩阵分别对步骤1.2中的全局优化变量中的每个变量求雅可比矩阵J,对步骤3.3.1中的目标函数f(x)使用高斯牛顿法JTJΔx=-JTf(x)求解,得到关于全局状态变量x的更新量Δx。利用更新量对步骤1.2中全局状态变量x中的每个变量进行迭代更新:xupdate←xcur+Δx,得到更新后的xupdate中的图像帧状态xk_update即包含当前时刻解算的位姿信息,即xk_update中的旋转分量q和平移分量p。
从以下几个方面进行位姿的精度对比:
1)融合惯性测量单元之后求解的位姿与真实位姿值之间求绝对轨迹误差,未融合惯性测量单元求解的位姿与真实位姿值之间求绝对轨迹误,将两个绝对轨迹误差进行误差值大小的比较;
2)融合惯性测量单元之后求解的位姿与真实位姿值之间求相对轨迹误差,未融合惯性测量单元求解的位姿与真实位姿值之间求相对轨迹误,将两个相对轨迹误差进行误差值大小的比较;
3)融合惯性测量单元之后求解的位姿与真实位姿值之间求尺度误差漂移,未融合惯性测量单元求解的位姿与真实位姿值之间求尺度误差漂移,将两个尺度误差漂移进行误差值大小的比较;
4)融合惯性测量单元之后求解的位姿与真实位姿值之间求平移分量误差漂移,未融合惯性测量单元求解的位姿与真实位姿值之间求平移分量误差漂移,将两个平移分量误差漂移进行误差值大小的比较;
5)融合惯性测量单元之后求解的位姿与真实位姿值之间求绝对轨迹误差,融合惯性测量单元的其他方法求解的位姿与真实位姿值之间求绝对轨迹误,将两个绝对轨迹误差进行误差值大小的比较。
步骤中符号定义
与现有的技术相比,本发明的有益效果具体体现在:
1)与视觉SLAM相比,不需要刻意依赖上一帧地图点,不会因为地图扩展性太慢导致跟丢,不会因为累计误差导致对后续的位姿信息定位不准确。
2)与目前紧耦合的基于滤波和基于优化两种主要融合方法相比,对算法误差的处理更加完善,预测过程和更新优化量更准确。
3)纠正视觉位姿误差累积问题,修正视觉位姿尺度,纠正IMU模块存在的偏差漂移问题,实时获取高精度位姿信息,具有良好的鲁棒性,建图精度和点云质量方面均得到了改善。
4)可以求解更高精度的位姿,从而应用于在未知环境中行走的机器人时,能够获得精准的定位,使机器人在后续自动导航过程中可以实现精准壁障、精确规划最优路线等功能。
下边结合实施例附图对本发明作进一步说明:
附图说明
图1是视觉惯性SLAM尺度因子影响图;
图2是先验信息用于优化过程因子图;
图3(a)是表示本算法估计值与真实值之间的APE;
图3(b)是表示本算法估计值与真实值之间的RPE;
图3(c)是融合IMU之前DSO的估计值与真实值之间的APE误差曲线图;
图3(d)是融合IMU之前DSO的估计值与真实值之间的RPE误差曲线图;
图4(a)的综合轨迹图表示由本算法位姿轨迹、真实值和单目位姿轨迹组成的轨迹图;
图4(b)是本算法APE对应在轨迹曲线上的误差项细节图;
图4(c)是本算法RPE对应在轨迹曲线上的误差项细节图;
图4(d)是仅单目APE对应在轨迹上的误差项细节图;
图4(e)是仅单目RPE对应在轨迹上的误差项细节图;
图5(a)是MH_05数据集的真实值与本算法位姿估计值关于平移向量在x、y、z三个轴上的拟合曲线;
图5(b)是融合IMU之前的VO以及本算法在x、y、z三个轴上的平移分量漂移量示意图;
图6是VIO\VO里程计与真值关于尺度漂移示意图;
图7(a)是未融合IMU的单目构建的地图;
图7(b)是本算法构建的地图。
具体实施方式
实施例一
一种融合IMU的单目SLAM高精度位姿解算方法,至少包含以下步骤:
步骤1)视觉与惯性在前端的初始位姿估计
1.1前端初始位姿估计
在前端对图像帧间初始位姿估计过程中,本文提出了去畸变帧间位姿估计算法,于帧间匹配过程加入畸变参数并构建光度误差函数求解视觉初始位姿。假定存在两个图像帧:当前帧和参考帧。对当前帧的像素点pi利用投影公式得到对应点pj:
pj表示像素点pi投影后对应像素点,pi表示当前图像帧中的第i个像素点,K表示相机内参矩阵,r2=u2+v2表示像到光轴中心的距离,即像素点pi在像素坐标系上横轴变量与纵轴变量的平方和,r4表示r2的平方,(·)-1表示取逆操作,exp(·)表示取指数操作,ξk,k+1表示k到k+1时刻位姿的李代数形式,(·)^表示将六维向量转变成四维矩阵的从向量到矩阵操作。
步骤1.1.2对投影公式进行非线性优化后得到位姿的更新量Δξ,利用更新量对步骤1.1.1中位姿的李代数形式ξk,k+1进行迭代更新:ξk,k+1_update←ξk,k+1_cur+Δξ,得到更新后的ξk,k+1_update就是前端初始位姿。
步骤1.1.3对惯性测量单元(IMU)模块的实际测量值进行预积分:
表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的旋转分量,表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的速度分量,表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的平移分量。表示IMU第i次采样得到的真实角速度测量值,表示IMU第i次采样得到的真实加速度测量值,gW表示重力矢量,分别表示第i时刻时的陀螺仪偏差、加速度计偏差,ηgd、ηad分别表示陀螺仪、加速度计的离散化噪声。
步骤2)待求解的视觉惯性变量定义
步骤2.1构造优化状态变量
已知IMU模块测量值预积分所得变量p、v、q以及固有偏差bg、ba,可定义k时刻下图像帧状态xk对应的优化变量为:
xk=[Wpk,Wvk,Wqk,bg,ba,s] (2-1)
其中变量s表示尺度因子,使视觉光度误差项与惯性误差项中的位姿信息保持尺度一致性。变量p、v、q、bg、ba分别表示IMU预积分中的平移、速度、角度、陀螺仪偏差、加速度计偏差。全局优化状态变量的构造规则为:根据视觉与惯性紧耦合的融合特性,在后端位姿优化过程中地图点用于构造视觉帧间光度误差,因此地图点的逆深度信息是全局优化状态变量的组成参数;
步骤2.2此外,前端估计初始位姿的去畸变帧间光度误差项中包含的相机内参、畸变等参数的精度也影响后端位姿优化精度,因此本视觉惯性里程计的全局优化状态变量为:
x=[x1,x2,...,xm,k1,k2,kc,ρ1,...,ρn] (2-2)
式(1-2)中的xk表示待求解的全局优化状态变量,x1,x2,...,xm表示有m个图像帧状态优化变量,k1,k2表示图像的畸变变量,kc表示单目相机的内参变量,ρi表示后端滑动窗口中未边缘化的成熟地图点的逆深度,m则代表窗口中活跃的关键帧数量。
步骤2.3尺度因子的定义
IMU模块和视觉的运动信息转换如图1所示,B、W、C分别对应IMU、世界、相机坐标系,虚线所在坐标系表示从相机坐标系到世界坐标系转换时由于尺度不确定导致的不真实尺度下的坐标系。在将B系的原点转换到W系时,通过直接转换和借助相系转换两种方案得到的TWB存在一个尺度比例关系。两种方案获得的TWB在理想状态下应当是一致的,但是IMU对采样值预积分后获得的变量是真实值,又由于单目视觉存在的尺度不确定性导致解算的位姿无法得到真实世界尺度,并且会随时间累积误差导致位姿的尺度信息不一致,使得借助相系转换时会转换至虚拟W系下。
图1中黑色直线条表示从当前坐标系到下一坐标的平移过程,红色弧线条表示将当前坐标系每个轴进行旋转,最终与箭头所指坐标系三个轴的朝向一致的旋转过程。为了维持IMU预积分所得位姿与视觉位姿尺度保持一致,假定存在一个尺度因子s,使得IMU采样值预积分后的q、p与视觉位姿之间有如下关系:
s·WCp=WBqWBp-WCq·CBq·CBp (2-3)
其中下标代表转换过程(形如WC表示从C系转换至W系),转换过程以IMU坐标系原点这一点进行先平移后旋转的坐标系转换,最后依据两种方案结束时坐标值的差值无限趋于零构建。
步骤3)误差项及优化目标函数构造与求解
步骤3.1给出视觉的光度误差项
优化目标函数的主要构成部分为误差项,对本文在后端位姿优化算法来说,需要将视觉与惯性误差项组建为一个整体优化目标函数才可以实现共同位姿优化过程,视觉部分基于灰度不变性原理,与前端视觉位姿估计原理一致,对第k帧图像上的像素点ci与投影后第k+1帧上的点cj构造光度误差项:
其中,Ik(ci)表示在第k时刻时的像素点pi对应的灰度值,Ik+1(pj)表示在第k+1时刻时的像素点pj对应的灰度值。
ξk,k+1表示从第k帧到第k+1帧图像所经过的位姿变换的李代数形式,(·)^表示将六维向量ξk,k+1转变成四维矩阵的从向量到矩阵操作。对式(3-1)进行最大后验估计,进而转换为最小二乘问题为:
步骤3.2给出惯性测量单元(IMU)的误差项:
对于IMU模块,利用IMU采样测量值进行预积分获得的理想测量值与实际测量值来构造IMU模块的误差项:
其中,表示[k,k+1]区间内关于IMU采样值预积分的残差项,包括旋转差值速度差值位移差值陀螺仪偏差差值加速度计偏差差值五部分。表示从k时刻到i时刻对IMU采样值的实际预积分值。此外,对IMU测量值进行预积分的过程中bg,ba也有更新量。本文假设偏差在预积分的迭代过程中有小量δbg、δba对当前采样时的偏差bg和ba进行累积,并对预积分的和中的偏差bg,ba进行更新。此处取相对位移增量在偏差处运用泰勒一阶近似获得的和构造关于偏差bg,ba的误差项。对IMU模块误差项进行最大后验估计并转换为最小二乘问题:
式(3-4)便是组成目标函数的IMU惯性分量,其中∑k,k+1是关于IMU预积分误差项中噪声项的协方差矩阵。此处假定预积分后的噪声项为:
三个噪声由IMU模块固有噪声ηg、ηa和预积分噪声δφk,i、δvk,i等变量构成,并且与固有噪声呈非线性关系。由于固有噪声服从高斯分布,首先对每项进行一阶近似,可以获得噪声的各噪声分量的分布呈线性,然后对各分量δφk,k+1,δvk,k+1,δpk,k+1进行线性展开,得到的噪声构成如下:
此处可以将式(3-6)简写为:
其中,∑k,i+n-1为上一时刻预积分的信息矩阵,Ση为IMU模块固有噪声的信息矩阵。
步骤3.3优化目标函数求解
经过上述对视觉和IMU模块分别进行误差项分析及优化项构建后,后端位姿优化的目标函数可以定义为:
优化目标函数的第一项为先验信息,它是与优化状态相关的信息,在之前时刻进行后端位姿优化后得到的。在后端滑窗位姿优化过程中,选取包含信息多于窗口中其他帧的第四帧优化信息作为先验。添加了先验的优化因子图如下图2所示。
灰色方块代表先验因子,用于给第k时刻优化时提供优化信息,它来源于之前时刻IMU和视觉共同优化的结果;紫色方块代表IMU预积分因子,对两个时刻之间的数据进行预积分;黄色方块代表偏差因子,需要注意的是偏差在预积分结束后进行更新;橙色方块表示尺度因子、内参、畸变和逆深度等多参数与各时刻的位姿信息进行联合优化的视觉因子。该图展示了在后端优化中各变量之间的关联。
基于式(3-2)优化状态变量的定义以及视觉和IMU模块误差项的构造,在对目标函数进行优化求解时可以细化到分别对视觉误差项和IMU模块误差项中各优化变量的求解。对式(3-1)的视觉误差项中每个变量求偏导得到视觉部分的雅可比矩阵如下:
对于全局优化状态变量x中的每个分量求偏导如下:
式(3-11)分别表示视觉误差项对相机内参、地图点逆深度以及畸变的雅可比矩阵,IMU模块的残差涉及到预积分各分量和偏差等参数,并且存在两个时刻下的变量,因此需要对每个时刻分别求各优化状态变量的雅可比矩阵:
其中,每行代表对单个优化状态xk中的各变量的偏导。由于偏差在区间[k,k+1]内不更新,因此只求k时刻关于偏差项的雅可比矩阵,但是IMU在区间[k,k+1]内进行预积分时IMU偏差项也以小量δbg、δba的形式对当前采样时的偏差bg,ba进行累积,因此式(3-3)中的对预积分后才进行更新的偏差项求偏导如下:
在对式(3-9)中视觉和惯性误差项分别求式(2-2)中每个变量的雅可比矩阵后,利用视觉惯性方法中所述方法将本文中的雅可比矩阵构造为全局雅可比矩阵J,对J、式(2-2)全局状态变量x和式(3-9)目标函数f(x)使用高斯牛顿法JTJΔx=-JTf(x)求解,得到关于全局状态变量x的更新量Δx。利用更新量对式(2-2)中的每个变量进行迭代更新:xupdate←xcur+Δx,更新后的xupdate中即包含当前时刻解算的位姿信息。
步骤4)实验结果与分析
步骤4.1精度分析依据标准
在本算法对实验结果精度分析上,我们将融合IMU前后的轨迹估计值与地面真实值进行对比,由于最终输出的位姿部分代表了轨迹信息,因此当系统运行所得轨迹与地面真实值之间的误差足够小时,即达到了本系统的高精度的指标。误差描述主要采取两种指标:绝对轨迹误差和相对位姿误差。
对于绝对轨迹误差(ATE),又称为绝对位姿误差(APE),原理为将估计值与真实值之间对轨迹进行绝对距离评估。两者以一定的标准对齐,然后计算偏差:
其中,Fi表示i时刻对应的整体绝对轨迹误差,Pi代表本算法后端优化的位姿信息,由式(4-1)中对应的旋转pi、平移qi组成。Qi代表与Pi对应的数据集真实值位姿信息。同时,根据上述误差公式可以计算所有时间上的均方根误差:
上式是以Fi的平移分量qi参与的计算。
相对位姿误差(RPE)不像APE强调整体上的一致性,而是注重于估计值与真实值之间局部范围内的差异。因此可以将RPE定义为:
其中,Δ表示比对的局部范围的大小,默认为1。根据Ei我们亦可以计算关于RPE的均方根误差:
步骤4.2位姿解算精度对比
在本例中,我们以EuRoc数据集的MH_05为例,对本算法位姿估计值与真实值进行以APE和RPE为主的精度分析讨论。如图3所示,其中图中的标题代表着两条轨迹的配准标准,横轴皆代表时间戳对应的时刻值。图3(a)表示本算法估计值与真实值之间的APE,图中曲线为在不同时间戳对应下,本算法位姿估计值与真实值之间的绝对轨迹误差值连接而成,可以看出,误差值的整体波动趋于平稳并且随着时间戳的增大误差值在减小,在时间戳为80+后,误差值低于绿色线条所对应均方根误差值;图3(b)为两者的RPE,图中曲线为在不同时间戳对应下,本算法位姿估计值与真实值之间的相对轨迹误差值连接而成,相对轨迹误差表示相邻帧位姿之间的误差差异,在横轴70+处对应差异较大,但整体上帧间位姿差异趋于平稳,且绿色线条所在的整体RPE均方根误差为0.11+,误差值较小;图3(c)为融合IMU之前DSO的估计值与真实值之间的APE误差曲线图,可以看出,相较于图3(a)曲线来说,融合IMU之前的APE曲线对应的纵坐标绝对轨迹误差值远高于本算法APE值,误差较高;图3(d)为两者的RPE误差曲线图,绿色线条所在的整体RPE均方根误差为0.6+,相较于图3(b)的0.11+来说,融合IMU之前的RPE相对轨迹误差值远大于本算法RPE值,并且在横轴40+处曲线RPE值有明显的跳变,局部对位姿的估计具有不稳定性。表1给出了融合IMU前后位姿估计值与真实值关于APE和RPE精度对比的各项数据详情,VIO_APE一列对应着图3(a),VIO_RPE一列对应着图3(b),VO_APE一列对应着图3(c),VO_RPE一列对应着图3(d)。
表1 MH_05的VIO与VO误差统计
表1中的RMSE一项对应着图3各图中的绿色线条,是衡量位姿估计值精度的主要指标。从图3以及表1可以得到结论如下:
(1)本算法的APE中均方根误差为0.091455,对应图3(a)绿色线条所在APE值,单目视觉里程计DSO的APE中均方根误差为6.200442,对应图3(c)绿色线条所在APE值,图3(a)中误差值的整体波动趋于平稳并且随着时间戳的增大误差值在减小,而图3(c)融合IMU之前的APE曲线对应的纵坐标绝对轨迹误差值远高于图3(a)本算法APE值,误差较高;因此本算法与融合IMU模块之前的DSO相比在全局上拥有更高的精度。
(2)本算法的RPE中均方根误差为0.111598,对应图3(b)绿色线条所在RPE值,单目视觉里程计DSO的RPE中均方根误差为0.890695,对应图3(d)绿色线条所在RPE值。对于RPE的局部轨迹比对,我们选取Δ=1,即对相邻帧之间进行RPE分析计算。并且图3(b)RPE曲线波动表示整体上帧间位姿差异趋于平稳,而图3(d)融合IMU之前的RPE相对轨迹误差值远大于图3(b)本算法RPE值,并且在横轴40+处曲线RPE值有明显的跳变,此处有较大的漂移,局部对位姿的估计具有不稳定性。因此,本算法融合IMU之后局部精度更高,漂移更小。
通过对本算法实验结果位姿估计值进行与真实值之间的精度分析,并将其与融合IMU前进行关于精度的对比分析得到上述结论,验证了本算法在融合IMU之后的高精度性。接下来将从轨迹图以及坐标轴三个分量上对实验结果进行讨论。图4给出的是综合轨迹图和表1各项误差值对应在轨迹上与真实值之间的细节图。
图4(a)的综合轨迹图表示由本算法位姿轨迹、真实值和单目位姿轨迹组成的轨迹图,三者以同一标准进行对齐,虚线表示真实值,蓝色线条代表本算法实验位姿轨迹,绿色线条表示仅单目位姿轨迹。可以明显看出融合IMU之前的轨迹与本算法所绘轨迹之间存在尺度比例差异,本算法所绘轨迹可以高度契合真实值。此外,图(b)、(c)分别代表本算法APE、RPE对应在轨迹上的误差项细节图,图(d)、(e)分别代表仅单目APE、RPE对应在轨迹上的误差项细节图,以颜色标记估计位姿轨迹与真实值之间误差计算时误差数值大小的分布状况。从图(b)、(c)、(d)、(e)中误差值的展示可以得出本算法的误差值远小于单目里程计DSO误差值,而且图(e)中有一段深红色标记的轨迹段,体现在图3(d)中时间轴40+处有明显的离群值存在,联合表1中的VO_RPE一项中的RMSE与Max之间的差值可知,在此处单目里程计DSO对位姿的估计误差累积过大,不如本算法的局部稳定性。
空间坐标轴上的移动分量图如图5所示,图5(a)为MH_05数据集的真实值与本算法位姿估计值关于平移向量在x、y、z三个轴上的拟合曲线,虚线代表真实值,蓝色实线表示本算法实验值,从图中可以看出,两者高度拟合。图5(b)为融合IMU之前的VO以及本算法在x、y、z三个轴上的平移分量漂移量示意图,本算法不仅在数量级上优于融合IMU之前的单目VO,而且在平移分量数值波动上也趋于稳定;因此从位移分量图中体现出本算法实验数据的高精度性。
针对本文提出的尺度因子联合优化视觉和惯性位姿值的方法,图6给出了融合IMU之前与本算法实验数据与真实值之间存在的尺度因子漂移示意图。从图中可以看出,本算法在尺度上的漂移量远小于融合IMU之前的单目DSO,并且方面,本算法设计尺度因子并对其优化估计后,尺度的数值波动明显趋于平稳,因此可以说明本算法提出的尺度因子联合优化方案能够改善单目尺度不确定性。
最后,本算法将与融合IMU的主流视觉惯性方法Okvis进行APE精度的比较。上述对比过程是针对MH_05一个数据集的结果,接下来将对官方提供的EuRoC中的各数据集依次进行比对。具体数据如表2所示。
表2各数据集上的精度对比表
表2中的APE数据是RMSE项的数值,从表中可以看出,我们提出的方法在各数据集上均方根误差均小于主流的Okvis方法。
综合上述实验数据的各项分析,我们的算法在4.1小节两大精度分析指标、图4轨迹以及图5平移变量的各轴分量变化等方面与融合IMU之前的单目DSO相比都具有高精度性质,并且与主流的Okvis方法相比,亦具有高精度性。
进一步实验将讨论本算法所构建的地图与未融合IMU的算法构建的地图进行比较分析。构建的地图如图7所示,图7(a)为未融合IMU的单目构建的地图,图7(b)为本算法构建的地图。从图中可以看出,本算法在融合IMU后,构建的点云图在整体上更加规整,冗余残差点减少,在墙壁、窗户、桌面和地面等处构建的形状更加清晰,能较好地展现细节。
本发明提出了单目DSO和惯性相融合的视觉惯性里程计。在前端视觉帧初始位姿估计中添加畸变参数构建视觉光度误差函数求解视觉初始位姿;构造本算法的全局优化状态变量以减少优化时各变量的误差累积;在后端位姿优化中,提出基于紧耦合的多参数滑窗位姿优化算法,计算尺度因子使视觉误差项与IMU预积分误差项位姿信息保持尺度一致,选取特定帧对应的先验信息,构建关于先验信息、视觉误差项和惯性误差项的整体优化目标函数,对目标函数求全局状态变量的雅可比矩阵,利用优化解更新迭代全局状态变量,完成当前时刻下的高精度位姿解算。最后对本视觉惯性里程计实验数据与融合IMU之前的DSO以及当前主流视觉惯性方法进行精度上的对比分析,并对本算法在构建点云图精度上的改善进行说明。实验结果分析表明,本发明在融合IMU之后具有高精度的位姿解算结果。
Claims (4)
1.一种融合惯性测量单元的单目同步定位与建图的高精度位姿解算方法,至少包含以下步骤:
步骤1)视觉与惯性在前端的初始位姿估计;
步骤2)待求解的视觉惯性变量定义;
步骤3)视觉与惯性在后端的误差项及优化目标函数构造及位姿求解;
所述的步骤1)包括以下步骤:
步骤1.1前端初始位姿估计,特别是去畸变帧间位姿估计,至少包括:
步骤1.1.1对当前帧的像素点pi投影得到对应点pj,投影公式:
pj表示像素点pi投影后对应像素点,pi表示当前图像帧中的第i个像素点,K表示相机内参矩阵,r2=u2+v2表示像到光轴中心的距离,即像素点pi在像素坐标系上横轴变量与纵轴变量的平方和,r4表示r2的平方,(·)-1表示取逆操作,exp(·)表示取指数操作,ξk,k+1表示k到k+1时刻位姿的李代数形式,(·)^表示将六维向量转变成四维矩阵的从向量到矩阵操作;
步骤1.1.2对投影公式进行非线性优化后得到位姿的更新量Δξ,利用更新量对步骤1.1.1中位姿的李代数形式ξk,k+1进行迭代更新:ξk,k+1_update←ξk,k+1_cur+Δξ,得到更新后的ξk,k+1_update就是前端初始位姿;
步骤1.1.3惯性测量单元用IMU表示,对惯性测量单元模块的实际测量值进行预积分:
表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的旋转分量,表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的速度分量, WB p i k 表示IMU坐标系相对于世界坐标系上的从第i时刻到第k时刻的平移分量;表示IMU第i次采样得到的真实角速度测量值,表示IMU第i次采样得到的真实加速度测量值,gW表示重力矢量,分别表示第i时刻时的陀螺仪偏差、加速度计偏差,ηgd、ηad分别表示陀螺仪、加速度计的离散化噪声;
所述的步骤2)包括以下步骤:
步骤2.1根据步骤1.1.3中惯性测量单元模块的测量值的预积分所得的旋转分量、速度分量、平移分量以及惯性测量单元模块固有偏差bg、ba,定义k时刻下相机采集的图像帧状态xk对应的优化变量为:
xk=[Wpk,Wvk,Wqk,bg,ba,s]
xk表示k时刻时图像帧状态优化变量,Wpk表示在世界坐标系中在k时刻时的平移分量;Wvk表示在世界坐标系中在k时刻时的速度分量;Wqk表示在世界坐标系中在k时刻时的旋转分量;bg表示陀螺仪偏差;ba表示加速度计偏差;s表示尺度因子,使视觉光度误差项与惯性误差项中的位姿信息保持尺度一致性;
步骤2.2根据步骤1.1.1的视觉投影公式和步骤1.1.3的惯性测量单元预积分中的各个变量,定义融合惯性测量单元后的全局优化状态变量为
x=[x1,x2,...,xm,k1,k2,kc,ρ1,...,ρn]
xk表示待求解的全局优化状态变量,x1,x2,...,xm表示有m个图像帧状态优化变量,k1,k2表示径向畸变参数,kc表示单目相机内参矩阵,ρ1,...,ρn表示n个不同像素点对应的逆深度;
步骤2.3对步骤1.1.3的惯性测量单元预积分中的旋转分量、平移分量与步骤1.1.1的视觉投影公式中位姿的旋转分量、平移分量,定义尺度因子s,使得惯性测量单元预积分中的旋转分量、平移分量与视觉投影公式中位姿的旋转分量、平移分量之间满足:
s·WCp=WBqWBp-WCq·CBq·CBp
s表示定义的尺度因子,WCp表示相机坐标系C相对于世界坐标系W上的平移分量,WBq表示IMU坐标系B相对于世界坐标系W上的旋转分量,WBp表示IMU坐标系B相对于世界坐标系W上的平移分量,WCq表示相机坐标系C相对于世界坐标系W上的旋转量,CBq表示IMU坐标系B相对于相机坐标系C上的旋转分量,CBp表示IMU坐标系B相对于相机坐标系C上的平移分量;
所述的步骤3)包括以下步骤:
步骤3.1给出视觉的光度误差项;
步骤3.2给出惯性测量单元的误差项;
步骤3.3优化目标函数求解。
3.根据权利要求1所述一种融合惯性测量单元的单目同步定位与建图的高精度位姿解算方法,其特征是:所述的步骤3.2具体包括:
步骤3.2.1利用惯性测量单元采样测量值进行预积分获得的理想测量值与实际测量值来给出惯性测量单元的误差项:
步骤3.2.2对惯性测量单元的误差项进行最大后验估计并转换为最小二乘问题得到后端位姿优化目标函数的IMU惯性分量:
其中∑k,k+1是关于IMU预积分误差项中噪声项的协方差矩阵;∑k,k+1的构成过程如下:
a)假定预积分后噪声项为:
b)将各个噪声项线性展开:
c)将b)中的噪声项简写成:
4.根据权利要求1所述一种融合惯性测量单元的单目同步定位与建图的高精度位姿解算方法,其特征是:所述的步骤3.3具体包括:
步骤3.3.1构建后端位姿优化的目标函数
θ*表示待求解的全局优化状态变量的目标函数,r0表示先验信息;
步骤3.3.2使用优化目标函数求解位姿包括:
(1)步骤3.1.1中的视觉光度误差项的雅可比矩阵求解:对视觉误差项中关于全局优化状态变量x包含的每一个变量求偏导,得到视觉光度误差项对位姿、地图点逆深度、相机内参以及畸变的雅可比矩阵;
表示视觉光度误差项对图像帧状态xk对应的优化变量的雅可比矩阵,表示视觉光度误差项对旋转分量的雅可比矩阵,u||表示像素坐标系上的像素点坐标的归一化向量,分别表示视觉光度误差项对地图点逆深度、相机内参以及畸变的雅可比矩阵;
(2)IMU惯性误差项的雅可比矩阵求解:对k、k+1时刻分别求IMU惯性误差项中图像帧状态xk对应的优化变量的雅可比矩阵;
(3)将上述的雅可比矩阵构造为全局雅可比矩阵J,对步骤3.2.1中的d)所述的IMU预积分信息矩阵分别对步骤1.2中的全局优化变量中的每个变量求雅可比矩阵J,对步骤3.3.1中的目标函数f(x)使用高斯牛顿法JTJΔx=-JTf(x)求解,得到关于全局状态变量x 的更新量Δx;利用更新量对步骤1.2中全局状态变量x中的每个变量进行迭代更新:xupdate←xcur+Δx,得到更新后的xupdate中的图像帧状态xk_update即包含当前时刻解算的位姿信息,即xk_update中的旋转分量q和平移分量p。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910540351.4A CN110375738B (zh) | 2019-06-21 | 2019-06-21 | 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910540351.4A CN110375738B (zh) | 2019-06-21 | 2019-06-21 | 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110375738A CN110375738A (zh) | 2019-10-25 |
CN110375738B true CN110375738B (zh) | 2023-03-14 |
Family
ID=68250628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910540351.4A Active CN110375738B (zh) | 2019-06-21 | 2019-06-21 | 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110375738B (zh) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112204946A (zh) * | 2019-10-28 | 2021-01-08 | 深圳市大疆创新科技有限公司 | 数据处理方法、装置、可移动平台及计算机可读存储介质 |
CN110816355B (zh) * | 2019-11-12 | 2021-07-20 | 深圳创维数字技术有限公司 | 车辆充电方法、设备及计算机可读存储介质 |
CN111025269B (zh) * | 2019-12-19 | 2022-11-15 | 哈尔滨工程大学 | 一种水下机器人传感器安装偏差估计方法 |
CN110977985B (zh) * | 2019-12-23 | 2021-10-01 | 中国银联股份有限公司 | 一种定位的方法及装置 |
CN113034538B (zh) * | 2019-12-25 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 |
CN111156998B (zh) * | 2019-12-26 | 2022-04-15 | 华南理工大学 | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 |
CN113223064B (zh) * | 2020-01-21 | 2023-09-15 | 北京魔门塔科技有限公司 | 一种视觉惯性里程计尺度的估计方法和装置 |
CN111429524B (zh) * | 2020-03-19 | 2023-04-18 | 上海交通大学 | 一种相机与惯性测量单元在线初始化与标定方法及系统 |
CN111504276B (zh) * | 2020-04-30 | 2022-04-19 | 哈尔滨博觉科技有限公司 | 一种基于视觉投影尺度因子集的联合目标函数多推进器姿态角获取方法 |
CN113835422B (zh) * | 2020-06-08 | 2023-09-29 | 杭州海康机器人股份有限公司 | 一种视觉地图构建方法和移动机器人 |
CN111879306B (zh) * | 2020-06-17 | 2022-09-27 | 杭州易现先进科技有限公司 | 视觉惯性定位的方法、装置、系统和计算机设备 |
CN111750853B (zh) * | 2020-06-24 | 2022-06-07 | 国汽(北京)智能网联汽车研究院有限公司 | 一种地图建立方法、装置及存储介质 |
CN111923043A (zh) * | 2020-07-30 | 2020-11-13 | 苏州富鑫林光电科技有限公司 | 一种基于多传感器融合的多机械手定位方法 |
CN114102577B (zh) * | 2020-08-31 | 2023-05-30 | 北京极智嘉科技股份有限公司 | 一种机器人及应用于机器人的定位方法 |
CN112033400B (zh) * | 2020-09-10 | 2023-07-18 | 西安科技大学 | 一种基于捷联惯导与视觉组合的煤矿移动机器人智能定位方法及系统 |
CN112268559B (zh) * | 2020-10-22 | 2023-03-28 | 中国人民解放军战略支援部队信息工程大学 | 复杂环境下融合slam技术的移动测量方法 |
CN112330735B (zh) * | 2020-10-26 | 2022-06-17 | 武汉中海庭数据技术有限公司 | 一种车体相对位置测量精度置信度评估方法及系统 |
CN112318507A (zh) * | 2020-10-28 | 2021-02-05 | 内蒙古工业大学 | 一种基于slam技术的机器人智能控制系统 |
CN112461237B (zh) * | 2020-11-26 | 2023-03-14 | 浙江同善人工智能技术有限公司 | 一种应用于动态变化场景下的多传感器融合定位方法 |
CN112747750B (zh) * | 2020-12-30 | 2022-10-14 | 电子科技大学 | 一种基于单目视觉里程计和imu融合的定位方法 |
CN112862768B (zh) * | 2021-01-28 | 2022-08-02 | 重庆邮电大学 | 一种基于点线特征的自适应单目vio初始化方法 |
CN112577493B (zh) * | 2021-03-01 | 2021-05-04 | 中国人民解放军国防科技大学 | 一种基于遥感地图辅助的无人机自主定位方法及系统 |
CN113175933B (zh) * | 2021-04-28 | 2024-03-12 | 南京航空航天大学 | 一种基于高精度惯性预积分的因子图组合导航方法 |
CN113436260B (zh) * | 2021-06-24 | 2022-04-19 | 华中科技大学 | 基于多传感器紧耦合的移动机器人位姿估计方法和系统 |
CN113483755B (zh) * | 2021-07-09 | 2023-11-07 | 北京易航远智科技有限公司 | 一种基于非全局一致地图的多传感器组合定位方法及系统 |
CN113610001B (zh) * | 2021-08-09 | 2024-02-09 | 西安电子科技大学 | 基于深度相机和imu组合的室内移动终端定位方法 |
CN115371699B (zh) * | 2021-09-30 | 2024-03-15 | 达闼科技(北京)有限公司 | 视觉惯性里程计方法、装置及电子设备 |
CN113752267B (zh) * | 2021-11-10 | 2022-02-11 | 山东捷瑞数字科技股份有限公司 | 一种机械臂路径规划方法及系统 |
CN114088113B (zh) * | 2021-11-16 | 2023-05-16 | 北京航空航天大学 | 一种里程计轨迹对齐及精度测评方法 |
CN114459467B (zh) * | 2021-12-30 | 2024-05-03 | 北京理工大学 | 一种未知救援环境中基于vi-slam的目标定位方法 |
CN114485648B (zh) * | 2022-02-08 | 2024-02-02 | 北京理工大学 | 一种基于仿生复眼惯性系统的导航定位方法 |
CN114543786B (zh) * | 2022-03-31 | 2024-02-02 | 华中科技大学 | 一种基于视觉惯性里程计的爬壁机器人定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8761439B1 (en) * | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
CN109166149A (zh) * | 2018-08-13 | 2019-01-08 | 武汉大学 | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 |
CN109465832A (zh) * | 2018-12-18 | 2019-03-15 | 哈尔滨工业大学(深圳) | 高精度视觉和imu紧融合定位方法与系统 |
WO2019062291A1 (zh) * | 2017-09-29 | 2019-04-04 | 歌尔股份有限公司 | 一种双目视觉定位方法、装置及系统 |
CN109816696A (zh) * | 2019-02-01 | 2019-05-28 | 西安全志科技有限公司 | 一种机器人定位与建图方法、计算机装置及计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9658070B2 (en) * | 2014-07-11 | 2017-05-23 | Regents Of The University Of Minnesota | Inverse sliding-window filters for vision-aided inertial navigation systems |
US9946264B2 (en) * | 2016-03-22 | 2018-04-17 | Sharp Laboratories Of America, Inc. | Autonomous navigation using visual odometry |
US10371530B2 (en) * | 2017-01-04 | 2019-08-06 | Qualcomm Incorporated | Systems and methods for using a global positioning system velocity in visual-inertial odometry |
US10907971B2 (en) * | 2017-12-08 | 2021-02-02 | Regents Of The University Of Minnesota | Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping |
-
2019
- 2019-06-21 CN CN201910540351.4A patent/CN110375738B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8761439B1 (en) * | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
WO2019062291A1 (zh) * | 2017-09-29 | 2019-04-04 | 歌尔股份有限公司 | 一种双目视觉定位方法、装置及系统 |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
CN109166149A (zh) * | 2018-08-13 | 2019-01-08 | 武汉大学 | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 |
CN109465832A (zh) * | 2018-12-18 | 2019-03-15 | 哈尔滨工业大学(深圳) | 高精度视觉和imu紧融合定位方法与系统 |
CN109816696A (zh) * | 2019-02-01 | 2019-05-28 | 西安全志科技有限公司 | 一种机器人定位与建图方法、计算机装置及计算机可读存储介质 |
Non-Patent Citations (3)
Title |
---|
SLAM过程中的机器人位姿估计优化算法研究;禹鑫D等;《高技术通讯》;20180815(第08期);第48-54页 * |
基于Vision-IMU的机器人同时定位与地图创建算法;姚二亮等;《仪器仪表学报》;20180415(第04期);第233-241页 * |
鲁棒的非线性优化的立体视觉-惯导SLAM;林辉灿等;《机器人》;20180515(第06期);第145-154页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110375738A (zh) | 2019-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110375738B (zh) | 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 | |
Lin et al. | R $^ 2$ LIVE: A Robust, Real-Time, LiDAR-Inertial-Visual Tightly-Coupled State Estimator and Mapping | |
CN110030994B (zh) | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 | |
CN108827315B (zh) | 基于流形预积分的视觉惯性里程计位姿估计方法及装置 | |
Li et al. | Real-time 3D motion tracking and reconstruction system using camera and IMU sensors | |
CN109166149A (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN112649016A (zh) | 一种基于点线初始化的视觉惯性里程计方法 | |
Schubert et al. | Rolling-shutter modelling for direct visual-inertial odometry | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN114529576A (zh) | 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
Zhang et al. | Vision-aided localization for ground robots | |
CN114323033B (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
Tang et al. | LE-VINS: A robust solid-state-LiDAR-enhanced visual-inertial navigation system for low-speed robots | |
Li et al. | A binocular MSCKF-based visual inertial odometry system using LK optical flow | |
CN114964276A (zh) | 一种融合惯导的动态视觉slam方法 | |
CN116242374A (zh) | 一种基于直接法的多传感器融合的slam定位方法 | |
CN113155152B (zh) | 基于李群滤波的相机与惯性传感器空间关系自标定方法 | |
CN114754768A (zh) | 一种点线融合的视觉惯性导航方法 | |
CN114690229A (zh) | 一种融合gps的移动机器人视觉惯性导航方法 | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
Cen et al. | A low-cost visual inertial odometry for mobile vehicle based on double stage Kalman filter | |
Yin et al. | Stereo visual-inertial odometry with online initialization and extrinsic self-calibration | |
Zhong et al. | LVIO-SAM: A Multi-sensor Fusion Odometry via Smoothing and Mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |