CN113450411B - 一种基于方差分量估计理论的实时自身位姿计算方法 - Google Patents

一种基于方差分量估计理论的实时自身位姿计算方法 Download PDF

Info

Publication number
CN113450411B
CN113450411B CN202110735631.8A CN202110735631A CN113450411B CN 113450411 B CN113450411 B CN 113450411B CN 202110735631 A CN202110735631 A CN 202110735631A CN 113450411 B CN113450411 B CN 113450411B
Authority
CN
China
Prior art keywords
optimization
information
measurement
variance
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110735631.8A
Other languages
English (en)
Other versions
CN113450411A (zh
Inventor
周泽波
田学海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110735631.8A priority Critical patent/CN113450411B/zh
Publication of CN113450411A publication Critical patent/CN113450411A/zh
Application granted granted Critical
Publication of CN113450411B publication Critical patent/CN113450411B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

该发明公开了一种基于方差分量估计理论的实时自身位姿计算方法,属于同时定位与地图构建技术领域。该方法首先通过利用视觉测量信息完成系统的初始化,然后根据测量器件成像特点计算图像中特征点的三维空间坐标,接下来通过聚类处理,利用方差分量估计计算各测量信息权重分布,最后将计算结果带入系统整体的非线性优化方程。该发明在使用过程中,不仅仅适用于视觉导航算法,对视觉/惯性融合导航算法同样具有优化作用。通过使用本方法优化系统中的随机误差,提高了系统的准确度和可靠性。

Description

一种基于方差分量估计理论的实时自身位姿计算方法
技术领域
本发明属于同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术领域,具体是一种利用方差-协方差分量估计进行随机模型优化提升视觉导航系统中位姿计算准确度的方法。
背景技术
近年来,随着扫地机器人、无人驾驶、无人机、VR等产业的蓬勃发展,应用同时定位于地图构建(SLAM)方法的智能导航定位设备广泛服务于日常生活。现有的视觉导航方法主要有以下流程:1、视觉传感器信息读取,获取相机实时图像信息;2、前端视觉里程计,利用获取的图像信息计算相邻图像间相机的运动;3、后端非线性优化,利用不同时刻视觉里程计测量信息及回环检测信息构建非线性优化系统。4、回环检测,利用图像信息检测是否回到先前位置;5、建图,根据计算轨迹信息建立环境地图。然而,在上述流程中视觉里程计计算及利用重投影误差构建非线性方程进行优化位姿时,并未精确考虑视觉测量器件随机误差的影响,其计算过程通常仅利用经验信息剔除阈值范围外的特征点,其非线性优化过程中也仅根据经验调整方差-协方差的传播,难以保证位姿信息的精密求解。
发明内容
针对上述问题,本发明提出一种基于方差分量估计理论的视觉导航方法。该方法针对视觉传感器测量中随机误差的分布特征,利用方差分量估计理论进一步精化系统位姿计算过程中所采用的随机模型,从而提高位姿估计的精度和可靠性。
本发明的技术方案为:一种基于方差分量估计理论的实时自身位姿计算方法,具体包括以下步骤:
步骤1:使用视觉传感器实时获取图像测量信息,完成系统初始化;其中双目立体相机按照特征点提取、左右相机图像特征点匹配、单位原点位置信息构建,实现系统初始化;
步骤2:完成初始化后,利用测量信息计算三维空间点坐标;
步骤3:根据视觉测量中随机误差分布特点对三维空间点坐标进行聚类;
在测量时,由于使用过程中相机焦距、基线均为固定参数,造成随机误差影响的主要可变因素为被测物体与相机之间的距离大小,因此将视觉测量信息中计算得到的三维空间点按照与被测物体距离远近做聚类处理;
步骤4:构建随机误差模型V;设包括两类观测数据,第一类观测数据为B1,第二类观测数据为B2
Figure GDA0003862316580000021
其中,v1、v2表示第一类、第二类观测数据对应的残差,f(x)为三维空间坐标按PNP方式求解对应二维坐标的线性化函数,L为上一帧中各二维特征点经匹配方式获取其在当前帧的二维坐标向量,L1、L2为两类观测数据对应的测量值,B为两类观测B1、B2的集合,R为旋转信息、t为平移信息,I为单位矩阵;
将公式(4)按照两类观测数据分别展开,可表示为:
Figure GDA0003862316580000022
对公式(5)构建法方程求解:
Figure GDA0003862316580000023
对应优化状态向量x的解
Figure GDA0003862316580000024
为:
Figure GDA0003862316580000025
其中,
Figure GDA0003862316580000026
Figure GDA0003862316580000027
Figure GDA0003862316580000028
其中,N1、N2表示第一类、第二类观测值与权重信息构建的计算矩阵,W1、W2表示第一类、第二类观测值与测量值构建的计算矩阵;式(7)求解过程中,由于三维空间点与对应二维平面特征点为非线性变换,利用重投影误差优化模型进行线性化操作,此时B、L应为其三维空间点线性化展开对应形式;在公式(8)中P为各类测量对应的权重矩阵;第一次平差时给定的两类观测值的权P1和P2是不恰当的,或者说两类观测值所对应的单位权方差并不相等,令其系数分别为
Figure GDA0003862316580000031
当观测数据优化过程中方差-协方差矩阵记为D(L),两类数据各自的方差-协方差记为D(L1)、D(L2)时,其与权重矩阵P关系可由式11表示
Figure GDA0003862316580000032
对公式(11)中
Figure GDA0003862316580000033
利用方差分量估计进行修正,其严密计算公式为:
Figure GDA0003862316580000034
Figure GDA0003862316580000035
Figure GDA0003862316580000036
式(12)中n1、n2分别表示两类观测矩阵的维数;对方差分量进行简化操作,得到:
Figure GDA0003862316580000037
即各类观测值的单位权方差的估值为:
Figure GDA0003862316580000038
步骤5:对步骤3聚类后的每一个聚类簇分配一个步骤4建立的随机误差模型,然后对每个聚类簇的随机误差模型进行优化;
步骤5-1:对聚类后每一聚类簇数据计算平差信息:
Figure GDA0003862316580000039
步骤5-2:对两类测量信息计算权方差
Figure GDA00038623165800000310
如公式16所示:
Figure GDA00038623165800000311
然后,利用权方差获得对应的权重,其中c为常数;
步骤5-3:随机误差模型的迭代优化;在进行优化过程中,为使随机误差模型达到最优效果,对步骤5-1和步骤5-2进行反复迭代求解,直至公式16中的
Figure GDA00038623165800000312
收敛,获取权重系数最优解;在实验具体计算过程中,为保证系统计算实时性及优化效果收敛性,设置条件为:
Figure GDA00038623165800000313
步骤5-4:采用优化后的随机误差模型计算得到每一个聚类簇的方差-协方差D(L1)、D(L2);
步骤6:采用步骤5得到的所有聚类簇的方差-协方差D(L1)、D(L2)计算位姿信息。
进一步的,所述步骤2的具体方法为:
步骤2.1:在利用视觉传感器进行位姿计算的过程中,对双目测量信息直接利用相机的基线信息计算空间坐标,计算方法如下:
Figure GDA0003862316580000041
其中,f为相机焦距,b为相机基线大小,uL、uR为空间点P在左右相平面成像坐标为,u 为理论视差;
步骤2.2:在对三维空间点进行计算的过程中,目标点深度测量误差计算为:
Figure GDA0003862316580000042
ε为匹配误差,x为当前帧的姿态信息;
对公式(2)进行优化得到深度测量误差应表示为:
Figure GDA0003862316580000043
步骤2.3:采用步骤2.2的误差对步骤1的空间坐标进行校正。
进一步的,其特征在于,所述步骤6的具体方法为:
步骤6-1:利用图像测量信息进行系统后端的优化过程中,根据使用传感器类型分为两类:
(1)视觉非线性优化系统,优化随机误差模型中的R,t;
优化函数为:
Figure GDA0003862316580000044
其中,ρ为鲁棒核函数、π表示将三维空间信息转换为2d图像位置计算过程、x为特征点二维空间坐标、X为特征点三维空间坐标;M为关键帧的数据、i为各关键帧图像上的特征点;
(2)视觉/惯性非线性优化系统,优化随机误差模型中的x;
该系统优化部分包括滑动窗口中先验残差rp-Hpx2、滑动窗口中IMU测量构建残差为
Figure GDA0003862316580000045
图像帧间的视觉测量残差
Figure GDA0003862316580000046
其中,状态向量包括位置、姿态、速度、加速度、陀螺仪,Jp表示状态向量的雅可比矩阵、
Figure GDA0003862316580000047
表示前后两帧间的IMU预积分误差、Q为滑动窗口中关键帧的数目、
Figure GDA0003862316580000051
表示相对于惯性坐标系、
Figure GDA0003862316580000052
表示前后两帧中的特征点残差、F表示当前滑动窗口内特征点的集合、
Figure GDA0003862316580000053
表示相对于视觉测量坐标系,将所有误差构建整体优化公式为:
Figure GDA0003862316580000054
步骤6-2:构建非线性优化系统中的随机模型优化;在步骤6-1中,对于后端非线性优化系统主要由公式(18)、(19)构成,其中均含有视觉测量优化部分;在计算过程中,利用高斯牛顿法时有以下优化方程:
f(x+Δx)≈f(x)+J(x)Δx (20)
J(x)表示优化信息的雅可比矩阵,对上式位姿参数Δx进行最优化求解则有:
Figure GDA0003862316580000055
式21展开后对变量Δx求导,可得:
Figure GDA0003862316580000056
利用步骤5得到的各类权重信息优化位姿估计结果:
Figure GDA0003862316580000057
其中,D为各类观测的方差-协方差矩阵,由步骤4中的所有聚类簇对应的D(L1)、D(L2) 构成。
本发明公开了一种利用方差分量估计实现视觉导航算法中随机误差模型优化的方法。该方法首先利用视觉传感器、视觉/惯性传感器获取图像中特征点的三维空间坐标信息,然后对这些特征点按照随机误差分布特征的不同做聚类处理,最后基于方差分量估计理论精化系统随机误差模型从而获取高精度载体位姿信息。大量实验证明,在使用本发明估计载体位姿及构建环境地图时,可显著提高系统位姿精度。
附图说明
图1是具有方差分量估计的随机误差模型优化算法流程图。
图2是随机误差模型优化方法的流程图。
图3是方差分量估计的随机模型优化方法在ORB_SLAM2上的系统流程图。
图4是方差分量估计的随机模型优化方法在ORB_SLAM3上的系统流程图。
图5是利用ORB_SLAM2系统与本发明位姿计算准确性的对比图。
图6是利用ORB_SLAM3系统与本发明位姿计算准确性的对比图。
具体实施方式
下面对本发明中的基于方差分量估计的视觉导航算法进行详细说明:
步骤1:使用视觉传感器实时获取图像测量信息,完成系统初始化;其中双目立体相机按照特征点提取、左右相机图像特征点匹配、单位原点位置信息构建,实现系统初始化。
步骤2:完成初始化后,利用测量信息计算三维空间点坐标。
步骤2.1:在利用视觉传感器进行位姿计算的过程中,对双目测量信息直接利用相机的基线信息计算空间坐标,计算方法如下:
Figure GDA0003862316580000061
其中,f为相机焦距、b为相机基线大小、uL、uR为空间点P在左右相平面成像坐标为,u 为理论视差;
步骤2.2:在对三维空间点进行计算的过程中,目标点深度测量误差计算为:
Figure GDA0003862316580000062
ε为匹配误差,x为当前帧的姿态信息;
对公式(2)进行优化得到深度测量误差应表示为:
Figure GDA0003862316580000063
步骤3:根据视觉测量中随机误差分布特点对三维空间点坐标进行聚类;
在测量时,由于使用过程中相机焦距、基线均为固定参数,造成随机误差影响的主要可变因素为被测物体与相机之间的距离大小;因此将视觉测量信息中计算得到的三维空间点按照与被测物体距离远近做聚类处理。
步骤4:构建随机误差模型V;设包括两类观测数据,第一类观测数据为B1,第二类观测数据为B2
Figure GDA0003862316580000071
其中,v1 v2表示第一类、第二类观测数据对应的残差,f(x)为三维空间坐标按PNP方式求解对应二维坐标的线性化函数,L为上一帧中各二维特征点经匹配方式获取其在当前帧的二维坐标向量,L1、L2为两类观测数据对应的测量值,B为两类观测B1、B2的集合,R为旋转信息、t为平移信息,I为单位矩阵;
将公式(4)按照两类观测数据分别展开,可表示为:
Figure GDA0003862316580000072
对公式(5)构建法方程求解:
Figure GDA0003862316580000073
对应优化状态向量x的解
Figure GDA0003862316580000074
为:
Figure GDA0003862316580000075
其中,
Figure GDA0003862316580000076
Figure GDA0003862316580000077
Figure GDA0003862316580000078
其中,N1、N2表示第一类、第二类观测值与权重信息构建的计算矩阵,W1、W2表示第一类、第二类观测值与测量值构建的计算矩阵;式(7)求解过程中,由于三维空间点与对应二维平面特征点为非线性变换,利用重投影误差优化模型进行线性化操作,此时B、L应为其三维空间点线性化展开对应形式。在公式(8)中P为各类测量对应的权重矩阵;第一次平差时给定的两类观测值的权P1和P2是不恰当的,或者说两类观测值所对应的单位权方差并不相等,令其系数分别为
Figure GDA0003862316580000079
当观测数据优化过程中方差-协方差矩阵记为D(L),两类数据各自的方差-协方差记为D(L1)、D(L2)时,其与权重矩阵P关系可由式11表示
Figure GDA0003862316580000081
对公式(11)中
Figure GDA0003862316580000082
利用方差分量估计进行修正,其严密计算公式为:
Figure GDA0003862316580000083
Figure GDA0003862316580000084
Figure GDA0003862316580000085
式(12)中n1、n2分别表示两类观测矩阵的维数。在实际计算过程中,由于矩阵N的求逆操作造成占用大量存储空间且计算量增大,因此对方差分量进行简化操作,得到:
Figure GDA0003862316580000086
即各类观测值的单位权方差的估值为:
Figure GDA0003862316580000087
对该式求和可知,其属于有偏估计被称为赫尔默特近似公式。
步骤5:对步骤3聚类后的每一个聚类簇分配一个步骤4建立的随机误差模型,然后对每个聚类簇的随机误差模型进行优化
步骤5-1:对聚类后每一聚类簇数据计算平差信息:
Figure GDA0003862316580000088
步骤5-2:对两类测量信息计算权方差
Figure GDA0003862316580000089
如公式16所示:
Figure GDA00038623165800000810
然后,利用权方差获得对应的权重,其中c为常数;
步骤5-3:随机误差模型的迭代优化;在进行优化过程中,为使随机误差模型达到最优效果,对步骤5-1和步骤5-2进行反复迭代求解,直至公式16中的
Figure GDA00038623165800000811
收敛,获取权重系数最优解;在实验具体计算过程中,为保证系统计算实时性及优化效果收敛性,设置条件为:
Figure GDA00038623165800000812
步骤6:在非线性优化系统中对各聚类簇对应的随机误差模型进行优化;
步骤6-1:利用图像测量信息进行系统后端的优化过程中,根据使用传感器类型分为两类:
(1)视觉非线性优化系统,优化随机误差模型中的R,t;
优化函数为:
Figure GDA0003862316580000091
其中,ρ为鲁棒核函数、π表示将三维空间信息转换为2d图像位置计算过程、x为特征点二维空间坐标、X为特征点三维空间坐标;N为多个关键帧、i为各关键帧图像上的特征点;
(2)视觉/惯性非线性优化系统,优化随机误差模型中的x;
该系统优化部分包括滑动窗口中先验残差rp-Hpx2、滑动窗口中IMU测量构建残差为
Figure GDA0003862316580000092
图像帧间的视觉测量残差
Figure GDA0003862316580000093
其中,状态向量包括位置、姿态、速度、加速度,Jp表示状态向量的雅可比矩阵、
Figure GDA0003862316580000094
表示前后两帧间的IMU预积分误差、N为滑动窗口中关键帧的数目、
Figure GDA0003862316580000095
表示相对于惯性坐标系、
Figure GDA0003862316580000096
表示前后两帧中的特征点残差、F表示当前滑动窗口内特征点的集合、
Figure GDA0003862316580000097
表示相对于视觉测量坐标系,将所有误差构建整体优化公式为:
Figure GDA0003862316580000098
步骤6-2:构建非线性优化系统中的随机模型优化;在步骤6-1中,对于后端非线性优化系统主要由公式(18)、(19)构成,其中均含有视觉测量优化部分。在计算过程中,利用高斯牛顿法时有以下优化方程:
f(x+Δx)≈f(x)+J(x)Δx (20)
J(x)表示优化信息的雅可比矩阵,对上式位姿参数Δx进行最优化求解则有:
Figure GDA0003862316580000099
式21展开后对变量Δx求导,可得:
Figure GDA00038623165800000910
利用步骤5得到的各类权重信息优化位姿估计结果:
Figure GDA0003862316580000101
其中,D为各类观测的方差-协方差矩阵,由步骤4中的D(L)构成。
相较于目前各视觉、视觉/惯性融合导航系对视觉测量信息间的方差-协方差关系设置为单位矩阵从而进行高斯牛顿求解的过程,本发明可以充分考虑相机测量器件带来的随机误差影响,经过大量实验证明其对视觉导航系统、视觉/惯性融合导航系统位姿计算准确性均有较明显的提升效果,且可广泛适用于诸如VINS-mono、ROVIO、VINS-fusion等系统。

Claims (2)

1.一种基于方差分量估计理论的实时自身位姿计算方法,具体包括以下步骤:
步骤1:使用视觉传感器实时获取图像测量信息,完成系统初始化;其中双目立体相机按照特征点提取、左右相机图像特征点匹配、单位原点位置信息构建,实现系统初始化;
步骤2:完成初始化后,利用测量信息计算三维空间点坐标;
步骤3:根据视觉测量中随机误差分布特点对三维空间点坐标进行聚类;
在测量时,由于使用过程中相机焦距、基线均为固定参数,造成随机误差影响的主要可变因素为被测物体与相机之间的距离大小,因此将视觉测量信息中计算得到的三维空间点按照与被测物体距离远近做聚类处理;
步骤4:构建随机误差模型V;设包括两类观测数据,第一类观测数据为B1,第二类观测数据为B2
Figure FDA0003886084040000011
其中,v1、v2表示第一类、第二类观测数据对应的残差,f(x)为三维空间坐标按PNP方式求解对应二维坐标的线性化函数,L为上一帧中各二维特征点经匹配方式获取其在当前帧的二维坐标向量,L1、L2为两类观测数据对应的测量值,B为两类观测数据B1、B2的集合,R为旋转信息、t为平移信息,I为单位矩阵;
将公式(4)按照两类观测数据分别展开,可表示为:
Figure FDA0003886084040000012
对公式(5)构建法方程求解:
Figure FDA0003886084040000013
对应优化状态向量x的解
Figure FDA0003886084040000014
为:
Figure FDA0003886084040000015
其中,
Figure FDA0003886084040000021
Figure FDA0003886084040000022
Figure FDA0003886084040000023
其中,N1、N2表示第一类、第二类观测值与权重信息构建的计算矩阵,W1、W2表示第一类、第二类观测值与测量值构建的计算矩阵;式(7)求解过程中,由于三维空间点与对应二维平面特征点为非线性变换,利用重投影误差优化模型进行线性化操作,此时B、L应为其三维空间点线性化展开对应形式;在公式(8)中P为各类测量对应的权重矩阵;第一次平差时给定的两类观测值的权P1和P2是不恰当的,或者说两类观测值所对应的单位权方差并不相等,令其系数分别为
Figure FDA0003886084040000024
当观测数据优化过程中方差-协方差矩阵记为D(L),两类数据各自的方差-协方差记为D(L1)、D(L2)时,其与权重矩阵P关系可由式11表示
Figure FDA0003886084040000025
对公式(11)中
Figure FDA0003886084040000026
利用方差分量估计进行修正,其严密计算公式为:
Figure FDA0003886084040000027
Figure FDA0003886084040000028
Figure FDA0003886084040000029
式(12)中n1、n2分别表示两类观测矩阵的维数;对方差分量进行简化操作,得到:
Figure FDA00038860840400000210
即各类观测值的单位权方差的估值为:
Figure FDA00038860840400000211
步骤5:对步骤3聚类后的每一个聚类簇分配一个步骤4建立的随机误差模型,然后对每个聚类簇的随机误差模型进行优化;
步骤5-1:对聚类后每一聚类簇数据计算平差信息:
Figure FDA00038860840400000212
步骤5-2:对两类测量信息计算权方差
Figure FDA0003886084040000031
如公式17所示:
Figure FDA0003886084040000032
然后,利用权方差获得对应的权重,其中c为常数;
步骤5-3:随机误差模型的迭代优化;在进行优化过程中,为使随机误差模型达到最优效果,对步骤5-1和步骤5-2进行反复迭代求解,直至公式16中的
Figure FDA0003886084040000033
收敛,获取权重系数最优解;在实验具体计算过程中,为保证系统计算实时性及优化效果收敛性,设置条件为:
Figure FDA0003886084040000034
步骤5-4:采用优化后的随机误差模型计算得到每一个聚类簇的方差-协方差D(L1)、D(L2);
步骤6:采用步骤5得到的所有聚类簇的方差-协方差D(L1)、D(L2)计算位姿信息;
步骤6-1:利用图像测量信息进行系统后端的优化过程中,根据使用传感器类型分为两类:
(1)视觉非线性优化系统,优化随机误差模型中的R,t;
优化函数为:
Figure FDA0003886084040000035
其中,ρ为鲁棒核函数、π表示将三维空间信息转换为2d图像位置计算过程、x为特征点二维空间坐标、X为特征点三维空间坐标;M为关键帧的数据、i为各关键帧图像上的特征点;
(2)视觉/惯性非线性优化系统,优化随机误差模型中的x;
该系统优化部分包括滑动窗口中先验残差rp-Hpx2、滑动窗口中IMU测量构建残差为
Figure FDA0003886084040000036
图像帧间的视觉测量残差
Figure FDA0003886084040000037
其中,状态向量包括位置、姿态、速度、加速度、陀螺仪,Jp表示状态向量的雅可比矩阵、
Figure FDA0003886084040000038
表示前后两帧间的IMU预积分误差、Q为滑动窗口中关键帧的数目、
Figure FDA0003886084040000039
表示相对于惯性坐标系、
Figure FDA00038860840400000310
表示前后两帧中的特征点残差、F表示当前滑动窗口内特征点的集合、
Figure FDA00038860840400000311
表示相对于视觉测量坐标系,将所有误差构建整体优化公式为:
Figure FDA00038860840400000312
步骤6-2:构建非线性优化系统中的随机模型优化;在步骤6-1中,对于后端非线性优化系统主要由公式(18)、(19)构成,其中均含有视觉测量优化部分;在计算过程中,利用高斯牛顿法时有以下优化方程:
f(x+Δx)≈f(x)+J(x)Δx (20)
J(x)表示优化信息的雅可比矩阵,对上式位姿参数Δx进行最优化求解则有:
Figure FDA0003886084040000041
式21展开后对变量Δx求导,可得:
Figure FDA0003886084040000042
利用步骤5得到的各类权重信息优化位姿估计结果:
Figure FDA0003886084040000043
其中,D为各类观测数据的方差-协方差矩阵,由步骤4中的所有聚类簇对应的D(L1)、D(L2)构成。
2.如权利要求1所述的一种基于方差分量估计理论的实时自身位姿计算方法,其特征在于,所述步骤2的具体方法为:
步骤2.1:在利用视觉传感器进行位姿计算的过程中,对双目测量信息直接利用相机的基线信息计算空间坐标,计算方法如下:
Figure FDA0003886084040000044
其中,f为相机焦距,b为相机基线大小,uL、uR为空间点P在左右相平面成像坐标,u为理论视差;
步骤2.2:在对三维空间点进行计算的过程中,目标点深度测量误差计算为:
Figure FDA0003886084040000045
ε为匹配误差,x为当前帧的姿态信息;
对公式(2)进行优化得到深度测量误差应表示为:
Figure FDA0003886084040000046
步骤2.3:采用步骤2.2的误差对步骤1的空间坐标进行校正。
CN202110735631.8A 2021-06-30 2021-06-30 一种基于方差分量估计理论的实时自身位姿计算方法 Active CN113450411B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110735631.8A CN113450411B (zh) 2021-06-30 2021-06-30 一种基于方差分量估计理论的实时自身位姿计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110735631.8A CN113450411B (zh) 2021-06-30 2021-06-30 一种基于方差分量估计理论的实时自身位姿计算方法

Publications (2)

Publication Number Publication Date
CN113450411A CN113450411A (zh) 2021-09-28
CN113450411B true CN113450411B (zh) 2023-02-28

Family

ID=77814610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110735631.8A Active CN113450411B (zh) 2021-06-30 2021-06-30 一种基于方差分量估计理论的实时自身位姿计算方法

Country Status (1)

Country Link
CN (1) CN113450411B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114323033B (zh) * 2021-12-29 2023-08-29 北京百度网讯科技有限公司 基于车道线和特征点的定位方法、设备及自动驾驶车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
US10558767B1 (en) * 2017-03-16 2020-02-11 Amazon Technologies, Inc. Analytical derivative-based ARMA model estimation
CN112240768A (zh) * 2020-09-10 2021-01-19 西安电子科技大学 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224468B2 (en) * 2007-11-02 2012-07-17 Caterpillar Inc. Calibration certificate for virtual sensor network (VSN)
CN108090958B (zh) * 2017-12-06 2021-08-27 上海阅面网络科技有限公司 一种机器人同步定位和地图构建方法和系统
CN109828588A (zh) * 2019-03-11 2019-05-31 浙江工业大学 一种基于多传感器融合的机器人室内路径规划方法
CN111780754B (zh) * 2020-06-23 2022-05-20 南京航空航天大学 基于稀疏直接法的视觉惯性里程计位姿估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10558767B1 (en) * 2017-03-16 2020-02-11 Amazon Technologies, Inc. Analytical derivative-based ARMA model estimation
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN112240768A (zh) * 2020-09-10 2021-01-19 西安电子科技大学 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
An IMU/Visual Odometry Integrated Navigation Method Based on Measurement Model optimization;Wei Luo等;《2018 IEEE CSAA Guidance, Navigation and Control Conference (CGNCC)》;20200302;第1-5页 *
基于多传感器融合信息的移动机器人速度控制方法;王昕煜等;《工程设计学报》;20210311;第63-71页 *
视觉/惯性融合导航模型优化方法研究;田学海;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20220115;第I136-2327页 *

Also Published As

Publication number Publication date
CN113450411A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
CN109029433B (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN112304307B (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN111795686B (zh) 一种移动机器人定位与建图的方法
CN110068335B (zh) 一种gps拒止环境下无人机集群实时定位方法及系统
CN104732518B (zh) 一种基于智能机器人地面特征的ptam改进方法
CN104180818B (zh) 一种单目视觉里程计算装置
US12062210B2 (en) Data processing method and apparatus
EP2380136B1 (en) A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN112254729B (zh) 一种基于多传感器融合的移动机器人定位方法
CN112734841B (zh) 一种用轮式里程计-imu和单目相机实现定位的方法
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN112258409A (zh) 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置
CN110929402A (zh) 一种基于不确定分析的概率地形估计方法
CN112669354A (zh) 一种基于车辆非完整约束的多相机运动状态估计方法
CN114001733A (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN113570662B (zh) 3d定位来自真实世界图像中地标的系统和方法
CN115218889A (zh) 一种基于点线特征融合的多传感器室内定位方法
CN113450411B (zh) 一种基于方差分量估计理论的实时自身位姿计算方法
CN113327270A (zh) 视觉惯导方法、装置、设备及计算机可读存储介质
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN113030960B (zh) 一种基于单目视觉slam的车辆定位方法
CN112284381B (zh) 视觉惯性实时初始化对准方法及系统
CN117115271A (zh) 无人机飞行过程中的双目相机外参数自标定方法及系统
Jiang et al. Statistical modeling of long-range drift in visual odometry

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant