CN109443353A - 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 - Google Patents

基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 Download PDF

Info

Publication number
CN109443353A
CN109443353A CN201811589653.2A CN201811589653A CN109443353A CN 109443353 A CN109443353 A CN 109443353A CN 201811589653 A CN201811589653 A CN 201811589653A CN 109443353 A CN109443353 A CN 109443353A
Authority
CN
China
Prior art keywords
vision
integrated navigation
navigation system
close coupling
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811589653.2A
Other languages
English (en)
Other versions
CN109443353B (zh
Inventor
李秀源
高文学
张加书
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North University of China
Original Assignee
North University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North University of China filed Critical North University of China
Priority to CN201811589653.2A priority Critical patent/CN109443353B/zh
Publication of CN109443353A publication Critical patent/CN109443353A/zh
Application granted granted Critical
Publication of CN109443353B publication Critical patent/CN109443353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Abstract

本发明涉及视觉‑惯性紧耦合组合导航方法,具体是一种基于模糊自适应ICKF的视觉‑惯性紧耦合组合导航方法。本发明改善了视觉‑惯性紧耦合组合导航方法的实时性和导航精度。基于模糊自适应ICKF的视觉‑惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计;步骤S2:建立线性状态方程;建立非线性量测方程;步骤S3:采用线性KF算法进行时间更新;步骤S4:判断双目视觉里程计采集到的每帧图像是否为关键帧;步骤S5:根据量测更新结果对捷联惯导系统的解算结果进行校正。本发明适用于视觉‑惯性紧耦合组合导航。

Description

基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法
技术领域
本发明涉及视觉-惯性紧耦合组合导航方法,具体是一种基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法。
背景技术
近年来,基于各种原理的单独导航系统不断发展,其性能日趋完善。但是,任何一种单独的导航子设备或者子系统不可能完全满足日益提高的导航要求,因此可以实现优势互补的组合导航技术的应用正在不断扩展,并受到了越来越广泛的重视。
捷联惯导系统具有低成本、小体积、全自主、隐蔽性好、采样频率高等优势,但是,其误差随时间发散。基于视觉传感器的视觉里程计是目前新兴的一种导航设备,具有价格低、耗能少、信息量丰富等优势,因此视觉里程计迅速得到了广泛的关注与应用。由于将捷联惯导系统与基于视觉传感器的视觉里程计进行组合可以实现优势互补,有效克服捷联惯导系统的长时发散,从而提高整个导航系统的精度,因此,基于捷联惯导系统/视觉里程计的组合导航技术是组合导航领域的一个十分重要的发展方向。捷联惯导系统/视觉里程计的组合导航分为松耦合和紧耦合,松耦合是捷联惯导系统和视觉里程计在各自完成运动解算的基础上进行耦合的方式,组合导航滤波器计算量较小,但是没有利用视觉里程计的原始图像信息;紧耦合利用视觉里程计图像匹配的原始坐标信息和捷联惯导系统进行耦合,能够取得比松耦合更高精度的组合导航结果。本发明属于视觉-惯性紧耦合组合导航。
由于视觉-惯性紧耦合组合导航的观测方程为强非线性,因此,高效地实现高精度的非线性组合滤波成为视觉-惯性紧耦合组合导航中的关键技术之一。迭代容积卡尔曼滤波(ICKF)通过一组容积点近似系统状态变量的分布,能够取得较高精度的紧耦合组合滤波结果,但是,由于其在时间更新和量测更新阶段都进行容积点的计算以及加权求和,计算量比较大。另外,视觉里程计中的每一帧采用相同的迭代容积卡尔曼滤波步骤进行处理,整体计算量较大,不利于改善视觉-惯性紧耦合组合导航的实时性。针对这些不足,本发明把视觉里程计的图像分为关键帧和非关键帧,并根据其状态方程为线性而观测方程为强非线性的特点提出了一套完整的技术方案实现视觉-惯性紧耦合组合导航。在时间更新阶段,不采用容积卡尔曼滤波的方法而是根据线性KF的方法更新状态量的均值和方差,避免了容积点计算以及加权求和过程,使计算量下降;在量测更新阶段,双目视觉里程计的图像分为关键帧和非关键帧,关键帧采用模糊自适应系统修正量测噪声协方差阵,使紧耦合组合导航的精度不会因量测噪声统计特性随着环境和运动状态变化而下降,提高了视觉-惯性紧耦合组合导航系统的自适应能力;非关键帧把容积卡尔曼滤波算法的迭代量测更新过程转换为求解非线性最小二乘解问题,采用Levenberg-Marquard方法求解最终的状态和方差估计,从而以较快的收敛速度实现状态估计,改善了视觉-惯性紧耦合组合导航的实时性。本发明能够较好地解决视觉-惯性紧耦合组合导航系统的非线性滤波问题,一方面改善了视觉-惯性紧耦合组合导航的实时性,同时能够一定程度地提高视觉-惯性紧耦合组合导航系统在环境和运动状态变化时的导航精度。
发明内容
本发明针对现有技术的不足,提供了一种基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,改善了视觉-惯性紧耦合组合导航的实时性和在环境和运动状态变化时的精度。
本发明是采用如下技术方案实现的:
基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:
步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计,捷联惯导系统和双目视觉里程计共同组成视觉-惯性紧耦合组合导航系统;捷联惯导系统根据自身采集到的数据解算出运载体的名义运动信息;采用SURF算法对双目视觉里程计采集到的图像序列进行特征匹配,并解算出连续两帧图像匹配点的像素坐标信息;
步骤S2:根据捷联惯导系统的误差特性,建立视觉-惯性紧耦合组合导航系统的线性状态方程;以连续两帧图像匹配点的像素坐标信息为视觉-惯性紧耦合组合导航系统的量测值,建立视觉-惯性紧耦合组合导航系统的非线性量测方程;
步骤S3:采用线性KF(Kalman Filter,卡尔曼滤波)算法对视觉-惯性紧耦合组合导航系统进行时间更新;
步骤S4:判断双目视觉里程计采集到的每帧图像是否为关键帧;
步骤S4.1:若为关键帧,则采用ICKF算法对视觉-惯性紧耦合组合导航系统进行量测更新,并采用模糊自适应对视觉-惯性紧耦合组合导航系统的量测噪声的统计特性进行更新;
步骤S4.2:若为非关键帧,则采用基于LM(Levenberg-Marquard)算法的迭代策略对视觉-惯性紧耦合组合导航系统进行量测更新;
步骤S5:根据量测更新结果对捷联惯导系统的解算结果进行校正,由此得到视觉-惯性紧耦合组合导航系统的导航结果。
本发明的有效效果:一、视觉-惯性紧耦合组合导航系统中视觉里程计的图像分为关键帧和非关键帧,关键帧采用基于模糊自适应推理的迭代容积卡尔曼滤波实现紧耦合组合导航,而非关键帧把容积卡尔曼滤波算法的迭代量测更新过程转换为求解非线性最小二乘解问题,采用Levenberg-Marquard方法以较快的收敛速度求解最终的状态和方差估计,在保证组合导航精度相当的前提下,改善了视觉-惯性紧耦合组合导航系统的实时性。二、由于在时间更新阶段没有采用容积卡尔曼滤波的方法,而是根据视觉-惯性紧耦合组合导航系统的状态方程为线性的特点,利用线性KF的方法完成更新,使计算量下降,从而改善了视觉-惯性紧耦合组合导航系统的实时性。三、由于在时间更新阶段采用的线性KF状态更新过程是最优估计,而标准的容积卡尔曼滤波状态更新过程是次优的,同时,在关键帧的量测更新过程中采用模糊推理系统对量测噪声的统计特性进行自适应的调整,使组合导航过程中采用的量测噪声统计特性更接近真实值,提高了视觉-惯性紧耦合组合导航系统在环境和运动状态变化时的导航精度。
本发明的效果通过如下实验得到验证:
利用德国卡尔斯鲁厄理工学院和丰田技术研究所(Karlsruhe Institute ofTechnology and Toyota Technological Institute,KITTI)的开源数据对本发明的性能进行验证。KITTI研究所的车载实验是以一辆名为Annieway的自主车为平台,搭载有多种传感器来采集周围环境中的数据。实验中陀螺常值漂移为36°/h,加速度计常值漂移为1.0204×10-3g,捷联惯导系统的数据采集频率为100Hz,双目视觉里程计的分辨率为1226×370像素,基线距离为54cm,高度为1.65m,图像采集频率为10Hz。本次实验中的数据时长约为8min,行驶路程约为4130m。图2为本次实验中运载体的真实运动轨迹。本实验设置非关键帧和关键帧比为3:1,采用传统方法和本发明对实验中的数据进行处理,分别实现视觉-惯性紧耦合组合导航系统的导航定位,实验结果如图3~图4。从图3~图4可以看出,与传统方法相比,本发明所取得的运动轨迹更接近运载体的真实运动轨迹,本发明的定位误差最大值约为19.95m,而传统方法的定位误差最大值约为25.25m。图3~图4中的位置误差尖峰是由于提供真实轨迹信息的GPS信号的短暂缺失导致的,并不是真实的位置误差信息,平稳阶段的位置误差信息是真实的误差信息。为了排除不同计算机对滤波时间的影响,本实验以传统方法的相对平均单步滤波时间为参照对相对平均单步滤波时间进行了归一化,从图5可以看出,与传统方法相比,本发明的相对平均单步滤波时间降为传统方法的44.75%。综上所述,本发明一方面有效改善了导航实时性,另一方面进一步提高了导航精度。
本发明改善了视觉-惯性紧耦合组合导航方法的实时性和导航精度,适用于视觉-惯性紧耦合组合导航。
附图说明
图1是本发明中步骤S3~S5的流程示意图。
图2是实验中运载体的真实运动轨迹。
图3是实验中本发明和传统方法的X方向位置误差对比示意图。
图4是实验中本发明和传统方法的Y方向位置误差对比示意图。
图5是实验中本发明和传统方法的相对平均单步滤波时间对比示意图。
具体实施方式
基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,该方法是采用如下步骤实现的:
步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计,捷联惯导系统和双目视觉里程计共同组成视觉-惯性紧耦合组合导航系统;捷联惯导系统根据自身采集到的数据解算出运载体的名义运动信息;采用SURF算法对双目视觉里程计采集到的图像序列进行特征匹配,并解算出连续两帧图像匹配点的像素坐标信息;
步骤S2:根据捷联惯导系统的误差特性,建立视觉-惯性紧耦合组合导航系统的线性状态方程;以连续两帧图像匹配点的像素坐标信息为视觉-惯性紧耦合组合导航系统的量测值,建立视觉-惯性紧耦合组合导航系统的非线性量测方程;
步骤S3:采用线性KF算法对视觉-惯性紧耦合组合导航系统进行时间更新;
步骤S4:判断双目视觉里程计采集到的每帧图像是否为关键帧;
步骤S4.1:若为关键帧,则采用ICKF算法对视觉-惯性紧耦合组合导航系统进行量测更新,并采用模糊自适应对视觉-惯性紧耦合组合导航系统的量测噪声的统计特性进行更新;
步骤S4.2:若为非关键帧,则采用基于LM算法的迭代策略对视觉-惯性紧耦合组合导航系统进行量测更新;
步骤S5:根据量测更新结果对捷联惯导系统的解算结果进行校正,由此得到视觉-惯性紧耦合组合导航系统的导航结果。
所述步骤S3包括如下步骤:
步骤S3.1:设定组合导航滤波器状态量均值的初值和组合导航滤波器状态量方差的初值Pk-1
步骤S3.2:计算出时间更新后的组合导航滤波器状态量均值和时间更新后的组合导航滤波器状态量方差Pk/k-1;计算公式如下:
式中:Φk/k-1表示视觉-惯性紧耦合组合导航系统的状态转移矩阵的离散矩阵;Qk表示视觉-惯性紧耦合组合导航系统的过程噪声的协方差矩阵;
所述步骤S4.1包括如下步骤:
步骤S4.1.1:设定ICKF算法的组合导航滤波器状态量均值迭代初值和组合导航滤波器状态量方差迭代初值设定公式如下:
步骤S4.1.2:计算出ICKF算法第i次迭代得到的容积点第i次迭代得到的容积点经视觉-惯性紧耦合组合导航系统的非线性量测方程的传递值第i次迭代得到的量测预测值第i次迭代得到的新息方差第i次迭代得到的协方差第i次迭代得到的滤波增益第i次迭代得到的组合导航滤波器状态量均值第i次迭代得到的组合导航滤波器状态量方差计算公式如下:
式中:ξj表示容积点计算参数;n表示视觉-惯性紧耦合组合导航系统的状态维数;f(·)表示由视觉-惯性紧耦合组合导航系统的非线性量测方程产生的非线性映射关系;wj表示容积点权值;Rk表示视觉-惯性紧耦合组合导航系统的量测噪声的协方差矩阵;zk表示视觉-惯性紧耦合组合导航系统的量测值;
步骤S4.1.3:判断是否达到ICKF算法的迭代终止条件;
若未达到ICKF算法的迭代终止条件,则返回步骤S4.1.2,由此继续进行ICKF算法;
若达到ICKF算法的迭代终止条件,则ICKF算法迭代终止,由此设定ICKF算法的组合导航滤波器状态量均值迭代终值和组合导航滤波器状态量方差迭代终值Pk;设定公式如下:
式中:表示ICKF算法第N次迭代得到的组合导航滤波器状态量均值;表示ICKF算法第N次迭代得到的组合导航滤波器状态量方差;N表示ICKF算法迭代终止时的迭代次数;
ICKF算法的迭代终止条件如下:
或者i=Nmax
式中:ε表示ICKF算法迭代终止误差阈值;Nmax表示ICKF算法的最大迭代次数;
步骤S4.1.4:对视觉-惯性紧耦合组合导航系统的量测噪声的协方差矩阵Rk进行更新;更新公式如下:
Rk+1=εkRk
式中:εk表示调节因子,其值由模糊推理系统进行自适应调整;
所述步骤S4.2包括如下步骤:
步骤S4.2.1:设定基于LM算法的迭代策略的组合导航滤波器状态量均值迭代初值和组合导航滤波器状态量方差迭代初值设定公式如下:
式中:I表示单位矩阵;μ表示可调参数;
步骤S4.2.2:计算出基于LM算法的迭代策略第i次迭代得到的滤波增益第i次迭代得到的组合导航滤波器状态量均值计算公式如下:
式中:f(·)表示由视觉-惯性紧耦合组合导航系统的非线性量测方程产生的非线性映射关系;Rk表示视觉-惯性紧耦合组合导航系统的量测噪声的协方差矩阵;zk表示视觉-惯性紧耦合组合导航系统的量测值;
步骤S4.2.3:判断是否达到基于LM算法的迭代策略的迭代终止条件;
若未达到基于LM算法的迭代策略的迭代终止条件,则返回步骤S4.2.2,由此继续采用基于LM算法的迭代策略进行迭代;
若达到基于LM算法的迭代策略的迭代终止条件,则基于LM算法的迭代策略迭代终止,由此设定基于LM算法的迭代策略的组合导航滤波器状态量均值迭代终值和组合导航滤波器状态量方差迭代终值Pk;设定公式如下:
式中:表示基于LM算法的迭代策略第N次迭代得到的组合导航滤波器状态量均值;N表示基于LM算法的迭代策略迭代终止时的迭代次数;
所述基于LM算法的迭代策略的迭代终止条件如下:
或者i=Nmax
式中:ε表示基于LM算法的迭代策略迭代终止误差阈值;Nmax表示基于LM算法的迭代策略的最大迭代次数;
所述步骤S5包括如下步骤:
步骤S5.1:从ICKF算法的组合导航滤波器状态量均值迭代终值或者基于LM算法的迭代策略的组合导航滤波器状态量均值迭代终值中抽取得到捷联惯导系统的误差估计
步骤S5.2:根据捷联惯导系统的误差估计对捷联惯导系统的解算结果进行校正,由此得到视觉-惯性紧耦合组合导航系统的导航结果Tk;校正公式如下:
式中:表示捷联惯导系统的角度误差;δVE、δVN、δVU表示捷联惯导系统的速度误差;δRE、δRN、δRU表示捷联惯导系统的位置误差。
所述步骤S4.1.4中,模糊推理系统的输入为量测噪声失配比mL,模糊推理系统的输出为调节因子εk
所述量测噪声失配比mL定义为:
式中:表示新息方差矩阵的迹;表示理论新息方差矩阵的迹;M表示关键帧的累加窗口;
模糊推理系统以1位参考,设S表示模糊集合小,E表示基本等于1,F表示模糊集合大,建立如下模糊推理规则:
A.如果mL∈S,那么εk∈S;
B.如果mL∈E,那么εk∈E;
C.如果mL∈F,那么εk∈F。
所述步骤S2中,视觉-惯性紧耦合组合导航系统的线性状态方程的建立过程如下:
首先,将组合导航滤波器的状态量X定义为:
式中:表示捷联惯导系统的角度误差;δVE、δVN、δVU表示捷联惯导系统的速度误差;δRE、δRN、δRU表示捷联惯导系统的位置误差;εbx、εby、εbz表示沿载体坐标系三个方向的陀螺仪随机漂移误差;ζx、ζy、ζz表示加速度计的随机漂移误差;δpx、δpy、δpz表示上张图像采集时的名义位置误差;δθx、δθy、δθz表示上张图像采集时的名义角度误差;E、N、U表示地理坐标系的三个方向;
然后,根据捷联惯导系统的误差特性,得到视觉-惯性紧耦合组合导航系统的线性状态方程:
W(t)=[wεx,wεy,wεz,wζx,wζy,wζz]T
式中:F(t)表示组合导航滤波器的状态转移矩阵;G(t)表示组合导航滤波器的噪声变换矩阵;W(t)表示组合导航滤波器的噪声向量;FN(t)表示经典的惯性系统误差9×9矩阵;FS(t)表示导航参数与惯性元件误差之间的变换矩阵;表示姿态矩阵;wεx、wεy、wεz表示陀螺仪的噪声项;wζx、wζy、wζz表示加速度计的噪声项。
所述步骤S2中,视觉-惯性紧耦合组合导航系统的非线性量测方程的建立过程如下:
首先,根据组合导航滤波器的状态量X和捷联惯导系统的名义状态Xn,计算出右摄像机后一时刻相对前一时刻的旋转RR、左摄像机后一时刻相对前一时刻的旋转RL、右摄像机后一时刻相对前一时刻的位移tR、左摄像机后一时刻相对前一时刻的位移tL,计算公式表示如下:
式中:表示由组合导航滤波器的状态量对捷联惯导系统的名义状态得到捷联惯导的真实状态信息;R和t分别表示由捷联惯导系统的真实状态信息得到旋转量和位移量的函数关系;
然后,令前一时刻右摄像机的坐标系与世界坐标系对准,即令前一时刻右摄像机的投影矩阵PR,k为:
PR,k=KR[I|0];
式中:KR表示右摄像机的标定矩阵;
通过标定获取前一时刻左摄像机的相对位姿[RC|tC],由此将前一时刻左摄像机的投影矩阵PL,k表示为:
PL,k=KL[RC|tC];
式中:KL表示左摄像机的标定矩阵;RC表示左摄像机相对右摄像机的旋转;tC表示左摄像机相对右摄像机的位移;
后一时刻右摄像机的投影矩阵PR,k+1表示为:
PR,k+1=KR[RR|tR];
后一时刻左摄像机的投影矩阵PL,k+1表示为:
PL,k+1=KL[RL|tL];
然后,计算出右摄像机采集到的连续两帧图像的三焦点张量TR和左摄像机采集到的连续两帧图像的三焦点张量TL;计算公式如下:
TR=T(KR,KL,RC,tC,RR,tR);
TL=T(KR,KL,RC,tC,RL,tL);
式中:T表示三焦点张量的计算公式;
然后,根据三焦点张量的非线性转移函数H,得到视觉-惯性紧耦合组合导航系统的非线性量测方程:
xR,k+1=H(TR,xR,k,xL,k);
xL,k+1=H(TL,xR,k,xL,k);
式中:xR,k+1表示后一时刻右摄像机采集到的连续两帧图像匹配点的像素坐标;xL,k+1表示后一时刻左摄像机采集到的连续两帧图像匹配点的像素坐标;xR,k表示前一时刻右摄像机采集到的连续两帧图像匹配点的像素坐标;xL,k表示前一时刻左摄像机采集到的连续两帧图像匹配点的像素坐标;
然后,令xk+1=[xR,k+1,xL,k+1]T,则视觉-惯性紧耦合组合导航系统的非线性量测方程表示为:
根据以上视觉-惯性紧耦合组合导航系统的非线性量测方程产生由组合导航滤波器状态量X到像素点坐标信息的非线性映射关系:
xk+1=f(X)。

Claims (5)

1.一种基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,其特征在于:该方法是采用如下步骤实现的:
步骤S1:在运载体上安装捷联惯导系统和双目视觉里程计,捷联惯导系统和双目视觉里程计共同组成视觉-惯性紧耦合组合导航系统;捷联惯导系统根据自身采集到的数据解算出运载体的名义运动信息;采用SURF算法对双目视觉里程计采集到的图像序列进行特征匹配,并解算出连续两帧图像匹配点的像素坐标信息;
步骤S2:根据捷联惯导系统的误差特性,建立视觉-惯性紧耦合组合导航系统的线性状态方程;以连续两帧图像匹配点的像素坐标信息为视觉-惯性紧耦合组合导航系统的量测值,建立视觉-惯性紧耦合组合导航系统的非线性量测方程;
步骤S3:采用线性KF算法对视觉-惯性紧耦合组合导航系统进行时间更新;
步骤S4:判断双目视觉里程计采集到的每帧图像是否为关键帧;
步骤S4.1:若为关键帧,则采用ICKF算法对视觉-惯性紧耦合组合导航系统进行量测更新,并采用模糊自适应对视觉-惯性紧耦合组合导航系统的量测噪声的统计特性进行更新;
步骤S4.2:若为非关键帧,则采用基于LM算法的迭代策略对视觉-惯性紧耦合组合导航系统进行量测更新;
步骤S5:根据量测更新结果对捷联惯导系统的解算结果进行校正,由此得到视觉-惯性紧耦合组合导航系统的导航结果。
2.根据权利要求1所述的基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,其特征在于:
所述步骤S3包括如下步骤:
步骤S3.1:设定组合导航滤波器状态量均值的初值和组合导航滤波器状态量方差的初值Pk-1
步骤S3.2:计算出时间更新后的组合导航滤波器状态量均值和时间更新后的组合导航滤波器状态量方差Pk/k-1;计算公式如下:
式中:Φk/k-1表示视觉-惯性紧耦合组合导航系统的状态转移矩阵的离散矩阵;Qk表示视觉-惯性紧耦合组合导航系统的过程噪声的协方差矩阵;
所述步骤S4.1包括如下步骤:
步骤S4.1.1:设定ICKF算法的组合导航滤波器状态量均值迭代初值和组合导航滤波器状态量方差迭代初值设定公式如下:
步骤S4.1.2:计算出ICKF算法第i次迭代得到的容积点第i次迭代得到的容积点经视觉-惯性紧耦合组合导航系统的非线性量测方程的传递值第i次迭代得到的量测预测值第i次迭代得到的新息方差第i次迭代得到的协方差第i次迭代得到的滤波增益第i次迭代得到的组合导航滤波器状态量均值第i次迭代得到的组合导航滤波器状态量方差计算公式如下:
式中:ξj表示容积点计算参数;n表示视觉-惯性紧耦合组合导航系统的状态维数;f(·)表示由视觉-惯性紧耦合组合导航系统的非线性量测方程产生的非线性映射关系;wj表示容积点权值;Rk表示视觉-惯性紧耦合组合导航系统的量测噪声的协方差矩阵;zk表示视觉-惯性紧耦合组合导航系统的量测值;
步骤S4.1.3:判断是否达到ICKF算法的迭代终止条件;
若未达到ICKF算法的迭代终止条件,则返回步骤S4.1.2,由此继续进行ICKF算法;
若达到ICKF算法的迭代终止条件,则ICKF算法迭代终止,由此设定ICKF算法的组合导航滤波器状态量均值迭代终值和组合导航滤波器状态量方差迭代终值Pk;设定公式如下:
式中:表示ICKF算法第N次迭代得到的组合导航滤波器状态量均值;表示ICKF算法第N次迭代得到的组合导航滤波器状态量方差;N表示ICKF算法迭代终止时的迭代次数;
ICKF算法的迭代终止条件如下:
或者i=Nmax
式中:ε表示ICKF算法迭代终止误差阈值;Nmax表示ICKF算法的最大迭代次数;
步骤S4.1.4:对视觉-惯性紧耦合组合导航系统的量测噪声的协方差矩阵Rk进行更新;更新公式如下:
Rk+1=εkRk
式中:εk表示调节因子,其值由模糊推理系统进行自适应调整;
所述步骤S4.2包括如下步骤:
步骤S4.2.1:设定基于LM算法的迭代策略的组合导航滤波器状态量均值迭代初值和组合导航滤波器状态量方差迭代初值设定公式如下:
式中:I表示单位矩阵;μ表示可调参数;
步骤S4.2.2:计算出基于LM算法的迭代策略第i次迭代得到的滤波增益第i次迭代得到的组合导航滤波器状态量均值计算公式如下:
式中:f(·)表示由视觉-惯性紧耦合组合导航系统的非线性量测方程产生的非线性映射关系;Rk表示视觉-惯性紧耦合组合导航系统的量测噪声的协方差矩阵;zk表示视觉-惯性紧耦合组合导航系统的量测值;
步骤S4.2.3:判断是否达到基于LM算法的迭代策略的迭代终止条件;
若未达到基于LM算法的迭代策略的迭代终止条件,则返回步骤S4.2.2,由此继续采用基于LM算法的迭代策略进行迭代;
若达到基于LM算法的迭代策略的迭代终止条件,则基于LM算法的迭代策略迭代终止,由此设定基于LM算法的迭代策略的组合导航滤波器状态量均值迭代终值和组合导航滤波器状态量方差迭代终值Pk;设定公式如下:
式中:表示基于LM算法的迭代策略第N次迭代得到的组合导航滤波器状态量均值;N表示基于LM算法的迭代策略迭代终止时的迭代次数;
所述基于LM算法的迭代策略的迭代终止条件如下:
或者i=Nmax
式中:ε表示基于LM算法的迭代策略迭代终止误差阈值;Nmax表示基于LM算法的迭代策略的最大迭代次数;
所述步骤S5包括如下步骤:
步骤S5.1:从ICKF算法的组合导航滤波器状态量均值迭代终值或者基于LM算法的迭代策略的组合导航滤波器状态量均值迭代终值中抽取得到捷联惯导系统的误差估计
步骤S5.2:根据捷联惯导系统的误差估计对捷联惯导系统的解算结果进行校正,由此得到视觉-惯性紧耦合组合导航系统的导航结果Tk;校正公式如下:
式中:表示捷联惯导系统的角度误差;δVE、δVN、δVU表示捷联惯导系统的速度误差;δRE、δRN、δRU表示捷联惯导系统的位置误差。
3.根据权利要求2所述的基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,其特征在于:所述步骤S4.1.4中,模糊推理系统的输入为量测噪声失配比mL,模糊推理系统的输出为调节因子εk
所述量测噪声失配比mL定义为:
式中:表示新息方差矩阵的迹;表示理论新息方差矩阵的迹;M表示关键帧的累加窗口;
模糊推理系统以1位参考,设S表示模糊集合小,E表示基本等于1,F表示模糊集合大,建立如下模糊推理规则:
A.如果mL∈S,那么εk∈S;
B.如果mL∈E,那么εk∈E;
C.如果mL∈F,那么εk∈F。
4.根据权利要求1或2或3所述的基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,其特征在于:所述步骤S2中,视觉-惯性紧耦合组合导航系统的线性状态方程的建立过程如下:
首先,将组合导航滤波器的状态量X定义为:
式中:表示捷联惯导系统的角度误差;δVE、δVN、δVU表示捷联惯导系统的速度误差;δRE、δRN、δRU表示捷联惯导系统的位置误差;εbx、εby、εbz表示沿载体坐标系三个方向的陀螺仪随机漂移误差;ζx、ζy、ζz表示加速度计的随机漂移误差;δpx、δpy、δpz表示上张图像采集时的名义位置误差;δθx、δθy、δθz表示上张图像采集时的名义角度误差;E、N、U表示地理坐标系的三个方向;
然后,根据捷联惯导系统的误差特性,得到视觉-惯性紧耦合组合导航系统的线性状态方程:
W(t)=[wεx,wεy,wεz,wζx,wζy,wζz]T
式中:F(t)表示组合导航滤波器的状态转移矩阵;G(t)表示组合导航滤波器的噪声变换矩阵;W(t)表示组合导航滤波器的噪声向量;FN(t)表示经典的惯性系统误差9×9矩阵;FS(t)表示导航参数与惯性元件误差之间的变换矩阵;表示姿态矩阵;wεx、wεy、wεz表示陀螺仪的噪声项;wζx、wζy、wζz表示加速度计的噪声项。
5.根据权利要求1或2或3所述的基于模糊自适应ICKF的视觉-惯性紧耦合组合导航方法,其特征在于:所述步骤S2中,视觉-惯性紧耦合组合导航系统的非线性量测方程的建立过程如下:
首先,根据组合导航滤波器的状态量X和捷联惯导系统的名义状态Xn,计算出右摄像机后一时刻相对前一时刻的旋转RR、左摄像机后一时刻相对前一时刻的旋转RL、右摄像机后一时刻相对前一时刻的位移tR、左摄像机后一时刻相对前一时刻的位移tL,计算公式表示如下:
式中:表示由组合导航滤波器的状态量对捷联惯导系统的名义状态得到捷联惯导的真实状态信息;R和t分别表示由捷联惯导系统的真实状态信息得到旋转量和位移量的函数关系;
然后,令前一时刻右摄像机的坐标系与世界坐标系对准,即令前一时刻右摄像机的投影矩阵PR,k为:
PR,k=KR[I|0];
式中:KR表示右摄像机的标定矩阵;
通过标定获取前一时刻左摄像机的相对位姿[RC|tC],由此将前一时刻左摄像机的投影矩阵PL,k表示为:
PL,k=KL[RC|tC];
式中:KL表示左摄像机的标定矩阵;RC表示左摄像机相对右摄像机的旋转;tC表示左摄像机相对右摄像机的位移;
后一时刻右摄像机的投影矩阵PR,k+1表示为:
PR,k+1=KR[RR|tR];
后一时刻左摄像机的投影矩阵PL,k+1表示为:
PL,k+1=KL[RL|tL];
然后,计算出右摄像机采集到的连续两帧图像的三焦点张量TR和左摄像机采集到的连续两帧图像的三焦点张量TL;计算公式如下:
TR=T(KR,KL,RC,tC,RR,tR);
TL=T(KR,KL,RC,tC,RL,tL);
式中:T表示三焦点张量的计算公式;
然后,根据三焦点张量的非线性转移函数H,得到视觉-惯性紧耦合组合导航系统的非线性量测方程:
xR,k+1=H(TR,xR,k,xL,k);
xL,k+1=H(TL,xR,k,xL,k);
式中:xR,k+1表示后一时刻右摄像机采集到的连续两帧图像匹配点的像素坐标;xL,k+1表示后一时刻左摄像机采集到的连续两帧图像匹配点的像素坐标;xR,k表示前一时刻右摄像机采集到的连续两帧图像匹配点的像素坐标;xL,k表示前一时刻左摄像机采集到的连续两帧图像匹配点的像素坐标;
然后,令xk+1=[xR,k+1,xL,k+1]T,则视觉-惯性紧耦合组合导航系统的非线性量测方程表示为:
根据以上视觉-惯性紧耦合组合导航系统的非线性量测方程产生由组合导航滤波器状态量X到像素点坐标信息的非线性映射关系:
xk+1=f(X)。
CN201811589653.2A 2018-12-25 2018-12-25 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 Active CN109443353B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811589653.2A CN109443353B (zh) 2018-12-25 2018-12-25 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811589653.2A CN109443353B (zh) 2018-12-25 2018-12-25 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法

Publications (2)

Publication Number Publication Date
CN109443353A true CN109443353A (zh) 2019-03-08
CN109443353B CN109443353B (zh) 2020-11-06

Family

ID=65537941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811589653.2A Active CN109443353B (zh) 2018-12-25 2018-12-25 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法

Country Status (1)

Country Link
CN (1) CN109443353B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110006423A (zh) * 2019-04-04 2019-07-12 北京理工大学 一种自适应惯导和视觉组合导航方法
CN111060948A (zh) * 2019-12-14 2020-04-24 深圳市优必选科技股份有限公司 一种定位方法、装置、头盔及计算机可读存储介质
CN113639744A (zh) * 2021-07-07 2021-11-12 武汉工程大学 一种用于仿生机器鱼的导航定位方法和系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101825467A (zh) * 2010-04-20 2010-09-08 南京航空航天大学 捷联惯性导航系统与天文导航系统实现组合导航的方法
CN103983263A (zh) * 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
US9026263B2 (en) * 2011-11-30 2015-05-05 Alpine Electronics, Inc. Automotive navigation system and method to utilize internal geometry of sensor position with respect to rear wheel axis
WO2016073642A1 (en) * 2014-11-04 2016-05-12 The Regents Of The University Of California Visual-inertial sensor fusion for navigation, localization, mapping, and 3d reconstruction
CN105737823A (zh) * 2016-02-01 2016-07-06 东南大学 基于五阶ckf的gps/sins/cns组合导航方法
CN106767791A (zh) * 2017-01-13 2017-05-31 东南大学 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法
CN107504969A (zh) * 2017-07-24 2017-12-22 哈尔滨理工大学 基于视觉和惯性组合的四旋翼室内导航方法
CN107796391A (zh) * 2017-10-27 2018-03-13 哈尔滨工程大学 一种捷联惯性导航系统/视觉里程计组合导航方法
CN108253964A (zh) * 2017-12-29 2018-07-06 齐鲁工业大学 一种基于时延滤波器的视觉/惯性组合导航模型构建方法
CN108731670A (zh) * 2018-05-18 2018-11-02 南京航空航天大学 基于量测模型优化的惯性/视觉里程计组合导航定位方法
CN108981687A (zh) * 2018-05-07 2018-12-11 清华大学 一种视觉与惯性融合的室内定位方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101825467A (zh) * 2010-04-20 2010-09-08 南京航空航天大学 捷联惯性导航系统与天文导航系统实现组合导航的方法
US9026263B2 (en) * 2011-11-30 2015-05-05 Alpine Electronics, Inc. Automotive navigation system and method to utilize internal geometry of sensor position with respect to rear wheel axis
CN103983263A (zh) * 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
WO2016073642A1 (en) * 2014-11-04 2016-05-12 The Regents Of The University Of California Visual-inertial sensor fusion for navigation, localization, mapping, and 3d reconstruction
CN105737823A (zh) * 2016-02-01 2016-07-06 东南大学 基于五阶ckf的gps/sins/cns组合导航方法
CN106767791A (zh) * 2017-01-13 2017-05-31 东南大学 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法
CN107504969A (zh) * 2017-07-24 2017-12-22 哈尔滨理工大学 基于视觉和惯性组合的四旋翼室内导航方法
CN107796391A (zh) * 2017-10-27 2018-03-13 哈尔滨工程大学 一种捷联惯性导航系统/视觉里程计组合导航方法
CN108253964A (zh) * 2017-12-29 2018-07-06 齐鲁工业大学 一种基于时延滤波器的视觉/惯性组合导航模型构建方法
CN108981687A (zh) * 2018-05-07 2018-12-11 清华大学 一种视觉与惯性融合的室内定位方法
CN108731670A (zh) * 2018-05-18 2018-11-02 南京航空航天大学 基于量测模型优化的惯性/视觉里程计组合导航定位方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
EHSAN ASADI: "Tightly-coupled stereo vision-aided inertial navigation using feature-based motion sensors", 《ADVANCED ROBOTICS》 *
张亚: "视觉里程计辅助的INS_GPS组合导航系统研究", 《中国博士学位论文全文数据库信息科技辑》 *
赵伟: "基于容积规则的鲁棒卡尔曼滤波算法研究与应用", 《中国博士学位论文全文数据库信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110006423A (zh) * 2019-04-04 2019-07-12 北京理工大学 一种自适应惯导和视觉组合导航方法
CN111060948A (zh) * 2019-12-14 2020-04-24 深圳市优必选科技股份有限公司 一种定位方法、装置、头盔及计算机可读存储介质
CN113639744A (zh) * 2021-07-07 2021-11-12 武汉工程大学 一种用于仿生机器鱼的导航定位方法和系统
CN113639744B (zh) * 2021-07-07 2023-10-20 武汉工程大学 一种用于仿生机器鱼的导航定位方法和系统

Also Published As

Publication number Publication date
CN109443353B (zh) 2020-11-06

Similar Documents

Publication Publication Date Title
CN108731670B (zh) 基于量测模型优化的惯性/视觉里程计组合导航定位方法
Heo et al. EKF-based visual inertial navigation using sliding window nonlinear optimization
Weiss et al. Real-time onboard visual-inertial state estimation and self-calibration of MAVs in unknown environments
CN107796391A (zh) 一种捷联惯性导航系统/视觉里程计组合导航方法
CN104729506B (zh) 一种视觉信息辅助的无人机自主导航定位方法
CN108303099A (zh) 基于三维视觉slam的无人机室内自主导航方法
CN106052685B (zh) 一种两级分离融合的姿态和航向估计方法
CN109459019A (zh) 一种基于级联自适应鲁棒联邦滤波的车载导航计算方法
CN109676604A (zh) 机器人曲面运动定位方法及其运动定位系统
Barczyk et al. Invariant EKF design for scan matching-aided localization
CN109443353A (zh) 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法
CN106123890A (zh) 一种多传感器数据融合的机器人定位方法
CN107941217A (zh) 一种机器人定位方法、电子设备、存储介质、装置
CN109443354A (zh) 基于萤火虫群优化pf的视觉-惯性紧耦合组合导航方法
CN108981693A (zh) 基于单目相机的vio快速联合初始化方法
CN106772524A (zh) 一种基于秩滤波的农业机器人组合导航信息融合方法
CN109443355A (zh) 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法
CN107270898A (zh) 基于mems传感器和vlc定位融合的双粒子滤波导航装置和方法
WO2024027350A1 (zh) 车辆定位方法、装置、计算机设备、存储介质
Herath et al. Fusion-dhl: Wifi, imu, and floorplan fusion for dense history of locations in indoor environments
Gao et al. An integrated land vehicle navigation system based on context awareness
CN116772844A (zh) 一种基于动态环境下的视觉惯性室内机器人的导航方法
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
CN108303095A (zh) 适用于非高斯系统的鲁棒容积目标协同定位方法
CN112229421B (zh) 基于李群最优估计的捷联惯性导航晃动基座粗对准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant