CN111220145A - 用于自动驾驶汽车的多采样率下导航数据的融合方法 - Google Patents

用于自动驾驶汽车的多采样率下导航数据的融合方法 Download PDF

Info

Publication number
CN111220145A
CN111220145A CN201911195127.2A CN201911195127A CN111220145A CN 111220145 A CN111220145 A CN 111220145A CN 201911195127 A CN201911195127 A CN 201911195127A CN 111220145 A CN111220145 A CN 111220145A
Authority
CN
China
Prior art keywords
navigation
sensor
sampling rate
sampling
sampling rates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911195127.2A
Other languages
English (en)
Inventor
张威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Shuaiwei Control Technology Co ltd
Original Assignee
Hunan Shuaiwei Control Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Shuaiwei Control Technology Co ltd filed Critical Hunan Shuaiwei Control Technology Co ltd
Priority to CN201911195127.2A priority Critical patent/CN111220145A/zh
Publication of CN111220145A publication Critical patent/CN111220145A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法首先建立组合导航系统的状态模型,然后将状态模型推广到各不同采样率下,得到各采样率下的量测值与最高采样率下的关系,最终能够在最高采样率下实现数据融合,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,提高了组合导航系统的导航精度。

Description

用于自动驾驶汽车的多采样率下导航数据的融合方法
技术领域
本发明涉及导航定位技术领域,更具体的说是涉及一种用于自动驾驶汽车的多采样率下导航数据的融合方法。
背景技术
目前,应用于自动驾驶汽车组合导航系统的传感器包括惯性导航系统、卫星定位系统、视觉里程计、高精度地图以及激光雷达等。惯性导航系统具有较高的数据更新率,可以在车辆高速行驶中提供更好的导航参数迭代更新;视觉里程计通过图像处理技术不但可以提供载体的姿态信息,而且可以用来实现车辆的避障功能,频率较低,一般不超过200HZ;RTK(Real Time Kinematic),即载波相位差分技术,其具有较高的定位精度,但其数据更新率较低,通常为1HZ,由于各个传感器各有优势,在导航系统设计时不得不将多种传感器组合使用,从而获取到更加全方位的导航数据。
但是,不同导航系统或者传感器的采样率不一致,导致了高采样率传感器的信息没有被有效利用,进而在精度上受到限制,并不能达到预期的导航效果,导航数据的可靠性得不到保障,进而影响到自动驾驶汽车的安全性能。
因此,如何提供一种精度更高的用于自动驾驶汽车的多采样率下导航数据的处理方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,解决了现有的导航系统数据处理方法由于导航系统或者传感器的采样率不一致,高采样率传感器的信息不能被有效利用,进而在精度上受到限制,并不能达到预期的导航效果的问题。
为了实现上述目的,本发明采用如下技术方案:
本发明提供了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法包括:
步骤1:以导航系统中采样率最高的导航传感器为参考,建立状态方程和量测方程;
步骤2:根据各个导航传感器的采样比,建立适用于导航系统中各采样率导航传感器的状态模型;
步骤3:对建立好的状态模型进行Kalman滤波,并根据滤波结果在最高采样率下进行数据融合。
具体地,所述步骤1具体包括:
设惯性导航系统为组合导航系统中采样率最高的导航传感器,则状态方程和量测方程为:
Figure BDA0002294490250000021
其中,
Figure BDA0002294490250000022
式中,
Figure BDA0002294490250000023
为姿态误差角,δVE、δVN、δVU为速度误差,δl、δλ、δh为位置误差,εE、εN、εU为陀螺零偏,
Figure BDA0002294490250000024
为加速度计常值漂移;
其中,
w(k)=[wgx,wgy,wgz,wax,way,waz]T
式中,各参量表示加速度计和陀螺的白噪声;
其中,v1(k1)表示测量噪声,服从正态分布。
具体地,步骤2具体包括:
步骤201:设组合导航系统中有N个导航传感器,其中第1个传感器采样率最高,第N个传感器采样率最低,第i个传感器的采样率处于N和1之间(2≤i≤N),设为Si,则各导航传感器的采样率之间的关系满足下式:
Si=S1/ni,1≤i≤N
其中,n1=1,i(i=1,2,…N)表示导航传感器或导航传感器对应的分辨率;
步骤202:根据各导航传感器的采样率之间的关系,得到各个采样率的导航传感器之间的状态量存在如下关系:
xi(ki)=x1(niki)i=2,…N
步骤203:根据得到的状态量间的关系,推导出其他采样率的导航传感器的状态方程和量测方程,并得到适用于导航系统中各采样率导航传感器的状态模型。
具体地,所述步骤203中适用于导航系统中各采样率导航传感器的状态模型结构为:
Figure BDA0002294490250000031
式中,i为导航传感器的采样率,满足1≤i≤N;系统噪声wi(ki)和vi(ki)互不相关。
具体地,所述步骤3具体包括:
步骤301:根据建立好的适用于导航系统中各采样率导航传感器的状态模型,构建估计模型,结构如下:
Figure BDA0002294490250000032
Figure BDA0002294490250000033
Figure BDA0002294490250000041
其中,
Figure BDA0002294490250000042
上式表示传感器i的第1到第ki个观测值;
步骤302:对任意k=1,2,…,设融合N个传感器获得的估计值和估计误差方差阵分别为
Figure BDA0002294490250000043
和Pf(k|k),则有:
Figure BDA0002294490250000044
Figure BDA0002294490250000045
其中,
Figure BDA0002294490250000046
Figure BDA0002294490250000047
Figure BDA0002294490250000048
Figure BDA0002294490250000049
Figure BDA00022944902500000410
其中,k=niki-l;l=1,2,…,ni-1,
Figure BDA00022944902500000411
和Pi(ki|ki)表示利用建立好的适用于导航系统中各采样率导航传感器的状态模型对导航传感器i进行Kalman滤波的结果;并且当i=1时,有
Figure BDA00022944902500000412
Pi(ki|ki)=P1|i(k|k);
步骤303:根据对各导航传感器的滤波结果,实时获得最高采样率下各导航传感器的状态估计值
Figure BDA0002294490250000051
和估计误差协方差Pf(k|k)。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法首先建立组合导航系统的状态模型,然后将状态模型推广到各不同采样率下,得到各采样率下的量测值与最高采样率下的关系,最终能够在最高采样率下实现数据融合,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,提高了组合导航系统的导航精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明提供的一种用于自动驾驶汽车的多采样率下导航数据的融合方法的流程示意图;
图2附图为本发明实施例中多传感器采样数据示意图;
图3附图为本发明实施例中用于自动驾驶汽车的多采样率下导航数据的融合方法的算法流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见附图1,本发明实施例公开了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法包括:
S1:以导航系统中采样率最高的导航传感器为参考,建立状态方程和量测方程;
S2:根据各个导航传感器的采样比,建立适用于导航系统中各采样率导航传感器的状态模型;
S3:对建立好的状态模型进行Kalman滤波,并根据滤波结果在最高采样率下进行数据融合。
具体地,结合附图3所示,上述步骤S1和步骤S2具体包括:
假设组合导航系统中有N个导航传感器,依次可以是惯性导航系统、视觉里程计/高精度地图、GPS导航系统,多传感器采样过程可参见附图2所示,其中第1个传感器采样率最高,为最细尺度,第N个传感器采样率最低,为最粗尺度,第i个传感器的采样率处于N和1之间(2≤i≤N),设为Si,则各传感器的采样率之间的关系满足:
Si=S1/ni,1≤i≤N (1)
其中,n1=1,根据多尺度理论,i(i=1,2,…N)既表示传感器也表示尺度,在最高采样率下(即最细尺度)建立系统方程,可描述为:
Figure BDA0002294490250000061
式中,i为导航传感器的采样率,满足1≤i≤N;式中,
Figure BDA0002294490250000062
表示第i个传感器的第k次量测值,
Figure BDA0002294490250000063
表示第i个传感器的量测转移矩阵。系统噪声w(k)∈Rn×1为零均值,系统噪声wi(ki)和vi(ki)互不相关;方差为Q(k)∈Rn×n的高斯白噪声,满足
E[w(k)]=0 (3)
E[w(k)wT(l)]=Q(k)δkl (4)
Figure BDA0002294490250000071
对应第i个传感器的零均值噪声,其对应的协方差矩阵为
Figure BDA0002294490250000072
满足
E[vi(k)]=0 (5)
Figure BDA0002294490250000073
E[vi(k)wT(l)]=0 (7)
初始状态向量x(0)是一随机变量,满足:
E[x(0)]=x0 (8)
E{[x(0)-x0][x(0)-x0]T}=P0 (9)
假设x(0)、w(k)、vi(k)彼此相互独立,且不同采样率下的观测噪声相互独立。
由式(1)可得:
xi(ki)=x(niki),i=2,…N (10)
根据上述内容,可以获得各个采样率下的状态方程以及量测方程,所以可以得到如下推导:
Figure BDA0002294490250000074
式中,
Figure BDA0002294490250000081
Figure BDA0002294490250000082
wi(ki)=[wT(niki) wT(niki+1)…wT(niki+ni-1)] (14)
则,
Qi(ki)=E[wi(ki)wi T(li)]=diag{Q(niki),Q(niki+1),…,Q(niki+ni-1)} (15)
最终可以得到基于尺度i(1≤i≤N)的状态模型,描述如下:
Figure BDA0002294490250000083
特别的,当i=1时,为最细尺度上,即最高采样率下的状态模型。且各尺度上的系统噪声wi(ki)和vi(ki)互不相关。
具体地,步骤S3具体包括:
步骤301:为了能够在最细尺度上获得粗尺度的状态估计值,最终获得全局状态的最优估计,首先将Zi(ki)与x(k)联系起来,根据建立好的适用于导航系统中各采样率导航传感器的状态模型,构建估计模型,结构如下:
Figure BDA0002294490250000084
Figure BDA0002294490250000085
Figure BDA0002294490250000086
其中,
Figure BDA0002294490250000087
上式表示传感器i的第1到第ki个观测值;
步骤302:对任意k=1,2,…,设融合N个传感器获得的估计值和估计误差方差阵分别为
Figure BDA0002294490250000091
和Pf(k|k),则有:
Figure BDA0002294490250000092
Figure BDA0002294490250000093
其中,
Figure BDA0002294490250000094
Figure BDA0002294490250000095
Figure BDA0002294490250000096
Figure BDA0002294490250000097
Figure BDA0002294490250000098
其中,k=niki-l;l=1,2,…,ni-1,
Figure BDA0002294490250000099
和Pi(ki|ki)表示利用建立好的适用于导航系统中各采样率导航传感器的状态模型对导航传感器i进行Kalman滤波的结果;并且当i=1时,有
Figure BDA00022944902500000910
Pi(ki|ki)=P1|i(k|k);
下面推导式(21),由系统方程(1)可知,
Figure BDA00022944902500000911
上式可以写成:
Figure BDA0002294490250000101
Figure BDA0002294490250000102
其中,k=niki-l;l=1,2,…,ni-1;
又由式(29)和(30)可得
Figure BDA0002294490250000103
所以:
Figure BDA0002294490250000104
由式(26)、(27)、(32)可得式(25)成立。
根据定义式(19)有
Figure BDA0002294490250000105
由式(23)和式(33)可得式(21)成立。且
Figure BDA0002294490250000106
步骤303:根据对各导航传感器的滤波结果,实时获得最高采样率下各导航传感器的状态估计值
Figure BDA0002294490250000107
和估计误差协方差Pf(k|k)。
具体地,融合算法步骤如下:
1)对于任意的i=2,3,…N,都有mod(k,ni)≠0,则
Figure BDA0002294490250000111
Pf(k|k)=P1(k|k) (35)
2)若存在i1,i2,…,ij,(1<i1,i2,…,ij≤N),使得mod(k,ni)=0,则
Figure BDA0002294490250000112
Figure BDA0002294490250000113
式中,
Figure BDA0002294490250000114
综上所述,本发明实施例公开的用于自动驾驶汽车的多采样率下导航数据的融合方法,与现有技术相比,具有如下优点:
该方法首先建立组合导航系统的状态模型,然后将状态模型推广到各不同采样率下,得到各采样率下的量测值与最高采样率下的关系,最终能够在最高采样率下实现数据融合,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,提高了组合导航系统的导航精度。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,包括:
步骤1:以导航系统中采样率最高的导航传感器为参考,建立状态方程和量测方程;
步骤2:根据各个导航传感器的采样比,建立适用于导航系统中各采样率导航传感器的状态模型;
步骤3:对建立好的状态模型进行Kalman滤波,并根据滤波结果在最高采样率下进行数据融合。
2.根据权利要求1所述的一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,所述步骤1具体包括:
设惯性导航系统为组合导航系统中采样率最高的导航传感器,则状态方程和量测方程为:
Figure FDA0002294490240000011
其中,
Figure FDA0002294490240000012
式中,
Figure FDA0002294490240000013
为姿态误差角,δVE、δVN、δVU为速度误差,δl、δλ、δh为位置误差,εE、εN、εU为陀螺零偏,▽E、▽N、▽U为加速度计常值漂移;
其中,
w(k)=[wgx,wgy,wgz,wax,way,waz]T
式中,各参量表示加速度计和陀螺的白噪声;
其中,v1(k1)表示测量噪声,服从正态分布。
3.根据权利要求1所述的一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,步骤2具体包括:
步骤201:设组合导航系统中有N个导航传感器,其中第1个传感器采样率最高,第N个传感器采样率最低,第i个传感器的采样率处于N和1之间(2≤i≤N),设为Si,则各导航传感器的采样率之间的关系满足下式:
Si=S1/ni,1≤i≤N
其中,n1=1,i(i=1,2,…N)表示导航传感器或导航传感器对应的分辨率;
步骤202:根据各导航传感器的采样率之间的关系,得到各个采样率的导航传感器之间的状态量存在如下关系:
xi(ki)=x1(niki)i=2,…N
步骤203:根据得到的状态量间的关系,推导出其他采样率的导航传感器的状态方程和量测方程,并得到适用于导航系统中各采样率导航传感器的状态模型。
4.根据权利要求3所述的一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,所述步骤203中适用于导航系统中各采样率导航传感器的状态模型结构为:
Figure FDA0002294490240000021
式中,i为导航传感器的采样率,满足1≤i≤N;系统噪声wi(ki)和vi(ki)互不相关。
5.根据权利要求4所述的一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,所述步骤3具体包括:
步骤301:根据建立好的适用于导航系统中各采样率导航传感器的状态模型,构建估计模型,结构如下:
Figure FDA0002294490240000022
Figure FDA0002294490240000023
Figure FDA0002294490240000024
其中,
Figure FDA0002294490240000031
上式表示传感器i的第1到第ki个观测值;
步骤302:对任意k=1,2,…,设融合N个传感器获得的估计值和估计误差方差阵分别为
Figure FDA0002294490240000032
和Pf(k|k),则有:
Figure FDA0002294490240000033
Figure FDA0002294490240000034
其中,
Figure FDA0002294490240000035
Figure FDA0002294490240000036
Figure FDA0002294490240000037
Figure FDA0002294490240000038
Figure FDA0002294490240000039
其中,k=niki-l;l=1,2,…,ni-1,
Figure FDA00022944902400000310
和Pi(ki|ki)表示利用建立好的适用于导航系统中各采样率导航传感器的状态模型对导航传感器i进行Kalman滤波的结果;并且当i=1时,有
Figure FDA00022944902400000311
Pi(ki|ki)=P1|i(k|k);
步骤303:根据对各导航传感器的滤波结果,实时获得最高采样率下各导航传感器的状态估计值
Figure FDA00022944902400000312
和估计误差协方差Pf(k|k)。
CN201911195127.2A 2019-11-28 2019-11-28 用于自动驾驶汽车的多采样率下导航数据的融合方法 Pending CN111220145A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911195127.2A CN111220145A (zh) 2019-11-28 2019-11-28 用于自动驾驶汽车的多采样率下导航数据的融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911195127.2A CN111220145A (zh) 2019-11-28 2019-11-28 用于自动驾驶汽车的多采样率下导航数据的融合方法

Publications (1)

Publication Number Publication Date
CN111220145A true CN111220145A (zh) 2020-06-02

Family

ID=70829820

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911195127.2A Pending CN111220145A (zh) 2019-11-28 2019-11-28 用于自动驾驶汽车的多采样率下导航数据的融合方法

Country Status (1)

Country Link
CN (1) CN111220145A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101630445A (zh) * 2009-06-10 2010-01-20 民航数据通信有限责任公司 基于噪声误差的异步多传感器数据处理方法和系统
CN103105611A (zh) * 2013-01-16 2013-05-15 广东工业大学 一种分布式多传感器智能信息融合方法
CN103714045A (zh) * 2014-01-09 2014-04-09 北京理工大学 面向异步多速率不均匀采样观测数据的信息融合估计方法
CN104090262A (zh) * 2014-05-23 2014-10-08 浙江工业大学 一种基于多采样率多模型融合估计的移动目标跟踪方法
CN107782309A (zh) * 2017-09-21 2018-03-09 天津大学 非惯性系视觉和双陀螺仪多速率ckf融合姿态测量方法
CN108844533A (zh) * 2018-04-24 2018-11-20 西安交通大学 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101630445A (zh) * 2009-06-10 2010-01-20 民航数据通信有限责任公司 基于噪声误差的异步多传感器数据处理方法和系统
CN103105611A (zh) * 2013-01-16 2013-05-15 广东工业大学 一种分布式多传感器智能信息融合方法
CN103714045A (zh) * 2014-01-09 2014-04-09 北京理工大学 面向异步多速率不均匀采样观测数据的信息融合估计方法
CN104090262A (zh) * 2014-05-23 2014-10-08 浙江工业大学 一种基于多采样率多模型融合估计的移动目标跟踪方法
CN107782309A (zh) * 2017-09-21 2018-03-09 天津大学 非惯性系视觉和双陀螺仪多速率ckf融合姿态测量方法
CN108844533A (zh) * 2018-04-24 2018-11-20 西安交通大学 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
L.P.YAN 等: "Asynchronous Multirate Multisensor State Fusion Estimation with Incomplete Measurements", 《2008 4TH INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATIONS, NETWORKING AND MOBILE COMPUTING》 *
赫飞 等: "SINS/GPS/SST/高度表组合导航系统异步融合算法", 《海军航空工程学院学报》 *

Similar Documents

Publication Publication Date Title
CN107655476B (zh) 基于多信息融合补偿的行人高精度足部导航方法
CN107588769B (zh) 一种车载捷联惯导、里程计及高程计组合导航方法
CN104655152B (zh) 一种基于联邦滤波的机载分布式pos实时传递对准方法
CN110017837B (zh) 一种姿态抗磁干扰的组合导航方法
CN105910602B (zh) 一种组合导航方法
CN110221332A (zh) 一种车载gnss/ins组合导航的动态杆臂误差估计和补偿方法
CN111121766B (zh) 一种基于星光矢量的天文与惯性组合导航方法
JP2008076389A (ja) ナビゲーション・システムおよびナビゲーション方法
Oh Multisensor fusion for autonomous UAV navigation based on the Unscented Kalman Filter with Sequential Measurement Updates
CN114002725A (zh) 一种车道线辅助定位方法、装置、电子设备及存储介质
CN111189442B (zh) 基于cepf的无人机多源导航信息状态预测方法
Wang et al. Enhanced multi-sensor data fusion methodology based on multiple model estimation for integrated navigation system
CN111399023B (zh) 基于李群非线性状态误差的惯性基组合导航滤波方法
CN111380516A (zh) 基于里程计测量信息的惯导/里程计车辆组合导航方法及系统
CN115060257B (zh) 一种基于民用级惯性测量单元的车辆变道检测方法
CN114964222A (zh) 一种车载imu姿态初始化方法、安装角估计方法及装置
CN110849360A (zh) 面向多机协同编队飞行的分布式相对导航方法
CN112697154A (zh) 一种基于矢量分配的自适应多源融合导航方法
CN117053782A (zh) 一种水陆两栖机器人组合导航方法
CN111220151B (zh) 载体系下考虑温度模型的惯性和里程计组合导航方法
CN110221331B (zh) 基于状态变换的惯性/卫星组合导航动态滤波方法
CN116222551A (zh) 一种融合多种数据的水下导航方法及装置
CN115200578A (zh) 基于多项式优化的惯性基导航信息融合方法及系统
CN113008229B (zh) 一种基于低成本车载传感器的分布式自主组合导航方法
CN112284388A (zh) 一种无人机多源信息融合导航方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200602