CN111220145A - 用于自动驾驶汽车的多采样率下导航数据的融合方法 - Google Patents
用于自动驾驶汽车的多采样率下导航数据的融合方法 Download PDFInfo
- Publication number
- CN111220145A CN111220145A CN201911195127.2A CN201911195127A CN111220145A CN 111220145 A CN111220145 A CN 111220145A CN 201911195127 A CN201911195127 A CN 201911195127A CN 111220145 A CN111220145 A CN 111220145A
- Authority
- CN
- China
- Prior art keywords
- navigation
- sensor
- sampling rate
- sampling
- sampling rates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005070 sampling Methods 0.000 title claims abstract description 90
- 238000007500 overflow downdraw method Methods 0.000 title description 2
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000005259 measurement Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000001914 filtration Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法首先建立组合导航系统的状态模型,然后将状态模型推广到各不同采样率下,得到各采样率下的量测值与最高采样率下的关系,最终能够在最高采样率下实现数据融合,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,提高了组合导航系统的导航精度。
Description
技术领域
本发明涉及导航定位技术领域,更具体的说是涉及一种用于自动驾驶汽车的多采样率下导航数据的融合方法。
背景技术
目前,应用于自动驾驶汽车组合导航系统的传感器包括惯性导航系统、卫星定位系统、视觉里程计、高精度地图以及激光雷达等。惯性导航系统具有较高的数据更新率,可以在车辆高速行驶中提供更好的导航参数迭代更新;视觉里程计通过图像处理技术不但可以提供载体的姿态信息,而且可以用来实现车辆的避障功能,频率较低,一般不超过200HZ;RTK(Real Time Kinematic),即载波相位差分技术,其具有较高的定位精度,但其数据更新率较低,通常为1HZ,由于各个传感器各有优势,在导航系统设计时不得不将多种传感器组合使用,从而获取到更加全方位的导航数据。
但是,不同导航系统或者传感器的采样率不一致,导致了高采样率传感器的信息没有被有效利用,进而在精度上受到限制,并不能达到预期的导航效果,导航数据的可靠性得不到保障,进而影响到自动驾驶汽车的安全性能。
因此,如何提供一种精度更高的用于自动驾驶汽车的多采样率下导航数据的处理方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,解决了现有的导航系统数据处理方法由于导航系统或者传感器的采样率不一致,高采样率传感器的信息不能被有效利用,进而在精度上受到限制,并不能达到预期的导航效果的问题。
为了实现上述目的,本发明采用如下技术方案:
本发明提供了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法包括:
步骤1:以导航系统中采样率最高的导航传感器为参考,建立状态方程和量测方程;
步骤2:根据各个导航传感器的采样比,建立适用于导航系统中各采样率导航传感器的状态模型;
步骤3:对建立好的状态模型进行Kalman滤波,并根据滤波结果在最高采样率下进行数据融合。
具体地,所述步骤1具体包括:
设惯性导航系统为组合导航系统中采样率最高的导航传感器,则状态方程和量测方程为:
其中,
其中,
w(k)=[wgx,wgy,wgz,wax,way,waz]T
式中,各参量表示加速度计和陀螺的白噪声;
其中,v1(k1)表示测量噪声,服从正态分布。
具体地,步骤2具体包括:
步骤201:设组合导航系统中有N个导航传感器,其中第1个传感器采样率最高,第N个传感器采样率最低,第i个传感器的采样率处于N和1之间(2≤i≤N),设为Si,则各导航传感器的采样率之间的关系满足下式:
Si=S1/ni,1≤i≤N
其中,n1=1,i(i=1,2,…N)表示导航传感器或导航传感器对应的分辨率;
步骤202:根据各导航传感器的采样率之间的关系,得到各个采样率的导航传感器之间的状态量存在如下关系:
xi(ki)=x1(niki)i=2,…N
步骤203:根据得到的状态量间的关系,推导出其他采样率的导航传感器的状态方程和量测方程,并得到适用于导航系统中各采样率导航传感器的状态模型。
具体地,所述步骤203中适用于导航系统中各采样率导航传感器的状态模型结构为:
式中,i为导航传感器的采样率,满足1≤i≤N;系统噪声wi(ki)和vi(ki)互不相关。
具体地,所述步骤3具体包括:
步骤301:根据建立好的适用于导航系统中各采样率导航传感器的状态模型,构建估计模型,结构如下:
其中,
上式表示传感器i的第1到第ki个观测值;
其中,
其中,k=niki-l;l=1,2,…,ni-1,和Pi(ki|ki)表示利用建立好的适用于导航系统中各采样率导航传感器的状态模型对导航传感器i进行Kalman滤波的结果;并且当i=1时,有Pi(ki|ki)=P1|i(k|k);
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法首先建立组合导航系统的状态模型,然后将状态模型推广到各不同采样率下,得到各采样率下的量测值与最高采样率下的关系,最终能够在最高采样率下实现数据融合,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,提高了组合导航系统的导航精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明提供的一种用于自动驾驶汽车的多采样率下导航数据的融合方法的流程示意图;
图2附图为本发明实施例中多传感器采样数据示意图;
图3附图为本发明实施例中用于自动驾驶汽车的多采样率下导航数据的融合方法的算法流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见附图1,本发明实施例公开了一种用于自动驾驶汽车的多采样率下导航数据的融合方法,该方法包括:
S1:以导航系统中采样率最高的导航传感器为参考,建立状态方程和量测方程;
S2:根据各个导航传感器的采样比,建立适用于导航系统中各采样率导航传感器的状态模型;
S3:对建立好的状态模型进行Kalman滤波,并根据滤波结果在最高采样率下进行数据融合。
具体地,结合附图3所示,上述步骤S1和步骤S2具体包括:
假设组合导航系统中有N个导航传感器,依次可以是惯性导航系统、视觉里程计/高精度地图、GPS导航系统,多传感器采样过程可参见附图2所示,其中第1个传感器采样率最高,为最细尺度,第N个传感器采样率最低,为最粗尺度,第i个传感器的采样率处于N和1之间(2≤i≤N),设为Si,则各传感器的采样率之间的关系满足:
Si=S1/ni,1≤i≤N (1)
其中,n1=1,根据多尺度理论,i(i=1,2,…N)既表示传感器也表示尺度,在最高采样率下(即最细尺度)建立系统方程,可描述为:
式中,i为导航传感器的采样率,满足1≤i≤N;式中,表示第i个传感器的第k次量测值,表示第i个传感器的量测转移矩阵。系统噪声w(k)∈Rn×1为零均值,系统噪声wi(ki)和vi(ki)互不相关;方差为Q(k)∈Rn×n的高斯白噪声,满足
E[w(k)]=0 (3)
E[w(k)wT(l)]=Q(k)δkl (4)
E[vi(k)]=0 (5)
E[vi(k)wT(l)]=0 (7)
初始状态向量x(0)是一随机变量,满足:
E[x(0)]=x0 (8)
E{[x(0)-x0][x(0)-x0]T}=P0 (9)
假设x(0)、w(k)、vi(k)彼此相互独立,且不同采样率下的观测噪声相互独立。
由式(1)可得:
xi(ki)=x(niki),i=2,…N (10)
根据上述内容,可以获得各个采样率下的状态方程以及量测方程,所以可以得到如下推导:
式中,
wi(ki)=[wT(niki) wT(niki+1)…wT(niki+ni-1)] (14)
则,
Qi(ki)=E[wi(ki)wi T(li)]=diag{Q(niki),Q(niki+1),…,Q(niki+ni-1)} (15)
最终可以得到基于尺度i(1≤i≤N)的状态模型,描述如下:
特别的,当i=1时,为最细尺度上,即最高采样率下的状态模型。且各尺度上的系统噪声wi(ki)和vi(ki)互不相关。
具体地,步骤S3具体包括:
步骤301:为了能够在最细尺度上获得粗尺度的状态估计值,最终获得全局状态的最优估计,首先将Zi(ki)与x(k)联系起来,根据建立好的适用于导航系统中各采样率导航传感器的状态模型,构建估计模型,结构如下:
其中,
上式表示传感器i的第1到第ki个观测值;
其中,
其中,k=niki-l;l=1,2,…,ni-1,和Pi(ki|ki)表示利用建立好的适用于导航系统中各采样率导航传感器的状态模型对导航传感器i进行Kalman滤波的结果;并且当i=1时,有Pi(ki|ki)=P1|i(k|k);
下面推导式(21),由系统方程(1)可知,
上式可以写成:
其中,k=niki-l;l=1,2,…,ni-1;
又由式(29)和(30)可得
所以:
由式(26)、(27)、(32)可得式(25)成立。
根据定义式(19)有
具体地,融合算法步骤如下:
1)对于任意的i=2,3,…N,都有mod(k,ni)≠0,则
Pf(k|k)=P1(k|k) (35)
2)若存在i1,i2,…,ij,(1<i1,i2,…,ij≤N),使得mod(k,ni)=0,则
综上所述,本发明实施例公开的用于自动驾驶汽车的多采样率下导航数据的融合方法,与现有技术相比,具有如下优点:
该方法首先建立组合导航系统的状态模型,然后将状态模型推广到各不同采样率下,得到各采样率下的量测值与最高采样率下的关系,最终能够在最高采样率下实现数据融合,该方法可以充分利用各个传感器的采样数据,能够在最高采样率下实现数据的融合,提高了组合导航系统的导航精度。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (5)
1.一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,包括:
步骤1:以导航系统中采样率最高的导航传感器为参考,建立状态方程和量测方程;
步骤2:根据各个导航传感器的采样比,建立适用于导航系统中各采样率导航传感器的状态模型;
步骤3:对建立好的状态模型进行Kalman滤波,并根据滤波结果在最高采样率下进行数据融合。
3.根据权利要求1所述的一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,步骤2具体包括:
步骤201:设组合导航系统中有N个导航传感器,其中第1个传感器采样率最高,第N个传感器采样率最低,第i个传感器的采样率处于N和1之间(2≤i≤N),设为Si,则各导航传感器的采样率之间的关系满足下式:
Si=S1/ni,1≤i≤N
其中,n1=1,i(i=1,2,…N)表示导航传感器或导航传感器对应的分辨率;
步骤202:根据各导航传感器的采样率之间的关系,得到各个采样率的导航传感器之间的状态量存在如下关系:
xi(ki)=x1(niki)i=2,…N
步骤203:根据得到的状态量间的关系,推导出其他采样率的导航传感器的状态方程和量测方程,并得到适用于导航系统中各采样率导航传感器的状态模型。
5.根据权利要求4所述的一种用于自动驾驶汽车的多采样率下导航数据的融合方法,其特征在于,所述步骤3具体包括:
步骤301:根据建立好的适用于导航系统中各采样率导航传感器的状态模型,构建估计模型,结构如下:
其中,
上式表示传感器i的第1到第ki个观测值;
其中,
其中,k=niki-l;l=1,2,…,ni-1,和Pi(ki|ki)表示利用建立好的适用于导航系统中各采样率导航传感器的状态模型对导航传感器i进行Kalman滤波的结果;并且当i=1时,有Pi(ki|ki)=P1|i(k|k);
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911195127.2A CN111220145A (zh) | 2019-11-28 | 2019-11-28 | 用于自动驾驶汽车的多采样率下导航数据的融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911195127.2A CN111220145A (zh) | 2019-11-28 | 2019-11-28 | 用于自动驾驶汽车的多采样率下导航数据的融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111220145A true CN111220145A (zh) | 2020-06-02 |
Family
ID=70829820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911195127.2A Pending CN111220145A (zh) | 2019-11-28 | 2019-11-28 | 用于自动驾驶汽车的多采样率下导航数据的融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111220145A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101630445A (zh) * | 2009-06-10 | 2010-01-20 | 民航数据通信有限责任公司 | 基于噪声误差的异步多传感器数据处理方法和系统 |
CN103105611A (zh) * | 2013-01-16 | 2013-05-15 | 广东工业大学 | 一种分布式多传感器智能信息融合方法 |
CN103714045A (zh) * | 2014-01-09 | 2014-04-09 | 北京理工大学 | 面向异步多速率不均匀采样观测数据的信息融合估计方法 |
CN104090262A (zh) * | 2014-05-23 | 2014-10-08 | 浙江工业大学 | 一种基于多采样率多模型融合估计的移动目标跟踪方法 |
CN107782309A (zh) * | 2017-09-21 | 2018-03-09 | 天津大学 | 非惯性系视觉和双陀螺仪多速率ckf融合姿态测量方法 |
CN108844533A (zh) * | 2018-04-24 | 2018-11-20 | 西安交通大学 | 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法 |
-
2019
- 2019-11-28 CN CN201911195127.2A patent/CN111220145A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101630445A (zh) * | 2009-06-10 | 2010-01-20 | 民航数据通信有限责任公司 | 基于噪声误差的异步多传感器数据处理方法和系统 |
CN103105611A (zh) * | 2013-01-16 | 2013-05-15 | 广东工业大学 | 一种分布式多传感器智能信息融合方法 |
CN103714045A (zh) * | 2014-01-09 | 2014-04-09 | 北京理工大学 | 面向异步多速率不均匀采样观测数据的信息融合估计方法 |
CN104090262A (zh) * | 2014-05-23 | 2014-10-08 | 浙江工业大学 | 一种基于多采样率多模型融合估计的移动目标跟踪方法 |
CN107782309A (zh) * | 2017-09-21 | 2018-03-09 | 天津大学 | 非惯性系视觉和双陀螺仪多速率ckf融合姿态测量方法 |
CN108844533A (zh) * | 2018-04-24 | 2018-11-20 | 西安交通大学 | 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法 |
Non-Patent Citations (2)
Title |
---|
L.P.YAN 等: "Asynchronous Multirate Multisensor State Fusion Estimation with Incomplete Measurements", 《2008 4TH INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATIONS, NETWORKING AND MOBILE COMPUTING》 * |
赫飞 等: "SINS/GPS/SST/高度表组合导航系统异步融合算法", 《海军航空工程学院学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107655476B (zh) | 基于多信息融合补偿的行人高精度足部导航方法 | |
CN107588769B (zh) | 一种车载捷联惯导、里程计及高程计组合导航方法 | |
CN104655152B (zh) | 一种基于联邦滤波的机载分布式pos实时传递对准方法 | |
CN110017837B (zh) | 一种姿态抗磁干扰的组合导航方法 | |
CN105910602B (zh) | 一种组合导航方法 | |
CN110221332A (zh) | 一种车载gnss/ins组合导航的动态杆臂误差估计和补偿方法 | |
CN111121766B (zh) | 一种基于星光矢量的天文与惯性组合导航方法 | |
JP2008076389A (ja) | ナビゲーション・システムおよびナビゲーション方法 | |
Oh | Multisensor fusion for autonomous UAV navigation based on the Unscented Kalman Filter with Sequential Measurement Updates | |
CN114002725A (zh) | 一种车道线辅助定位方法、装置、电子设备及存储介质 | |
CN111189442B (zh) | 基于cepf的无人机多源导航信息状态预测方法 | |
Wang et al. | Enhanced multi-sensor data fusion methodology based on multiple model estimation for integrated navigation system | |
CN111399023B (zh) | 基于李群非线性状态误差的惯性基组合导航滤波方法 | |
CN111380516A (zh) | 基于里程计测量信息的惯导/里程计车辆组合导航方法及系统 | |
CN115060257B (zh) | 一种基于民用级惯性测量单元的车辆变道检测方法 | |
CN114964222A (zh) | 一种车载imu姿态初始化方法、安装角估计方法及装置 | |
CN110849360A (zh) | 面向多机协同编队飞行的分布式相对导航方法 | |
CN112697154A (zh) | 一种基于矢量分配的自适应多源融合导航方法 | |
CN117053782A (zh) | 一种水陆两栖机器人组合导航方法 | |
CN111220151B (zh) | 载体系下考虑温度模型的惯性和里程计组合导航方法 | |
CN110221331B (zh) | 基于状态变换的惯性/卫星组合导航动态滤波方法 | |
CN116222551A (zh) | 一种融合多种数据的水下导航方法及装置 | |
CN115200578A (zh) | 基于多项式优化的惯性基导航信息融合方法及系统 | |
CN113008229B (zh) | 一种基于低成本车载传感器的分布式自主组合导航方法 | |
CN112284388A (zh) | 一种无人机多源信息融合导航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200602 |