CN109459040B - 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法 - Google Patents

基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法 Download PDF

Info

Publication number
CN109459040B
CN109459040B CN201910033350.0A CN201910033350A CN109459040B CN 109459040 B CN109459040 B CN 109459040B CN 201910033350 A CN201910033350 A CN 201910033350A CN 109459040 B CN109459040 B CN 109459040B
Authority
CN
China
Prior art keywords
auv
neural network
state
rbf neural
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910033350.0A
Other languages
English (en)
Other versions
CN109459040A (zh
Inventor
徐博
李盛新
李金�
张勇刚
王连钊
张娇
王潇雨
张奂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910033350.0A priority Critical patent/CN109459040B/zh
Publication of CN109459040A publication Critical patent/CN109459040A/zh
Application granted granted Critical
Publication of CN109459040B publication Critical patent/CN109459040B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/203Specially adapted for sailing ships

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Feedback Control In General (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本发明属于定位技术领域,具体涉及一种基于RBF神经网络辅助容积卡尔曼滤波的多AUV协同定位方法。本发明包括以下步骤:建立多AUV协同定位状态空间模型;创建一个RBF神经网络;在基准参考位置可用时,通过CKF进行多AUV协同定位估计;收集RBF神经网络的训练数据;对RBF神经网络进行训练;基准信号中断,停止训练RBF神经网络,继续进行CKF协同定位估计;估计CKF协同定位滤波误差;补偿滤波状态更新估计值。本发明在多AUV协同定位情况下,考虑跟随AUV航向漂移误差、洋流速度影响及与距离相关的水声噪声,具有更高的实用价值;利用RBF神经网络对CKF滤波估计值进行补偿,协同定位精度和稳定性显著提高;本发明算法易于实现。

Description

基于RBF神经网络辅助容积卡尔曼滤波的多AUV协同定位方法
技术领域
本发明属于定位技术领域,具体涉及一种基于径向基函数即RBF神经网络辅助容积卡尔曼滤波即CKF的多AUV协同定位方法。
背景技术
“多水下航行器协同定位”是伴随多水下航行器协作应用发展而来的一种新的水下定位技术,不仅可以实现水下高精度定位,而且具有成本低、实现简单、可靠性好以及不受区域限制等优点,已成为水下导航领域一个新的研究热点。对自主水下航行器AUV的位置进行估计是多AUV协同定位中十分重要的问题,常用的方法之一就是基于状态空间模型的滤波方法,它能够实现统计意义上的最优估计,获得精度较高的估计信息。但考虑到水下环境的不确定性和水声通信的复杂性,多AUV协同定位系统的定位性能受到系统内部和外部等多种因素的制约。针对这种情况,一般可以通过将更高精度的传感器应用到多AUV协同定位系统中,或者建立更符合系统实际运动规律的状态空间模型,但这会增加协同定位系统的成本和复杂性。因此需要确定一种合适的方法,既可以保证协同系统定位精度也不需要额外增加硬件的成本。RBF神经网络可以实现输入输出的任意非线性映射,并且对非线性滤波具有强映射和鲁棒性,使用与人脑结构和功能类似的学习算法将输入值映射到输出值,适用于解决水下环境复杂情况下的多AUV协同定位问题。
发明内容
本发明的目的在于提供一种在多AUV协作系统的定位性能受系统输入误差及外部量测误差影响时,能够实现有效提高协同定位估计精度及稳定性的协同定位方法,提供一种基于RBF神经网络辅助容积卡尔曼滤波的多AUV协同定位方法。
本发明的目的是这样实现的:
基于RBF神经网络辅助容积卡尔曼滤波的多AUV协同定位方法,包括以下步骤:
步骤1:建立多AUV协同定位状态空间模型;
步骤2:创建一个RBF神经网络;
步骤3:在基准参考位置能够使用时,通过CKF进行多AUV协同定位估计;
步骤4:收集RBF神经网络的训练数据;
步骤5:利用步骤4收集的数据对RBF神经网络进行训练;
步骤6:基准信号中断,停止训练RBF神经网络,继续进行CKF协同定位估计;
步骤7:估计CKF协同定位滤波误差;
步骤8:补偿步骤6的滤波状态更新估计值。
步骤1中所述的建立多AUV协同定位状态空间模型具体包括:
定义领航AUV在tk时刻和tk+1时刻的位置向量分别为
Figure BDA0001945017280000021
Figure BDA0001945017280000022
跟随AUV在tk时刻和tk+1时刻的位置向量分别为(xk,yk,zk)和(xk+1,yk+1,zk+1);领航AUV和跟随AUV在tk时刻的相对距离为Zk;在实际水下协同定位中,AUV的深度和水平位置是相互独立的,通过压力传感器获得精确的深度信息,故将三维的协同定位问题简化为二维,将模型投影到二维水平面进行分析;基于相对位置量测的协同定位系统状态方程具体为:
Figure BDA0001945017280000023
式中,xk和yk分别为跟随AUV在tk时刻的东向和北向位置;δt为航位推算时间;传感器输入uk=[Vkθk]T,Vk为跟随AUV的在tk时刻的前向速度,θk为跟随AUV的在tk时刻的航向角;wx,k和wy,k为零均值且相互独立的Gauss白噪声;
跟随AUV在tk时刻通过水声通信得到的相对观测信息为领航AUV在tk时刻的位置信息
Figure BDA0001945017280000024
及领航AUV与跟随AUV之间相对距离量测信息Zk,由以上信息得到领航AUV和跟随AUV之间的坐标位置关系为:
Figure BDA0001945017280000025
式中,vk为具有零均值且相互独立的Gauss白噪声;
定义Xk=[xk,yk]T为跟随AUV在tk时刻的状态量,wk=[wx,k,wy,k]T为过程噪声向量,vk=[vk]T为量测噪声向量,且有:
Qk=E[wkwk T]
Rk=E[vkvk T]
分别为假设已知的系统噪声协方差阵和量测噪声协方差阵;
基于相对位置量测的协同定位系统状态方程和领航AUV和跟随AUV之间的坐标位置关系,建立多AUV协同定位系统的离散时间状态空间模型,状态方程和量测方程分别为:
Figure BDA0001945017280000031
式中,状态函数
Figure BDA0001945017280000032
量测函数
Figure BDA0001945017280000033
步骤2中所述的创建一个RBF神经网络具体包括:径向基神经网络中常用的径向基函数是高斯函数,因此径向基神经网络的激活函数表示为:
Figure BDA0001945017280000034
其中,X=(x1x2…xp)T为当前输入样本的p个输入;
Figure BDA0001945017280000035
为神经网络隐含层的第j个任一节点的激活函数,称为“径向基函数”;||·||为欧式范数;cj为高斯函数中心;σj为高斯函数的方差,即神经元的宽度。
步骤3中所述的通过CKF进行多AUV协同定位估计具体包括:
CKF滤波方法依据Spherical-Radial准则,采用一组等权值的容积点,利用统计数值积分原理计算非线性变换后随机变量的均值和协方差,能够准确的获得状态更新及状态协方差矩阵更新;
(1)时间更新
假设状态向量Xk=[xk,yk]T在tk时刻系统后验概率状态
Figure BDA0001945017280000041
以及后验概率密度函数
Figure BDA0001945017280000042
已知,通过Cholesky将状态误差协方差Pk|k分解为以下形式:
Figure BDA0001945017280000043
定义以下变量:
Figure BDA0001945017280000044
式中,m=2n为容积点的个数;n=2为状态方程维数;ξi为生成的容积点;[1]i为点集中的第i个容积点,容积点集为:
Figure BDA0001945017280000045
wi为每一个容积点所占的权值;
计算Cubature点(i=1,2…,m,m=2n):
Figure BDA0001945017280000046
通过系统状态的转移矩阵函数传递Cubature点:
Xi,k+1|k=f(Xi,k|k,uk)
tk+1时刻的状态预测值通过加权求和得到:
Figure BDA0001945017280000047
计算tk+1时刻的状态误差协方差预测值:
Figure BDA0001945017280000048
(2)量测更新
通过Cholesky将状态误差协方差预测值Pk+1|k分解为以下形式:
Figure BDA0001945017280000049
Cubature点通过下式计算(i=1,2…,m,m=2n):
Figure BDA00019450172800000410
通过系统的量测函数传递Cubature点:
Figure BDA0001945017280000051
tk+1时刻的观测预测值通过加权求和得到:
Figure BDA0001945017280000052
计算tk+1时刻的量测误差协方差预测值:
Figure BDA0001945017280000053
互协方差矩阵:
Figure BDA0001945017280000054
估计卡尔曼滤波增益:
Figure BDA0001945017280000055
利用状态更新和协方差更新过程,获得tk+1时刻的状态
Figure BDA0001945017280000056
和状态估计误差协方差矩阵Pk+1|k+1,即:
Figure BDA0001945017280000057
Figure BDA0001945017280000058
步骤4中所述的收集RBF神经网络的训练数据具体包括:在基准参考位置能够使用时,将步骤3得到的滤波新息
Figure BDA0001945017280000059
预测误差
Figure BDA00019450172800000510
和滤波增益Kk+1作为RBF神经网络输入层的输入;同时,将对应CKF滤波方法的状态更新估计值
Figure BDA00019450172800000511
与由GPS提供状态基准参考x之间的误差值
Figure BDA00019450172800000512
作为RBF神经网络的输出值,得到RBF神经网络训练数据。
步骤5中所述的对RBF神经网络进行训练具体包括:
利用步骤4收集的数据对RBF神经网络进行训练,得到基函数的中心和方差以及隐含层与输出层间的连接权值;
用RBF作为隐单元的“基”构成隐含层空间,确定基函数的中心和方差,将输入向量直接映射到隐含层空间,RBF神经网络的基函数为高斯函数,因此基函数方差σj由下式求解:
Figure BDA0001945017280000061
其中,m为径向基函数中心的个数,j(j=1,2,…,m)为隐含层的第j个节点;cmax为所选取中心的最大距离;
径向基神经网络的第k个输出为:
Figure BDA0001945017280000062
其中,X=(x1x2…xp)T为当前输入样本的p个输入;cj为网络隐含层节点的中心;wjk为隐含层第j个节点到输出层第k个节点的连接权值;yk为与输出样本对应网络的第k个输出节点的实际输出;
隐含层至输出层之间神经元的连接权值用最小二乘法直接计算得到,即:
Figure BDA0001945017280000063
步骤6中当基准信号中断时,停止RBF神经网络训练,与步骤3中CKF滤波方法相同,通过CKF进行多AUV协同定位估计,得到基准信号中断时的滤波新息
Figure BDA0001945017280000064
预测误差
Figure BDA0001945017280000065
滤波增益Kk+1及滤波状态估计更新值
Figure BDA0001945017280000066
步骤7中估计CKF协同定位滤波误差是在基准信号中断后,将步骤6中CKF输出的滤波新息
Figure BDA0001945017280000067
预测误差
Figure BDA0001945017280000068
和滤波增益Kk+1带入步骤5训练完成后的RBF神经网络的输入层,得到滤波误差
Figure BDA0001945017280000069
步骤8中补偿步骤6的滤波状态更新估计值是指将神经网络输出的估计滤波误差
Figure BDA00019450172800000610
与滤波状态估计更新值
Figure BDA00019450172800000611
相加,得到新的更为准确的状态估计值。
本发明的有益效果在于:
1.本发明在多AUV协同定位情况下,考虑了跟随AUV航向漂移误差、洋流速度影响及与距离相关的水声噪声,具有更高的实用价值;
2.本发明利用RBF神经网络对CKF滤波估计值进行补偿,协同定位精度和稳定性显著提高;
3.径向基函数神经网络由较小的单位神经元组成,使用与人脑结构和功能类似的学习算法将输入值映射到输出值,算法易于实现。
附图说明
图1为本发明的流程图;
图2为领航AUV和跟随AUV的真实轨迹;
图3为跟随AUV航向基准及存在航向漂移影响下的跟随AUV航向;
图4为RBF神经网络训练原理图;
图5为RBF神经网络补偿滤波状态原理图;
图6为定位误差对比图。
具体实施方式
下面结合附图并举例对本发明做更详细的描述。
实验利用多AUV协作系统湖试采集的数据,使用三艘AUV,其中两艘充当领航AUV,另一艘充当跟随AUV。领航AUV和跟随AUV都配备了声学调制解调器ATM-885,进行单程测距和广播信息;以及获取速度信息的多普勒速度计程仪和提供航向信息的罗经也安装在AUV上;此外,跟随AUV还配备了全球定位系统GPS,以便提供参考位置。试验时间为1600s,采样时间为1s,存在基准参考位置的时间为0s到1200s数,1200s到1600s时间段基准参考位置中断,系统的状态方程初始状态由GPS提供。在每一时刻,跟随AUV只与两艘领航AUV中的一艘进行通信。以罗经提供的跟随AUV航向信息为基准航向,设置输入航向漂移误差为30°/h,验证本发明设计方法的有效性。
步骤一:建立多AUV协同定位状态空间模型;
定义领航AUV在tk时刻和tk+1时刻的位置向量分别为
Figure BDA0001945017280000081
Figure BDA0001945017280000082
跟随AUV在tk时刻和tk+1时刻的位置向量分别(xk,yk,zk)和(xk+1,yk+1,zk+1)。领航AUV和跟随AUV在tk时刻的相对距离为Zk。在实际水下协同定位中,AUV的深度和水平位置是相互独立的,通过压力传感器可以获得精确的深度信息,故可将三维的协同定位问题简化为二维,在讨论中将模型投影到二维水平面进行分析。基于相对位置量测的协同定位系统状态方程具体为:
Figure BDA0001945017280000083
式中,xk和yk分别为跟随AUV在tk时刻的东向和北向位置;δt为航位推算时间;传感器输入uk=[Vkθk]T,Vk为跟随AUV的在tk时刻的前向速度,θk为跟随AUV的在tk时刻的航向角;wx,k和wy,k为零均值且相互独立的Gauss白噪声。
跟随AUV在tk时刻通过水声通信得到的相对观测信息为领航AUV在tk时刻的位置信息
Figure BDA0001945017280000084
及领航AUV与跟随AUV之间相对距离量测信息Zk。由以上信息可得领航AUV和跟随AUV之间的坐标位置关系为:
Figure BDA0001945017280000085
式中,vk为具有零均值且相互独立的Gauss白噪声。
定义Xk=[xk,yk]T为跟随AUV在tk时刻的状态量,wk=[wx,k,wy,k]T为过程噪声向量,vk=[vk]T为量测噪声向量,且有:
Qk=E[wkwk T]
Rk=E[vkvk T]
分别为假设已知的系统噪声协方差阵和量测噪声协方差阵。
基于相对位置量测的协同定位系统状态方程和领航AUV和跟随AUV之间的坐标位置关系,建立多AUV协同定位系统的离散时间状态空间模型,状态方程和量测方程分别如下:
Figure BDA0001945017280000091
式中,状态函数
Figure BDA0001945017280000092
量测函数
Figure BDA0001945017280000093
步骤二:创建一个RBF神经网络;
径向基神经网络中常用的径向基函数是高斯函数,因此径向基神经网络的激活函数可表示为:
Figure BDA0001945017280000094
其中,X=(x1x2…xp)T为当前输入样本的p个输入;
Figure BDA0001945017280000095
为神经网络隐含层的第j个任一节点的激活函数,称为“径向基函数”;||·||为欧式范数;cj为高斯函数中心;σj为高斯函数的方差,即神经元的宽度。
由newrbe函数构建径向基函数网络,RBF网络的扩展速度spread越大,拟合出来的函数会更加平滑,但太大的spread会引起数值问题。本例所取径向基的扩展速度spread的值设为3;RBF隐含层神经元个数与输入矢量个数相等;隐含层神经元阈值取0.8632/spread。
步骤三:在基准参考位置可用时,通过CKF进行多AUV协同定位估计;
CKF滤波算法依据Spherical-Radial准则,采用一组等权值的容积点,利用统计数值积分原理计算非线性变换后随机变量的均值和协方差,能够较为准确的获得状态更新及状态协方差矩阵更新。
(1)时间更新
假设状态向量Xk=[xk,yk]T在tk时刻系统后验概率状态
Figure BDA0001945017280000096
以及后验概率密度函数
Figure BDA0001945017280000097
已知,通过Cholesky将状态误差协方差Pk|k分解为如下形式:
Figure BDA0001945017280000098
定义以下变量:
Figure BDA0001945017280000101
式中,m=2n为容积点的个数;n=2为状态方程维数;ξi为生成的容积点;[1]i为点集中的第i个容积点,容积点集为:
Figure BDA0001945017280000102
wi为每一个容积点所占的权值。
计算Cubature点(i=1,2…,m,m=2n):
Figure BDA0001945017280000103
通过系统状态的转移矩阵函数传递Cubature点:
Xi,k+1|k=f(Xi,k|k,uk)
tk+1时刻的状态预测值通过加权求和得到:
Figure BDA0001945017280000104
计算tk+1时刻的状态误差协方差预测值:
Figure BDA0001945017280000105
(2)量测更新
通过Cholesky将状态误差协方差预测值Pk+1|k分解为如下形式:
Figure BDA0001945017280000106
计算Cubature点(i=1,2…,m,m=2n):
Figure BDA0001945017280000107
通过系统的量测函数传递Cubature点:
Figure BDA0001945017280000108
tk+1时刻的观测预测值通过加权求和得到:
Figure BDA0001945017280000109
计算tk+1时刻的量测误差协方差预测值:
Figure BDA0001945017280000111
互协方差矩阵:
Figure BDA0001945017280000112
估计卡尔曼滤波增益:
Figure BDA0001945017280000113
利用状态更新和协方差更新过程,获得tk+1时刻的状态
Figure BDA0001945017280000114
和状态估计误差协方差矩阵Pk+1|k+1,即:
Figure BDA0001945017280000115
Figure BDA0001945017280000116
步骤四:收集RBF神经网络的训练数据;
在基准参考位置可用时,将步骤三得到的滤波新息
Figure BDA0001945017280000117
预测误差
Figure BDA0001945017280000118
和滤波增益Kk+1作为RBF神经网络输入层的输入。同时,将对应CKF滤波算法的状态更新估计值
Figure BDA0001945017280000119
与由GPS提供状态基准参考x之间的误差值
Figure BDA00019450172800001110
作为RBF神经网络的输出值,得到RBF神经网络训练数据。
步骤五:训练RBF神经网络;
利用步骤四收集的数据对RBF神经网络进行训练,得到基函数的中心和方差以及隐含层与输出层间的连接权值。
用RBF作为隐单元的“基”构成隐含层空间,确定基函数的中心和方差,将输入向量直接映射到隐含层空间。RBF神经网络的基函数为高斯函数,因此基函数方差σj可由下式求解:
Figure BDA00019450172800001111
其中,m为径向基函数中心的个数,j(j=1,2,…,m)为隐含层的第j个节点;cmax为所选取中心的最大距离。
径向基神经网络的第k个输出为:
Figure BDA0001945017280000121
其中,X=(x1x2…xp)T为当前输入样本的p个输入;cj为网络隐含层节点的中心;wjk为隐含层第j个节点到输出层第k个节点的连接权值;yk为与输出样本对应网络的第k个输出节点的实际输出。
隐含层至输出层之间神经元的连接权值可以用最小二乘法直接计算得到,即:
Figure BDA0001945017280000122
步骤六:基准信号中断,停止训练RBF神经网络,继续进行CKF协同定位估计;
当基准信号中断时,停止RBF神经网络训练,与步骤三CKF滤波算法相同,通过CKF进行多AUV协同定位估计,得到基准信号中断时的滤波新息
Figure BDA0001945017280000123
预测误差
Figure BDA0001945017280000124
滤波增益Kk+1及滤波状态估计更新值
Figure BDA0001945017280000125
步骤七:估计CKF协同定位滤波误差;
基准信号中断后,将步骤六CKF输出的滤波新息
Figure BDA0001945017280000126
预测误差
Figure BDA0001945017280000127
和滤波增益Kk+1带入步骤五训练完成后的RBF神经网络的输入层,得到滤波误差
Figure BDA0001945017280000128
步骤八:补偿步骤六的滤波状态更新估计值;
将神经网络输出的估计滤波误差
Figure BDA0001945017280000129
与滤波估计值
Figure BDA00019450172800001210
相加,则可以得到新的更为准确的状态估计值。
在实际的多AUV协同定位中,由于建立的状态空间模型不够准确,多AUV协同系统的定位性能会受系统输入误差及外部量测误差影响,这些影响因素能够导致滤波算法精度下降甚至快速发散。CKF滤波算法的状态更新估计值与准确状态之间的误差值反映了滤波算法性能的好坏,若能估计出滤波误差值补偿状态更新的滤波估计值,那么便能直接提高CKF滤波算法精度。本发明在非线性滤波CKF的基础上引入RBF神经网络对CKF滤波估计值进一步修正,可有效提高CKF滤波的估计精度及稳定性。

Claims (1)

1.基于RBF神经网络辅助容积卡尔曼滤波的多AUV协同定位方法,其特征在于,包括以下步骤:
步骤1:获取跟随AUV在tk时刻通过水声通信得到的相对观测信息,即领航AUV在tk时刻的位置信息
Figure FDA0003040666270000011
领航AUV与跟随AUV之间相对距离量测信息Zk;根据跟随AUV在tk时刻的位置向量(xk,yk,zk)和传感器输入uk=[Vk θk]T,建立多AUV协同定位系统的离散时间状态空间模型,状态方程和量测方程分别如下:
Figure FDA0003040666270000012
其中,状态函数
Figure FDA0003040666270000013
xk和yk分别为跟随AUV在tk时刻的东向和北向位置;δt为航位推算时间;Vk为跟随AUV的在tk时刻的前向速度,θk为跟随AUV的在tk时刻的航向角;vk为具有零均值且相互独立的Gauss白噪声;量测函数
Figure FDA0003040666270000014
wk=[wx,k,wy,k]T为过程噪声向量,wx,k和wy,k为零均值且相互独立的Gauss白噪声;
步骤2:创建一个RBF神经网络,在基准参考位置能够使用时,通过CKF滤波算法进行多AUV协同定位估计;
步骤2.1:通过Cholesky将状态误差协方差Pk|k分解为如下形式:
Figure FDA0003040666270000015
步骤2.2:计算Cubature点:
Figure FDA0003040666270000016
其中,n为状态方程维数;ξi为生成的容积点,
Figure FDA0003040666270000017
[1]i为容积点集中的第i个容积点,容积点集为:
Figure FDA0003040666270000018
步骤2.3:通过系统状态的转移矩阵函数传递Cubature点:
Xi,k+1|k=f(Xi,k|k,uk)
步骤2.4:通过加权求和计算tk+1时刻的状态预测值;
Figure FDA0003040666270000021
步骤2.5:计算tk+1时刻的状态误差协方差预测值:
Figure FDA0003040666270000022
其中,Qk为已知的系统噪声协方差阵,
Figure FDA0003040666270000023
步骤2.6:通过Cholesky将状态误差协方差预测值Pk+1|k分解为如下形式:
Figure FDA0003040666270000024
步骤2.7:计算Cubature点:
Figure FDA0003040666270000025
步骤2.8:通过系统的量测函数传递Cubature点:
Figure FDA0003040666270000026
步骤2.9:通过加权求和计算tk+1时刻的观测预测值;
Figure FDA0003040666270000027
步骤2.10:计算tk+1时刻的量测误差协方差预测值:
Figure FDA0003040666270000028
其中,Rk+1为已知的量测噪声协方差阵,
Figure FDA0003040666270000029
vk+1=[vk+1]T
步骤2.11:计算互协方差矩阵:
Figure FDA00030406662700000210
步骤2.12:估计卡尔曼滤波增益:
Figure FDA00030406662700000211
步骤2.13:利用状态更新和协方差更新过程,获得tk+1时刻的状态更新估计值
Figure FDA00030406662700000212
和状态估计误差协方差矩阵Pk+1|k+1,即:
Figure FDA0003040666270000031
Figure FDA0003040666270000032
步骤3:将滤波新息
Figure FDA0003040666270000033
预测误差
Figure FDA0003040666270000034
和滤波增益Kk+1作为RBF神经网络输入层的输入,将对应CKF滤波算法的状态更新估计值
Figure FDA0003040666270000035
与由GPS提供状态基准参考x之间的误差值
Figure FDA0003040666270000036
作为RBF神经网络的输出值,得到RBF神经网络训练数据;
步骤4:利用RBF神经网络训练数据对RBF神经网络进行训练,得到基函数的中心和方差以及隐含层与输出层间的连接权值;当基准信号中断时,停止RBF神经网络训练;
用RBF作为隐单元的“基”构成隐含层空间,确定基函数的中心和方差,将输入向量直接映射到隐含层空间;RBF神经网络的基函数为高斯函数,因此基函数方差σj可由下式求解:
Figure FDA0003040666270000037
其中,b为径向基函数中心的个数,j为隐含层的第j个节点;cmax为所选取中心的最大距离;
RBF神经网络的第s个输出为:
Figure FDA0003040666270000038
其中,X=(x1 x2 ... xp)T为当前输入样本的p个输入;cj为网络隐含层节点的中心;wjs为隐含层第j个节点到输出层第s个节点的连接权值;Os为与输出样本对应网络的第s个输出节点的实际输出;
隐含层至输出层之间神经元的连接权值用最小二乘法直接计算得到,即:
Figure FDA0003040666270000039
步骤5:通过CKF滤波算法进行多AUV协同定位估计,得到基准信号中断时的滤波新息
Figure FDA00030406662700000310
预测误差
Figure FDA00030406662700000311
滤波增益Kk+1及滤波状态估计更新值
Figure FDA00030406662700000312
步骤6:将步骤5输出的基准信号中断时的滤波新息
Figure FDA00030406662700000313
预测误差
Figure FDA00030406662700000314
滤波增益Kk+1带入训练完成后的RBF神经网络的输入层,得到滤波误差
Figure FDA0003040666270000041
将滤波误差
Figure FDA0003040666270000042
与步骤5输出的滤波状态估计更新值
Figure FDA0003040666270000043
相加,得到新的更为准确的状态估计值。
CN201910033350.0A 2019-01-14 2019-01-14 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法 Active CN109459040B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910033350.0A CN109459040B (zh) 2019-01-14 2019-01-14 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910033350.0A CN109459040B (zh) 2019-01-14 2019-01-14 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法

Publications (2)

Publication Number Publication Date
CN109459040A CN109459040A (zh) 2019-03-12
CN109459040B true CN109459040B (zh) 2021-06-18

Family

ID=65616457

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910033350.0A Active CN109459040B (zh) 2019-01-14 2019-01-14 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法

Country Status (1)

Country Link
CN (1) CN109459040B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110109162B (zh) * 2019-03-26 2021-06-11 西安开阳微电子有限公司 一种gnss接收机自适应的卡尔曼滤波定位解算方法
CN110057383B (zh) * 2019-05-05 2023-01-03 哈尔滨工程大学 一种auv推位导航系统杆臂误差标校方法
CN110225454B (zh) * 2019-06-26 2020-12-18 河南大学 一种置信度传递的分布式容积卡尔曼滤波协作定位方法
CN110346821B (zh) * 2019-07-17 2022-11-29 贵州理工学院 一种解决gps长时间失锁问题的sins/gps组合定姿定位方法及系统
CN110412994B (zh) * 2019-07-24 2021-12-21 武汉大学 一种微型水下机器人运载水听器自主编队系统及控制方法
CN110865403B (zh) * 2019-10-18 2024-03-05 尚元智行(宁波)科技有限公司 一种基于神经网络预学习和轮式里程计融合的定位方法
CN110906933B (zh) * 2019-11-06 2021-10-22 中国海洋大学 一种基于深度神经网络的auv辅助导航方法
CN111294731B (zh) * 2020-01-16 2020-12-01 珠海格力电器股份有限公司 Uwb室内定位方法、装置、电子设备及存储介质
CN111998854B (zh) * 2020-08-31 2022-04-15 郑州轻工业大学 基于Cholesky分解计算的精确扩展Stirling插值滤波方法
CN112068440B (zh) * 2020-09-18 2022-12-02 江苏科技大学 基于模型预测控制的auv回收对接动力定位控制方法
CN112818819B (zh) * 2021-01-28 2022-08-26 青岛澎湃海洋探索技术有限公司 一种基于动态模型和复杂网络理论的auv状态监测方法
CN113608169B (zh) * 2021-05-20 2023-08-25 济南大学 一种基于序贯融合算法的多auv协同定位方法
CN113324546B (zh) * 2021-05-24 2022-12-13 哈尔滨工程大学 罗经失效下的多潜航器协同定位自适应调节鲁棒滤波方法
CN113359809B (zh) * 2021-07-23 2022-11-11 西北工业大学 一种基于rbfnn辅助的桥梁检测无人机自主定位方法
CN113447019B (zh) * 2021-08-05 2023-01-13 齐鲁工业大学 Ins/cns组合导航方法、系统、存储介质及设备
CN113466908A (zh) * 2021-08-21 2021-10-01 深圳市电咖测控科技有限公司 一种gnss定位精度增强方法
CN113743586B (zh) * 2021-09-07 2024-04-26 中国人民解放军空军工程大学 一种基于海马空间认知机理的运行体自主定位方法
CN114370878B (zh) * 2022-01-04 2023-10-27 江苏科技大学 一种基于stackf的多auv协同定位方法
CN116380714B (zh) * 2023-03-15 2023-09-22 中国科学院地理科学与资源研究所 一种水样含沙量测量装置及使用其的测量方法
CN116680500B (zh) * 2023-06-12 2024-03-22 哈尔滨工程大学 水下航行器在非高斯噪声干扰下的位置估计方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045490A (zh) * 2017-05-09 2017-08-15 衢州学院 一种非线性系统的状态估计方法
CN107436411A (zh) * 2017-07-28 2017-12-05 南京航空航天大学 基于分数阶神经网络和双容积卡尔曼的电池soh在线估计方法
CN108761340A (zh) * 2018-05-31 2018-11-06 天津工业大学 基于噪声干扰的强跟踪容积卡尔曼滤波的电池估算方法
CN109084767A (zh) * 2018-06-15 2018-12-25 哈尔滨工程大学 一种最大互相关熵自适应容积粒子滤波的auv协同导航方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045490A (zh) * 2017-05-09 2017-08-15 衢州学院 一种非线性系统的状态估计方法
CN107436411A (zh) * 2017-07-28 2017-12-05 南京航空航天大学 基于分数阶神经网络和双容积卡尔曼的电池soh在线估计方法
CN108761340A (zh) * 2018-05-31 2018-11-06 天津工业大学 基于噪声干扰的强跟踪容积卡尔曼滤波的电池估算方法
CN109084767A (zh) * 2018-06-15 2018-12-25 哈尔滨工程大学 一种最大互相关熵自适应容积粒子滤波的auv协同导航方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于容积卡尔曼滤波的神经网络训练算法;胡振涛等;《控制与决策》;20160229;第31卷(第2期);第355-360页 *
磁光传感神经网络卡尔曼滤波融合的微间隙焊缝识别算法硏究;陈余泉;《中国博士学位论文全文数据库 工程科技I辑》;20170315(第3期);第5.4节 *

Also Published As

Publication number Publication date
CN109459040A (zh) 2019-03-12

Similar Documents

Publication Publication Date Title
CN109459040B (zh) 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法
CN109974706B (zh) 一种基于双运动模型的主从式多auv协同导航方法
Shen et al. Observability analysis and adaptive information fusion for integrated navigation of unmanned ground vehicles
CN111189441B (zh) 一种多源自适应容错联邦滤波组合导航系统及导航方法
Loebis et al. Adaptive tuning of a Kalman filter via fuzzy logic for an intelligent AUV navigation system
CN110823217A (zh) 一种基于自适应联邦强跟踪滤波的组合导航容错方法
CN110779518B (zh) 一种具有全局收敛性的水下航行器单信标定位方法
CN110794409B (zh) 一种可估计未知有效声速的水下单信标定位方法
Xu et al. Cooperative localization in harsh underwater environment based on the MC-ANFIS
CN110779519B (zh) 一种具有全局收敛性的水下航行器单信标定位方法
CN110749891B (zh) 一种可估计未知有效声速的自适应水下单信标定位方法
CN103776453A (zh) 一种多模型水下航行器组合导航滤波方法
CN113433553B (zh) 一种水下机器人多源声学信息融合精确导航方法
Zhang et al. NavNet: AUV navigation through deep sequential learning
CN110954132A (zh) Grnn辅助自适应卡尔曼滤波进行导航故障识别的方法
Xu et al. A novel measurement information anomaly detection method for cooperative localization
Wang et al. Single beacon based localization of AUVs using moving horizon estimation
CN113325452A (zh) 一种三星无源融合定位体制机动目标跟踪方法
Xu et al. Accurate two-step filtering for AUV navigation in large deep-sea environment
Zhang et al. An integrated navigation method for small-sized AUV in shallow-sea applications
Wang et al. Novel cooperative navigation method for multi-AUVs based on optimal weight distribution method
Zhao et al. A single beacon-aided cooperative localization algorithm based on maximum correntropy criterion
Zhang et al. Improved salp swarm algorithm for the calibration of the underwater transponder
CN113654565A (zh) 一种基于信息熵的多领航auv协同导航方法
CN115046554A (zh) 一种基于马氏距离与神经网络辅助的auv协同定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant