CN117591990A - 互相关观测噪声下数据驱动的多传感器航迹融合方法 - Google Patents

互相关观测噪声下数据驱动的多传感器航迹融合方法 Download PDF

Info

Publication number
CN117591990A
CN117591990A CN202311488323.5A CN202311488323A CN117591990A CN 117591990 A CN117591990 A CN 117591990A CN 202311488323 A CN202311488323 A CN 202311488323A CN 117591990 A CN117591990 A CN 117591990A
Authority
CN
China
Prior art keywords
time
information
state
expressed
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311488323.5A
Other languages
English (en)
Inventor
沈晓静
王明
张美�
刘海琪
孟凡钦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202311488323.5A priority Critical patent/CN117591990A/zh
Publication of CN117591990A publication Critical patent/CN117591990A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种互相关观测噪声下数据驱动的多传感器航迹融合方法;在多传感器航迹融合方法中,研究了状态估计受互相关观测噪声影响的分布式信息融合问题;通过使用数据模型双驱动的架构,本发明不仅可以获得更高精度的状态估计值而且具有可解释性;对于数据驱动中神经网络的构建,采用了循环神经网络GRU从数据中学习观测噪声间的相关不确定性,该算法中网络的训练具有快收敛易训练的特性;对于模型驱动中融合框架的选择,使用了计算和通信成本更少的分布式信息融合框架,使得本发明具有高效性和实用性;数值分析表明所提出的数据驱动的分布式信息融合方法能够将观测噪声中的相关不确定性准确地估计,获得更精确的状态估计值。

Description

互相关观测噪声下数据驱动的多传感器航迹融合方法
技术领域
本发明涉及信息融合技术领域,具体为一种互相关观测噪声下数据驱动的多传感器航迹融合方法。
背景技术
多传感器航迹融合方法被广泛应用于目标跟踪、航空航天和自动驾驶等领域,能够利用多个传感器的观测信息,融合获得更高精度且更可靠的系统状态的估计值。多传感器融合方法通常有中心式融合和分布式融合两种融合框架,在中心式融合框架下传感器需要将观测信息传输给融合中心,融合中心利用扩展后的观测信息进行全局最优估计,在分布式融合框架下传感器需要根据本地观测信息进行估计,然后将本地估计传输给融合中心,融合中心利用本地估计给出最优或次优估计。与中心式融合相比,分布式融合具有更低的通信开销和计算开销,更灵活可靠,更适用于大规模传感器网络系统,因此分布式融合在工程领域有着更广泛的应用。
在复杂的实际应用场景中,传感器网络中的观测噪声通常是非独立或互相关的,无论是中心式融合还是分布式融合框架,最终融合的精度通常都会受传感器网络中观测噪声的相关不确定性影响。技术难点在于传感器网络中的观测噪声相关不确定性难以获得或者不能准确地估计,直接影响多传感器航迹融合方法的性能,难以满足状态估计等方面的迫切需求。
分布式信息融合方法由于其在计算和通信开销上具有明显的优势而被广泛地使用,这一方法的关键是对传感器网络中观测噪声的相关不确定性的处理,目前分布式信息融合方法在多传感器融合时往往需要计算它们的互协方差,然而互协方差矩阵的计算可能是复杂和困难的,甚至在许多实际应用中是不可能的,因此Uhlmann等人提出了协方差交叉融合(CI)方法,该方法不需要计算互协方差,所以可以有效地解决互协方差未知的系统的融合问题,但是这种方法往往导致高度保守的估计,即估计的协方差椭球可能远远大于实际协方差椭球。
由于人工神经网络方法的优秀逼近性能,越来越多传统的基于模型的方法在数据驱动的方式下性能得到了大幅提升,但是对于传感器网络间的噪声相关不确定性问题,分布式信息融合方向还没有基于数据驱动的改进方法。因此,考虑基于数据驱动的多传感器航迹融合方法,以此来估计传感器网络中噪声相关不确定性从而改善融合精度是非常有必要的。
发明内容
针对上述问题,本发明的目的在于提供一种互相关观测噪声下数据驱动的多传感器航迹融合方法,能够通过学习带标签的数据集从而隐式地学习传感器网络中的噪声相关不确定性,进而获得更高精度的融合结果。技术方案如下:
一种互相关观测噪声下数据驱动的多传感器航迹融合方法,包括训练步骤,即从数据集中学习噪声相关不确定性,具体过程如下:
步骤1:初始化状态空间模型,包括状态转移矩阵Fk、观测矩阵过程噪声协方差矩阵Qk、观测噪声协方差矩阵/>数据集/>初始状态x0和初始协方差矩阵P0
其中,数据集由N个传感器的L条观测轨迹和L条目标运动真实轨迹构成,每条轨迹的长度为Tl,数据集/>具体形式为/>真实轨迹传感器观测轨迹/>
步骤2:对于训练回合epoch=0到NE,执行以下步骤:
步骤3:从数据集中随机抽取B条轨迹组成小批量样本,满足B<L,表示为:
其中,Mini-Batch为小批量样本数据集;
步骤4:对每条轨迹l=1到B,执行以下步骤:
步骤4.1:对轨迹l中的每个时刻k,且k=1到Tl,执行以下步骤:
步骤4.1.1:融合中心根据k时刻的状态定界椭球、状态转移方程和过程噪声信息,预报k+1时刻的信息状态向量和信息矩阵Yk+1|k;详细步骤如下:
k时刻的状态定界椭球表示为:
其中,表示k时刻状态定界椭球的中心点,同时表示k时刻的状态估计值,Pk|k表示k时刻状态定界椭球的形状矩阵;Ek为k时刻的期望算子;
k时刻的状态转移方程表示为:
其中,为k+1时刻的状态估计值,Fk为k时刻的状态转移矩阵;
k时刻的过程噪声信息表示为:随机变量过程噪声vk属于椭球集中;其中,0表示椭球的中心点,Qk表示椭球的形状矩阵;
k时刻中预报的k+1时刻的信息状态向量表示为:
其中,Pk+1|k表示k+1时刻形状矩阵预报值,具体形式为:
k时刻中预报的k+1时刻的信息矩阵Yk+1|k表示为:
步骤4.1.2:N个传感器根据k时刻的观测信息计算k时刻中本地状态误差信息/>和本地协方差信息/>并将其传输给融合中心;
k时刻中的本地状态误差信息表示为:
其中,表示第j个传感器的观测矩阵;/>表示第j个传感器观测噪声/>的椭球形状矩阵;对于i≠j,/>和/>在时间戳k上是互相关的;
k时刻中的本地状态误差信息表示为:
步骤4.1.3:融合中心根据k时刻传感器传输的本地状态误差信息和本地协方差信息/>计算融合权重/>k时刻中融合权重表示为:
其中,RNN表示循环神经网络,Θ是网络参数;本地状态误差信息和本地协方差信息/>作为循环神经网络的输入;融合权重/>为循环神经网络的输出;
步骤4.1.4:融合中心根据k时刻的预报信息状态向量预报信息矩阵Yk+1|k和融合权重/>更新k+1时刻状态向量/>和形状矩阵Pk+1|k+1
k时刻中更新的形状矩阵Pk+1|k+1表示为:
k时刻中更新的状态向量表示为:
步骤5:更新时刻参数k=k+1,返回步骤4.1;
步骤6:更新轨迹参数l=l+1,返回步骤4;
步骤7:根据B条长度为Tl的估计轨迹和B条长度为Tl的真实轨迹计算误差误差表示为:
其中,Θ为网络参数,γ为正则项系数;表示L2范数的平方;
步骤8:根据所述步骤7中计算的误差对网络参数Θ进行更新;更新方式为梯度下降方法,具体形式为:
其中,αΘ为梯度下降步长,ΔΘ为关于网络参数Θ的微分算子;
步骤9:更新训练回合参数epoch=epoch+1,返回步骤2。
进一步的,还包括测试步骤,即利用训练后的网络进行多传感器航迹融合,具体过程为:
步骤a:初始化状态空间模型,包括状态转移矩阵Fk、观测矩阵过程噪声协方差矩阵Qk、观测噪声协方差矩阵/>数据集/>初始状态x0和初始协方差矩阵P0
步骤b:对于每个时刻k,执行所述步骤4.1.1-步骤4.1.4的操作;
步骤c:更新时刻参数k=k+1,返回步骤b,直到k=Tl
更进一步的,所述步骤4.1.3中,循环神经网络执行步骤具体如下:
在k时刻,融合中心将N个传感器传输的本地状态误差信息和本地协方差信息/>拉伸成向量并进行拼接,作为循环神经网络的输入,经过一层全连接层,将输入信息映射到高维变量;高维变量和上一时刻的隐层输出hk-1作为门控循环单元的输入;然后经过重置门、更新门和复合门输出隐层变量hk;最后将隐层变量hk经过全连接层,线性变换输出融合权重/>
重置门计算公式表示为:
rk=σ(Wrxk+Urhk-1+br)
重置门由全连接层输出的高维变量xk和上一时刻的隐层输出hk-1作为输入,Wr、Ur和br为重置门参数;σ(·)为Sigmoid激活函数;
更新门计算公式表示为:
zk=σ(Wzxk+Uzhk-1+br)
更新门由全连接层输出的高维变量xk和上一时刻的隐层输出hk-1作为输入,Wz、Uz和bz为更新门参数;
复合门计算公式表示为:
hk=zk·hk-1+(1-zk)tanh(Wcxk,Uc(rk·hk-1))
复合门由全连接层输出的高维变量xk、上一时刻的隐层输出hk-1、重置门输出rk和更新门zk作为输入,Wc和Uc为复合门参数。
本发明的有益效果是:
1)本发明是首个在互相关观测噪声下数据模型双驱动进行多传感器航迹融合的方法,具有高精度和可解释性,为分布式信息融合中噪声相关不确定性提供了新的解决思路。
2)本发明利用了循环神经网络数据流的特性,使得观测矩阵和噪声的相关不确定性Rk的知识随着时间可以被动态更新,因此融合精度会得到进一步提升。
3)实际上,当传感器网络跟踪模式给定时,融合权重本质上是一个定值,因此本发明中网络训练的难度显著降低,只需要少量的训练回合即可使得训练误差/>收敛。
附图说明
图1为本发明中在互相关观测噪声下数据驱动的多传感器航迹融合方法的训练流程图。
图2为本发明中信息融合数据流结构图。
图3为本发明中循环神经网络GRU的物理结构图。
图4为本发明实施例子中位置均方根误差(RMSE)对比图。
图5为本发明实施例子中速度均方根误差(RMSE)对比图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细说明。
如图1所示,本发明在互相关观测噪声下数据驱动的多传感器航迹融合方法的训练流程图,方法步骤具体如下:
步骤1:初始化状态空间模型,包括状态转移矩阵Fk,观测矩阵过程噪声协方差矩阵Qk,观测噪声协方差矩阵/>数据集/>初始状态x0,初始协方差矩阵P0
其中,数据集由N个传感器的L条观测轨迹和L条目标运动真实轨迹构成,每条轨迹的长度为Tl,数据集/>具体形式为/>真实轨迹传感器观测轨迹/>
步骤2:对于训练回合epoch=0到NE
详细步骤如下:
步骤3:从数据集中随机抽取B条轨迹组成小批量样本数据集,满足B<L,表示为:
步骤4:对每条轨迹l=1到B,执行以下步骤:
步骤4.1:对轨迹l中的每个时刻k=1到Tl,执行以下步骤:
步骤4.1.1:融合中心根据k时刻的状态定界椭球、状态转移方程和过程噪声信息预报k+1时刻的信息状态向量和信息矩阵Yk+1|k;详细步骤如下:
k时刻的状态定界椭球表示为:
其中,表示k时刻状态定界椭球的中心点,同时表示k时刻的状态估计值,Pk|k表示k时刻状态定界椭球的形状矩阵;Ek为k时刻的期望算子。
k时刻的状态转移方程表示为:
其中,为k+1时刻的状态估计值,Fk为k时刻的状态转移矩阵。
k时刻的过程噪声信息表示为:随机变量过程噪声vk属于椭球集中;0表示椭球的中心点,Qk表示椭球的形状矩阵。
k时刻中预报的信息状态向量表示为:
其中,Pk+1|k表示k+1时刻形状矩阵预报值,具体形式为:
k时刻中预报的信息矩阵Yk+1|k表示为:
步骤4.1.2:N个传感器根据k时刻的观测信息计算本地状态误差信息/>和本地协方差信息/>并将/>和/>传输给融合中心。
k时刻中的本地状态误差信息表示为:
其中,表示第j个传感器的观测矩阵;/>表示第j个传感器观测噪声/>的椭球形状矩阵;对于i≠j,/>和/>在时间戳k上是互相关的。
所述k时刻中的本地状态误差信息表示为:
步骤4.1.3:融合中心根据k时刻传感器传输的本地状态误差信息和本地协方差信息/>计算融合权重/>
所述k时刻中融合权重表示为:
RNN表示循环神经网络,Θ是网络参数;为循环神经网络的输入;/>为循环神经网络的输出;
步骤4.1.4:融合中心根据k时刻的预报信息状态向量预报信息矩阵Yk+1|k和融合权重/>更新k+1时刻状态向量/>形状矩阵Pk+1|k+1
所述k时刻中更新的形状矩阵Pk+1|k+1表示为:
所述k时刻中更新的状态向量表示为:
步骤5:更新时刻参数k=k+1,返回步骤4.1。
步骤6:更新轨迹参数l=l+1,返回步骤4。
步骤7:根据B条长度为Tl的估计轨迹和B条长度为Tl的真实轨迹计算误差误差表示为:
误差由均方误差MSE和正则项构成,正则项是为了避免网络参数过于复杂从而出现过拟合的现象;γ为正则项系数;表示L2范数的平方。
步骤8:根据所述步骤7中计算的误差对网络参数Θ进行更新;更新方式为梯度下降方法,具体形式为:
其中,αΘ为梯度下降步长,ΔΘ为关于网络参数Θ的微分算子。
步骤9:更新训练回合参数epoch=epoch+1,返回步骤2。
如图2所示,本发明在互相关观测噪声下数据驱动的多传感器航迹融合方法的信息融合数据流结构图,方法步骤具体如下:初始化状态空间模型后,对于每个时刻k,且k=1到Tl
如图3所示,本发明在互相关观测噪声下数据驱动的多传感器航迹融合方法的循环神经网络GRU(Gate Recurrent Unit门控循环单元)物理结构图,方法步骤具体如下:
在k时刻,融合中心将N个传感器传输的拉伸成向量并进行拼接,作为网络的输入,经过一层全连接层,将输入信息映射到高维变量;高维变量和上一时刻的隐层输出hk-1作为GRU的输入;然后经过重置门、更新门、复合门输出隐层变量hk;最后将hk经过全连接层,线性变换输出融合权重/>
重置门计算公式表示为:
rk=σ(Wrxk+Urhk-1+br)
由全连接层输出的高维变量xk和上一时刻的隐层输出hk-1作为输入,Wr、Ur和br为重置门参数;σ(·)为Sigmoid激活函数。
更新门计算公式表示为:
zk=σ(Wzxk+Uzhk-1+br)
由全连接层输出的高维变量xk和上一时刻的隐层输出hk-1作为输入,Wz、Uz和bz为更新门参数。
复合门计算公式表示为:
hk=zk·hk-1+(1-zk)tanh(Wcxk,Uc(rk·hk-1))
由全连接层输出的高维变量xk、上一时刻的隐层输出hk-1、重置门输出rk和更新门zk作为输入,Wc和Uc为复合门参数。
本实施例具体描述本发明在互相关观测噪声下数据驱动的多传感器航迹融合方法用于分析目标跟踪场景下状态估计准确度的比较,采用目标跟踪场景下的状态估计模型对比本发明方法与精确分布式信息滤波(参数完全已知)和非精确分布式信息滤波(参数部分已知)方法进行了模拟试验。状态估计值均方根误差(RMSE)和作为滤波器估计效果的指标。
具体来说:考虑两个传感器,一个融合中心的情形;考虑笛卡尔坐标系下匀速直线运动(CV)模型,系统状态分别表示k时刻目标的位置分量和速度分量,观测信息zk=[x,y]T表示目标的位置分量。状态转移函数和观测函数分别表示为:
其中,过程噪声和观测噪声所属椭球的形状矩阵分别为:
其中,T=1表示采样周期,q=1。
互相关观测噪声的协方差矩阵为:
初始状态x0=[x,0,y,0],其中[x,y]~N(0,diag(1002,1002)),初始协方差矩阵P0=104·diag(1,1,1,1)。
与本发明对比的信息融合方法为精确分布式信息滤波和非精确分布式信息滤波(参数部分已知)方法;其中精确分布式信息滤波已知以上所有参数;非精确分布式信息滤波中,过程噪声协方差矩阵不精确,参数q=5,观测噪声协方差矩阵不精确,假定两个传感器的观测噪声相互独立,使用协方差矩阵
本发明数据驱动对应的数据集由260条长度为100的轨迹构成,其中训练集轨迹为200条,交叉验证集轨迹条数为20条,测试集轨迹条数为40条。
效果分析:仿真结果如下:
图4是位置均方根误差图与时刻关系图,图5是速度均方根误差图与时刻关系图。图4和图5是在上述仿真例子中使用本发明提出的方法(信息网络)和精确分布式信息滤波以及非精确分布式信息滤波的误差对比图。图4和图5表明在互相关噪声中使用本发明提出的方法(信息网络)误差几乎逼近精确分布式信息滤波的误差,并且远远优于非精确分布式信息滤波的误差。可以看出,使用本发明方法(信息网络)提供的信息融合方法在互相关观测噪声的多传感器航迹融合中可以获得更精确的目标状态估计值,具有更好的性能。

Claims (3)

1.一种互相关观测噪声下数据驱动的多传感器航迹融合方法,其特征在于,包括训练步骤,即从数据集中学习噪声相关不确定性,具体过程如下:
步骤1:初始化状态空间模型,包括状态转移矩阵Fk、观测矩阵过程噪声协方差矩阵Qk、观测噪声协方差矩阵/>数据集/>初始状态x0和初始协方差矩阵P0
其中,数据集由N个传感器的L条观测轨迹和L条目标运动真实轨迹构成,每条轨迹的长度为Tl,数据集/>具体形式为/>真实轨迹传感器观测轨迹/>
步骤2:对于训练回合epoch=0到NE,执行以下步骤:
步骤3:从数据集中随机抽取B条轨迹组成小批量样本,满足B<L,表示为:
其中,Mini-Batch为小批量样本数据集;
步骤4:对每条轨迹l=1到B,执行以下步骤:
步骤4.1:对轨迹l中的每个时刻k,且k=1到Tl,执行以下步骤:
步骤4.1.1:融合中心根据k时刻的状态定界椭球、状态转移方程和过程噪声信息,预报k+1时刻的信息状态向量和信息矩阵Yk+1|k;详细步骤如下:
k时刻的状态定界椭球表示为:
其中,表示k时刻状态定界椭球的中心点,同时表示k时刻的状态估计值,Pk|k表示k时刻状态定界椭球的形状矩阵;Ek为k时刻的期望算子;
k时刻的状态转移方程表示为:
其中,为k+1时刻的状态估计值,Fk为k时刻的状态转移矩阵;
k时刻的过程噪声信息表示为:随机变量过程噪声vk属于椭球集中;其中,0表示椭球的中心点,Qk表示椭球的形状矩阵;
k时刻中预报的k+1时刻的信息状态向量表示为:
其中,Pk+1|k表示k+1时刻形状矩阵预报值,具体形式为:
k时刻中预报的k+1时刻的信息矩阵Yk+1|k表示为:
步骤4.1.2:N个传感器根据k时刻的观测信息计算k时刻中本地状态误差信息/>和本地协方差信息/>并将其传输给融合中心;
k时刻中的本地状态误差信息表示为:
其中,表示第j个传感器的观测矩阵;/>表示第j个传感器观测噪声/>的椭球形状矩阵;对于i≠j,/>和/>在时间戳k上是互相关的;
k时刻中的本地状态误差信息表示为:
步骤4.1.3:融合中心根据k时刻传感器传输的本地状态误差信息和本地协方差信息计算融合权重/>k时刻中融合权重表示为:
其中,RNN表示循环神经网络;本地状态误差信息和本地协方差信息/>作为循环神经网络的输入;融合权重/>为循环神经网络的输出;
步骤4.1.4:融合中心根据k时刻的预报信息状态向量预报信息矩阵Yk+1|k和融合权重/>更新k+1时刻状态向量/>和形状矩阵Pk+1|k+1
k时刻中更新的形状矩阵Pk+1|k+1表示为:
k时刻中更新的状态向量表示为:
步骤5:更新时刻参数k=k+1,返回步骤4.1;
步骤6:更新轨迹参数l=l+1,返回步骤4;
步骤7:根据B条长度为Tl的估计轨迹和B条长度为Tl的真实轨迹计算误差误差/>表示为:
其中,Θ为网络参数,γ为正则项系数;表示L2范数的平方;
步骤8:根据所述步骤7中计算的误差对网络参数Θ进行更新;更新方式为梯度下降方法,具体形式为:
其中,αΘ为梯度下降步长,ΔΘ为关于网络参数Θ的微分算子;
步骤9:更新训练回合参数epoch=epoch+1,返回步骤2。
2.根据权利要求1所述的互相关观测噪声下数据驱动的多传感器航迹融合方法,其特征在于,还包括测试步骤,即利用训练后的网络进行多传感器航迹融合,具体过程为:
步骤a:初始化状态空间模型,包括状态转移矩阵Fk、观测矩阵过程噪声协方差矩阵Qk、观测噪声协方差矩阵/>数据集/>初始状态x0和初始协方差矩阵P0
步骤b:对于每个时刻k,执行所述步骤4.1.1-步骤4.1.4的操作;
步骤c:更新时刻参数k=k+1,返回步骤b,直到k=Tl
3.根据权利要求1所述的互相关观测噪声下数据驱动的多传感器航迹融合方法,其特征在于,所述步骤4.1.3中,循环神经网络执行步骤具体如下:
在k时刻,融合中心将N个传感器传输的本地状态误差信息和本地协方差信息/>拉伸成向量并进行拼接,作为循环神经网络的输入,经过一层全连接层,将输入信息映射到高维变量;高维变量和上一时刻的隐层输出hk-1作为门控循环单元的输入;然后经过重置门、更新门和复合门输出隐层变量hk;最后将隐层变量kk经过全连接层,线性变换输出融合权重
重置门计算公式表示为:
rk=σ(Wrxk+Urhk-1+br)
重置门由全连接层输出的高维变量xk和上一时刻的隐层输出hk-1作为输入,Wr、Ur和br为重置门参数;σ(·)为Sigmoid激活函数;
更新门计算公式表示为:
zk=σ(Wzxk+Uzhk-1+br)
更新门由全连接层输出的高维变量xk和上一时刻的隐层输出hk-1作为输入,Wz、Uz和bz为更新门参数;
复合门计算公式表示为:
hk=zk·hk-1+(1-zk)tanh(Wcxk,Uc(rk·hk-1))
复合门由全连接层输出的高维变量xk、上一时刻的隐层输出hk-1、重置门输出rk和更新门zk作为输入,Wc和Uc为复合门参数。
CN202311488323.5A 2023-11-09 2023-11-09 互相关观测噪声下数据驱动的多传感器航迹融合方法 Pending CN117591990A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311488323.5A CN117591990A (zh) 2023-11-09 2023-11-09 互相关观测噪声下数据驱动的多传感器航迹融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311488323.5A CN117591990A (zh) 2023-11-09 2023-11-09 互相关观测噪声下数据驱动的多传感器航迹融合方法

Publications (1)

Publication Number Publication Date
CN117591990A true CN117591990A (zh) 2024-02-23

Family

ID=89915881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311488323.5A Pending CN117591990A (zh) 2023-11-09 2023-11-09 互相关观测噪声下数据驱动的多传感器航迹融合方法

Country Status (1)

Country Link
CN (1) CN117591990A (zh)

Similar Documents

Publication Publication Date Title
CN108621159B (zh) 一种基于深度学习的机器人动力学建模方法
CN107677997B (zh) 基于GLMB滤波和Gibbs采样的扩展目标跟踪方法
CN112613532B (zh) 基于雷达与循环神经网络补全红外融合的动目标跟踪方法
CN110401978B (zh) 基于神经网络和粒子滤波多源融合的室内定位方法
CN113091768B (zh) 一种mimu整体动态智能标定补偿方法
CN108008099A (zh) 一种污染源定位方法
CN110705105B (zh) 一种机器人逆动力学模型的建模方法及系统
CN116519021B (zh) 一种惯性导航系统故障诊断方法、系统及设备
CN115600051B (zh) 基于短弧天基光学观测的轨道机动智能检测方法和装置
CN114819054A (zh) 一种基于物理信息神经网络的电力电子系统状态监测方法
CN105424043A (zh) 一种基于判断机动的运动状态估计方法
CN105894014B (zh) 基于多因素不一致度量的异常行为序贯检测方法
CN112269931B (zh) 数据驱动的群体智能交互关系推断与演化计算方法
CN113156473A (zh) 信息融合定位系统卫星信号环境的自适应判别方法
CN117034808A (zh) 一种基于图注意力网络的天然气管网压力估计方法
Chen et al. Learning trajectories for visual-inertial system calibration via model-based heuristic deep reinforcement learning
CN117591990A (zh) 互相关观测噪声下数据驱动的多传感器航迹融合方法
Chen et al. Particle swarm optimization neural network and its application in soft-sensing modeling
CN114339595B (zh) 一种基于多模型预测的超宽带动态反演定位方法
Götte et al. Composed physics-and data-driven system identification for non-autonomous systems in control engineering
Zhang et al. CafkNet: GNN-Empowered Forward Kinematic Modeling for Cable-Driven Parallel Robots
El-Fakdi et al. Autonomous underwater vehicle control using reinforcement learning policy search methods
Tang et al. Track-association algorithm based on fuzzy C-means clustering with PSO
CN114398819A (zh) 一种基于深度学习的非结构网格有效波高预测方法与系统
CN113379063A (zh) 基于在线增强学习模型的全流程任务时序智能决策方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination