CN112613532B - 基于雷达与循环神经网络补全红外融合的动目标跟踪方法 - Google Patents
基于雷达与循环神经网络补全红外融合的动目标跟踪方法 Download PDFInfo
- Publication number
- CN112613532B CN112613532B CN202011343192.8A CN202011343192A CN112613532B CN 112613532 B CN112613532 B CN 112613532B CN 202011343192 A CN202011343192 A CN 202011343192A CN 112613532 B CN112613532 B CN 112613532B
- Authority
- CN
- China
- Prior art keywords
- neural network
- layer
- model
- data
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 125000004122 cyclic group Chemical group 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 50
- 230000004927 fusion Effects 0.000 title claims abstract description 34
- 230000000295 complement effect Effects 0.000 title abstract description 8
- 238000003062 neural network model Methods 0.000 claims abstract description 80
- 238000012549 training Methods 0.000 claims abstract description 60
- 238000012360 testing method Methods 0.000 claims abstract description 27
- 238000001914 filtration Methods 0.000 claims abstract description 22
- 230000002452 interceptive effect Effects 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000005259 measurement Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 27
- 238000004088 simulation Methods 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 13
- 230000000306 recurrent effect Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000007476 Maximum Likelihood Methods 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000012546 transfer Methods 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims description 2
- 230000007123 defense Effects 0.000 abstract description 3
- 230000007547 defect Effects 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000001502 supplementing effect Effects 0.000 abstract 1
- 238000013144 data compression Methods 0.000 description 10
- 238000007499 fusion processing Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 230000003471 anti-radiation Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发公开了一种基于雷达与循环神经网络补全红外融合的动目标跟踪方法。其方案为:对同一目标、多种不同运动状态航迹的雷达数据进行预处理;利用预处理后数据分别对构建的第一、第二循环神经网络模型进行训练,分别确定出雷达数据的属性与时间的拟合关系,及雷达数据属性之间回归关系,对用训练后的两个循环神经网络模型级联而成的新的循环神经网络进行测试,当测试的正确性满足要求时,用该网络补全完红外数据的距离信息,融合补全后的红外数据和雷达数据的距离、方位角、俯仰角这三种信息,并进行交互式扩展卡尔曼滤波处理,完成目标的跟踪。本发明避免了红外数据缺少距离信息的缺陷,提高了目标跟踪的正确率,可用于防空、导航和交通管制。
Description
技术领域
本发明属于通信技术领域,特别涉及一种动目标跟踪方法,可用于防空、导航和交通管制。
背景技术
目标跟踪的基本概念是在50年代形成的,然而直至70年代初期,由于防空、导航和交通管制等航空航天领域的应用需要,目标跟踪理论才真正的引起人们的注意。之后,各种雷达、红外、声纳和激光等目标跟踪系统相继得到发展并且日渐完善。在军事和民用领域,实现可靠而精确的跟踪目标始终是目标跟踪系统设计的主要目的。为此,几十年来许多科学家和工程师一直致力于该项课题的研究。
所谓目标跟踪,就是为了维持对一个或多个目标当前状态的估计而对所接收到的传感器量测数据信息进行处理的过程。跟踪过程实质上是一个消除误差的处理过程,而误差主要来源于观测主体通过传感器观测到的客体运动状态与客体实际运动状态之间的噪声。目标跟踪是一个典型的不确定性问题,跟踪的不确定性主要来源于目标模型的不确定性、观测的不确定性及多目标密集回波环境造成的测量数据的模糊和不确定性等等。
作为一种主动传感器,雷达能够提供跟踪目标量测的完整状态信息,即距离、方位角、俯仰角,因此在目标搜索与跟踪等方面具有重要作用。由于受波束宽度的限制,雷达探测的测角精度普遍不高,特别是俯仰角度的测量精度较低.并且因为雷达在工作时要向空中辐射大功率电磁波,因而易遭受电子干扰和反辐射导弹的攻击。红外传感器通过接收目标辐射的热能进行探测,且无需辐射任何能量,因而具有较强的抗干扰能力,不易被侦察或定位。但是红外传感器也存在一些不足,它不能提供目标的距离信息,作用距离较近,并且受气候影响大。雷达高精度的距离测量和红外传感器高精度的角度测量可以信息互补.通过数据融合技术,给出对目标位置的精确估计,改善对目标的跟踪和识别。所以在大多数情况下,红外传感器与雷达配合使用,成为相互独立又彼此补充的探测跟踪手段。因此,将雷达信息和红外信息融合起来,是一种目标跟踪常用有效的方式。
李世忠等在IMM-EKF雷达与红外序贯滤波跟踪机动目标的文章中介绍了下的两种方法:
一种是雷达/红外数据压缩融合算法,它是基于角度合成的异类传感器航迹数据融合算法,其通过将角度的量测噪声方差近似为精度,并以精度作为权值对角度进行加权平均合成,再对时间对准之后进行同步融合得到融合航迹,但是在雷达/红外数据采样周期不同的情况下,会在数据融合过程中因时间对准而产生误差。
另一种是雷达/红外序贯融合算法,其在滤波过程中将雷达数据滤波之后的一步预测状态及其协方差矩阵作为红外的中间状态和协方差信息,再同红外的量测信息进行融合滤波实现对于目标的跟踪,该方法虽说避免了在雷达/红外数据采样周期不同的情况下,需要进行时间同步对准的问题,但是由于该方法是在滤波的过程中对于缺失距离属性的红外数据加以预测更新,实现雷达/红外数据融合,因此不可避免的产生了过程误差。
上述两种雷达/红外数融合算法产生的时间对准误差和过程误差,降低了目标跟踪的精度。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于雷达与循环神经网络补全红外融合的动目标跟踪方法,以避免雷达与红外数据融合中产生的上述误差,提高多传感器单目标跟踪的精度。
实现本发明目的技术方案包括如下步骤:
1、一种基于雷达与循环神经网络补全红外融合的动目标跟踪方法,其特征在于,包括如下:
(1)获取训练数据集和测试数据集;
(1a)模拟机动目标运动轨迹,生成目标的航迹数据信息,其中目标运动状态数目为3,分别为匀加速直线CA、匀速转弯CT、匀速直线CV三种运动状态模型;
(1b)设置仿真时间为160s,雷达传感器的采样周期为1s,红外传感器的采样周期置为0.1s,雷达传感器的测距噪声均方差为100m,测角均方差为1°,红外传感器的测角均方差为0.5°,用雷达传感器和红外传感器这两个平台对目标进行数据测量,获得的雷达量测数据包含距离、方位角和俯仰角,红外量测数据包含方位角和俯仰角;
(1c)从测量的数据中选取80%的雷达数据作为训练数据集,20%的雷达数据作为测试数据集;
(2)构建循环神经网络模型;
(2a)构建依次由输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层采用全连接的方式组成的第一循环神经网络模型,用于确定雷达量测数据的属性和时间之间拟合关系;
(2b)构建依次由输入层、第一隐藏层、第二隐藏层和输出层采用全连接的方式组成的第二循环神经网络模型,用于确定雷达量测数据属性之间回归关系;
(3)对第一循环神经网络模型进行训练;
(3a)确定第一循环神经网络模型训练的最大迭代次数N;
(3b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,表明所属的时间拟合函数;
(3c)将训练样本输入到第一循环神经网络模型中进行训练,采用正向传播算法,计算第一循环神经网模型中各层的输出;
(3d)采用反向传播算法,通过第一循环神经网络模型中各层的输出,对第一循环神经网络模型中各层节点的权值进行修正;
(3e)重复执行步骤(3b)-(3d),直到第一循环神经网络模型训练迭代次数为N时,保存修正后的第一循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第一循环神经网络模型;
(4)对第二循环神经网络模型进行训练;
(4a)确定第二循环神经网络模型训练的最大迭代次数N;
(4b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,即将第一神经网络的输出确定的数据属性之间的回归函数作为该标签;
(4c)将训练样本输入到第二循环神经网络模型中进行训练,采用正向传播算法,计算第二循环神经网模型中各层的输出;
(4d)重复步骤(4b)-(4c),直到第二循环神经网络模型训练迭代次数为N时,保存修正后的第二循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第二循环神经网络模型;
(4e)将训练好的第一循环神经网络模型和第二循环神经网络模型进行级联,构成新的循环神经网络;
(5)对新的循环神经网络进行测试;
(5a)从测试集中随机选取雷达数据,并将其作为输入测试样本;
(5b)向新的循环神经网络中输入测试样本,将测试样本经过新的循环神经网络输出结果与测试样本的标签进行对比,检测构建的新的循环神经网络的正确性:
如果新的循环神经网络的正确性不满足要求,则改变新的循环神经网络的激活函数,重新对新的循环神经网络里面的第一循环神经网络模型和第二循环神经网络模型加以训练,直到测试的新的循环神经网络的正确性满足要求,执行(6);
如果新的循环神经网络模型的正确性满足要求,执行(6);
(6)用新的循环神经网络对红外数据信息进行补全;
(6a)利用红外传感器平台对目标进行数据测量,获得红外数据的方位角和俯仰角;
(6b)将红外数据的方位角和俯仰角输入到新的循环神经网络中,补全红外数据缺失的距离信息;
(6c)将补全后的红外数据和雷达数据的距离、方位角、俯仰角这三种信息进行数据融合,再对融合之后的数据进行交互式扩展卡尔曼滤波处理,完成目标的跟踪。
本发明与现有技术相比,具有以下优点:
第一,本发明通过新的循环神经网络用雷达数据提取出的距离、方位角和俯仰角属性之间的回归关系来补全红外数据缺失的距离信息,避免了现有技术中直接使用缺失位置信息的红外数据来进行目标跟踪产生的误差,与现有技术相比,基于雷达与循环神经网络补全红外融合的动目标跟踪方法提高了目标跟踪的正确率;
第二,本发明通过构建的新的循环神经网络,解决了在雷达/红外数据采样周期不同的情况下,需要在雷达/红外数据融合过程中进行时间对准的问题,避免了数据压缩算法在数据融合过程中因时间对准而产生的误差,与现有技术相比,基于雷达与循环神经网络补全红外融合的动目标跟踪方法提高了目标跟踪的正确率;
第三,本发明通过构建的新的循环神经网络,实现了在滤波的过程之前对于缺失距离属性的红外量测数据加以预测更新,避免了序贯滤波算法在滤波的过程中对于缺失距离属性的红外数据加以预测更新而产生的过程误差,与现有技术相比,基于雷达与循环神经网络补全红外融合的动目标跟踪方法提高了目标跟踪的正确率。
附图说明
图1为本发明的实现总流程图;
图2为本发明中新的循环神经网络结构示意图;
图3为本发明与现有算法对目标进行雷达/红外跟踪的空间轨迹图;
图4为本发明与现有算法对目标进行雷达/红外跟踪的距离的RMSE图;
图5为本发明与现有算法对目标进行雷达/红外跟踪的X方向的RMSE图;
图6为本发明与现有算法对目标进行雷达/红外跟踪的Y方向的RMSE图;
图7为本发明与现有算法对目标进行雷达/红外跟踪的Z方向的RMSE图。
具体实施方式
下面结合附图和具体实例,对本发明作进一步详细描述:
参照图1,基于雷达与循环神经网络补全红外融合的动目标跟踪方法。
步骤1,获取航迹数据得到雷达和红外量测数据
1.1)模拟机动目标运动轨迹,生成目标的航迹数据信息,其中目标运动状态数目为3,分别为匀加速直线CA、匀速转弯CT、匀速直线CV三种运动状态模型;
1.2)设置仿真时间为160s,雷达传感器的采样周期为1s,红外传感器的采样周期置为0.1s,雷达传感器的测距噪声均方差为100m,测角均方差为1°,红外传感器的测角均方差为0.5°,用雷达传感器和红外传感器这两个平台对目标进行数据测量,分别获得的雷达量测数据和红外量测数据,其中雷达量测数据包含距离、方位角和俯仰角,红外量测数据包含方位角和俯仰角;
1.3)从测量的数据中选取80%的雷达数据作为训练数据集,20%的雷达数据作为测试数据集。
步骤2,构建第一循环神经网络模型
2.1)构建依次由输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层采用全连接的方式组成的第一循环神经网络模型,用于确定雷达量测数据的属性和时间之间拟合关系;
2.2)构建的第一循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数均为64,
输出层节点数为8;
步骤3,训练第一循环神经网络模型
3.1)确定第一循环神经网络模型训练的最大迭代次数N;
从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,表明所属的时间拟合函数;
3.2)将训练样本输入到第一循环神经网络模型中进行训练:
采用正向传播算法,计算第一循环神经网模型中各层的输出,公式如下:
ht=F(Uxt+Vht-1+b)
yt=G(Wht+c)
ht为t时刻隐藏层的输出,yt为t时刻输出层输出的雷达数据,ht-1为t-1时刻隐藏层的输出,xt为t时刻输入层输入的雷达数据,b表示输入层和隐藏层的偏值,c表示隐藏层和输出层的偏值,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,W表示隐藏层和输出层之间的权重矩阵,F()是非线性激活函数tanh,V()是非线性激活函数softmax;
3.3)采用反向传播算法,计算输出层节点加权输入的偏导数
nett=Uxt+Vht-1
ht-1=F(nett-1+b)
其中nett为t时刻输出层节点的加权输入,ht-1为t-1时刻隐藏层的输出,nett-1为在t-1时刻输出层节点的加权输入,xt为t时刻输入层输入的雷达数据,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,b表示输入层和隐藏层的偏值,F()是非线性激活函数tanh,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
3.4)计算隐藏层输出的误差项δt:
其中,E为均方误差损失函数的输出值,δt为误差沿时间向前传递一个T时刻后隐藏层在t时刻输出的的误差项,N为训练的最大迭代次数,yt为t时刻输出层的输出,yltabel为t时刻输入雷达数据的标签,nett为t时刻输出层节点的加权输入,netk为k时刻输出层节点的加权输入,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
3.5)根据3.3)和3.4)的结果,对于权重矩阵V的梯度▽VtE和权重矩阵U的梯度▽UtE按照下式进行更新:
其中,为t时刻权重矩阵V的梯度更新值,/>为t时刻权重矩阵U的梯度更新值,/>为t时刻时误差项δt的第i个分量,i=1~n,n为分量的总数,/>为t-1时刻隐藏层ht-1中第i个节点的输出值,/>为t时刻输入层中第i个节点的输入值。
3.6)重复执行步骤3.2)-3.5),直到第一循环神经网络模型训练迭代次数为N时,保存修正后的第一循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第一循环神经网络模型;
步骤4,构建第二循环神经网络模型,并进行训练
4.1)构建依次由输入层、第一隐藏层、第二隐藏层和输出层采用全连接的方式组成的第二循环神经网络模型,用于确定雷达量测数据属性之间回归关系;
4.2)设置第二循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数128,
输出层节点数为8;
4.3)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,即将第一神经网络模型的输出确定的数据属性之间的回归函数作为该标签;
4.4)将训练样本输入到第二循环神经网络模型中进行训练,采用正向传播算法,计算第二循环神经网模型中各层的输出,直到第二循环神经网络模型训练迭代次数为N时,保存修正后的第二循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第二循环神经网络模型,公式如下:
rh=Gl(Vlθ+cl)
其中,θh表示第一隐藏层的输出,rh表示第二隐藏层的输出,ro表示输出层的输出,θ表示雷达数据的方位角,表示雷达数据的俯仰角,r表示雷达数据的距离,Ul表示输入层与第一隐藏层之间的权重矩阵,Vl表示输入层与第二隐藏层之间的权重矩阵,bl表示输入层与第一隐藏层之间的偏值,cl表示输入层与第二隐藏层之间的偏值,pl表示第一隐藏层与输出层之间的权重矩阵,ql表示第二隐藏层和输出层之间的权重矩阵,dl表示隐藏层与输出层之间的偏值,Fl表征方位角与俯仰角之间的回归关系,Gl表征距离与方位角之间的回归关系,Hl表征距离、方位角与俯仰角三者之间的回归关系。
步骤5,将训练好的第一循环神经网络模型和第二循环神经网络模型采用全连接的方式进行级联,构成新的循环神经网络。
步骤6,对新的循环神经网络进行测试
6.1)从测试集中随机选取雷达数据,并将其作为输入测试样本;
6.2)向新的循环神经网络中输入测试样本,将测试样本经过新的循环神经网络输出结果与测试样本的标签进行对比,检测构建的新的循环神经网络的正确性:
如果新的循环神经网络的正确性不满足要求,则改变新的循环神经网络的激活函数,重新对新的循环神经网络里面的第一循环神经网络模型和第二循环神经网络模型加以训练,直到测试的新的循环神经网络的正确性满足要求,执行步骤7;
如果新的循环神经网络模型的正确性满足要求,执行步骤7。
通过上述步骤2-步骤6构建的新的循环神经网络结构如图2所示。
步骤7,用新的循环神经网络对红外数据信息进行补全
7.1)利用红外传感器平台对目标进行数据测量,获得红外数据的方位角和俯仰角;
7.2)将红外数据的方位角和俯仰角输入到新的循环神经网络中,补全红外数据缺失的距离信息;
7.3)将补全后的红外数据和雷达数据的距离、方位角和俯仰角这三种信息进行数据融合。
步骤8,对融合之后的数据进行交互式扩展卡尔曼滤波处理,完成目标的跟踪
8.1)假设在k-1时刻第m个模型的最优状态估计值为协方差矩阵为/>通过下式计算交互后模型的初始状态/>与交互后模型的初始协方差/>
为第m个模型的归一化常数,m=1~3,m为模型的序号,un|m(k-1)为k-1时刻第m个模型到第n个模型的转移概率,Pnm表示第m个模型到第n个模型的转移矩阵,un(k-1)为k-1时刻第n个模型的概率,n=1~3,n为模型的序号;
8.2)对每个模型进行扩展卡尔曼滤波,得到状态和协方差的更新值:
Xn(k+1|k+1)=Xn(k+1|k)+Kn(k+1)[Z(k+1)-Kn(k+1)Xn(k+1|k+1)]
Kn(k+1)为k+1时刻第n个模型的滤波增益,Xn(k+1|k+1)为k+1时刻第n个模型的状态更新值,Pn(k+1|k+1)为k+1时刻第n个模型的滤波误差协方差更新值,Sn(k+1)为k+1时刻第n个模型的一步预测误差协方差,Hn(k+1)为k+1时刻第n个模型的雅克比矩阵,Pn(k+1|k)为k+1时刻第n个模型的一步预测状态的协方差矩阵,R(k+1)为量测噪声方差,Xn(k+1|k)为k+1时刻第n个模型的的一步预测状态,Z(k+1)为观测数据,为k+1时刻第n个模型的雅克比矩阵的转置,/>为k+1时刻第n个模型的滤波增益的转置;
8.3)通过下式确定经过扩展卡尔曼滤波之后的模型的更新概率,即k时刻第n个模型的概率uk(n),然后得到三个模型交互后输出的最终状态估计与三个模型交互后输出的最终协方差估计Pk|k:
其中,为归一化常数,/>为k时刻与第n个模型匹配的极大似然函数,为第n个模型的归一化常数;/>为k时刻与第n个模型匹配的极大似然函数,/>为k时刻第n个模型滤波后的残差,/>为k时刻第n个模型滤波后残差的协方差,/>为k时刻第n个模型滤波后的残差的转置,/>为k时刻第n个模型滤波后残差的协方差的逆;/>为k时刻第n个模型的状态估计,/>为k时刻第n个模型的协方差估计。
以下通过仿真实验,对本发明的技术效果作进一步说明。
1仿真条件:
本发明的仿真条件中采用的单个机动目标的航迹数据信息,分别用雷达传感器和红外传感器对机动目标进行航迹信息测量,航迹数据的雷达总采样点数为160,红外总采样点数为1600,训练集的大小为128,测试集的大小为32,蒙特卡洛仿真试验的次数取100次;
在交互式多模型多传感器单目标跟踪的情况下,机动目标的运动模型如下:目标的X、Y、Z方向的初始位置为[100m,100m,100m],目标的X、Y、Z方向的初始速度为[2m/s,1m/s,2m/s],在0s~40s做匀加速运动,其X、Y、Z方向的加速度为[0.5m/s2,1m/s2,0.6m/s2],在40s~80s做左转弯运动,转弯角速度为在80s~160s做匀速运动;
仿真使用的现有方法有三种,其中包括雷达/红外序贯融合、雷达/红外数据压缩融合和雷达观测。
2仿真环境:
在Python3.8的IDLE上搭建新的循环神经网络,并训练迭代次数为8次,每批数据量大小为16,学习率为0.001,损失函数为均方误差损失函数。
仿真1,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到空间轨迹图,如图3所示,其中实线为真实轨迹,点划线为雷达/红外序贯融合跟踪轨迹,长虚线为本发明方法跟踪轨迹,细虚线为雷达/红外数据压缩跟踪轨迹;
仿真2,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到距离的RMSE图,如图4所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合。
仿真3,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到的X方向的RMSE图,如图5所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合;
仿真4,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到的Y方向的RMSE图,如图6所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合;
仿真5,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到的Z方向的RMSE图,如图7所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合;
从仿真1~仿真5的结果可以看出,本发明提出的方法对目标进行跟踪的跟踪效果优于雷达/红外序贯融合、雷达/红外数据压缩融合和雷达观测,因此本发明方法与现有的三种方法相比具有更高的目标跟踪正确率。
统计上述本发明方法和现有的三种方法对目标进行雷达/红外跟踪得到的跟踪结果,计算它们各自在距离和各自在X、Y、Z方向的均方根误差RMSE,其结果如表1所示。
表1不同的目标跟踪算法结果对比
从表1可以看出,本发明提出的方法对目标进行跟踪的距离和X、Y、Z方向的均方根误差比雷达/红外序贯融合、雷达/红外数据压缩和雷达观测的均方根误差都要小,表明本发明具有更低的跟踪误差。
Claims (7)
1.一种基于雷达与循环神经网络补全红外融合的动目标跟踪的方法,其特征在于,包括如下:
(1)获取训练数据集和测试数据集;
(1a)模拟机动目标运动轨迹,生成目标的航迹数据信息,其中目标运动状态数目为3,分别为匀加速直线CA、匀速转弯CT、匀速直线CV三种运动状态模型;
(1b)设置仿真时间为160s,雷达传感器的采样周期为1s,红外传感器的采样周期置为0.1s,雷达传感器的测距噪声均方差为100m,测角均方差为1°,红外传感器的测角均方差为0.5°,用雷达传感器和红外传感器这两个平台对目标进行数据测量,获得的雷达量测数据包含距离、方位角和俯仰角,红外量测数据包含方位角和俯仰角;
(1c)从测量的数据中选取80%的雷达数据作为训练数据集,20%的雷达数据作为测试数据集;
(2)构建循环神经网络模型;
(2a)构建依次由输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层采用全连接的方式组成的第一循环神经网络模型,用于确定雷达量测数据的属性和时间之间拟合关系;
(2b)构建依次由输入层、第一隐藏层、第二隐藏层和输出层采用全连接的方式组成的第二循环神经网络模型,用于确定雷达量测数据属性之间回归关系;
(3)对第一循环神经网络模型进行训练;
(3a)确定第一循环神经网络模型训练的最大迭代次数N;
(3b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,表明所属的时间拟合函数;
(3c)将训练样本输入到第一循环神经网络模型中进行训练,采用正向传播算法,计算第一循环神经网模型中各层的输出;
(3d)采用反向传播算法,通过第一循环神经网络模型中各层的输出,对第一循环神经网络模型中各层节点的权值进行修正;
(3e)重复执行步骤(3b)-(3d),直到第一循环神经网络模型训练迭代次数为N时,保存修正后的第一循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第一循环神经网络模型;
(4)对第二循环神经网络模型进行训练;
(4a)确定第二循环神经网络模型训练的最大迭代次数N;
(4b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,即将第一神经网络模型的输出确定的数据属性之间的回归函数作为该标签;
(4c)将训练样本输入到第二循环神经网络模型中进行训练,采用正向传播算法,计算第二循环神经网模型中各层的输出;
(4d)重复步骤(4b)-(4c),直到第二循环神经网络模型训练迭代次数为N时,保存修正后的第二循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第二循环神经网络模型;
(4e)将训练好的第一循环神经网络模型和第二循环神经网络模型进行级联,构成新的循环神经网络;
(5)对新的循环神经网络进行测试;
(5a)从测试集中随机选取雷达数据,并将其作为输入测试样本;
(5b)向新的循环神经网络中输入测试样本,将测试样本经过新的循环神经网络输出结果与测试样本的标签进行对比,检测构建的新的循环神经网络的正确性:
如果新的循环神经网络的正确性不满足要求,则改变新的循环神经网络的激活函数,重新对新的循环神经网络里面的第一循环神经网络模型和第二循环神经网络模型加以训练,直到测试的新的循环神经网络的正确性满足要求,执行(6);
如果新的循环神经网络模型的正确性满足要求,执行(6);
(6)用新的循环神经网络对红外数据信息进行补全;
(6a)利用红外传感器平台对目标进行数据测量,获得红外数据的方位角和俯仰角;
(6b)将红外数据的方位角和俯仰角输入到新的循环神经网络中,补全红外数据缺失的距离信息;
(6c)将补全后的红外数据和雷达数据的距离、方位角、俯仰角这三种信息进行数据融合,再对融合之后的数据进行交互式扩展卡尔曼滤波处理,完成目标的跟踪。
2.根据权利要求1所述的方法,其中(2a)构建的第一循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数均为64,
输出层节点数为8。
3.根据权利要求1所述的方法,其中(2b)构建的第二循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数128,
输出层节点数为8。
4.根据权利要求1所述的方法,其中(3c)采用正向传播算法,计算第一循环神经网络模型中各层的输出,公式如下:
ht=F(Uxt+Vht-1+b)
yt=G(Wht+c)
ht为t时刻隐藏层的输出,yt为t时刻输出层输出的雷达数据,ht-1为t-1时刻隐藏层的输出,xt为t时刻输入层输入的雷达数据,b表示输入层和隐藏层的偏值,c表示隐藏层和输出层的偏值,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,W表示隐藏层和输出层之间的权重矩阵,F()是非线性激活函数tanh,V()是非线性激活函数softmax。
5.根据权利要求1所述的方法,其中(3d)对第一循环神经网络模型中各层节点的权值进行修正,其实现过程如下:
(3d1)采用反向传播算法,计算输出层节点加权输入的偏导数
nett=Uxt+Vht-1
ht-1=F(nett-1+b)
nett为t时刻输出层节点的加权输入,ht-1为t-1时刻隐藏层的输出,nett-1为在t-1时刻输出层节点的加权输入,xt为t时刻输入层输入的雷达数据,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,b表示输入层和隐藏层的偏值,F()是非线性激活函数tanh,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
(3d2)计算隐藏层输出的误差项δt:
其中,E为均方误差损失函数的输出值,δt为误差沿时间向前传递一个T时刻后隐藏层在t时刻输出的的误差项,N为训练的最大迭代次数,yt为t时刻输出层的输出,为t时刻输入雷达数据的标签,nett为t时刻输出层节点的加权输入,netk为k时刻输出层节点的加权输入,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
(3d3)根据(3d1)和(3d2)的结果,对于权重矩阵V的梯度和权重矩阵U的梯度按照下式进行更新:
其中,为t时刻权重矩阵V的梯度更新值,/>为t时刻权重矩阵U的梯度更新值,为t时刻时误差项δt的第i个分量,i=1~n,n为分量的总数,/>为t-1时刻隐藏层的输出ht-1中第i个节点的输出值,/>为t时刻输入层中第i个节点的输入值。
6.根据权利要求1所述的方法,其中(4c)中采用正向传播算法,计算第二循环神经网模型中各层的输出,公式如下:
rh=Gl(Vlθ+cl)
其中,θh表示第一隐藏层的输出,rh表示第二隐藏层的输出,ro表示输出层的输出,θ表示雷达数据的方位角,表示雷达数据的俯仰角,r表示雷达数据的距离,Ul表示输入层与第一隐藏层之间的权重矩阵,Vl表示输入层与第二隐藏层之间的权重矩阵,bl表示输入层与第一隐藏层之间的偏值,cl表示输入层与第二隐藏层之间的偏值,pl表示第一隐藏层与输出层之间的权重矩阵,ql表示第二隐藏层和输出层之间的权重矩阵,dl表示隐藏层与输出层之间的偏值,Fl表征方位角与俯仰角之间的回归关系,Gl表征距离与方位角之间的回归关系,Hl表征距离、方位角与俯仰角三者之间的回归关系。
7.根据权利要求1所述的方法,其中(6c)对融合之后的数据进行交互式扩展卡尔曼滤波处理,实现如下:
(6c1)假设在k-1时刻第m个模型的最优状态估计值为协方差矩阵为/>通过下式计算交互后模型的初始状态/>与交互后模型的初始协方差/>
为第m个模型的归一化常数,m=1~3,m为模型的序号,un|m(k-1)为k-1时刻第m个模型到第n个模型的转移概率,Pnm表示第m个模型到第n个模型的转移矩阵,un(k-1)为k-1时刻第n个模型的概率,n=1~3,n为模型的序号;
(6c2)对每个模型进行扩展卡尔曼滤波,得到状态和协方差的更新值:
Xn(k+1|k+1)=Xn(k+1|k)+Kn(k+1)[Z(k+1)-Kn(k+1)Xn(k+1|k+1)]
Kn(k+1)为k+1时刻第n个模型的滤波增益,Xn(k+1|k+1)为k+1时刻第n个模型的状态更新值,Pn(k+1|k+1)为k+1时刻第n个模型的滤波误差协方差更新值,Sn(k+1)为k+1时刻第n个模型的一步预测误差协方差,Hn(k+1)为k+1时刻第n个模型的雅克比矩阵,Pn(k+1|k)为k+1时刻第n个模型的一步预测状态的协方差矩阵,R(k+1)为量测噪声方差,Xn(k+1|k)为k+1时刻第n个模型的的一步预测状态,Z(k+1)为观测数据,为k+1时刻第n个模型的雅克比矩阵的转置,/>为k+1时刻第n个模型的滤波增益的转置;
(6c3)通过下式确定经过扩展卡尔曼滤波之后的模型的更新概率,即k时刻第n个模型的概率uk(n),然后得到三个模型交互后输出的最终状态估计与三个模型交互后输出的最终协方差估计Pk|k:
其中,为归一化常数,/>为k时刻与第n个模型匹配的极大似然函数,/>为第n个模型的归一化常数;/>为k时刻与第n个模型匹配的极大似然函数,/>为k时刻第n个模型滤波后的残差,/>为k时刻第n个模型滤波后残差的协方差,/>为k时刻第n个模型滤波后的残差的转置,/>为k时刻第n个模型滤波后残差的协方差的逆;/>为k时刻第n个模型的状态估计,/>为k时刻第n个模型的协方差估计。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011343192.8A CN112613532B (zh) | 2020-11-26 | 2020-11-26 | 基于雷达与循环神经网络补全红外融合的动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011343192.8A CN112613532B (zh) | 2020-11-26 | 2020-11-26 | 基于雷达与循环神经网络补全红外融合的动目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112613532A CN112613532A (zh) | 2021-04-06 |
CN112613532B true CN112613532B (zh) | 2023-08-01 |
Family
ID=75225442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011343192.8A Active CN112613532B (zh) | 2020-11-26 | 2020-11-26 | 基于雷达与循环神经网络补全红外融合的动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112613532B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113269301B (zh) * | 2021-04-27 | 2023-08-08 | 北方工业大学 | 基于神经网络估计多目标跟踪系统参数的方法及系统 |
CN113392883B (zh) * | 2021-05-28 | 2024-05-28 | 杭州电子科技大学 | 一种基于深度神经网络和注意力机制的坐标融合方法 |
CN113674003B (zh) * | 2021-08-17 | 2023-11-24 | 中国农业大学 | 一种利用宏基因组和机器学习进行蜂蜜蜜源地追踪的方法 |
CN114252871B (zh) * | 2021-12-13 | 2024-07-09 | 中国西安卫星测控中心 | 一种基于机器学习的雷达测量精度补偿方法 |
CN114779752B (zh) * | 2022-04-21 | 2024-06-07 | 厦门大学 | 网络攻击下智能电动车辆轨迹跟踪控制方法 |
CN115685128B (zh) * | 2022-11-14 | 2023-04-11 | 中国人民解放军空军预警学院 | 一种机动目标场景下的雷达目标跟踪算法及电子设备 |
CN115797463A (zh) * | 2022-11-28 | 2023-03-14 | 湖南华诺星空电子技术有限公司 | 一种fod雷达与相机的神经网络训练方法及全局标定方法 |
CN116421953A (zh) * | 2023-06-15 | 2023-07-14 | 苏州城市学院 | 基于深度学习的网球训练方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108682023A (zh) * | 2018-03-21 | 2018-10-19 | 南京理工大学 | 基于Elman神经网络的紧耦合无迹卡尔曼跟踪滤波算法 |
CA3067573A1 (en) * | 2019-01-14 | 2020-07-14 | Harbin Engineering University | Target tracking systems and methods for uuv |
CN111582485A (zh) * | 2020-05-27 | 2020-08-25 | 电子科技大学 | 基于神经网络的航迹融合办法 |
CN111860589A (zh) * | 2020-06-12 | 2020-10-30 | 中山大学 | 一种多传感器多目标协同探测信息融合方法、系统 |
-
2020
- 2020-11-26 CN CN202011343192.8A patent/CN112613532B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108682023A (zh) * | 2018-03-21 | 2018-10-19 | 南京理工大学 | 基于Elman神经网络的紧耦合无迹卡尔曼跟踪滤波算法 |
CA3067573A1 (en) * | 2019-01-14 | 2020-07-14 | Harbin Engineering University | Target tracking systems and methods for uuv |
CN111582485A (zh) * | 2020-05-27 | 2020-08-25 | 电子科技大学 | 基于神经网络的航迹融合办法 |
CN111860589A (zh) * | 2020-06-12 | 2020-10-30 | 中山大学 | 一种多传感器多目标协同探测信息融合方法、系统 |
Non-Patent Citations (1)
Title |
---|
基于雷达/红外神经网络融合目标跟踪算法;王青, 毕靖;系统仿真学报(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112613532A (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112613532B (zh) | 基于雷达与循环神经网络补全红外融合的动目标跟踪方法 | |
CN106443622B (zh) | 一种基于改进联合概率数据关联的分布式目标跟踪方法 | |
CN106980114A (zh) | 无源雷达目标跟踪方法 | |
CN106372646B (zh) | 基于srck-gmcphd滤波的多目标跟踪方法 | |
CN104301999B (zh) | 一种基于rssi的无线传感器网络自适应迭代定位方法 | |
CN101221238B (zh) | 基于高斯均值移动配准的动态偏差估计方法 | |
CN104021519B (zh) | 基于gpu架构的密集杂波条件下机动多目标跟踪方法 | |
CN106932771A (zh) | 一种雷达仿真目标航迹跟踪方法及系统 | |
CN104715154B (zh) | 基于kmdl准则判据的核k‑均值航迹关联方法 | |
CN113342059B (zh) | 基于位置和速度误差的多无人机跟踪移动辐射源方法 | |
CN113569465A (zh) | 一种基于深度学习的航迹矢量和目标类型联合估计系统及估计方法 | |
CN111582485A (zh) | 基于神经网络的航迹融合办法 | |
CN115204212A (zh) | 一种基于stm-pmbm滤波算法的多目标跟踪方法 | |
CN115508824A (zh) | 多目标大数据关联融合跟踪方法及系统 | |
CN111679251A (zh) | 一种基于雷达红外双模融合的抗雷达型干扰方法 | |
CN105424043A (zh) | 一种基于判断机动的运动状态估计方法 | |
CN109917373A (zh) | 运动补偿搜索的动平台雷达的动态规划检测前跟踪方法 | |
CN116047495B (zh) | 一种用于三坐标雷达的状态变换融合滤波跟踪方法 | |
CN114488104B (zh) | 基于交互一致性的天波超视距雷达目标跟踪方法 | |
CN114740467A (zh) | 基于幅度点迹的集群目标跟踪及数量、轮廓动态估计方法 | |
Yang et al. | Study on the trajectory positioning and prediction framework of unmanned aerial vehicle based on long short-term memory neural network | |
CN114577213B (zh) | 一种分布式多平台水下多目标关联与被动定位方法 | |
CN116736287B (zh) | 基于多探测模式的地波多径目标跟踪方法 | |
Urru et al. | Data Fusion algorithms to improve test range sensors accuracy and precision | |
Hu et al. | A Multi Hypothesis Data Association Algorithm Based on Bi-GRU |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |