CN112613532B - 基于雷达与循环神经网络补全红外融合的动目标跟踪方法 - Google Patents

基于雷达与循环神经网络补全红外融合的动目标跟踪方法 Download PDF

Info

Publication number
CN112613532B
CN112613532B CN202011343192.8A CN202011343192A CN112613532B CN 112613532 B CN112613532 B CN 112613532B CN 202011343192 A CN202011343192 A CN 202011343192A CN 112613532 B CN112613532 B CN 112613532B
Authority
CN
China
Prior art keywords
neural network
layer
model
data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011343192.8A
Other languages
English (en)
Other versions
CN112613532A (zh
Inventor
刘向丽
柯励
李赞
宋仪雯
何治宇
刘冬妮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202011343192.8A priority Critical patent/CN112613532B/zh
Publication of CN112613532A publication Critical patent/CN112613532A/zh
Application granted granted Critical
Publication of CN112613532B publication Critical patent/CN112613532B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发公开了一种基于雷达与循环神经网络补全红外融合的动目标跟踪方法。其方案为:对同一目标、多种不同运动状态航迹的雷达数据进行预处理;利用预处理后数据分别对构建的第一、第二循环神经网络模型进行训练,分别确定出雷达数据的属性与时间的拟合关系,及雷达数据属性之间回归关系,对用训练后的两个循环神经网络模型级联而成的新的循环神经网络进行测试,当测试的正确性满足要求时,用该网络补全完红外数据的距离信息,融合补全后的红外数据和雷达数据的距离、方位角、俯仰角这三种信息,并进行交互式扩展卡尔曼滤波处理,完成目标的跟踪。本发明避免了红外数据缺少距离信息的缺陷,提高了目标跟踪的正确率,可用于防空、导航和交通管制。

Description

基于雷达与循环神经网络补全红外融合的动目标跟踪方法
技术领域
本发明属于通信技术领域,特别涉及一种动目标跟踪方法,可用于防空、导航和交通管制。
背景技术
目标跟踪的基本概念是在50年代形成的,然而直至70年代初期,由于防空、导航和交通管制等航空航天领域的应用需要,目标跟踪理论才真正的引起人们的注意。之后,各种雷达、红外、声纳和激光等目标跟踪系统相继得到发展并且日渐完善。在军事和民用领域,实现可靠而精确的跟踪目标始终是目标跟踪系统设计的主要目的。为此,几十年来许多科学家和工程师一直致力于该项课题的研究。
所谓目标跟踪,就是为了维持对一个或多个目标当前状态的估计而对所接收到的传感器量测数据信息进行处理的过程。跟踪过程实质上是一个消除误差的处理过程,而误差主要来源于观测主体通过传感器观测到的客体运动状态与客体实际运动状态之间的噪声。目标跟踪是一个典型的不确定性问题,跟踪的不确定性主要来源于目标模型的不确定性、观测的不确定性及多目标密集回波环境造成的测量数据的模糊和不确定性等等。
作为一种主动传感器,雷达能够提供跟踪目标量测的完整状态信息,即距离、方位角、俯仰角,因此在目标搜索与跟踪等方面具有重要作用。由于受波束宽度的限制,雷达探测的测角精度普遍不高,特别是俯仰角度的测量精度较低.并且因为雷达在工作时要向空中辐射大功率电磁波,因而易遭受电子干扰和反辐射导弹的攻击。红外传感器通过接收目标辐射的热能进行探测,且无需辐射任何能量,因而具有较强的抗干扰能力,不易被侦察或定位。但是红外传感器也存在一些不足,它不能提供目标的距离信息,作用距离较近,并且受气候影响大。雷达高精度的距离测量和红外传感器高精度的角度测量可以信息互补.通过数据融合技术,给出对目标位置的精确估计,改善对目标的跟踪和识别。所以在大多数情况下,红外传感器与雷达配合使用,成为相互独立又彼此补充的探测跟踪手段。因此,将雷达信息和红外信息融合起来,是一种目标跟踪常用有效的方式。
李世忠等在IMM-EKF雷达与红外序贯滤波跟踪机动目标的文章中介绍了下的两种方法:
一种是雷达/红外数据压缩融合算法,它是基于角度合成的异类传感器航迹数据融合算法,其通过将角度的量测噪声方差近似为精度,并以精度作为权值对角度进行加权平均合成,再对时间对准之后进行同步融合得到融合航迹,但是在雷达/红外数据采样周期不同的情况下,会在数据融合过程中因时间对准而产生误差。
另一种是雷达/红外序贯融合算法,其在滤波过程中将雷达数据滤波之后的一步预测状态及其协方差矩阵作为红外的中间状态和协方差信息,再同红外的量测信息进行融合滤波实现对于目标的跟踪,该方法虽说避免了在雷达/红外数据采样周期不同的情况下,需要进行时间同步对准的问题,但是由于该方法是在滤波的过程中对于缺失距离属性的红外数据加以预测更新,实现雷达/红外数据融合,因此不可避免的产生了过程误差。
上述两种雷达/红外数融合算法产生的时间对准误差和过程误差,降低了目标跟踪的精度。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于雷达与循环神经网络补全红外融合的动目标跟踪方法,以避免雷达与红外数据融合中产生的上述误差,提高多传感器单目标跟踪的精度。
实现本发明目的技术方案包括如下步骤:
1、一种基于雷达与循环神经网络补全红外融合的动目标跟踪方法,其特征在于,包括如下:
(1)获取训练数据集和测试数据集;
(1a)模拟机动目标运动轨迹,生成目标的航迹数据信息,其中目标运动状态数目为3,分别为匀加速直线CA、匀速转弯CT、匀速直线CV三种运动状态模型;
(1b)设置仿真时间为160s,雷达传感器的采样周期为1s,红外传感器的采样周期置为0.1s,雷达传感器的测距噪声均方差为100m,测角均方差为1°,红外传感器的测角均方差为0.5°,用雷达传感器和红外传感器这两个平台对目标进行数据测量,获得的雷达量测数据包含距离、方位角和俯仰角,红外量测数据包含方位角和俯仰角;
(1c)从测量的数据中选取80%的雷达数据作为训练数据集,20%的雷达数据作为测试数据集;
(2)构建循环神经网络模型;
(2a)构建依次由输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层采用全连接的方式组成的第一循环神经网络模型,用于确定雷达量测数据的属性和时间之间拟合关系;
(2b)构建依次由输入层、第一隐藏层、第二隐藏层和输出层采用全连接的方式组成的第二循环神经网络模型,用于确定雷达量测数据属性之间回归关系;
(3)对第一循环神经网络模型进行训练;
(3a)确定第一循环神经网络模型训练的最大迭代次数N;
(3b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,表明所属的时间拟合函数;
(3c)将训练样本输入到第一循环神经网络模型中进行训练,采用正向传播算法,计算第一循环神经网模型中各层的输出;
(3d)采用反向传播算法,通过第一循环神经网络模型中各层的输出,对第一循环神经网络模型中各层节点的权值进行修正;
(3e)重复执行步骤(3b)-(3d),直到第一循环神经网络模型训练迭代次数为N时,保存修正后的第一循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第一循环神经网络模型;
(4)对第二循环神经网络模型进行训练;
(4a)确定第二循环神经网络模型训练的最大迭代次数N;
(4b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,即将第一神经网络的输出确定的数据属性之间的回归函数作为该标签;
(4c)将训练样本输入到第二循环神经网络模型中进行训练,采用正向传播算法,计算第二循环神经网模型中各层的输出;
(4d)重复步骤(4b)-(4c),直到第二循环神经网络模型训练迭代次数为N时,保存修正后的第二循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第二循环神经网络模型;
(4e)将训练好的第一循环神经网络模型和第二循环神经网络模型进行级联,构成新的循环神经网络;
(5)对新的循环神经网络进行测试;
(5a)从测试集中随机选取雷达数据,并将其作为输入测试样本;
(5b)向新的循环神经网络中输入测试样本,将测试样本经过新的循环神经网络输出结果与测试样本的标签进行对比,检测构建的新的循环神经网络的正确性:
如果新的循环神经网络的正确性不满足要求,则改变新的循环神经网络的激活函数,重新对新的循环神经网络里面的第一循环神经网络模型和第二循环神经网络模型加以训练,直到测试的新的循环神经网络的正确性满足要求,执行(6);
如果新的循环神经网络模型的正确性满足要求,执行(6);
(6)用新的循环神经网络对红外数据信息进行补全;
(6a)利用红外传感器平台对目标进行数据测量,获得红外数据的方位角和俯仰角;
(6b)将红外数据的方位角和俯仰角输入到新的循环神经网络中,补全红外数据缺失的距离信息;
(6c)将补全后的红外数据和雷达数据的距离、方位角、俯仰角这三种信息进行数据融合,再对融合之后的数据进行交互式扩展卡尔曼滤波处理,完成目标的跟踪。
本发明与现有技术相比,具有以下优点:
第一,本发明通过新的循环神经网络用雷达数据提取出的距离、方位角和俯仰角属性之间的回归关系来补全红外数据缺失的距离信息,避免了现有技术中直接使用缺失位置信息的红外数据来进行目标跟踪产生的误差,与现有技术相比,基于雷达与循环神经网络补全红外融合的动目标跟踪方法提高了目标跟踪的正确率;
第二,本发明通过构建的新的循环神经网络,解决了在雷达/红外数据采样周期不同的情况下,需要在雷达/红外数据融合过程中进行时间对准的问题,避免了数据压缩算法在数据融合过程中因时间对准而产生的误差,与现有技术相比,基于雷达与循环神经网络补全红外融合的动目标跟踪方法提高了目标跟踪的正确率;
第三,本发明通过构建的新的循环神经网络,实现了在滤波的过程之前对于缺失距离属性的红外量测数据加以预测更新,避免了序贯滤波算法在滤波的过程中对于缺失距离属性的红外数据加以预测更新而产生的过程误差,与现有技术相比,基于雷达与循环神经网络补全红外融合的动目标跟踪方法提高了目标跟踪的正确率。
附图说明
图1为本发明的实现总流程图;
图2为本发明中新的循环神经网络结构示意图;
图3为本发明与现有算法对目标进行雷达/红外跟踪的空间轨迹图;
图4为本发明与现有算法对目标进行雷达/红外跟踪的距离的RMSE图;
图5为本发明与现有算法对目标进行雷达/红外跟踪的X方向的RMSE图;
图6为本发明与现有算法对目标进行雷达/红外跟踪的Y方向的RMSE图;
图7为本发明与现有算法对目标进行雷达/红外跟踪的Z方向的RMSE图。
具体实施方式
下面结合附图和具体实例,对本发明作进一步详细描述:
参照图1,基于雷达与循环神经网络补全红外融合的动目标跟踪方法。
步骤1,获取航迹数据得到雷达和红外量测数据
1.1)模拟机动目标运动轨迹,生成目标的航迹数据信息,其中目标运动状态数目为3,分别为匀加速直线CA、匀速转弯CT、匀速直线CV三种运动状态模型;
1.2)设置仿真时间为160s,雷达传感器的采样周期为1s,红外传感器的采样周期置为0.1s,雷达传感器的测距噪声均方差为100m,测角均方差为1°,红外传感器的测角均方差为0.5°,用雷达传感器和红外传感器这两个平台对目标进行数据测量,分别获得的雷达量测数据和红外量测数据,其中雷达量测数据包含距离、方位角和俯仰角,红外量测数据包含方位角和俯仰角;
1.3)从测量的数据中选取80%的雷达数据作为训练数据集,20%的雷达数据作为测试数据集。
步骤2,构建第一循环神经网络模型
2.1)构建依次由输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层采用全连接的方式组成的第一循环神经网络模型,用于确定雷达量测数据的属性和时间之间拟合关系;
2.2)构建的第一循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数均为64,
输出层节点数为8;
步骤3,训练第一循环神经网络模型
3.1)确定第一循环神经网络模型训练的最大迭代次数N;
从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,表明所属的时间拟合函数;
3.2)将训练样本输入到第一循环神经网络模型中进行训练:
采用正向传播算法,计算第一循环神经网模型中各层的输出,公式如下:
ht=F(Uxt+Vht-1+b)
yt=G(Wht+c)
ht为t时刻隐藏层的输出,yt为t时刻输出层输出的雷达数据,ht-1为t-1时刻隐藏层的输出,xt为t时刻输入层输入的雷达数据,b表示输入层和隐藏层的偏值,c表示隐藏层和输出层的偏值,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,W表示隐藏层和输出层之间的权重矩阵,F()是非线性激活函数tanh,V()是非线性激活函数softmax;
3.3)采用反向传播算法,计算输出层节点加权输入的偏导数
nett=Uxt+Vht-1
ht-1=F(nett-1+b)
其中nett为t时刻输出层节点的加权输入,ht-1为t-1时刻隐藏层的输出,nett-1为在t-1时刻输出层节点的加权输入,xt为t时刻输入层输入的雷达数据,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,b表示输入层和隐藏层的偏值,F()是非线性激活函数tanh,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
3.4)计算隐藏层输出的误差项δt
其中,E为均方误差损失函数的输出值,δt为误差沿时间向前传递一个T时刻后隐藏层在t时刻输出的的误差项,N为训练的最大迭代次数,yt为t时刻输出层的输出,yltabel为t时刻输入雷达数据的标签,nett为t时刻输出层节点的加权输入,netk为k时刻输出层节点的加权输入,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
3.5)根据3.3)和3.4)的结果,对于权重矩阵V的梯度▽VtE和权重矩阵U的梯度▽UtE按照下式进行更新:
其中,为t时刻权重矩阵V的梯度更新值,/>为t时刻权重矩阵U的梯度更新值,/>为t时刻时误差项δt的第i个分量,i=1~n,n为分量的总数,/>为t-1时刻隐藏层ht-1中第i个节点的输出值,/>为t时刻输入层中第i个节点的输入值。
3.6)重复执行步骤3.2)-3.5),直到第一循环神经网络模型训练迭代次数为N时,保存修正后的第一循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第一循环神经网络模型;
步骤4,构建第二循环神经网络模型,并进行训练
4.1)构建依次由输入层、第一隐藏层、第二隐藏层和输出层采用全连接的方式组成的第二循环神经网络模型,用于确定雷达量测数据属性之间回归关系;
4.2)设置第二循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数128,
输出层节点数为8;
4.3)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,即将第一神经网络模型的输出确定的数据属性之间的回归函数作为该标签;
4.4)将训练样本输入到第二循环神经网络模型中进行训练,采用正向传播算法,计算第二循环神经网模型中各层的输出,直到第二循环神经网络模型训练迭代次数为N时,保存修正后的第二循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第二循环神经网络模型,公式如下:
rh=Gl(Vlθ+cl)
其中,θh表示第一隐藏层的输出,rh表示第二隐藏层的输出,ro表示输出层的输出,θ表示雷达数据的方位角,表示雷达数据的俯仰角,r表示雷达数据的距离,Ul表示输入层与第一隐藏层之间的权重矩阵,Vl表示输入层与第二隐藏层之间的权重矩阵,bl表示输入层与第一隐藏层之间的偏值,cl表示输入层与第二隐藏层之间的偏值,pl表示第一隐藏层与输出层之间的权重矩阵,ql表示第二隐藏层和输出层之间的权重矩阵,dl表示隐藏层与输出层之间的偏值,Fl表征方位角与俯仰角之间的回归关系,Gl表征距离与方位角之间的回归关系,Hl表征距离、方位角与俯仰角三者之间的回归关系。
步骤5,将训练好的第一循环神经网络模型和第二循环神经网络模型采用全连接的方式进行级联,构成新的循环神经网络。
步骤6,对新的循环神经网络进行测试
6.1)从测试集中随机选取雷达数据,并将其作为输入测试样本;
6.2)向新的循环神经网络中输入测试样本,将测试样本经过新的循环神经网络输出结果与测试样本的标签进行对比,检测构建的新的循环神经网络的正确性:
如果新的循环神经网络的正确性不满足要求,则改变新的循环神经网络的激活函数,重新对新的循环神经网络里面的第一循环神经网络模型和第二循环神经网络模型加以训练,直到测试的新的循环神经网络的正确性满足要求,执行步骤7;
如果新的循环神经网络模型的正确性满足要求,执行步骤7。
通过上述步骤2-步骤6构建的新的循环神经网络结构如图2所示。
步骤7,用新的循环神经网络对红外数据信息进行补全
7.1)利用红外传感器平台对目标进行数据测量,获得红外数据的方位角和俯仰角;
7.2)将红外数据的方位角和俯仰角输入到新的循环神经网络中,补全红外数据缺失的距离信息;
7.3)将补全后的红外数据和雷达数据的距离、方位角和俯仰角这三种信息进行数据融合。
步骤8,对融合之后的数据进行交互式扩展卡尔曼滤波处理,完成目标的跟踪
8.1)假设在k-1时刻第m个模型的最优状态估计值为协方差矩阵为/>通过下式计算交互后模型的初始状态/>与交互后模型的初始协方差/>
为第m个模型的归一化常数,m=1~3,m为模型的序号,un|m(k-1)为k-1时刻第m个模型到第n个模型的转移概率,Pnm表示第m个模型到第n个模型的转移矩阵,un(k-1)为k-1时刻第n个模型的概率,n=1~3,n为模型的序号;
8.2)对每个模型进行扩展卡尔曼滤波,得到状态和协方差的更新值:
Xn(k+1|k+1)=Xn(k+1|k)+Kn(k+1)[Z(k+1)-Kn(k+1)Xn(k+1|k+1)]
Kn(k+1)为k+1时刻第n个模型的滤波增益,Xn(k+1|k+1)为k+1时刻第n个模型的状态更新值,Pn(k+1|k+1)为k+1时刻第n个模型的滤波误差协方差更新值,Sn(k+1)为k+1时刻第n个模型的一步预测误差协方差,Hn(k+1)为k+1时刻第n个模型的雅克比矩阵,Pn(k+1|k)为k+1时刻第n个模型的一步预测状态的协方差矩阵,R(k+1)为量测噪声方差,Xn(k+1|k)为k+1时刻第n个模型的的一步预测状态,Z(k+1)为观测数据,为k+1时刻第n个模型的雅克比矩阵的转置,/>为k+1时刻第n个模型的滤波增益的转置;
8.3)通过下式确定经过扩展卡尔曼滤波之后的模型的更新概率,即k时刻第n个模型的概率uk(n),然后得到三个模型交互后输出的最终状态估计与三个模型交互后输出的最终协方差估计Pk|k
其中,为归一化常数,/>为k时刻与第n个模型匹配的极大似然函数,为第n个模型的归一化常数;/>为k时刻与第n个模型匹配的极大似然函数,/>为k时刻第n个模型滤波后的残差,/>为k时刻第n个模型滤波后残差的协方差,/>为k时刻第n个模型滤波后的残差的转置,/>为k时刻第n个模型滤波后残差的协方差的逆;/>为k时刻第n个模型的状态估计,/>为k时刻第n个模型的协方差估计。
以下通过仿真实验,对本发明的技术效果作进一步说明。
1仿真条件:
本发明的仿真条件中采用的单个机动目标的航迹数据信息,分别用雷达传感器和红外传感器对机动目标进行航迹信息测量,航迹数据的雷达总采样点数为160,红外总采样点数为1600,训练集的大小为128,测试集的大小为32,蒙特卡洛仿真试验的次数取100次;
在交互式多模型多传感器单目标跟踪的情况下,机动目标的运动模型如下:目标的X、Y、Z方向的初始位置为[100m,100m,100m],目标的X、Y、Z方向的初始速度为[2m/s,1m/s,2m/s],在0s~40s做匀加速运动,其X、Y、Z方向的加速度为[0.5m/s2,1m/s2,0.6m/s2],在40s~80s做左转弯运动,转弯角速度为在80s~160s做匀速运动;
仿真使用的现有方法有三种,其中包括雷达/红外序贯融合、雷达/红外数据压缩融合和雷达观测。
2仿真环境:
在Python3.8的IDLE上搭建新的循环神经网络,并训练迭代次数为8次,每批数据量大小为16,学习率为0.001,损失函数为均方误差损失函数。
仿真1,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到空间轨迹图,如图3所示,其中实线为真实轨迹,点划线为雷达/红外序贯融合跟踪轨迹,长虚线为本发明方法跟踪轨迹,细虚线为雷达/红外数据压缩跟踪轨迹;
仿真2,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到距离的RMSE图,如图4所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合。
仿真3,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到的X方向的RMSE图,如图5所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合;
仿真4,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到的Y方向的RMSE图,如图6所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合;
仿真5,用本发明方法与现有的三种方法对目标进行雷达/红外跟踪得到的Z方向的RMSE图,如图7所示,其中长虚线为本发明方法,实线为雷达观测,点划线为雷达/红外序贯融合,细虚线为雷达/红外数据压缩融合;
从仿真1~仿真5的结果可以看出,本发明提出的方法对目标进行跟踪的跟踪效果优于雷达/红外序贯融合、雷达/红外数据压缩融合和雷达观测,因此本发明方法与现有的三种方法相比具有更高的目标跟踪正确率。
统计上述本发明方法和现有的三种方法对目标进行雷达/红外跟踪得到的跟踪结果,计算它们各自在距离和各自在X、Y、Z方向的均方根误差RMSE,其结果如表1所示。
表1不同的目标跟踪算法结果对比
从表1可以看出,本发明提出的方法对目标进行跟踪的距离和X、Y、Z方向的均方根误差比雷达/红外序贯融合、雷达/红外数据压缩和雷达观测的均方根误差都要小,表明本发明具有更低的跟踪误差。

Claims (7)

1.一种基于雷达与循环神经网络补全红外融合的动目标跟踪的方法,其特征在于,包括如下:
(1)获取训练数据集和测试数据集;
(1a)模拟机动目标运动轨迹,生成目标的航迹数据信息,其中目标运动状态数目为3,分别为匀加速直线CA、匀速转弯CT、匀速直线CV三种运动状态模型;
(1b)设置仿真时间为160s,雷达传感器的采样周期为1s,红外传感器的采样周期置为0.1s,雷达传感器的测距噪声均方差为100m,测角均方差为1°,红外传感器的测角均方差为0.5°,用雷达传感器和红外传感器这两个平台对目标进行数据测量,获得的雷达量测数据包含距离、方位角和俯仰角,红外量测数据包含方位角和俯仰角;
(1c)从测量的数据中选取80%的雷达数据作为训练数据集,20%的雷达数据作为测试数据集;
(2)构建循环神经网络模型;
(2a)构建依次由输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层采用全连接的方式组成的第一循环神经网络模型,用于确定雷达量测数据的属性和时间之间拟合关系;
(2b)构建依次由输入层、第一隐藏层、第二隐藏层和输出层采用全连接的方式组成的第二循环神经网络模型,用于确定雷达量测数据属性之间回归关系;
(3)对第一循环神经网络模型进行训练;
(3a)确定第一循环神经网络模型训练的最大迭代次数N;
(3b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,表明所属的时间拟合函数;
(3c)将训练样本输入到第一循环神经网络模型中进行训练,采用正向传播算法,计算第一循环神经网模型中各层的输出;
(3d)采用反向传播算法,通过第一循环神经网络模型中各层的输出,对第一循环神经网络模型中各层节点的权值进行修正;
(3e)重复执行步骤(3b)-(3d),直到第一循环神经网络模型训练迭代次数为N时,保存修正后的第一循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第一循环神经网络模型;
(4)对第二循环神经网络模型进行训练;
(4a)确定第二循环神经网络模型训练的最大迭代次数N;
(4b)从训练数据集中随机选取航迹中的雷达数据,并将其作为训练样本,同时对训练数据集中选取的数据属性进行标签,即将第一神经网络模型的输出确定的数据属性之间的回归函数作为该标签;
(4c)将训练样本输入到第二循环神经网络模型中进行训练,采用正向传播算法,计算第二循环神经网模型中各层的输出;
(4d)重复步骤(4b)-(4c),直到第二循环神经网络模型训练迭代次数为N时,保存修正后的第二循环神经网络模型的结构和各层节点的权值及偏值,得到训练好的第二循环神经网络模型;
(4e)将训练好的第一循环神经网络模型和第二循环神经网络模型进行级联,构成新的循环神经网络;
(5)对新的循环神经网络进行测试;
(5a)从测试集中随机选取雷达数据,并将其作为输入测试样本;
(5b)向新的循环神经网络中输入测试样本,将测试样本经过新的循环神经网络输出结果与测试样本的标签进行对比,检测构建的新的循环神经网络的正确性:
如果新的循环神经网络的正确性不满足要求,则改变新的循环神经网络的激活函数,重新对新的循环神经网络里面的第一循环神经网络模型和第二循环神经网络模型加以训练,直到测试的新的循环神经网络的正确性满足要求,执行(6);
如果新的循环神经网络模型的正确性满足要求,执行(6);
(6)用新的循环神经网络对红外数据信息进行补全;
(6a)利用红外传感器平台对目标进行数据测量,获得红外数据的方位角和俯仰角;
(6b)将红外数据的方位角和俯仰角输入到新的循环神经网络中,补全红外数据缺失的距离信息;
(6c)将补全后的红外数据和雷达数据的距离、方位角、俯仰角这三种信息进行数据融合,再对融合之后的数据进行交互式扩展卡尔曼滤波处理,完成目标的跟踪。
2.根据权利要求1所述的方法,其中(2a)构建的第一循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数均为64,
输出层节点数为8。
3.根据权利要求1所述的方法,其中(2b)构建的第二循环神经网络模型中的各层节点如下:
输入层节点数为128,
每个隐藏层的节点数128,
输出层节点数为8。
4.根据权利要求1所述的方法,其中(3c)采用正向传播算法,计算第一循环神经网络模型中各层的输出,公式如下:
ht=F(Uxt+Vht-1+b)
yt=G(Wht+c)
ht为t时刻隐藏层的输出,yt为t时刻输出层输出的雷达数据,ht-1为t-1时刻隐藏层的输出,xt为t时刻输入层输入的雷达数据,b表示输入层和隐藏层的偏值,c表示隐藏层和输出层的偏值,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,W表示隐藏层和输出层之间的权重矩阵,F()是非线性激活函数tanh,V()是非线性激活函数softmax。
5.根据权利要求1所述的方法,其中(3d)对第一循环神经网络模型中各层节点的权值进行修正,其实现过程如下:
(3d1)采用反向传播算法,计算输出层节点加权输入的偏导数
nett=Uxt+Vht-1
ht-1=F(nett-1+b)
nett为t时刻输出层节点的加权输入,ht-1为t-1时刻隐藏层的输出,nett-1为在t-1时刻输出层节点的加权输入,xt为t时刻输入层输入的雷达数据,U表示输入层和隐藏层之间的权重矩阵,V表示隐藏层之间的权重矩阵,b表示输入层和隐藏层的偏值,F()是非线性激活函数tanh,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
(3d2)计算隐藏层输出的误差项δt
其中,E为均方误差损失函数的输出值,δt为误差沿时间向前传递一个T时刻后隐藏层在t时刻输出的的误差项,N为训练的最大迭代次数,yt为t时刻输出层的输出,为t时刻输入雷达数据的标签,nett为t时刻输出层节点的加权输入,netk为k时刻输出层节点的加权输入,diag[]表示对角矩阵,F'()表示对非线性激活函数tanh求导;
(3d3)根据(3d1)和(3d2)的结果,对于权重矩阵V的梯度和权重矩阵U的梯度按照下式进行更新:
其中,为t时刻权重矩阵V的梯度更新值,/>为t时刻权重矩阵U的梯度更新值,为t时刻时误差项δt的第i个分量,i=1~n,n为分量的总数,/>为t-1时刻隐藏层的输出ht-1中第i个节点的输出值,/>为t时刻输入层中第i个节点的输入值。
6.根据权利要求1所述的方法,其中(4c)中采用正向传播算法,计算第二循环神经网模型中各层的输出,公式如下:
rh=Gl(Vlθ+cl)
其中,θh表示第一隐藏层的输出,rh表示第二隐藏层的输出,ro表示输出层的输出,θ表示雷达数据的方位角,表示雷达数据的俯仰角,r表示雷达数据的距离,Ul表示输入层与第一隐藏层之间的权重矩阵,Vl表示输入层与第二隐藏层之间的权重矩阵,bl表示输入层与第一隐藏层之间的偏值,cl表示输入层与第二隐藏层之间的偏值,pl表示第一隐藏层与输出层之间的权重矩阵,ql表示第二隐藏层和输出层之间的权重矩阵,dl表示隐藏层与输出层之间的偏值,Fl表征方位角与俯仰角之间的回归关系,Gl表征距离与方位角之间的回归关系,Hl表征距离、方位角与俯仰角三者之间的回归关系。
7.根据权利要求1所述的方法,其中(6c)对融合之后的数据进行交互式扩展卡尔曼滤波处理,实现如下:
(6c1)假设在k-1时刻第m个模型的最优状态估计值为协方差矩阵为/>通过下式计算交互后模型的初始状态/>与交互后模型的初始协方差/>
为第m个模型的归一化常数,m=1~3,m为模型的序号,un|m(k-1)为k-1时刻第m个模型到第n个模型的转移概率,Pnm表示第m个模型到第n个模型的转移矩阵,un(k-1)为k-1时刻第n个模型的概率,n=1~3,n为模型的序号;
(6c2)对每个模型进行扩展卡尔曼滤波,得到状态和协方差的更新值:
Xn(k+1|k+1)=Xn(k+1|k)+Kn(k+1)[Z(k+1)-Kn(k+1)Xn(k+1|k+1)]
Kn(k+1)为k+1时刻第n个模型的滤波增益,Xn(k+1|k+1)为k+1时刻第n个模型的状态更新值,Pn(k+1|k+1)为k+1时刻第n个模型的滤波误差协方差更新值,Sn(k+1)为k+1时刻第n个模型的一步预测误差协方差,Hn(k+1)为k+1时刻第n个模型的雅克比矩阵,Pn(k+1|k)为k+1时刻第n个模型的一步预测状态的协方差矩阵,R(k+1)为量测噪声方差,Xn(k+1|k)为k+1时刻第n个模型的的一步预测状态,Z(k+1)为观测数据,为k+1时刻第n个模型的雅克比矩阵的转置,/>为k+1时刻第n个模型的滤波增益的转置;
(6c3)通过下式确定经过扩展卡尔曼滤波之后的模型的更新概率,即k时刻第n个模型的概率uk(n),然后得到三个模型交互后输出的最终状态估计与三个模型交互后输出的最终协方差估计Pk|k
其中,为归一化常数,/>为k时刻与第n个模型匹配的极大似然函数,/>为第n个模型的归一化常数;/>为k时刻与第n个模型匹配的极大似然函数,/>为k时刻第n个模型滤波后的残差,/>为k时刻第n个模型滤波后残差的协方差,/>为k时刻第n个模型滤波后的残差的转置,/>为k时刻第n个模型滤波后残差的协方差的逆;/>为k时刻第n个模型的状态估计,/>为k时刻第n个模型的协方差估计。
CN202011343192.8A 2020-11-26 2020-11-26 基于雷达与循环神经网络补全红外融合的动目标跟踪方法 Active CN112613532B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011343192.8A CN112613532B (zh) 2020-11-26 2020-11-26 基于雷达与循环神经网络补全红外融合的动目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011343192.8A CN112613532B (zh) 2020-11-26 2020-11-26 基于雷达与循环神经网络补全红外融合的动目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112613532A CN112613532A (zh) 2021-04-06
CN112613532B true CN112613532B (zh) 2023-08-01

Family

ID=75225442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011343192.8A Active CN112613532B (zh) 2020-11-26 2020-11-26 基于雷达与循环神经网络补全红外融合的动目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112613532B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269301B (zh) * 2021-04-27 2023-08-08 北方工业大学 基于神经网络估计多目标跟踪系统参数的方法及系统
CN113674003B (zh) * 2021-08-17 2023-11-24 中国农业大学 一种利用宏基因组和机器学习进行蜂蜜蜜源地追踪的方法
CN114252871A (zh) * 2021-12-13 2022-03-29 中国西安卫星测控中心 一种基于机器学习的雷达测量精度补偿方法
CN114779752A (zh) * 2022-04-21 2022-07-22 厦门大学 网络攻击下智能电动车辆轨迹跟踪控制方法
CN115685128B (zh) * 2022-11-14 2023-04-11 中国人民解放军空军预警学院 一种机动目标场景下的雷达目标跟踪算法及电子设备
CN115797463A (zh) * 2022-11-28 2023-03-14 湖南华诺星空电子技术有限公司 一种fod雷达与相机的神经网络训练方法及全局标定方法
CN116421953A (zh) * 2023-06-15 2023-07-14 苏州城市学院 基于深度学习的网球训练方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108682023A (zh) * 2018-03-21 2018-10-19 南京理工大学 基于Elman神经网络的紧耦合无迹卡尔曼跟踪滤波算法
CA3067573A1 (en) * 2019-01-14 2020-07-14 Harbin Engineering University Target tracking systems and methods for uuv
CN111582485A (zh) * 2020-05-27 2020-08-25 电子科技大学 基于神经网络的航迹融合办法
CN111860589A (zh) * 2020-06-12 2020-10-30 中山大学 一种多传感器多目标协同探测信息融合方法、系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108682023A (zh) * 2018-03-21 2018-10-19 南京理工大学 基于Elman神经网络的紧耦合无迹卡尔曼跟踪滤波算法
CA3067573A1 (en) * 2019-01-14 2020-07-14 Harbin Engineering University Target tracking systems and methods for uuv
CN111582485A (zh) * 2020-05-27 2020-08-25 电子科技大学 基于神经网络的航迹融合办法
CN111860589A (zh) * 2020-06-12 2020-10-30 中山大学 一种多传感器多目标协同探测信息融合方法、系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于雷达/红外神经网络融合目标跟踪算法;王青, 毕靖;系统仿真学报(第04期);全文 *

Also Published As

Publication number Publication date
CN112613532A (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
CN112613532B (zh) 基于雷达与循环神经网络补全红外融合的动目标跟踪方法
CN106443622B (zh) 一种基于改进联合概率数据关联的分布式目标跟踪方法
CN106980114A (zh) 无源雷达目标跟踪方法
CN106372646B (zh) 基于srck-gmcphd滤波的多目标跟踪方法
CN104301999B (zh) 一种基于rssi的无线传感器网络自适应迭代定位方法
CN104021519B (zh) 基于gpu架构的密集杂波条件下机动多目标跟踪方法
CN106646450A (zh) 基于距离分步聚类的雷达航迹抗差关联方法
CN106932771A (zh) 一种雷达仿真目标航迹跟踪方法及系统
CN104715154B (zh) 基于kmdl准则判据的核k‑均值航迹关联方法
CN113342059B (zh) 基于位置和速度误差的多无人机跟踪移动辐射源方法
CN111582485A (zh) 基于神经网络的航迹融合办法
CN113569465A (zh) 一种基于深度学习的航迹矢量和目标类型联合估计系统及估计方法
CN115508824A (zh) 多目标大数据关联融合跟踪方法及系统
CN111679251A (zh) 一种基于雷达红外双模融合的抗雷达型干扰方法
CN105424043A (zh) 一种基于判断机动的运动状态估计方法
CN115204212A (zh) 一种基于stm-pmbm滤波算法的多目标跟踪方法
CN116500602A (zh) 一种基于无源分布式雷达系统的多目标跟踪航迹管理方法
CN114740467A (zh) 基于幅度点迹的集群目标跟踪及数量、轮廓动态估计方法
CN113376626A (zh) 基于immpda算法的高机动目标跟踪方法
CN102707278B (zh) 奇异值分解的多目标跟踪方法
CN116047495B (zh) 一种用于三坐标雷达的状态变换融合滤波跟踪方法
RU2251709C1 (ru) Способ определения дальности до источника радиоизлучения и скорости сближения летательного аппарата с ним
CN116736287B (zh) 基于多探测模式的地波多径目标跟踪方法
CN114577213B (zh) 一种分布式多平台水下多目标关联与被动定位方法
Urru et al. Data Fusion algorithms to improve test range sensors accuracy and precision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant