CN114445456A - 基于部分模型的数据驱动智能机动目标跟踪方法及装置 - Google Patents

基于部分模型的数据驱动智能机动目标跟踪方法及装置 Download PDF

Info

Publication number
CN114445456A
CN114445456A CN202111588369.5A CN202111588369A CN114445456A CN 114445456 A CN114445456 A CN 114445456A CN 202111588369 A CN202111588369 A CN 202111588369A CN 114445456 A CN114445456 A CN 114445456A
Authority
CN
China
Prior art keywords
model
state estimation
coordinate information
network
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111588369.5A
Other languages
English (en)
Other versions
CN114445456B (zh
Inventor
刘准钆
王增科
杨衍波
鹿瑶
潘泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202111588369.5A priority Critical patent/CN114445456B/zh
Publication of CN114445456A publication Critical patent/CN114445456A/zh
Application granted granted Critical
Publication of CN114445456B publication Critical patent/CN114445456B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于部分模型的数据驱动智能机动目标跟踪方法及装置,获取机动目标的径向距离和方位角;以径向距离和方位角为输入信息,基于演化模型判别网络确定机动目标的运动类型;运动类型为CV类型、CA类型和DE类型;根据不同的运动类型采用状态估计网络不同的模型进行估计,并将估计结果进行融合得到机动目标的状态信息,可以实现在目标发生不可预知机动时发挥数据驱动方法优势获得高精度的状态估计,在目标不发生机动或弱机动时发挥运动学模型优势保证跟踪鲁棒性。

Description

基于部分模型的数据驱动智能机动目标跟踪方法及装置
技术领域
本发明属于目标跟踪技术领域,尤其涉及一种基于部分模型的数据驱动机动目标跟踪方法及装置。
背景技术
目标跟踪是主体通过各种观测手段和计算方法,对客体运动的状态建模、估计跟踪的过程。从此概念提出以来其研究成果已经广泛应用于军事领域和民用领域,军用领域包括导弹拦截、飞行器侦查和追踪、预警突防、战场实时监控等。民用领域涵盖地面人体跟踪、交通监管、空中客机管制、海域航船监测及当下比较热门的无人车辆驾驶、计算机视觉方面的人脸识别,手势跟踪等。雷达凭借其全天候的工作状态,成为了战略防御系统的重要传感器之一,基于雷达回波点的目标跟踪也成为了备受关注的技术手段。
随着航空航天的技术发展,出于高速侦察和躲避跟踪等任务的需求,现阶段飞行器具备了高机动飞行的能力。相比于普通的机动运动,高机动是指目标的加速度或运动模式在短时间内发生剧烈变化的一种运动模式。对于高机动的雷达点迹目标跟踪任务,目前大部分传统的技术方案采取贝叶斯滤波框架,即以位置、速度、加速度等作为目标的状态量,以径向距离、方位角等作为量测,建立状态空间方程,再在一系列数学假设下(如高斯假设)利用卡尔曼滤波方法对目标进行状态估计。针对高机动目标跟踪其主要难点在于目标运动模型的建立,传统方法中主要包括单模型方法和多模型方法。单模型的方法往往假设目标加速度满足不同的统计规律,包括可调白噪声、Singer模型、当前统计模型(CS)等;多模型方法主要通过构建多个模型,在目标运动过程中实现模型之间的软硬切换,实现模型的融合互补,主要包括固定结构多模型和变结构多模型,应用最广泛的是交互式多模型(IMM)及其各种变式。
传统的目标跟踪方法中,往往需要提供充分的先验知识以及设定相应的先验参数,同时还需要在统计意义上满足相应的假设,而这些对于做高机动的目标而言,都是相对难以获取的。例如在单模型方法中需要对目标的运动方式充分了解才能构建出适合目标的运动模型;多模型方法中需要对模型的转移概率初始值参数进行合理设定;往往需要做出量测噪声和过程噪声为高斯噪声的假设,并设定其协方差参数等等。这些都对先验匮乏的高机动目标跟踪带来了挑战。
随着深度学习地不断发展,利用历史航迹信息作为样本,通过“学习”的思想实现目标轨迹的估计越来越受到人们的重视。这种方法往往通过构建大量的历史航迹数据集,设计一个深度神经网络,采用数据驱动的方式来学习量测与目标状态之间的关系,最后以该网络结构及其训练完成的权重实现对新目标的跟踪。
近年来不断有使用神经网络来进行目标跟踪的成果出现,这种数据驱动的方法一定程度上能够避免传统方法的先验知识匮乏的问题。它们大多都以精心设计的网络结构作为先验,有的利用历史航迹学习动力学模型参数,有的学习演化规律,有的学习卡尔曼滤波后的估计误差再进行补偿等等。
而在数据驱动方法中,最大的不足是网络的泛化性能难以保障。深度神经网络十分依赖于训练样本,尽管大部分情况下在训练网络时都会尽可能的提供大量样本,但对于高机动目标而言,不可能构造出完全覆盖所有机动形式的样本库,对于如何精确跟踪未曾在训练集中出现过的机动形式的目标,这又是对数据驱动方法提出了更高的要求。
发明内容
本发明的目的是提供一种基于部分模型的数据驱动智能机动目标跟踪方法及装置,以在先验匮乏下实现高机动目标跟踪。
本发明采用以下技术方案:基于部分模型的数据驱动智能机动目标跟踪方法,包括以下步骤:
获取机动目标的径向距离和方位角;
以径向距离和方位角为输入信息,基于演化模型判别网络确定机动目标的运动类型;运动类型为CV类型、CA类型和DE类型;
当为CV类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型和DE模型,得到基于CV模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;
当为CA类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CA模型和DE模型,得到基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;
当为DE类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型、CA模型和DE模型,得到基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息。
进一步地,获取机动目标的径向距离和方位角包括:
以当前时刻为终点、预定时间窗为长度,获取机动目标的航迹段;
在航迹段内根据预定采样间隔,获取机动目标的多个径向距离和方位角。
进一步地,基于演化模型判别网络确定机动目标的运动类型包括:
采用归一化层对输入信息进行归一化处理;
依次用两个一维卷积滤波器对归一化处理后的输入信息进行滤波;其中,第一个一维卷积滤波器输出5个通道,第二个一维卷积滤波器输出8个通道;
采用差分层对滤波后的输入信息进行差分运算;
使用三层LSTM层网络对差分运算后的输入信息进行时序信息的提取;其中,三层LSTM层网络中的隐层神经元数量均为5个;
采用全连接层和softmax激活函数对时序信息进行判别,得到机动目标的运动类型。
进一步地,通过CV模型进行状态估计包括:
将径向距离和方位角转换为坐标信息;
对坐标信息进行归一化处理;
从归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对其他时刻对应的坐标信息进行滤波;
使用三层LSTM层网络对滤波后的坐标信息进行计算,并将计算结果输入第一全连接层,得到平衡系数K′;
使用运动演化模型FCV对滤波后的坐标信息进行一步预测,得到一步预测值;
根据一步预测值、平衡系数K′和当前时刻对应的坐标信息计算得出基于CV模型的状态估计。
进一步地,通过CA模型进行状态估计包括:
将径向距离和方位角转换为坐标信息;
对坐标信息进行归一化处理;
从归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对其他时刻对应的坐标信息进行滤波;
使用三层LSTM层网络对滤波后的坐标信息进行计算,并将计算结果输入第二全连接层,得到平衡系数K′;
使用运动演化模型FCA对滤波后的坐标信息进行一步预测,得到一步预测值;
根据一步预测值、平衡系数K′和当前时刻对应的坐标信息计算得出基于CA模型的状态估计。
进一步地,通过DE模型进行状态估计包括:
通过
Figure BDA0003428843470000051
将径向距离和方位角转换为坐标信息;
对坐标信息进行归一化处理;
从归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对其他时刻对应的坐标信息进行滤波;
使用三层LSTM层网络对滤波后的坐标信息进行计算;
将计算后的坐标信息输入第三全连接层得到平衡系数K′;其中,三层LSTM层网络中的隐层神经元数目逐层递增;
将计算后的坐标信息输入第四全连接层得到一步预测值;
根据一步预测值、平衡系数K′和当前时刻对应的归一化处理后的坐标信息计算得出基于DE模型的状态估计。
进一步地,融合基于CV模型的状态估计和基于DE模型的状态估计具体通过以下公式:
Figure BDA0003428843470000052
其中,Xω为ω时刻的机动目标的状态信息,acc为演化模型判别网络的识别正确率,
Figure BDA0003428843470000061
为ω时刻的基于CV模型的状态估计,
Figure BDA0003428843470000062
为ω时刻的基于DE模型的状态估计;
融合基于CA模型的状态估计和基于DE模型的状态估计具体通过以下公式:
Figure BDA0003428843470000063
其中,
Figure BDA0003428843470000064
为ω时刻的基于CA模型的状态估计。
进一步地,融合基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计具体通过以下公式:
Figure BDA0003428843470000065
本发明的另一种技术方案:基于部分模型的数据驱动智能机动目标跟踪装置,包括:
获取模块,用于获取机动目标的径向距离和方位角;
确定模块,用于以径向距离和方位角为输入信息,基于演化模型判别网络确定机动目标的运动类型;运动类型为CV类型、CA类型和DE类型;
估计融合模块,用于当为CV类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型和DE模型,得到基于CV模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;
当为CA类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CA模型和DE模型,得到基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;
当为DE类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型、CA模型和DE模型,得到基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息。
本发明的另一种技术方案:基于部分模型的数据驱动智能机动目标跟踪装置,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述的一种基于部分模型的数据驱动机动目标跟踪方法。
本发明的有益效果是:本发明先通过演化模型判别网络确定机动目标的运动类型,再根据不同的运动类型采用状态估计网络的不同模型对输入信息进行估计,得到机动目标的状态估计,最后采用将不同模型的状态估计进行融合,可以实现机动目标跟踪的鲁棒性。
附图说明
图1为本发明实施例基于部分模型的数据驱动智能机动目标跟踪方法的流程图;
图2为本发明实施例中演化模型判别网络的工作流程图;
图3为本发明实施例中CV模型和CA模型的状态估计流程图;
图4为本发明实施例中DE模型的状态估计流程图;
图5为本发明实施例的方法与单漠型方法的RMSE曲线对比图;
图6为本发明实施例的方法与多漠型方法的RMSE曲线对比图;
图7为本发明实施例方法的估计航迹与IMM方法的估计航迹对比图;
图8为本发明实施例的方法与DMTT方法的RMSE曲线对比图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明公开了一种基于部分模型的数据驱动智能机动目标跟踪方法及装置,属于信息融合和目标跟踪技术领域。由于目标在做高机动时先验匮乏,其运动演化模型难以建立,并且使用数据驱动的方法又难以覆盖所有机动形式,因此本发明将部分经典运动演化模型和数据驱动的方案相结合,以更好的完成对高机动目标的跟踪任务。
为了便于说明,本发明首先在笛卡尔坐标系o-xy下构建仿真数据集,以径向距离R和方位角θ作为量测输入,将目标真实状态(即在笛卡尔坐标系下的坐标位置信息)作为输出,分别建立演化模型判别网络和状态估计网络两个神经网络,针对演化模型判别网络的不同分类结果,采用传统基于运动学模型(此处选择匀速运动(constant velocity,CV)模型和匀加速运动(constant acceleration,CA)模型)和网络学习的基于数据驱动演化(data-driven evolution,DE)模型完成状态估计,最后将其结果加权融合,实现高机动目标跟踪。
本发明实施例公开了一种基于部分模型的数据驱动智能机动目标跟踪方法,如图1所示,包括以下步骤:获取机动目标的径向距离和方位角;以径向距离和方位角为输入信息,基于演化模型判别网络确定机动目标的运动类型;运动类型为CV类型、CA类型和DE类型;当为CV类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型和DE模型,得到基于CV模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;当为CA类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CA模型和DE模型,得到基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;当为DE类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型、CA模型和DE模型,得到基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息。
本发明先通过演化模型判别网络确定机动目标的运动类型,再根据不同的运动类型采用状态估计网络的不同模型对输入信息进行估计,得到机动目标的状态估计,最后采用将不同模型的状态估计进行融合,可以实现机动目标跟踪的鲁棒性。
首先,由于该演化模型判别网络构建后需要对其进行训练,已获得更为准确的网络参数。具体采用下述的训练方法。
在笛卡尔坐标系o-xy下生成训练样本。经查阅资料,仿真场景中雷达采样间隔设为T=1s,目标运动的速度设置为300~400m/s,整条航迹由匀速运动(CV)模型、匀加速运动(CA)模型和匀速转弯(CT)模型演化构成,机动发生的时间随机分布,具体由每一段运动模型的持续时间的随机性保证,各个参数如表1所示。
比如,在120s的完整航迹中,起始时CV模型维持时间满足10~15s的均匀分布,接下来切换为CA模型,维持时间满足5~10s的均匀分布,以此类推实现整条航迹在时间维度上发生随机机动。同时,生成训练样本时目标的速度、加速度以及转弯率也都是随机的,CA模型的加速度服从3g~4g的均匀分布,CT模型的加速度服从3.5g~4g的均匀分布,第一次转弯的转弯率是随机分布而第二次转弯的转弯率是第一次转弯率的-1.1倍。除此以外,还需要给航迹加入过程噪声,在这里统一采用零均值的高斯噪声,CV模型的高斯噪声标准差也服从1~2m/s2的均匀分布,CA和CT模型的标准差服从2.5~5m/s2的均匀分布。
表1航迹的机动参数表
Figure BDA0003428843470000101
通过上述方法,保证了训练样本的多样性和随机性,且在满足上述条件下,生成5000条航迹。
生成上述的航迹后,为了获得更准确的状态估计,并非是将每一条航迹上的瞬时量测信息作为训练样本,而是获取航迹上某一时间段的量测信息,将该段量测信息作为其终点位置的量测信息,来作为输入的训练样本。
获取机动目标的径向距离和方位角包括:以当前时刻为终点、预定时间窗为长度,获取机动目标的航迹段;在航迹段内根据预定采样间隔,获取机动目标的多个径向距离和方位角。
也就是说,在训练样本输入演化模型判别网络进行训练前,还需要对训练样本在时间维度上按照时间窗的大小进行分段处理。传统跟踪滤波方法认为目标运动服从马尔科夫假设,即当前时刻的目标状态只与前一时刻的状态有关,而实际情况中目标往往都是在一段时间保持着相同的运动规律,因此在考虑使用数据驱动方法时,先按一个固定长度的时间窗将一条完整航迹分为多个航迹段。时间窗通过在整条航迹上滑动的形式进行分段,若时间窗长度为ω,则一条时间长度为L的航迹即可被分为(L-ω+1)个航迹段,将航迹段作为训练样本输入进神经网络,即网络聚焦于时间窗内的数据,而非整条航迹。本实施例中实验场景选择时间窗大小为ω=10。
关于演化模型判别网络的工作过程,采用归一化层对输入信息进行归一化处理;依次用两个一维卷积滤波器对归一化处理后的输入信息进行滤波;其中,第一个一维卷积滤波器输出5个通道,第二个一维卷积滤波器输出8个通道;采用差分层对滤波后的输入信息进行差分运算;使用三层LSTM层网络对差分运算后的输入信息进行时序信息的提取;其中,三层LSTM层网络中的隐层神经元数量均为5个;采用全连接层和softmax激活函数对时序信息进行判别,得到机动目标的运动类型。
该网络其主要由依次连接的归一化层、两层卷积滤波层、差分层、三层LSTM层以及全连接层组成。该演化模型判别网络作用是判断当前时间窗里,目标更接近于何种运动形式,进而用不同的运动模型来进行状态估计。
其流程图如图2所示。归一化层以量测数据R和θ作为输入,在一个时间窗内对其按公式
Figure BDA0003428843470000111
进行最大最小值归一化处理。其中,X是要归一化处理的值(如R或θ),Xmin为在时间窗内的多个要归一化处理的值中最小的值,Xmax是在时间窗内的多个要归一化处理的值中最大的值,进而,通过归一化处理,可以将一个时间窗内的每个参数(如R或θ)的取值范围均设定在[0,1],以方便后面的其他处理。
例如,当w=10,在一个时间窗内会有10组训练样本,每组训练样本包含两个参数,分别为R和θ。在10组参数中,R的最大值为55,最小值为38,则Xmax=55,Xmin=38,当对一个R值为43的参数进行归一化处理时,结果即为
Figure BDA0003428843470000112
接着使用两层一维卷积滤波,两个一维卷积滤波器都设置为3*3大小,使用填充(padding)方法保证输出与输入大小一致,第一个滤波器输出5个通道,第二个滤波器输出8个通道,用于扩展测量数据的维度。在图像处理领域,常使用一个固定大小的卷积核围绕着图像中一个中心点对其邻域进行运算,通过卷积核的滑动,扫描整个图像完成滤波,后来出现的卷积神经网络则利用该方法来提取图像的空间特征。考虑到在本本发明实施例中,数据维数较小,因此使用两个一维卷积核来完成初步滤波,完成卷积滤波后,得到多组处理后的数据,每一组中的数据均是和输入的R和θ相对应的多维数据。
紧接着,在差分层对数据进行差分运算,将时间维度上的二阶差分作为测量值的变化特征,作为判断机动的主要因素。在做差分后,时间窗的长度变为了(ω-2),即得到了(ω-2)组新的数据。
为了得到这(ω-2)组数据间的关系,紧接着使用了三层长短时记忆(LSTM)网络,三层LSTM网络中的隐层神经元数量均为5个,其核心公式为:
Figure BDA0003428843470000121
其中,主要包括了遗忘门ft、输入门it、输出门ot、隐状态ht、候选存储单元
Figure BDA0003428843470000122
和存储单元ct,它们通过sigmoid函数σ,tanh函数和点乘⊙进行组合计算,实现对时序数据(即上式中的X)的记忆和遗忘,xt表示t时刻的输入,Wfh、Wfx、Wih、Wix、Woh、Wox、Wch和Wcx分别表示各个门的权重,bf、bi、bo和bc分别表示各个门的偏置。另外,由于此处为经过差分层的数据,数据格式为bs*(ω-2)*8,bs是每一批(即航迹段的数量)的样本数目,(ω-2)是差分后每个样本在时间窗里的时序数据量,8是属性个数,由第二层卷积滤波后得到,即第二个卷积滤波器的通道数为8。
在三层LSTM之后,将最后一个时间步长数据(即每个航迹段的终点对应的预测数据)输出,经过一个全连接层,并使用softmax函数获得当前时刻目标运动模型的概率。将运动模型分为CV、CA和DE模型,使用分类任务常用的交叉熵损失函数,将演化模型判别网络的输出结果与手动标记的标签进行比较以起到监督作用。
在训练演化模型判别网络时,可以将上述生成的5000条航迹中4000条用于训练,1000条用于验证。由于雷达数据的低维性,一次可以训练多批数据。将每一批的样本数目(batch size)设置为1024,使用Adam优化器,学习率设置为0.001,设置300轮训练循环,并限制在两次循环间误差绝对值之差小于0.0001时停止训练。
通过以上步骤即可完成演化模型判别网络的训练。当需要对测试数据进行测试时,只需要从测试数据中获取到当前航迹段中的若干组参数R或θ,再将该航迹段内的若干组参数输入到训练好的演化模型判别网络,即可得到当前时刻的目标运动模型的概率。其中,这里说的航迹段指的是以当前时刻为终点的航迹段。目标运动模型的概率指的是当前时刻目标的运动模型属于CV模型的概率、CA模型的概率和DE模型的概率的组合,例如,当前时刻目标运动模型的概率可以表示为(CV,0.6;CA,0.3;DE,0.1),其含义即为当前时刻目标运动模型为CV模型的概率是60%、CA模型的概率是30%、及DE模型的概率是10%。
经过训练的演化模型判别网络的判别结果也不会完全准确,在此只能做粗略的分类判别,记录其在验证集上的准确率,并以该准确率作为权重,在之后的跟踪过程中进一步对结果进行加权融合矫正。
当训练完演化模型判别网络后,即构建并训练状态估计网络。构建状态估计网络的目的主要有两个,一个是在面对目标未知的机动模式或不易建立显式模型时,利用已有的训练数据来学习一个数据驱动演化(data-driven evolution,DE)模型;另一个是在先验匮乏的情况下,通过神经网络拟合的方式来代替人工提供先验参数。
长期以来传统卡尔曼滤波器在目标跟踪领域取得了良好的效果,其对于将最新量测数据与目标一步预测数据相融合的思想十分值得借鉴。在这个过程中最为核心的参数即为卡尔曼增益K,它包含了目标运动中过程噪声引起的误差、估计误差和量测噪声引起的误差,平衡着量测数据和一步预测数据的关系,因此在本实施例中通过网络学习获取一个起到卡尔曼增益功能的系数,称之为平衡系数K′。
具体的,当通过CV模型进行状态估计包括:将径向距离和方位角转换为坐标信息;对坐标信息进行归一化处理;从归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对其他时刻对应的坐标信息进行滤波;使用三层LSTM层网络对滤波后的坐标信息进行计算,并将计算结果输入第一全连接层,得到平衡系数K′;使用运动演化模型FCV对滤波后的坐标信息进行一步预测,得到一步预测值;根据一步预测值、平衡系数K′和当前时刻对应的坐标信息计算得出基于CV模型的状态估计。
通过CA模型进行状态估计与上述的方法是一致的,只需在计算的时候将其中演化模型FCV更换为演化模型FCA即可。
在状态估计网络的训练过程中,整个状态估计网络的主要作用可以概括为,根据上述训练好的演化模型判别网络的分类结果,对属于DE模型的训练样本,学习其隐式的演化规律来完成一步预测,并学习平衡系数K′完成目标状态估计。对基于运动学模型的训练样本利用已有的先验动力学模型完成一步预测,利用网络学习平衡系数K′完成目标状态估计,最后将两者的估计结果进行加权融合。
对于不同运动模型下的目标样本,状态估计网络结构也有所不同。当演化模型判别网络判断当前时间窗内(即该时间窗对应的当前时刻)目标为基于运动学的模型时,其结构图如图3所示,由空间转换操作、归一化层、卷积滤波层、LSTM层、一步预测操作、状态更新操作和全连接层组成。在这种情况下,由于运动模型(即卡尔曼滤波中的CV和CA模型)已知,可以直接进行一步预测,网络的核心在于对平衡系数K′的学习。首先对量测R和θ用singe模型下的扩展卡尔曼滤波(Singer-EKF)进行量测空间到状态空间的转换,将其转换为笛卡尔坐标系下的(x,y)坐标。由于在Singer模型对目标加速度的假设下,当加速度由0变换到∞的过程可以看作是从CV模型到CA模型的变化过程,因此在这里选择Singer模型来完成数据的空间转换较为合适。接下来,经过归一化层对数据进行最大最小值归一化,取时间窗内的最后一个时刻(第ω时刻)的数据作为该时间窗内的最新量测Zw,而前(ω-1)个数据则经过两层一维卷积滤波后,一路通过三层神经元数相同的LSTM网络来提取这(ω-1)个数据的时序信息,再利用全连接层获取平衡系数K′;另一路则对第(ω-1)个数据利用运动演化模型FCV、FCA求其一步预测,最后将一步预测值
Figure BDA0003428843470000161
(即用卡尔曼滤波计算出来的)和最新量测值Zw通过平衡参数进行联合完成状态更新,得到该时间窗里第ω时刻的最终状态估计值,如下公式。
Figure BDA0003428843470000162
其中,
Figure BDA0003428843470000163
表示(ω-1)时刻的状态估计,
Figure BDA0003428843470000164
表示目标在ω时刻的状态,包括笛卡尔坐标系下的x、y两维坐标,F*表示动力学模型,包括CV模型FCV和CA模型FCA,T表示采样周期;
Figure BDA0003428843470000165
表示一步预测的状态,K′表示网络学习到的平衡系数。
当演化模型判别网络判断当前时间窗内(即该时间窗对应的当前时刻)目标为DE模型时,通过
Figure BDA0003428843470000166
将径向距离和方位角转换为坐标信息;对坐标信息进行归一化处理;从归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对其他时刻对应的坐标信息进行滤波;使用三层LSTM层网络对滤波后的坐标信息进行计算;将计算后的坐标信息输入第三全连接层得到平衡系数K′;其中,三层LSTM层网络中的隐层神经元数目逐层递增;将计算后的坐标信息输入第四全连接层得到一步预测值;根据一步预测值、平衡系数K′和当前时刻对应的归一化处理后的坐标信息计算得出基于DE模型的状态估计。
对于DE运动模型和其平衡参数的学习,其网络结构如图4所示,由空间转换操作、归一化层、卷积滤波层、LSTM层(进行LSTM隐式预测操作)、状态更新操作和全连接层组成。
与上述判断为CV和CA模型不同的是,由于此时不知道具体的运动演化模型,无法直接由第(ω-1)时刻的状态直接进行一步预测,所以在上述网络结构上做出修改。首先,此时使用singer模型已经不再合适,所以在这里直接按照
Figure BDA0003428843470000171
的方式完成量测空间到状态空间的转换,接下来同样经过归一化一维卷积滤波层以及取最后一个时间窗数据作为最新量测等操作。但此处使用的三层LSTM网络,其隐层神经元数目逐层递增,目的是能够充分学习到输入数据的时序信息,这样才能满足预测和学习平衡参数两项任务。当提取了时序信息以后,将最后一层的LSTM网络结果分为两路,一路用全连接层拟合平衡参数K′,另一路则利用全连接层来将输出维度降至与目标状态维度相同,并在时间维度上取最后一个时刻的数据作为LSTM隐式预测
Figure BDA0003428843470000172
最后根据最新量测估计Zw进行状态更新。
Figure BDA0003428843470000173
即按照上式完成第ω时刻状态估计,其中,
Figure BDA0003428843470000174
表示基于DE模型的目标ω时刻的状态;
Figure BDA0003428843470000175
表示LSTM隐式预测的状态;K′DE表示网络学习到的平衡系数。
以上三种运动模型下的状态估计网络,一维卷积滤波器的参数与模型分类网络相同,在目标被判断为基于CV、CA模型时,所使用的状态估计网络(图3)结构中三层LSTM的隐含层神经元数均设置为10,而在目标被判断为DE模型时,所使用的状态估计网络(图4)结构中三层LSTM的隐含层神经元数目依次为32,64,128
基于运动学模型的状态估计网络结构中,三层LSTM的隐含层神经元数均设置为10,而DE模型下的网络结构中三层LSTM的隐含层神经元数目依次为32,64,128,最终都由全连接层将其输出维度控制在目标状态的维度。使用MSE损失函数,状态估计网络均由Adam优化器优化,学习率设置为0.001,设置500轮训练循环,并限制在两次循环间误差绝对值之差小于0.1时停止训练。
由于演化模型判别网络难免在分类上有误差,因此借鉴多模型的思想,将CV、CA、DE模型下状态估计的结果进行加权融合,互相补足信息以提高跟踪精度,如下公式所示:
Figure BDA0003428843470000181
其中,Xω为ω时刻的机动目标的状态信息,flagw表示演化模型判别网络对当前时间窗的运动模型判断结果,acc为演化模型判别网络的识别正确率,本实施例中为80%,它代表着分类结果有80%的可信度,剩余的20%由其他模型进行补足,
Figure BDA0003428843470000182
为ω时刻的基于CV模型的状态估计,
Figure BDA0003428843470000183
为ω时刻的基于DE模型的状态估计,
Figure BDA0003428843470000184
为ω时刻的基于CA模型的状态估计。
值得一提的是,由于学习DE模型是使用了全部的航迹训练样本(即4000条),而在CV、CA模型的平衡参数学习过程中只使用了被模型判别网络判断为CV、CA模型的训练样本(即4000条中的一部分),因此DE模型下的估计结果可用作对其的补足。
另外,本发明实施例中还进行了验证实施:
设置雷达径向探测距离R的范围为(900m,50000m)、方位角θ范围(-π,π)的仿真场景,R噪声标准差范围11m,θ噪声标准差范围为0.008rad,在该场景下随机选择一条航迹,并进行1000次蒙特卡洛仿真。将本发明方法与单模型跟踪方法、多模型跟踪方法和数据驱动方法进行对比实验,单模型方法选择Singer模型下的扩展卡尔曼滤波(Singer-EKF)和基于当前统计模型的强跟踪滤波器(STF-CS),多模型方法选择交互式多模型(IMM)方法,神经网络的方法选择DMTT方法。在卡尔曼滤波过程中涉及到非线性部分时,都是用扩展卡尔曼滤波进行处理。同时,由于卡尔曼滤波在获得精确参数和模型匹配的情况,能够获得非常出色的效果,因此设置已知先验参数和模型的卡尔曼滤波(Kalman filter with knownparameters,KF-KP)的RMSE作为对比实验的基准线,设置未进行任何滤波操作的量测数据直接转为状态(measurement to state,MtoC)的RMSE作为参考线,以此来比较本发明方法和其它方法的优劣。
与单模型方法对比的RMSE曲线如图5所示,其中,Singer模型的关键参数机动频率参考相关文献设置为α=1/20,加速度方差根据经验公式
Figure BDA0003428843470000191
设置,amax表示最大加速度,Pmax和P0分别代表了加速度取最大值和0时的概率。α和
Figure BDA0003428843470000192
这两项参数本质决定的是过程噪声协方差Q大小。STF-CS兼有强跟踪滤波器和当前统计模型的优势,通过引入衰减因子实时调整滤波器增益以增强对突发机动的自适应跟踪能力,并使用“当前”统计模型确保一般机动时的跟踪精度。图中展现的是目标位置的估计RMSE曲线,公式如下所示,在已知采样频率的情况下,目标的速度和加速度都可以通过差分的方式来获取,估计一个准确的位置信息最为重要。
从图中可以看出,本发明方法的平均RMSE均小于单模型的跟踪方法,仅在Singer模型参数取到真实符合目标机动的情况时会出现比所提方法RMSE小的情况,但要想获取到真实的先验参数往往比较困难,总体来看和基于单模型的跟踪方法相比,本发明所提出的方法具有更高的滤波精度。具体的RMSE计算方法为:
Figure BDA0003428843470000201
与多模型方法对比的RMSE曲线如图6所示。选择IMM与本发明方法对比,可以看到IMM作为经典的多模型方法,在其先验参数的理想条件下,会比本发明的跟踪误差更小,具有良好的跟踪精度。
然而,当目标机动时,它会在一段时间后开始切换模型。由于模型集中的先验参数可能不符合实际运动情况,或者此时模型集无法覆盖运动状态,因此RMSE曲线上经常出现高峰值。而本发明基于数据驱动的方法能够一定程度上的避免这个问题,其中平衡系数的学习、未知的演化规律的学习以及各个模型间的融合,都使得峰值问题可以被较好的解决,最终的平均精度优于IMM算法,它反映在航迹上如图7所示。Trajectory表示真实的航迹,IMM表示已有的方法估计得到的航迹,net是本发明方法估计的航迹。
与其他神经网路的跟踪方法对比如图8所示。目前,深度学习方法在雷达点跟踪目标跟踪中的应用还处于初步探索阶段,尚未形成经典的全场景通用方法。因此,选择完成度更高、跟踪效果更好且提供了相关代码的DMTT方法作为比较。由于DMTT方法的原文的仿真场景在机动性上和本发明实施例的仿真场景有很大的不同,因此使用本发明实施例数据集在其原文所提出的网络结构上进行重新训练,并将原文的采样间隔设置为同本发明实施例实验设定相同的T=1s,这是因为使用T=1s作为采样周期是一种在实际应用中比较常见且合理的策略。因此,将DMTT算法中的采样间隔也设置为1s,增加训练次数,以确保达到与原始DMTT方法相同的训练水平。从结果可以看出,DMTT算法作为对使用基于匀速运动的无迹卡尔曼滤波方法(CV-UKF)跟踪结果的误差补偿方法,较难对目标高机动时精准跟踪,特别是目标明显不符合CV运动规律时,此时再依赖于对单模型方法的误差补偿,就会出现像传统多模型方法一样的高峰误差,而本发明方法则表现得更为稳定,拥有更高的平均精度。
最后,总结上述仿真实验验证,本发明方法相较于单模型跟踪方法有更高的平均跟踪精度;与多模型方法相比具有更稳定的跟踪效果,不易产生过大的局部偏差;与深度学习的DMTT方法比能够在不是很小的采样周期里实现对频繁机动的目标精确跟踪,具有较强的实用性。
综上,本发明构建了演化模型判别网络,将o-xy平面的机动目标的演化模型分为基于运动学的模型(此处选择CV、CA)和基于数据驱动的DE模型,对一个时间窗口内的量测数据进行分类以获知当前目标更可能属于何种运动类型。并在最终的状态估计融合时以此网络的分类准确率作为权重,融合状态估计网络在各个模型下的结果。
构建状态估计网络时,采取“模型+数据”的思想估计目标状态。1)对不属于基于运动学模型的目标,搭建网络学习其量测与状态间的关系,提取数据的时序信息,形成数据驱动的模型来完成一步预测,解决了传统跟踪方法对于目标做高机动时模型不易建立的问题。2)利用神经网络求取一步预测和最新量测间的平衡系数,充分利用了整个时间窗内数据的量测信息,解决了先验参数难以获取的问题。
本发明方法,一方面吸取传统基于运动学建模跟踪方法的优点,借鉴了卡尔曼滤波的框架和多模型的思想,发挥了依赖于运动学和牛顿定理建立的运动模型的优势,在先验参数获知准确时能够表现出良好的跟踪精度;另一方面利用神经网络这种数据驱动的方法,在运动模型难以显式建立时利用历史数据完成目标状态的动态演化,进一步获取滤波模型的核心参数。即在运动学模型不能描述目标机动时使用神经网络拟合的方式来减少模型失配引起的峰值误差,在运动模型可以描述目标机动时为其尽可能提供准确的滤波参数来确保估计的鲁棒性。最终在经典模型的辅助下,利用大量历史数据驱动的目标跟踪方法能够表现出更高的跟踪精度,一定程度上解决了高机动目标跟踪先验匮乏的问题。
本发明还公开了一种基于部分模型的数据驱动智能机动目标跟踪装置,包括:获取模块,用于获取机动目标的径向距离和方位角;确定模块,用于以径向距离和方位角为输入信息,基于演化模型判别网络确定机动目标的运动类型;运动类型为CV类型、CA类型和DE类型;估计融合模块,用于当为CV类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型和DE模型,得到基于CV模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;当为CA类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CA模型和DE模型,得到基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息;当为DE类型时,将径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型、CA模型和DE模型,得到基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计并融合,得到机动目标的状态信息。
需要说明的是,上述装置的模块之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将所述装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明的另一种技术方案:基于部分模型的数据驱动智能机动目标跟踪装置,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述的一种基于部分模型的数据驱动智能机动目标跟踪方法。
所述装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该装置可包括但不仅限于,处理器、存储器。本领域技术人员可以理解,该装置可以包括更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器在一些实施例中可以是所述装置的内部存储单元,例如装置的硬盘或内存。所述存储器在另一些实施例中也可以是所述装置的外部存储设备,例如所述装置上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器还可以既包括所述装置的内部存储单元也包括外部存储设备。所述存储器用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器还可以用于暂时地存储已经输出或者将要输出的数据。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。本领域普通技术人员可以意识到,结合本发明中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

Claims (10)

1.基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,包括以下步骤:
获取机动目标的径向距离和方位角;
以所述径向距离和方位角为输入信息,基于演化模型判别网络确定所述机动目标的运动类型;所述运动类型为CV类型、CA类型和DE类型;
当为所述CV类型时,将所述径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型和DE模型,得到基于CV模型的状态估计和基于DE模型的状态估计并融合,得到所述机动目标的状态信息;
当为所述CA类型时,将所述径向距离和方位角作为输入信息分别输入到状态估计网络的CA模型和DE模型,得到基于CA模型的状态估计和基于DE模型的状态估计并融合,得到所述机动目标的状态信息;
当为所述DE类型时,将所述径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型、CA模型和DE模型,得到基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计并融合,得到所述机动目标的状态信息。
2.如权利要求1所述的基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,获取机动目标的径向距离和方位角包括:
以当前时刻为终点、预定时间窗为长度,获取所述机动目标的航迹段;
在所述航迹段内根据预定采样间隔,获取所述机动目标的多个径向距离和方位角。
3.如权利要求2所述的基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,基于演化模型判别网络确定所述机动目标的运动类型包括:
采用归一化层对所述输入信息进行归一化处理;
依次用两个一维卷积滤波器对归一化处理后的输入信息进行滤波;其中,第一个一维卷积滤波器输出5个通道,第二个一维卷积滤波器输出8个通道;
采用差分层对滤波后的输入信息进行差分运算;
使用三层LSTM层网络对差分运算后的输入信息进行时序信息的提取;其中,三层所述LSTM层网络中的隐层神经元数量均为5个;
采用全连接层和softmax激活函数对所述时序信息进行判别,得到所述机动目标的运动类型。
4.如权利要求1所述的基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,通过所述CV模型进行状态估计包括:
将所述径向距离和方位角转换为坐标信息;
对所述坐标信息进行归一化处理;
从所述归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对所述其他时刻对应的坐标信息进行滤波;
使用三层LSTM层网络对滤波后的坐标信息进行计算,并将计算结果输入第一全连接层,得到平衡系数K′;
使用运动演化模型FCV对滤波后的坐标信息进行一步预测,得到一步预测值;
根据所述一步预测值、所述平衡系数K′和当前时刻对应的坐标信息计算得出基于CV模型的状态估计。
5.如权利要求1所述的基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,通过所述CA模型进行状态估计包括:
将所述径向距离和方位角转换为坐标信息;
对所述坐标信息进行归一化处理;
从所述归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对所述其他时刻对应的坐标信息进行滤波;
使用三层LSTM层网络对滤波后的坐标信息进行计算,并将计算结果输入第二全连接层,得到平衡系数K′;
使用运动演化模型FCA对滤波后的坐标信息进行一步预测,得到一步预测值;
根据所述一步预测值、所述平衡系数K′和当前时刻对应的坐标信息计算得出基于CA模型的状态估计。
6.如权利要求1所述的基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,通过所述DE模型进行状态估计包括:
通过
Figure FDA0003428843460000031
将所述径向距离和方位角转换为坐标信息;
对所述坐标信息进行归一化处理;
从所述归一化处理后的坐标信息中提取出除当前时刻对应的坐标信息外的其他时刻对应的坐标信息,并采用两个一维卷积滤波器依次对所述其他时刻对应的坐标信息进行滤波;
使用三层LSTM层网络对滤波后的坐标信息进行计算;
将计算后的坐标信息输入第三全连接层得到平衡系数K′;其中,三层所述LSTM层网络中的隐层神经元数目逐层递增;
将计算后的坐标信息输入第四全连接层得到一步预测值;
根据所述一步预测值、所述平衡系数K′和当前时刻对应的归一化处理后的坐标信息计算得出基于DE模型的状态估计。
7.如权利要求4-6任一所述的基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,融合所述基于CV模型的状态估计和基于DE模型的状态估计具体通过以下公式:
Figure FDA0003428843460000041
其中,Xω为ω时刻的所述机动目标的状态信息,acc为演化模型判别网络的识别正确率,
Figure FDA0003428843460000042
为ω时刻的基于CV模型的状态估计,
Figure FDA0003428843460000043
为ω时刻的基于DE模型的状态估计;
融合所述基于CA模型的状态估计和基于DE模型的状态估计具体通过以下公式:
Figure FDA0003428843460000044
其中,
Figure FDA0003428843460000045
为ω时刻的基于CA模型的状态估计。
8.如权利要求7任一所述的基于部分模型的数据驱动智能机动目标跟踪方法,其特征在于,融合所述基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计具体通过以下公式:
Figure FDA0003428843460000046
9.基于部分模型的数据驱动智能机动目标跟踪装置,其特征在于,包括:
获取模块,用于获取机动目标的径向距离和方位角;
确定模块,用于以所述径向距离和方位角为输入信息,基于演化模型判别网络确定所述机动目标的运动类型;所述运动类型为CV类型、CA类型和DE类型;
估计融合模块,用于当为所述CV类型时,将所述径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型和DE模型,得到基于CV模型的状态估计和基于DE模型的状态估计并融合,得到所述机动目标的状态信息;
当为所述CA类型时,将所述径向距离和方位角作为输入信息分别输入到状态估计网络的CA模型和DE模型,得到基于CA模型的状态估计和基于DE模型的状态估计并融合,得到所述机动目标的状态信息;
当为所述DE类型时,将所述径向距离和方位角作为输入信息分别输入到状态估计网络的CV模型、CA模型和DE模型,得到基于CV模型的状态估计、基于CA模型的状态估计和基于DE模型的状态估计并融合,得到所述机动目标的状态信息。
10.基于部分模型的数据驱动智能机动目标跟踪装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-8任一项所述的一种基于部分模型的数据驱动机动目标跟踪方法。
CN202111588369.5A 2021-12-23 2021-12-23 基于部分模型的数据驱动智能机动目标跟踪方法及装置 Active CN114445456B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111588369.5A CN114445456B (zh) 2021-12-23 2021-12-23 基于部分模型的数据驱动智能机动目标跟踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111588369.5A CN114445456B (zh) 2021-12-23 2021-12-23 基于部分模型的数据驱动智能机动目标跟踪方法及装置

Publications (2)

Publication Number Publication Date
CN114445456A true CN114445456A (zh) 2022-05-06
CN114445456B CN114445456B (zh) 2023-04-07

Family

ID=81364688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111588369.5A Active CN114445456B (zh) 2021-12-23 2021-12-23 基于部分模型的数据驱动智能机动目标跟踪方法及装置

Country Status (1)

Country Link
CN (1) CN114445456B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116738873A (zh) * 2023-05-11 2023-09-12 北京科技大学 基于双重ukf与浮空器状态估计的三维目标跟踪方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103853908A (zh) * 2012-12-04 2014-06-11 中国科学院沈阳自动化研究所 一种自适应交互式多模型的机动目标跟踪方法
CN106546976A (zh) * 2016-10-31 2017-03-29 中国电子科技集团公司第二十九研究所 一种基于长周期非均匀采样目标跟踪处理方法及装置
CN106709453A (zh) * 2016-12-24 2017-05-24 北京工业大学 一种基于深度学习的体育视频关键姿态提取方法
CN111650577A (zh) * 2020-06-12 2020-09-11 电子科技大学 极坐标系下含多普勒量测的机动目标跟踪方法
CN112083457A (zh) * 2020-09-17 2020-12-15 哈尔滨工程大学 一种神经网络优化的imm卫星定位导航方法
CN112689875A (zh) * 2019-03-21 2021-04-20 因美纳有限公司 基于人工智能的测序
WO2021082571A1 (zh) * 2019-10-29 2021-05-06 苏宁云计算有限公司 机器人跟踪方法、装置、设备及计算机可读存储介质
US20210209388A1 (en) * 2020-01-06 2021-07-08 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN113486960A (zh) * 2021-07-12 2021-10-08 安徽耀峰雷达科技有限公司 基于长短时记忆神经网络的无人机跟踪方法、装置、存储介质及计算机设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103853908A (zh) * 2012-12-04 2014-06-11 中国科学院沈阳自动化研究所 一种自适应交互式多模型的机动目标跟踪方法
CN106546976A (zh) * 2016-10-31 2017-03-29 中国电子科技集团公司第二十九研究所 一种基于长周期非均匀采样目标跟踪处理方法及装置
CN106709453A (zh) * 2016-12-24 2017-05-24 北京工业大学 一种基于深度学习的体育视频关键姿态提取方法
CN112689875A (zh) * 2019-03-21 2021-04-20 因美纳有限公司 基于人工智能的测序
WO2021082571A1 (zh) * 2019-10-29 2021-05-06 苏宁云计算有限公司 机器人跟踪方法、装置、设备及计算机可读存储介质
US20210209388A1 (en) * 2020-01-06 2021-07-08 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111650577A (zh) * 2020-06-12 2020-09-11 电子科技大学 极坐标系下含多普勒量测的机动目标跟踪方法
CN112083457A (zh) * 2020-09-17 2020-12-15 哈尔滨工程大学 一种神经网络优化的imm卫星定位导航方法
CN113486960A (zh) * 2021-07-12 2021-10-08 安徽耀峰雷达科技有限公司 基于长短时记忆神经网络的无人机跟踪方法、装置、存储介质及计算机设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116738873A (zh) * 2023-05-11 2023-09-12 北京科技大学 基于双重ukf与浮空器状态估计的三维目标跟踪方法及装置
CN116738873B (zh) * 2023-05-11 2024-02-06 北京科技大学 基于双重ukf与浮空器状态估计的三维目标跟踪方法及装置

Also Published As

Publication number Publication date
CN114445456B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
JP6742554B1 (ja) 情報処理装置およびそれを備えた電子機器
CN110675623A (zh) 基于混合深度学习的短时交通流量预测方法、系统、装置
CN113012203A (zh) 一种复杂背景下高精度多目标跟踪方法
CN109829509B (zh) 基于融合神经网络的雷达手势识别方法
Aftab et al. A learning Gaussian process approach for maneuvering target tracking and smoothing
CN107300698B (zh) 一种基于支持向量机的雷达目标航迹起始方法
CN107193009A (zh) 一种模糊自适应多交互模型的多uuv协同系统水下目标跟踪算法
CN109325128B (zh) 一种机动目标的跟踪方法及系统
CN112052802A (zh) 一种基于机器视觉的前方车辆行为识别方法
Li et al. Detection of typical obstacles in orchards based on deep convolutional neural network
CN109557533A (zh) 一种基于模型的联合跟踪与识别方法
WO2021010342A1 (ja) 行動認識装置、行動認識方法、及び行動認識プログラム
CN114445456B (zh) 基于部分模型的数据驱动智能机动目标跟踪方法及装置
CN114586078A (zh) 手部姿态估计方法、装置、设备以及计算机存储介质
CN112946625B (zh) 基于b样条形状驱动多扩展目标航迹跟踪及分类方法
Ge et al. Credible Gaussian sum cubature Kalman filter based on non-Gaussian characteristic analysis
CN113030940A (zh) 一种转弯机动下的多星凸型扩展目标跟踪方法
CN116842827A (zh) 一种无人机飞控系统电磁性能边界模型构建方法
Helgesen Sensor fusion for detection and tracking of maritime vessels
CN103681429A (zh) 一种芯片固晶机的控制方法及控制系统
Lui et al. Long Short-Term Memory-Based Neural Networks for Missile Maneuvers Trajectories Prediction⋆
CN114296067A (zh) 基于lstm模型的脉冲多普勒雷达低慢小目标识别方法
Lv et al. An improved FastSLAM 2.0 algorithm based on FC&ASD-PSO
Liu et al. Application of the fruit fly optimization algorithm to an optimized neural network model in radar target recognition
Li et al. Radar high resolution range profile recognition via multi-SV method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant