CN109557533B - 一种基于模型的联合跟踪与识别方法 - Google Patents
一种基于模型的联合跟踪与识别方法 Download PDFInfo
- Publication number
- CN109557533B CN109557533B CN201811430152.XA CN201811430152A CN109557533B CN 109557533 B CN109557533 B CN 109557533B CN 201811430152 A CN201811430152 A CN 201811430152A CN 109557533 B CN109557533 B CN 109557533B
- Authority
- CN
- China
- Prior art keywords
- target
- moment
- particle
- model
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
Abstract
本发明公开了一种基于模型的联合跟踪与识别方法,目的是提高跟踪和识别的准确率。技术方案是先对目标运动状态与传感器观测进行建模,对目标状态、目标识别概率进行初始化;根据观测数据预测目标运动状态模型和观测模型;对目标的状态和类别进行联合跟踪与识别,得到目标状态估计和目标识别概率估计值;判断目标识别概率估计值中的最大值是否大于阈值,若大于,则说明识别结果已经确定,输出跟踪和识别结果,跟踪识别结束。本发明实现了基于宽带雷达目标运动学和距离像观测的联合预测,实现了目标状态与类型的联合跟踪与识别,采用本发明可利用连续跟踪信息有效提高目标的正确识别概率和跟踪准确性,扩展联合传统目标跟踪与识别方法的适用范围。
Description
技术领域
本发明涉及一种运动目标的联合跟踪与识别方法,尤其是基于雷达宽带测量的弱机动目标跟踪与识别一体化处理方法。
背景技术
在传统的运动目标跟踪与识别方法中,目标的识别和跟踪往往被视为两个独立的环节,其方法是先对目标进行识别,在此基础上对感兴趣目标维持跟踪。这种方法将识别作为一次性决策,其判断失误可能导致整个过程产生错误;同时,由于识别和跟踪环节不存在交联和反馈,识别结果也无法给跟踪环节提供有效的信息。为了提高对目标识别和跟踪的一体化处理能力,文献1:A.Donka,M.Lyudmila,“Joint target tracking andclassification with particle filtering and mixture Kalman filtering usingkinematic radar information”,Digital Signal Processing,2006,16:180-204(A.Donka等人于2006年在《数字信号处理》期刊第16卷发表的论文,题目为“利用雷达运动学信息和粒子滤波/混合卡尔曼滤波进行联合目标跟踪与分类”,称为背景技术1)公开了一种基于目标运动学测量信息(包括目标的距离、角度)的联合目标跟踪与识别处理方法。该方法从不同类型的空中飞机目标具有不同的机动特性(如加速度大小、速度包线等)出发,通过目标运动参数(如:位置、速度和加速度)的估计实现目标跟踪与识别的联合处理。该方法不足表现为:1)该方法中目标的识别主要通过对高速运动目标的机动模式判断来实现,在雷达探测过程中,若目标不执行机动飞行动作,识别条件无法得到满足;2)对于弱机动目标,如慢速运动大型舰船等,由于其在机动能力和速度包线等方面不存在显著的差异性,该方法不适用;3)此方法基于传统的窄带雷达,只能对应点目标,由于受分辨率条件的限制,只能获取目标的信号幅度或雷达截面积(Radar Cross Section,RCS)等简单观测,无法得到关于目标的更多细节信息;且RCS严重敏感于目标姿态,在不同的观测角度下其大小起伏变化不定,通过目标RCS进行目标识别非常困难。
宽带雷达可以实现目标在纵向距离维度上的分辨力,由此得到的观测结果称为高分辨距离像(High Range Resolution Profile,HRRP),相应地,此时的目标被称为扩展目标(表示目标占据多个距离分辨单元)。HRRP比RCS提供了更多关于目标的细节信息,在进行目标分类识别时可以摆脱对目标机动特性的依赖;但HRRP本身同样面临姿态敏感问题,在有多种混淆目标的条件下,不同类型目标在不同姿态下的HRRP特征可能具有高度的相似性,造成模式分类决策的模糊性,从而影响最终的目标识别效果。
因此,如何充分利用目标的运动学测量与高分辨距离像测量信息,提高目标跟踪与识别精度,是雷达系统整体性能提升中面临的一个重要问题。
解决该问题的一种可行思路是对扩展目标的运动状态和类型参数进行联合估计(滤波),其中,对目标的类型估计通过目标距离像(识别特征)匹配来实现,这就要求系统在联合处理过程中具备对目标距离像的预测能力。文献2:Jiemin Hu,Wei Wang,QinglinZhai,Jianping Ou,Ronghui Zhan,and Jun Zhang,“Global scattering centerextraction for radar targets using a modified RANSAC method”,IEEETransactions on Antennas and Propagation,2016,64(8):3573-3586(Jiemin Hu等人于2016年在《天线与传播汇刊》第64卷第8期发表的论文,题目为利用修正的RANSAC方法进行雷达目标的全局散射中心提取,称为背景技术2)公开了一种雷达三维散射中心模型(见第3581页图8),该模型是目标几何实体在电磁域的抽象和等效,但没有涉及如何用三维散射中心模型进行距离像预测和目标识别。
发明内容
本发明提出一种基于模型的联合跟踪与识别方法,该方法以雷达三维散射中心模型为基础,通过对目标运动状态的预测得到目标方向角(即雷达视线与目标轴向的夹角)的估计,并以此目标方向角作为输入条件,产生距离像的预测值,将该距离像预测值与雷达实际获取的距离像测量进行匹配,得到识别结果。由于跟踪过程的连续性,随着目标运动状态估计误差的不断减小和目标类型估计不确定性的不断降低,目标的识别概率也在不断提高,最终得到稳定识别结果。
本发明提供的基于模型的联合跟踪与识别方法主要包括以下几个步骤:
第一步,对目标运动状态与传感器观测进行建模,方法是:
1.1建立目标的运动状态模型:
对在x-y二维平面内作近似匀速运动的目标建立如公式(1)所示的状态演化模型:
xk=Fxk-1+wk (1)
式中,表示k时刻的目标状态,包含位置分量posk=[xk yk]T和速度下标k表示采样时刻,T为转置符号;wk=[w1k w2k w3k w4k]T为目标运动过程噪声且表示wk服从均值为0、协方差矩阵为Q的多维高斯分布,代表均值为0、协方差矩阵为Q的多维高斯函数);F为目标的状态转移矩阵,且Q和F的具体表达式为
其中,Ts为目标采样(观测时间)间隔,通常在0.5s~5s范围内取值;q为噪声强度,对于地海面目标其取值通常不大于1m/s2。
1.2建立雷达传感器对目标的观测模型:
1.2.1建立目标的运动学观测模型,如公式(3)所示:
式中,h(xk)为xk的运动学观测方程;βk表示k时刻包含了观测噪声的目标方位,rk表示k时刻包含了观测噪声的距离信息;vk=[v1,k v2,k]T,表示vk服从均值为0、协方差矩阵为R的多维高斯分布,R表示观测噪声协方差矩阵。
1.2.2建立目标的距离像观测模型,如公式(4)所示
dk=g(φk,S)+nk=IDFT{Ei=E(fi,φk,γk,S),i=0,1,2,…,I}+nk (4)
式中,g(φk,S)表示距离像观测方程,φk为k时刻目标方向角(雷达视线方向与目标运动方向的夹角),γk表示k时刻目标的俯仰角,当目标在二维平面内运动时γk≈0,S={an,αn,(xn,yn,zn);n=1,...,N}为目标的三维散射中心模型,IDFT表示逆离散傅立叶变换,E(·)为频率响应函数,Ei表示fi在E(·)中的响应结果,I为频点个数,nk为I维零均值高斯观测噪声矢量。E(fi,φk,γk,S)的具体形式可用公式(5)表示为
其中fi为第i个频点对应的信号频率,fc为雷达载频,c为光速,j为虚数单位,an表示第n个散射中心的幅度,(xn,yn,zn)表示第n个散射中心在三维空间中的坐标,αn为第n个散射中心的类型参数,N为散射中心数目。
对于特定的目标,其模型参数(xn,yn,zn)、an和αn在使用之前已完全确定,这些参数可通过文献2中的三维散射中心模型重构处理过程(见文献2的第3579页图6)得到。
fi在[fc-B/2,fc+B/2]区间范围内,通过公式(6)来选取
式中,B为信号带宽,一般在几十到几百MHz量级,I的取值范围通常在几十到几百之间。
方向角φk通过公式(7)来确定
由公式(3)和(4)可得到k时刻目标运动学和距离像的联合观测{zk,dk},以及从τ=0时刻到τ=k时刻为止目标运动学和距离像的联合观测集 表示由{z0,d0},…,{zτ,dτ}…{zk,dk}组成的集合)。
第二步:初始化,方法为:
2.1对目标状态进行初始化,方法是:
若实际应用条件下可能出现类不同的目标(为目标的类别数),真实出现的目标在k=0时刻的状态为x0,则采用个并行工作的粒子滤波器(particlefilters,PFs)对目标进行联合跟踪与识别。每个滤波器k时刻由一组带权值的粒子组成(称为粒子集,0时刻表示为k时刻的滤波器表示为 每个粒子代表目标状态的一种可能假设,粒子权值的大小(0~1之间)表示对目标状态近似的贡献度。第个粒子滤波器中第个粒子在k=0时刻通过公式(8)初始化为
式中,表示第个滤波器中的粒子总数,为第个滤波器中的粒子序号,表示粒子的k=0时刻权值大小,表示粒子从均值为x0、协方差矩阵为P0的多维高斯分布函数中进行随机采样得到,P0为k=0时刻的对角矩阵,P0=diag{(30m)2,(3m/s)2,(30m)2,(2m/s)2}。
2.2对k=0时刻第个粒子滤波器的目标识别概率进行初始化,如公式(9)所示
式中,表示k=0时刻目标运动学和距离像的联合观测集。
2.3取q为小于1的正数,令Ts为小于5的正数,一般取q=(0.1~0.5)m/s2,Ts=(0.5~5)s,对公式(2)中的Q和F进行初始化。
2.4取B=(50~500)MHz,I=50~500,对公式(6)中的fi(i=0,1,2,…,I)进行初始化,得到I个频点,即f0,…,fi,…,fI均按公式(6)初始化为相同的值。
第三步,令k=1。
第四步,从雷达接收k时刻的观测数据zk,预测k时刻的目标运动状态模型和观测模型,方法是:
令k-1时刻第个粒子滤波器表示为 第个粒子滤波器对应目标的状态估计为k-1时刻第个粒子滤波器的目标识别概率估计值为 个粒子滤波器并行预测k时刻的目标运动状态模型和观测模型,个粒子滤波器的预测过程完全相同。第个粒子滤波器(包含个粒子,其粒子序号为)对k时刻的目标运动状态模型和观测模型预测过程为:
4.1令
4.2预测第个粒子k时刻的目标运动状态
4.3预测第个粒子k时刻的目标运动学观测模型
4.4预测第个粒子k时刻的目标方向角
4.5预测第个粒子k时刻的目标距离像
式中,为第类目标的三维散射中心模型。
4.5计算第个粒子k时刻的目标的运动学观测似然
为观测的似然函数,表示均值为协方差矩阵为R的多维高斯分布函数。
4.6用与dk进行匹配,得到第个粒子k时刻的目标距离像观测似然
式中,表示dk和的相关函数,||dk||表示对dk取l2范数,表示对取l2范数,表示对dk和取矢量点积(内积)。
4.7计算第个粒子k时刻的粒子的联合权值
4.8判定是否小于若满足,令转4.2;否则,转4.9。
4.9计算第个粒子滤波器k时刻的累积权值
4.10对第个粒子滤波器中的联合权值进行归一化,得到归一化后的联合权值
个粒子滤波器按4.1~4.10并行预测,得到k时刻个关于目标运动状态(4.2的输出)与观测模型相关的归一化后的联合权值(4.10的输出)。
第五步,估计k时刻目标的状态和类别,实现联合跟踪与识别,方法是:
5.1计算k时刻个粒子滤波器得到的目标状态估计,得到其中计算k时刻第个粒子滤波器得到的目标状态估计的方法是:
5.2计算k时刻个粒子滤波器的目标识别概率估计值,得到 其中k时刻第个粒子滤波器的目标识别概率估计值的计算方法是:
5.3获取k时刻最终的目标状态估计方法是:
第六步,找到中的最大值Pmax,判定Pmax是否大于等于阈值Th,Th≥0.60,若Pmax≥Th,则说明识别结果已经确定,输出目标的状态估计(即跟踪结果),结束;若Pmax小于阈值Th,令k=k+1,转第四步,进行下一时刻的联合跟踪与识别。
本发明的有益效果主要有:
1)采用本发明可利用连续跟踪信息有效提高目标的正确识别概率,即随着时间下标k的不断推进,目标状态估计的精度越来越高,由公式(12)得到的目标方向角预测精度也逐渐提高,通过公式(15)得到的与真实目标类型相对应的粒子滤波器似然也相应增大,从而提高公式(20)中的目标分类识别概率);
2)突破了传统点目标跟踪与识别联合处理方法中实现目标分类识别需依赖于目标机动动作的限制(即传统中,点目标的识别只能通过对目标的机动模式估计来实现),本发明第四步通过公式(14)、(15)和(16)实现了基于宽带雷达目标运动学和距离像观测的联合预测,并最终实现了目标状态与类型的联合跟踪与识别,大大扩展了联合目标跟踪与识别技术的适用范围。
附图说明
图1是本发明总体流程图;
图2是三类舰船目标几何模型及散射中心位置;图2(a)是目标A的几何模型与对应的三维散射中心模型,图2(b)是目标B的几何模型与对应的三维散射中心模型,图2(c)是目标C的几何模型与对应的三维散射中心模型
图3是图2(a)目标A测试结果;图3(a)是图2(a)目标A的跟踪结果,图3(b)是图2(a)目标A的分类识别结果
图4是图2(b)(目标B)测试结果;图4(a)是图2(b)目标B的跟踪结果,图4(b)是图2(b)目标B的分类识别结果
图5是图2(c)(目标C)测试结果。图5(a)是图2(c)目标C的跟踪结果,图5(b)是图2(c)目标C的分类识别结果
具体实施方式
下面结合附图和实施例,对本发明进行详细解释和说明。
图1为本发明总体流程图,假定雷达传感器固定在坐标原点,对海面慢速运动目标进行观测,将连续观测数据与粒子滤波算法相结合,实现对目标航迹的跟踪和对目标类型的识别,具体实施过程如下:
第一步,对目标运动状态与传感器观测进行建模,方法是:在二维平面中建立如公式(1)所示的目标运动模型,并分别根据公式(3)和(4)产生目标的运动学观测结果和距离像观测结果。由公式(3)和(4)得到k时刻目标运动学和距离像的联合观测{zk,dk},以及从τ=0时刻到τ=k时刻为止目标运动学和距离像的联合观测集
第二步,在k=0时刻,通过公式(8)对个粒子滤波器(粒子集)进行初始化,并根据公式(9)完成对目标识别概率的初始化,具体初始化过程如下:
目标初始位置为(x0,y0)=(1.2,1.5)km,初始速度为过程噪声强度q=0.5m/s2,采样间隔Ts=1s,初始时刻状态估计误差协方差矩阵P0=diag{(30m)2,(3m/s)2,(30m)2,(2m/s)2}(diag(·)表示对角矩阵)。目标方位、距离观测精度分别为σβ=0.3o,σr=1m;雷达工作于Ka频段,中心频率fc=35GHz,带宽B=150MHz,设定I=300(对应的频率间隔为ΔF=1MHz),对如图2所示的三类舰船目标(分别为目标A、目标B和目标C)进行跟踪与识别联合处理,在没有真实目标类型先验信息的条件下,三类目标的初始分类概率均设为
第三步,令k=1;
第四步,从雷达接收k时刻的观测数据zk,预测k时刻的目标运动状态模型和观测模型,方法是:对于k-1时刻的第个粒子集通过公式(10)得到k时刻第个粒子集状态预测由此得到个粒子集的状态预测;在此基础上,通过公式(11)和(13)分别得到目标运动学观测的预测和距离像观测的预测;通过公式(14)和(15)分别得到目标运动学观测和距离像观测的似然;利用公式(18)得到第个粒子集归一化的粒子权值由此得到个粒子集的归一化的粒子权值。
第五步,估计k时刻目标的状态和类别,实现联合跟踪与识别,方法是:利用公式(19)和(20)分别得到3个滤波器的目标状态估计和目标识别概率估计结果 从而得到k时刻最终的目标状态估计
第六步,判断k时刻3个粒子滤波器得到的目标识别概率估计值 的最大值Pmax是否大于阈值Th,实验中设定Th=0.75,若Pmax>0.75,则表明目标识别类型已确定,算法处理结束;否则,令k=k+1,转第四步进行下一时刻的联合估计。
图2给出了三类目标的几何模型及与几何模型对应的三维散射中心模型,其中黑色星号“*”表示散射中心所处的位置。三类目标分别称为目标A、目标B和目标C,通过这些三维散射中心模型可以得到不同观测视角(方向角)下的距离像。
由文献2可知,目标的三维散射中心模型是通过目标的全姿态、宽带电磁仿真数据(称为原始宽带数据)重构得到的,作为一种电磁等效手段,由三维散射中心模型根据特定姿态角预测得到的距离像与原始宽带数据直接成像得到的距离像存在一定的误差,实验中将这一误差建模为(4)中的观测噪声n。根据目标与雷达的实际场景(相对位置和视线方向),对每一类目标分别进行联合跟踪与识别测试(即实际出现的目标是三类目标中的一个,其它两类目标作为潜在的、可能出现的混淆目标),用个与具体目标类型相关的粒子滤波器进行处理,根据经验每个粒子滤波器的粒子个数取为
分别假定真实出现的目标类型为目标A、目标B和目标C,对联合跟踪与识别方法进行测试,得到三类不同目标的航迹跟踪结果分别如图3~图5中的(a)部分所示,相应的目标识别结果(分类概率)如图3~图5中(b)部分所示。
如图3所示,在该实验中真实存在的目标类型为目标A,想定可能的目标类型还有目标B和目标C。在初始时刻,三类目标的识别概率均设为1/3,随着跟踪与识别过程的推进,目标A的分类概率(见图3(b)中的菱形线)依次变为0.36,0.48,0.62,0.68,0.79,…。而其他两类目标(分别为圆形线和星型线)的识别概率却逐渐减低。由此可见,在初始化的基础上,经过5个时间周期以后(对应第6个时间点)即可达到目标类型判定门限要求(门限为0.75,实际识别概率为0.79),且识别结果(A类)与真实的目标类型(A类)完全相符。由图3(a)可见目标初始位置坐标为(1200m,1500m),经过5个时间周期,目标真实位置依次变为(1193m,1505m),(1185m,1509m),(1177m,1513m),(1170m,1517m),(1164m,1522m),而得到的位置估计依次为(1192m,1506m),(1185m,1510m),(1174m,1516m),(1169m,1517m),(1165m,1523m),说明对目标轨迹的跟踪也是非常精确的。由图3(b)还可看出,达到目标识别门限之后,随着跟踪与识别过程的持续进行,目标识别概率还可进一步提高,至第25个时间点(对应25s处),其分类概率可达到1(100%),说明识别准确率为100%。
图4给出的真实目标为图2(b)所示B类目标的联合跟踪与识别实验结果,图5给出的是真实目标为图2(c)所示C类目标的联合跟踪与识别实验结果,其过程和结论与图3类似,在此不再赘述。
作为对比,表1同时给出了直接利用三维散射中心模型恢复的距离像与原始宽带数据成像所得的距离像进行相关匹配得到的识别结果(即不考虑跟踪估计环节,只考虑单纯的目标分类识别环节)。该实验中,三类目标的原始宽带距离像数据作为距离像识别模板,方位向0~360°全覆盖,角度间隔为1°(对应360个训练数据样本),俯仰方向取为0°角;通过目标三维散射中心模型(预测)产生距离像数据时,在0~360°全方位姿态范围内均匀采样,角度间隔为0.2°,这样每类目标各产生1440个测试数据样本。表中,目标识别混淆矩阵主对角线上的元素表示每类目标正确识别的距离像样本数,单类目标的识别率(PCC)和三类目标的整体识别率(OA-PCC)分别定义为
其中,表示第类目标总的距离像测试样本数,表示第类目标正确识别的距离像样本数。
表1
由表1中的结果可以看出,如果不采用目标跟踪与识别联合处理方法,仅考虑单一的目标识别环节(称为常规识别方法),得到A、B、C三类目标的识别概率分别为1294/1440=0.8986,1295/1440=0.8993,1212/1440=0.8417,平均识别率为0.8799。通过对比可以清楚地看到,当粒子滤波器达到稳定之后,本发明联合跟踪与识别方法(识别概率为1)较目前现有常规识别方法(识别概率为0.8799)的识别概率提高0.1(10%)以上。
综上,本发明中的联合跟踪与识别方法不仅有效可行,且在目标分类识别方面较现有常规方法所具有的明显性能优势。
Claims (7)
1.一种基于模型的联合跟踪与识别方法,其特征在于包括以下步骤:
第一步,对目标运动状态与传感器观测进行建模,方法是:
1.1建立目标的运动状态模型:
对在x-y二维平面内作近似匀速运动的目标建立如公式(1)所示的状态演化模型:
xk=Fxk-1+wk (1)
式中,表示k时刻的目标状态,包含位置分量posk=[xk yk]T和速度下标k表示采样时刻,T为转置符号;wk=[w1k w2k w3k w4k]T为目标运动过程噪声且表示wk服从均值为0、协方差矩阵为Q的多维高斯分布,代表高斯分布函数,代表均值为0、协方差矩阵为Q的多维高斯函数;F为目标的状态转移矩阵,且Q和F的具体表达式为
其中,Ts为目标采样间隔,q为噪声强度;
1.2建立雷达传感器对目标的观测模型:
1.2.1建立目标的运动学观测模型,如公式(3)所示:
式中,h(xk)为xk的运动学观测方程;βk表示k时刻包含了观测噪声的目标方位,rk表示k时刻包含了观测噪声的距离信息;vk=[v1,k v2,k]T,表示vk服从均值为0、协方差矩阵为R的多维高斯分布,R表示观测噪声协方差矩阵;
1.2.2建立目标的距离像观测模型,如公式(4)所示
dk=g(φk,S)+nk=IDFT{Ei=E(fi,φk,γk,S),i=0,1,2,…,I}+nk (4)
式中,g(φk,S)表示距离像观测方程,φk为k时刻目标方向角,γk表示k时刻目标的俯仰角,当目标在二维平面内运动时γk≈0,S={an,αn,(xn,yn,zn);n=1,...,N}为目标的三维散射中心模型,IDFT表示逆离散傅立叶变换,E(·)为频率响应函数,Ei表示fi在E(·)中的响应结果,I为频点个数,nk为I维零均值高斯观测噪声矢量;E(fi,φk,γk,S)的具体形式用公式(5)表示为
其中fi为第i个频点对应的信号频率,fc为雷达载频,c为光速,j为虚数单位,an表示第n个散射中心的幅度,(xn,yn,zn)表示第n个散射中心在三维空间中的坐标,αn为第n个散射中心的类型参数,N为散射中心数目;
fi在[fc-B/2,fc+B/2]区间范围内,通过公式(6)来选取
式中,B为信号带宽,在几十到几百MHz量级,I的取值范围在几十到几百之间;
方向角φk通过公式(7)来确定
由公式(3)和(4)得到k时刻目标运动学和距离像的联合观测{zk,dk},以及从τ=0时刻到τ=k时刻为止目标运动学和距离像的联合观测集Υk, 表示由{z0,d0},…,{zτ,dτ}…{zk,dk}组成的集合;
第二步:初始化,方法为:
2.1对目标状态进行初始化,方法是:
采用个并行工作的粒子滤波器对目标进行联合跟踪与识别,为实际应用条件下出现的目标的类别数,真实出现的目标在k=0时刻的状态为x0,每个滤波器k时刻由一组带权值的粒子组成,这组带权值的粒子即滤波器0时刻表示为 k时刻的滤波器表示为 每个粒子代表目标状态的一种可能假设,粒子权值的大小表示对目标状态近似贡献度;第个粒子滤波器中第个粒子在k=0时刻通过公式(8)初始化为
式中,表示第个滤波器中的粒子总数,为第个滤波器中的粒子序号,表示粒子的k=0时刻权值大小,表示粒子从均值为x0、协方差矩阵为P0的多维高斯分布函数中进行随机采样得到,P0为k=0时刻的对角矩阵;
2.2对k=0时刻第个粒子滤波器的目标识别概率进行初始化,如公式(9)所示
式中,γ0表示k=0时刻目标运动学和距离像的联合观测集;
2.3取q为小于1的正数,令Ts为小于5的正数,对公式(2)中的Q和F进行初始化;
2.4对公式(6)中的fi进行初始化,得到I个频点,i=0,1,2,…,I,即f0,…,fi,…,fI均按公式(6)初始化为相同的值;
第三步,令k=1;
第四步,从雷达接收k时刻的观测数据zk,预测k时刻的目标运动状态模型和观测模型,方法是:
令k-1时刻第l个粒子滤波器表示为第个粒子滤波器对应目标的状态估计为k-1时刻第个粒子滤波器的目标识别概率估计值为 个粒子滤波器并行预测k时刻的目标运动状态模型和观测模型,个粒子滤波器的预测过程完全相同;第个粒子滤波器对k时刻的目标运动状态模型和观测模型预测过程为:
4.1令粒子序号
4.2预测第个粒子k时刻的目标运动状态
4.3预测第个粒子k时刻的目标运动学观测模型
4.4预测第个粒子k时刻的目标方向角
4.5预测第个粒子k时刻的目标距离像
式中,为第类目标的三维散射中心模型;
4.5计算第个粒子k时刻的目标的运动学观测似然
为观测的似然函数,表示均值为协方差矩阵为R的多维高斯分布函数;
4.6用与dk进行匹配,得到第个粒子k时刻的目标距离像观测似然
式中,表示dk和的相关函数,||dk||表示对dk取l2范数,表示对取l2范数,表示对dk和取矢量点积;
4.7计算第个粒子k时刻的粒子的联合权值
4.8判定是否小于 为第个粒子滤波器包含的粒子个数,若满足,令转4.2;否则,转4.9;
4.9计算第个粒子滤波器k时刻的累积权值
4.10对第个粒子滤波器中的联合权值进行归一化,得到归一化后的联合权值
个粒子滤波器按4.1-4.10并行预测,得到k时刻个关于目标运动状态与观测模型相关的归一化后的联合权值;
第五步,估计k时刻目标的状态和类别,实现联合跟踪与识别,方法是:
5.1计算k时刻个粒子滤波器得到的目标状态估计,得到其中计算k时刻第个粒子滤波器得到的目标状态估计的方法是:
5.2计算k时刻个粒子滤波器的目标识别概率估计值,得到 其中k时刻第个粒子滤波器的目标识别概率估计值的计算方法是:
5.3获取k时刻最终的目标状态估计方法是:
第六步,找到中的最大值Pmax,判定Pmax是否大于等于阈值Th,Th≥0.60,若Pmax≥Th,则输出目标的状态估计结束;若Pmax小于阈值Th,令k=k+1,转第四步,进行下一时刻的联合跟踪与识别。
2.如权利要求1所述的一种基于模型的联合跟踪与识别方法,其特征在于所述Ts在0.5s~5s范围内取值;q取值不大于1m/s2。
3.如权利要求1所述的一种基于模型的联合跟踪与识别方法,其特征在于所述k=0时刻的对角矩阵P0设置为P0=diag{(30m)2,(3m/s)2,(30m)2,(2m/s)2}。
4.如权利要求1所述的一种基于模型的联合跟踪与识别方法,其特征在于所述q=(0.1~0.5)m/s2,所述Ts=(0.5~5)s。
5.如权利要求1所述的一种基于模型的联合跟踪与识别方法,其特征在于所述B=(50~500)MHz,所述I=50~500。
6.如权利要求1所述的一种基于模型的联合跟踪与识别方法,其特征在于所述阈值Th≥0.60。
7.如权利要求1所述的一种基于模型的联合跟踪与识别方法,其特征在于所述粒子权值的大小为0~1之间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811430152.XA CN109557533B (zh) | 2018-11-28 | 2018-11-28 | 一种基于模型的联合跟踪与识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811430152.XA CN109557533B (zh) | 2018-11-28 | 2018-11-28 | 一种基于模型的联合跟踪与识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109557533A CN109557533A (zh) | 2019-04-02 |
CN109557533B true CN109557533B (zh) | 2019-09-27 |
Family
ID=65867427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811430152.XA Active CN109557533B (zh) | 2018-11-28 | 2018-11-28 | 一种基于模型的联合跟踪与识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109557533B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111007454B (zh) * | 2019-10-28 | 2022-07-01 | 重庆邮电大学 | 一种基于合作目标信息的扩展目标跟踪方法 |
CN110942474B (zh) * | 2019-11-27 | 2023-06-13 | 炬星科技(深圳)有限公司 | 机器人目标跟踪方法、设备及存储介质 |
CN111273279B (zh) * | 2020-02-18 | 2022-05-10 | 中国科学院合肥物质科学研究院 | 一种基于加速度噪声参数的多雷达数据处理方法 |
CN111339493B (zh) * | 2020-03-06 | 2022-05-24 | 电子科技大学 | 一种非均匀量化状态转移特征矩阵提取方法 |
CN111414951B (zh) * | 2020-03-16 | 2023-09-08 | 中国人民解放军国防科技大学 | 用于图像的细分类方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106526585A (zh) * | 2016-10-26 | 2017-03-22 | 中国人民解放军空军工程大学 | 基于高斯粒子势概率假设密度滤波的目标检测前跟踪方法 |
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位系统及导航定位方法 |
CN107729261A (zh) * | 2017-09-28 | 2018-02-23 | 中国人民解放军国防科技大学 | 一种多核/众核处理器中Cache地址映射方法 |
CN107831490A (zh) * | 2017-12-01 | 2018-03-23 | 南京理工大学 | 一种改进的多扩展目标跟踪方法 |
CN107885700A (zh) * | 2017-12-29 | 2018-04-06 | 中国人民解放军国防科技大学 | 一种大规模矩阵卷积的多核实现方法 |
US10048366B1 (en) * | 2018-01-30 | 2018-08-14 | Oculii Corp | Systems and methods for virtual aperature radar tracking |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101388077A (zh) * | 2007-09-11 | 2009-03-18 | 松下电器产业株式会社 | 目标形状检测方法及装置 |
CN104182638A (zh) * | 2014-08-25 | 2014-12-03 | 南京邮电大学 | 一种基于模糊建模的目标定位方法 |
CN104951764B (zh) * | 2015-06-17 | 2018-08-21 | 浙江工业大学 | 基于二次谱聚类和hmm-rf混合模型的高速车辆行为识别方法 |
EP3267697A1 (en) * | 2016-07-06 | 2018-01-10 | Oticon A/s | Direction of arrival estimation in miniature devices using a sound sensor array |
-
2018
- 2018-11-28 CN CN201811430152.XA patent/CN109557533B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106526585A (zh) * | 2016-10-26 | 2017-03-22 | 中国人民解放军空军工程大学 | 基于高斯粒子势概率假设密度滤波的目标检测前跟踪方法 |
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位系统及导航定位方法 |
CN107729261A (zh) * | 2017-09-28 | 2018-02-23 | 中国人民解放军国防科技大学 | 一种多核/众核处理器中Cache地址映射方法 |
CN107831490A (zh) * | 2017-12-01 | 2018-03-23 | 南京理工大学 | 一种改进的多扩展目标跟踪方法 |
CN107885700A (zh) * | 2017-12-29 | 2018-04-06 | 中国人民解放军国防科技大学 | 一种大规模矩阵卷积的多核实现方法 |
US10048366B1 (en) * | 2018-01-30 | 2018-08-14 | Oculii Corp | Systems and methods for virtual aperature radar tracking |
Non-Patent Citations (1)
Title |
---|
《一种基于区域分割的地面飞机目标识别方法》;王威 等;《计算机工程》;20130630;第39卷(第6期);第214-218页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109557533A (zh) | 2019-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109557533B (zh) | 一种基于模型的联合跟踪与识别方法 | |
CN107728142B (zh) | 基于二维卷积网络的雷达高分辨距离像目标识别方法 | |
Gilholm et al. | Spatial distribution model for tracking extended objects | |
CN107728143B (zh) | 基于一维卷积神经网络的雷达高分辨距离像目标识别方法 | |
CN107300698B (zh) | 一种基于支持向量机的雷达目标航迹起始方法 | |
CN108256436A (zh) | 一种基于联合分类的雷达hrrp目标识别方法 | |
CN109584303B (zh) | 一种基于Lp范数和核范数的红外弱小目标检测方法 | |
Guo et al. | One-dimensional frequency-domain features for aircraft recognition from radar range profiles | |
Park et al. | Performance analysis of the scenario-based construction method for real target ISAR recognition | |
Lee et al. | Improved classification performance using ISAR images and trace transform | |
Shaw et al. | Eigen-template-based HRR-ATR with multi-look and time-recursion | |
Pengcheng et al. | Radar group target recognition based on HRRPs and weighted mean shift clustering | |
Zhang et al. | Temporal-range-doppler features interpretation and recognition of hand gestures using MmW FMCW radar sensors | |
CN113311430B (zh) | 蜂群无人机数量估计和航迹生成方法 | |
CN112213697B (zh) | 一种基于贝叶斯决策理论用于雷达欺骗干扰识别的特征融合方法 | |
Zhu et al. | Radar HRRP group-target recognition based on combined methods in the backgroud of sea clutter | |
CN116311067A (zh) | 基于高维特征图谱的目标综合识别方法、装置及设备 | |
CN107871123B (zh) | 一种逆合成孔径雷达空间目标分类方法及系统 | |
CN106778870B (zh) | 一种基于rpca技术的sar图像舰船目标检测方法 | |
Ye et al. | Realistic Scatterer Based Adversarial Attacks on SAR Image Classifiers | |
Xiao et al. | Multi-target ISAR imaging based on image segmentation and short-time Fourier transform | |
Tivive et al. | Classification of improvised explosive devices using multilevel projective dictionary learning with low-rank prior | |
Zhan et al. | Joint target tracking and classification with scattering center model for radar sensor | |
Nishimoto et al. | Target identification from multi-aspect high range-resolution radar signatures using a hidden Markov model | |
CN110082765B (zh) | 基于三维重构的空间目标姿态外推方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |