CN113808174B - 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 - Google Patents

基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 Download PDF

Info

Publication number
CN113808174B
CN113808174B CN202110995010.3A CN202110995010A CN113808174B CN 113808174 B CN113808174 B CN 113808174B CN 202110995010 A CN202110995010 A CN 202110995010A CN 113808174 B CN113808174 B CN 113808174B
Authority
CN
China
Prior art keywords
target
radar
network
image
full convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110995010.3A
Other languages
English (en)
Other versions
CN113808174A (zh
Inventor
曹九稳
王陈幸
田江敏
王天磊
王晓洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110995010.3A priority Critical patent/CN113808174B/zh
Publication of CN113808174A publication Critical patent/CN113808174A/zh
Application granted granted Critical
Publication of CN113808174B publication Critical patent/CN113808174B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

本发明公开了一种基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法。本发明步骤:1、对雷达接收机采集的回波信号进行预处理,获取信号的R‑D图;2、构建全卷积神经网络并利用网络预测特征图像素点对应R‑D图中每个感受野区域分别属于目标和背景的类别概率,以及该区域包含目标时,特征图像素点在每个网格划分区域中相对于左上单元的偏移量,从而判断存在目标时的目标位置;3、将目标位置的俯仰角、方位角及径向距离作为雷达系统的量测值,通过坐标转换卡尔曼滤波器实现目标跟踪。本发明利用特征图像素点对应的感受野替代传统深度学习方案的滑窗技术,大幅提升模型训练及检测的速度,并通过坐标转换卡尔曼滤波器跟踪目标,更准确快速得到目标轨迹。

Description

基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法
技术领域
本发明属于雷达信号处理及图像识别领域,涉及一种基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法。
背景技术
近年来,随科技的进步及国家政策对低空域的开放,以无人机为代表的雷达小目标因获取便利、应用广泛而呈爆发式增长,对现有的监控系统带来了巨大的安防压力。此类目标具有“散射截面积小、飞行速度慢、飞行高度低”的特点,致使传统频域滤波检测跟踪技术难以得到有效运用。为了降低检测器对环境的敏感度及对专家经验的依赖性,同时为提高对此类弱信号目标的跟踪准确率,深度学习技术开始被用于检测算法的研究。然而,现有的跟踪过程仍存在以下四个问题:
1.现有方案通过滑动窗口与深度卷积网络(Deep convolutional neuralnetwork,DCNN)结合的方式对距离-多普勒(Range-Doppler,R-D)图的所有图像块进行分类与定位,检测过程繁琐耗时,难以应用于实时场景;
2.雷达小目标在R-D图中占据的距离及多普勒单元极少,通常在卷积后的特征图中被映射为单个像素点,使得代表目标与背景的正负样例严重失衡,导致模型难以训练;
3.传统雷达跟踪算法将恒虚警率(Constant false alarm rate,CFAR)检测的结果作为量测值,通常由于目标检测率低而造成航迹缺失等问题。
4.雷达系统通常在空间极坐标系下获得目标量测,而在笛卡尔坐标系中对目标的运动状态建模与滤波跟踪,使得卡尔曼滤波器通常因坐标转换误差而存在易发散、跟踪精度不高的问题。
发明内容
针对上述提到的雷达目标跟踪存在的不足,本发明提出一种基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法。在保证目标检测率的基础上,本发明能使雷达更快速地定位低慢小目标的空间位置,自主地适应不同种类信号回波,并得到更精确的目标航迹。
本发明的技术方案主要包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取回波信号的R-D图(Range-Doppler图);
步骤2、构建全卷积神经网络,并利用网络预测特征图像素点对应R-D图中每个感受野区域分别属于目标和背景的类别概率,以及该区域包含目标时,特征图像素点在每个网格划分区域中相对于左上单元的偏移量,从而判断是否存在,以及存在目标时的目标位置;
步骤3、将得到目标位置的俯仰角、方位角及径向距离作为雷达系统的量测值并转换至笛卡尔坐标系中,在起始航迹的基础上通过转换卡尔曼滤波器对每帧R-D图中的每个量测目标进行位置的修正,得到目标的运动轨迹。
所述的步骤1具体包括以下几个步骤:
1-1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,则二维矩阵信号的大小为N×R。同时记录采集该段信号时,雷达对应的俯仰角和方位角θ;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号xi为:
xi=ai-1+ai+1-2ai,1<i<N (1)
其中ai代表第i行未经对消的脉冲信号序列;
1-3、对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n) (2)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到R-D图M:
M=(|fft[zj]|),1≤j≤R (3)
所述的步骤2利用全卷积神经网络从计算得到的R-D图中预测目标信息,并结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果。具体实现流程如下:
2-1、对整幅图像进行限幅处理,得到限幅处理后的输入图像;即假设图像(Image)中元素的最大值为Imagemax,则通过将每一个R-D单元的幅值除以Imagemax使得图像(Image)中元素的最大值为1;
2-2、利用卷积核形成的感受野类比滑动窗口抽取R-D图中不同区域的局部特征进行背景与目标的分类。为提高目标定位的准确率,特征图像素点对应的输入图像中感受野的尺寸需根据目标回波在R-D图中的分布范围设定;
2-3、根据已确立的特征图尺寸Nf×Rf和输入图像尺寸N×R,按分辨率缩小比例将R-D图划分为Nf×Rf个尺寸为rh×rw,网格单元(Gridcell)以辅助所构建的位置预测功能层对目标进行定位,其中:
2-4、利用构建的全卷积神经网络计算R-D图映射至特征图像素点分别属于目标和背景的类别概率,以及该像素点对应的R-D区域包含目标时,所属用于辅助定位网格的左上角与目标实际位置之间的偏移量。
具体地,构建的全卷积神经网络由两个部分组成:用于空间特征提取的全卷积神经网络主干和两个用于特征图像素点类别与位置预测的功能模块。各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络主干共包含3个卷积层,均使用3×5大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、32和64。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×4、水平向与垂直向步长分别为2和4的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分两个用于特征图像素点类别与位置预测的功能模块,分别包含一个卷积核大小为3×3、步长为1、数量为64、含有激活层ReLU的特征映射卷积层和一个卷积核大小为1×1,步长为1、数量为2的功能层,且其中分类模块的功能层分别输出特征图像素点判别为目标和背景的概率,而位置预测模块的功能层则分别输出特征图像素点在水平向与垂直向的偏移量。为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
其中,为类别预测层像素点i位置的原始输出,ncls为类别预测层在同一像素点位置的节点个数。
为了成功训练构建的全卷积神经网络,步骤2中需要注意以下几点:
(1)在网络输出的分类预测结果中,根据特征图像素点对应的R-D区域是否包含目标将所有特征图像素点分为正样本和负样本,然后采用随机的方式从负样本中抽取与正样本等量的特征图像素点作为训练数据,与正样本一起输入全卷积神经网络进行训练。所述的R-D区域是指特征图像素点感受野对应在输入图像中包含的R-D区域。
(2)全卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smoothL1损失。网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg (7)
其中,λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个特征图像素点的真实类别标签,是第k个像素点所属的辅助定位网格包含目标时其左上角与目标位置之间的水平向、垂直向相对偏移量,在式(9)中/>而(dxk,dyk)为第k个特征图像素点在位置回归层的水平向与垂直向输出结果,在式(9)中dtk∈{dxk,dyk};式(10)中d为/>与dtk的差值。假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的R-D区域所属辅助定位网格的左上角在Range-Doppler图中的位置为(x,y),而对应特征图与Range-Doppler图之间的宽高缩放比例分别为rw和rh,则该辅助定位网格相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用初始值为0.1、每10个迭代周期衰减10%的学习率,动量系数为0.9的动量梯度下降(MomentumSGD)方法优化网络参数。
2-5、预设目标存在的概率阈值为Tp,若网络输出特征图中某一像素点属于目标的预测概率大于等于阈值Tp,则初步判断该像素点映射的R-D区域包含目标,并将该像素点的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
2-6、对每个特征图像素点在R-D图中的映射区域,利用网络位置回归层的预测结果(dx,dy)估计目标在每个R-D图辅助定位网格中的真实位置(xpre,ypre),具体计算公式如下:
其中(x,y)为特征图像素点对应R-D区域所属辅助定位网格的左上角单元在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数。
2-7、将上述R-D图中的目标真实位置横坐标xpre按转化为目标相对雷达的径向距离r。设雷达快时间采样率为Fs,则具体的计算公式如下:
同时记录采集该R-D图时对应的俯仰角和方位角θ,用于后续的卡尔曼滤波跟踪。
所述的步骤3将全卷积神经网络模型测得的目标相对雷达的径向距离、俯仰角、方位角作为系统量测值,在假设目标为匀速运动的条件下,通过坐标转换卡尔曼滤波器估计当前目标的实际位置,实现目标跟踪。具体实现流程如下:
3-1、设雷达固定在坐标原点,目标相对于雷达的真实位置为斜距r,俯仰角方位角θ。由全卷积神经网络得到的目标量测值为rm、/>θm,则可将目标从极坐标系转换至笛卡尔坐标系:
3-2、标记连续Nsc个扫描周期内每个量测目标的坐标(xm,ym,zm),记录任意两个相邻周期中以恒定距离Dconst±Dtolerant变化的量测目标个数为M,当M超过设定的阈值TM时将对应的目标轨迹视为起始航迹,使用坐标转换卡尔曼滤波器对每条航迹进行修正,并剔除其余不满足该条件的目标轨迹。其中Dconst为相邻周期目标以匀速运动导致的欧式轨迹变化距离,而Dtolerant为设定的距离容错值。
3-3、计算量测值(xm,ym,zm)T与坐标真实值(x,y,z)T之间的转换误差为
其中分别为量测距离误差、量测俯仰角误差和量测方位角误差,假定彼此相互独立,且均建模为零均值高斯白噪声,其标准差分别为σr、σθ、/>则可求得目标真实位置未知条件下转换误差均值μa
转换误差协方差矩阵为
式中,
且有和/>
目标在匀速运动状态下的状态方程为:
X(k)=FX(k-1)+W(k-1) (23)
其中状态变量为W(k-1)为k-1时刻的过程噪声,是零均值的高斯白噪声。其中状态转移矩阵F为:
经过去偏处理后的测量值为:
设观测矩阵为H,测量误差为V(k)~N(0;Ra),则对目标的观测方程为:
Zc(k)=HX(k)+V(k)
3-4、对坐标转换后的测量值去偏后,通过标准卡尔曼滤波算法更新每一次测量结果。设当前的时刻为k,则具体的实现流程如下:
(1)计算状态向量为
(2)计算误差协方差矩阵为
P-(k)=FP(k-1)FT+Q(k-1) (28)
式中Q(k-1)为过程噪声的协方差矩阵;
(3)求得卡尔曼增益
K(k)=P-(k)HT(HP-(k)HT+Ra)-1 (29)
(4)根据卡尔曼增益对k时刻的状态向量进行修正
(5)更新k时刻的误差协方差矩阵
P(k)=(I-K(k)H)P-(k) (31)
为了成功实现卡尔曼滤波器的迭代,步骤3中需要注意以下几点:
(1)设航迹起始后为时刻kd,则设定卡尔曼滤波器的初始状态为第一次观测值,初始化误差协方差矩阵为对角阵:
式中u为状态变量的个数;
(2)协方差矩阵Q的取值需根据实际情况而定。一般情况下,若系统状态方程更精确,即对预测值的信赖度更高,则对应Q取较大值;若系统传感器量测更精确,则对应Q取较小值。
本发明有益效果如下:
本发明将包含全卷积神经网络的智能算法应用于雷达信号的目标检测跟踪中,使模型在具有很强自适应性的同时,大幅缩短模型训练及检测的耗时,并保证对微弱信号目标的检测率。
针对于全卷积网络模型造成的正负样例严重失衡的问题,本发明通过在特征图中随机抽取与正例等量的负例计算损失解决。此外,对转换坐标后待输入卡尔曼滤波器的量测值进行去偏处理,可有效降低坐标转换误差对跟踪精度的影响。相较于传统恒虚警分析处理的跟踪方案,可实现更加准确的低慢小目标跟踪。
本发明相较于现有结合滑窗定位的深度学习方法,本发明能提高模型训练速度约2.5倍、检测速度提升超30倍。
附图说明
图1为本发明基于全卷积神经网络和坐标转换卡尔曼滤波的雷达低慢小目标跟踪流程示意图;
图2为本发明构建的全卷积神经网络结构图;
图3为本发明卡尔曼滤波跟踪示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作详细说明,以下描述仅作为示范和解释,并不对本发明作任何形式上的限制。
通用的检测步骤已在“发明内容”中详述,现结合实例对本发明的检测流程做具体描述,图1是整体的处理流程示意图。本发明运用特征图像素点的感受野随卷积层数递增的特点,设计了全卷积神经网络(Fully convolutional neural network,FCN)实现对整幅R-D图像的目标分类与定位,通过感受野取代原有的滑动窗口,大幅提升了模型的训练与检测速度。同时,为解决正负样例失衡导致的模型训练问题,从特征图背景区域中随机抽取与目标正例等量的像素点负例对两类进行平衡。此外,本发明将网络模型的输出作为转换坐标卡尔曼滤波器的量测值,可有效降低坐标转换误差对跟踪精度的影响,实现更准确的低慢小目标航迹跟踪。
本发明的技术方案主要包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的Range-Doppler图;
1-1、将雷达接收机采集的一维离散回波信号以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,本实验中N=64,R=856,则二维矩阵信号的大小为N×R=64×856;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:
xi=ai-1+ai+1-2ai,1<i<N
其中ai代表第i行未经对消的脉冲信号序列;
1-3、三脉冲对消后二维矩阵信号的大小为62×856,对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到Range-Doppler图M:
M=(|fft[zj]|),1≤j≤R
所述的步骤2利用全卷积神经网络从计算得到的R-D图中预测目标信息,并结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果。具体实现流程如下:
2-1、对整幅图像进行限幅处理,即假设图像(Image)中元素的最大值为Imagemax,则通过将每一个R-D单元的幅值除以Imagemax使得图像(Image)中元素的最大值为1;
2-2、利用卷积核形成的感受野类比滑动窗口抽取R-D图中不同区域的局部特征进行背景与目标的分类。为提高目标定位的准确率,特征图像素点对应原图中感受野的尺寸需根据目标回波在R-D图中的分布范围设定。本实验中特征图映射至R-D图中的感受野设定为9×28;
2-3、根据已确立的特征图尺寸Nf×Rf和原图尺寸N×R,按分辨率缩小比例将R-D图划分为Nf×Rf个尺寸为rh×rw网格单元(Grid cell),其中:
本实验中特征图尺寸为16×54,网格单元尺寸rh×rw为4×16。
2-4、利用构建的全卷积神经网络计算R-D图映射至特征图的像素点分别属于目标和背景的类别概率,以及该像素点对应的R-D网格单元包含目标时,该网格单元左上角与目标实际位置之间的偏移量。
具体地如图2所示,构建的全卷积神经网络由两个部分组成:用于空间特征提取的全卷积神经网络主干和两个用于特征图像素点类别与位置预测的功能模块。各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络主干共包含3个卷积层,均使用3×5大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、32和64。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×4、水平向与垂直向步长分别为2和4的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分两个用于特征图像素点类别与位置预测的功能模块,分别包含一个卷积核大小为3×3、步长为1、数量为64、含有激活层ReLU的特征映射卷积层和一个卷积核大小为1×1,步长为1、数量为2的功能层,且其中分类模块的功能层分别输出特征图像素点判别为目标和背景的概率,而位置预测模块的功能层则分别输出特征图像素点在水平向与垂直向的偏移量。为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
其中为类别预测层像素点i位置的原始输出,ncls为类别预测层在同一像素点位置的节点个数。
为了成功训练构建的全卷积神经网络,步骤2中需要注意以下几点:
(1)在网络输出的分类预测结果中,根据特征图像素点对应的R-D区域是否包含目标将所有特征图像素点分为正样本和负样本,然后采用随机的方式从负样本中抽取与正样本等量的特征图像素点作为训练数据,与正样本一起输入全卷积神经网络进行训练。
(2)全卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smoothL1损失。网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg (7)
其中,λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个特征图像素点的真实类别标签,是第k个像素点所属的辅助定位网格包含目标时其左上角与目标位置之间的水平向、垂直向相对偏移量,在式(9)中/>而(dxk,dyk)为第k个特征图像素点在位置回归层的水平向与垂直向输出结果,在式(9)中dtk∈{dxk,dyk};式(10)中d为/>与dtk的差值。假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的R-D区域所属辅助定位网格的左上角在Range-Doppler图中的位置为(x,y),而对应特征图与Range-Doppler图之间的宽高缩放比例分别为rw=16和rh=4,则该R-D区域相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用初始值为0.1、每10个迭代周期衰减10%的学习率,动量系数为0.9的动量梯度下降(Momentum SGD)方法优化网络参数;
(6)初次训练网络可将最大迭代次数设置为300次。
2-5、预设目标存在的概率阈值为Tp=0.9,若网络输出特征图中某一像素点属于目标的预测概率大于等于阈值Tp,则初步判断该像素点映射的R-D区域包含目标,并将该像素点的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
2-6、对每个特征图像素点在R-D图中的映射区域,利用网络位置回归层的预测结果(dx,dy)估计目标在每个R-D图辅助定位网格中的真实位置(xpre,ypre),具体计算公式如下:
xpre=round(x+dx·rw)
ypre=round(y+dy·rh)
其中(x,y)为特征图像素点对应R-D区域所属辅助定位网格的左上角单元在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数。
2-7、将上述R-D图中的目标真实位置横坐标xpre按转化为目标相对雷达的径向距离r。设雷达快时间采样率为Fs,则具体的计算公式如下:
同时记录采集该R-D图时对应的俯仰角和方位角θ,用于后续的卡尔曼滤波跟踪。
如图3所示,所述的步骤3将全卷积神经网络模型测得的目标相对雷达的径向距离、俯仰角、方位角作为系统量测值,在假设目标为匀速运动的条件下,通过坐标转换卡尔曼滤波器估计当前目标的实际位置,实现目标跟踪。具体实现流程如下:
3-1、设雷达固定在坐标原点,目标相对于雷达的真实位置为斜距r,俯仰角方位角θ。由全卷积神经网络得到的目标量测值为rm、/>θm,则可将目标从极坐标系转换至笛卡尔坐标系:
3-2、标记连续Nsc=5个扫描周期内每个量测目标的坐标(xm,ym,zm),记录相邻周期中以恒定距离Dconst±Dtolerant变化的目标个数为M,当M超过设定的阈值TM=3时将对应的目标轨迹视为起始航迹,使用坐标转换卡尔曼滤波器对每条航迹进行修正,并剔除其余不满足该条件的目标轨迹。其中Dconst为相邻周期目标以匀速运动导致的欧式轨迹变化距离,而Dtolerant为设定的距离容错值。
3-3、计算量测值(xm,ym,zm)T与坐标真实值(x,y,z)T之间的转换误差为
其中分别为量测距离误差、量测俯仰角误差和量测方位角误差,假定彼此相互独立,且均建模为零均值高斯白噪声,其标准差分别为σr、σθ、/>则可求得目标真实位置未知条件下转换误差均值μa为/>
转换误差协方差矩阵为
式中,
且有和/>
目标在匀速运动状态下的状态方程为:
X(k)=FX(k-1)+W(k-1)
其中状态变量为W(k-1)为k-1时刻的过程噪声,是零均值的高斯白噪声。其中状态转移矩阵F为
经过去偏处理后的测量值为
设观测矩阵为H,测量误差为V(k)~N(0;Ra),则对目标的观测方程为
Zc(k)=HX(k)+V(k)
3-4、对坐标转换后的测量值去偏后,通过标准卡尔曼滤波算法更新每一次测量结果。设当前的时刻为k,则具体的实现流程如下:
(1)计算状态向量为
(2)计算误差协方差矩阵为
P-(k)=FP(k-1)FT+Q(k-1)
式中Q(k-1)为过程噪声的协方差矩阵;
(3)求得卡尔曼增益
K(k)=P-(k)HT(HP-(k)HT+Ra)-1
(4)根据卡尔曼增益对k时刻的状态向量进行修正
(5)更新k时刻的误差协方差矩阵
P(k)=(I-K(k)H)P-(k)
为了成功实现卡尔曼滤波器的迭代,步骤3中需要注意以下几点:
(1)设航迹起始后为时刻kd,则设定卡尔曼滤波器的初始状态为第一次观测值,初始化误差协方差矩阵为对角阵:
式中u为状态变量的个数;
(2)协方差矩阵Q的取值需根据实际情况而定。一般情况下,若系统状态方程更精确,即对预测值的信赖度更高,则对应Q取较大值;若系统传感器量测更精确,则对应Q取较小值。
经4981帧R-D图输入数据的实验测试,相比于现有基于滑窗定位的深度学习检测方法,在模型训练方面,同等条件下运行300个迭代周期,基于滑窗定位深度学习模型耗时3.5小时,而全卷积网络模型耗时57分钟;在模型检测方面,基于滑窗定位深度学习模型的检测速度为每帧1.5-2.0秒,而全卷积网络模型每帧仅需0.032-0.055秒,这使得基于深度学习的雷达小目标检测跟踪方法有了实际的应用价值。

Claims (6)

1.基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取回波信号的R-D图;
步骤2、构建全卷积神经网络,并利用网络预测特征图像素点对应R-D图中每个感受野区域分别属于目标和背景的类别概率,以及该区域包含目标时,特征图像素点在每个网格划分区域中相对于左上单元的偏移量,从而判断是否存在,以及存在目标时的目标位置;
步骤3、将得到目标位置的俯仰角、方位角及径向距离作为雷达系统的量测值并转换至笛卡尔坐标系中,在起始航迹的基础上通过转换卡尔曼滤波器对每帧R-D图中的每个量测目标进行位置的修正,得到目标的运动轨迹;
步骤3具体实现流程如下:
3-1、设雷达固定在坐标原点,目标相对于雷达的真实位置为斜距r,俯仰角方位角θ;由全卷积神经网络得到的目标量测值为rm、/>θm,则可将目标从极坐标系转换至笛卡尔坐标系:
3-2、标记连续Nsc个扫描周期内每个量测目标的坐标(xm,ym,zm),记录任意两个相邻周期中以恒定距离Dconst±Dtolerant变化的量测目标个数为M,当M超过设定的阈值TM时将对应的目标轨迹视为起始航迹,使用坐标转换卡尔曼滤波器对每条航迹进行修正,并剔除其余不满足条件的目标轨迹;其中Dconst为相邻周期目标以匀速运动导致的欧式轨迹变化距离,而Dtolerant为设定的距离容错值;
3-3、计算量测值(xm,ym,zm)T与坐标真实值(x,y,z)T之间的转换误差为
其中分别为量测距离误差、量测俯仰角误差和量测方位角误差,假定/>彼此相互独立,且均建模为零均值高斯白噪声,其标准差分别为σr、σθ、/>则可求得目标真实位置未知条件下转换误差均值μa
转换误差协方差矩阵为
式中,
且有和/>
目标在匀速运动状态下的状态方程为:
X(k)=FX(k-1)+W(k-1) (23)
其中状态变量为W(k-1)为k-1时刻的过程噪声,是零均值的高斯白噪声;其中状态转移矩阵F为:
经过去偏处理后的测量值为:
设观测矩阵为H,测量误差为V(k)~N(0;Ra),则对目标的观测方程为:
Zc(k)=HX(k)+V(k)
3-4、对坐标转换后的测量值去偏后,通过标准卡尔曼滤波算法更新每一次测量结果;设当前的时刻为k,则具体的实现流程如下:
(1)计算状态向量为
(2)计算误差协方差矩阵为
P-(k)=FP(k-1)FT+Q(k-1) (28)
式中Q(k-1)为过程噪声的协方差矩阵;
(3)求得卡尔曼增益
K(k)=P-(k)HT(HP-(k)HT+Ra)-1 (29)
(4)根据卡尔曼增益对k时刻的状态向量进行修正
(5)更新k时刻的误差协方差矩阵
P(k)=(I-K(k)H)P-(k) (31)。
2.根据权利要求1所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于所述的步骤1具体包括以下几个步骤:
1-1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,则二维矩阵信号的大小为N×R;同时记录采集该段信号时,雷达对应的俯仰角和方位角θ;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号xi为:
xi=ai-1+ai+1-2ai,1<i<N (1)
其中ai代表第i行未经对消的脉冲信号序列;
1-3、对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n) (2)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到R-D图M:
M=(|fft[zj]|),1≤j≤R (3)。
3.根据权利要求1所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于所述的步骤2具体实现流程如下:
2-1、对整幅图像进行限幅处理,得到限幅处理后的输入图像;即假设图像中元素的最大值为Imagemax,则通过将每一个R-D单元的幅值除以Imagemax使得图像中元素的最大值为1;
2-2、利用卷积核形成的感受野类比滑动窗口抽取R-D图中不同区域的局部特征进行背景与目标的分类;为提高目标定位的准确率,特征图像素点对应的输入图像中感受野的尺寸需根据目标回波在R-D图中的分布范围设定;
2-3、根据已确立的特征图尺寸Nf×Rf和输入图像尺寸N×R,按分辨率缩小比例将R-D图划分为Nf×Rf个尺寸为rh×rw网格单元以辅助所构建的位置预测功能层对目标进行定位,其中:
2-4、利用构建的全卷积神经网络计算R-D图映射至特征图像素点分别属于目标和背景的类别概率,以及该像素点对应的R-D区域包含目标时,所属用于辅助定位网格的左上角与目标实际位置之间的偏移量;
2-5、预设目标存在的概率阈值为Tp,若网络输出特征图中某一像素点属于目标的预测概率大于等于阈值Tp,则初步判断该像素点映射的R-D区域包含目标,并将该像素点的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
2-6、对每个特征图像素点在R-D图中的映射区域,利用网络位置回归层的预测结果(dx,dy)估计目标在每个R-D图辅助定位网格中的真实位置(xpre,ypre),具体计算公式如下:
其中(x,y)为特征图像素点对应R-D区域所属辅助定位网格的左上角单元在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数;
2-7、将上述R-D图中的目标真实位置横坐标xpre按转化为目标相对雷达的径向距离r;设雷达快时间采样率为Fs,则具体的计算公式如下:
同时记录采集该R-D图时对应的俯仰角和方位角θ,用于后续的卡尔曼滤波跟踪。
4.根据权利要求3所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于构建的全卷积神经网络由两个部分组成:用于空间特征提取的全卷积神经网络主干和两个用于特征图像素点类别与位置预测的功能模块,各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络主干共包含3个卷积层,均使用3×5大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、32和64;为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×4、水平向与垂直向步长分别为2和4的最大池化层;每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分两个用于特征图像素点类别与位置预测的功能模块,分别包含一个卷积核大小为3×3、步长为1、数量为64、含有激活层ReLU的特征映射卷积层和一个卷积核大小为1×1,步长为1、数量为2的功能层,且其中分类模块的功能层分别输出特征图像素点判别为目标和背景的概率,而位置预测模块的功能层则分别输出特征图像素点在水平向与垂直向的偏移量;为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
其中,为类别预测层像素点i位置的原始输出,ncls为类别预测层在同一像素点位置的节点个数。
5.根据权利要求3或4所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于步骤2-4中:
(1)在网络输出的分类预测结果中,根据特征图像素点对应的R-D区域是否包含目标将所有特征图像素点分为正样本和负样本,然后采用随机的方式从负样本中抽取与正样本等量的特征图像素点作为训练数据,与正样本一起输入全卷积神经网络进行训练,所述的R-D区域是指特征图像素点感受野对应在输入图像中包含的R-D区域;
(2)全卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smooth L1损失;网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg (7)
其中,λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk’∈{0,1}是第k’个特征图像素点的真实类别标签,是第k’个像素点所属的辅助定位网格包含目标时其左上角与目标位置之间的水平向、垂直向相对偏移量,在式(9)中dik’∈{dxk’,dyk’};而(dxk’,dyk’)为第k’个特征图像素点在位置回归层的水平向与垂直向输出结果,在式(9)中dtk∈{dxk,dyk};式(10)中d为/>与dtk’的差值;假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的R-D区域所属辅助定位网格的左上角在Range-Doppler图中的位置为(x,y),而对应特征图与Range-Doppler图之间的宽高缩放比例分别为rw和rh,则该辅助定位网格相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用初始值为0.1、每10个迭代周期衰减10%的学习率,动量系数为0.9的动量梯度下降方法优化网络参数。
6.根据权利要求1所述的基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法,其特征在于步骤3还包括以下特征:
(1)设航迹起始后为时刻kd,则设定卡尔曼滤波器的初始状态为第一次观测值,初始化误差协方差矩阵为对角阵:
式中u为状态变量的个数;
(2)协方差矩阵Q的取值需根据实际情况而定;若系统状态方程更精确,即对预测值的信赖度更高,则对应Q取大值;若系统传感器量测更精确,则对应Q取小值。
CN202110995010.3A 2021-08-27 2021-08-27 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 Active CN113808174B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110995010.3A CN113808174B (zh) 2021-08-27 2021-08-27 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110995010.3A CN113808174B (zh) 2021-08-27 2021-08-27 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113808174A CN113808174A (zh) 2021-12-17
CN113808174B true CN113808174B (zh) 2024-03-26

Family

ID=78942015

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110995010.3A Active CN113808174B (zh) 2021-08-27 2021-08-27 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113808174B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114924274B (zh) * 2022-04-08 2023-06-30 苏州大学 一种基于固定网格的高动态铁路环境雷达感知方法
CN115424455A (zh) * 2022-08-31 2022-12-02 南京慧尔视智能科技有限公司 一种车辆预警方法、装置、电子设备以及存储介质
CN115685128B (zh) * 2022-11-14 2023-04-11 中国人民解放军空军预警学院 一种机动目标场景下的雷达目标跟踪算法及电子设备
CN116815365B (zh) * 2023-08-28 2023-11-24 江苏恒力化纤股份有限公司 一种环锭纺细纱机断纱自动检测方法
CN116881385B (zh) * 2023-09-08 2023-12-01 中国铁塔股份有限公司 轨迹平滑方法、装置、电子设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101825707A (zh) * 2010-03-31 2010-09-08 北京航空航天大学 基于Keystone变换和相参积累的单脉冲测角方法
CN111368653A (zh) * 2020-02-19 2020-07-03 杭州电子科技大学 一种基于r-d图与深度神经网络的低空小目标检测方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101825707A (zh) * 2010-03-31 2010-09-08 北京航空航天大学 基于Keystone变换和相参积累的单脉冲测角方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN111368653A (zh) * 2020-02-19 2020-07-03 杭州电子科技大学 一种基于r-d图与深度神经网络的低空小目标检测方法

Also Published As

Publication number Publication date
CN113808174A (zh) 2021-12-17

Similar Documents

Publication Publication Date Title
CN113808174B (zh) 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法
CN111583214B (zh) 基于rbf神经网络的航海雷达图像反演海面风速方法
CN110889324A (zh) 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN110018453B (zh) 基于飞机航迹特征的智能机型识别方法
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN112395987B (zh) 基于无监督域适应cnn的sar图像目标检测方法
CN109324315B (zh) 基于双层次块稀疏性的空时自适应处理雷达杂波抑制方法
CN103353988B (zh) 异源sar景象特征匹配算法性能评估方法
CN108957453A (zh) 一种基于多目标跟踪的高精度动目标成像及识别方法
CN108960190B (zh) 基于fcn图像序列模型的sar视频目标检测方法
CN111695473A (zh) 基于长短时记忆网络模型的热带气旋强度客观监测方法
Tian et al. Performance evaluation of deception against synthetic aperture radar based on multifeature fusion
CN111368653B (zh) 一种基于r-d图与深度神经网络的低空小目标检测方法
CN113311430B (zh) 蜂群无人机数量估计和航迹生成方法
CN108509835B (zh) 基于DFIC超像素的PolSAR图像地物分类方法
Meiyan et al. M-FCN based sea-surface weak target detection
CN110163346A (zh) 一种针对多目标检测的卷积神经网络设计方法
CN117111013B (zh) 一种雷达目标跟踪航迹起始方法、装置、设备及介质
Yan et al. A VideoSAR Moving Target Detection Method Based on GMM
CN112731399B (zh) 一种基于二维稀疏结构的宽带雷达飞机目标架次识别方法
CN117849753B (zh) 一种基于车载毫米波雷达的目标泛特征提取方法
Yang et al. A Temporal Convolutional Network for Wave Height Estimation from X-band Radar Data
CN111144316B (zh) 基于堆栈自编码器的海面目标检测方法
Zhai et al. A novel ship detection algorithm based on anomaly detection theory for SAR images
Liu et al. A YOLO-X Deep Learning Approach to Detect Traffic Targets from UAV Video with On-Board Vehicle Data Validation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant