CN113341391B - 基于深度学习的未知环境下雷达目标多帧联合检测方法 - Google Patents

基于深度学习的未知环境下雷达目标多帧联合检测方法 Download PDF

Info

Publication number
CN113341391B
CN113341391B CN202110607922.9A CN202110607922A CN113341391B CN 113341391 B CN113341391 B CN 113341391B CN 202110607922 A CN202110607922 A CN 202110607922A CN 113341391 B CN113341391 B CN 113341391B
Authority
CN
China
Prior art keywords
value function
network
target
frame
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110607922.9A
Other languages
English (en)
Other versions
CN113341391A (zh
Inventor
易伟
邓杰
曾楷
文耀毅
肖航
李武军
孔令讲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110607922.9A priority Critical patent/CN113341391B/zh
Publication of CN113341391A publication Critical patent/CN113341391A/zh
Application granted granted Critical
Publication of CN113341391B publication Critical patent/CN113341391B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/418Theoretical aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种基于深度学习的未知环境下雷达目标多帧联合检测方法,包括以下步骤:S1、对仿真回波数据进行多帧积累以获取多维值函数域数据;S2、利用多域解耦拆分组合技术对多维值函数域进行处理,获取深度学习网络离线训练数据集;S3、利用基于值函数域特性的U‑Net图像分割网络进行多模型集成训练;S4、利用训练完毕的网络输出检测结果;S5、利用M/N判别网络对目标检测结果进行进一步处理。本发明基于数据驱动挖掘值函数域中目标运动特征,利用基于值函数域特性的U‑Net图像分割网络实现微弱目标的智能检测,从而解决现有多帧联合检测算法无法适应起伏非均匀和未知噪声环境下的目标检测问题。

Description

基于深度学习的未知环境下雷达目标多帧联合检测方法
技术领域
本发明属于雷达目标检测和跟踪领域,尤其涉及一种基于深度学习的未知环境下雷达目标多帧联合检测方法。
背景技术
针对强杂波、复杂干扰、低信噪比环境下微弱目标的检测问题,多帧联合检测算法是一种有效的检测微弱目标的方法。该方法在单帧不进行检测,而是直接对多帧回波数据进行积累处理,根据目标和噪声在帧间运动学上的差异,抑制噪声和杂波,最终提取目标信息来得到检测结果。目前,基于动态规划的检测前跟踪技术(DP-TBD)是多帧联合检测算法中一种十分高效的实现方法。它利用空间离散化措施,将多维问题降为多个一维模型进行处理,可以有效解决多帧积累问题。但对于未知起伏噪声环境,DP-TBD对于积累值函数域门限划分和建模会出现较大误差,并且对于门限的确定也会耗费一定的计算资源。
非均匀杂波和起伏噪声背景下的微弱目标检测问题一直是当前研究的热点,因为非均匀杂波和起伏噪声往往会掩盖真正的目标信息,使得多帧联合检测算法的值函数无法正确积累,从而影响检测性能。但在常规的多帧联合检测算法中,大多只考虑了均匀的复高斯噪声环境,没有考虑复杂的非均匀杂波和起伏噪声情况,而对于未知背景环境的微弱目标检测更是存在困难。文献“Track-Before-Detect Strategies for Radar Detection inG0-Distributed Clutter,IEEE Transactions on Aerospace and Electronic Systems,vol.53,no.5,pp.2516-2533,2017”针对雷达系统中常见的非高斯杂波模型G0提出了改进的DP-TBD算法,在积分过程中利用对数似然比代替幅度,从而实现良好的检测效果,但这仅是针对杂波G0分布模型,对于极端未知杂波和噪声环境,也会存在一定局限性。文献“基于动态规划的非均匀杂波环境中的复似然比检测前跟踪算法,火控雷达技术,49(01):49-55,2020”提出了一种基于先验杂波图信息辅助的DP-TBD算法,利用杂波图与相位信息相结合的复似然比函数作为值函数,实现了非均匀杂波环境下的有效检测。但这同样假设了先验杂波图已知,且引入了分辨单元内的杂波不相关等先决条件。专利申请“一种用于非均匀杂波背景的动态规划检测前跟踪方法,CN104035084A”基于杂波功率突变给出了用于非均匀杂波背景的多帧联合检测方法,但其只考虑了高低两类杂波功率的非均匀情况。因此上述方法都没有普适性地解决未知起伏噪声环境微弱目标的检测问题。
发明内容
本发明针对起伏非均匀和未知噪声环境下的微弱目标检测问题,设计了一种基于深度学习的未知环境下雷达目标多帧联合检测方法,基于数据驱动挖掘值函数域中目标运动特征,利用基于值函数域特性的U-Net图像分割网络实现微弱目标的智能检测,从而解决现有多帧联合检测算法无法适应起伏非均匀和未知噪声环境下的目标检测问题。
本发明的目的是通过以下技术方案来实现的:基于深度学习的未知环境下雷达目标多帧联合检测方法,包括以下步骤:
S1、对仿真回波数据进行多帧积累以获取多维值函数域数据;
S2、利用多域解耦拆分组合技术对多维值函数域进行处理,获取深度学习网络离线训练数据集;
S3、利用基于值函数域特性的U-Net图像分割网络进行多模型集成训练;
S4、利用训练完毕的网络输出检测结果;
S5、利用M/N判别网络对目标检测结果进行进一步处理。
进一步地,所述S1包括以下子步骤:
S11、获取各个时刻的仿真雷达回波数据;
S12、初始化值函数参数;
S13、递推积累值函数,得到多维值函数域数据。
进一步地,所述S2包括以下子步骤:
S21、利用多域解耦拆分组合技术对多维值函数域进行处理:对于最后一帧积累值函数,基于拆分组合操作得到值函数f1;同时,对于最后一帧积累值函数,利用压缩技术,得到值函数域最大的二维积累图f2;最终得到的积累值函数集合f={f1,f2};
S22、对积累值函数平面进行灰度化处理,作为深度学习网络的输入数据;对仿真数据的目标检测区域x-y平面进行二值化处理,针对每个单元格只考虑目标是否存在的1-0判决,作为深度学习网络的输出标签;
S23、针对不同SNR、不同拆分组合所得到的积累值函数集合,以及对应的输出标签,将两者对应存储,得到对应的训练数据集。
进一步地,所述S3包括以下子步骤:
S31、构建网络基本架构:网络架构采用U-Net网络,结构左侧为下采样层,由卷积层、池化层、激活函数交替组合,实现全局内容和特征的捕捉;结构右侧为上采样层,由卷积层和反卷积层交替组合,实现下采样数据谱的反向扩充,实现特征数据谱的单像素点识别;skip connection措施采用concat拼接操作,在上采样的过程中,对前期下采样过程中的特征数据谱进行融合,从而优化输出;
S32、建立损失函数:对U-Net网络架构的损失函数进行改进,采用Focal Loss函数如下:
Figure BDA0003094745940000031
其中,α表示平衡因子,用来平衡正负样本自身的不均衡比例;γ表示困难因子,用于控制易分类样本和难分类样本的权重;y代表真实标签;y′代表网络的预测输出值,y′∈[0,1];
S33、进行网络训练:整个网络的训练过程分为前向传播和反向传播,将输出损失误差分摊给各层的所有单元,从而不断修正各单元权重w。
本发明的有益效果是:本发明提出了一种基于深度学习的未知环境下雷达目标多帧联合检测方法。首先利用积累得到的多维值函数域进行特征图构造,充分表达目标的运动特征以获取网络离线训练数据集,随后基于DCNN构造基于值函数域特性的U-Net图像分割网络,基于数据驱动思想直接识别微弱目标潜在位置,最后结合M/N判别网络进一步降低微弱目标检测的虚警概率,从而解决了起伏非均匀和未知噪声环境下微弱目标先验信息不准确而导致的错误检测问题。本发明的优点是建立了噪声先验信息未知情况下的微弱目标普适性检测模型,基于数据驱动,摆脱先验模型和门限划分的局限性,使得多帧联合检测技术具备更好的未知背景环境微弱目标检测性能。本发明可以应用于雷达目标跟踪、交通监控等领域。
附图说明
图1为本发明的基于深度学习的未知环境下雷达目标多帧联合检测方法的流程图;
图2是基于多域解耦拆分组合技术和多模型集成训练方法的流程示意图。
图3是本发明中具体基于值函数域特性的U-Net网络架构图;
图4是利用本发明的方法对均匀常规环境下任意一张积累值函数平面图和对应的网络二值化检测结果;
图5是传统多帧联合检测算法对均匀常规环境下任意一张积累值函数平面图和对应的网络二值化检测结果;
图6是本发明的方法对起伏背景环境下任意一张积累值函数平面图和对应的网络二值化检测结果;
图7是传统多帧联合检测算法对起伏背景环境下任意一张积累值函数平面图和对应的网络二值化检测结果。
具体实施方式
本发明的对积累得到的多维值函数域,采用多域解耦拆分组合技术,充分挖掘各个维度下目标的空时域运动特性信息;并经过灰度化、二值化等预处理操作得到目标运动特征数据谱,以此作为深度学习网络的训练数据集;随后送入基于多帧值函数域特性而改进的U-Net图像分割网络进行多模型集成训练,最终利用训练完毕的U-Net网络输出二值化检测结果,并结合M/N判别网络对目标检测的虚警概率进行抑制。该方法有效解决了起伏非均匀和未知噪声环境下微弱目标先验信息不准确而导致的错误检测问题,从而实现噪声先验信息未知情况下的微弱目标普适性检测模型。下面结合附图进一步说明本发明的技术方案。
如图1所示,本发明的基于深度学习的未知环境下雷达目标多帧联合检测方法,包括以下步骤:
S1、对仿真回波数据进行多帧积累以获取多维值函数域数据;包括以下子步骤:
S11、获取各个时刻的仿真雷达回波数据;将第k帧回波数据记为zk,zk={zk(i,j),1≤i≤Nx,1≤j≤Ny},zk(i,j)是第k帧分辨单元(i,j)的测量值,Nx为x方向的分辨单元数,Ny为y方向的分辨单元数;
S12、初始化值函数参数;对于k=1帧目标离散状态
Figure BDA0003094745940000041
Figure BDA0003094745940000042
其中,
Figure BDA0003094745940000043
表示递推积累到第k帧时,目标状态
Figure BDA00030947459400000410
对应的值函数;Z1:K=[z1,z2,...,zK]表示目标在一个帧内批处理的航迹量测;
Figure BDA0003094745940000044
表示量测平面似然函数;
S13、递推积累值函数,得到多维值函数域数据;对2≤k≤K帧中所有离散状态
Figure BDA0003094745940000045
进行值函数平面递推积累,即
Figure BDA0003094745940000046
其中,
Figure BDA0003094745940000047
为目标状态在一帧时间内所能转移的状态范围,可以理解为第k帧目标状态
Figure BDA0003094745940000048
来自第k-1帧的可能的目标状态
Figure BDA0003094745940000049
的集合。
本实施例仿真了在二维区域内的目标运动,假设x方向的分辨单元数Nx=64,y方向的分辨单元数Ny=64,目标的初始状随机,帧间采样间隔T=1,积累帧数为K=6,信噪比SNR=1~15dB,目标速度的大致搜索区间为vx=[-2,2],vy=[-2,2]。
针对常规条件,假设背景为复高斯白噪声,背景噪声功率为1,过程噪声功率谱密度qs=0.001;针对起伏条件,假设区域沿y方向划分四个区域,每个区域的噪声功率不同,考虑从上到下噪声功率依次减小,分别为1、10-1/5、10-2/5、10-3/5
根据公式(1)与(2)进行值函数空时递推积累,从而获取最后一帧多维积累值函数域
Figure BDA0003094745940000051
S2、利用多域解耦拆分组合技术对多维值函数域进行处理,获取深度学习网络离线训练数据集;包括以下子步骤:
S21、利用多域解耦拆分组合技术对多维值函数域进行处理:对于最后一帧积累值函数
Figure BDA0003094745940000052
基于拆分组合操作得到值函数f1;同时,对于最后一帧积累值函数,利用压缩技术,得到值函数域最大的二维积累图f2;最终得到的积累值函数集合f={f1,f2},积累值函数能够从多个维度反映目标的状态信息,从而在高维领域能够产生检测特征;其次,通过二维信息映射操作,实现二维运动特性的映射转换,对输入图像赋予特性,便于网络从中进行挖掘目标。
S22、对积累值函数平面进行灰度化处理,使得图像本身的形态特征更好的被网络所学习,作为深度学习网络的输入数据;对仿真数据的目标检测区域x-y平面进行二值化处理,针对每个单元格只考虑目标是否存在的1-0判决,作为深度学习网络的输出标签;
S23、针对不同SNR、不同拆分组合所得到的积累值函数集合,以及对应的输出标签,将两者对应存储,得到对应的训练数据集,进一步加强深度学习网络的预测鲁棒性和普适性,从而得到深度学习网络离线训练所需的数据集。
S3、利用基于值函数域特性的U-Net图像分割网络进行多模型集成训练;
包括以下子步骤:
S31、构建网络基本架构:网络架构采用U-Net网络,结构左侧为下采样层,由卷积层(负责特征高维选择和提取,采用3*3卷积核)、池化层(负责参数降维和控制过拟合,采用2*2Max-Pooling)、激活函数(负责非线性特征映射,采用ReLU激活函数)交替组合,实现全局内容和特征的捕捉;结构右侧为上采样层,由卷积层和反卷积层(负责反向映射,以得到与原图等大的分割图)交替组合,实现下采样数据谱的反向扩充,实现特征数据谱的单像素点识别;skip connection措施采用concat拼接操作,在上采样的过程中,对前期下采样过程中的特征数据谱进行融合,从而优化输出;
S32、建立损失函数:对于多帧联合检测算法所得到的积累值函数平面,容易出现类别不均衡(Class Imbalance)问题,从而导致训练会被像素较多的类别主导,对于较小的物体很难学习到其特征,从而降低网络的有效性。对此,本发明对U-Net网络架构的损失函数进行改进,采用Focal Loss函数如下:
Figure BDA0003094745940000061
其中,α表示平衡因子,用来平衡正负样本自身的不均衡比例;γ表示困难因子,用于控制易分类样本和难分类样本的权重;y代表真实标签;y′代表网络的预测输出值,y′∈[0,1];
S33、进行网络训练:整个网络的训练过程分为前向传播和反向传播,核心思想是将输出损失误差分摊给各层的所有单元,从而不断修正各单元权重w;
(1)前向传播
首先,对于任意一个积累值函数平面f∈f,利用卷积层进行特征提取,而卷积是指输入图像矩阵与卷积核矩阵完成权值相乘,即
Figure BDA0003094745940000062
其中,
Figure BDA0003094745940000063
表示第l个卷积层中的第i个特征谱;
Figure BDA0003094745940000064
表示
Figure BDA0003094745940000065
Figure BDA0003094745940000066
之间的卷积核权重;J为上一层特征谱的个数,在第一层时J=1(因为只有一个输入平面f);
Figure BDA0003094745940000067
表示第l层偏置;*代卷积运算;σ(·)代表激活函数。
其次,利用激活函数对卷积运算的结果进行非线性化,使得网络具备非线性以及拟合任意函数的能力,同时为了解决梯度消失和网络无法收敛的问题,此处采用线性修正单元(ReLU)函数:
Figure BDA0003094745940000068
对于尺寸大小为M1×N1的特征图,经过卷积运算之后的尺寸大小M2×N2可用下式计算:
Figure BDA0003094745940000069
其中,c×c表示卷积核尺寸大小;p代表填充补零的宽度;s是卷积核的滑动步长。
随后,在卷积层之后通常利用池化层进行参数降维、增大卷积核感受野,本发明采用的最大池化是取对应区域的最大值作为输出。而经过池化层之后的特征谱尺寸大小M3×N3为:
Figure BDA0003094745940000071
其中,k为池化窗口大小;s为池化窗的滑动步长。
最后,为了使网络输出分辨率与输入图像一样的分割概率图,往往需要反卷积层对特征图进行扩大,从而使得最终输出的分割概率图尺寸大小仍为M1×N1
(2)反向传播
假设经过前向传播后的网络输出值为y′,实际对应的标签为y,则基于Focal Loss函数LFL计算损失函数值:
F(w,b)=LFL(y,y′) (8)
反向传播过程实质上就是利用某个优化算法来最小化损失值的过程,此处以随机梯度下降法(SGD)为例:
Figure BDA0003094745940000072
其中,w′和b′是经过一次更新后的权重和偏置;η∈(0,1)代表学习率。
为了提高训练过程中的收敛性,本发明采用自适应学习率的优化算法RMSProp更新所有卷积核参数值,以最大程度地减少Focal Loss输出误差,从而使得损失值不断收敛,最终训练得到对应的基于值函数域特性的U-Net图像分割网络。
如附图2和附图3所示,本发明针对传统U-Net图像分割网络进行改进,针对原有U-Net网络特征提取不够深入,没有很好地提取出潜在目标周围值函数特性的问题,本发明增加了深层特征提取层;针对检测数据中目标占主体的比例过小,造成数据极度不均衡的问题,本发明利用了权重改进损失函数,引入了Focal Loss,如公式(3)所示。
训练过程是基于Pytorch框架和Tensor张量输入到改进的U-Net图像分割网络进行训练,具体训练过程如下:
S331、使用随机值初始化所有卷积核参数;
S332、下采样网络将训练图像作为输入,进行正向传播步骤(卷积,ReLU和池化中的正向传播),提取对应图像中的关键特征信息;
S333、上采样网络将下采样提取的feature map恢复到原始分辨率,以便与真实标签Label进行损失函数计算;
S334、基于上采样网络的输出,与真实标签Label计算总误差Focal Loss;
S335、使用反向传播来计算误差相对于网络中所有权重的梯度,并使用自适应优化算法(RMSProp)来更新所有卷积核参数值,以最大程度地减少输出误差Focal Loss;
S336、对训练数据集中的所有图像重复步骤S331-S335。
S4、利用训练完毕的网络输出检测结果;针对积累值函数平面进行预测,即输入到训练完毕的基于值函数域特性的U-Net图像分割网络,并输出二值化结果,实现每个像素单元格的二分类结果,从而识别最后一帧目标的潜在位置。
将训练完毕的U-Net图像分割网络的模型权值进行Load加载,从而针对待检测值函数平面进行预测,输出二值化结果,实现每个像素单元格的二分类结果,从而识别最后一帧目标的潜在位置。
本发明的检测结果如附图4、附图6所示,传统多帧联合检测算法的检测结果如附图5、附图7所示,横纵坐标分别代表X、Y方向坐标,附图4是均匀常规环境下任意一张积累值函数平面图和对应的网络二值化检测结果(本发明);附图5是同样均匀常规环境下任意一张积累值函数平面图和对应的网络二值化检测结果(传统多帧联合检测算法);附图6是起伏背景环境下任意一张积累值函数平面图和对应的网络二值化检测结果(本发明);附图7是同样起伏背景环境下任意一张积累值函数平面图和对应的网络二值化检测结果(传统多帧联合检测算法)。
S5、利用M/N判别网络对目标检测结果进行进一步处理;针对每种拆分组合下的检测结果,构建M/N判别网络,实现M/N准则下的目标检测结果筛选,从而进一步抑制目标的虚警概率,实现了对微弱目标的智能稳健检测。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (2)

1.基于深度学习的未知环境下雷达目标多帧联合检测方法,其特征在于,包括以下步骤:
S1、对仿真回波数据进行多帧积累以获取多维值函数域数据;包括以下子步骤:
S11、获取各个时刻的仿真雷达回波数据;将第k帧回波数据记为zk,zk={zk(i,j),1≤i≤Nx,1≤j≤Ny},zk(i,j)是第k帧分辨单元(i,j)的测量值,Nx为x方向的分辨单元数,Ny为y方向的分辨单元数;
S12、初始化值函数参数;对于k=1帧目标离散状态
Figure FDA0003574469900000011
Figure FDA0003574469900000012
其中,
Figure FDA0003574469900000013
表示递推积累到第k帧时,目标状态
Figure FDA0003574469900000014
对应的值函数;Z1:K=[z1,z2,...,zK]表示目标在一个帧内批处理的航迹量测;
Figure FDA0003574469900000015
表示量测平面似然函数;
S13、递推积累值函数,得到多维值函数域数据;对2≤k≤K帧中所有离散状态
Figure FDA0003574469900000016
进行值函数平面递推积累,即
Figure FDA0003574469900000017
其中,
Figure FDA0003574469900000018
为目标状态在一帧时间内所能转移的状态范围,可以理解为第k帧目标状态
Figure FDA0003574469900000019
来自第k-1帧的可能的目标状态
Figure FDA00035744699000000110
的集合;
S2、利用多域解耦拆分组合技术对多维值函数域进行处理,获取深度学习网络离线训练数据集;包括以下子步骤:
S21、利用多域解耦拆分组合技术对多维值函数域进行处理:对于最后一帧积累值函数
Figure FDA00035744699000000111
基于拆分组合操作得到值函数f1;同时,对于最后一帧积累值函数,利用压缩技术,得到值函数域最大的二维积累图f2;最终得到的积累值函数集合f={f1,f2};
S22、对积累值函数平面进行灰度化处理,作为深度学习网络的输入数据;对仿真数据的目标检测区域x-y平面进行二值化处理,针对每个单元格只考虑目标是否存在的1-0判决,作为深度学习网络的输出标签;
S23、针对不同SNR、不同拆分组合所得到的积累值函数集合,以及对应的输出标签,将两者对应存储,得到对应的训练数据集;
S3、利用基于值函数域特性的U-Net图像分割网络进行多模型集成训练;
S4、利用训练完毕的网络输出检测结果;
S5、利用M/N判别网络对目标检测结果进行进一步处理。
2.根据权利要求1所述的基于深度学习的未知环境下雷达目标多帧联合检测方法,其特征在于,所述S3包括以下子步骤:
S31、构建网络基本架构:网络架构采用U-Net网络,结构左侧为下采样层,由卷积层、池化层、激活函数交替组合,实现全局内容和特征的捕捉;结构右侧为上采样层,由卷积层和反卷积层交替组合,实现下采样数据谱的反向扩充,实现特征数据谱的单像素点识别;skipconnection措施采用concat拼接操作,在上采样的过程中,对前期下采样过程中的特征数据谱进行融合,从而优化输出;
S32、建立损失函数:对U-Net网络架构的损失函数进行改进,采用Focal Loss函数如下:
Figure FDA0003574469900000021
其中,α表示平衡因子,用来平衡正负样本自身的不均衡比例;γ表示困难因子,用于控制易分类样本和难分类样本的权重;y代表真实标签;y′代表网络的预测输出值,y′∈[0,1];
S33、进行网络训练:整个网络的训练过程分为前向传播和反向传播,将输出损失误差分摊给各层的所有单元,从而不断修正各单元权重w。
CN202110607922.9A 2021-06-01 2021-06-01 基于深度学习的未知环境下雷达目标多帧联合检测方法 Active CN113341391B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110607922.9A CN113341391B (zh) 2021-06-01 2021-06-01 基于深度学习的未知环境下雷达目标多帧联合检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110607922.9A CN113341391B (zh) 2021-06-01 2021-06-01 基于深度学习的未知环境下雷达目标多帧联合检测方法

Publications (2)

Publication Number Publication Date
CN113341391A CN113341391A (zh) 2021-09-03
CN113341391B true CN113341391B (zh) 2022-05-10

Family

ID=77473964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110607922.9A Active CN113341391B (zh) 2021-06-01 2021-06-01 基于深度学习的未知环境下雷达目标多帧联合检测方法

Country Status (1)

Country Link
CN (1) CN113341391B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2575908A1 (en) * 2004-09-14 2006-03-23 Gary Demos High quality wide-range multi-layer compression coding system
CN104076355A (zh) * 2014-07-04 2014-10-01 西安电子科技大学 基于动态规划的强杂波环境中弱小目标检测前跟踪方法
CN104931952A (zh) * 2015-06-26 2015-09-23 西安电子科技大学 一种基于多帧联合的运动目标航迹的雷达检测方法
CN105137420A (zh) * 2015-09-09 2015-12-09 电子科技大学 一种多帧积累的非相干mimo雷达检测和定位方法
CN107340517A (zh) * 2017-07-04 2017-11-10 电子科技大学 一种多传感器多帧检测前跟踪方法
WO2018058356A1 (zh) * 2016-09-28 2018-04-05 驭势科技(北京)有限公司 基于双目立体视觉的汽车防碰撞预警方法和系统
CN108169745A (zh) * 2017-12-18 2018-06-15 电子科技大学 一种基于卷积神经网络的钻孔雷达目标识别方法
CN108256488A (zh) * 2018-01-19 2018-07-06 中国人民解放军陆军装甲兵学院 一种基于微多普勒特征提取和深度学习的雷达目标识别方法
CN108519594A (zh) * 2018-03-26 2018-09-11 电子科技大学 一种重频间帧间联合积累的多重频雷达检测前跟踪方法
CN108802722A (zh) * 2018-08-28 2018-11-13 哈尔滨工业大学 一种基于虚拟谱的弱目标检测前跟踪方法
CN111123257A (zh) * 2019-12-30 2020-05-08 西安电子科技大学 基于图时空网络的雷达动目标多帧联合检测方法
CN112014814A (zh) * 2020-08-06 2020-12-01 西安电子科技大学 基于三帧积累速度筛选dp-tbd的动目标检测与跟踪方法
WO2021017291A1 (zh) * 2019-07-31 2021-02-04 平安科技(深圳)有限公司 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
CN112612006A (zh) * 2020-11-25 2021-04-06 中山大学 基于深度学习的机载雷达非均匀杂波抑制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210463B (zh) * 2019-07-03 2023-07-11 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2575908A1 (en) * 2004-09-14 2006-03-23 Gary Demos High quality wide-range multi-layer compression coding system
CN104076355A (zh) * 2014-07-04 2014-10-01 西安电子科技大学 基于动态规划的强杂波环境中弱小目标检测前跟踪方法
CN104931952A (zh) * 2015-06-26 2015-09-23 西安电子科技大学 一种基于多帧联合的运动目标航迹的雷达检测方法
CN105137420A (zh) * 2015-09-09 2015-12-09 电子科技大学 一种多帧积累的非相干mimo雷达检测和定位方法
WO2018058356A1 (zh) * 2016-09-28 2018-04-05 驭势科技(北京)有限公司 基于双目立体视觉的汽车防碰撞预警方法和系统
CN107340517A (zh) * 2017-07-04 2017-11-10 电子科技大学 一种多传感器多帧检测前跟踪方法
CN108169745A (zh) * 2017-12-18 2018-06-15 电子科技大学 一种基于卷积神经网络的钻孔雷达目标识别方法
CN108256488A (zh) * 2018-01-19 2018-07-06 中国人民解放军陆军装甲兵学院 一种基于微多普勒特征提取和深度学习的雷达目标识别方法
CN108519594A (zh) * 2018-03-26 2018-09-11 电子科技大学 一种重频间帧间联合积累的多重频雷达检测前跟踪方法
CN108802722A (zh) * 2018-08-28 2018-11-13 哈尔滨工业大学 一种基于虚拟谱的弱目标检测前跟踪方法
WO2021017291A1 (zh) * 2019-07-31 2021-02-04 平安科技(深圳)有限公司 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
CN111123257A (zh) * 2019-12-30 2020-05-08 西安电子科技大学 基于图时空网络的雷达动目标多帧联合检测方法
CN112014814A (zh) * 2020-08-06 2020-12-01 西安电子科技大学 基于三帧积累速度筛选dp-tbd的动目标检测与跟踪方法
CN112612006A (zh) * 2020-11-25 2021-04-06 中山大学 基于深度学习的机载雷达非均匀杂波抑制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于检测前跟踪技术的多目标跟踪算法研究;易伟;《中国优秀硕士/博士学位论文全文数据库》;20121231;全文 *
探地雷达多目标识别方法的研究;胡进峰 等;《电子与信息学报》;20061231;26-30 *

Also Published As

Publication number Publication date
CN113341391A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
Kraus et al. Uncertainty estimation in one-stage object detection
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN112101278A (zh) 基于k近邻特征提取和深度学习的宅基地点云分类方法
CN112446419A (zh) 基于注意力机制的时空神经网络雷达回波外推预报方法
Spirkovska A summary of image segmentation techniques
CN108171119B (zh) 基于残差网络的sar图像变化检测方法
CN116012364B (zh) Sar图像变化检测方法和装置
CN110852317A (zh) 一种基于弱边缘的小尺度目标检测方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN112149502A (zh) 一种基于卷积神经网络的不良地质定位预报方法
CN114972735A (zh) 基于roi预测和多模块学习的抗遮挡移动目标跟踪装置及方法
Venugopal Sample selection based change detection with dilated network learning in remote sensing images
CN114973019A (zh) 一种基于深度学习的地理空间信息变化检测分类方法及系统
Siddiqui et al. Clustering techniques for image segmentation
CN112270285B (zh) 一种基于稀疏表示和胶囊网络的sar图像变化检测方法
CN108960005B (zh) 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统
CN113341391B (zh) 基于深度学习的未知环境下雷达目标多帧联合检测方法
Marques et al. On the overconfidence problem in semantic 3d mapping
CN114463686B (zh) 基于复杂背景下的移动目标检测方法和系统
CN115908419A (zh) 一种利用贝叶斯网络优化伪标签的无监督高光谱图像变化检测方法
CN112507826B (zh) 一种端到端生态变化监测方法、终端、计算机设备及介质
CN113344902B (zh) 一种基于深度学习的强对流天气雷达图识别方法
CN115131588B (zh) 一种基于模糊聚类的图像鲁棒聚类方法
CN112926619B (zh) 一种高精度水下激光目标识别系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant