CN111123257A - 基于图时空网络的雷达动目标多帧联合检测方法 - Google Patents

基于图时空网络的雷达动目标多帧联合检测方法 Download PDF

Info

Publication number
CN111123257A
CN111123257A CN201911389117.2A CN201911389117A CN111123257A CN 111123257 A CN111123257 A CN 111123257A CN 201911389117 A CN201911389117 A CN 201911389117A CN 111123257 A CN111123257 A CN 111123257A
Authority
CN
China
Prior art keywords
detection
network
graph
sub
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911389117.2A
Other languages
English (en)
Other versions
CN111123257B (zh
Inventor
丁金闪
温利武
黄学军
秦思琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201911389117.2A priority Critical patent/CN111123257B/zh
Publication of CN111123257A publication Critical patent/CN111123257A/zh
Application granted granted Critical
Publication of CN111123257B publication Critical patent/CN111123257B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/505Systems of measurement based on relative movement of target using Doppler effect for determining closest range to a target or corresponding time, e.g. miss-distance indicator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/414Discriminating targets with respect to background clutter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于图时空网络的雷达动目标多帧联合检测方法,主要解决现有技术对单通道系统动目标检测虚警率较高的问题。其方案是:获取子孔径距离多普勒谱;构造子残差网络和子图时空网络,并用其构成用于动目标检测的神经网络模型;用子残差网络做区域目标检测,输出初步检测概率图并计算交叉熵损失;用子图时空网络作时空特征提取与融合,输出中间帧动目标的最终检测概率图并计算均方误差;将交叉熵损失与均方误差之和作为总代价函数,训练神经网络至总代价函数收敛得到训练好的神经网络,将测试数据输入训练好的神经网络,对其输出的阈值判断,抑制非极大值后得到中间帧的动目标检测结果。本发明降低了虚警率,可实现可靠的动目标检测。

Description

基于图时空网络的雷达动目标多帧联合检测方法
技术领域
本发明属于雷达信号处理技术领域,特别涉及一种动目标多帧联合检测方法,可用于高帧率雷达系统。
背景技术
运动目标检测是机载海事雷达实现战场环境感知与潜在目标监视的基本任务。在多普勒处理中,可以通过提取运动目标的多普勒频移对其进行检测。但是,恶劣的海况与目标复杂的运动特性往往导致动目标回波信杂噪比较低。在低信杂噪比下实现可靠的运动目标检测是目前研究的热点。大多数的目标检测算法都通过杂波抑制来提高信杂噪比,因此对强海杂波的有效抑制是海事雷达运动目标检测的关键技术。在单通道雷达系统中,杂波抑制的主要方法包括频域滤波、时频分析、子孔径对消技术等。然而,频域滤波法要求目标多普勒频移大于主瓣杂波的多普勒带宽,并且存在速度盲区;子孔径对消法其性能在很大程度上依赖于相干斑噪声的抑制以及配准技术,存在对消后杂波剩余较大,信杂比改善不理想的问题;时频分析法则存在交叉项干扰、信杂比较小时不适用等问题。
基于上述分析,单通道雷达系统杂波抑制能力弱,现有技术不具备相对彻底的杂波抑制能力,无法有效区分运动目标与杂波的多普勒频谱,导致传统的动目标检测方法无法实现稳健的目标检测,存在虚警与漏警的问题。因此在单通道雷达系统的动目标检测问题中迫切需要一种稳健的动目标检测方法。随着机器学习技术特别是深度学习技术的快速发展,越来越多的深度学习模型被迁移应用以及改进到雷达目标检测领域中,其强大的特征提取能力与帧间信息融合能力使得直接从多帧雷达回波数据中提取动目标信息成为可能,避免了单通道雷达系统中的杂波抑制问题。
目前,针对单通达雷达系统中的动目标检测问题以及深度学习中的多帧信息融合问题主要有以下两种方法:
一是Zhirui Wang,Xian Sun,Wenhui Diao等在论文“Ground Moving TargetIndication Based on Optical Flow in Single-Channel SAR”中提出了一种基于光流信息的地面移动目标检测方法。该方法利用运动目标在多视SAR图像序列中的光流信息实现初步的检测,随后结合动目标在相邻帧之间的运动相关性进行虚警抑制,最终实现了稳健的动目标检测。但是该方法受限于在实际的SAR图像中,由于相干斑噪声的影响,动目标的光流信息很难被准确的提取,从而影响动目标检测效果,在实际任务中其检测效果并不理想。
二是D.Tran,L.Bourdev,R.Fergus在论文“Learning Spatiotemporal Featureswith 3D Convolutional Networks”中针对传统视频处理方法的不足,提出了一种利用三维卷积神经网络进行时空特征抽取的方法。在传统视频处理任务中,均采用二维卷积神经网络进行各个关键帧的特征提取,而后再应用相关算法把关键帧的特征融合在一起,没有充分利用时间维度的运动信息,其在视频分类任务上取得了不错的效果,但在视频检测任务上任有较大的提升空间。该方法为了避免上述问题,采用三维卷积神经网路对一段视频帧数据进行特征提取与融合,对每帧输入信息分别提取其灰度、x/y方向梯度、x/y方向光流信息,然后在连续视频帧间利用三维卷积操作分别对上述信息进行特征提取,并在时间维度上对相邻帧间的信息进行特征融合,有效地提取到了连续帧中的运动信息。但是该方法由于对整张图像的特征提取,只适用于提取视频中的运动信息以及视频分类等任务,无法提取目标位置信息,因此不适用于目标检测的任务。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于图时空网络的雷达动目标多帧联合检测方法,以减小动目标检测任务中的虚警率与漏警率,避免相干斑噪声的影响,同时提取出目标的位置信息,完成动目标检测任务。
实现本发明目的的技术方案包括如下步骤:
(1)划分训练集X与测试集Y:
1a)获取多组高脉冲重复频率的单通道雷达数据,将每组数据沿方位向划分为若干帧,对每帧中的原始回波数据依次进行距离压缩和方位向傅里叶变换,得到场景的复距离多普勒谱;
1b)将连续N帧复距离多普勒谱作为一组数据,N>=5,并将所有数据按10:1的比例划分得到训练集X与测试集Y;
(2)构建用于从连续N帧复距离多普勒谱中进行动目标检测的神经网络模型:
2a)构建由一个卷积层、九个残差学习模块、两个全连接层以及一个Softmax层依次连接组成的子残差神经网络,该子残差神经网络的输入为连续N帧复距离多普勒谱,输出为N张对应的初步检测概率图;
2b)将N张初步检测概率图依次建模为图结构的数据,并根据此数据构建由时域卷积层、空域卷积层和输出层依次连接组成的子图时空网络;该子图时空网络的输入为N张初步检测概率图,输出为预测得到的第
Figure BDA0002344480590000033
帧动目标检测概率图;
2c)将2a)和2b)设置的两个网络进行上下堆叠,得到用于从连续N帧复距离多普勒谱中进行动目标检测的神经网络模型;
(3)根据目标在距离多普勒谱中的尺寸,确定检测窗口的距离向长度lr,距离向步长sr,多普勒向长度lf,多普勒向步长sf,且距离向长度lr大于目标在距离向的长度,多普勒向长度lf大于目标在多普勒向的长度;依据这些参数计算得到距离向窗个数Kr和多普勒向窗个数Kf
(4)对(2)中构建的神经网络进行训练:
4a)构建整个神经网络的损失函数:
L=l1+l2
其中,l1是子残差神经网络的损失函数,l2是子图时空网络的损失函数。
Figure BDA0002344480590000031
Figure BDA0002344480590000032
其中,qi表示子残差神经网络的第i个输出,pi表示第i个输出对应的标签数据,w1j表示子残差神经网络的第j个权值,α为训练过程中设置的批尺寸大小,Ai为最终检测概率图的像素值,Bi为真实检测概率图的像素值,w2j表示子图时空网络的第j个权值;
4b)将训练集X输入到网络,采用后向传播算法不断更新网络权值,使得网络的损失函数值收敛,最终完成网络的训练;
(5)将测试集Y中的任意一组数据输入到已训练好的网络,得到网络的检测概率图;
(6)设置检测门限Ε,利用非极大值抑制算法对检测概率图中大于门限Ε的值进行局部抑制处理,得到动目标在距离多普勒谱中的位置,即动目标所在的距离门以及多普勒通道,完成雷达动目标的多帧联合检测。
本发明与现有技术相比具有以下优点:
1)本发明采用多帧联合检测的方法,即利用连续N帧复距离多普勒谱检测中间帧动目标的位置,预测得到中间帧动目标的位置,利用多帧信息降低了检测的虚警率与漏警率,提升了检测性能。
2)本发明设由于计了一种适用于雷达数据的神经网络,通过输入连续N帧复距离多普勒谱,即可得到中间帧动目标在距离多普勒谱中的位置,因而对雷达原始数据的处理只需要进行简单的距离压缩、方位向傅里叶变换,避免了复杂的信号处理过程,实现对动目标的检测。
附图说明
图1是本发明的实现流程图;
图2是本发明中的子残差神经网络结构框图;
图3是本发明中的子图时空网络结构框图;
图4是本发明的仿真结果图。
具体实施方式
下面结合附图对本发明实施力和效果做进一步描述。
参照图1,本发明的实施步骤如下:
步骤一,由原始回波数据获取子孔径距离多普勒谱,得到训练集X和测试集Y。
1.1)设高脉冲重复频率的单通道雷达回波数据总脉冲数为M,根据帧率要求设定子孔径的长度为L,步长为S,同时确保在一个子孔径时间内动目标距离徙动单元小于2个距离单元;
1.2)沿方位向将原始回波数据划分为若干个子孔径,依次对每帧数据做距离压缩以及方位向傅里叶变换得到场景的复距离多普勒谱;
1.3)将连续N帧复距离多普勒谱作为一组数据,并将一组中的所有数据按照10:1的比例划分为训练集X与测试集Y。
步骤二,设置用于区域目标检测的子残差神经网络。
参照图2,该子残差神经网络依次由一个卷积层、九个残差学习模块、两个全连接层以及一个Softmax层组成;
所述卷积层,输出特征图个数为16,卷积核尺寸为2×2,步长为1×1;
所述九个残差学习模块,按顺序堆叠,每个残差学习模块均由三个卷积层构成,卷积核尺寸均为2×2,其中第一个和第二个残差学习模块输出特征图个数分别为16、16、32,卷积核步长均为1×1;第三个残差学习模块输出特征图个数分别为16、16、32,卷积核步长分别为1×1、2×2、1×1;第四个、第五个和第六个残差学习模块输出特征图个数分别为32、32、64,卷积核步长均为1×1;第七个和第八个残差学习模块输出特征图个数分别为64、64、128,卷积核步长均为1×1,第九个残差学习模块输出特征图个数分别为64、64、128,卷积核步长分别为1×1、2×2、1×1;
每个残差学习模块的输出f(x)由如下公式计算得到:
f(x)=x+H(x),
其中,x为残差学习模块输入数据降采样后的值,H(x)为模块学习得到的残差;
所述两个全连接层,其包含的神经元个数不同,即第一个全连接层包含512个神经元,第二个全连接层包含64个神经元;
所述Softmax层,包含2个神经元;
该子网络的输入为连续N帧复距离多普勒谱,输出为N张对应的初步检测概率图。
步骤三,将N张初步检测概率图依次建模为图结构的数据。
每张初步检测概率图建模为一个无权无向图,其中一个像素点表示一个节点,节点特征为该像素点的像素值,并用图像中像素的八连通域表示无权无向图的邻接矩阵,得到由N张初步检测概率图建模为图结构的数据。
步骤四,设置用于检测概率多帧联合处理的子图时空网络。
参照图3,该子图时空网络依次由两个时空卷积模块以及一个输出层组成;
所述两个时空卷积模块,按顺序堆叠。每个时空卷积模块均由一个时域卷积层、一个空域卷积层、一个时域卷积层按顺序堆叠构成,第一个时空卷积模块输出特征图个数分别为16、16、32,第二个时空卷积模块输出特征图个数分别为64、64、128。每个时域卷积层均包含两个三维卷积层,卷积核尺寸依次为1×1×1、3×1×1,卷积核步长均为1×1×1。
空域卷积层使用切比雪夫多项式近似的图卷积,可由如下公式表示:
Figure BDA0002344480590000051
L=In-D-0.5AD0.5
Figure BDA0002344480590000061
其中,Θ为图卷积核,x为节点特征;L为无权无向图的拉普拉斯矩阵,In为单位矩阵,A为无权无向图的邻接矩阵,D为无权无向图的节点度矩阵;λmax为拉普拉斯矩阵L的最大特征值,K为图卷积的卷积核尺寸,θk表示第k阶多项式系数,Tk表示第k阶切比雪夫多项式,
Figure BDA0002344480590000062
表示K-1阶切比雪夫多项式近似。
所述输出层,其由一个输出特征图个数为64的空域卷积层,一个输出特征图个数为64的二维卷积层,一个输出特征图个数为32的空域卷积层,一个输出特征图个数为32的二维卷积层以及一个输出特征图个数为1的二维卷积层按顺序堆叠构成,其中二维卷积层的卷积核尺寸均为1×1,卷积核步长均为1×1。
步骤五,搭建用于从连续N帧复距离多普勒谱中进行动目标检测的神经网络模型。
将步骤二中设置的子残差神经网络和步骤四中设置的子图时空网络按照顺序依次进行上下堆叠,组成从连续N帧复距离多普勒谱中进行动目标检测的神经网络模型,且输入为连续N帧复距离多普勒谱,输出为中间帧动目标最终检测概率图。
步骤六,确定检测窗口参数。
6.1)根据目标在距离多普勒谱中的尺寸,确定检测窗口的距离向长度lr,距离向步长sr,多普勒向长度lf,多普勒向步长sf,且距离向长度lr大于目标在距离向的长度,多普勒向长度lf大于目标在多普勒向的长度;
6.2)设置每帧数据的距离向采样点Nr,多普勒向采样点Nf,计算得到距离向的窗个数Kr和多普勒向的窗个数Kf
Figure BDA0002344480590000063
其中,符号
Figure BDA0002344480590000064
表示向下取整。
步骤七,利用训练集X中的数据训练步骤五中搭建的神经网络模型,得到训练好的神经网络。
7.1)对一组连续N帧的距离多普勒谱复数据,采用滑窗的方式分别在每帧数据上移动检测窗口,以此确定待检测区域,并将该区域的复数据拆分为实部、虚部两通道,作为步骤二中子残差神经网络的输入;
7.2)通过子残差神经网络对待检测区域的两通道数据进行特征提取,并由Softmax层对提取到的特征进行二分类,输出每一类的检测概率;
7.3)设子残差神经网络的标签数据用1、0代表有目标,用0、1代表无目标,子残差神经网络代价函数选用其输出的检测概率与标签数据的交叉熵损失l1
Figure BDA0002344480590000071
其中,qi表示子残差神经网络的第i个输出,pi表示第i个输出对应的标签数据,w1j表示子残差神经网络的第j个权值;
7.4)重复7.1)至7.3)的滑窗分类过程,完成连续N帧复距离多普勒谱所有待检测区域的分类,并记录每个检测窗口分类为有目标的概率,得到N张Kr×Kf维度的初步检测概率图,初步检测概率图中任一坐标(i,m,n)处的值,其表示在第i帧距离多普勒谱中距离向第m个、多普勒向第n个检测窗口分类为有目标的概率,其中i∈[1,N],m∈[1,Kr],n∈[1,Kf];
7e)将N张Kr×Kf维度的初步检测概率图建模为N个无权无向图,并利用步骤四中的子图时空网络做时空特征提取与融合,输出中间帧最终的检测概率图;
7f)将中间帧距离多普勒谱中包含目标的检测窗口对应的期望检测概率标记为1,不包含目标的检测窗口对应的期望检测概率标记为0,得到真实检测概率图,作为子图时空网路的标签数据,并将最终检测概率图与真实检测概率图的均方误差l2作为子图时空网络的代价函数:
Figure BDA0002344480590000072
其中,α为训练过程中设置的批尺寸大小,Ai为最终检测概率图的像素值,Bi为真实检测概率图的像素值,w2j表示子图时空网络的第j个权值;
7g)根据交叉熵损失l1与均方误差l2,得到步骤五中构建的神经网络模型总代价函数L:
L=l1+l2
7h)选用自适应梯度下降优化器作为最优化器,学习率设置为0.0001,更新步骤五中神经网络模型的权向量,直至总代价函数L收敛,得到训练好的神经网络模型。
步骤八,将测试集Y中的任意一组数据输入到步骤七训练好的神经网络中,得到网络的输出结果,即中间帧最终检测概率图。
步骤九,设置检测门限,利用非极大值抑制算法对最终检测概率图中大于检测门限的值进行局部抑制处理,完成雷达动目标多帧联合检测。
9a)根据检测要求设置检测门限为0.95;
9b)筛选最终检测概率图中大于检测门限的值,记录该值所在的坐标(xi,yi),其中i=1,2,...;
9c)对坐标(xi,yi)采用非极大值抑制算法进行局部抑制处理,即首先对坐标点进行密度聚类,随后从每一类中选取检测概率最大的值对应的坐标(a,b)作为该类的检测结果;
9d)将坐标a作为该目标所在的距离门,坐标b作为该目标所在的多普勒通道,由此得到动目标在距离多普勒谱中的位置,完成雷达动目标的多帧联合检测。
本发明的效果可通过以下仿真进一步阐述:
1.仿真条件:如表1
表1仿真参数表
Figure BDA0002344480590000081
Figure BDA0002344480590000091
2.仿真内容:
用本发明方法对一组共64帧的高帧率雷达回波数据在信杂噪比为-10dB,-20dB,-25dB,-30dB四种情况下的第6帧动目标进行检测,结果如图4,其中:
图4(a)表示在信杂噪比为-10dB情况下的检测结果
图4(b)表示在信杂噪比为-20dB情况下的检测结果
图4(c)表示在信杂噪比为-25dB情况下的检测结果
图4(d)表示在信杂噪比为-30dB情况下的检测结果
从图4可见,在单通道雷达系统中用本发明方法可在不进行杂波抑制的情况下实现可靠的动目标检测,特别是当动目标位于杂波谱内时,也具有良好的检测能力。同时,本发明在信杂噪比为-30dB情况下也可以实现准确的检测。

Claims (8)

1.基于图时空网络的雷达动目标多帧联合检测方法,其特征在于,包括如下:
(1)划分训练集X与测试集Y:
1a)获取多组高脉冲重复频率的单通道雷达数据,将每组数据沿方位向划分为若干帧,对每帧中的原始回波数据依次进行距离压缩和方位向傅里叶变换,得到场景的复距离多普勒谱;
1b)将连续N帧复距离多普勒谱作为一组数据,N>=5,并将每组按10:1的比例划分得到训练集X与测试集Y;
(2)构建用于从连续N帧复距离多普勒谱中进行动目标检测的神经网络模型:
2a)构建由一个卷积层、九个残差学习模块、两个全连接层以及一个Softmax层依次连接组成的子残差神经网络,该子残差神经网络的输入为连续N帧复距离多普勒谱,输出为N张对应的初步检测概率图;
2b)将N张初步检测概率图依次建模为图结构的数据,并根据此数据构建由时域卷积层、空域卷积层和输出层依次连接组成的子图时空网络;该子图时空网络的输入为N张初步检测概率图,输出为预测得到的第
Figure FDA0002344480580000011
帧动目标检测概率图;
2c)将2a)和2b)设置的两个网络进行上下堆叠,得到用于从连续N帧复距离多普勒谱中进行动目标检测的神经网络模型;
(3)根据目标在距离多普勒谱中的尺寸,确定检测窗口的距离向长度lr,距离向步长sr,多普勒向长度lf,多普勒向步长sf,且距离向长度lr大于目标在距离向的长度,多普勒向长度lf大于目标在多普勒向的长度;依据这些参数计算得到距离向的窗个数Kr和多普勒向的窗个数Kf
(4)对(2)中构建的神经网络进行训练:
4a)构建整个神经网络的损失函数:
L=l1+l2
其中,l1是子残差神经网络的损失函数,l2是子图时空网络的损失函数。
Figure FDA0002344480580000021
Figure FDA0002344480580000022
其中,qi表示子残差神经网络的第i个输出,pi表示第i个输出对应的标签数据,w1j表示子残差神经网络的第j个权值,α为训练过程中设置的批尺寸大小,Ai为最终检测概率图的像素值,Bi为真实检测概率图的像素值,w2j表示子图时空网络的第j个权值;
4b)将训练集X输入到网络,采用后向传播算法不断更新网络权值,使得网络的损失函数值收敛,最终完成网络的训练;
(5)将测试集Y中的任意一组数据输入到已训练好的网络,得到网络的检测概率图;
(6)设置检测门限Ε,利用非极大值抑制算法对检测概率图中大于门限Ε的值进行局部抑制处理,得到动目标在距离多普勒谱中的位置,即动目标所在的距离门以及多普勒通道,完成雷达动目标的多帧联合检测。
2.根据权利要求1所述的方法,其中(2a)中子残差神经网络的各层结构及参数设置如下;
卷积层,输出特征图个数为16,卷积核尺寸为2×2,步长为1×1;
九个残差学习模块,按顺序堆叠,每个残差学习模块均由三个卷积层构成,卷积核尺寸均为2×2,其中第一个和第二个残差学习模块输出的三个特征图个数均为16、16、32,卷积核步长均为1×1;第三个残差学习模块输出的三个特征图个数为16、16、32,卷积核步长为1×1、2×2、1×1;第四个、第五个和第六个残差学习模块输出的三个特征图个数均为32、32、64,卷积核步长均为1×1;第七个和第八个残差学习模块输出的三个特征图个数均为64、64、128,卷积核步长均为1×1,第九个残差学习模块输出的三个特征图个数为64、64、128,卷积核步长为1×1、2×2、1×1;每个残差学习模块的输出f(x)由如下公式计算得到:
f(x)=x+H(x),
其中,x为残差学习模块输入数据降采样后的值,H(x)为模块学习得到的残差;
两个全连接层,其包含的神经元个数不同,第一个全连接层包含512个神经元,第二个全连接层包含64个神经元;
Softmax层,包含2个神经元。
3.根据权利要求1所述的方法,其中(2b)中子图时空网络的各层结构及参数设置如下;
两个时空卷积模块,按顺序堆叠,每个时空卷积模块均由一个时域卷积层、一个空域卷积层、一个时域卷积层按顺序堆叠构成;第一个时空卷积模块输出特征图个数分别为16、16、32,第二个时空卷积模块输出特征图个数分别为64、64、128,每个时域卷积层均包含两个三维卷积层,卷积核尺寸依次为1×1×1、3×1×1,卷积核步长均为1×1×1;空域卷积层使用切比雪夫多项式近似的图卷积,其公式表示如下:
Figure FDA0002344480580000031
其中,Θ为图卷积核,x为节点特征;L为无权无向图的拉普拉斯矩阵,L=In-D-0.5AD0.5,In为单位矩阵,A为无权无向图的邻接矩阵,D为无权无向图的节点度矩阵;
Figure FDA0002344480580000032
为缩放拉普拉斯矩阵,
Figure FDA0002344480580000033
λmax为拉普拉斯矩阵L的最大特征值,K为图卷积的卷积核尺寸,θk表示第k阶多项式系数,Tk表示第k阶切比雪夫多项式,
Figure FDA0002344480580000034
表示K-1阶切比雪夫多项式近似;
输出层由一个输出特征图个数为64的空域卷积层,一个输出特征图个数为64的二维卷积层,一个输出特征图个数为32的空域卷积层,一个输出特征图个数为32的二维卷积层以及一个输出特征图个数为1的二维卷积层按顺序堆叠构成,其中二维卷积层的卷积核尺寸均为1×1,卷积核步长均为1×1。
4.根据权利要求1所述的方法,其中(3)中计算距离向的窗个数Kr和多普勒向的窗个数Kf,是根据每帧数据的距离向采样点Nr,多普勒向采样点Nf,通过如下公式计算:
Figure FDA0002344480580000041
Figure FDA0002344480580000042
其中,符号
Figure FDA0002344480580000043
表示向下取整。
5.根据权利要求1所述的方法,其中4a)中的子残差神经网络损失函数l1,构建步骤如下:
4a1)对一组连续N帧的复距离多普勒谱,采用滑窗的方式分别在每帧数据上移动检测窗口,以此确定待检测区域,并将该区域的复数据拆分为实部、虚部两通道,作为子残差神经网络的输入,该网络第j个权值表示为w1j
4a2)通过子残差神经网络对待检测区域的两通道数据进行特征提取,并由Softmax层对提取到的特征进行二分类,输出每一类的检测概率,第i个输出的检测概率表示为qi
4a3)设子残差神经网络中用[1,0]标签表示有目标,[0,1]标签表示无目标,对应第i个输出的标签表示为pi,根据网络输出检测概率与标签的交叉熵损失,以及对权值的正则化约束得到该网络的损失函数l1
Figure FDA0002344480580000044
6.根据权利要求1所述的方法,其中4a)中的子图时空网络的损失函数损失函数l2,构建步骤如下:
4a4)将N帧复距离多普勒谱输入到子残差神经网络,完成连续N帧复距离多普勒谱所有待检测区域的分类,并记录每个检测窗口中有目标的概率,得到N张Kr×Kf维度的初步检测概率图,该初步检测概率图中任一坐标(i,m,n)处的值,表示在第i帧距离多普勒谱中距离向第m个、多普勒向第n个检测窗口中有目标的概率,其中i∈[1,N],m∈[1,Kr],n∈[1,Kf];
4a5)将N张Kr×Kf维度的初步检测概率图建模为N个无权无向图,并利用2b)中的子图时空网络进行时空特征提取与融合,输出中间帧的检测概率图,其中第i个中间帧检测概率图的像素值表示为Ai,该网络的第j个权值表示为w2j
4a6)将中间帧距离多普勒谱中包含目标的检测窗口对应的期望检测概率标记为1,将不包含目标的检测窗口对应的期望检测概率标记为0,得到真实检测概率图,其中第i个真实检测概率图的像素表示为Bi,求出中间帧检测概率图Ai与真实检测概率图像素Bi的均方误差,并加上该网络权值的正则化约束项,得到子图时空网络的代价函数l2
Figure FDA0002344480580000051
7.根据权利要求1所述的方法,其中4b)中采用后向传播算法更新网络权值,其实现如下:
4b1)选用自适应梯度下降优化器作为最优化器,设置学习率为0.0001;
4b2)根据损失函数L,对网络中各处权值求偏导得到梯度信息,依据梯度信息更新(2)中神经网络模型的权值,直至总代价函数L收敛,最终得到训练好的神经网络模型。
8.根据权利要求1所述的方法,其中(6)中利用非极大值抑制算法对最终检测概率图中大于检测门限的值进行局部抑制处理,其实现如下:
6a)根据检测要求设置检测门限为0.95;
6b)筛选最终检测概率图中大于检测门限的值,记录该值所在的坐标(xi,yi),其中i=1,2,...;
6c)对坐标(xi,yi)先进行密度聚类,随后从每一类中选取检测概率最大的值对应的坐标(a,b)作为该类的检测结果;
6d)将坐标a作为该目标所在的距离门,坐标b作为该目标所在的多普勒通道,由此得到动目标在距离多普勒谱中的位置,完成雷达动目标的多帧联合检测。
CN201911389117.2A 2019-12-30 2019-12-30 基于图时空网络的雷达动目标多帧联合检测方法 Active CN111123257B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911389117.2A CN111123257B (zh) 2019-12-30 2019-12-30 基于图时空网络的雷达动目标多帧联合检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911389117.2A CN111123257B (zh) 2019-12-30 2019-12-30 基于图时空网络的雷达动目标多帧联合检测方法

Publications (2)

Publication Number Publication Date
CN111123257A true CN111123257A (zh) 2020-05-08
CN111123257B CN111123257B (zh) 2023-03-28

Family

ID=70504421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911389117.2A Active CN111123257B (zh) 2019-12-30 2019-12-30 基于图时空网络的雷达动目标多帧联合检测方法

Country Status (1)

Country Link
CN (1) CN111123257B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112162271A (zh) * 2020-08-18 2021-01-01 河北省交通规划设计院 一种微波雷达在多场景下的车型识别方法
CN112183534A (zh) * 2020-10-07 2021-01-05 西安电子科技大学 基于视频合成孔径雷达的动目标智能联合检测方法
CN112241761A (zh) * 2020-10-15 2021-01-19 北京字跳网络技术有限公司 模型训练方法、装置和电子设备
CN112859070A (zh) * 2021-01-20 2021-05-28 应急管理部四川消防研究所 一种基于多域多特征和深度学习的生命探测雷达系统
CN113205148A (zh) * 2021-05-20 2021-08-03 山东财经大学 一种迭代层间信息融合的医学图像帧插值方法及终端机
CN113221631A (zh) * 2021-03-22 2021-08-06 西安电子科技大学 基于卷积神经网络的序列脉冲抗干扰目标检测方法
CN113341391A (zh) * 2021-06-01 2021-09-03 电子科技大学 基于深度学习的未知环境下雷达目标多帧联合检测方法
CN113506233A (zh) * 2021-07-08 2021-10-15 西安电子科技大学 基于深度学习的sar自聚焦方法
CN113687351A (zh) * 2021-09-14 2021-11-23 无锡威孚高科技集团股份有限公司 一种降低误报率的安防雷达监控预警系统
CN114609604A (zh) * 2022-03-25 2022-06-10 电子科技大学 无人机集群目标检测及目标轮廓、集群规模估计方法
CN114648722A (zh) * 2022-04-07 2022-06-21 杭州电子科技大学 一种基于视频多路径时空特征网络的动作识别方法
CN114720957A (zh) * 2022-06-08 2022-07-08 中国人民解放军空军预警学院 一种雷达目标检测方法、系统及可存储介质
CN114814776A (zh) * 2022-06-24 2022-07-29 中国空气动力研究与发展中心计算空气动力研究所 基于图注意力网络和迁移学习的pd雷达目标检测方法
CN115144830A (zh) * 2022-04-08 2022-10-04 中国人民解放军63983部队 一种强地物杂波干扰下的小目标雷达检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106199553A (zh) * 2016-07-29 2016-12-07 西安电子科技大学 多帧回波联合相参积累检测海面弱小目标的优化方法
US20180204111A1 (en) * 2013-02-28 2018-07-19 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
CN109709536A (zh) * 2019-01-24 2019-05-03 电子科技大学 一种基于卷积神经网络的sar动目标检测方法
CN109902601A (zh) * 2019-02-14 2019-06-18 武汉大学 一种结合卷积网络和递归网络的视频目标检测方法
US20190391235A1 (en) * 2018-06-20 2019-12-26 Metawave Corporation Super-resolution radar for autonomous vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180204111A1 (en) * 2013-02-28 2018-07-19 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
CN106199553A (zh) * 2016-07-29 2016-12-07 西安电子科技大学 多帧回波联合相参积累检测海面弱小目标的优化方法
US20190391235A1 (en) * 2018-06-20 2019-12-26 Metawave Corporation Super-resolution radar for autonomous vehicles
CN109709536A (zh) * 2019-01-24 2019-05-03 电子科技大学 一种基于卷积神经网络的sar动目标检测方法
CN109902601A (zh) * 2019-02-14 2019-06-18 武汉大学 一种结合卷积网络和递归网络的视频目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHIRUI WANG等: "Ground Moving Target Indication Based on Optical Flow in Single-Channel SAR", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》 *
杨传栋等: "基于CNN的弹载图像目标检测方法研究", 《战术导弹技术》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112162271A (zh) * 2020-08-18 2021-01-01 河北省交通规划设计院 一种微波雷达在多场景下的车型识别方法
CN112183534A (zh) * 2020-10-07 2021-01-05 西安电子科技大学 基于视频合成孔径雷达的动目标智能联合检测方法
CN112183534B (zh) * 2020-10-07 2023-05-23 西安电子科技大学 基于视频合成孔径雷达的动目标智能联合检测方法
CN112241761A (zh) * 2020-10-15 2021-01-19 北京字跳网络技术有限公司 模型训练方法、装置和电子设备
CN112241761B (zh) * 2020-10-15 2024-03-26 北京字跳网络技术有限公司 模型训练方法、装置和电子设备
CN112859070A (zh) * 2021-01-20 2021-05-28 应急管理部四川消防研究所 一种基于多域多特征和深度学习的生命探测雷达系统
CN112859070B (zh) * 2021-01-20 2024-04-19 应急管理部四川消防研究所 一种基于多域多特征和深度学习的生命探测雷达系统
CN113221631A (zh) * 2021-03-22 2021-08-06 西安电子科技大学 基于卷积神经网络的序列脉冲抗干扰目标检测方法
CN113205148A (zh) * 2021-05-20 2021-08-03 山东财经大学 一种迭代层间信息融合的医学图像帧插值方法及终端机
CN113341391A (zh) * 2021-06-01 2021-09-03 电子科技大学 基于深度学习的未知环境下雷达目标多帧联合检测方法
CN113341391B (zh) * 2021-06-01 2022-05-10 电子科技大学 基于深度学习的未知环境下雷达目标多帧联合检测方法
CN113506233B (zh) * 2021-07-08 2024-04-19 西安电子科技大学 基于深度学习的sar自聚焦方法
CN113506233A (zh) * 2021-07-08 2021-10-15 西安电子科技大学 基于深度学习的sar自聚焦方法
CN113687351A (zh) * 2021-09-14 2021-11-23 无锡威孚高科技集团股份有限公司 一种降低误报率的安防雷达监控预警系统
CN114609604A (zh) * 2022-03-25 2022-06-10 电子科技大学 无人机集群目标检测及目标轮廓、集群规模估计方法
CN114648722B (zh) * 2022-04-07 2023-07-18 杭州电子科技大学 一种基于视频多路径时空特征网络的动作识别方法
CN114648722A (zh) * 2022-04-07 2022-06-21 杭州电子科技大学 一种基于视频多路径时空特征网络的动作识别方法
CN115144830A (zh) * 2022-04-08 2022-10-04 中国人民解放军63983部队 一种强地物杂波干扰下的小目标雷达检测方法
CN115144830B (zh) * 2022-04-08 2023-10-31 中国人民解放军63983部队 一种强地物杂波干扰下的小目标雷达检测方法
CN114720957A (zh) * 2022-06-08 2022-07-08 中国人民解放军空军预警学院 一种雷达目标检测方法、系统及可存储介质
CN114814776B (zh) * 2022-06-24 2022-10-14 中国空气动力研究与发展中心计算空气动力研究所 基于图注意力网络和迁移学习的pd雷达目标检测方法
CN114814776A (zh) * 2022-06-24 2022-07-29 中国空气动力研究与发展中心计算空气动力研究所 基于图注意力网络和迁移学习的pd雷达目标检测方法

Also Published As

Publication number Publication date
CN111123257B (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
CN111123257B (zh) 基于图时空网络的雷达动目标多帧联合检测方法
CN110472627B (zh) 一种端到端的sar图像识别方法、装置及存储介质
CN107862705B (zh) 一种基于运动特征和深度学习特征的无人机小目标检测方法
CN108615027B (zh) 一种基于长短期记忆-加权神经网络对视频人群计数的方法
CN109271856A (zh) 基于扩张残差卷积的光学遥感图像目标检测方法
CN110689562A (zh) 一种基于生成对抗网络的轨迹回环检测优化方法
CN110189304B (zh) 基于人工智能的光学遥感图像目标在线快速检测方法
CN112434745B (zh) 基于多源认知融合的遮挡目标检测识别方法
CN110675418A (zh) 一种基于ds证据理论的目标轨迹优化方法
CN113223059B (zh) 基于超分辨率特征增强的弱小空域目标检测方法
CN108960404B (zh) 一种基于图像的人群计数方法及设备
CN110826428A (zh) 一种高速的sar图像中船只检测方法
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN116953653B (zh) 一种基于多波段天气雷达组网回波外推方法
CN111738114A (zh) 基于无锚点精确采样遥感图像车辆目标检测方法
CN110827262A (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN110706208A (zh) 一种基于张量均方最小误差的红外弱小目标检测方法
CN111208479A (zh) 一种降低深度网络检测中虚警概率的方法
CN110298271A (zh) 基于关键点检测网络和空间约束混合模型的海水区域检测方法
CN111368653B (zh) 一种基于r-d图与深度神经网络的低空小目标检测方法
Askar et al. Background clutter suppression and dim moving point targets detection using nonparametric method
CN115861669A (zh) 一种基于聚类思想的红外弱小目标检测方法
CN112099018B (zh) 基于径向速度和区域能量联合的运动目标检测方法及装置
Amjadipour et al. Estimation of Free Parameters of Morphological Profiles for Building Extraction Using SAR Images
CN111624606A (zh) 一种雷达图像降雨识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant