CN111368653B - 一种基于r-d图与深度神经网络的低空小目标检测方法 - Google Patents
一种基于r-d图与深度神经网络的低空小目标检测方法 Download PDFInfo
- Publication number
- CN111368653B CN111368653B CN202010103060.1A CN202010103060A CN111368653B CN 111368653 B CN111368653 B CN 111368653B CN 202010103060 A CN202010103060 A CN 202010103060A CN 111368653 B CN111368653 B CN 111368653B
- Authority
- CN
- China
- Prior art keywords
- target
- image block
- neural network
- layer
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Abstract
本发明公开了一种基于R‑D图与深度神经网络的低空小目标检测方法。本发明包括如下步骤:步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的R‑D图;步骤2、构建深度卷积神经网络并利用网络预测R‑D图中每个局部区域分别属于目标和背景的类别概率,以及该区域包含目标时,其中心与目标位置之间的偏移量;步骤3、结合预测的类别概率和位置回归的偏移量,判断是否存在,以及存在目标时的目标位置。本发明在类别预测基础上增加了对目标位置的回归,并通过回归结果的投票统计获得目标的精确位置,从而可以实现预测精度更高、虚警率更低的雷达小目标检测效果。
Description
技术领域
本发明属于雷达信号处理及图像识别领域,涉及一种基于R-D(Range-Doppler,距离-多普勒)图与深度神经网络的低空小目标检测方法。
背景技术
近年来,应军民领域的需求,以无人机为代表的低空小型飞行器急速发展。同时此类目标具有“散射截面积小、飞行速度慢、飞行高度低”的特点,致使传统频域滤波检测技术难以得到有效运用。为了降低杂波及干扰的不利影响,传统的雷达目标检测方法在数据预处理之后,通常采用恒虚警率(CFAR)的方法识别目标,其识别过程存在以下两个问题:
1.接受电磁波信号的概率分布难以预知,CFAR处理无法准确根据参考单元的能量分布情况对待检测单元做出判决;
2.CFAR处理依赖于人工调整阈值,自适应性弱,不能主动地随信号的变化而进行调整。
本发明基于雷达信号距离-多普勒图中目标区域单元的幅值分布特点,提出了一种Range-Doppler图与深度神经网络的低空小目标检测方法。与现有技术仅根据预测的类别概率识别目标不同,本发明在实现低空小目标类别检测的同时增加了针对对目标位置的回归预测,并通过回归结果的投票统计获得目标的精确位置,从而可以实现预测精度更高、虚警率更低的检测效果。
发明内容
针对上述提到的雷达目标检测存在的不足,本发明提出一种基于R-D图与深度神经网络的低空小目标检测方法。本发明能使雷达更准确地检测低空小目标的位置,自主地适应不同种类信号回波,并保证虚警率维持在较低水平。
本发明的技术方案主要包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的R-D图(Range-Doppler图);
步骤2、构建深度卷积神经网络并利用网络预测R-D图中每个局部区域分别属于目标和背景的类别概率,以及该区域包含目标时,其中心与目标位置之间的偏移量;
步骤3、结合预测的类别概率和位置回归的偏移量,判断是否存在,以及存在目标时的目标位置。
所述的步骤1具体包括以下几个步骤:
1-1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,则二维矩阵信号的大小为N×R;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:
xi=ai-1+ai+1-2ai,1<i<N
其中ai代表第i行未经对消的脉冲信号序列;
1-3、对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到R-D图M:
M=(|fft[zj]|),1≤j≤R
所述的步骤2利用深度神经网络从计算得到的R-D图中预测目标信息,具体实现流程如下:
2-1、使用滑动窗口技术对R-D图做切片处理,获取一系列代表不同R-D单元的图像块(Patch)。为提高目标定位的准确率,滑动窗口的宽和高均为奇数,且根据目标回波在R-D图中的分布范围设定;
2-2、对每个图像块(Patch)进行限幅处理,即假设图像块(Patch)中元素的最大值为Patchmax,则通过将每一个单元的幅值除以Patchmax使得图像块(Patch)中元素的最大值为1;
2-3、利用构建的深度神经网络计算输入的图像块(Patch)分别属于目标和背景的类别概率,以及该图像块(Patch)包含目标时,该图像块中心与目标实际位置之间的偏移量。
具体地,构建的深度卷积神经网络由三个部分组成:用于空间特征提取的全卷积神经网络,用于特征映射的BP神经网络,以及两个用于图像块类别与位置预测的功能层。各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络共包含3个卷积层,均使用3×3大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、16和32。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×2、步长为2的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分用于特征映射的BP神经网络由两个全连接层构成,分别包含200和100个隐含节点,且第一层的输入是展平成一维向量的图像卷积特征;
第三部分两个用于图像块类别与位置预测的功能层,由输出节点数均为2的类别预测层和位置回归层组成,分别与特征映射模块最后一层的100个节点之间进行全连接。为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
其中为类别预测层第i个节点的原始输出,ncls为类别预测层的节点个数。
为了成功训练构建的深度卷积神经网络,步骤2中需要注意以下几点:
(1)从雷达信号的R-D图获得一系列图像块之后,首先根据是否包含目标将所有的图像块分为正样本和负样本,然后采用随机方式从负样本中抽取与正样本等量的图像块作为训练数据,与正样本一起输入深度卷积神经网络进行训练。
(2)深度卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smooth L1损失。数学上,网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg
其中λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个Patch的真实类别标签,是Patch包含目标时其中心与目标位置之间的相对偏移量,而(dxk,dyk)为位置回归层的输出。假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的Patch的中心在Range-Doppler图中的位置为(x,y),且Patch的宽高分别为w和h,则该Patch相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用学习率为0.001,动量系数为0.9的动量梯度下降(Momentum SGD)方法优化网络参数。
所述的步骤3结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果,具体分为基于类别概率的初步识别和基于位置投票的精确识别两个部分,其流程如下:
3-1、预设目标存在的概率阈值为Tp,若某一图像块属于目标的预测概率大于等于阈值Tp,则初步判别该图像块包含目标,并将其中心在R-D图中的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
3-2、根据目标图像块的分布密度进一步剔除识别错误的图像块。具体地,对每个值为1的R-D单元,统计其(w/2,h/2)邻域内单元值为1的个数Nones,若Nones/(w·h)<0.5,则认为该单元所对应的图像块为背景,其中w和h为图像块的宽和高;
3-3、对每个可能包含目标的图像块,利用网络位置回归层的预测结果(dx,dy)估计目标在R-D图中的真实位置(xpre,ypre),具体计算公式如下:
xpre=round(x+dx·w)
ypre=round(y+dy·h)
其中(x,y)为图像块中心在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数。
3-4、统计所有图像块的位置投票结果,即Range-Doppler图中每个单元被认为是目标位置的次数。若单元(x,y)处的投票统计结果Nxy满足下述条件则判定单元(x,y)处存在目标:
其中为参与投票且包含单元(x,y)的图像块数量,Tvote为设定的投票阈值。
本发明有益效果如下:
本发明将包含深度神经网络的智能算法应用于雷达信号的目标检测中,使模型具有很强的自适应性。通过学习不同种类信号的特征,算法可应对难以预知概率分布的场景。在保证合理的虚警率之内,有效地改善了传统检测方法对信号种类识别单一的缺陷。相较需要人工分析的恒虚警处理,可实现无人监督的实时目标检测。
附图说明
图1为本发明基于Range-Doppler图与深度神经网络的低空小目标检测流程示意图;
图2为本发明构建的深度神经网络结构图;
图3为本发明图基于类别概率和位置偏移量的目标检测流程示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作详细说明,以下描述仅作为示范和解释,并不对本发明作任何形式上的限制。
通用的检测步骤已在“发明内容”中详述,现结合实例对本发明的检测流程做具体描述,图1是整体的处理流程示意图。
本发明的技术方案主要包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的Range-Doppler图;
1-1、将雷达接收机采集的一维离散回波信号以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,本实验中N=64,R=856,则二维矩阵信号的大小为N×R=64×856;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:
xi=ai-1+ai+1-2ai,1<i<N
其中ai代表第i行未经对消的脉冲信号序列;
1-3、三脉冲对消后二维矩阵信号的大小为62×856,对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×g(n)
g(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换(FFT)并求模,得到Range-Doppler图M:
M=(|fft[zj]|),1≤j≤R
步骤2、构建深度卷积神经网络并利用网络预测Range-Doppler图中每个局部区域分别属于目标和背景的概率,以及该区域包含目标时,其中心与目标位置之间的偏移量;
2-1、使用滑动窗口技术对Range-Doppler图做切片处理,获取一系列代表不同Range-Doppler单元的图像块(Patch)。为提高目标定位的准确率,滑动窗口的宽和高均为奇数,且根据目标回波在Range-Doppler图中的分布范围设定,本实验中采用宽为33,高为9的滑动滑窗;
2-2、对每个Patch进行限幅处理,即假设Patch中元素的最大值为Patchmax,则通过将每一个单元的幅值除以Patchmax使得Patch中元素的最大值为1;
2-3、利用构建的深度神经网络计算输入Patch分别属于目标和背景的概率,以及该Patch包含目标时,其中心与目标实际位置之间的偏移量。
具体地,构建的深度卷积神经网络由三个部分组成:用于空间特征提取的全卷积神经网络,用于特征映射的BP神经网络,以及两个用于Patch类别与位置预测的功能层。图2为深度神经网络的结构图,其各部分的具体结构描述如下:
第一部分共包含3个卷积层,均使用3×3大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、16和32。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×2、步长为2的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(ReLU);
第二部分由两个全连接层构成,分别包含200和100个隐含节点,且第一层的输入是展平成一维向量的图像卷积特征;
第三部分由输出节点数均为2的类别预测层和位置回归层组成,分别与特征映射模块最后一层的100个节点之间进行全连接。为便于观测,类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
其中为分类层第i个节点的原始输出,ncls为分类层的节点个数。
深度神经网络的训练包括以下几个细节:
(1)从雷达信号的Range-Doppler图获得一系列Patch之后,首先根据是否包含目标将所有的Patch分为正样本和负样本,然后采用随机方式从负样本中抽取与正样本等量的patch作为训练数据,与正样本一起输入网络进行训练。
(2)网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smooth L1损失。数学上,网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg
其中λ为调整两类损失贡献大小的权重因子,本实验中取λ=10,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个Patch的真实类别标签,是Patch包含目标时其中心与目标位置之间的相对偏移量,而(dxk,dyk)为位置回归层的输出。假设目标在Range-Doppler图中的位置为(xobj,yobj),含有目标的Patch的中心在Range-Doppler图中的位置为(x,y),且Patch的宽高分别为w=33和h=9,则该Patch相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用学习率为0.001,动量系数为0.9的动量梯度下降(Momentum SGD)方法优化网络参数。
(6)初次训练网络可将最大迭代次数设置为500次。
步骤3、结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果,可分为基于类别概率的初步识别和基于位置投票的精确识别两个部分,如图3所示,其流程如下:
3-1、预设目标存在的概率阈值为Tp=0.9,若某一Patch属于目标的预测概率大于等于阈值Tp,则初步判别该Patch包含目标,并将其中心在Range-Doppler图中的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
3-2、根据目标Patch的分布密度进一步剔除识别错误的Patch。具体地,对每个值为1的Range-Doppler单元,统计其(w/2,h/2)邻域内单元值为1的个数Nones,若Nones/(w·h)<0.5,则认为该单元所对应的Patch为背景,其中w=33和h=9为Patch的宽和高;
3-3、对每个可能包含目标的Patch,利用网络位置回归层的预测结果(dx,dy)估计目标在Range-Doppler图中的真实位置(xpre,ypre),具体计算公式如下:
xpre=round(x+dx·w)
ypre=round(y+dy·h)
其中(x,y)为Patch中心在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数。
3-4、统计所有Patch的位置投票结果,即Range-Doppler图中每个单元被认为是目标位置的次数。若单元(x,y)处的投票统计结果Nxy满足下述条件则判定(x,y)处存在目标:
其中为参与投票且包含(x,y)单元的Patch数量,Tvote为投票阈值,根据经验设置为0.25。
Claims (3)
1.一种基于R-D图与深度神经网络的低空小目标检测方法,其特征在于包括如下步骤:
步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的R-D图;
具体包括以下几个步骤:
1-1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,则二维矩阵信号的大小为N×R;
1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:
xi=ai-1+ai+1-2ai,1<i<N
其中ai代表第i行未经对消的脉冲信号序列;
1-3、对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:
zj=yj×w(n)
w(n)=0.54-0.46cos[2πn/(N-2)],0≤n<N-2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1-4、对加窗结果进行快速傅立叶变换并求模,得到R-D图M:
M=(|fft[zj]|),1≤j≤R
步骤2、构建深度卷积神经网络并利用网络预测R-D图中每个局部区域分别属于目标和背景的类别概率,以及该区域包含目标时,其中心与目标位置之间的偏移量;具体实现流程如下:
2-1、使用滑动窗口技术对R-D图做切片处理,获取一系列代表不同R-D单元的图像块;为提高目标定位的准确率,滑动窗口的宽和高均为奇数,且根据目标回波在R-D图中的分布范围设定;
2-2、对每个图像块进行限幅处理,即假设图像块中元素的最大值为Patchmax,则通过将每一个单元的幅值除以Patchmax使得图像块中元素的最大值为1;
2-3、利用构建的深度神经网络计算输入的图像块分别属于目标和背景的类别概率,以及该图像块包含目标时,该图像块中心与目标实际位置之间的偏移量;
步骤3、结合预测的类别概率和位置回归的偏移量,判断是否存在,以及存在目标时的目标位置;
构建的深度卷积神经网络由三个部分组成:用于空间特征提取的全卷积神经网络,用于特征映射的BP神经网络,以及两个用于图像块类别与位置预测的功能层;各部分的具体结构描述如下:
第一部分用于空间特征提取的全卷积神经网络共包含3个卷积层,均使用3×3大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、16和32;在第二个和第三个卷积层之后分别是一个窗口大小为2×2、步长为2的最大池化层;每个卷积层之后默认跟着一个激活层,且激活函数为ReLU;
第二部分用于特征映射的BP神经网络由两个全连接层构成,分别包含200和100个隐含节点,且第一层的输入是展平成一维向量的图像卷积特征;
第三部分两个用于图像块类别与位置预测的功能层,由输出节点数均为2的类别预测层和位置回归层组成,分别与特征映射模块最后一层的100个节点之间进行全连接;类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:
其中为类别预测层第i个节点的原始输出,ncls为类别预测层的节点个数。
2.根据权利要求1所述的一种基于R-D图与深度神经网络的低空小目标检测方法,其特征在于所述的步骤3结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果,具体分为基于类别概率的初步识别和基于位置投票的精确识别两个部分,其流程如下:
3-1、预设目标存在的概率阈值为Tp,若某一图像块属于目标的预测概率大于等于阈值Tp,则初步判别该图像块包含目标,并将其中心在R-D图中的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
3-2、根据目标图像块的分布密度进一步剔除识别错误的图像块;具体地,对每个值为1的R-D单元,统计其(w/2,h/2)邻域内单元值为1的个数Nones,若Nones/(w·h)<0.5,则认为该单元所对应的图像块为背景,其中w和h为图像块的宽和高;
3-3、对每个可能包含目标的图像块,利用网络位置回归层的预测结果(dx,dy)估计目标在R-D图中的真实位置(xpre,ypre),具体计算公式如下:
xpre=round(x+dx·w)
ypre=round(y+dy·h)
其中(x,y)为图像块中心在Range-Doppler图中的位置,round(·)为四舍五入就近取整函数;
3-4、统计所有图像块的位置投票结果,即Range-Doppler图中每个单元被认为是目标位置的次数;若单元(x,y)处的投票统计结果Nxy满足下述条件则判定单元(x,y)处存在目标:
其中为参与投票且包含单元(x,y)的图像块数量,Tvote为设定的投票阈值。
3.根据权利要求1所述的一种基于R-D图与深度神经网络的低空小目标检测方法,其特征在于步骤2-3中:
(1)从雷达信号的R-D图获得一系列图像块之后,首先根据是否包含目标将所有的图像块分为正样本和负样本,然后采用随机方式从负样本中抽取与正样本等量的图像块作为训练数据,与正样本一起输入深度卷积神经网络进行训练;
(2)深度卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smooth L1损失;网络训练时的损失由下式获得:
Losstotal=Losscls+λ·Lossreg
其中λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个图像块的真实类别标签,是图像块包含目标时其中心与目标位置之间的相对偏移量,而(dxk,dyk)为位置回归层的输出;假设目标在R-D图中的位置为(xobj,yobj),含有目标的图像块的中心在R-D图中的位置为(x,y),且图像块的宽高分别为w和h,则该图像块相对于目标的实际偏移量(dx*,dy*)为:
(3)由于Losscls的计算含有对数操作,对类别预测层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用学习率为0.001,动量系数为0.9的动量梯度下降方法优化网络参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010103060.1A CN111368653B (zh) | 2020-02-19 | 2020-02-19 | 一种基于r-d图与深度神经网络的低空小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010103060.1A CN111368653B (zh) | 2020-02-19 | 2020-02-19 | 一种基于r-d图与深度神经网络的低空小目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111368653A CN111368653A (zh) | 2020-07-03 |
CN111368653B true CN111368653B (zh) | 2023-09-08 |
Family
ID=71211517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010103060.1A Active CN111368653B (zh) | 2020-02-19 | 2020-02-19 | 一种基于r-d图与深度神经网络的低空小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111368653B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113030950A (zh) * | 2021-03-10 | 2021-06-25 | 电子科技大学 | 一种基于深度学习技术的小型无人机分类方法 |
CN113808174B (zh) * | 2021-08-27 | 2024-03-26 | 杭州电子科技大学 | 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006108275A1 (en) * | 2005-04-11 | 2006-10-19 | Raytheon Canada Limited | A classification system for radar and sonar applications |
CN102831618A (zh) * | 2012-07-20 | 2012-12-19 | 西安电子科技大学 | 基于霍夫森林的视频目标跟踪方法 |
CN107403193A (zh) * | 2017-07-25 | 2017-11-28 | 中国铁道科学研究院 | 一种应答器图像检测方法及装置 |
CN108182450A (zh) * | 2017-12-25 | 2018-06-19 | 电子科技大学 | 一种基于深度卷积网络的机载探地雷达目标识别方法 |
CN108805899A (zh) * | 2017-04-26 | 2018-11-13 | 上海荆虹电子科技有限公司 | 一种目标跟踪方法及装置 |
CN110344621A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种面向智能车库的车轮点云检测方法 |
CN110443138A (zh) * | 2019-07-05 | 2019-11-12 | 东南大学 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
WO2020020472A1 (en) * | 2018-07-24 | 2020-01-30 | Fundación Centro Tecnoloxico De Telecomunicacións De Galicia | A computer-implemented method and system for detecting small objects on an image using convolutional neural networks |
-
2020
- 2020-02-19 CN CN202010103060.1A patent/CN111368653B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006108275A1 (en) * | 2005-04-11 | 2006-10-19 | Raytheon Canada Limited | A classification system for radar and sonar applications |
CN102831618A (zh) * | 2012-07-20 | 2012-12-19 | 西安电子科技大学 | 基于霍夫森林的视频目标跟踪方法 |
CN108805899A (zh) * | 2017-04-26 | 2018-11-13 | 上海荆虹电子科技有限公司 | 一种目标跟踪方法及装置 |
CN107403193A (zh) * | 2017-07-25 | 2017-11-28 | 中国铁道科学研究院 | 一种应答器图像检测方法及装置 |
CN108182450A (zh) * | 2017-12-25 | 2018-06-19 | 电子科技大学 | 一种基于深度卷积网络的机载探地雷达目标识别方法 |
WO2020020472A1 (en) * | 2018-07-24 | 2020-01-30 | Fundación Centro Tecnoloxico De Telecomunicacións De Galicia | A computer-implemented method and system for detecting small objects on an image using convolutional neural networks |
CN110344621A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种面向智能车库的车轮点云检测方法 |
CN110443138A (zh) * | 2019-07-05 | 2019-11-12 | 东南大学 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
Non-Patent Citations (1)
Title |
---|
Li Wang 等.A Study on Radar Target Detection Based on Deep Neural Networks.《IEEE Sensors Letters》.2019,第3卷(第3期),第1-4页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111368653A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111913156B (zh) | 基于深度学习模型与特征联合的雷达辐射源个体识别方法 | |
CN111123257B (zh) | 基于图时空网络的雷达动目标多帧联合检测方法 | |
CN110133599B (zh) | 基于长短时记忆模型的智能雷达辐射源信号分类方法 | |
CN112395987B (zh) | 基于无监督域适应cnn的sar图像目标检测方法 | |
CN113808174B (zh) | 基于全卷积网络和卡尔曼滤波的雷达小目标跟踪方法 | |
CN108957453A (zh) | 一种基于多目标跟踪的高精度动目标成像及识别方法 | |
CN111368653B (zh) | 一种基于r-d图与深度神经网络的低空小目标检测方法 | |
CN112487900B (zh) | 一种基于特征融合的sar图像舰船目标检测方法 | |
CN114595732B (zh) | 基于深度聚类的雷达辐射源分选方法 | |
CN109324315A (zh) | 基于双层次块稀疏性的空时自适应处理雷达杂波抑制方法 | |
CN109753874A (zh) | 一种基于机器学习的低慢小雷达目标分类方法 | |
CN114895263A (zh) | 基于深度迁移学习的雷达有源干扰信号识别方法 | |
CN115937659A (zh) | 基于Mask-RCNN的室内复杂环境下多目标检测方法 | |
Tian et al. | Performance evaluation of deception against synthetic aperture radar based on multifeature fusion | |
CN113064133B (zh) | 一种基于时频域深度网络的海面小目标特征检测方法 | |
CN113640768B (zh) | 一种基于小波变换的低分辨雷达目标识别方法 | |
CN109558803B (zh) | 基于卷积神经网络与np准则的sar目标鉴别方法 | |
Zong-ling et al. | Remote sensing ship target detection and recognition system based on machine learning | |
CN113608193A (zh) | 一种基于UNet的雷达多目标距离和速度估计方法 | |
CN113887583A (zh) | 基于深度学习的低信噪比下雷达rd图像目标检测方法 | |
CN110969203A (zh) | 基于自相关和cam网络的hrrp数据去冗余方法 | |
CN115294398A (zh) | 一种基于多姿态角联合学习的sar图像目标识别方法 | |
Yip et al. | Efficient and effective tropical cyclone eye fix using genetic algorithms | |
Qu et al. | Frequency-Hopping Signal Sorting Based on Deep Leaming | |
CN111144316B (zh) | 基于堆栈自编码器的海面目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |