CN113191185A - 一种利用Dense2Net的雷达探测无人机目标分类方法 - Google Patents

一种利用Dense2Net的雷达探测无人机目标分类方法 Download PDF

Info

Publication number
CN113191185A
CN113191185A CN202110261337.8A CN202110261337A CN113191185A CN 113191185 A CN113191185 A CN 113191185A CN 202110261337 A CN202110261337 A CN 202110261337A CN 113191185 A CN113191185 A CN 113191185A
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
dense2net
image data
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110261337.8A
Other languages
English (en)
Inventor
黄诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Civil Aviation University of China
Original Assignee
Civil Aviation University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Civil Aviation University of China filed Critical Civil Aviation University of China
Priority to CN202110261337.8A priority Critical patent/CN113191185A/zh
Publication of CN113191185A publication Critical patent/CN113191185A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

一种利用Dense2Net的雷达探测无人机目标分类方法。其包括构建合并多普勒图像数据集;利用Dense2Net对合并多普勒图像数据集中的合并多普勒图像进行分析提取,得到特征矩阵;将特征矩阵经全局平均池化后输入全连接层,利用softmax分类器进行分类预测,计算交叉熵损失函数值;利用反向传播算法对交叉熵损失函数值进行最小化处理,计算出Dense2Net中各层新的权重值和偏置值并更新;根据交叉熵损失函数值判断Dense2Net是否收敛,若收敛,输出旋翼无人机分类结果等步骤。本发明可提高雷达探测无人机分类准确率,模型操作简单,易训练。能进一步提高网络多尺度特征表示能力,增加每个网络层感受野。

Description

一种利用Dense2Net的雷达探测无人机目标分类方法
技术领域
本发明属于雷达目标分类识别技术领域,特别是涉及一种利用Dense2Net的雷达探测无 人机目标分类方法。
背景技术
近年来,随着无人机研发技术逐渐成熟,制造成本大幅降低,性能大幅提升,无人机在 各个领域得到了广泛应用,除军事用途外,还包括农业植保、电力巡检、警用执法、地质勘 探、环境监测、森林防火以及影视航拍等民用领域。然而,由于针对无人机的监管措施还有 待进一步完善,“黑飞”无人机所带来的安全隐患给机场、核电站、边境等重要区域造成巨大 威胁。因此必须加快无人机分类识别等技术的研究,以维护低空空域的安全秩序。
目前,典型的无人机探测技术主要包括:光电探测、射频侦测、声学探测、广播自动相 关监视设备探测以及雷达探测。由于雷达具有定位精确、探测距离远、能全天时全天候工作 等优点,是目前无人机探测的主流手段。探测雷达通过发射电磁波信号,接收无人机反射的 雷达回波信号并对其进行分析处理,利用分析处理得到的特征实现目标分类识别。现有传统 的监视雷达通常采用机械扫描天线对全空域进行搜索,在单个目标上的驻留时间较短,仅能 获取目标的方位、角度、径向速度、雷达散射截面积等有限数据,致使其难以探测“低小慢” 目标。而无人机是典型的“低小慢”目标,其飞行高度低,雷达散射截面积小、飞行速度慢, 这为无人机的分类识别带来了难题。通过分析无人机雷达回波的微多普勒效应并提取其微多 普勒特征,能够为无人机分类提供更有效的特征。与利用传统机器学习对雷达探测无人机目 标分类方法相比,深度学习方法不需要手工设计特征,可通过尽可能的优化损失函数去学习 特征。同时由于深度学习的网络层数较多,对特征的学习能力很强,能自动挖掘更高维度的 抽象特征,具有良好的泛化能力。因此,利用卷积神经网络对目标微多普勒特征进行深度学 习是目前雷达探测无人机分类的重要手段。
在实际应用中,由于旋翼无人机是“低小慢”目标,且受到叶片材质的影响,这使得无 人机容易受到地面目标干扰,不易与地面杂波区分,而且无人机的雷达回波微弱,容易受到 外界干扰,影响无人机雷达回波微多普勒特征图,从而导致无人机分类结果变差。
利用卷积神经网络对目标微多普勒特征进行深度学习时,通过一系列卷积运算使得每个 网络层拥有不同大小的感受野,从而使卷积神经网络能提取多尺度特征。利用提取到的多尺 度特征送入分类器中最终得到分类结果。但是目前,大多数卷积神经网络都是通过改变网络 层的方式获得更大范围的感受野,以提高网络多尺度特征表示能力,从而提升网络的性能。 但缺点是卷积神经网络的多尺度特征表示能力低,从而导致雷达探测无人机目标分类准确率 低。
发明内容
为了解决上述问题,本发明的目的在于提供一种基于Dense2Net的雷达探测无人机目标 分类方法。
为了达到上述目的,本发明提供的利用Dense2Net的雷达探测无人机目标分类方法包括 按顺序进行的下列步骤:
步骤一:对旋翼无人机的雷达回波数据去噪处理后进行微多普勒特征提取,得到时间频 率图像数据集和韵律频率图像数据集,然后将时间频率图像数据集和韵律频率图像数据集一 一对应合并,构建成合并多普勒图像数据集;
步骤二:将Res2Net模块融合DenseNet中得到Dense2Net,然后利用Dense2Net中的密 集结构块以及过渡层对上述合并多普勒图像数据集中的合并多普勒图像进行分析提取,得到 特征矩阵;
步骤三:将上述特征矩阵经全局平均池化后输入全连接层,然后利用softmax分类器进 行分类预测,同时计算出交叉熵损失函数值;
步骤四:利用反向传播算法对步骤三中得到的交叉熵损失函数值进行最小化处理,计算 出Dense2Net中各层新的权重值和偏置值并对这两个参数进行更新;
步骤五:根据步骤三中获得的交叉熵损失函数值来判断Dense2Net是否收敛,若不收敛, 则重复步骤四,直到收敛为止;若收敛,输出旋翼无人机分类结果。
在步骤一中,所述的对旋翼无人机的雷达回波数据去噪处理后进行微多普勒特征提取, 得到时间频率图像数据集和韵律频率图像数据集,然后将时间频率图像数据集和韵律频率图 像数据集一一对应合并,构建成合并多普勒图像数据集的方法是:
在单个散射点的雷达回波仿真模型和单个旋翼的雷达回波仿真模型基础上加入高斯白噪 声,构建成含有高斯白噪声的旋翼无人机雷达回波仿真模型;然后利用小波阈值去噪法对含 有高斯白噪声的旋翼无人机雷达回波信号进行去噪处理;之后进行微多普勒特征提取,得到 时间频率图像和韵律频率图像;对于每种旋翼无人机,分别选取叶片转速、叶片长度、初始 相位、方位角、俯仰角、径向速度的合适参数范围,并在选定的参数范围内随机改变各参数 的数值,得到时间频率图像数据集和韵律频率图像数据集,之后将时间频率图像数据集和韵 律频率图像数据集一一对应,构建成用于分类的合并多普勒图像数据集。
在步骤二中,所述的利用Dense2Net中的密集结构块以及过渡层对上述合并多普勒图像 数据集中的合并多普勒图像进行分析提取,得到特征矩阵的方法是:
将上述合并多普勒图输入7×7卷积层和3×3最大池化层进行局部特征提取与感知,得 到局部特征图;然后,利用卷积层堆叠的密集结构块对上述局部特征图进行特征提取,得到 隐藏特征图;设置多个密集结构块,每个密集结构块内包含不同数量的瓶颈块,每个瓶颈块 均由Dense2Net瓶颈块构成,增长率为k;将由上一个密集结构块中提取的不同尺度的特征 图送入过渡层,利用由批归一化-ReLU激活函数-1×1卷积-2×2平均池化组合构成的过渡层 来降低特征图的维度并设置压缩参数θ(0<θ<1);重复上述密集结构块和过渡层的处理过程, 得到特征矩阵。
在步骤三中,所述的将上述特征矩阵经全局平均池化后输入全连接层,然后利用softmax 分类器进行分类预测,同时计算出交叉熵损失函数值的方法是:
利用7×7全局平均池化层考虑全局感受野的特征信息,通过全连接层将维度为n×n×k 的特征矩阵处理为1×1×k的尺寸,将特征信息融合为一个信道描述符;由于旋翼无人机分为 单旋翼无人机、四旋翼无人机及六旋翼无人机三类,则通过全连接层将维度展平为1×1×3; 最后经过softmax分类器后得到对应每类旋翼无人机的概率,即分类预测结果,同时计算出 交叉熵损失函数值。
在步骤四,所述的利用反向传播算法对步骤三中得到的交叉熵损失函数值进行最小化处 理,计算出Dense2Net中各层新的权重值和偏置值并对这两个参数进行更新的方法是:
交叉熵损失函数表示真实结果与网络预测结果之间的误差;首先,对交叉熵损失函数进 行链式求导,得到每个网络层中权重值和偏置值的梯度。得到这两个参数的梯度后,利用反 向传播算法计算每个网络层输出的误差值;设置合适的梯度下降的速度,即学习率,利用SGD 梯度下降算法得到新的权重值和偏置值;不断迭代更新这两个参数,使交叉熵损失函数值到 达最小。
在步骤五中,所述的根据步骤三中获得的交叉熵损失函数值来判断Dense2Net是否收敛, 若不收敛,则重复步骤四,直到收敛为止;若收敛,输出旋翼无人机分类结果的方法是:
将步骤三中获得的交叉熵损失函数值和设定的分类阈值进行比较,如小于分类阈值则判 定网络收敛,输出旋翼无人机分类结果;否则重复步骤四,直到网络收敛为止。
本发明提供的利用Dense2Net的雷达探测无人机目标分类方法与现有技术相比具有以下 优点:
1、本发明方法利用在DenseNet基础上融合Res2Net模块的Dense2Net对无人机微多普 勒特征谱图进行深度学习,由此实现雷达探测无人机分类,可提高雷达探测无人机的分类准 确率,并且模型操作简单,易训练。
2、本发明方法能够进一步提高网络多尺度特征表示能力,同时增加每个网络层的感受野。
附图说明
图1为本发明提供的利用Dense2Net的雷达探测无人机目标分类方法流程图。
图2(a)为雷达与单个旋翼叶片几何关系示意图。
图2(b)为雷达与单个旋翼几何关系示意图。
图2(c)为雷达与旋翼无人机几何关系示意图。
图2(d)为俯仰角为0度时雷达与旋翼无人机几何关系示意图。
图3(a)为信噪比10dB时,小波去噪前单旋翼无人机的时间频率图。
图3(b)为信噪比10dB时,小波去噪前单旋翼无人机的韵律频率图。
图3(c)为信噪比10dB时,小波去噪前单旋翼无人机的合并多普勒图。
图3(d)为信噪比10dB时,小波去噪后单旋翼无人机的时间频率图。
图3(e)为信噪比10dB时,小波去噪后单旋翼无人机的韵律频率图。
图3(f)为信噪比10dB时,小波去噪后单旋翼无人机的合并多普勒图。
图4为DenseNet瓶颈块与Dense2Net瓶颈块(s=4)对比图。
具体实施方式
下面结合附图和具体实施例对本发明提供的利用Dense2Net的雷达探测无人机目标分类 方法进行详细说明。
如图1所示,本发明提供的利用Dense2Net的雷达探测无人机目标分类方法包括按顺序 进行的下列步骤:
步骤一:对旋翼无人机的雷达回波数据去噪处理后进行微多普勒特征提取,得到时间频 率图像(Time Frequency Diagrams,TFD)数据集和韵律频率图像(CadenceFrequency Diagrams, CFD)数据集,然后将时间频率图像数据集和韵律频率图像数据集一一对应合并,构建成合 并多普勒图像(Merged Doppler Images,MDI)数据集;
如图2(a)所示,建立相互平行的雷达坐标系(X,Y,Z)和旋翼坐标系(x,y,z)。雷达的发 射频率为f0,波长为λ。假设叶片在旋翼坐标系xoy平面内以旋转角频率ω绕z轴旋转。在t=0 时刻,旋翼无人机的径向速度为v,雷达与旋翼中心距离为R,旋翼中心相对于雷达视线的 俯仰角为β,旋翼中心相对于雷达视线的方位角为α。在旋翼坐标系内,某散射点P距旋翼 中心o的距离为l,令其散射系数ρ为1。在t=t时刻,旋翼中心到雷达的距离为Rt=R+vt, 此时散射点P的相位为θt=θ0+ωt,其中θ0为散射点P所在叶片的初始相位角。此时旋翼中 心o在雷达坐标系(X,Y,Z)中的坐标为(Rt cosβcosα,Rt cosβsinα,Rt sinβ),在旋翼坐标系内, 散射点P的位置为(lcosθt,lsinθt,0),则推得散射点P的雷达回波仿真模型为:
Figure BDA0002970142960000051
如图2(b)所示,旋翼无人机的叶片可被认为是由多个散射点构成。因此,设叶片长度 为L,旋翼有N个叶片,则单个旋翼的雷达回波仿真模型为:
Figure BDA0002970142960000052
为了构建旋翼无人机雷达回波仿真模型,在上述单个旋翼的雷达回波仿真模型的基础上 考虑轴距以及机身。如图2(c)和图2(d)所示,雷达的发射频率为f0,雷达发射信号为单 频脉冲信号,λ为波长。旋翼无人机的径向速度为v,轴距为d,叶片的旋转角频率为ω,叶片长度为L,机臂和雷达与旋翼无人机质心o’连线的夹角为
Figure BDA0002970142960000053
旋翼总数目为M,单个 旋翼的叶片数目为N,旋翼无人机质心o’与雷达之间的距离为R0,旋翼无人机质心o’相 对于雷达视线的俯仰角为β(近似等于各个旋翼中心相对于雷达视线的俯仰角),旋翼无人机 质心o’相对于雷达视线的方位角为α。第m个旋翼的机臂和雷达与旋翼无人机质心o’连 线的夹角为
Figure BDA0002970142960000054
Rm为雷达到第m个旋翼中心的距离,ωm为第m个旋翼的旋转角频率,αm为 第m个旋翼中心相对于雷达的方位角,θm为第m个旋翼的初始相位。将机身看作以恒定速度 运动的点目标,机身的散射系数为σd,那么含有高斯白噪声的旋翼无人机雷达回波仿真模型 为:
Figure BDA0002970142960000061
如图3所示,对含噪信号进行小波变换,保留最大尺度下低通滤波的系数(这部分小波系 数对应真实信号部分),而对各个尺度高通滤波处理获得的系数进行非线性处理,即根据设定 阈值函数和小波阈值对信号进行去噪处理,对处理后的小波系数进行小波逆变换,获得去噪 后的估计信号。
在绘制时间频率图时,利用时频工具箱中tfrstft函数将每一段窗函数内的信号都视为平 稳信号,调用傅里叶变换分析该时间间隔内信号的频率信息,得到复值的瞬时频率矩阵。利 用imagesc函数将归一化后的瞬时频率矩阵中的数据显示为时间频率图。在绘制韵律频率图 时,将去掉部分列的时频矩阵沿时间维进行傅里叶变换得到一个复数矩阵。利用imagesc函 数将归一化后的矩阵中的数据显示为韵律频率图。
对于单旋翼无人机,分别选取叶片转速、叶片长度、初始相位、方位角、俯仰角、径向 速度的合适参数范围,然后在选定的参数范围内随机改变各参数的数值。得到同一单旋翼无 人机的雷达回波信号的时间频率图像数据集和韵律频率图像数据集,之后将其一一对应,分 别各剪裁一半后,构建成用于分类的合并多普勒图像数据集。同理得到四旋翼无人机以及六 旋翼无人机的合并多普勒图像数据集。
步骤二:将Res2Net模块融合DenseNet中得到Dense2Net,然后利用Dense2Net中的密 集结构块以及过渡层对上述合并多普勒图像数据集中的合并多普勒图像进行分析提取,得到 特征矩阵;
如图4所示,DenseNet瓶颈块的结构是由批归一化-ReLU激活函数-1×1卷积-批归一化 -ReLU激活函数-3×3卷积的组合构成。右边为改进后Dense2Net瓶颈块(s=4)的结构图。将 具有等级制的类似残差连接代替DenseNet瓶颈块的最后一个3×3卷积,并在之后增加一个 1×1卷积,这样就使得Res2Net模块融入DenseNet中,得到Dense2Net。
Figure BDA0002970142960000071
对于Res2Net模块来说,对经过1×1卷积输出后的特征图按输出通道数均分为s组,将 每一组的特征图子集命名为xi,i∈{1,2,…,s}。除去特征图子集x1之外,每一组的特征图子集 都对应一个3×3的卷积,用Ki表示。用yi表示通过3×3的卷积Ki后输出的特征图。为了在 增加尺度s的同时减少参数,不对特征图子集x1进行卷积。这样看做是对特征图的重复利用。 对于特征图子集x2则直接经过一个3×3的卷积得到特征图y2。从特征图子集x3开始,将特 征图子集xi和3×3的卷积Ki-1的输出(即yi-1)级联,然后送入3×3的卷积Ki,输出特征 图yi。至此,就得到不同尺度的特征图y1,y2,…,yi-1,yi。为了更好地融合不同尺度的特征信息, 将所有不同尺度的特征图级联后送入1×1的卷积,最后输出特征矩阵。
对于网络的特征提取过程,主要由密集结构块和过渡层实现。将上述合并多普勒图输入 7×7卷积层和3×3最大池化层进行局部特征提取与感知,得到局部特征图。然后,利用卷 积层堆叠的密集结构块对上述局部特征图进行特征提取,得到隐藏特征图。设置多个密集结 构块,每个密集结构块内包含不同数量的瓶颈块,每个瓶颈块均由如图4所示的Dense2Net 瓶颈块构成。增长率为k。分割和级联特征图可以使Dense2Net能够更有效地提取全局和局 部特征信息。使用尺度s作为控制参数,在计算复杂度并未有过多增长的情况下,尺度s越大, 使得网络能学习具有更大感受野的特征。将由上一个密集结构块中提取的不同尺度的特征图 送入过渡层,利用由批归一化-ReLU激活函数-1×1卷积-2×2平均池化组合构成的过渡层来 降低特征图的维度并设置压缩参数θ(0<θ<1)。重复上述密集结构块和过渡层的处理过程, 得到特征矩阵。
步骤三:将上述特征矩阵经全局平均池化后输入全连接层,然后利用softmax分类器进 行分类预测,同时计算出交叉熵损失函数值;
在Dense2Net中,分类模块由全局平均池化层、全连接层和softmax分类器三部分组成。 利用7×7全局平均池化层考虑全局感受野的特征信息,通过全连接层将维度为n×n×k的特 征矩阵处理为1×1×k的尺寸,将特征信息融合为一个信道描述符;由于旋翼无人机分为单旋 翼无人机、四旋翼无人机及六旋翼无人机三类,则通过全连接层将维度展平为1×1×3;最后 经过softmax分类器后得到对应每类旋翼无人机的概率,即分类预测结果,同时计算出交叉 熵损失函数值。
步骤四:利用反向传播算法对步骤三中得到的交叉熵损失函数值进行最小化处理,计算 出Dense2Net中各层新的权重值和偏置值并对这两个参数进行更新;
Figure BDA0002970142960000081
为第l-1层第k个神经元到l层第j个神经元的权重值,
Figure BDA0002970142960000082
为第l层第j个神经元的 偏置值,求出交叉熵损失函数C在l层权重值
Figure BDA0002970142960000083
和偏置值
Figure BDA00029701429600000811
的偏导数
Figure BDA0002970142960000085
可推得第l层 网络的权重值的梯度为:
Figure BDA0002970142960000086
第l层网络的偏置值的梯度为:
Figure BDA0002970142960000087
第l层网络输出的误差:
Figure BDA0002970142960000088
其中,σ(zl)为第l层网络的输出。
设α为学习率,利用公式(9)、(10)更新权重值和偏置值的数值:
Figure BDA0002970142960000089
Figure BDA00029701429600000810
步骤五:根据步骤三中获得的交叉熵损失函数值来判断Dense2Net是否收敛,若不收敛, 则重复步骤四,直到收敛为止;若收敛,输出旋翼无人机分类结果;
将步骤三中获得的交叉熵损失函数值和设定的分类阈值进行比较,如小于分类阈值则判 定网络收敛,输出旋翼无人机分类结果;否则重复步骤四,直到网络收敛为止;
本发明在DenseNet基础上融合Res2Net模块得到Dense2Net,利用Dense2Net提取合并 多普勒图像数据集的多尺度特征并送入分类器,得到无人机的分类结果。可充分利用DenseNet 的优势性能,其中的Res2Net模块可以在更细粒度级别表示多尺度特征,且在每个网络层增 加了感受野,增强网络的学习和表达能力,利用提取的多尺度特征提升分类准确率。实验结 果详见表1和表2。
表1、不同信噪比下合并多普勒图像数据集的分类结果。
Figure BDA0002970142960000091
表2、不同尺度参数下的分类结果
Figure BDA0002970142960000092
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原 则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种利用Dense2Net的雷达探测无人机目标分类方法,其特征在于:所述的利用Dense2Net的雷达探测无人机目标分类方法包括按顺序进行的下列步骤:
步骤一:对旋翼无人机的雷达回波数据去噪处理后进行微多普勒特征提取,得到时间频率图像数据集和韵律频率图像数据集,然后将时间频率图像数据集和韵律频率图像数据集一一对应合并,构建成合并多普勒图像数据集;
步骤二:将Res2Net模块融合DenseNet中得到Dense2Net,然后利用Dense2Net中的密集结构块以及过渡层对上述合并多普勒图像数据集中的合并多普勒图像进行分析提取,得到特征矩阵;
步骤三:将上述特征矩阵经全局平均池化后输入全连接层,然后利用softmax分类器进行分类预测,同时计算出交叉熵损失函数值;
步骤四:利用反向传播算法对步骤三中得到的交叉熵损失函数值进行最小化处理,计算出Dense2Net中各层新的权重值和偏置值并对这两个参数进行更新;
步骤五:根据步骤三中获得的交叉熵损失函数值来判断Dense2Net是否收敛,若不收敛,则重复步骤四,直到收敛为止;若收敛,输出旋翼无人机分类结果。
2.根据权利要求1所述的利用Dense2Net的雷达探测无人机目标分类方法,其特征在于:在步骤一中,所述的对旋翼无人机的雷达回波数据去噪处理后进行微多普勒特征提取,得到时间频率图像数据集和韵律频率图像数据集,然后将时间频率图像数据集和韵律频率图像数据集一一对应合并,构建成合并多普勒图像数据集的方法是:
在单个散射点的雷达回波仿真模型和单个旋翼的雷达回波仿真模型基础上加入高斯白噪声,构建成含有高斯白噪声的旋翼无人机雷达回波仿真模型;然后利用小波阈值去噪法对含有高斯白噪声的旋翼无人机雷达回波信号进行去噪处理;之后进行微多普勒特征提取,得到时间频率图像和韵律频率图像;对于每种旋翼无人机,分别选取叶片转速、叶片长度、初始相位、方位角、俯仰角、径向速度的合适参数范围,并在选定的参数范围内随机改变各参数的数值,得到时间频率图像数据集和韵律频率图像数据集,之后将时间频率图像数据集和韵律频率图像数据集一一对应,构建成用于分类的合并多普勒图像数据集。
3.根据权利要求1所述的利用Dense2Net的雷达探测无人机目标分类方法,其特征在于:在步骤二中,所述的利用Dense2Net中的密集结构块以及过渡层对上述合并多普勒图像数据集中的合并多普勒图像进行分析提取,得到特征矩阵的方法是:
将上述合并多普勒图输入7×7卷积层和3×3最大池化层进行局部特征提取与感知,得到局部特征图;然后,利用卷积层堆叠的密集结构块对上述局部特征图进行特征提取,得到隐藏特征图;设置多个密集结构块,每个密集结构块内包含不同数量的瓶颈块,每个瓶颈块均由Dense2Net瓶颈块构成,增长率为k;将由上一个密集结构块中提取的不同尺度的特征图送入过渡层,利用由批归一化-ReLU激活函数-1×1卷积-2×2平均池化组合构成的过渡层来降低特征图的维度并设置压缩参数θ(0<θ<1);重复上述密集结构块和过渡层的处理过程,得到特征矩阵。
4.根据权利要求1所述的利用Dense2Net的雷达探测无人机目标分类方法,其特征在于:在步骤三中,所述的将上述特征矩阵经全局平均池化后输入全连接层,然后利用softmax分类器进行分类预测,同时计算出交叉熵损失函数值的方法是:
利用7×7全局平均池化层考虑全局感受野的特征信息,通过全连接层将维度为n×n×k的特征矩阵处理为1×1×k的尺寸,将特征信息融合为一个信道描述符;由于旋翼无人机分为单旋翼无人机、四旋翼无人机及六旋翼无人机三类,则通过全连接层将维度展平为1×1×3;最后经过softmax分类器后得到对应每类旋翼无人机的概率,即分类预测结果,同时计算出交叉熵损失函数值。
5.根据权利要求1所述的利用Dense2Net的雷达探测无人机目标分类方法,其特征在于:在步骤四,所述的利用反向传播算法对步骤三中得到的交叉熵损失函数值进行最小化处理,计算出Dense2Net中各层新的权重值和偏置值并对这两个参数进行更新的方法是:
交叉熵损失函数表示真实结果与网络预测结果之间的误差;首先,对交叉熵损失函数进行链式求导,得到每个网络层中权重值和偏置值的梯度;得到这两个参数的梯度后,利用反向传播算法计算每个网络层输出的误差值;设置合适的梯度下降的速度,即学习率,利用SGD梯度下降算法得到新的权重值和偏置值;不断迭代更新这两个参数,使交叉熵损失函数值到达最小。
6.根据权利要求1所述的利用Dense2Net的雷达探测无人机目标分类方法,其特征在于:在步骤五中,所述的根据步骤三中获得的交叉熵损失函数值来判断Dense2Net是否收敛,若不收敛,则重复步骤四,直到收敛为止;若收敛,输出旋翼无人机分类结果的方法是:
将步骤三中获得的交叉熵损失函数值和设定的分类阈值进行比较,如小于分类阈值则判定网络收敛,输出旋翼无人机分类结果;否则重复步骤四,直到网络收敛为止。
CN202110261337.8A 2021-03-10 2021-03-10 一种利用Dense2Net的雷达探测无人机目标分类方法 Pending CN113191185A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110261337.8A CN113191185A (zh) 2021-03-10 2021-03-10 一种利用Dense2Net的雷达探测无人机目标分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110261337.8A CN113191185A (zh) 2021-03-10 2021-03-10 一种利用Dense2Net的雷达探测无人机目标分类方法

Publications (1)

Publication Number Publication Date
CN113191185A true CN113191185A (zh) 2021-07-30

Family

ID=76973152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110261337.8A Pending CN113191185A (zh) 2021-03-10 2021-03-10 一种利用Dense2Net的雷达探测无人机目标分类方法

Country Status (1)

Country Link
CN (1) CN113191185A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113960526A (zh) * 2021-10-15 2022-01-21 南京航空航天大学 一种基于无人机自适应旋转调整的波达方向估计方法
CN114550016A (zh) * 2022-04-22 2022-05-27 北京中超伟业信息安全技术股份有限公司 一种基于上下文信息感知的无人机定位方法及系统
CN114943251A (zh) * 2022-05-20 2022-08-26 电子科技大学 一种基于融合注意力机制的无人机目标识别方法
CN116699531A (zh) * 2023-08-02 2023-09-05 中国人民解放军战略支援部队航天工程大学 一种基于复数网络的雷达信号降噪方法、系统及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934241A (zh) * 2019-03-28 2019-06-25 南开大学 可集成到神经网络架构中的图像多尺度信息提取方法及应用
CN111007871A (zh) * 2019-11-29 2020-04-14 厦门大学 无人机动态特征识别方法、介质、设备及装置
CN111220958A (zh) * 2019-12-10 2020-06-02 西安宁远电子电工技术有限公司 基于一维卷积神经网络的雷达目标多普勒像分类识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934241A (zh) * 2019-03-28 2019-06-25 南开大学 可集成到神经网络架构中的图像多尺度信息提取方法及应用
CN111007871A (zh) * 2019-11-29 2020-04-14 厦门大学 无人机动态特征识别方法、介质、设备及装置
CN111220958A (zh) * 2019-12-10 2020-06-02 西安宁远电子电工技术有限公司 基于一维卷积神经网络的雷达目标多普勒像分类识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BYUNG KWAN KIM ET AL.: "Drone Classification Using Convolutional Neural Networks With Merged Doppler Images", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》 *
姜悦: "基于微多普勒的飞机目标时频域特征提取方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
徐立芳,傅智杰,莫宏伟: "基于改进的YOLOv3算法的乳腺超声肿瘤识别", 《智能系统学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113960526A (zh) * 2021-10-15 2022-01-21 南京航空航天大学 一种基于无人机自适应旋转调整的波达方向估计方法
CN113960526B (zh) * 2021-10-15 2024-04-30 南京航空航天大学 一种基于无人机自适应旋转调整的波达方向估计方法
CN114550016A (zh) * 2022-04-22 2022-05-27 北京中超伟业信息安全技术股份有限公司 一种基于上下文信息感知的无人机定位方法及系统
CN114550016B (zh) * 2022-04-22 2022-07-08 北京中超伟业信息安全技术股份有限公司 一种基于上下文信息感知的无人机定位方法及系统
CN114943251A (zh) * 2022-05-20 2022-08-26 电子科技大学 一种基于融合注意力机制的无人机目标识别方法
CN114943251B (zh) * 2022-05-20 2023-05-02 电子科技大学 一种基于融合注意力机制的无人机目标识别方法
CN116699531A (zh) * 2023-08-02 2023-09-05 中国人民解放军战略支援部队航天工程大学 一种基于复数网络的雷达信号降噪方法、系统及存储介质
CN116699531B (zh) * 2023-08-02 2023-11-17 中国人民解放军战略支援部队航天工程大学 一种基于复数网络的雷达信号降噪方法、系统及存储介质

Similar Documents

Publication Publication Date Title
CN113191185A (zh) 一种利用Dense2Net的雷达探测无人机目标分类方法
CN107301381A (zh) 基于深度学习和多任务学习策略的雷达辐射源识别方法
Roldan et al. DopplerNet: A convolutional neural network for recognising targets in real scenarios using a persistent range–Doppler radar
CN109409225B (zh) 基于雷达多径信号时频特征融合的无人机分类方法及装置
CN108985454B (zh) 民航客机个体目标识别方法
CN110018453B (zh) 基于飞机航迹特征的智能机型识别方法
CN102749616B (zh) 一种基于模糊聚类的宙斯盾系统信号分选方法
Shi et al. Objects detection of UAV for anti-UAV based on YOLOv4
CN109117776B (zh) 基于航迹信息的飞机与气象杂波分类识别方法
CN110427878A (zh) 一种快速射电暴信号识别方法与系统
CN110703221A (zh) 基于极化特征的城市低空小目标分类识别系统
Barbaresco et al. Machine and deep learning for drone radar recognition by micro-doppler and kinematic criteria
Petrov et al. Feature extraction and recognition of aerial objects using echo signals received by radar
CN111985349A (zh) 一种雷达接收信号类型分类识别方法及系统
CN112904299B (zh) 基于深层类内分裂的雷达高分辨距离像开集目标识别方法
Karlsson et al. Model-aided drone classification using convolutional neural networks
Akter et al. Doppler radar-based real-time drone surveillance system using convolution neural network
CN114049551B (zh) 一种基于ResNet18的SAR原始数据目标识别方法
Inani et al. Machine Learning based framework for Drone Detection and Identification using RF signals
Chen et al. Detection and recognition of UA targets with multiple sensors
CN112327266B (zh) 一种基于多维信息融合的杂波点迹剔除方法
Brooks et al. Drone recognition by micro-doppler and kinematic
CN115808666A (zh) 一种基于残差多尺度深度网络模型的旋翼类目标识别方法
Sayed et al. UAV Classification Using Neural Networks and CAD-Generated Radar Datasets
Le et al. Micro-Doppler-radar-based UAV detection using inception-residual neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210730