CN113988163A - 基于多尺度分组融合卷积的雷达高分辨距离像识别方法 - Google Patents

基于多尺度分组融合卷积的雷达高分辨距离像识别方法 Download PDF

Info

Publication number
CN113988163A
CN113988163A CN202111224492.9A CN202111224492A CN113988163A CN 113988163 A CN113988163 A CN 113988163A CN 202111224492 A CN202111224492 A CN 202111224492A CN 113988163 A CN113988163 A CN 113988163A
Authority
CN
China
Prior art keywords
convolution
layer
scale
dimensional
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111224492.9A
Other languages
English (en)
Inventor
向前
王晓丹
宋亚飞
来杰
李睿
雷蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202111224492.9A priority Critical patent/CN113988163A/zh
Publication of CN113988163A publication Critical patent/CN113988163A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于多尺度分组融合卷积的雷达高分辨距离像识别方法,包括以下步骤:步骤1:构建基于多尺度分组融合一维卷积层(MSGF‑1D‑CNN)的HRRP识别网络;步骤2:初始化识别网络;步骤3:前向传播;步骤4:反向传播;步骤5:重复步骤3和步骤4,逐次对T个批次的数据进行训练,完成一个周期的训练,之后使用当前周期训练的模型结合公式对测试数据集中的样本进行预测,并对预测结果进行统计;步骤6:重复步骤5直至完成τ个周期的训练,保存测试集识别正确率最高时的模型参数。

Description

基于多尺度分组融合卷积的雷达高分辨距离像识别方法
技术领域
本发明属于雷达自动目标识别技术领域,具体涉及基于多尺度分组融合卷积的雷达高分辨距离像识别方法。
背景技术
雷达自动目标识别技术在军事和民用领域具有重要的应用价值,引起了国内外学者广泛的关注。高分辨距离像(High-resolution Range Profile,HRRP)是宽带雷达的雷达回波沿着雷达视线在各个距离单元的叠加,相比于RCS具有更加丰富的目标结构信息,相比于SAR图像又具有容易获取、存储和处理等优势,因此国内的外学者对基于HRRP的雷达自动目标识别技术进行了大量的算法研究。
常见的基于HRRP的雷达目标方法有模板匹配、决策树、支持向量机、k最近邻算法、线性判别分析、主成分分析和随机森林等,但这些方法提取的特征都是浅层次的,在实际应用中算法的泛化性能和鲁棒性普遍比较低。近年来,随着深度学习的快速发展,基于深度神经网络的HRRP识别方法已成为雷达自动目标识别领域的研究热点。深度神经网络具有多层神经元叠加的结构,通过随机梯度下降算法可以自动学习各层神经元的参数值,每层的神经元可提取原始数据不同层次的抽象特性,实现了在无需专业人员的先验经验的条件下完成数据的特征提取和分类。
卷积神经网络(Convolutional Neural Networks,CNN)是一种使利用局部感受野将空间信息和通道信息进行融合实现有效特征提取的神经网络,相比于上述的神经网络,其局部感受野对目标的局部特征具有更强的表达能力,且交替连接的卷积层和池化层结构可以实现平移、旋转和尺度的不变性,从而有效地提取HRRP中蕴含的目标结构信息,因此CNN提取的特征具有更强的鲁棒性。
上述用于HRRP识别的CNN核心模块是标准卷积层,囿于计算机有限的运算和存储资源,这种标准卷积层在实际的网络结构设计中一般倾向于使用单一的尺度较小的卷积核,因为尺度越大的卷积核包含的可训练参数就会越多,增大卷积核的尺度必然使网络的训练更加困难。同时为了弥补单个标准卷积层使用尺度较小的卷积核而不能有效地提取输入数据更大范围的空间信息,CNN将标准卷积层和池化层进行交替连接构成深度。CNN(DeepCNN,DCNN),以逐层减小输入数据的尺寸从而增加网络的感受野。但是,现有的研究表明,DCNN中单尺度标准卷积层无法有效提取特征图中不同空间范围的相关性,会造成实际的感受野减小和有效空间信息的损失,进而影响识别效果。
发明内容
针对上述存在的问题,本发明尝试对标准卷积进行改进,提出了多尺度分组融合一维卷积代替标准一维卷积。在多尺度分组融合一维卷积的设计过程中考虑了尺度大的卷积核会增加网络的计算量这一缺点,研究了最优通道数的确定方法使得网络的整体参数量显著降低。
本发明采用的技术方案是:
基于多尺度分组融合卷积的雷达高分辨距离像识别方法,包括以下步骤:
步骤1:构建基于多尺度分组融合一维卷积层(MSGF-1D-CNN)的HRRP识别网络
首先给定一个包含各个一维卷积层的通道数的一维数组
Figure BDA0003312446350000031
来表示不同的模型结构,C中各个元素的值为2的整数次幂且逐渐增大,给定Ω并确定相应的
Figure BDA0003312446350000032
和G(l),从而完成网络结构的具体配置;
步骤2:初始化识别网络:对网络的可训练参数θ进行初始化;
步骤3:前向传播
构建多尺度分组融合一维卷积层(MSGF-1D-CNN)在HRRP训练数据集
Figure BDA0003312446350000033
上的交叉熵损失函数,根据交叉熵损失函数计算每个批次数据的损失函数值;
步骤4:反向传播:使用随机梯度下降算法对每个批次的参数进行更新;
步骤5:重复步骤3和步骤4,逐次对T个批次的数据进行训练,完成一个周期的训练,之后使用当前周期训练的模型结合公式对测试数据集中的样本进行预测,并对预测结果进行统计;
步骤6:重复步骤5直至完成τ个周期的训练,保存测试集识别正确率最高时的模型参数。
优选的,所述的HRRP识别网络包括输入层、卷积模块、平坦层和Softmax分类器;
输入层:输入的原始数据
Figure BDA0003312446350000034
其中D(1)=E,C(1)=1;
卷积模块:
Figure BDA0003312446350000035
个卷积模块重复连接用于特征提取;
平坦层和Softmax分类器:若最后一个卷积模块的输出
Figure BDA0003312446350000036
的特征图大小
Figure BDA0003312446350000037
则经过平坦层的拉平操作将
Figure BDA0003312446350000038
中所有特征图排列为一个一维的向量u作为Softmax分类器的输入,Softmax分类器进行目标分类。
优选的,所述的卷积模块包括多尺度分组融合一维卷积层、批量归一化层、非线性激活层以及池化层;其中,
多尺度分组融合一维卷积层:使用多尺度分组一维卷积和逐点卷积代替标准一维卷积层,用H(l)表示第l个标准一维卷积层卷积核的窗口大小,X(l)与该层的所有单尺度一维卷积核
Figure BDA0003312446350000041
进行卷积运算,产生与卷积核数量相等的输出特征图
Figure BDA0003312446350000042
其中D(l+1)和C(l+1)分别表示卷积之后的特征图大小和通道个数;
批量归一化层:使用批归一化将卷积层的每个批次输出归一化到均值为0,标准差为1的分布;
非线性激活层:使用非线性激活函数对一维卷积层的输出进行激活;非线性激活函数表达式为δ(x)=x·tanh(ln(1+ex));
池化层:使用最大池化方法,对于第l个一维卷积层的第k个输出特征图Xk (l),最大池化后输出特征图位置i处的值由以下公式给出
Figure BDA0003312446350000043
其中H′(l)和S′(l)分别表示最大池化的窗口大小和步长,则最大池化后特征图的个数不变,特征图大小变为
Figure BDA0003312446350000044
其中,
Figure BDA0003312446350000045
表示向下取整。
优选的,卷积运算的具体过程为:
每个多尺度分组融合一维卷积层都与输入的所有特征图进行卷积运算,则该层第k(k∈{1,2,...,C(l+1)})个一维卷积核
Figure BDA0003312446350000046
与X(l)产生的一维特征图为
Figure BDA0003312446350000047
其中,运算符*表示卷积运算,
Figure BDA0003312446350000048
表示第k个卷积核的偏置,δ(·)为非线性激活层的激活函数,考虑每层的输入的特征图首先都进行零填充,设第l层的每个输入特征图单边填充零的个数为P(l),输入特征图的大小首先变成D(l)+2P(l),再与步长为S(l)的卷积核进行卷积操作,则第k个输出特征图在位置i(i∈D(l+1))处的值为
Figure BDA0003312446350000051
其中⊙表示Hadamard积,由此,可以计算出输出特征图大小为
Figure BDA0003312446350000052
为了让卷积层提取输入特征图不同的尺度信息,用Ω(Ω>1)个尺度不同的分组卷积
Figure BDA0003312446350000053
替换单尺度卷积W(l),产生Ω组不同的输出
Figure BDA0003312446350000054
Figure BDA0003312446350000055
G(ω;l)
Figure BDA0003312446350000056
分别表示第ω(ω∈{1,2,...,Ω})个分组卷积中卷积核的尺度、分组数和输出特征图个数,则
Figure BDA0003312446350000057
Figure BDA0003312446350000058
且各个分组卷积的输出特征图个数满足
Figure BDA0003312446350000059
由输出特征图大小计算公式可知,第ω个分组卷积得到输出特征图大小为
Figure BDA00033124463500000510
其中,
Figure BDA00033124463500000511
Figure BDA00033124463500000512
分别表示在进行第ω个分组卷积运算时输入特征图的补零数和卷积核的步长,后面的卷积层在实际中要求所有的输入特征图具有相同的大小,即
Figure BDA00033124463500000513
Figure BDA00033124463500000514
Figure BDA00033124463500000515
取正奇数,
Figure BDA00033124463500000516
使得
Figure BDA00033124463500000517
即输出的特征图与输入特征图保持相同的大小,因此,多尺度分组卷积输出为
Figure BDA00033124463500000518
其中,concat(·)表示将特征图矩阵沿着通道方向进行合并,因此
Figure BDA00033124463500000519
优选的,Softmax分类器用于目标分类的具体过程如下:
Softmax分类器的参数表示为θsm={Wsm,bsm},对于每个HRRP样本(x(n),y(n)),x(n)和y(n)分别表示HRRP样本数据和对应的真实标签,则Softmax分类器第q个神经元的输出表示的是将样本x(n)判断为第q个类别的概率,即
Figure BDA0003312446350000061
其中,
Figure BDA0003312446350000068
表示Softmax分类器前所有层提取的多维特征,θ*为除Softmax分类器之外所有特征提取层的参数,Flatten(·)表示拉平操作,θ={θ*,θsm}表示网络的所有可训练参数,样本x(n)的预测过程就是最大化后验概率,即
Figure BDA0003312446350000062
优选的,在步骤3中,交叉熵损失函数为:
Figure BDA0003312446350000063
其中,N为训练集M中样本总数;1{·}为指示函数,即1{true}=1,1{false}=0。
优选的,在步骤4中,网络训练是使用训练数据更新网络参数的过程,实质上是对交叉熵损失函数经验风险损失函数的最小化,即
Figure BDA0003312446350000064
使用所有训练数据对上述公式进行求解对计算机的算力和内存需求是非常大的,因此,一般使用随机梯度下降算法每次随机抽取B个样本对参数进行更新,整个训练数据集被随机划分成
Figure BDA0003312446350000069
个批次(
Figure BDA0003312446350000065
表示向上取整数),即
Figure BDA0003312446350000066
对于第t(t∈{1,2,…,T})次迭代,随机梯度下降算法的更新公式为
θt+1=θt-αgt
其中α为学习率,gt是损失函数关于θt的梯度,即
Figure BDA0003312446350000067
本发明的有益效果:本发明提出的多尺度分组融合一维卷积层(MSGF-1D-CNN)具有更少的参数量、运算量和更高的识别正确率,同时与其他深度神经网络的实验对比表明多尺度分组融合一维卷积层(MSGF-1D-CNN)在各个弹道中段目标的识别精度、召回率和整体识别正确率上都具有优越性,且比其它深度方法具有更高的噪声鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1所示为本实施例中基于MSGF-1D-CNN的HRRP识别网络整体结构;
图2所示为本实施例中分组卷积示意图;(a)G=1(标准卷积);(b)G=2;(c)G=4;
图3所示为本实施例中仿真目标物理特征;(a)弹头;(b)球形诱饵;(c)母舱;(d)高仿诱饵;(e)简单诱饵;
图4所示为各个深度学习算法在不同SNR值时测试集整体识别正确率。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
HRRP是通过宽带雷达信号获取的目标散射点复子回波在雷达视线(lineofsight,LOS)上投影的向量和。相比于常规窄带雷达呈现的“点”目标,HRRP提供了目标散射点沿距离方向的一维分布信息,具有目标重要的结构特征,因此可作为判别不同雷达目标的依据。HRRP基于散射中心模型,其第j个距离单元的回波等于所有散射中心在这个距离单元内的回波叠加,即
Figure BDA0003312446350000081
上式中,In,j表示第j个距离单元内对应的散射中心个数,Rn,i(j)表示第j个距离单元的回波中第i个散射中心到雷达的距离,σn,i
Figure BDA0003312446350000082
分别表示第i个散射中心回波信号的幅度和初相。记第n个HRRP样本数据为
x(n)=[|x1(n)|,|x2(n)|,...,|xE(n)|] (2)
其中,E为HRRP距离单元的总数。
本发明基于此提出了基于多尺度分组融合卷积的雷达高分辨距离像识别方法。
网络结构整体设计
本文提出的基于多尺度分组融合1D-CNN(MSGF-1D-CNN)的HRRP识别网络如图1所示,网络整体上可细分为输入层、一维卷积层、批量归一化层、非线性激活层、池化层、平坦层和Softmax分类器等七个部分,其中一维卷积层、批量归一化层、非线性激活层和池化层组成卷积模块。MSGF-1D-CNN中重复连接的卷积模块用于特征提取,平坦层和Softmax分类器主要用于目标分类。
MSGF-1D-CNN中各个部分的功能如下:
(1)输入层:基于神经网络的目标识别方法一般分为模型训练和模型测试两大阶段,模型训练是根据输入数据对模型的参数进行调整的过程,而模型测试是利用参数已经调整的模型对输入数据进行预测的过程。这两个过程要求输入数据的维度是一致的,因此输入层输入的原始数据
Figure BDA0003312446350000091
其中D(1)=E,C(1)=1。另外,考虑到HRRP的幅度敏感性,利用公式(3)对HRRP每个距离单元的数值归一化到[0,1]的范围内。
Figure BDA0003312446350000092
(2)一维卷积层:一维卷积层将输入数据和窗口大小(即卷积核的尺度)固定的卷积核进行卷积运算自动提取特征,一般卷积核的尺度远远小于输入数据的大小,因此卷积核以一定步幅在输入数据上移动,每步使用相同的卷积核实现了权值共享。设1D-CNN中共有
Figure BDA0003312446350000093
个卷积模块,
Figure BDA0003312446350000094
为第
Figure BDA0003312446350000096
个标准一维卷积层的多通道输入,每个通道对应一个一维特征图(第一个卷积层输入的是原始数据,视其具有一个通道),D(l)和C(l)分别表示单个一维特征图的大小和一维特征图的总数,则一维卷积层将多通道输入转换为多通道输出
Figure BDA0003312446350000095
其中D(l+1)和C(l+1)分别表示卷积之后的特征图大小和通道个数。在图1的结构中,本文设置各模块的输出特征图通道数呈2倍增长,即C(l+1)=2×C(l),同时将标准的一维卷积层替换为多尺度融合一维卷积层形成MSGF-1D-CNN。
(3)批量归一化层:由于计算机处理能力的限制,一般不是将所有数据同时送入网络中进行训练,而是分批次对所有数据进行输入。使用批归一化将卷积层的每个批次输出归一化到均值为0,标准差为1的分布,可以加速网络训练和提高模型的泛化能力[23]
(4)非线性激活层:为了在网络结构中引入非线性因素,使用非线性激活函数对一维卷积层的输出进行激活。MSGF-1D-CNN中所有非线性激活函数皆采用Mish函数,其表达式为
δ(x)=x·tanh(ln(1+ex)) (4)
(5)池化层:为了对一维卷积层的输出进行降维和去除相邻特征冗余,池化层对一维卷积层的输出进行下采样。MSGF-1D-CNN的池化层使用最大池化方法,对于第l个一维卷积层的第k个输出特征图Xk (l),最大池化后输出特征图位置i处的值由公式(5)给出
Figure BDA0003312446350000101
其中H′(l)和S′(l)分别表示最大池化的窗口大小和步长。因此,最大池化后特征图的个数不变,特征图大小变为
Figure BDA0003312446350000102
其中,
Figure BDA0003312446350000103
表示向下取整。
(6)平坦层和Softmax分类器:如果最后一个卷积模块的输出
Figure BDA0003312446350000104
的特征图大小
Figure BDA0003312446350000105
则需经过平坦层的拉平操作将
Figure BDA0003312446350000106
中所有特征图排列为一个一维的向量u作为Softmax分类器的输入。Softmax分类器可视作被Softmax函数激活的特殊全连接层,其神经元个数与待分类目标的类别总数Q相等。Softmax分类器的参数表示为θsm={Wsm,bsm},对于每个HRRP样本(x(n),y(n)),x(n)和y(n)分别表示HRRP样本数据和对应的真实标签,则分类器第q个神经元的输出表示的是将样本x(n)判断为第q个类别的概率,即
Figure BDA0003312446350000107
其中,
Figure BDA0003312446350000109
表示分类器前所有层提取的多维特征,θ*为除分类器之外所有特征提取层的参数,Flatten(·)表示拉平操作,θ={θ*sm}表示网络的所有可训练参数。样本x(n)的预测过程就是最大化后验概率,即
Figure BDA0003312446350000108
多尺度分组融合一维卷积
为了逐层提取多尺度信息,如图1所示,使用多尺度分组一维卷积和逐点卷积代替标准一维卷积层,形成多尺度分组融合一维卷积层。用H(l)表示第l个标准一维卷积层卷积核的窗口大小,X(l)与该层的所有单尺度一维卷积核
Figure BDA0003312446350000111
进行卷积运算,产生与卷积核数量相等的输出特征图
Figure BDA0003312446350000112
具体地,每个卷积核都与输入的所有特征图进行卷积运算,则该层第k(k∈{1,2,…,C(l+1)})个一维卷积核
Figure BDA0003312446350000113
与X(l)产生的一维特征图为
Figure BDA0003312446350000114
其中,运算符*表示卷积运算,
Figure BDA0003312446350000115
表示第k个卷积核的偏置,δ(·)为非线性激活层的激活函数,考虑每层的输入的特征图首先都进行零填充,设第l层的每个输入特征图单边填充零的个数为P(l),输入特征图的大小首先变成D(l)+2P(l),再与步长为S(l)的卷积核进行卷积操作,则第k个输出特征图在位置i(i∈D(l+1))处的值为
Figure BDA0003312446350000116
其中⊙表示Hadamard积。由此,可以计算出输出特征图大小为
Figure BDA0003312446350000117
为了让卷积层提取输入特征图不同的尺度信息,用Ω(Ω>1)个尺度不同的分组卷积
Figure BDA0003312446350000118
替换单尺度卷积W(l),产生Ω组不同的输出
Figure BDA0003312446350000119
Figure BDA00033124463500001110
G(ω;l)
Figure BDA00033124463500001111
分别表示第ω(ω∈{1,2,…,Ω})个分组卷积中卷积核的尺度、分组数和输出特征图个数,则
Figure BDA00033124463500001112
Figure BDA00033124463500001113
且各个分组卷积的输出特征图个数满足
Figure BDA00033124463500001114
由输出特征图大小计算公式可知,第ω个分组卷积得到输出特征图大小为
Figure BDA00033124463500001115
其中,
Figure BDA00033124463500001116
Figure BDA00033124463500001117
分别表示在进行第ω个分组卷积运算时输入特征图的补零数和卷积核的步长,后面的卷积层在实际中要求所有的输入特征图具有相同的大小,即
Figure BDA0003312446350000121
Figure BDA0003312446350000122
Figure BDA0003312446350000123
取正奇数,
Figure BDA0003312446350000124
使得
Figure BDA0003312446350000125
即输出的特征图与输入特征图保持相同的大小,因此,多尺度分组卷积输出为
Figure BDA0003312446350000126
其中,concat(·)表示将特征图矩阵沿着通道方向进行合并,因此
Figure BDA0003312446350000127
在分组卷积中,分别将输入特征图和卷积核分成数量相等的G组,如图2(b)和图2(c)分别是G=2和G=4时的例子,再在每组中各个卷积核分别与对应组内的所有输入特征图进行卷积运算。因此,如图2(a)所示,标准一维卷积可视作G=1时的特殊分组卷积。分组卷积采取的是一种局部连接的方式,相较于标准卷积的全连接方式,只提取了前层输出的局部特征,使得网络不能有效地利用全局特征进行分类。逐点卷积是
Figure BDA0003312446350000128
P(l)=0,H(l)=1和S(l)=1时的特殊标准卷积,由公式(9)可知,逐点卷积可学习多尺度分组卷积输出的线性相关性,因此,在多尺度分组卷积的输出进行激活后连接逐点卷积,实现了对提取的分组特征的线性融合。
复杂度分析
为了对比标准一维卷积和多尺度分组融合一维卷积的模型复杂度,使用卷积核的可训练参数总量PA进行分析。对于标准一维卷积核,其第l个一维卷积层的可训练参数总量
Figure BDA0003312446350000129
Figure BDA00033124463500001210
多尺度分组融合一维卷积层包含Ω个尺度不同的分组卷积和1个逐点卷积,其参数总量
Figure BDA00033124463500001211
由这两部分卷积构成,具体为
Figure BDA0003312446350000131
其中,“+”前部分为参数总量关于逐点卷积的分项,“+”后部分为参数总量关于多尺度分组卷积的分项。
由公式(15)可知,多尺度分组融合一维卷积层中G(ω;l)的值越大,则参数总量
Figure BDA0003312446350000132
越小,因此,为了尽量降低多尺度分组融合一维卷积层的参数量和计算复杂度,G(ω;l)应当取可行的最大值。由于分组卷积需将输入通道和输出通道同时分成G(ω;l)个组,即G(ω;l)需同时整除C(l)
Figure BDA0003312446350000133
在给各个分组卷积分配卷积核数目时取能整除C(l)
Figure BDA0003312446350000134
Figure BDA0003312446350000135
时参数总量取得了最小值,即
Figure BDA0003312446350000136
由公式(14)和公式(16)得
Figure BDA0003312446350000137
由公式(17)可知,在图1的网络结构中,对于输出通道较多的一维卷积层,即
Figure BDA0003312446350000138
在参数数量上,单尺度标准一维卷积层是提出的多尺度分组融合一维卷积层的
Figure BDA0003312446350000139
倍。因此,在通道数目较多的情况下,理论上多尺度分组融合一维卷积可以有效降低单尺度标准一维卷积的参数数量。
对于给定的C(l)和C(l+1),既要保证
Figure BDA00033124463500001310
能整除C(l),又要满足
Figure BDA00033124463500001311
相对比较困难,且不一定都存在,一个可行的方案是C(l)和C(l+1)设置为2的整数次幂,则容易找到取值为2的整数次幂的
Figure BDA0003312446350000141
满足上述条件。如表1所示,提出了分组卷积个数Ω分别在{2,3,4,5}内取值时满足上述条件的一个多尺度分组融合卷积层设计方案,各分组卷积的卷积核尺度在{1,3,5,7,9}内取值,为简化描述,各分组卷积的卷积核尺度、输出通道数和分组数分别用一维数组
Figure BDA0003312446350000142
Figure BDA0003312446350000143
表示。
表1多尺度分组融合一维卷积层设计方案
Figure BDA0003312446350000144
网络训练流程
训练网络首先需要构建损失函数,构建MSGF-1D-CNN在整个HRRP训练数据集
Figure BDA0003312446350000145
上的交叉熵损失函数为
Figure BDA0003312446350000146
其中,N为训练集M中样本总数;1{·}为指示函数,即1{true}=1,1{false}=0。网络训练是使用训练数据更新网络参数的过程,实质上是对公式(18)经验风险损失函数的最小化,即
Figure BDA0003312446350000147
使用所有训练数据对公式(19)进行求解对计算机的算力和内存需求是非常大的,尤其对于大的数据集和参数较多的网络更加困难,因此一般使用随机梯度下降算法每次随机抽取B个样本对参数进行更新,整个训练数据集被随机划分成
Figure BDA0003312446350000148
个批次(
Figure BDA00033124463500001410
表示向上取整数),即
Figure BDA0003312446350000149
对于第t(t∈{1,2,…,T})次迭代,随机梯度下降算法的更新公式为
θt+1=θt-αgt (20)
其中α为学习率,gt是损失函数关于θt的梯度,即
Figure BDA0003312446350000151
设网络训练的总周期数为τ,基于MSGF-1D-CNN的HRRP识别方法的具体流程如下:
步骤1构建网络:首先给定一个包含各个一维卷积层的通道数的一维数组
Figure BDA0003312446350000152
来表示不同的模型结构,C中各个元素的值为2的整数次幂且逐渐增大,给定Ω并从表1中确定相应的
Figure BDA0003312446350000153
Figure BDA0003312446350000154
从而完成图1所示的网络结构的具体配置。
步骤2初始化网络:使用Kaiming初始化方法[24]对网络的可训练参数θ进行初始化。
步骤3前向传播:根据公式(18)计算每个批次数据的损失函数值。
步骤4反向传播:利用diffGrad算法[25]和链式法则对公式(20)进行更新,完成每个批次的参数更新。
步骤5重复步骤3,步骤4,逐次对T个批次的数据进行训练,完成一个周期的训练,之后使用当前周期训练的模型结合公式(8)对测试数据集中的样本进行预测,并对预测结果进行统计。
步骤6重复步骤5直至完成τ个周期的训练,保存测试集识别正确率最高时的模型参数。
实验及结果
1、实验数据
使用基于DCNN的弹道中段目标HRRP图像识别方法仿真得到了弹头、高仿诱饵、简单诱饵、球形诱饵和母舱等5种弹道中段目标的HRRP数据,即Q=5。各个目标的物理参数如图3所示,仿真的方位角范围和方位角精度分别为0~180°和0.05°,因此,每类目标分别仿真得到了3601个不同方位角下的HRRP样本,每个HRRP样本的距离单元个数为256,即E=256。在每类目标的样本中随机选取20%的样本组成测试数据集,其余80%的样本组成训练数据集。
2、实验设置
实验中MSGF-1D-CNN采用以下参数配置:最大池化层的窗口大小H′(l)和步长S′(l)都设置为3,所有卷积核的步幅设置为1。除了将MSGF-1D-CNN与标准1D-CNN进行对比验证改进效果之外,还将MSGF-1D-CNN与基于栈式降噪稀疏自动编码器(Stacked DenoisingSparse AE,sDSAE)的HRRP识别方法、基于双向LSTM(Bidirectional LSTM,Bi-LSTM)的HRRP识别方法[12]和基于双向GRU(Bidirectional GRU,Bi-GRU)的HRRP识别方法进行对比。上述基于深度学习的HRRP识别方法都使用diffGrad算法进行训练,diffGrad算法参数皆设置为:学习率α=0.01,训练的周期数τ=200,每个批次的样本数量B=64。
3、与标准1D-CNN的对比实验
为了验证所提出的MSGF-1D-CNN的有效性和确定其最优的超参数配置方案,在不同的模型结构设置下分别使用表1给出的多尺度分组融合一维卷积层默认参数配置方案进行实验,实验涉及6种模型结构:C1=[8,16,32,64]、C2=[16,32,64,128]、C3=[32,64,128,256]、C4=[64,128,256,512]、C5=[128,256,512,1024]和C6=[256,512,1024,2048]。在保持模型结构不变的情况下,将多尺度分组融合一维卷积层替换为单尺度标准一维卷积层构建标准1D-CNN进行对比实验,标准一维卷积层的卷窗口大小H的取值范围为{1,3,5,7,9}。使用5个指标分别对MSGF-1D-CNN与标准1D-CNN的识别性能和模型复杂度进行评估:测试集整体识别正确率、参数总量(单位:个)、浮点运算量(单位:FLOPS)、乘积累加运算量(单位:MACs)和模型测试过程中运行所需的内存占用量(单位:B),结果如表2所示,表中标准1D-CNN和MSGF-1D-CNN在不同模型结构下最优测试集整体识别正确率用粗体表示。
可从两个角度对表2的结果进行分析:
纵向比较:(1)在相同的卷积层配置下,标准1D-CNN和MSGF-1D-CNN的识别正确率随着通道数的增加整体上呈现出先增加后减小的趋势,这是因为模型的通道数与模型的参数总量呈正相关,较少的通道数会使得模型参数总量较少从而导致欠拟合,而过多的通道数使得模型参数总量较多从而导致过拟合;(2)同时参数总量的增加还会导致浮点运算量、乘积累加运算量和内存占用量的增加。综合考虑上述5种指标的折中,即满足模型具有较高识别正确率前提下具有更少的参数量、浮点运算量、乘积累加运算量和内存占用量,标准1D-CNN和MSGF-1D-CNN的最优模型结构为C4
横向比较:(1)大多数情况下,MSGF-1D-CNN的识别正确率比标准1D-CNN的识别正确率高,尤其是当每个一维卷积层的通道数都在64以上时(如C4、C5、C6),采用表1中四种多尺度分组融合一维卷积层设计方案的1D-CNN在识别正确率方面皆高于单尺度1D-CNN;(2)MSGF-1D-CNN的参数总量皆小于H≥3时的标准1D-CNN,由公式(17)可知,在卷积核窗口大小不变的情况下,相比于标准1D-CNN的参数总量,随着输出通道数越多,MSGF-1D-CNN的参数总量减少效果越明现;(3)随着H和Ω的增大,标准1D-CNN和MSGF-1D-CNN的参数总量、浮点运算量、乘积累加运算量和内存占用量都呈现出增加的趋势,但标准1D-CNN的各个指标的增加量更加明现。上述三个现象说明,在不同模型结构下,使用多尺度分组融合一维卷积层代替标准单尺度一维卷积层对于同时提高模型识别正确率和降低模型复杂度方面具有一定的有效性和通用性。同样考虑五种指标的折中,标准1D-CNN的最优卷积核尺寸H=5,而MSGF-1D-CNN的最优分组卷积个数Ω=3。
综上所述,MSGF-1D-CNN最优的超参数设置为:最优模型结构为C4=[64,128,256,512]、多尺度分组融合一维卷积层的设计采用表1中Ω=3时的默认设置,而标准1D-CNN最优的超参数设置为:最优模型结构为C4=[64,128,256,512]、最优卷积核尺寸H=5。在其各自最优配置下,MSGF-1D-CNN与标准1D-CNN相比,识别正确率提高了0.7%以上,由公式(17)可知模型的参数总量降低了2.4倍以上,且具有更低的浮点、乘积累加运算量和内存占用量。
表2 MSGF-1D-CNN与标准1D-CNN的对比实验结果
Figure BDA0003312446350000181
*粗体为每一行识别正确率的最大取值
4、与其它深度学习方法的对比实验
为了对测试集每个目标的识别效果进行评价,分别计算各个HRRP识别方法对每个目标的精确率FP,召回率FR和FM,同时依然使用测试集整体识别正确率对整体的识别效果进行评价。精确率表示被识别为正例的样本中实际为正例的比例,召回率表示正确识别为正例的样本占全部实际为正例的样本的比例,FM是综合考虑精确率和召回率的指标,是对精确率和召回率的加权调和平均。这三个指标的公式如下:
Figure BDA0003312446350000191
其中,TP是正类判定为正类的样本数,FP为负类判定为正类的样本数,FN为正类判定为负类的样本数。
MSGF-1D-CNN与其它深度学习方法关于以上4个指标的对比实验结果如表3所示。由表3可得以下3个结论:
(1)对于大多数弹道中段目标而言,MSGF-1D-CNN与sDSAE、Bi-LSTM、Bi-GRU和1D-CNN相比,具有更高的精确率FP和召回率FR,因此MSGF-1D-CNN对于大多数目标的FM比其它深度学习算法更高,且优势明显。
(2)MSGF-1D-CNN与sDSAE、Bi-LSTM、Bi-GRU和1D-CNN相比具有最高整体识别正确率,达到96.69%。这主要是由于MSGF-1D-CNN对于球形诱饵、高仿诱饵和弹头的召回率FR比其它深度学习算法更高,即使MSGF-1D-CNN对于母舱和简单诱饵的召回率有些时候比Bi-LSTM和Bi-GRU某些时候略低。由表2可知,在不考虑MSGF-1D-CNN识别正确率与计算复杂度的折中的情况下,MSGF-1D-CNN的识别正确率还有一定的上升空间,最高可以达到96.92%。
(3)虽然MSGF-1D-CNN弹头的精确率FP相比其它深度学习算法不是很高,但是其对弹头的召回率相比其它深度学习算法具有明显的优势。因此,从作战角度而言,MSGF-1D-CNN具有更高的实际应用价值,可有效分辨出弹头,从而为进一步提高导弹拦截率和降低己方损伤率提供了一定的参考意义。
表3 MSGF-1D-CNN与其它深度学习方法的对比实验结果
Figure BDA0003312446350000192
Figure BDA0003312446350000201
由于模型在实际的过程中会有噪声的影响,为了进一步比较模型在不同信噪比(Signal-to-Noise Ratio,SNR)环境下的识别正确率,将测试集中的样本加入高斯白噪声,SNR的定义如下:
Figure BDA0003312446350000202
其中,E=256表示HRRP的距离单元个数,Pl表示第l个距离单元的原始信号强度,PNoise表示噪声的信号强度。
图4是SNR在{10,15,20,25,30,35,40}内取值时不同深度学习算法对于测试集的整体识别正确率变化情况。由图4可以看出,与Bi-LSTM相比,MSGF-1D-CNN在SNR的取值范围内的测试集整体识别正确率更高,且在SNR≥20时,MSGF-1D-CNN的测试集整体识别正确率优于其它深度学习算法,因此所提方法在一定程度上比其它深度方法具有更高的噪声鲁棒性。
以上所述,仅用以说明本发明的技术方案而非限制,本领域普通技术人员对本发明的技术方案所做的其它修改或者等同替换,只要不脱离本发明技术方案的精神和范围,均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.基于多尺度分组融合卷积的雷达高分辨距离像识别方法,其特征在于,包括以下步骤:
步骤1:构建基于MSGF-1D-CNN的HRRP识别网络
首先给定一个包含各个一维卷积层的通道数的一维数组
Figure FDA0003312446340000011
来表示不同的模型结构,C中各个元素的值为2的整数次幂且逐渐增大,给定Ω并确定相应的
Figure FDA0003312446340000012
和G(l),从而完成网络结构的具体配置;
步骤2:初始化识别网络:对网络的可训练参数θ进行初始化;
步骤3:前向传播
构建MSGF-1D-CNN在HRRP训练数据集
Figure FDA0003312446340000013
上的交叉熵损失函数,根据交叉熵损失函数计算每个批次数据的损失函数值;
步骤4:反向传播:使用随机梯度下降算法对每个批次的参数进行更新;
步骤5:重复步骤3和步骤4,逐次对T个批次的数据进行训练,完成一个周期的训练,之后使用当前周期训练的模型结合公式对测试数据集中的样本进行预测,并对预测结果进行统计;
步骤6:重复步骤5直至完成τ个周期的训练,保存测试集识别正确率最高时的模型参数。
2.根据权利要求1所述的基于多尺度分组融合卷积的雷达高分辨距离像识别方法,其特征在于,所述的HRRP识别网络包括输入层、卷积模块、平坦层和Softmax分类器;
输入层:输入的原始数据
Figure FDA0003312446340000014
其中D(1)=E,C(1)=1;
卷积模块:
Figure FDA0003312446340000015
个卷积模块重复连接用于特征提取;
平坦层和Softmax分类器:若最后一个卷积模块的输出
Figure FDA0003312446340000016
的特征图大小
Figure FDA0003312446340000017
则经过平坦层的拉平操作将
Figure FDA0003312446340000018
中所有特征图排列为一个一维的向量u作为Softmax分类器的输入,Softmax分类器进行目标分类。
3.根据权利要求2所述的基于多尺度分组融合卷积的雷达高分辨距离像识别方法,其特征在于,所述的卷积模块包括多尺度分组融合一维卷积层、批量归一化层、非线性激活层以及池化层;其中,
多尺度分组融合一维卷积层:使用多尺度分组一维卷积和逐点卷积代替标准一维卷积层,用H(l)表示第l个标准一维卷积层卷积核的窗口大小,X(l)与该层的所有单尺度一维卷积核
Figure FDA0003312446340000021
进行卷积运算,产生与卷积核数量相等的输出特征图
Figure FDA0003312446340000022
其中D(l+1)和C(l+1)分别表示卷积之后的特征图大小和通道个数;
批量归一化层:使用批归一化将卷积层的每个批次输出归一化到均值为0,标准差为1的分布;
非线性激活层:使用非线性激活函数对一维卷积层的输出进行激活;非线性激活函数表达式为δ(x)=x·tanh(ln(1+ex));
池化层:使用最大池化方法,对于第l个一维卷积层的第k个输出特征图Xk (l),最大池化后输出特征图位置i处的值由以下公式给出
Figure FDA0003312446340000023
其中H′(l)和S′(l)分别表示最大池化的窗口大小和步长,则最大池化后特征图的个数不变,特征图大小变为
Figure FDA0003312446340000024
其中,
Figure FDA0003312446340000025
表示向下取整。
4.根据权利要求3所述的基于多尺度分组融合卷积的雷达高分辨距离像识别方法,其特征在于,卷积运算的具体过程为:
每个多尺度分组融合一维卷积层都与输入的所有特征图进行卷积运算,则该层第k(k∈{1,2,...,C(l+1)})个一维卷积核
Figure FDA0003312446340000026
与X(l)产生的一维特征图为
Figure FDA0003312446340000027
其中,运算符*表示卷积运算,
Figure FDA0003312446340000031
表示第k个卷积核的偏置,δ(·)为非线性激活层的激活函数,考虑每层的输入的特征图首先都进行零填充,设第l层的每个输入特征图单边填充零的个数为P(l),输入特征图的大小首先变成D(l)+2P(l),再与步长为S(l)的卷积核进行卷积操作,则第k个输出特征图在位置i(i∈D(l+1))处的值为
Figure FDA0003312446340000032
其中⊙表示Hadamard积,由此,可以计算出输出特征图大小为
Figure FDA0003312446340000033
为了让卷积层提取输入特征图不同的尺度信息,用Ω(Ω>1)个尺度不同的分组卷积
Figure FDA0003312446340000034
替换单尺度卷积W(l),产生Ω组不同的输出
Figure FDA0003312446340000035
Figure FDA0003312446340000036
G(ω;l)
Figure FDA0003312446340000037
分别表示第ω(ω∈{1,2,...,Ω})个分组卷积中卷积核的尺度、分组数和输出特征图个数,则
Figure FDA0003312446340000038
Figure FDA0003312446340000039
且各个分组卷积的输出特征图个数满足
Figure FDA00033124463400000310
由输出特征图大小计算公式可知,第ω个分组卷积得到输出特征图大小为
Figure FDA00033124463400000311
其中,
Figure FDA00033124463400000312
Figure FDA00033124463400000313
分别表示在进行第ω个分组卷积运算时输入特征图的补零数和卷积核的步长,后面的卷积层在实际中要求所有的输入特征图具有相同的大小,即
Figure FDA00033124463400000314
Figure FDA00033124463400000315
Figure FDA00033124463400000316
取正奇数,
Figure FDA00033124463400000317
使得
Figure FDA00033124463400000318
即输出的特征图与输入特征图保持相同的大小,因此,多尺度分组卷积输出为
Figure FDA00033124463400000319
其中,concat(·)表示将特征图矩阵沿着通道方向进行合并,因此
Figure FDA00033124463400000320
5.根据权利要求4所述的基于多尺度分组融合卷积的雷达高分辨距离像识别方法,其特征在于,Softmax分类器用于目标分类的具体过程如下:
Softmax分类器的参数表示为θsm={Wsm,bsm},对于每个HRRP样本(x(n),y(n)),x(n)和y(n)分别表示HRRP样本数据和对应的真实标签,则Softmax分类器第q个神经元的输出表示的是将样本x(n)判断为第q个类别的概率,即
Figure FDA0003312446340000041
其中,
Figure FDA0003312446340000048
表示Softmax分类器前所有层提取的多维特征,θ*为除Softmax分类器之外所有特征提取层的参数,Flatten(·)表示拉平操作,θ={θ*sm}表示网络的所有可训练参数,样本x(n)的预测过程就是最大化后验概率,即
Figure FDA0003312446340000042
6.根据权利要求1所述的基于多尺度分组融合卷积的雷达高分辨距离像识别方法,其特征在于,在步骤3中,交叉熵损失函数为:
Figure FDA0003312446340000043
其中,N为训练集M中样本总数;1{·}为指示函数,即1{true}=1,1{false}=0。
7.根据权利要求6所述的基于多尺度分组融合卷积的雷达高分辨距离像识别方法,其特征在于,在步骤4中,网络训练是使用训练数据更新网络参数的过程,实质上是对交叉熵损失函数经验风险损失函数的最小化,即
Figure FDA0003312446340000044
使用所有训练数据对上述公式进行求解对计算机的算力和内存需求是非常大的,因此,一般使用随机梯度下降算法每次随机抽取B个样本对参数进行更新,整个训练数据集被随机划分成
Figure FDA0003312446340000045
个批次(
Figure FDA0003312446340000046
表示向上取整数),即
Figure FDA0003312446340000047
对于第t(t∈{1,2,...,T})次迭代,随机梯度下降算法的更新公式为
θt+1=θt-αgt
其中α为学习率,gt是损失函数关于θt的梯度,即
Figure FDA0003312446340000051
CN202111224492.9A 2021-10-20 2021-10-20 基于多尺度分组融合卷积的雷达高分辨距离像识别方法 Pending CN113988163A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111224492.9A CN113988163A (zh) 2021-10-20 2021-10-20 基于多尺度分组融合卷积的雷达高分辨距离像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111224492.9A CN113988163A (zh) 2021-10-20 2021-10-20 基于多尺度分组融合卷积的雷达高分辨距离像识别方法

Publications (1)

Publication Number Publication Date
CN113988163A true CN113988163A (zh) 2022-01-28

Family

ID=79739762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111224492.9A Pending CN113988163A (zh) 2021-10-20 2021-10-20 基于多尺度分组融合卷积的雷达高分辨距离像识别方法

Country Status (1)

Country Link
CN (1) CN113988163A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503745A (zh) * 2023-06-29 2023-07-28 南京航空航天大学 一种基于混合神经网络模型的红外模糊目标识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503745A (zh) * 2023-06-29 2023-07-28 南京航空航天大学 一种基于混合神经网络模型的红外模糊目标识别方法
CN116503745B (zh) * 2023-06-29 2023-08-29 南京航空航天大学 一种基于混合神经网络模型的红外模糊目标识别方法

Similar Documents

Publication Publication Date Title
CN110728224B (zh) 一种基于注意力机制深度Contourlet网络的遥感图像分类方法
CN109919108B (zh) 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
Min et al. A gradually distilled CNN for SAR target recognition
CN103955702B (zh) 基于深度rbf网络的sar图像地物分类方法
CN113486851B (zh) 基于双分支光谱多尺度注意力网络的高光谱图像分类方法
CN109522942A (zh) 一种图像分类方法、装置、终端设备和存储介质
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
CN111914728A (zh) 高光谱遥感影像半监督分类方法、装置及存储介质
CN111259917B (zh) 一种基于局部近邻成分分析的图像特征提取方法
CN113095416B (zh) 基于混合损失与图注意力的小样本sar目标分类方法
CN105046323B (zh) 一种正则化rbf网络多标签分类方法
CN115273050A (zh) 一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法
CN113111975A (zh) 基于多核尺度卷积神经网络的sar图像目标分类方法
Chan et al. VGGreNet: A light-weight VGGNet with reused convolutional set
CN109063750B (zh) 基于cnn和svm决策融合的sar目标分类方法
CN114548170A (zh) 基于gpu端模糊c均值聚类算法的雷达信号分选方法
CN108983187B (zh) 基于ewc的在线雷达目标识别方法
CN113988163A (zh) 基于多尺度分组融合卷积的雷达高分辨距离像识别方法
CN114494777A (zh) 一种基于3D CutMix-Transformer的高光谱图像分类方法及系统
CN112200262B (zh) 支持多任务和跨任务的小样本分类训练方法及装置
CN110110628A (zh) 一种频率综合器劣化的检测方法及检测设备
CN114065831A (zh) 基于多尺度随机深度残差网络的高光谱图像分类方法
CN113516019A (zh) 高光谱图像解混方法、装置及电子设备
CN111428855A (zh) 一种端到端的点云深度学习网络模型和训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination