CN111967537B - 一种基于双路胶囊网络的sar目标分类方法 - Google Patents

一种基于双路胶囊网络的sar目标分类方法 Download PDF

Info

Publication number
CN111967537B
CN111967537B CN202010986123.2A CN202010986123A CN111967537B CN 111967537 B CN111967537 B CN 111967537B CN 202010986123 A CN202010986123 A CN 202010986123A CN 111967537 B CN111967537 B CN 111967537B
Authority
CN
China
Prior art keywords
feature
network
capsule
channel
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010986123.2A
Other languages
English (en)
Other versions
CN111967537A (zh
Inventor
喻玲娟
仓明杰
胡跃虹
谢晓春
梁苗苗
艾晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi University of Science and Technology
Original Assignee
Jiangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi University of Science and Technology filed Critical Jiangxi University of Science and Technology
Publication of CN111967537A publication Critical patent/CN111967537A/zh
Application granted granted Critical
Publication of CN111967537B publication Critical patent/CN111967537B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于双路胶囊网络的SAR目标分类方法,该发明的步骤包括:步骤S1:网络上支路利用S个卷积层对输入图像提取特征F1,各层卷积核大小均为K1×K1,其中,K1和S为大于1的正整数;网络下支路利用S个卷积层对输入图像提取特征F2,各层卷积核大小均为K2×K2,其中,K2为大于1的正整数,且K2≠K1;步骤S2:网络上、下支路各采用一个注意力模块分别对特征F1和F2进行增强,得到增强后的特征F1′和F2′;步骤S3:网络上、下支路的特征F1′和F2′分别封装为主胶囊P1和P2;步骤S4:P1和P2经动态路由分别得到数字胶囊D1和D2;步骤S5:数字胶囊D1和D2相加得到D,再根据D中每个向量的模值判别输入图像所属类别。

Description

一种基于双路胶囊网络的SAR目标分类方法
技术领域
本发明涉及雷达信号处理领域,尤其涉及一种基于双路胶囊网络的SAR目标分类方法,解决SAR目标分类过程中,因训练样本数少而带来的过拟合问题,以及因目标姿态发生变化而带来的错误分类问题,从而实现在少量训练样本以及目标姿态发生变化情况下获取较高的目标识别率。
背景技术
SAR目标分类是SAR图像解译领域的研究热点之一,在军事和民用领域都具有非常重要的意义。传统的SAR目标分类方法主要包括基于模板匹配、基于模型,以及基于机器学习的方法,这些方法的识别精度有限。近年来,随着深度学习的发展,基于深度学习的SAR目标分类得到了深入的研究,并取得了显著的成绩。
卷积神经网络是一种典型的深度学习网络,它能通过提取目标不同层次特征,获得较高的目标识别率。然而,基于卷积神经网络的SAR目标分类需要大量的训练样本,否则容易出现过拟合问题。针对该问题,一些改进措施和方法被提出。如对数据集进行扩充处理,将卷积神经网络和一些无监督训练网络相结合,以及将大数据集下训练好的模型进行迁移等等。虽然这些措施和方法能够有效解决因样本数少而带来的过拟合问题,但是却无法解决因目标姿态发生变化(如平移、旋转、缩放等)而带来的错误分类问题。
胶囊网络是一种能够在小样本集下提取目标特征且保存目标姿态信息的网络(Sabour S,Frosst N,Hinton G E.Dynamic Routing between Capsules[C].Advances inNeural Information Processing Systems.California,USA:NIPS,2017:3856-3866.)。将胶囊网络应用于SAR目标分类,能够同时解决因样本数少带来的过拟合问题和因目标姿态变化带来的错误分类问题。由于胶囊网络的分类输出最终取决于数字胶囊中每个向量的模长,因此,若增加一路胶囊网络以提取输入图像的不同特征,则能实现决定目标所属类别的向量增强。此外,注意力模型是一种通过注意力权重而选择性地对输入图像的部分进行聚焦的模型(Hu J,Shen L,Albanie S,et al.Squeeze-and-Excitation Networks[C].Proceedings of the2018IEEE Conference on Computer Vision and PatternRecognition.Piscataway:IEEE,2018:7132-7141.)。将注意力模块引入两路胶囊网络进行SAR目标分类,将进一步提高目标的正确识别率。
发明内容
本发明目的是提供一种基于双路胶囊网络的SAR目标分类方法,能够在少量训练样本和目标姿态变化情况下获取较高的目标识别率。
为达到上述目的,本发明提供一种基于双路胶囊网络的SAR目标分类方法的步骤包括:
步骤S1:网络上支路利用S个卷积层对输入图像提取特征F1,各层卷积核大小均为K1×K1,其中,K1和S为大于1的正整数;网络下支路利用S个卷积层对输入图像提取特征F2,各层卷积核大小均为K2×K2,其中,K2为大于1的正整数,且K2≠K1
步骤S2:网络上、下支路各采用一个注意力模块分别对特征F1和F2进行增强,得到增强后的特征F1′和F2′;
步骤S3:网络上、下支路的特征F1′和F2′分别封装为主胶囊P1和P2
步骤S4:P1和P2经动态路由分别得到数字胶囊D1和D2
步骤S5:数字胶囊D1和D2相加得到D,再根据D中每个向量的模值判别输入图像所属类别。
本发明的有益效果是:针对基于卷积神经网络的SAR目标分类中,因训练样本数少而带来的过拟合问题,以及因目标姿态发生变化而带来的错误分类问题,采用双路胶囊网络,实现在少量训练样本和目标姿态变化情况下获取较高的目标识别率。
附图说明
图1是本发明中双路胶囊网络的SAR目标分类方法的总流程图;
图2是本发明中双路胶囊网络应用于MSTAR数据集的网络结构和参数设置图;
图3是本发明中基于双路胶囊网络的SAR目标分类方法应用于MSTAR数据集获得的目标十分类混淆矩阵;
图4是本发明和基于卷积神经网络、基于胶囊网络的两种方法应用于MSTAR数据集获得的识别结果的对比。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步地详细说明。
图1示出了本发明中一种基于双路胶囊网络的SAR目标分类方法的总流程图。该方法具体实现步骤如下:
步骤S1:网络上支路利用S个卷积层对输入图像提取特征F1,各层卷积核大小均为K1×K1,其中,K1和S为大于1的正整数;网络下支路利用S个卷积层对输入图像提取特征F2,各层卷积核大小均为K2×K2,其中,K2为大于1的正整数,且K2≠K1
步骤S11:网络的结构如图2所示,其中上支路中包含5个卷积层。第一层卷积层的卷积核大小为5×5,通道数为16,步长为1,采用ReLU函数激活;第二层卷积层的卷积核大小为5×5,通道数为32,步长为2,采用ReLU函数激活;第三层卷积层的卷积核大小为5×5,通道数为64,步长为1,采用ReLU函数激活;第四层卷积层的卷积核大小为5×5,通道数为128,步长为2,采用ReLU函数激活;第五层卷积层的卷积核大小为5×5,通道数为256,步长为2,采用ReLU函数激活。
步骤S12:下支路包含5个卷积层,第一层卷积层的卷积核大小为9×9,通道数为16,步长为1,采用ReLU函数激活;第二层卷积层的卷积核大小为9×9,通道数为32,步长为2,采用ReLU函数激活;第三层卷积层的卷积核大小为9×9,通道数为64,步长为1,采用ReLU函数激活;第四层卷积层的卷积核大小为9×9,通道数为128,步长为2,采用ReLU函数激活;第五层卷积层的卷积核大小为5×5,通道数为256,步长为2,采用ReLU函数激活。
步骤S2:网络上、下支路各采用一个注意力模块分别对特征F1和F2进行增强,得到增强后的特征F1′和F2′;
步骤S21:假设注意力模块的输入特征为
Figure GDA0003520275380000041
即F代表上支路特征F1或下支路特征F2,H,W和C分别表示特征的高度、宽度和通道深度。
在通道注意力模块中,将输入特征表示为F=[f1,f2,…,fk,…,fC],其中
Figure GDA0003520275380000042
为任意的第k通道特征图。接下来,将任意的输入特征图fk在空间维度H×W上进行全局平均池化得到Ek,即
Figure GDA0003520275380000043
其中,fk(i,j)表示特征图fk在坐标位置(i,j)上的数值。将所有通道的全局平均池化结果组成张量E,即E=[E1,E2,…,Ek,…,EC]。显然,
Figure GDA0003520275380000044
然后,将计算得到的张量E通过两个全连接层转换为张量S,
S=σ(W2δ(W1E))
其中,δ和σ分别表示ReLU激活函数和Sigmoid激活函数。两个全连接层是为了限制模型的复杂度,其中,第一个全连接层的权重参数为
Figure GDA0003520275380000045
其中,r为大于1的正整数;第二个全连接层的权重参数为
Figure GDA0003520275380000046
由此可知
Figure GDA0003520275380000047
记S为[s1,s2,…,sk,…,sC]。
最后,采用张量S对特征F进行加权,得到通道注意力模块的输出为
Figure GDA0003520275380000048
即Xca=[x1,x2,…,xk,…,xC]。其中,Xca的第k个元素
Figure GDA0003520275380000049
的计算公式为,
xk=sk·fk
步骤S22:在空间注意力模块中,将输入特征表示为
Figure GDA00035202753800000410
其中,fi,j表示坐标位置(i,j)处所有通道的特征值构成的矢量,接下来,对fi,j的所有元素求均值,得到通道压缩值ui,j为,
Figure GDA0003520275380000051
其中,fi,j(k)表示fi,j在第k个通道上的值。
然后,采用Sigmoid非线性激活函数对任意坐标位置(i,j)处的通道压缩值ui,j进行处理,并用它对(i,j)处的fi,j进行加权,得到xi,j为,
xi,j=σ(ui,j)·fi,j
显然,
Figure GDA0003520275380000052
最后,将所有坐标位置处得到的加权值组成张量得到Xsa,即
Figure GDA0003520275380000053
显然,
Figure GDA0003520275380000054
步骤S23:将通道注意力模块中的结果Xca和空间注意力模块中的结果Xsa相加,得到注意力模块的最终输出F′,
F′=Xca+Xsa
当F取上支路特征F1时,F′表示上支路增强后的特征F1′;当F取下支路特征F2时,F′表示下支路增强后的特征F2′。
步骤S3:网络上、下支路的特征F1′和F2′分别封装为主胶囊P1和P2
步骤S31:在上支路的主胶囊中,将注意力模块得到的特征图经过32×8个步长s=2、大小为5×5的卷积核卷积后,输出为32×8幅的特征图,并将所得的特征图转化为32×2×2个维数为8的胶囊向量;
步骤S32:在下支路的主胶囊中,将注意力模块得到的特征图经过32×8个步长s=1、大小为7×7的卷积核卷积后,输出为32×8幅的特征图,并将所得的特征图转化为32×2×2个维数为8的胶囊向量;
步骤S4:P1和P2经动态路由分别得到数字胶囊D1和D2
步骤S41:上、下支路中的主胶囊通过动态路由规则计算数字胶囊的输出,输出为10个胶囊向量,每个胶囊向量的维度是16。
在动态路由规则中,数字胶囊的各向量和主胶囊的各向量之间是全连接的。记主胶囊的第i(i=1,2,…,128)个向量ui连接到数字胶囊的第j(j=1,2,…,10)个向量vj的变换矩阵为Wij,耦合系数为cij,以及预测向量为
Figure GDA0003520275380000061
其中,预测向量
Figure GDA0003520275380000062
的计算公式为,
Figure GDA0003520275380000063
将预测向量
Figure GDA0003520275380000064
与输出向量vj的相似度bij初始化为0。接下来,进行路由算法的迭代过程。
步骤S42:首先,通过Softmax计算耦合系数cij为,
Figure GDA0003520275380000065
然后,根据耦合系数cij计算加权和aj,即
Figure GDA0003520275380000066
进一步地,采用Squash非线性函数保证最终输出向量vj的长度在0~1之间,即
Figure GDA0003520275380000067
最后,更新相似度bij为,
Figure GDA0003520275380000068
步骤S5:数字胶囊D1和D2相加得到D,再根据D中每个向量的模值判别输入图像所属类别。
步骤S51:将上支路的数字胶囊D1和下支路的数字胶囊D2进行相加得到最终的数字胶囊D,
D=D1+D2
其中,D=[d1,d2,…,dn,…dN](n=1,2,…,N),dn为第n个向量,N为目标的类别数。
步骤S52:对任意的dn求模长|dn|,模长值最大的向量的下标即为输入图像所属的类别。
本发明的效果可通过以下仿真进一步说明。
1.实验条件和方法:
实验仿真环境:Keras,Windows10
实验方法:分别为卷积神经网络方法、胶囊网络方法和本发明。
2.实验内容与结果分析:
实验内容:本发明使用的是MSTAR数据集的十类目标。用本发明、卷积神经网络方法和胶囊网络方法进行分类实验。
实验结果分析:本发明得到的混淆矩阵如图3所示,三种方法的平均正确识别率如图4所示。从图4可以看出,本发明的分类结果比卷积神经网络和胶囊网络的方法具有更高的平均正确识别率。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内。

Claims (2)

1.一种基于双路胶囊网络的SAR目标分类方法,其特征在于,该方法的步骤包括:
步骤S1:网络上支路利用S个卷积层对输入图像提取特征F1,各层卷积核大小均为K1×K1,其中,K1和S为大于1的正整数;网络下支路利用S个卷积层对输入图像提取特征F2,各层卷积核大小均为K2×K2,其中,K2为大于1的正整数,且K2≠K1
步骤S2:网络上、下支路各采用一个注意力模块分别对特征F1和F2进行增强,得到增强后的特征F1′和F2′;
步骤S3:网络上、下支路的特征F1′和F2′分别封装为主胶囊P1和P2
步骤S4:P1和P2经动态路由分别得到数字胶囊D1和D2
步骤S5:数字胶囊D1和D2相加得到D,再根据D中每个向量的模值判别输入图像所属类别;
所述网络上、下支路各采用一个注意力模块分别对特征F1和F2进行增强的步骤如下:
步骤S21:一个注意力模块包括通道注意力模块和空间注意力模块,分别用于关注不同通道特征图的信息和特征图的不同空间位置信息,由于网络上、下支路采用的注意力模块相同,因此可假设注意力模块的输入特征为
Figure FDA0003520275370000011
即F代表上支路特征F1或下支路特征F2,H,W和C分别表示特征的高度、宽度和通道深度;
在通道注意力模块中,将输入特征表示为F=[f1,f2,…,fk,…,fC],其中
Figure FDA0003520275370000012
为任意的第k通道特征图,接下来,将任意的输入特征图fk在空间维度H×W上进行全局平均池化得到Ek,即
Figure FDA0003520275370000013
其中,fk(i,j)表示特征图fk在坐标位置(i,j)上的数值,将所有通道的全局平均池化结果组成张量E,即E=[E1,E2,…,Ek,…,EC],显然,
Figure FDA0003520275370000014
然后,将计算得到的张量E通过两个全连接层转换为张量S,
S=σ(W2δ(W1E))
其中,δ和σ均表示非线性激活函数,两个全连接层是为了限制模型的复杂度,其中,第一个全连接层的权重参数为
Figure FDA0003520275370000021
其中,r为大于1的正整数;第二个全连接层的权重参数为
Figure FDA0003520275370000022
由此可知
Figure FDA0003520275370000023
记S为[s1,s2,…,sk,…,sC];
最后,采用张量S对特征F进行加权,得到通道注意力模块的输出为
Figure FDA0003520275370000024
即Xca=[x1,x2,…,xk,…,xC],其中,Xca的第k个元素
Figure FDA0003520275370000025
的计算公式为,
xk=sk·fk
步骤S22:在空间注意力模块中,将输入特征表示为
Figure FDA0003520275370000026
其中,fi,j表示坐标位置(i,j)处所有通道的特征值构成的矢量,接下来,对fi,j的所有元素求均值,得到通道压缩值ui,j为,
Figure FDA0003520275370000027
其中,fi,j(k)表示fi,j在第k个通道上的值;
然后,采用非线性激活函数对任意坐标位置(i,j)处的通道压缩值ui,j进行处理,并用它对(i,j)处的fi,j进行加权,得到xi,j为,
xi,j=σ(ui,j)·fi,j
显然,
Figure FDA0003520275370000028
最后,将所有坐标位置处得到的加权值组成张量得到Xsa,即
Figure FDA0003520275370000029
显然,
Figure FDA00035202753700000210
步骤S23:将通道注意力模块中的结果Xca和空间注意力模块中的结果Xsa相加,得到注意力模块的最终输出F′,
F′=Xca+Xsa
当F取上支路特征F1时,F′表示上支路增强后的特征F1′;当F取下支路特征F2时,F′表示下支路增强后的特征F2′。
2.根据权利要求1所述的双路胶囊网络的SAR目标分类方法,其特征在于,数字胶囊D1和D2相加得到D,再求D中每个向量的模值判别输入图像所属类别的步骤如下:
步骤S51:将上支路的数字胶囊D1和下支路的数字胶囊D2进行相加得到最终的数字胶囊D,
D=D1+D2
其中,D=[d1,d2,…,dn,…dN](n=1,2,…,N),dn为第n个向量,N为目标的类别数;
步骤S52:对任意的dn求模长|dn|,模长值最大的向量的下标即为输入图像所属的类别。
CN202010986123.2A 2020-04-13 2020-09-18 一种基于双路胶囊网络的sar目标分类方法 Active CN111967537B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010283398X 2020-04-13
CN202010283398 2020-04-13

Publications (2)

Publication Number Publication Date
CN111967537A CN111967537A (zh) 2020-11-20
CN111967537B true CN111967537B (zh) 2022-04-08

Family

ID=73386975

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010986123.2A Active CN111967537B (zh) 2020-04-13 2020-09-18 一种基于双路胶囊网络的sar目标分类方法

Country Status (1)

Country Link
CN (1) CN111967537B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446357B (zh) * 2020-12-15 2022-05-03 电子科技大学 一种基于胶囊网络的sar自动目标识别方法
CN113065426B (zh) * 2021-03-19 2023-10-17 浙江理工大学 基于通道感知的手势图像特征融合方法
CN113255882B (zh) * 2021-04-30 2022-11-04 南通大学 一种基于改进卷积胶囊网络的轴承故障诊断方法
CN113239895A (zh) * 2021-06-15 2021-08-10 天津工业大学 基于注意力机制的胶囊网络的sar图像变化检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104751183A (zh) * 2015-04-08 2015-07-01 西安电子科技大学 基于张量mpca的极化sar图像分类方法
CN108960295A (zh) * 2018-06-13 2018-12-07 中国科学院遥感与数字地球研究所 一种为多时相的全极化sar图像提取特征的方法及植被分布区域的分类方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235589B2 (en) * 2015-09-08 2019-03-19 The Johns Hopkins University Small maritime target detector
CN105930848B (zh) * 2016-04-08 2019-02-15 西安电子科技大学 基于sar-sift特征的sar图像目标识别方法
CN106778837B (zh) * 2016-11-29 2019-05-31 浙江工业大学 基于多线性主成分分析和张量分析的sar图像目标识别方法
CN109801305B (zh) * 2019-01-17 2021-04-06 西安电子科技大学 基于深度胶囊网络的sar图像变化检测方法
CN109959933B (zh) * 2019-04-12 2021-07-30 江西理工大学 一种基于压缩感知的多基线圆迹合成孔径雷达成像方法
CN110728224B (zh) * 2019-10-08 2022-03-11 西安电子科技大学 一种基于注意力机制深度Contourlet网络的遥感图像分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104751183A (zh) * 2015-04-08 2015-07-01 西安电子科技大学 基于张量mpca的极化sar图像分类方法
CN108960295A (zh) * 2018-06-13 2018-12-07 中国科学院遥感与数字地球研究所 一种为多时相的全极化sar图像提取特征的方法及植被分布区域的分类方法

Also Published As

Publication number Publication date
CN111967537A (zh) 2020-11-20

Similar Documents

Publication Publication Date Title
CN111967537B (zh) 一种基于双路胶囊网络的sar目标分类方法
WO2021244079A1 (zh) 智能家居环境中图像目标检测方法
Othman et al. Domain adaptation network for cross-scene classification
CN107316013B (zh) 基于nsct变换和dcnn的高光谱图像分类方法
CN111753828B (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN109671070B (zh) 一种基于特征加权和特征相关性融合的目标检测方法
Chen et al. Convolutional neural network based dem super resolution
CN107403200A (zh) 改进图像分割算法结合深度学习的多重不良图片分类方法
Ryu et al. Dft-based transformation invariant pooling layer for visual classification
CN107392940B (zh) 一种基于堆栈半监督自适应去噪自编码器的sar图像变化检测方法
CN112348036A (zh) 基于轻量化残差学习和反卷积级联的自适应目标检测方法
CN112288011A (zh) 一种基于自注意力深度神经网络的图像匹配方法
CN111612017A (zh) 一种基于信息增强的目标检测方法
CN113627472A (zh) 基于分层深度学习模型的智慧园林食叶害虫识别方法
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
Liu et al. Statistical convolutional neural network for land-cover classification from SAR images
CN113536986B (zh) 一种基于代表特征的遥感图像中的密集目标检测方法
CN106874879A (zh) 基于多特征融合和深度学习网络提取的手写数字识别方法
CN115496928A (zh) 基于多重特征匹配的多模态图像特征匹配方法
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
CN112766340B (zh) 基于自适应空间模式的深度胶囊网络图像分类方法及系统
CN109190511A (zh) 基于局部与结构约束低秩表示的高光谱分类方法
Verma et al. Wild animal detection from highly cluttered images using deep convolutional neural network
CN109034213B (zh) 基于相关熵原则的高光谱图像分类方法和系统
Ge et al. Adaptive hash attention and lower triangular network for hyperspectral image classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant