CN112232297A - 基于深度联合卷积激活的遥感图像场景分类方法 - Google Patents

基于深度联合卷积激活的遥感图像场景分类方法 Download PDF

Info

Publication number
CN112232297A
CN112232297A CN202011243048.7A CN202011243048A CN112232297A CN 112232297 A CN112232297 A CN 112232297A CN 202011243048 A CN202011243048 A CN 202011243048A CN 112232297 A CN112232297 A CN 112232297A
Authority
CN
China
Prior art keywords
image
remote sensing
convolution
feature vector
activation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011243048.7A
Other languages
English (en)
Other versions
CN112232297B (zh
Inventor
高昆
王红
闵蕾
李维
张晓典
何林
吴穹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202011243048.7A priority Critical patent/CN112232297B/zh
Publication of CN112232297A publication Critical patent/CN112232297A/zh
Application granted granted Critical
Publication of CN112232297B publication Critical patent/CN112232297B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于深度联合卷积激活的遥感图像场景分类方法,包括:利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;利用图像浅层纹理信息和全连接层进行拼接,得到对应遥感场景图像的特征向量;基于遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;获取测试遥感场景图像的特征向量,将测试遥感场景图像的特征向量输入至遥感场景图像分类模型,得到遥感场景图像分类结果。通过卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。

Description

基于深度联合卷积激活的遥感图像场景分类方法
技术领域
本发明属于模式识别技术领域,更具体地,涉及一种基于深度联合卷积激活的遥感图像场景分类方法。
背景技术
遥感图像场景分类在模式识别领域扮演着重要的角色,它可以直接应用到自然灾害监测、土地使用和土地覆盖、地理空间物体检测等领域。在实际应用中,遥感图像场景分类是一个很有挑战性的研究方向,因为遥感图像场景存在类内差异性和类间相似性,还受到视角、空间分辨率多样性和复杂的背景等因素的影响。
近几十年遥感图像场景分类被广泛研究,一些早期的方法利用人工设计的特征结合各种分类器进行遥感图像场景分类。如Yang和Newsam等人从图像中提取SIFT(scaleinvariant feature transform,SIFT)描述子,并利用词包模型(bag of visual words,BOVW)获取图像最终的特征向量。但是,人工设计的特征有很大的局限性,只能获取单一的图像特征信息,不适用于复杂的场景。
随着深度学习技术的突破,大量基于深度学习技术的遥感图像场景分类方法被提出,并取得了很大的进步。其中,最有代表性的工作是基于卷积神经网络的遥感图像场景分类方法,如Cheng等人提出由交叉熵损失、权重衰减和度量学习正则项三部分组成的目标函数来训练一个判别性的卷积神经网络(discriminative convolutional neuralnetworks,D-CNNs),以解决遥感场景图像类内差异性和类间相似性等问题。D-CNNs将卷积神经网络中的最后一个全连接层中的值作为图像的特征向量,获取了较好的遥感图像场景分类性能。为了挖掘更加完备的图像信息,研究者提出从卷积神经网络的卷积层挖掘互补的深层特征信息,如Cao等人利用注意力层对卷积神经网络的卷积层进行加权,以获取显著的图像特征信息,并进一步的利用支持向量机(super vector machine,SVM)获取遥感图像场景分类结果。He等人提取多层叠加协方差池化(multilayer stacked covariancepooling,MSCP)方法进行遥感图像场景分类。虽然以上方法取得了较大的成功,但是大部分方法仅仅使用单一卷积层中的卷积激活图进行特征表示而忽略了其他卷积层提供的信息,所以不能够充分保留图像显著特征信息和几何结构信息,从而影响了遥感图像场景分类的正确性。
发明内容
有鉴于此,本发明提供了一种基于深度联合卷积激活的遥感图像场景分类方法。
技术方案如下:一种基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,该方法包括以下步骤:
S1,输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层;
S2,利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;
S3,利用所述图像浅层纹理信息和所述全连接层进行拼接,得到对应遥感场景图像的特征向量;
S4,基于所述遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;
S5,按照所述步骤S1-S3获取测试遥感场景图像的特征向量,将所述测试遥感场景图像的特征向量输入至所述遥感场景图像分类模型,得到遥感场景图像分类结果。
优选的,所述步骤S1中输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层包括:
S11,将输入所述训练遥感场景图像的大小归一化为H×W,其中,H和W分别表示训练遥感场景图像的高度和宽度;
S12,将归一化后的所述训练遥感场景图像输入至所述卷积神经网络。
优选的,所述步骤S2中利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息包括:
S21,获取三个所述卷积层中的卷积激活图Mt1,Mt2和Mt3,Mt1,Mt2和Mt3的大小分别为Ht1×Wt1×Nt1,Ht2×Wt2×Nt2和Ht3×Wt3×Nt3,其中,下标t1,t2和t3表示三个卷积层的序号,(Ht1,Ht2,Ht3)和(Wt1,Wt2,Wt3)分别表示三个卷积激活图的高度和宽度,Nt1,Nt2和Nt3表示三个卷积激活图的数量;
S22,将所述卷积激活图Mt1中的Nt1个大小为Ht1×Wt1卷积激活图对应位置相加,得到卷积求和图Ct1
S23,基于所述卷积求和图Ct1,得到双边卷积激活图Bt1
S24,将所述双边卷积激活图Bt1表示成一个特征向量ft1
S25,按照所述步骤S22-S24分别从所述卷积激活图Mt2和Mt3中提取特征向量ft2和特征向量ft3,并将所述特征向量ft1,所述特征向量ft2和所述特征向量ft3进行拼接,得到所述图像浅层纹理信息ft
优选的,所述卷积求和图表示为:
Figure BDA0002768356580000031
其中,
Figure BDA0002768356580000032
表示所求卷积求和图的第i个响应值,Nt1是卷积激活图Mt1中卷积图的总数目,
Figure BDA0002768356580000033
表示卷积激活图Mt1中的第n个卷积图的第i个响应值。
优选的,所述双边卷积图表示为:
Figure BDA0002768356580000034
其中,
Figure BDA0002768356580000041
表示所求双边卷积图,i和j表示卷积激活图中响应值对应的索引,Aij
Figure BDA0002768356580000042
的权重。
优选的,所述权重Aij表示为:
Figure BDA0002768356580000043
其中,
Figure BDA0002768356580000044
Figure BDA0002768356580000045
分别是响应值
Figure BDA0002768356580000046
Figure BDA0002768356580000047
对应的位置信息,λ是调整空间相似度影响的参数,α和β是分别控制两个响应值的差值和空间距离对Aij影响的参数。
优选的,利用下式获取所述特征向量ft1
Figure BDA0002768356580000048
其中,
Figure BDA0002768356580000049
表示均匀旋转不变的LBP特征,P表示均匀分布在半径为R的圆区域上像素点,hp(p=0,1,...,P-1)是第p个像素点的灰度值,hc是中心像素点的灰度值,U(LBPP,R)表示按位0/1的转换跳变次数:
Figure BDA00027683565800000410
其中,h0和hp-1是第0个像素点和第P-1个像素点的灰度值;当x≥0时,g(x)的值为1,反之,g(x)的值为0;
Figure BDA00027683565800000411
的统计直方图即为所求特征向量ft1
优选的,所述图像浅层纹理信息ft表示为:
ft=(ft1,ft2,ft3),
其中,特征向量ft1,ft2和ft3是分别从卷积激活图Mt1,Mt2和Mt3中获取的
Figure BDA00027683565800000412
的统计直方图。
优选的,所述步骤S3中利用所述图像浅层纹理信息和所述全连接层,得到对应遥感场景图像的特征向量包括:
S31,获取一个全连接层FCk,将所述全连接层FCk作为图像深层语义信息;
S32,将所述图像深层语义信息与所述图像浅层纹理信息进行拼接,得到对应遥感场景图像的特征向量:
F=(ft,FCk),
其中,ft表示图像浅层纹理信息,FCk表示图像深层语义信息,F表示所述遥感场景图像最终的特征向量。
与现有技术相比,本发明提供的,至少实现了如下的有益效果:
利用卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。
当然,实施本发明的任一产品必不特定需要同时达到以上所述的所有技术效果。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
图1是根据本发明一实施例提出的基于深度联合卷积激活的遥感图像场景分类方法的流程图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例提出的基于深度联合卷积激活的遥感图像场景分类方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。本发明的方法是一种基于深度联合卷积激活的遥感图像场景分类方法,其具体步骤包括:
步骤S1,输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层;
其中,所述步骤S1中输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层包括以下步骤:
步骤S11,将输入训练遥感场景图像的大小归一化为H×W,其中,H和W分别表示训练遥感场景图像的高度和宽度;
在本发明一实施例中,所述训练遥感场景图像的大小归一化为224×224的彩色图像。
步骤S12,将归一化后的训练遥感场景图像输入到卷积神经网络,得到卷积激活图和全连接层。
在本发明一实施例中,所使用的卷积神经网络的网络结构图如表1所示。在该实施例中,选择VGG16作为基础网络,该网络由13个卷积层、5个最大池化层和3个全连接层组成。所述卷积神经网络的输入是224×224的彩色遥感场景图像;对于卷积层,滤波器的大小为3×3,滑动步长为1;对于每个最大池化层,应用一个大小为2×2,滑动步长为2的滑动窗口;对于全连接层,第一个全连接层包含4096个神经元,第二个全连接层包含2048个神经元,最后一个全连层包含45个神经元,45个神经元对应于遥感图像场景分类数据集的图像类别数。
表1
Figure BDA0002768356580000071
步骤S2,利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;
进一步地,所述步骤S2中利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息包括以下步骤:
步骤S21,获取三个卷积层中的卷积激活图Mt1,Mt2和Mt3,Mt1,Mt2和Mt3的大小分别为Ht1×Wt1×Nt1,Ht2×Wt2×Nt2和Ht3×Wt3×Nt3,其中,下标t1,t2和t3表示三个卷积层的序号,(Ht1,Ht2,Ht3)和(Wt1,Wt2,Wt3)分别表示三个卷积激活图的高度和宽度,Nt1,Nt2和Nt3表示三个卷积激活图的数量,当然,也可以获取两个卷积层中的卷积激活图,或者五个卷积层中的卷积激活图;在此以三个卷积层中的卷积激活图进行详细阐述;
在本发明一实施例中,参见表1所示,三个卷积层可以从所述卷积神经网络中的前几层中进行选择,例如选择卷积层1_2,2_2和3_3中的卷积激活图,也就是说,所述三个卷积层为1_2,2_2和3_3,此时,三个卷积激活图的大小分别为H1_2×W1_2×N1_2,H2_2×W2_2×N2_2和H3_3×W3_3×N3_3,更具体地,可分别取为224×224×64,112×112×128和56×56×256。
步骤S22,将卷积激活图Mt1中的Nt1个大小为Ht1×Wt1卷积图对应位置相加,得到卷积求和图Ct1
进一步地,所述卷积求和图表示为:
Figure BDA0002768356580000081
其中,
Figure BDA0002768356580000082
表示所求卷积求和图的第i个响应值,Nt1是卷积激活图Mt1中卷积图的总数目,
Figure BDA0002768356580000083
表示卷积激活图Mt1中的第n个卷积图的第i个响应值。
步骤S23,基于卷积求和图Ct1,得到双边卷积激活图Bt1
进一步地,所述双边卷积图表示为:
Figure BDA0002768356580000084
其中,
Figure BDA0002768356580000085
表示所求双边卷积图,i和j为表示卷积激活图中响应值对应的索引,Aij
Figure BDA0002768356580000086
的权重。
在本发明一实施例中,权重Aij表示为:
Figure BDA0002768356580000087
其中,
Figure BDA0002768356580000088
Figure BDA0002768356580000089
分别是响应值
Figure BDA00027683565800000810
Figure BDA00027683565800000811
对应的位置信息,λ是调整空间相似度影响的参数,α和β是分别控制两个响应值的差值和空间距离对Aij影响的参数。
步骤S24,将双边卷积激活图Bt1表示成一个特征向量ft1,即从双边卷积激活图中提取LBP,获取特征向量;
进一步地,利用下式获取特征向量ft1
Figure BDA00027683565800000812
其中,
Figure BDA0002768356580000091
表示均匀旋转不变的LBP特征,riu2表示使用旋转不变一致模式,P表示均匀分布在半径为R的圆区域上像素点,hp(p=0,1,...,P-1)是第p个像素点的灰度值,hc是中心像素点的灰度值,U(LBPP,R)表示按位0/1的转换跳变次数:
Figure BDA0002768356580000092
其中,h0和hp-1是第0个像素点和第P-1个像素点的灰度值。当x≥0时,g(x)的值为1,反之,g(x)的值为0。
Figure BDA0002768356580000093
的统计直方图即为所求特征向量ft1
在本发明一实施例中,有P=8个像素点均匀分布在半径为R=1的圆区域上。
步骤S25,按照所述步骤S22-S24分别从卷积激活图Mt2和Mt3中提取特征向量ft2和ft3,并将特征向量ft1,ft2和ft3进行拼接,得到图像浅层纹理信息ft
进一步地,图像浅层纹理信息ft表示为:
ft=(ft1,ft2,ft3),
其中,特征向量ft1,ft2和ft3是分别从卷积激活图Mt1,Mt2和Mt3中获取的
Figure BDA0002768356580000094
的统计直方图。
在本发明一实施例中,所述图像浅层纹理信息的特征维度为256×3=768。
步骤S3,利用图像浅层纹理信息和一个全连接层,得到对应遥感场景图像的特征向量;
进一步地,所述步骤S3中利用图像浅层纹理信息和全连接层,得到对应遥感场景图像的特征向量包括以下步骤:
步骤S31,获取一个全连接层FCk,全连接层FCk是一个维度为D的向量,将该向量作为图像深层语义信息;
所述全连接层可以从所述卷积神经网络中的几个全连接层中进行选择,在本发明一实施例中,选择第2个全连接层,也就是说,所述全连接层为第2个全连接层,此时,所述全连接层的大小为FC2,更具体地,可取为2048。
步骤S32,将图像深层语义信息和图像浅层纹理信息进行拼接,得到对应遥感场景图像的特征向量:
F=(ft,FCk),
其中,ft表示图像浅层纹理信息,FCk表示图像深层语义信息,F表示遥感场景图像的特征向量,特征向量的维度为2816维。
步骤S4,基于遥感场景图像的特征向量利用分类器训练得到遥感场景图像分类模型,其中,分类器可以选用K近邻分类器和支持向量机,采用K近邻分类器的效果更好;
步骤S5,按照所述步骤S1-S3获取测试遥感场景图像的特征向量,输入至所述遥感场景图像分类模型,得到遥感场景图像分类结果。
以网上公开的遥感图像场景分类数据库作为测试对象,比如在NWPU-RESISC45数据库上,当H×W=224×224,H1_2×W1_2×N1_2=224×224×64,H2_2×W2_2×N2_2=112×112×128和H3_3×W3_3×N3_3=56×56x256,α=0.05,β=6,λ=1.5时,遥感图像场景分类数据集划分为训练集10%(20%)、测试集90%(80%)下的正确率为90.02%(92.62%),由此可见本发明方法的有效性。
通过上述实施例可知,本发明提供的,至少实现了如下的有益效果:
利用卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。

Claims (9)

1.一种基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,该方法包括以下步骤:
S1,输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层;
S2,利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;
S3,利用所述图像浅层纹理信息和所述全连接层进行拼接,得到对应遥感场景图像的特征向量;
S4,基于所述遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;
S5,按照所述步骤S1-S3获取测试遥感场景图像的特征向量,将所述测试遥感场景图像的特征向量输入至所述遥感场景图像分类模型,得到遥感场景图像分类结果。
2.根据权利要求1所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述步骤S1中输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层包括:
S11,将输入所述训练遥感场景图像的大小归一化为H×W,其中,H和W分别表示训练遥感场景图像的高度和宽度;
S12,将归一化后的所述训练遥感场景图像输入至所述卷积神经网络。
3.根据权利要求1所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述步骤S2中利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息包括:
S21,获取三个所述卷积层中的卷积激活图Mt1,Mt2和Mt3,Mt1,Mt2和Mt3的大小分别为Ht1×Wt1×Nt1,Ht2×Wt2×Nt2和Ht3×Wt3×Nt3,其中,下标t1,t2和t3表示三个卷积层的序号,(Ht1,Ht2,Ht3)和(Wt1,Wt2,Wt3)分别表示三个卷积激活图的高度和宽度,Nt1,Nt2和Nt3表示三个卷积激活图的数量;
S22,将所述卷积激活图Mt1中的Nt1个大小为Ht1×Wt1卷积激活图对应位置相加,得到卷积求和图Ct1
S23,基于所述卷积求和图Ct1,得到双边卷积激活图Bt1
S24,将所述双边卷积激活图Bt1表示成一个特征向量ft1
S25,按照所述步骤S22-S24分别从所述卷积激活图Mt2和Mt3中提取特征向量ft2和特征向量ft3,并将所述特征向量ft1,所述特征向量ft2和所述特征向量ft3进行拼接,得到所述图像浅层纹理信息ft
4.根据权利要求3所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述卷积求和图表示为:
Figure FDA0002768356570000021
其中,
Figure FDA0002768356570000022
表示所求卷积求和图的第i个响应值,Nt1是卷积激活图Mt1中卷积图的总数目,
Figure FDA0002768356570000023
表示卷积激活图Mt1中的第n个卷积图的第i个响应值。
5.根据权利要求3所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述双边卷积图表示为:
Figure FDA0002768356570000024
其中,
Figure FDA0002768356570000025
表示所求双边卷积图,i和j表示卷积激活图中响应值对应的索引,Aij
Figure FDA0002768356570000026
的权重。
6.根据权利要求5所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述权重Aij表示为:
Figure FDA0002768356570000027
其中,
Figure FDA0002768356570000031
Figure FDA0002768356570000032
分别是响应值
Figure FDA0002768356570000033
Figure FDA0002768356570000034
对应的位置信息,λ是调整空间相似度影响的参数,α和β是分别控制两个响应值的差值和空间距离对Aij影响的参数。
7.根据权利要求3所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,利用下式获取所述特征向量ft1
Figure FDA0002768356570000035
其中,
Figure FDA0002768356570000036
表示均匀旋转不变的LBP特征,P表示均匀分布在半径为R的圆区域上像素点,hp(p=0,1,...,P-1)是第p个像素点的灰度值,hc是中心像素点的灰度值,U(LBPP,R)表示按位0/1的转换跳变次数:
Figure FDA0002768356570000037
其中,h0和hp-1是第0个像素点和第P-1个像素点的灰度值;当x≥0时,g(x)的值为1,反之,g(x)的值为0;
Figure FDA0002768356570000038
的统计直方图即为所求特征向量ft1
8.根据权利要求3所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述图像浅层纹理信息ft表示为:
ft=(ft1,ft2,ft3),
其中,特征向量ft1,ft2和ft3是分别从卷积激活图Mt1,Mt2和Mt3中获取的
Figure FDA0002768356570000039
的统计直方图。
9.根据权利要求1所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述步骤S3中利用所述图像浅层纹理信息和所述全连接层,得到对应遥感场景图像的特征向量包括:
S31,获取一个全连接层FCk,将所述全连接层FCk作为图像深层语义信息;
S32,将所述图像深层语义信息与所述图像浅层纹理信息进行拼接,得到对应遥感场景图像的特征向量:
F=(ft,FCk),
其中,ft表示图像浅层纹理信息,FCk表示图像深层语义信息,F表示所述遥感场景图像最终的特征向量。
CN202011243048.7A 2020-11-09 2020-11-09 基于深度联合卷积激活的遥感图像场景分类方法 Active CN112232297B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011243048.7A CN112232297B (zh) 2020-11-09 2020-11-09 基于深度联合卷积激活的遥感图像场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011243048.7A CN112232297B (zh) 2020-11-09 2020-11-09 基于深度联合卷积激活的遥感图像场景分类方法

Publications (2)

Publication Number Publication Date
CN112232297A true CN112232297A (zh) 2021-01-15
CN112232297B CN112232297B (zh) 2023-08-22

Family

ID=74123176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011243048.7A Active CN112232297B (zh) 2020-11-09 2020-11-09 基于深度联合卷积激活的遥感图像场景分类方法

Country Status (1)

Country Link
CN (1) CN112232297B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378897A (zh) * 2021-05-27 2021-09-10 浙江省气候中心 基于神经网络的遥感图像分类方法、计算设备及存储介质
CN113642456A (zh) * 2021-08-11 2021-11-12 福州大学 一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法
CN117630936A (zh) * 2024-01-23 2024-03-01 中国科学院空天信息创新研究院 合成孔径雷达观测角度分析方法、装置、电子设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400389A (zh) * 2013-08-12 2013-11-20 电子科技大学 一种高分辨率遥感图像分割方法
CN107292339A (zh) * 2017-06-16 2017-10-24 重庆大学 基于特征融合的无人机低空遥感影像高分地貌分类方法
CN107622267A (zh) * 2017-10-16 2018-01-23 天津师范大学 一种基于嵌入双边卷积激活的场景文字识别方法
CN108805029A (zh) * 2018-05-08 2018-11-13 天津师范大学 一种基于显著对偶激活编码的地基云图识别方法
CN110096948A (zh) * 2019-03-15 2019-08-06 中国科学院西安光学精密机械研究所 基于特征聚合卷积网络的遥感影像识别方法
CN111291651A (zh) * 2020-01-21 2020-06-16 中国科学院西安光学精密机械研究所 用于遥感场景分类的多任务神经网络框架及分类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400389A (zh) * 2013-08-12 2013-11-20 电子科技大学 一种高分辨率遥感图像分割方法
CN107292339A (zh) * 2017-06-16 2017-10-24 重庆大学 基于特征融合的无人机低空遥感影像高分地貌分类方法
CN107622267A (zh) * 2017-10-16 2018-01-23 天津师范大学 一种基于嵌入双边卷积激活的场景文字识别方法
CN108805029A (zh) * 2018-05-08 2018-11-13 天津师范大学 一种基于显著对偶激活编码的地基云图识别方法
CN110096948A (zh) * 2019-03-15 2019-08-06 中国科学院西安光学精密机械研究所 基于特征聚合卷积网络的遥感影像识别方法
CN111291651A (zh) * 2020-01-21 2020-06-16 中国科学院西安光学精密机械研究所 用于遥感场景分类的多任务神经网络框架及分类方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DAVID GRIFFITHS: "A Review on Deep Learning Techniques for 3D Sensed Data Classification", REMOTE SENSING *
LEI MIN 等: "Remote sensing image scene classification using deep combinative feature learning", PROCEEDINGS OF SPIE *
张善文 编著: "《图像模式识别》", 29 February 2020, 西安电子科技大学出版社, pages: 185 - 189 *
闪电GOGOGO: "LBP特征", 《网址链接:HTTPS://WWW.CNBLOGS.COM/WWF828/P/9456046.HTM》 *
闪电GOGOGO: "LBP特征", 《网址链接:HTTPS://WWW.CNBLOGS.COM/WWF828/P/9456046.HTM》, 15 September 2018 (2018-09-15), pages 1 - 9 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378897A (zh) * 2021-05-27 2021-09-10 浙江省气候中心 基于神经网络的遥感图像分类方法、计算设备及存储介质
CN113642456A (zh) * 2021-08-11 2021-11-12 福州大学 一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法
CN113642456B (zh) * 2021-08-11 2023-08-11 福州大学 基于拼图引导的深度特征融合的遥感图像场景分类方法
CN117630936A (zh) * 2024-01-23 2024-03-01 中国科学院空天信息创新研究院 合成孔径雷达观测角度分析方法、装置、电子设备及介质
CN117630936B (zh) * 2024-01-23 2024-04-09 中国科学院空天信息创新研究院 合成孔径雷达观测角度分析方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN112232297B (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
Gholamalinezhad et al. Pooling methods in deep neural networks, a review
CN109685115B (zh) 一种双线性特征融合的细粒度概念模型及学习方法
CN107292343B (zh) 一种基于六层卷积神经网络和光谱-空间信息联合的高光谱遥感图像分类方法
CN107066559B (zh) 一种基于深度学习的三维模型检索方法
Walia et al. Fusion framework for effective color image retrieval
JP6873600B2 (ja) 画像認識装置、画像認識方法及びプログラム
CN112232297B (zh) 基于深度联合卷积激活的遥感图像场景分类方法
CN104090972B (zh) 用于三维城市模型检索的图像特征提取和相似性度量方法
CN107239759B (zh) 一种基于深度特征的高空间分辨率遥感图像迁移学习方法
CN107480620B (zh) 基于异构特征融合的遥感图像自动目标识别方法
CN108491849A (zh) 基于三维稠密连接卷积神经网络的高光谱图像分类方法
CN113627472B (zh) 基于分层深度学习模型的智慧园林食叶害虫识别方法
CN104778476B (zh) 一种图像分类方法
CN109344891A (zh) 一种基于深度神经网络的高光谱遥感数据分类方法
CN105046272B (zh) 一种基于简洁非监督式卷积网络的图像分类方法
Feng et al. DLANet: a manifold-learning-based discriminative feature learning network for scene classification
Verma et al. Wild animal detection from highly cluttered images using deep convolutional neural network
CN112329818B (zh) 基于图卷积网络嵌入表征的高光谱图像非监督分类方法
CN107766810B (zh) 一种云、影检测方法
Bhandi et al. Image retrieval by fusion of features from pre-trained deep convolution neural networks
CN107133579A (zh) 基于CSGF(2D)2PCANet卷积网络的人脸识别方法
CN111583171B (zh) 融合前景紧凑特性和多环境信息的绝缘子缺陷检测方法
CN105718858B (zh) 一种基于正负广义最大池化的行人识别方法
CN113011506A (zh) 一种基于深度重分形频谱网络的纹理图像分类方法
Hidayat et al. Grouping of Image Patterns Using Inceptionv3 For Face Shape Classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant