CN112232297A - 基于深度联合卷积激活的遥感图像场景分类方法 - Google Patents
基于深度联合卷积激活的遥感图像场景分类方法 Download PDFInfo
- Publication number
- CN112232297A CN112232297A CN202011243048.7A CN202011243048A CN112232297A CN 112232297 A CN112232297 A CN 112232297A CN 202011243048 A CN202011243048 A CN 202011243048A CN 112232297 A CN112232297 A CN 112232297A
- Authority
- CN
- China
- Prior art keywords
- image
- remote sensing
- convolution
- feature vector
- activation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004913 activation Effects 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000013145 classification model Methods 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 15
- 230000002146 bilateral effect Effects 0.000 claims description 13
- 230000003213 activating effect Effects 0.000 claims description 8
- 230000007704 transition Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims 1
- 238000005065 mining Methods 0.000 abstract description 3
- 210000002569 neuron Anatomy 0.000 description 4
- 238000011176 pooling Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于深度联合卷积激活的遥感图像场景分类方法,包括:利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;利用图像浅层纹理信息和全连接层进行拼接,得到对应遥感场景图像的特征向量;基于遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;获取测试遥感场景图像的特征向量,将测试遥感场景图像的特征向量输入至遥感场景图像分类模型,得到遥感场景图像分类结果。通过卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。
Description
技术领域
本发明属于模式识别技术领域,更具体地,涉及一种基于深度联合卷积激活的遥感图像场景分类方法。
背景技术
遥感图像场景分类在模式识别领域扮演着重要的角色,它可以直接应用到自然灾害监测、土地使用和土地覆盖、地理空间物体检测等领域。在实际应用中,遥感图像场景分类是一个很有挑战性的研究方向,因为遥感图像场景存在类内差异性和类间相似性,还受到视角、空间分辨率多样性和复杂的背景等因素的影响。
近几十年遥感图像场景分类被广泛研究,一些早期的方法利用人工设计的特征结合各种分类器进行遥感图像场景分类。如Yang和Newsam等人从图像中提取SIFT(scaleinvariant feature transform,SIFT)描述子,并利用词包模型(bag of visual words,BOVW)获取图像最终的特征向量。但是,人工设计的特征有很大的局限性,只能获取单一的图像特征信息,不适用于复杂的场景。
随着深度学习技术的突破,大量基于深度学习技术的遥感图像场景分类方法被提出,并取得了很大的进步。其中,最有代表性的工作是基于卷积神经网络的遥感图像场景分类方法,如Cheng等人提出由交叉熵损失、权重衰减和度量学习正则项三部分组成的目标函数来训练一个判别性的卷积神经网络(discriminative convolutional neuralnetworks,D-CNNs),以解决遥感场景图像类内差异性和类间相似性等问题。D-CNNs将卷积神经网络中的最后一个全连接层中的值作为图像的特征向量,获取了较好的遥感图像场景分类性能。为了挖掘更加完备的图像信息,研究者提出从卷积神经网络的卷积层挖掘互补的深层特征信息,如Cao等人利用注意力层对卷积神经网络的卷积层进行加权,以获取显著的图像特征信息,并进一步的利用支持向量机(super vector machine,SVM)获取遥感图像场景分类结果。He等人提取多层叠加协方差池化(multilayer stacked covariancepooling,MSCP)方法进行遥感图像场景分类。虽然以上方法取得了较大的成功,但是大部分方法仅仅使用单一卷积层中的卷积激活图进行特征表示而忽略了其他卷积层提供的信息,所以不能够充分保留图像显著特征信息和几何结构信息,从而影响了遥感图像场景分类的正确性。
发明内容
有鉴于此,本发明提供了一种基于深度联合卷积激活的遥感图像场景分类方法。
技术方案如下:一种基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,该方法包括以下步骤:
S1,输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层;
S2,利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;
S3,利用所述图像浅层纹理信息和所述全连接层进行拼接,得到对应遥感场景图像的特征向量;
S4,基于所述遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;
S5,按照所述步骤S1-S3获取测试遥感场景图像的特征向量,将所述测试遥感场景图像的特征向量输入至所述遥感场景图像分类模型,得到遥感场景图像分类结果。
优选的,所述步骤S1中输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层包括:
S11,将输入所述训练遥感场景图像的大小归一化为H×W,其中,H和W分别表示训练遥感场景图像的高度和宽度;
S12,将归一化后的所述训练遥感场景图像输入至所述卷积神经网络。
优选的,所述步骤S2中利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息包括:
S21,获取三个所述卷积层中的卷积激活图Mt1,Mt2和Mt3,Mt1,Mt2和Mt3的大小分别为Ht1×Wt1×Nt1,Ht2×Wt2×Nt2和Ht3×Wt3×Nt3,其中,下标t1,t2和t3表示三个卷积层的序号,(Ht1,Ht2,Ht3)和(Wt1,Wt2,Wt3)分别表示三个卷积激活图的高度和宽度,Nt1,Nt2和Nt3表示三个卷积激活图的数量;
S22,将所述卷积激活图Mt1中的Nt1个大小为Ht1×Wt1卷积激活图对应位置相加,得到卷积求和图Ct1;
S23,基于所述卷积求和图Ct1,得到双边卷积激活图Bt1;
S24,将所述双边卷积激活图Bt1表示成一个特征向量ft1;
S25,按照所述步骤S22-S24分别从所述卷积激活图Mt2和Mt3中提取特征向量ft2和特征向量ft3,并将所述特征向量ft1,所述特征向量ft2和所述特征向量ft3进行拼接,得到所述图像浅层纹理信息ft。
优选的,所述卷积求和图表示为:
优选的,所述双边卷积图表示为:
优选的,所述权重Aij表示为:
优选的,利用下式获取所述特征向量ft1:
其中,表示均匀旋转不变的LBP特征,P表示均匀分布在半径为R的圆区域上像素点,hp(p=0,1,...,P-1)是第p个像素点的灰度值,hc是中心像素点的灰度值,U(LBPP,R)表示按位0/1的转换跳变次数:
优选的,所述图像浅层纹理信息ft表示为:
ft=(ft1,ft2,ft3),
优选的,所述步骤S3中利用所述图像浅层纹理信息和所述全连接层,得到对应遥感场景图像的特征向量包括:
S31,获取一个全连接层FCk,将所述全连接层FCk作为图像深层语义信息;
S32,将所述图像深层语义信息与所述图像浅层纹理信息进行拼接,得到对应遥感场景图像的特征向量:
F=(ft,FCk),
其中,ft表示图像浅层纹理信息,FCk表示图像深层语义信息,F表示所述遥感场景图像最终的特征向量。
与现有技术相比,本发明提供的,至少实现了如下的有益效果:
利用卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。
当然,实施本发明的任一产品必不特定需要同时达到以上所述的所有技术效果。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
图1是根据本发明一实施例提出的基于深度联合卷积激活的遥感图像场景分类方法的流程图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例提出的基于深度联合卷积激活的遥感图像场景分类方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。本发明的方法是一种基于深度联合卷积激活的遥感图像场景分类方法,其具体步骤包括:
步骤S1,输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层;
其中,所述步骤S1中输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层包括以下步骤:
步骤S11,将输入训练遥感场景图像的大小归一化为H×W,其中,H和W分别表示训练遥感场景图像的高度和宽度;
在本发明一实施例中,所述训练遥感场景图像的大小归一化为224×224的彩色图像。
步骤S12,将归一化后的训练遥感场景图像输入到卷积神经网络,得到卷积激活图和全连接层。
在本发明一实施例中,所使用的卷积神经网络的网络结构图如表1所示。在该实施例中,选择VGG16作为基础网络,该网络由13个卷积层、5个最大池化层和3个全连接层组成。所述卷积神经网络的输入是224×224的彩色遥感场景图像;对于卷积层,滤波器的大小为3×3,滑动步长为1;对于每个最大池化层,应用一个大小为2×2,滑动步长为2的滑动窗口;对于全连接层,第一个全连接层包含4096个神经元,第二个全连接层包含2048个神经元,最后一个全连层包含45个神经元,45个神经元对应于遥感图像场景分类数据集的图像类别数。
表1
步骤S2,利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;
进一步地,所述步骤S2中利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息包括以下步骤:
步骤S21,获取三个卷积层中的卷积激活图Mt1,Mt2和Mt3,Mt1,Mt2和Mt3的大小分别为Ht1×Wt1×Nt1,Ht2×Wt2×Nt2和Ht3×Wt3×Nt3,其中,下标t1,t2和t3表示三个卷积层的序号,(Ht1,Ht2,Ht3)和(Wt1,Wt2,Wt3)分别表示三个卷积激活图的高度和宽度,Nt1,Nt2和Nt3表示三个卷积激活图的数量,当然,也可以获取两个卷积层中的卷积激活图,或者五个卷积层中的卷积激活图;在此以三个卷积层中的卷积激活图进行详细阐述;
在本发明一实施例中,参见表1所示,三个卷积层可以从所述卷积神经网络中的前几层中进行选择,例如选择卷积层1_2,2_2和3_3中的卷积激活图,也就是说,所述三个卷积层为1_2,2_2和3_3,此时,三个卷积激活图的大小分别为H1_2×W1_2×N1_2,H2_2×W2_2×N2_2和H3_3×W3_3×N3_3,更具体地,可分别取为224×224×64,112×112×128和56×56×256。
步骤S22,将卷积激活图Mt1中的Nt1个大小为Ht1×Wt1卷积图对应位置相加,得到卷积求和图Ct1;
进一步地,所述卷积求和图表示为:
步骤S23,基于卷积求和图Ct1,得到双边卷积激活图Bt1;
进一步地,所述双边卷积图表示为:
在本发明一实施例中,权重Aij表示为:
步骤S24,将双边卷积激活图Bt1表示成一个特征向量ft1,即从双边卷积激活图中提取LBP,获取特征向量;
进一步地,利用下式获取特征向量ft1:
其中,表示均匀旋转不变的LBP特征,riu2表示使用旋转不变一致模式,P表示均匀分布在半径为R的圆区域上像素点,hp(p=0,1,...,P-1)是第p个像素点的灰度值,hc是中心像素点的灰度值,U(LBPP,R)表示按位0/1的转换跳变次数:
在本发明一实施例中,有P=8个像素点均匀分布在半径为R=1的圆区域上。
步骤S25,按照所述步骤S22-S24分别从卷积激活图Mt2和Mt3中提取特征向量ft2和ft3,并将特征向量ft1,ft2和ft3进行拼接,得到图像浅层纹理信息ft。
进一步地,图像浅层纹理信息ft表示为:
ft=(ft1,ft2,ft3),
在本发明一实施例中,所述图像浅层纹理信息的特征维度为256×3=768。
步骤S3,利用图像浅层纹理信息和一个全连接层,得到对应遥感场景图像的特征向量;
进一步地,所述步骤S3中利用图像浅层纹理信息和全连接层,得到对应遥感场景图像的特征向量包括以下步骤:
步骤S31,获取一个全连接层FCk,全连接层FCk是一个维度为D的向量,将该向量作为图像深层语义信息;
所述全连接层可以从所述卷积神经网络中的几个全连接层中进行选择,在本发明一实施例中,选择第2个全连接层,也就是说,所述全连接层为第2个全连接层,此时,所述全连接层的大小为FC2,更具体地,可取为2048。
步骤S32,将图像深层语义信息和图像浅层纹理信息进行拼接,得到对应遥感场景图像的特征向量:
F=(ft,FCk),
其中,ft表示图像浅层纹理信息,FCk表示图像深层语义信息,F表示遥感场景图像的特征向量,特征向量的维度为2816维。
步骤S4,基于遥感场景图像的特征向量利用分类器训练得到遥感场景图像分类模型,其中,分类器可以选用K近邻分类器和支持向量机,采用K近邻分类器的效果更好;
步骤S5,按照所述步骤S1-S3获取测试遥感场景图像的特征向量,输入至所述遥感场景图像分类模型,得到遥感场景图像分类结果。
以网上公开的遥感图像场景分类数据库作为测试对象,比如在NWPU-RESISC45数据库上,当H×W=224×224,H1_2×W1_2×N1_2=224×224×64,H2_2×W2_2×N2_2=112×112×128和H3_3×W3_3×N3_3=56×56x256,α=0.05,β=6,λ=1.5时,遥感图像场景分类数据集划分为训练集10%(20%)、测试集90%(80%)下的正确率为90.02%(92.62%),由此可见本发明方法的有效性。
通过上述实施例可知,本发明提供的,至少实现了如下的有益效果:
利用卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (9)
1.一种基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,该方法包括以下步骤:
S1,输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层;
S2,利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;
S3,利用所述图像浅层纹理信息和所述全连接层进行拼接,得到对应遥感场景图像的特征向量;
S4,基于所述遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;
S5,按照所述步骤S1-S3获取测试遥感场景图像的特征向量,将所述测试遥感场景图像的特征向量输入至所述遥感场景图像分类模型,得到遥感场景图像分类结果。
2.根据权利要求1所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述步骤S1中输入训练遥感场景图像到卷积神经网络,得到卷积激活图和全连接层包括:
S11,将输入所述训练遥感场景图像的大小归一化为H×W,其中,H和W分别表示训练遥感场景图像的高度和宽度;
S12,将归一化后的所述训练遥感场景图像输入至所述卷积神经网络。
3.根据权利要求1所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述步骤S2中利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息包括:
S21,获取三个所述卷积层中的卷积激活图Mt1,Mt2和Mt3,Mt1,Mt2和Mt3的大小分别为Ht1×Wt1×Nt1,Ht2×Wt2×Nt2和Ht3×Wt3×Nt3,其中,下标t1,t2和t3表示三个卷积层的序号,(Ht1,Ht2,Ht3)和(Wt1,Wt2,Wt3)分别表示三个卷积激活图的高度和宽度,Nt1,Nt2和Nt3表示三个卷积激活图的数量;
S22,将所述卷积激活图Mt1中的Nt1个大小为Ht1×Wt1卷积激活图对应位置相加,得到卷积求和图Ct1;
S23,基于所述卷积求和图Ct1,得到双边卷积激活图Bt1;
S24,将所述双边卷积激活图Bt1表示成一个特征向量ft1;
S25,按照所述步骤S22-S24分别从所述卷积激活图Mt2和Mt3中提取特征向量ft2和特征向量ft3,并将所述特征向量ft1,所述特征向量ft2和所述特征向量ft3进行拼接,得到所述图像浅层纹理信息ft。
9.根据权利要求1所述的基于深度联合卷积激活的遥感图像场景分类方法,其特征在于,所述步骤S3中利用所述图像浅层纹理信息和所述全连接层,得到对应遥感场景图像的特征向量包括:
S31,获取一个全连接层FCk,将所述全连接层FCk作为图像深层语义信息;
S32,将所述图像深层语义信息与所述图像浅层纹理信息进行拼接,得到对应遥感场景图像的特征向量:
F=(ft,FCk),
其中,ft表示图像浅层纹理信息,FCk表示图像深层语义信息,F表示所述遥感场景图像最终的特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011243048.7A CN112232297B (zh) | 2020-11-09 | 2020-11-09 | 基于深度联合卷积激活的遥感图像场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011243048.7A CN112232297B (zh) | 2020-11-09 | 2020-11-09 | 基于深度联合卷积激活的遥感图像场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112232297A true CN112232297A (zh) | 2021-01-15 |
CN112232297B CN112232297B (zh) | 2023-08-22 |
Family
ID=74123176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011243048.7A Active CN112232297B (zh) | 2020-11-09 | 2020-11-09 | 基于深度联合卷积激活的遥感图像场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232297B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113378897A (zh) * | 2021-05-27 | 2021-09-10 | 浙江省气候中心 | 基于神经网络的遥感图像分类方法、计算设备及存储介质 |
CN113642456A (zh) * | 2021-08-11 | 2021-11-12 | 福州大学 | 一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法 |
CN117630936A (zh) * | 2024-01-23 | 2024-03-01 | 中国科学院空天信息创新研究院 | 合成孔径雷达观测角度分析方法、装置、电子设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400389A (zh) * | 2013-08-12 | 2013-11-20 | 电子科技大学 | 一种高分辨率遥感图像分割方法 |
CN107292339A (zh) * | 2017-06-16 | 2017-10-24 | 重庆大学 | 基于特征融合的无人机低空遥感影像高分地貌分类方法 |
CN107622267A (zh) * | 2017-10-16 | 2018-01-23 | 天津师范大学 | 一种基于嵌入双边卷积激活的场景文字识别方法 |
CN108805029A (zh) * | 2018-05-08 | 2018-11-13 | 天津师范大学 | 一种基于显著对偶激活编码的地基云图识别方法 |
CN110096948A (zh) * | 2019-03-15 | 2019-08-06 | 中国科学院西安光学精密机械研究所 | 基于特征聚合卷积网络的遥感影像识别方法 |
CN111291651A (zh) * | 2020-01-21 | 2020-06-16 | 中国科学院西安光学精密机械研究所 | 用于遥感场景分类的多任务神经网络框架及分类方法 |
-
2020
- 2020-11-09 CN CN202011243048.7A patent/CN112232297B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400389A (zh) * | 2013-08-12 | 2013-11-20 | 电子科技大学 | 一种高分辨率遥感图像分割方法 |
CN107292339A (zh) * | 2017-06-16 | 2017-10-24 | 重庆大学 | 基于特征融合的无人机低空遥感影像高分地貌分类方法 |
CN107622267A (zh) * | 2017-10-16 | 2018-01-23 | 天津师范大学 | 一种基于嵌入双边卷积激活的场景文字识别方法 |
CN108805029A (zh) * | 2018-05-08 | 2018-11-13 | 天津师范大学 | 一种基于显著对偶激活编码的地基云图识别方法 |
CN110096948A (zh) * | 2019-03-15 | 2019-08-06 | 中国科学院西安光学精密机械研究所 | 基于特征聚合卷积网络的遥感影像识别方法 |
CN111291651A (zh) * | 2020-01-21 | 2020-06-16 | 中国科学院西安光学精密机械研究所 | 用于遥感场景分类的多任务神经网络框架及分类方法 |
Non-Patent Citations (5)
Title |
---|
DAVID GRIFFITHS: "A Review on Deep Learning Techniques for 3D Sensed Data Classification", REMOTE SENSING * |
LEI MIN 等: "Remote sensing image scene classification using deep combinative feature learning", PROCEEDINGS OF SPIE * |
张善文 编著: "《图像模式识别》", 29 February 2020, 西安电子科技大学出版社, pages: 185 - 189 * |
闪电GOGOGO: "LBP特征", 《网址链接:HTTPS://WWW.CNBLOGS.COM/WWF828/P/9456046.HTM》 * |
闪电GOGOGO: "LBP特征", 《网址链接:HTTPS://WWW.CNBLOGS.COM/WWF828/P/9456046.HTM》, 15 September 2018 (2018-09-15), pages 1 - 9 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113378897A (zh) * | 2021-05-27 | 2021-09-10 | 浙江省气候中心 | 基于神经网络的遥感图像分类方法、计算设备及存储介质 |
CN113642456A (zh) * | 2021-08-11 | 2021-11-12 | 福州大学 | 一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法 |
CN113642456B (zh) * | 2021-08-11 | 2023-08-11 | 福州大学 | 基于拼图引导的深度特征融合的遥感图像场景分类方法 |
CN117630936A (zh) * | 2024-01-23 | 2024-03-01 | 中国科学院空天信息创新研究院 | 合成孔径雷达观测角度分析方法、装置、电子设备及介质 |
CN117630936B (zh) * | 2024-01-23 | 2024-04-09 | 中国科学院空天信息创新研究院 | 合成孔径雷达观测角度分析方法、装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112232297B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gholamalinezhad et al. | Pooling methods in deep neural networks, a review | |
CN109685115B (zh) | 一种双线性特征融合的细粒度概念模型及学习方法 | |
CN107292343B (zh) | 一种基于六层卷积神经网络和光谱-空间信息联合的高光谱遥感图像分类方法 | |
CN107066559B (zh) | 一种基于深度学习的三维模型检索方法 | |
Walia et al. | Fusion framework for effective color image retrieval | |
JP6873600B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
CN112232297B (zh) | 基于深度联合卷积激活的遥感图像场景分类方法 | |
CN104090972B (zh) | 用于三维城市模型检索的图像特征提取和相似性度量方法 | |
CN107239759B (zh) | 一种基于深度特征的高空间分辨率遥感图像迁移学习方法 | |
CN107480620B (zh) | 基于异构特征融合的遥感图像自动目标识别方法 | |
CN108491849A (zh) | 基于三维稠密连接卷积神经网络的高光谱图像分类方法 | |
CN113627472B (zh) | 基于分层深度学习模型的智慧园林食叶害虫识别方法 | |
CN104778476B (zh) | 一种图像分类方法 | |
CN109344891A (zh) | 一种基于深度神经网络的高光谱遥感数据分类方法 | |
CN105046272B (zh) | 一种基于简洁非监督式卷积网络的图像分类方法 | |
Feng et al. | DLANet: a manifold-learning-based discriminative feature learning network for scene classification | |
Verma et al. | Wild animal detection from highly cluttered images using deep convolutional neural network | |
CN112329818B (zh) | 基于图卷积网络嵌入表征的高光谱图像非监督分类方法 | |
CN107766810B (zh) | 一种云、影检测方法 | |
Bhandi et al. | Image retrieval by fusion of features from pre-trained deep convolution neural networks | |
CN107133579A (zh) | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 | |
CN111583171B (zh) | 融合前景紧凑特性和多环境信息的绝缘子缺陷检测方法 | |
CN105718858B (zh) | 一种基于正负广义最大池化的行人识别方法 | |
CN113011506A (zh) | 一种基于深度重分形频谱网络的纹理图像分类方法 | |
Hidayat et al. | Grouping of Image Patterns Using Inceptionv3 For Face Shape Classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |