CN110555446A - 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法 - Google Patents

基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法 Download PDF

Info

Publication number
CN110555446A
CN110555446A CN201910762295.9A CN201910762295A CN110555446A CN 110555446 A CN110555446 A CN 110555446A CN 201910762295 A CN201910762295 A CN 201910762295A CN 110555446 A CN110555446 A CN 110555446A
Authority
CN
China
Prior art keywords
image
remote sensing
feature
scale
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910762295.9A
Other languages
English (en)
Other versions
CN110555446B (zh
Inventor
张菁
赵晓蕾
卓力
田吉淼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201910762295.9A priority Critical patent/CN110555446B/zh
Publication of CN110555446A publication Critical patent/CN110555446A/zh
Application granted granted Critical
Publication of CN110555446B publication Critical patent/CN110555446B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明针对遥感影像场景的分类问题,提出了一种基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法。本发明首先使用高斯金字塔算法获得多尺度的遥感影像,输入到全卷积神经网络中,提取到多尺度深度局部特征;然后将图像裁剪到CNN所需固定大小,输入网络中获得全连接层的全局特征,使用紧凑双线性池化操作编码多尺度深度局部特征和CNN获得的全局特征,通过融合两种深度特征共同表示遥感影像,增强特征之间的相互关系,使获得的特征更具有区分性;最后利用迁移学习技术,结合上述两种方法,对遥感影像场景进行分类。本发明卷积神经网络使用VGG16‑Net作为基础网络。

Description

基于多尺度深度特征融合和迁移学习的遥感影像场景分类 方法
技术领域
本发明针对遥感影像场景的分类问题,提出了一种基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法。本发明首先使用高斯金字塔算法获得多尺度的遥感影像,输入到全卷积神经网络中,提取到多尺度深度局部特征;然后将图像裁剪到CNN所需固定大小,输入网络中获得全连接层的全局特征,使用紧凑双线性池化操作编码多尺度深度局部特征和CNN获得的全局特征,通过融合两种深度特征共同表示遥感影像,增强特征之间的相互关系,使获得的特征更具有区分性;最后利用迁移学习技术,结合上述两种方法,对遥感影像场景进行分类。本发明卷积神经网络使用VGG16-Net作为基础网络。
背景技术
遥感影像一般是指从飞机和卫星上获取的图像,包括地球表面不同地区各种复杂的与人类相关的场景和物体,同时具有较高的分辨率,现有的卫星遥感技术可以得到数米级空间分辨率的影像。遥感影像场景分类是通过对给定遥感影像包含的地物类别进行特征判别,以划分出不同的地物场景,是对遥感影像进行分析的重要手段,在地质勘探、城市规划、交通旅游、灾害监测等领域得到了广泛的应用。随着遥感成像技术的提高,高分辨率的遥感影像可以提供了大量形状、纹理和空间信息,能够清晰地呈现地物细节,有助于提高地物目标的定位与识别精度。但是由于空间分辨率的提高,遥感影像中出现复杂背景干扰、地物结构多变的问题,以及在成像过程中不可避免的受到光照和天气等自然条件的影响,使得地物类型难以区分,给场景分类工作带来了极大的挑战。
传统的遥感影像场景分类方法主要是采用手工特征提取和分类器相结合的方法。遥感影像的手工设计特征主要包括颜色、纹理、形状、空间等特征,特征用特征向量来表示图像,然后结合分类器实现场景分类,常用的分类器有支持向量机、K近邻算法、Softmax回归模型。但随着遥感影像技术的提升,可以得到更加精细的地物信息,传统的手工特征已经难以形成对场景复杂、目标多样的遥感影像的有效描述。近年来,深度学习技术迅猛发展,它通过从海量的数据中提取出深层次更具区分度的特征,从而获得更加优越的性能,为遥感影像场景分类提供了新的研究思路。用于提取遥感影像特征的深度学习方法主要有自动编码(Auto-Encoder,AE)、深度置信网络(Deep Belief Network,DBN)和深度卷积神经网络(Convolutional Neural Network,CNN),其中卷积神经网络由于其在自然图像中的优异表现,因此广泛用于遥感影像的特征提取。然而,在遥感影像中,传统的CNN模型存在一定的缺陷,例如传统的CNN模型忽略了人眼在观测时产生不同尺度视角变化的情况,对场景分类精度产生一定的影响,通常的做法是对遥感影像运用高斯金字塔算法得到多尺度的遥感影像,来提高网络的分类精度。此外,传统的CNN模型没有结合全局特征和局部特征,以及忽略了特征之间的相互作用关系,一个灵活的方法是对多种特征进行融合从而加强特征关系,来获取更具代表性的遥感影像特征。更为值得一提的是,CNN模型的训练需要大量有标注的图像,而有标注信息的遥感影像数据比较缺乏,迁移学习为解决小样本学习问题提供了一个新的途径,但是目前大多数迁移学习策略是从自然图像数据集进行知识迁移学习,忽略了遥感影像独有的特征,为此,本发明将考虑采用大规模遥感影像数据集进行预训练。
根据上述分析,本发明提出了一种基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法。首先使用高斯金字塔算法获得多尺度的遥感影像,作为全卷积神经网络的输入,得到多尺度深度局部特征;然后使用紧凑双线性池化操作同时编码CNN获得的多尺度局部特征和全局特征,获得具有相互作用关系的融合特征;最后利用迁移学习策略从有标注的大规模遥感影像数据集中进行知识迁移,在VGG16-Net上进行预训练,运用上述两种方法,对遥感影像场景进行分类。
发明内容
本发明针对遥感影像场景分类问题,提出了一种基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法。本发明使用VGG16-Net作为基础网络。首先,模仿人眼视觉系统特性,获得不同尺度下遥感影像特征,本发明采用高斯金字塔算法来获取多尺度的遥感影像,去掉VGG16-Net最后三个全连接层作为全卷积神经网络,将多尺度的遥感影像作为全卷积神经网络的输入,获得多尺度的局部特征;其次,为了解决CNN模型用于分类特征单一的问题,本发明将数据集图像裁剪到VGG16-Net所需固定大小224×224,输入到网络中获得全局特征,然后用紧凑双线性池化操作融合之前得到的多尺度深度局部特征和CNN获得的全局特征,获得更具区分性的特征;最后,对于有标注遥感影像数据集缺少的问题,本发明利用迁移学习策略,从有标注的大规模遥感影像数据集中进行知识迁移,在VGG16-Net上进行预训练,将模型参数迁移到所设计网络进行微调,实现对遥感影像场景的分类。本发明的总体框架如附图1所示,可分为以下三个步骤:多尺度深度局部特征的获取;多尺度深度特征融合;利用迁移学习进行遥感影像场景分类。
(1)多尺度深度局部特征的获取
遥感影像中场景类型是以地物对象为中心的,地物在场景分类中起着重要的作用,人眼视觉系统特性中,距离物体远近会产生不同的视角,形成不同的观测尺度。传统基于CNN的遥感影像场景分类方法虽然取得了很高的分类精度,但是利用单一尺度的图像作为训练输入,并没有考虑人眼观测不同视角的情况,这就使得CNN很难获得对尺度变换具有鲁棒性的特征。针对这一问题,本发明提出了多尺度深度局部特征的获取的方法,如图2所示,首先利用高斯金字塔算法,使用高斯核函数对遥感影像进行卷积,对卷积后的图像进行下采样操作,获得多尺度图像,然后输入到去掉最后三个全连接层的VGG16-Net中,用最后一个卷积层的特征图作为多尺度局部深度特征,获得的特征图大小为14×14×512。
(2)多尺度深度特征融合
现有的基于CNN的方法在遥感影像分类任务中取得了很好的性能,但是只使用最后一个全连接层作为全局特征表示图像,忽略了局部特征以及特征之间的相互作用关系。本发明引入紧凑双线性池化操作,如图3所示,首先将数据集图像裁减到224×224大小,裁剪后图像输入VGG16-Net,提取第二个全连接层的值作为全局特征,获得特征维数为4096,利用紧凑双线性池化操作同时编码(1)获得的多尺度深度局部特征和提取到的全局特征,融合这两种深度特征,共同作为遥感影像的特征表示,利用L2范数归一化统一特征值到一定范围内,使得特征之间的相互作用得到增强,同时可以降低特征的维度,得到更具代表性和鲁棒性的特征。
(3)利用迁移学习进行遥感影像场景分类
由于目前有标注的大规模遥感影像数据有限,大部分数据集的数据量都较少,直接用于训练网络不易于模型的收敛,会产生过拟合的问题。迁移学习为解决小样本学习问题提供了一个新的途径,利用其他领域中具有很大相似性的大量有标注的样本来预训练网络,从而提高网络的收敛速度。目前大多数迁移学习策略是从自然图像数据集进行知识迁移学习,然而自然图像和遥感影像存在一定的差异,不能很好的作为预训练模型。因此,本发明使用有标注的大规模遥感影像数据集在VGG16-Net上进行预训练,然后将参数迁移到改进的网络中,在新的数据集上使用相对较小的学习率进行微调,从而可以使网络更快的得到收敛,将获得的融合多特征进行分类任务,提高网络的特征表示能力,改善网络的分类性能。具体迁移流程如附图4所示。
在性能评价方面,采用总准确率(即所有场景正确分类的样本数和总样本数的比值)和单个类别准确率(即每个类别中被正确分类的样本数占单个类别样本总数的比值)作为性能评价指标。
本发明与现有技术相比,具有以下明显的优势和有益效果:
首先,本发明使用高斯金字塔的方法来提取多尺度的遥感影像作为深度网络的输入,获得多尺度深度局部特征,模拟人眼视觉系统特性,使得提取到的特征具有尺度变换的鲁棒性;其次,通过特征编码操作增强了特征之间的相互关系,融合全局特征、局部特征共同作为图像的特征表示,增强特征的可区分性,紧凑双线性池化操作可以得到维度较低的特征,减少计算效率和存储空间;最后,利用迁移学习的策略,解决了遥感影像数据量小,网络易过拟合的问题。
附图说明
图1遥感影像场景分类方法总体框架;
图2多尺度局部特征提取流程图;
图3多尺度深度特征融合流程图;
图4基于VGG16-Net网络进行迁移学习的流程图。
具体实施方式
根据上述描述,以下是一个具体的实施流程,但本专利所保护的范围并不限于该实施流程。
步骤1:多尺度深度局部特征的获取
步骤1.1:多尺度遥感影像的生成
本发明采用高斯金字塔算法,通过高斯核卷积和下采样形成多尺度遥感影像,高斯金字塔算法将高分辨率的图像置于最下层,将低分辨率图像置于最上层,形成金字塔型的多尺度图像,其中上一层图像的大小是下一层图像的四分之一,将获得的多尺度图像输入到去掉三个全连接层的VGG16-Net中,获得多尺度影像的局部特征,使得网络能够学习到同一图像不同尺度的特征,有利于正确分类遥感影像的场景。
设遥感影像数据集为I={I1,I2,…,IK},K是数据集图像数量。是图像 Ik的多尺度表示,k表示数据集中第k张图像,l表示所在尺度层数,L表示图像形成的尺度数量。Ik 0表示原始图像Ik,对于Ik l-1利用高斯核函数对其进行卷积,然后对卷积后的图像进行下采样,得到Ik l,重复对前一层图像进行卷积和下采样操作,反复迭代多次,得到最后金字塔型的多尺度遥感影像。卷积和下采样操作的定义式为:
其中,0<l≤L,(i,j)表示Ik l像素的空间位置,0<i≤Rl,0<j<Cl,Rl和Cl是第l层图像的行和列,﹡表示卷积操作,G(m,n)表示高斯核函数,大小为(2c+1) ×(2c+1),c是一个正整数,(m,n)表示m行n列高斯核的位置。G(m,n)可用公式表示为:
其中σ表示高斯滤波的方差。
选取的高斯核函数需要满足如下条件:
(1)可分离性:G(m,n)=G(m)*G(n),-c≤m≤c,-c≤n≤c (3)
(2)归一化:
(3)对称性:G(m)=G(-m) (5)
(4)奇偶项等贡献:G(c)+G(-c)+G(0)=G(c-1)+G[-(c-1)] (6)
其中,G(m)表示G(m,n)中第m行所有元素组成的一维行向量,G(n)表示 G(m,n)中第n列所有元素组成的一维列向量。
步骤1.2:多尺度局部深度特征的获取
为了输入不同尺度大小的图像,本发明去掉VGG16-Net最后三个全连接层,构造一个全卷积神经网络,将获得的多尺度遥感影像输入网络中,最后一个卷积层为所需要的多尺度深度局部特征,获得的特征大小为14×14× 512。
步骤2:多尺度深度特征融合
本发明中采用VGG16-Net作为基础模型,通过特征编码操作增强了特征之间的相互关系,融合全局特征、局部特征,共同表示图像的特征,具体步骤如下:
步骤2.1:紧凑双线性池化操作(CBP)编码多尺度局部特征和全局特征
1)将数据集图像裁剪到224×224大小,输入到VGG16-Net中,提取第二个全连接层作为图像的全局特征,获得特征维数为4096;
2)双线性池化操作(BP)操作是一种特征编码的方法,以平移不变式的形式收集二阶信息,可以提升多个视觉任务的表现,但是编码后的特征维数较高。紧凑双线性池化操作(CBP)对BP进行改进,利用投影函数将高维的特征映射到低维来表示,减少了计算复杂度和存储空间,本发明利用随机麦克劳林算法(RM)实现这种映射。
本发明将步骤1中VGG16-Net最后一个卷积层和步骤2.1的1)中获得的全局特征进行CBP操作,通过这个操作来对图像局部特征和全局特征进行编码,获得低维且具有区分度的特征,具体步骤如下:
(1)设步骤1获得的多尺度深度局部特征为X,表示为:
X=(x1,…,xS,xs∈Rp) (7)
设第二个全连接层获得的全局特征为Y,表示为:
Y=(y1,…,yq) (8)
其中,S为VGG16-Net最后一个卷积层特征图14×14大小的特征集合, R表示实数集合,xs表示特征集合S每个空间位置s处的特征向量,s∈[1,196],每个xs的维数为p,为最后一个卷积层通道数,在本发明中使用VGG16-Net, p的值为512,全局特征Y的维数为q,为第二个全连接层的维数,在本发明中q的值为4096。
(2)RM算法得到CBP编码特征过程为:
①随机产生映射所需固定参数值Wx1,Wx2∈Rd×p,Wy1,Wy2∈Rd×q,以相同概率选取+1或-1作为Wx1,Wx2,Wy1,Wy2每一项的值。其中,p为局部特征X维数,q为全局特征Y维数,d为RM得到的编码后特征维数,试验表明d的值设置在2000~8000可以获得较好的性能;
②设特征图每个空间位置s处特征值xs的RM映射为φRM(xs),计算公式为
设全局特征Y的RM映射φRM(Y),计算公式为:
其中°表示点乘运算;
③设CBP编码后多尺度深度局部特征为C(X),全局特征为C(Y),
其计算公式为:
C(Y)=φRM(Y) (12)
④设CBP操作获得融合特征为CCBP,表示为:
CCBP=<C(X),C(Y)> (13)
其中,<·>表示内积运算,CCBP是一个长度为d的一维向量。
步骤2.2:融合特征归一化
将得到的全局特征和局部特征融合在一起共同作为图像的特征,但是由于全局特征和局部特征差异较大,采用L2范数归一化的方法将特征值统一在一定的范围内,平衡两种特征的关系,加强特征的鲁棒性。设紧凑双线性池化操作获得的特征为CCBP=(a1,a2,…,ad),a1,...ad表示每一个编码后的特征,共有d个特征,L2范数归一化的计算方法为:
特征CCBP的L2范数e为:
L2归一化后特征为NCBP
NCBP为最后用于分类任务的融合后的特征向量。
步骤3:利用迁移学习进行遥感影像场景分类
步骤3.1:遥感影像场景分类网络结构的设计
VGGNet使用较小的卷积核和较深的网络层数,网络参数相对较少,在迁移学习任务中取得了很好的性能。本发明采用VGG16-Net作为基础网络进行训练,包括13个卷积层和3个全连接层,共有五个最大池化层,输入图像大小为224×224的RGB图像,卷积核大小为3×3和1×1,卷积层步长为1, 3×3卷积层有一个像素的填充,以第一个卷积层为例,224×224×64表示特征图的尺寸为224×224,64表示一共有64个特征图,最后是三个全连接层,前两个的维数为4096,第三个全连接层维数为1000。本发明在VGG16-Net 网络结构的基础上作出改进,分别设计两个提取特征的网络。首先去掉 VGG16-Net的三个全连接层,构成全卷积神经网络,可以输入不同尺度的图像,提取多尺度的局部特征;然后,使用原始的VGG16-Net网络,将遥感影像裁剪到224×224大小输入网络中,提取图像的全局特征;最后将局部特征和全局特征利用紧凑双线性池化操作融合两种特征,归一化后输入softmax分类器中进行分类。
步骤3.2:迁移学习策略的设计
(1)利用VGG16-Net预训练大规模遥感影像
由于训练的遥感影像数据量较小,首先将有标注的大规模遥感影像进行归一化,调整尺寸为224×224,输入到VGG16-Net网络中,从高斯分布中随机采样获得网络初始化参数,输入网络样本的批处理大小设置为32,通过反向传播算法最小化损失函数,采用随机梯度下降法进行优化,使得整个训练集的损失函数值与小批量的损失值近似,不断迭代更新达到设置的迭代次数,得到预训练模型。
设输入分类器的特征为x(i),输入到softmax分类器获得一个预测值 hw,b(x(i)),预测值和真实值y(i)的差异采用损失函数J(·)度量,网络的复杂度用 L2范数度量,具体优化目标函数如下:
J(w,b)=y(i)×loghw,b(x(i))+(1-y(i))×log(1-hw,b(x(i))) (17)
其中,w、b表示网络的所有权重和偏置参数,即学习的目标,H表示网络的层数,λ是惩罚系数,z表示训练样本个数。
权重更新步骤为:
w=w-εg (19)
其中,g表示目标函数的梯度,ε表示学习率,在预训练过程中设定为0.01,惩罚系数λ设置为0.005,迭代次数设置在30000~50000之间。
(2)采用迁移学习策略微调遥感影像分类网络参数
(2.1)设多尺度遥感影像数据集为将除Ik 0以外的多尺度遥感影像输入到去掉全连接层的VGG16-Net中,利用迁移学习策略进行参数迁移,将步骤(1)中获得的网络模型参数去掉最后的softmax层和三个全连接层的参数作为该网络的初始化参数值;
(2.2)将Ik 0裁剪到224×224大小,输入到VGG16-Net中,利用迁移学习策略,将步骤(1)中获得的网络模型参数去掉最后的softmax层参数迁移到该网络中,作为初始化参数值;
(2.3)在最后的分类网络最后添加新的softmax层,softmax层的节点数为遥感数据集所需分类类别个数Q,从高斯分布中随机采样作为该层的初始化参数值;
(2.4)输入网络样本的批处理大小设置为32,将样本输入网络中逐层微调网络参数:对于H层的网络,首先设置前H-1层的学习率为0,设置最后一层学习率为0.001微调参数,然后设置H-2层的学习率为0,设置最后两层学习率为0.001微调参数,逐层微调网络参数,每次微调达到设置的迭代次数为止,迭代次数设置在10000~20000之间;所使用的目标函数为式(16),权重更新步骤使用式(18),微调过程使用较小的学习率,依据实验设定为0.001,惩罚系数λ设置为0.005;
用优化过的网络作为下一步的预训练模型重复训练网络,直到达到设定的迭代次数,获得最后的遥感影像分类网络模型。
步骤3.3:遥感影像场景的分类
利用训练好的网络对遥感影像进行场景分类任务,输入需要进行分类的遥感影像,获得融合多尺度局部特征和全局特征的特征向量,利用softmax进行场景类型判别,获得该图像在每一类下的概率,概率值最大的即为对应的图像类别。
在分类性能评价方面,采用总准确率(Accuracy)和单个类别准确率 (Accuracyc)作为性能评价指标。
总准确率指所有场景正确分类的样本数和总样本数的比值,设总样本数为F,正确分类样本数为F0,总准确率表示为:
单个类别准确率指每个类别中被正确分类的样本数占单个类别样本总数的比值,设单个类别样本总数为FC,每个类别被正确分类的样本数为F1,单个类别准确率表示为:

Claims (3)

1.一种基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法,其特征在于:
首先,模仿人眼视觉系统特性,获得不同尺度下遥感影像特征,采用高斯金字塔算法来获取多尺度的遥感影像,去掉VGG16-Net最后三个全连接层作为全卷积神经网络,将多尺度的遥感影像作为全卷积神经网络的输入,获得多尺度的局部特征;其次,将数据集图像裁剪到VGG16-Net所需固定大小224×224,输入到网络中获得全局特征,然后用紧凑双线性池化操作融合之前得到的多尺度深度局部特征和CNN获得的全局特征,获得更具区分性的特征;最后,在VGG16-Net上进行预训练,将模型参数迁移到所设计网络进行微调,实现对遥感影像场景的分类。
2.根据权利要求1所述的一种基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法,分为以下三个步骤:多尺度深度局部特征的获取;多尺度深度特征融合;利用迁移学习进行遥感影像场景分类;
(1)多尺度深度局部特征的获取
遥感影像中场景类型是以地物对象为中心的,地物在场景分类中起着重要的作用,人眼视觉系统特性中,距离物体远近会产生不同的视角,形成不同的观测尺度;
首先利用高斯金字塔算法,使用高斯核函数对遥感影像进行卷积,对卷积后的图像进行下采样操作,获得多尺度图像,然后输入到去掉最后三个全连接层的VGG16-Net中,用最后一个卷积层的特征图作为多尺度局部深度特征,获得的特征图大小为14×14×512;
(2)多尺度深度特征融合
将数据集图像裁减到224×224大小,裁剪后图像输入VGG16-Net,提取第二个全连接层的值作为全局特征,获得特征维数为4096,利用紧凑双线性池化操作同时编码(1)获得的多尺度深度局部特征和提取到的全局特征,融合这两种深度特征,共同作为遥感影像的特征表示,利用L2范数归一化统一特征值;
(3)利用迁移学习进行遥感影像场景分类
使用有标注的大规模遥感影像数据集在VGG16-Net上进行预训练,然后将参数迁移到改进的网络中,在新的数据集上进行调整。
3.根据权利要求1所述的一种基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法
步骤1:多尺度深度局部特征的获取
步骤1.1:多尺度遥感影像的生成
采用高斯金字塔算法,通过高斯核卷积和下采样形成多尺度遥感影像,高斯金字塔算法将高分辨率的图像置于最下层,将低分辨率图像置于最上层,形成金字塔型的多尺度图像,其中上一层图像的大小是下一层图像的四分之一,将获得的多尺度图像输入到去掉三个全连接层的VGG16-Net中,获得多尺度影像的局部特征,使得网络能够学习到同一图像不同尺度的特征,有利于正确分类遥感影像的场景;
设遥感影像数据集为I={I1,I2,…,IK},K是数据集图像数量;是图像Ik的多尺度表示,k表示数据集中第k张图像,l表示所在尺度层数,L表示图像形成的尺度数量;Ik 0表示原始图像Ik,对于Ik l-1利用高斯核函数对其进行卷积,然后对卷积后的图像进行下采样,得到Ik l,重复对前一层图像进行卷积和下采样操作,反复迭代多次,得到最后金字塔型的多尺度遥感影像;卷积和下采样操作的定义式为:
其中,0<l≤L,(i,j)表示Ik l像素的空间位置,0<i≤Rl,0<j<Cl,Rl和Cl是第l层图像的行和列,﹡表示卷积操作,G(m,n)表示高斯核函数,大小为(2c+1)×(2c+1),c是一个正整数,(m,n)表示m行n列高斯核的位置;G(m,n)用公式表示为:
其中σ表示高斯滤波的方差;
选取的高斯核函数需要满足如下条件:
(1)可分离性:G(m,n)=G(m)*G(n),-c≤m≤c,-c≤n≤c (3)
(2)归一化:
(3)对称性:G(m)=G(-m) (5)
(4)奇偶项等贡献:G(c)+G(-c)+G(0)=G(c-1)+G[-(c-1)] (6)
其中,G(m)表示G(m,n)中第m行所有元素组成的一维行向量,G(n)表示G(m,n)中第n列所有元素组成的一维列向量;
步骤1.2:多尺度局部深度特征的获取
为了输入不同尺度大小的图像,去掉VGG16-Net最后三个全连接层,构造一个全卷积神经网络,将获得的多尺度遥感影像输入网络中,最后一个卷积层为所需要的多尺度深度局部特征,获得的特征大小为14×14×512;
步骤2:多尺度深度特征融合
采用VGG16-Net作为基础模型,通过特征编码操作增强了特征之间的相互关系,融合全局特征、局部特征,共同表示图像的特征,具体步骤如下:
步骤2.1:紧凑双线性池化操作(CBP)编码多尺度局部特征和全局特征
1)将数据集图像裁剪到224×224大小,输入到VGG16-Net中,提取第二个全连接层作为图像的全局特征,获得特征维数为4096;
2)利用随机麦克劳林算法(RM)实现这种映射;
将步骤1中VGG16-Net最后一个卷积层和步骤2.1的1)中获得的全局特征进行CBP操作,通过这个操作来对图像局部特征和全局特征进行编码,获得低维且具有区分度的特征,具体步骤如下:
(1)设步骤1获得的多尺度深度局部特征为X,表示为:
X=(x1,…,xS,xs∈Rp) (7)
设第二个全连接层获得的全局特征为Y,表示为:
Y=(y1,…,yq) (8)
其中,S为VGG16-Net最后一个卷积层特征图14×14大小的特征集合,R表示实数集合,xs表示特征集合S每个空间位置s处的特征向量,s∈[1,196],每个xs的维数为p,为最后一个卷积层通道数,使用VGG16-Net,p的值为512,全局特征Y的维数为q,为第二个全连接层的维数,q的值为4096;
(2)RM算法得到CBP编码特征过程为:
①随机产生映射所需固定参数值Wx1,Wx2∈Rd×p,Wy1,Wy2∈Rd×q,以相同概率选取+1或-1作为Wx1,Wx2,Wy1,Wy2每一项的值;其中,p为局部特征X维数,q为全局特征Y维数,d为RM得到的编码后特征维数,试验表明d的值设置在2000~8000;
②设特征图每个空间位置s处特征值xs的RM映射为φRM(xs),计算公式为
设全局特征Y的RM映射φRM(Y),计算公式为:
其中表示点乘运算;
③设CBP编码后多尺度深度局部特征为C(X),全局特征为C(Y),
其计算公式为:
C(Y)=φRM(Y) (12)
④设CBP操作获得融合特征为CCBP,表示为:
CCBP=<C(X),C(Y)> (13)
其中,<·>表示内积运算,CCBP是一个长度为d的一维向量;
步骤2.2:融合特征归一化
将得到的全局特征和局部特征融合在一起共同作为图像的特征,但是由于全局特征和局部特征差异较大,采用L2范数归一化的方法将特征值统一;设紧凑双线性池化操作获得的特征为CCBP=(a1,a2,…,ad),a1,...ad表示每一个编码后的特征,共有d个特征,L2范数归一化的计算方法为:
特征CCBP的L2范数e为:
L2归一化后特征为NCBP
NCBP为最后用于分类任务的融合后的特征向量;
步骤3:利用迁移学习进行遥感影像场景分类
步骤3.1:遥感影像场景分类网络结构的设计
采用VGG16-Net作为基础网络进行训练,包括13个卷积层和3个全连接层,共有五个最大池化层,输入图像大小为224×224的RGB图像,卷积核大小为3×3和1×1,卷积层步长为1,3×3卷积层有一个像素的填充,以第一个卷积层为例,224×224×64表示特征图的尺寸为224×224,64表示一共有64个特征图,最后是三个全连接层,前两个的维数为4096,第三个全连接层维数为1000;在VGG16-Net网络结构的基础上作出改进,分别设计两个提取特征的网络;首先去掉VGG16-Net的三个全连接层,构成全卷积神经网络,输入不同尺度的图像,提取多尺度的局部特征;然后,使用原始的VGG16-Net网络,将遥感影像裁剪到224×224大小输入网络中,提取图像的全局特征;最后将局部特征和全局特征利用紧凑双线性池化操作融合两种特征,归一化后输入softmax分类器中进行分类;
步骤3.2:迁移学习策略的设计
(1)利用VGG16-Net预训练大规模遥感影像
首先将有标注的大规模遥感影像进行归一化,调整尺寸为224×224,输入到VGG16-Net网络中,从高斯分布中随机采样获得网络初始化参数,输入网络样本的批处理大小设置为32,通过反向传播算法最小化损失函数,采用随机梯度下降法进行优化,使得整个训练集的损失函数值与小批量的损失值近似,不断迭代更新达到设置的迭代次数,得到预训练模型;
设输入分类器的特征为x(i),输入到softmax分类器获得一个预测值hw,b(x(i)),预测值和真实值y(i)的差异采用损失函数J(·)度量,网络的复杂度用L2范数度量,具体优化目标函数如下:
J(w,b)=y(i)×loghw,b(x(i))+(1-y(i))×log(1-hw,b(x(i))) (17)
其中,w、b表示网络的所有权重和偏置参数,即学习的目标,H表示网络的层数,λ是惩罚系数,z表示训练样本个数;
权重更新步骤为:
w=w-εg (19)
其中,g表示目标函数的梯度,ε表示学习率,在预训练过程中设定为0.01,惩罚系数λ设置为0.005,迭代次数设置在30000~50000之间;
(2)采用迁移学习策略微调遥感影像分类网络参数
(2.1)设多尺度遥感影像数据集为将除Ik 0以外的多尺度遥感影像输入到去掉全连接层的VGG16-Net中,利用迁移学习策略进行参数迁移,将步骤(1)中获得的网络模型参数去掉最后的softmax层和三个全连接层的参数作为该网络的初始化参数值;
(2.2)将Ik 0裁剪到224×224大小,输入到VGG16-Net中,利用迁移学习策略,将步骤(1)中获得的网络模型参数去掉最后的softmax层参数迁移到该网络中,作为初始化参数值;
(2.3)在最后的分类网络最后添加新的softmax层,softmax层的节点数为遥感数据集所需分类类别个数Q,从高斯分布中随机采样作为该层的初始化参数值;
(2.4)输入网络样本的批处理大小设置为32,将样本输入网络中逐层微调网络参数:对于H层的网络,首先设置前H-1层的学习率为0,设置最后一层学习率为0.001微调参数,然后设置H-2层的学习率为0,设置最后两层学习率为0.001微调参数,逐层微调网络参数,每次微调达到设置的迭代次数为止,迭代次数设置在10000~20000之间;所使用的目标函数为式(16),权重更新步骤使用式(18),微调过程使用学习率设定为0.001,惩罚系数λ设置为0.005;
用优化过的网络作为下一步的预训练模型重复训练网络,直到达到设定的迭代次数,获得最后的遥感影像分类网络模型;
步骤3.3:遥感影像场景的分类
利用训练好的网络对遥感影像进行场景分类任务,输入需要进行分类的遥感影像,获得融合多尺度局部特征和全局特征的特征向量,利用softmax进行场景类型判别,获得该图像在每一类下的概率,概率值最大的即为对应的图像类别。
CN201910762295.9A 2019-08-19 2019-08-19 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法 Active CN110555446B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910762295.9A CN110555446B (zh) 2019-08-19 2019-08-19 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910762295.9A CN110555446B (zh) 2019-08-19 2019-08-19 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法

Publications (2)

Publication Number Publication Date
CN110555446A true CN110555446A (zh) 2019-12-10
CN110555446B CN110555446B (zh) 2023-06-02

Family

ID=68737762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910762295.9A Active CN110555446B (zh) 2019-08-19 2019-08-19 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法

Country Status (1)

Country Link
CN (1) CN110555446B (zh)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191736A (zh) * 2020-01-05 2020-05-22 西安电子科技大学 基于深度特征交叉融合的高光谱图像分类方法
CN111325165A (zh) * 2020-02-26 2020-06-23 中南大学 考虑空间关系信息的城市遥感影像场景分类方法
CN111325259A (zh) * 2020-02-14 2020-06-23 武汉大学 一种基于深度学习和二进制编码的遥感图像分类方法
CN111340124A (zh) * 2020-03-03 2020-06-26 Oppo广东移动通信有限公司 图像中实体类别的识别方法和装置
CN111444865A (zh) * 2020-03-31 2020-07-24 盐城禅图智能科技有限公司 一种基于逐步求精的多尺度目标检测方法
CN111523521A (zh) * 2020-06-18 2020-08-11 西安电子科技大学 一种双支路融合多尺度注意神经网络的遥感图像分类方法
CN111584073A (zh) * 2020-05-13 2020-08-25 山东大学 基于人工智能融合多模态信息构建肺结节良恶性的多种病理类型的诊断模型
CN111582363A (zh) * 2020-05-06 2020-08-25 西安电子科技大学 一种基于多视点深度特征融合SENet网络的分类方法
CN111612066A (zh) * 2020-05-21 2020-09-01 成都理工大学 基于深度融合的卷积神经网络的遥感图像分类方法
CN111683269A (zh) * 2020-06-12 2020-09-18 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备和存储介质
CN111860293A (zh) * 2020-07-16 2020-10-30 中南民族大学 遥感场景分类方法、装置、终端设备及存储介质
CN112001399A (zh) * 2020-09-07 2020-11-27 中国人民解放军国防科技大学 基于局部特征显著化的图像场景分类方法和装置
CN112163599A (zh) * 2020-09-08 2021-01-01 北京工商大学 一种基于多尺度多层次融合的图像分类方法
CN112215241A (zh) * 2020-10-20 2021-01-12 西安交通大学 一种基于小样本学习的图像特征提取装置
CN112287881A (zh) * 2020-11-19 2021-01-29 国网湖南省电力有限公司 卫星遥感影像烟雾场景检测方法、系统及计算机存储介质
CN112287929A (zh) * 2020-10-22 2021-01-29 北京理工大学 基于特征集成深度学习网络的遥感图像显著性分析方法
CN112763215A (zh) * 2021-01-15 2021-05-07 上海海事大学 一种基于模块化联邦深度学习的多工况在线故障诊断方法
CN112766083A (zh) * 2020-12-30 2021-05-07 中南民族大学 基于多尺度特征融合的遥感场景分类方法及系统
CN112801192A (zh) * 2021-01-26 2021-05-14 北京工业大学 一种基于深度神经网络的扩展LargeVis图像特征降维方法
CN112836614A (zh) * 2021-01-27 2021-05-25 国网江苏省电力有限公司泰州供电分公司 一种基于残差网络和迁移学习的高分遥感图像分类方法
CN113052187A (zh) * 2021-03-23 2021-06-29 电子科技大学 一种基于多尺度特征融合的全局特征对齐目标检测方法
WO2021135657A1 (zh) * 2019-12-31 2021-07-08 华为技术有限公司 图像处理方法、装置和图像处理系统
CN113128527A (zh) * 2021-06-21 2021-07-16 中国人民解放军国防科技大学 基于变换器模型和卷积神经网络的图像场景分类方法
CN113205054A (zh) * 2021-05-10 2021-08-03 江苏硕世生物科技股份有限公司 菌丝显微图像识别方法和系统、设备、可读介质
CN113344030A (zh) * 2021-05-11 2021-09-03 淮阴工学院 一种基于判决相关分析的遥感图像特征融合方法及系统
CN113408594A (zh) * 2021-06-04 2021-09-17 中南民族大学 一种基于注意力网络尺度特征融合的遥感场景分类方法
CN113642456A (zh) * 2021-08-11 2021-11-12 福州大学 一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法
CN113721276A (zh) * 2021-08-31 2021-11-30 中国人民解放军国防科技大学 基于多颗卫星的目标定位方法、装置、电子设备及介质
CN113807385A (zh) * 2021-07-09 2021-12-17 西北工业大学 一种基于度量学习的多模型分组融合的遥感图像分类方法
CN113865859A (zh) * 2021-08-25 2021-12-31 西北工业大学 多尺度多源异构信息融合的齿轮箱状态故障诊断方法
CN114882263A (zh) * 2022-05-18 2022-08-09 南京智慧航空研究院有限公司 一种基于cnn图像模式的对流天气相似性识别方法
CN115019123A (zh) * 2022-05-20 2022-09-06 中南大学 一种遥感图像场景分类的自蒸馏对比学习方法
CN116030358A (zh) * 2022-12-20 2023-04-28 中国科学院空天信息创新研究院 面向星群分布式的参数特征融合的遥感细粒度分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805022A (zh) * 2018-04-27 2018-11-13 河海大学 一种基于多尺度centrist特征的遥感场景分类方法
CN109754017A (zh) * 2019-01-09 2019-05-14 西北工业大学 基于可分离的三维残差网络和迁移学习高光谱图像分类方法
CN110084294A (zh) * 2019-04-18 2019-08-02 北京师范大学 一种基于多尺度深度特征的遥感影像分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805022A (zh) * 2018-04-27 2018-11-13 河海大学 一种基于多尺度centrist特征的遥感场景分类方法
CN109754017A (zh) * 2019-01-09 2019-05-14 西北工业大学 基于可分离的三维残差网络和迁移学习高光谱图像分类方法
CN110084294A (zh) * 2019-04-18 2019-08-02 北京师范大学 一种基于多尺度深度特征的遥感影像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHIPENGDENG 等: ""Multi-scale object detection in remote sensing imagery with convolutional neural networks"", 《HTTPS://DOI.ORG/10.1016/J.ISPRSJPRS.2018.04.003》 *
郑卓等: "高分辨率遥感影像场景的多尺度神经网络分类法", 《测绘学报》 *

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021135657A1 (zh) * 2019-12-31 2021-07-08 华为技术有限公司 图像处理方法、装置和图像处理系统
CN111191736A (zh) * 2020-01-05 2020-05-22 西安电子科技大学 基于深度特征交叉融合的高光谱图像分类方法
CN111325259A (zh) * 2020-02-14 2020-06-23 武汉大学 一种基于深度学习和二进制编码的遥感图像分类方法
CN111325165A (zh) * 2020-02-26 2020-06-23 中南大学 考虑空间关系信息的城市遥感影像场景分类方法
CN111340124A (zh) * 2020-03-03 2020-06-26 Oppo广东移动通信有限公司 图像中实体类别的识别方法和装置
CN111444865A (zh) * 2020-03-31 2020-07-24 盐城禅图智能科技有限公司 一种基于逐步求精的多尺度目标检测方法
CN111582363B (zh) * 2020-05-06 2023-04-07 西安电子科技大学 一种基于多视点深度特征融合SENet网络的分类方法
CN111582363A (zh) * 2020-05-06 2020-08-25 西安电子科技大学 一种基于多视点深度特征融合SENet网络的分类方法
CN111584073A (zh) * 2020-05-13 2020-08-25 山东大学 基于人工智能融合多模态信息构建肺结节良恶性的多种病理类型的诊断模型
CN111584073B (zh) * 2020-05-13 2023-05-09 山东大学 构建肺结节良恶性的多种病理类型诊断模型的方法
CN111612066A (zh) * 2020-05-21 2020-09-01 成都理工大学 基于深度融合的卷积神经网络的遥感图像分类方法
CN111612066B (zh) * 2020-05-21 2022-03-08 成都理工大学 基于深度融合的卷积神经网络的遥感图像分类方法
CN111683269B (zh) * 2020-06-12 2021-08-17 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备和存储介质
CN111683269A (zh) * 2020-06-12 2020-09-18 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备和存储介质
CN111523521A (zh) * 2020-06-18 2020-08-11 西安电子科技大学 一种双支路融合多尺度注意神经网络的遥感图像分类方法
CN111523521B (zh) * 2020-06-18 2023-04-07 西安电子科技大学 一种双支路融合多尺度注意神经网络的遥感图像分类方法
CN111860293A (zh) * 2020-07-16 2020-10-30 中南民族大学 遥感场景分类方法、装置、终端设备及存储介质
CN111860293B (zh) * 2020-07-16 2023-12-22 中南民族大学 遥感场景分类方法、装置、终端设备及存储介质
CN112001399B (zh) * 2020-09-07 2023-06-09 中国人民解放军国防科技大学 基于局部特征显著化的图像场景分类方法和装置
CN112001399A (zh) * 2020-09-07 2020-11-27 中国人民解放军国防科技大学 基于局部特征显著化的图像场景分类方法和装置
CN112163599B (zh) * 2020-09-08 2023-09-01 北京工商大学 一种基于多尺度多层次融合的图像分类方法
CN112163599A (zh) * 2020-09-08 2021-01-01 北京工商大学 一种基于多尺度多层次融合的图像分类方法
CN112215241A (zh) * 2020-10-20 2021-01-12 西安交通大学 一种基于小样本学习的图像特征提取装置
CN112215241B (zh) * 2020-10-20 2022-04-01 西安交通大学 一种基于小样本学习的图像特征提取装置
CN112287929A (zh) * 2020-10-22 2021-01-29 北京理工大学 基于特征集成深度学习网络的遥感图像显著性分析方法
CN112287881A (zh) * 2020-11-19 2021-01-29 国网湖南省电力有限公司 卫星遥感影像烟雾场景检测方法、系统及计算机存储介质
CN112766083B (zh) * 2020-12-30 2023-10-27 中南民族大学 基于多尺度特征融合的遥感场景分类方法及系统
CN112766083A (zh) * 2020-12-30 2021-05-07 中南民族大学 基于多尺度特征融合的遥感场景分类方法及系统
CN112763215B (zh) * 2021-01-15 2022-04-29 上海海事大学 一种基于模块化联邦深度学习的多工况在线故障诊断方法
CN112763215A (zh) * 2021-01-15 2021-05-07 上海海事大学 一种基于模块化联邦深度学习的多工况在线故障诊断方法
CN112801192B (zh) * 2021-01-26 2024-03-19 北京工业大学 一种基于深度神经网络的扩展LargeVis图像特征降维方法
CN112801192A (zh) * 2021-01-26 2021-05-14 北京工业大学 一种基于深度神经网络的扩展LargeVis图像特征降维方法
CN112836614A (zh) * 2021-01-27 2021-05-25 国网江苏省电力有限公司泰州供电分公司 一种基于残差网络和迁移学习的高分遥感图像分类方法
CN112836614B (zh) * 2021-01-27 2022-07-12 国网江苏省电力有限公司泰州供电分公司 一种基于残差网络和迁移学习的高分遥感图像分类方法
CN113052187B (zh) * 2021-03-23 2022-08-30 电子科技大学 一种基于多尺度特征融合的全局特征对齐目标检测方法
CN113052187A (zh) * 2021-03-23 2021-06-29 电子科技大学 一种基于多尺度特征融合的全局特征对齐目标检测方法
CN113205054A (zh) * 2021-05-10 2021-08-03 江苏硕世生物科技股份有限公司 菌丝显微图像识别方法和系统、设备、可读介质
CN113344030A (zh) * 2021-05-11 2021-09-03 淮阴工学院 一种基于判决相关分析的遥感图像特征融合方法及系统
CN113344030B (zh) * 2021-05-11 2023-11-03 淮阴工学院 一种基于判决相关分析的遥感图像特征融合方法及系统
CN113408594B (zh) * 2021-06-04 2022-04-29 中南民族大学 一种基于注意力网络尺度特征融合的遥感场景分类方法
CN113408594A (zh) * 2021-06-04 2021-09-17 中南民族大学 一种基于注意力网络尺度特征融合的遥感场景分类方法
CN113128527A (zh) * 2021-06-21 2021-07-16 中国人民解放军国防科技大学 基于变换器模型和卷积神经网络的图像场景分类方法
CN113807385A (zh) * 2021-07-09 2021-12-17 西北工业大学 一种基于度量学习的多模型分组融合的遥感图像分类方法
CN113642456B (zh) * 2021-08-11 2023-08-11 福州大学 基于拼图引导的深度特征融合的遥感图像场景分类方法
CN113642456A (zh) * 2021-08-11 2021-11-12 福州大学 一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法
CN113865859A (zh) * 2021-08-25 2021-12-31 西北工业大学 多尺度多源异构信息融合的齿轮箱状态故障诊断方法
CN113865859B (zh) * 2021-08-25 2024-05-14 西北工业大学 多尺度多源异构信息融合的齿轮箱状态故障诊断方法
CN113721276A (zh) * 2021-08-31 2021-11-30 中国人民解放军国防科技大学 基于多颗卫星的目标定位方法、装置、电子设备及介质
CN114882263B (zh) * 2022-05-18 2024-03-08 南京智慧航空研究院有限公司 一种基于cnn图像模式的对流天气相似性识别方法
CN114882263A (zh) * 2022-05-18 2022-08-09 南京智慧航空研究院有限公司 一种基于cnn图像模式的对流天气相似性识别方法
CN115019123B (zh) * 2022-05-20 2023-04-18 中南大学 一种遥感图像场景分类的自蒸馏对比学习方法
CN115019123A (zh) * 2022-05-20 2022-09-06 中南大学 一种遥感图像场景分类的自蒸馏对比学习方法
CN116030358A (zh) * 2022-12-20 2023-04-28 中国科学院空天信息创新研究院 面向星群分布式的参数特征融合的遥感细粒度分类方法
CN116030358B (zh) * 2022-12-20 2023-06-23 中国科学院空天信息创新研究院 面向星群分布式的参数特征融合的遥感细粒度分类方法

Also Published As

Publication number Publication date
CN110555446B (zh) 2023-06-02

Similar Documents

Publication Publication Date Title
CN110555446B (zh) 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法
CN111612066B (zh) 基于深度融合的卷积神经网络的遥感图像分类方法
CN111695467B (zh) 基于超像素样本扩充的空谱全卷积高光谱图像分类方法
WO2021139069A1 (zh) 自适应注意力指导机制的一般性目标检测方法
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
CN107145830B (zh) 基于空间信息增强和深度信念网络的高光谱图像分类方法
CN111310666B (zh) 一种基于纹理特征的高分辨率影像地物识别与分割方法
CN112347888B (zh) 基于双向特征迭代融合的遥感图像场景分类方法
CN109145992A (zh) 协作生成对抗网络和空谱联合的高光谱图像分类方法
CN111738329A (zh) 一种面向时间序列遥感影像的土地利用分类方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
Ren et al. Patch-sorted deep feature learning for high resolution SAR image classification
CN113705580B (zh) 基于深度迁移学习的高光谱图像分类方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN113240040B (zh) 一种基于通道注意力深度网络的极化sar图像分类方法
CN112949414B (zh) 一种宽视域高分六号卫星影像地表水体智能制图方法
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
CN113469119B (zh) 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法
CN115471467A (zh) 一种高分辨率光学遥感影像建筑物变化检测方法
CN111652273A (zh) 一种基于深度学习的rgb-d图像分类方法
CN115527056A (zh) 基于双混合卷积生成对抗网络的高光谱图像分类方法
CN111738052B (zh) 基于深度学习的多特征融合高光谱遥感地物分类方法
CN114842264A (zh) 一种基于多尺度空谱特征联合学习的高光谱图像分类方法
CN115131561A (zh) 基于多尺度特征提取与融合的钾盐浮选泡沫图像分割方法
CN111626267A (zh) 一种利用空洞卷积的高光谱遥感图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant