CN111723675A - 基于多重相似性度量深度学习的遥感图像场景分类方法 - Google Patents
基于多重相似性度量深度学习的遥感图像场景分类方法 Download PDFInfo
- Publication number
- CN111723675A CN111723675A CN202010454398.1A CN202010454398A CN111723675A CN 111723675 A CN111723675 A CN 111723675A CN 202010454398 A CN202010454398 A CN 202010454398A CN 111723675 A CN111723675 A CN 111723675A
- Authority
- CN
- China
- Prior art keywords
- layer
- remote sensing
- sample
- positive
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多重相似性度量深度学习的遥感图像场景分类方法。首先,利用深度卷积网络对遥感图像场景进行分类训练,将最后一个全连接层的输出作为遥感场景图像的特征。其次,引入深度度量学习的知识,提出了一种新的损失函数,在传统交叉熵损失项的基础上,添加了多重相似性损失项。多重相似性损失项通过将提取到的全连接特征映射到度量距离空间,计算并约束输入图像样本之间的度量距离,从而使网络模型更具区别性,能够对遥感场景图像进行更有效的分类。本发明利用卷积神经网络对遥感图像进行特征提取,学习得到的深度特征涵盖信息完整且具有较强的鉴别性,将这些特征与度量学习结合,能达到良好的分类性能。
Description
技术领域
本发明属于图像处理领域,尤其涉及一种基于多重相似性度量深度学习的遥感图像场景分类方法。
背景技术
不同的地物具有不同的电磁波谱特征,实时记录这些地物的光谱以及时间空间特征的图像资料被称为遥感图像。遥感图像分类通常根据图像上不同地物所特有的电磁波谱特性,区分出地物的类别标签。目前遥感图像分类是遥感领域的一个重要的研究方向之一,被广泛用于地质勘测、灾害监测、交通监管以及全球气温变化等多个应用领域。因此,对遥感图像分类的深入研究对未来社会的发展有着重要的应用价值。
提取特征的有效性可以被认为是进行遥感图像分类的核心。传统的特征提取方法主要是手工提取图像的特定特征,例如光谱、颜色、纹理、形状信息等这些代表一个图像的主要浅层特征。尺度不变特征变换(Scale Invariant Feature Transform,SIFT)和局部二值模式(Local Binary Patterns,LBP)就利用了图像的点特征与纹理特征。然而这些手工提取特征的方法难以适应遥感图像具有复杂高层语义、多种抽象特征组合的情况。因此,研究人员把研究目光放在了可以自动提取更加抽象和更有识别力的高层语义特征的深度学习方法中。
深度学习是具有多层非线性结构的一种机器学习的方法,以深层神经网络为主要架构。而卷积神经网络因为权重共享,池化等操作,对平移、旋转、缩放、扭曲等操作具有一定的稳定性,使得模型具有更强的可训练性和鲁棒性,被许多国内外研究学者应用于遥感图像分类领域中。
公开号CN109829519A一种基于自适应空间信息的遥感图像分类方法及系统,首先采用基于马尔可夫随机场的模糊C均值算法对遥感图像进行初始分类,得到初始模糊隶属度矩阵。然后利用空间引力模型,计算当前迭代次数遥感图像中当前中心像元与每个邻域像元之间的空间吸引力。再采用Sobel算子对遥感图像进行边缘检测,得到空间结构特征。依据空间结构特征,采用梯度倒数平滑法计算当前中心像元的边缘系数。最后依据空间吸引力和边缘系数构建自适应权重的马尔可夫随机场,将自适应权重的马尔可夫随机场与模糊C均值算法结合,确认分类结果。该方法虽然有效地提高了分类的精度,但是引入了过多的人为操作,依靠不同的算法提取不同的低层特征,特征包含的语义信息不全面,算法复杂并且低效。
公开号CN109872331A一种基于深度学习的遥感图像数据自动识别方法。该方法利用色彩迁移、高斯滤波、非极大值抑制边缘无用响应、双阈值检测有用边缘等多个预处理增强数据,最后通过将处理过的边缘细节信息作为一个重要信息加入到深度学习网络之中提高识别分类的性能。该方法有效克服了神经网络由于遥感图像明暗拍摄角度不同造成的准确率不高的问题,但是仅仅关注于图像分割不足以克服遥感图像复杂的地物特征问题。
Gong Cheng等人在2018年IEEE上发表论文When Deep Learning Meets MetricLearning:Remote Sensing Image Scene Classification via LearningDiscriminative CNNs,该文献引入对比损失,结合卷积神经网络进行图像分类。但是考虑到对比损失基于采样的单一的样本对,没有考虑整体样本与局部样本的关系,同时还采用固定的阈值,对于多分类问题有一定的局限性。
综上,现有的遥感图像场景分类方法,存在的诸多局限性主要表现在:
(1)特征提取复杂且低效:传统的分类方法需要借助不同的图像特征提取算法,提取图像的各种类型的特征,过程繁琐复杂。同时这些分类算法一般只具有浅层的结构,学习到的表达特征不能全面涵盖遥感图像信息,存在冗余信息,其分类性能和泛化能力都明显不足;
(2)训练网络优化损失单一:现有的遥感图像场景分类方法通常仅仅依靠交叉熵损失来优化权重参数,当场景图像过于复杂、类别较多时,交叉熵损失不能全面表达不同类间的差异性,由此弱化了分类的性能。
(3)现有的度量学习的基本方法多采用单一的相似性,没有考虑局部和整体的关系,专注于局部的采样样本;同时对于包含不同信息量样本对之间加权的方法多采用固定的权重值,即硬加权方法,缺少灵活性。
发明内容
发明目的:针对现有技术中存在的问题,本发明提供一种基于多重相似性度量深度学习的遥感图像场景分类方法。该方法可以避免传统复杂且低效的手工特征提取过程、单一损失等问题,增强模型的灵活性和类间的区别性,增加分类的准确性。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:一种基于多重相似性度量深度学习的遥感图像场景分类方法,包含训练阶段和测试阶段,具体步骤如下:
(1)构建遥感图像数据集,制作每个输入样本对应的标签类别,同时随机打乱数据集,将每类遥感场景图像数据集分为训练集Train和测试集Test;
(2)选择搭建合适的八层卷积神经网络,使用训练集对卷积神经网络进行训练;
(3)将训练集输入到步骤(2)中的卷积神经网络中得到每张图像的高层特征向量;
(4)将步骤(3)中高层特征向量映射到度量距离空间,计算改变度量距离空间中图像之间的特征距离,构造多重相似性损失项;
(5)将步骤(4)中的多重相似性损失项和交叉熵损失项结合,构成新的损失函数;
(6)利用梯度下降算法优化步骤(5)中的损失函数,进行卷积神经网络的训练;
(7)将测试集输入到步骤(6)中的训练好的卷积神经网络,得到每张图像的分类预测标签。
其中,步骤(1)中的,构建样本集合和集合分类方法如下:
(1.1)构建X={xi|i=1,2,...,N}为输入的遥感图像数据样本,Y={yi|i=1,2,...,N}为输入的遥感图像数据样本对应的类别标签集合,yi∈Rc表示标签向量,C为总的标签类别,N为总的训练样本数量;
(1.2)将每类数据集分为训练集部分Train和测试集部分,假设数据集中每个类别的图片数量为n,从每个类别的遥感图像中随机抽取m张图片构建训练集剩下的n-m张图片构成测试集下标i表示图片属于哪一类别,下标j表示图片的数目排序。
其中,步骤(2)中的,卷积神经网络结构如下:
(2.1)在输入层中,将每一个遥感场景图像归一化为227×227×3大小的RGB三通道图像;
(2.2)在第一层的卷积层中,定义96个尺寸为11×11×3的卷积核,设定步长为4,不扩充边缘;在layer1的池化层,池化方法设为MAX pooling;
(2.3)在第二层layer2的卷积层中,定义256个尺寸为5×5×48的卷积核,步长定为1,填充值为2;在layer2的池化层,池化方法设为MAX pooling;
(2.4)在第三层的卷积层中,定义384个尺寸为3×3×256的卷积核,步长定为1;
(2.5)在第四层的卷积层中,定义384个尺寸为3×3×192的卷积核,步长定为1;
(2.6)在第五层的卷积层中,定义256个尺寸为3×3×128的卷积核,步长定为1;在layer5的池化层,池化方法设为MAX pooling;
(2.7)第六层为全连接层;
(2.8)第七层为全连接层;
(2.9)第八层为softmax分类层。
其中,步骤(3)中的,高层特征向量计算方法如下:
(3.1)设定整体网络模型为L+1层,L=7,最后一层为softmax分类层,定义W={Wi|i=1,2,...,L+1}为每一层权重,B={Bi|i=1,2,...,L+1}为每一层的偏置,O={Oi|i=1,2,...,L+1}为每一层的输出,xi为输入的第i个图像样本,则网络模型每一层输出如下所示:
OL+1=fL+1(WL+1*OL(xi)+BL+1)
Oj=fj(Wj*Oj-1(xi)+Bj),j=2,3,...,L
O1=xi
其中,*表示卷积运算,fj表示第j层的激励函数ReLu函数,fL+1表示最后softmax层的函数运算;
(3.2)把样本输入到卷积神经网络中,通过前向传播算法计算出O7的值,即fc7层的特征向量features_fc7。
其中,步骤(4)将特征向量映射到度量距离空间,计算改变度量距离空间中图像之间的特征距离,构造多重相似性损失项的方法如下:
(4.1)第一个阶段是采样阶段,设定相同类别的两个样本称之为正样本对,不同类别的两个样本称之为负样本对;
首先,假设xi是输入的一个样本,定义f(xi)是样本xi经过卷积神经网络得到的最后一层全连接层的特征向量,即features_fc7,f(xi)=[a1,a2,...,ad],d表示fc7层的输出维度,然后再选择另一个样本xj,得到f(xj)=[b1,b2,...,bd],定义相似度矩阵Dij表示这一样本对{xi,xj}的特征距离,即自身相似度,<>代表点积操作:
Dij=<f(xi),f(xj)>
=a1b1+a2b2+...+adbd
设置一个批次中样本数目为m,遍历当前批次的所有样本,根据样本对是正样本对还是负样本对,分别得到正样本对相似度矩阵集合S+和负样本对相似度矩阵集合S-
S+={Dij|i=1,2,...,mj=1,2,...,m,i≠j,xi与xj属于同类}
S-={Dij|i=1,2,...,mj=1,2,...,m,i≠j,xi与xj不属于同类}
然后,设定σ代表阈值,遍历正样本对相似度矩阵集合S+中元素,当元素Dij小于负样本对相似度矩阵集合S-的最大值加上阈值σ之和时,当前元素Dij代表的正样本对就会被选中,设定正选择集合C+来表示这些被选中的正样本对,maxS-代表集合S-的最大值,批次中样本数目为m:
Dij<max S-+σ
C+={Dij|i=1,2,...,m,j=1,2,...,m,i≠j,Dij<max S-+σ}
遍历负样本对相似度矩阵集合S+中元素,当元素Dij大于正样本对相似度矩阵集合S+的最小值减去阈值σ之差时,当前元素Dij代表的负样本对就会被选中,设定负选择集合C-来表示这些被选中的负样本对,min S+代表集合S+中的最小值,批次中样本数目为m:
Dij>min S+-σ
C-={Dij|i=1,2,...,m,j=1,2,...,m,i≠j,Dij>min S+-σ}
(4.2)第二阶段为加权阶段,根据采样阶段得到的正负选择集合C+和C-,考虑两个集合元素之间的相对相似度进行加权操作;
首先,遍历正选择集合C+,设定元素Dij对应的正样本对权重为wij +,α+为参数常量,λ为阈值:
由此得到需要的多重相似性损失项LMS。
其中,步骤(5)中,将多重相似性损失项和交叉熵损失项结合,构成新的损失函数方法如下:
设定pi为第i个样本的预测标签值,m表示这一批次中的图片样本数量,yi表示训练样本的真实标签,LMS代表多重相似性损失项,C+和C-代表正负选择集合,Dij代表正负选择集合中的元素,α+,α-为参数常量,λ为阈值,<>代表点积操作,总的损失函数L为
由此得到了总的损失函数L。
其中,步骤(6)中,进行卷积神经网络训练方法如下:
当损失函数的值收敛时,模型完成训练。
其中,步骤(7)中,利用训练好的卷积神经网络直接进行分类识别,得到图像的预测标签值,结果为0-N之间的正整数。
有益效果:本发明采用上述技术方案,具有以下有益效果:
(1)本发明的方法直接将原始遥感场景图像输入到深度卷积神经网络中,进行特征的自动学习,避免了对图像的复杂前期预处理和不同种类特征提取过程,减少了人为的干预过程,提取的特征具有更加丰富的语义性,涵盖了更多的图像信息,算法简单并且高效;
(2)引入了度量学习损失项,在考虑单一图像本身的高层语义特征预测标签与真实标签交差熵损失上,加入了不同图像样本之间的差异信息作为新的损失项,避免了对高层特征的过度依赖性,进一步加强算法的鲁棒性;
(3)采用多重相似性作为度量学习损失项,综合考虑了三种相似性,依次为自相似性、正相对相似性和负相对相似性,考虑了局部和整体的关系。同时采用软加权的方法,通过对总体相似度不同的样本对赋予不同的权重,加强了算法的灵活性,提高了分类性能。
附图说明
图1为本发明实施例的框架图。
图2为本发明算法实现具体结构图。
图3为AlexNet网络模型算法混淆矩阵图。
图4为本发明提出算法的混淆矩阵图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
如图1所示,本发明的技术方案进一步的详细描述如下:
(1)采用深度卷积神经网络对遥感场景图像进行训练,在传统的交叉熵损失的基础上添加了一个多重相似度损失构成了新的损失函数。多重相似性损失项通过将提取到的全连接特征映射到度量距离空间,计算并约束输入图像样本之间的度量距离,从而使网络模型更具区别性,能够对遥感场景图像进行有效的分类。
(1.1)构建X={xi|i=1,2,...,N}为输入的遥感图像数据样本,Y={yi|i=1,2,...,N}为输入的遥感图像数据样本对应的类别标签集合,yi∈Rc表示标签向量,C为总的标签类别,N为总的训练样本数量。本发明选用遥感场景图像公共数据集UCMerced_LandUse进行实验,该数据集包含21类遥感场景图像。
(1.2)将每类数据集分为训练集部分Train和测试集部分Test。假设数据集中每个类别的图片数量为n,从每个类别的遥感图像中随机抽取m张图片构建训练集剩下的n-m张图片构成测试集下标i表示图片属于哪一类别,下标j表示图片的数目排序。在本发明中取n=100,m=80。
(1.3)搭建一个八层的卷积神经网络,其中,前五层分别用layer1,layer2,layer3,layer4,layer5表示。layer1,layer2,和layer5又分别包括卷积层和池化层;layer3和layer4分别只有一个卷积层;第六层和第七层称为全连接层,分别用fc6、fc7表示,最后一层为softmax分类层,用fc8表示。
每层具体参数如下:
(a)在输入层中,将每一个遥感场景图像归一化为227×227×3大小的RGB三通道图像;
(b)在第一层layer1的卷积层中,定义96个尺寸为11×11×3的卷积核,设定步长为4,不扩充边缘;在layer1的池化层,池化方法设为MAX pooling;
(c)在第二层layer2的卷积层中,定义256个尺寸为5×5×48的卷积核,步长定为1,填充值为2;在layer2的池化层,池化方法设为MAX pooling;
(d)在第三层layer3的卷积层中,定义384个尺寸为3×3×256的卷积核,步长定为1;
(e)在第四层layer4的卷积层中,定义384个尺寸为3×3×192的卷积核,步长定为1;
(f)在第五层layer5的卷积层中,定义256个尺寸为3×3×128的卷积核,步长定为1;在layer5的池化层,池化方法设为MAX pooling;
(g)第六层fc6为全连接层;
(h)第七层fc7为全连接层;
(i)第八层fc8为softmax分类层。
在layer1、layer2、layer5层中所提到的池化的实质是采样操作,池化的目的是为了压缩特征图,一方面池化可以减少网络的参数,从而达到减小计算量的作用;另一方面池化层能够使训练得到的特征具有一定程度上的旋转不变性,增强模型的鲁棒性。池化层通常会放在卷积层的后面,对上一层得到的特征图进行独立的池化操作。全连接层能够把分布式特征结合映射为全局特征,即隐层特征空间映射到样本标记空间,是下一步分类层预测分类结果的基石。实际使用中可由卷积操作实现。
(1.4)将每类遥感场景图像训练集Train中的图像输入到上述构建的卷积神经网络中,对网络进行训练。训练一个卷积神经网络,实际意义上是在训练该网络每一个卷积层的卷积核,使这些卷积核能检测到图像中的各层特征,从而达到训练整个网络的目的。
在卷积神经网络的训练过程中,通常将其分为两个阶段。阶段一是前向传播阶段,在初始化各项参数权重后,输入的图像数据通过卷积层、池化层和全连接层的计算,由低层向高层进行传播,最后经过softmax分类层,得到预测的标签值。阶段二是反向传播阶段,把得到的预测标签值与实际标签进行误差计算,将误差从高层到低层进行反向传播,更新各项参数权重,通过这种方式来达到最小化误差的目的。
(1.5)基于前向传播算法依次得到卷积神经网络学习的各层特征,最后提取出fc7层特征。
(1.5.1)设定整体网络模型为L+1层,包括了卷积神经网络和最后一层softmax分类层,这里L=8,定义W={Wi|i=1,2,...,L+1}为每一层权重,B={Bi|i=1,2,...,L+1}为每一层的偏置,O={Oi|i=1,2,...,L+1}为每一层的输出,xi为输入的第i个图像样本,则网络模型每一层输出如下所示:
OL+1=fL+1(WL+1*OL(xi)+BL+1)
Oj=fj(Wj*Oj-1(xi)+Bj),j=2,3,...,L
O1=xi
其中*表示卷积运算,fj表示第j层的激励函数ReLu函数,fL+1表示最后softmax层的函数运算。
(1.5.2)把样本输入到卷积神经网络中,按照前向传播算法得到需要的fc7层的特征向量features_fc7。
(2)将高层特征向量映射到度量距离空间,计算改变度量距离空间中图像之间的特征距离,构造多重相似性损失项,将多重相似性损失项和交叉熵损失项结合,构成新的损失函数。
不同的损失函数可以被表示成用特定的力度来增大或缩短样本间的特征距离,而这个特定的力度可以用加权值来表示。例如在对比损失中,每一个成对样本对就都被赋予固定的权值来改变特征距离,即平均增大或缩短所有数据样本。然而不同的样本对往往不能一概而论,当出现包含丰富信息或者学习难度较大的样本对时,通常需要赋予较大的权重来增大学习的力度。因此,如何给不同的样本对设计特定的加权权重,成为度量学习中基于样本对损失函数的核心所在。
通常样本对的局部分布是给样本对加权的衡量标准。但是仅仅依靠单个样本对自身的特征距离和相似性来断定局部样本对的分布是片面的,还应当考虑当前选择的样本对和周围临近样本对的特征距离和它们之间的相似性关系。
本方法引入多重相似性的概念。多重相似性可以将其细分为三个部分,分别是自相似度、正相对相似度和负相对相似度。
(2.1)第一个阶段是采样阶段,设定相同类别的两个样本称之为正样本对,不同类别的两个样本称之为负样本对;
首先,假设xi是输入的一个样本,定义f(xi)是样本xi经过卷积神经网络得到的最后一层全连接层的特征向量,即features_fc7,f(xi)=[a1,a2,...,ad],d表示fc7层的输出维度,然后再选择另一个样本xj,得到f(xj)=[b1,b2,...,bd],定义相似度矩阵Dij表示这一样本对{xi,xj}的特征距离,即自身相似度,< >代表点积操作:
Dij=<f(xi),f(xj)>
=a1b1+a2b2+...+adbd
设置一个批次中样本数目为m,遍历当前批次的所有样本,根据样本对是正样本对还是负样本对,分别得到正样本对相似度矩阵集合S+和负样本对相似度矩阵集合S-
S+={Dij|i=1,2,...,mj=1,2,...,m,i≠j,xi与xj属于同类}
S-={Dij|i=1,2,...,mj=1,2,...,m,i≠j,xi与xj不属于同类}
然后,设定σ代表阈值,遍历正样本对相似度矩阵集合S+中元素,当元素Dij小于负样本对相似度矩阵集合S-的最大值加上阈值σ之和时,当前元素Dij代表的正样本对就会被选中,设定正选择集合C+来表示这些被选中的正样本对,max S-代表集合S-的最大值,批次中样本数目为m:
Dij<max S-+σ
C+={Dij|i=1,2,...,m,j=1,2,...,m,i≠j,Dij<max S-+σ}
遍历负样本对相似度矩阵集合S+中元素,当元素Dij大于正样本对相似度矩阵集合S+的最小值减去阈值σ之差时,当前元素Dij代表的负样本对就会被选中,设定负选择集合C-来表示这些被选中的负样本对,min S+代表集合S+中的最小值,批次中样本数目为m:
Dij>min S+-σ
C-={Dij|i=1,2,...,m,j=1,2,...,m,i≠j,Dij>min S+-σ}
(2.2)第二阶段为加权阶段,根据采样阶段得到的正负选择集合C+和C-,考虑两个集合元素之间的相对相似度进行加权操作;
首先,遍历正选择集合C+,设定元素Dij对应的正样本对权重为wij +,α+为参数常量,λ为阈值:
(2.3)将多重相似性损失项和交叉熵损失项结合,构成新的损失函数,设定pi为第i个样本的预测标签值,m表示这一批次中的图片样本数量,yi表示训练样本的真实标签,LMS代表多重相似性损失项,C+和C-代表正负选择集合,Dij代表正负选择集合中的元素,α+,α-为参数常量,λ为阈值,< >代表点积操作,总的损失函数L为
当损失函数的值收敛时,模型完成训练。
(3)当损失函数达到收敛,卷积神经网络和分类器完成训练后,对测试图像进行分类。将测试集Test中的图像输入到训练好的神经网络模型中,每一幅测试图像都会得到一个预测标签值。将测试集中所有图像的预测值和它们的真实标签值相比,即可得到整个测试集的识别准确率。
本发明选用现有的AlexNet网络模型遥感图像场景分类方法与提出的方法进行比较,
表1是二种方法在遥感场景图像公共数据集UCMerced_LandUse上的三种性能指标比较。结果表明,本发明提出的方法对遥感图像场景分类效果最好。
表1二种方法分类准确率比较
指标 | AlexNet网络模型算法 | 本发明提出算法 |
Accuracy | 78.33% | 83.81% |
Error | 22.67% | 16.19% |
Kappa系数 | 77.25% | 83.00% |
Claims (8)
1.一种基于多重相似性度量深度学习的遥感图像场景分类方法,包含训练阶段和测试阶段,其特征在于,该方法包括如下步骤:
(1)构建遥感图像数据集,制作每个输入样本对应的标签类别,同时随机打乱数据集,将每类遥感场景图像数据集分为训练集Train和测试集Test;
(2)选择搭建合适的八层卷积神经网络,使用训练集对卷积神经网络进行训练;
(3)将训练集输入到步骤(2)中的卷积神经网络中得到每张图像的高层特征向量;
(4)将步骤(3)中高层特征向量映射到度量距离空间,计算改变度量距离空间中图像之间的特征距离,构造多重相似性损失项;
(5)将步骤(4)中的多重相似性损失项和交叉熵损失项结合,构成新的损失函数;
(6)利用梯度下降算法优化步骤(5)中的损失函数,进行卷积神经网络的训练;
(7)将测试集输入到步骤(6)中的训练好的卷积神经网络,得到每张图像的分类预测标签。
3.根据权利要求1的一种基于多重相似性度量深度学习的遥感图像场景分类方法,其特征在于,步骤(2)中的,卷积神经网络结构如下:
(2.1)在输入层中,将每一个遥感场景图像归一化为227×227×3大小的RGB三通道图像;
(2.2)在第一层的卷积层中,定义96个尺寸为11×11×3的卷积核,设定步长为4,不扩充边缘;在layer1的池化层,池化方法设为MAX pooling;
(2.3)在第二层layer2的卷积层中,定义256个尺寸为5×5×48的卷积核,步长定为1,填充值为2;在layer2的池化层,池化方法设为MAX pooling;
(2.4)在第三层的卷积层中,定义384个尺寸为3×3×256的卷积核,步长定为1;
(2.5)在第四层的卷积层中,定义384个尺寸为3×3×192的卷积核,步长定为1;
(2.6)在第五层的卷积层中,定义256个尺寸为3×3×128的卷积核,步长定为1;在layer5的池化层,池化方法设为MAX pooling;
(2.7)第六层为全连接层;
(2.8)第七层为全连接层;
(2.9)第八层为softmax分类层。
4.根据权利要求1的一种基于多重相似性度量深度学习的遥感图像场景分类方法,其特征在于,步骤(3)中的,高层特征向量计算方法如下:
(3.1)设定整体网络模型为L+1层,L=7,最后一层为softmax分类层,定义W={Wi|i=1,2,...,L+1}为每一层权重,B={Bi|i=1,2,...,L+1}为每一层的偏置,O={Oi|i=1,2,...,L+1}为每一层的输出,xi为输入的第i个图像样本,则网络模型每一层输出如下所示:
OL+1=fL+1(WL+1*OL(xi)+BL+1)
Oj=fj(Wj*Oj-1(xi)+Bj),j=2,3,...,L
O1=xi
其中,*表示卷积运算,fj表示第j层的激励函数ReLu函数,fL+1表示最后softmax层的函数运算;
(3.2)把样本输入到卷积神经网络中,通过前向传播算法计算出O7的值,即fc7层的特征向量features_fc7。
5.根据权利要求1的一种基于多重相似性度量深度学习的遥感图像场景分类方法,其特征在于,步骤(4)将特征向量映射到度量距离空间,计算改变度量距离空间中图像之间的特征距离,构造多重相似性损失项的方法如下:
(4.1)第一个阶段是采样阶段,设定相同类别的两个样本为正样本对,不同类别的两个样本为负样本对;
首先,假设xi是输入的一个样本,定义f(xi)是样本xi经过卷积神经网络得到的最后一层全连接层的特征向量,即features_fc7,f(xi)=[a1,a2,...,ad],d表示fc7层的输出维度,然后再选择另一个样本xj,得到f(xj)=[b1,b2,...,bd],定义相似度矩阵Dij表示这一样本对{xi,xj}的特征距离,即自身相似度,〈〉代表点积操作:
Dij=〈f(xi),f(xj)〉
=a1b1+a2b2+...+adbd
设置一个批次中样本数目为m,遍历当前批次的所有样本,根据样本对是正样本对还是负样本对,分别得到正样本对相似度矩阵集合S+和负样本对相似度矩阵集合S-:
S+={Dij|i=1,2,...,mj=1,2,...,m,i≠j,xi与xj属于同类}
S-={Dij|i=1,2,...,mj=1,2,...,m,i≠j,xi与xj不属于同类}
然后,设定σ代表阈值,遍历正样本对相似度矩阵集合S+中元素,当元素Dij小于负样本对相似度矩阵集合S-的最大值加上阈值σ之和时,当前元素Dij代表的正样本对就会被选中,设定正选择集合C+来表示这些被选中的正样本对,max S-代表集合S-的最大值,批次中样本数目为m:
Dij<max S-+σ
C+={Dij|i=1,2,...,m,j=1,2,...,m,i≠j,Dij<max S-+σ}
遍历负样本对相似度矩阵集合S+中元素,当元素Dij大于正样本对相似度矩阵集合S+的最小值减去阈值σ之差时,当前元素Dij代表的负样本对就会被选中,设定负选择集合C-来表示这些被选中的负样本对,min S+代表集合S+中的最小值,批次中样本数目为m:
Dij>min S+-σ
C-={Dij|i=1,2,...,m,j=1,2,...,m,i≠j,Dij>min S+-σ}
(4.2)第二阶段为加权阶段,根据采样阶段得到的正负选择集合C+和C-,考虑两个集合元素之间的相对相似度进行加权操作;
由此得到需要的多重相似性损失项LMS。
8.根据权利要求1的一种基于多重相似性度量深度学习的遥感图像场景分类方法,其特征在于,步骤(7)中,利用训练好的卷积神经网络直接进行分类识别,得到图像的预测标签值,结果为0-N之间的正整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010454398.1A CN111723675B (zh) | 2020-05-26 | 2020-05-26 | 基于多重相似性度量深度学习的遥感图像场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010454398.1A CN111723675B (zh) | 2020-05-26 | 2020-05-26 | 基于多重相似性度量深度学习的遥感图像场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111723675A true CN111723675A (zh) | 2020-09-29 |
CN111723675B CN111723675B (zh) | 2022-08-16 |
Family
ID=72565163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010454398.1A Active CN111723675B (zh) | 2020-05-26 | 2020-05-26 | 基于多重相似性度量深度学习的遥感图像场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723675B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112288013A (zh) * | 2020-10-30 | 2021-01-29 | 中南大学 | 基于元度量学习的小样本遥感场景分类方法 |
CN112329852A (zh) * | 2020-11-05 | 2021-02-05 | 西安泽塔云科技股份有限公司 | 地表覆盖影像的分类方法、装置和电子设备 |
CN112447188A (zh) * | 2020-11-18 | 2021-03-05 | 中国人民解放军陆军工程大学 | 一种基于改进softmax函数的声学场景分类方法 |
CN112836719A (zh) * | 2020-12-11 | 2021-05-25 | 南京富岛信息工程有限公司 | 一种融合二分类和三元组的示功图相似性检测方法 |
CN113160219A (zh) * | 2021-05-12 | 2021-07-23 | 北京交通大学 | 用于无人机遥感图像的实时铁路场景解析方法 |
CN113268826A (zh) * | 2021-05-06 | 2021-08-17 | 上海大学 | 一种改进多任务卷积神经网络的斜齿轮箱故障诊断方法 |
CN113297942A (zh) * | 2021-05-18 | 2021-08-24 | 合肥工业大学 | 基于分层压缩激励网络的户外多种场景快速分类识别方法 |
CN113628104A (zh) * | 2021-08-30 | 2021-11-09 | 中国人民解放军国防科技大学 | 针对无序图像增量式SfM的初始图像对选取方法 |
CN113723455A (zh) * | 2021-07-28 | 2021-11-30 | 南京邮电大学 | 一种基于度量学习的强引力透镜系统分类方法及装置 |
CN114972959A (zh) * | 2022-07-28 | 2022-08-30 | 吉林大学 | 深度学习中样本生成和类内排序损失的遥感图像检索方法 |
CN114998960A (zh) * | 2022-05-28 | 2022-09-02 | 华南理工大学 | 一种基于正负样本对比学习的表情识别方法 |
CN115063843A (zh) * | 2022-05-20 | 2022-09-16 | 华南理工大学 | 面向高自由度应用场景的掌脉数据增强及特征提取方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9892344B1 (en) * | 2015-11-30 | 2018-02-13 | A9.Com, Inc. | Activation layers for deep learning networks |
CN110321859A (zh) * | 2019-07-09 | 2019-10-11 | 中国矿业大学 | 一种基于深度孪生胶囊网络的光学遥感场景分类方法 |
-
2020
- 2020-05-26 CN CN202010454398.1A patent/CN111723675B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9892344B1 (en) * | 2015-11-30 | 2018-02-13 | A9.Com, Inc. | Activation layers for deep learning networks |
CN110321859A (zh) * | 2019-07-09 | 2019-10-11 | 中国矿业大学 | 一种基于深度孪生胶囊网络的光学遥感场景分类方法 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112288013A (zh) * | 2020-10-30 | 2021-01-29 | 中南大学 | 基于元度量学习的小样本遥感场景分类方法 |
CN112329852A (zh) * | 2020-11-05 | 2021-02-05 | 西安泽塔云科技股份有限公司 | 地表覆盖影像的分类方法、装置和电子设备 |
CN112447188A (zh) * | 2020-11-18 | 2021-03-05 | 中国人民解放军陆军工程大学 | 一种基于改进softmax函数的声学场景分类方法 |
CN112447188B (zh) * | 2020-11-18 | 2023-10-20 | 中国人民解放军陆军工程大学 | 一种基于改进softmax函数的声学场景分类方法 |
CN112836719A (zh) * | 2020-12-11 | 2021-05-25 | 南京富岛信息工程有限公司 | 一种融合二分类和三元组的示功图相似性检测方法 |
CN112836719B (zh) * | 2020-12-11 | 2024-01-05 | 南京富岛信息工程有限公司 | 一种融合二分类和三元组的示功图相似性检测方法 |
CN113268826A (zh) * | 2021-05-06 | 2021-08-17 | 上海大学 | 一种改进多任务卷积神经网络的斜齿轮箱故障诊断方法 |
CN113160219A (zh) * | 2021-05-12 | 2021-07-23 | 北京交通大学 | 用于无人机遥感图像的实时铁路场景解析方法 |
CN113160219B (zh) * | 2021-05-12 | 2023-02-07 | 北京交通大学 | 用于无人机遥感图像的实时铁路场景解析方法 |
CN113297942B (zh) * | 2021-05-18 | 2022-09-27 | 合肥工业大学 | 基于分层压缩激励网络的户外多种场景快速分类识别方法 |
CN113297942A (zh) * | 2021-05-18 | 2021-08-24 | 合肥工业大学 | 基于分层压缩激励网络的户外多种场景快速分类识别方法 |
CN113723455A (zh) * | 2021-07-28 | 2021-11-30 | 南京邮电大学 | 一种基于度量学习的强引力透镜系统分类方法及装置 |
CN113723455B (zh) * | 2021-07-28 | 2023-10-13 | 南京邮电大学 | 一种基于度量学习的强引力透镜系统分类方法及装置 |
CN113628104A (zh) * | 2021-08-30 | 2021-11-09 | 中国人民解放军国防科技大学 | 针对无序图像增量式SfM的初始图像对选取方法 |
CN115063843A (zh) * | 2022-05-20 | 2022-09-16 | 华南理工大学 | 面向高自由度应用场景的掌脉数据增强及特征提取方法 |
CN115063843B (zh) * | 2022-05-20 | 2024-03-29 | 华南理工大学 | 面向高自由度应用场景的掌脉数据增强及特征提取方法 |
CN114998960A (zh) * | 2022-05-28 | 2022-09-02 | 华南理工大学 | 一种基于正负样本对比学习的表情识别方法 |
CN114998960B (zh) * | 2022-05-28 | 2024-03-26 | 华南理工大学 | 一种基于正负样本对比学习的表情识别方法 |
CN114972959A (zh) * | 2022-07-28 | 2022-08-30 | 吉林大学 | 深度学习中样本生成和类内排序损失的遥感图像检索方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111723675B (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723675B (zh) | 基于多重相似性度量深度学习的遥感图像场景分类方法 | |
CN110717526B (zh) | 一种基于图卷积网络的无监督迁移学习方法 | |
CN108682017B (zh) | 基于Node2Vec算法的超像素图像边缘检测方法 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
CN110321830B (zh) | 一种基于神经网络的中文字符串图片ocr识别方法 | |
CN107679250A (zh) | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 | |
CN112883839B (zh) | 基于自适应样本集构造与深度学习的遥感影像解译方法 | |
CN110097060B (zh) | 一种面向树干图像的开集识别方法 | |
CN112347970B (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN108052966A (zh) | 基于卷积神经网络的遥感图像场景自动提取和分类方法 | |
CN110188763B (zh) | 一种基于改进图模型的图像显著性检测方法 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
CN109034035A (zh) | 基于显著性检测和特征融合的行人重识别方法 | |
CN113988147B (zh) | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 | |
CN111815582B (zh) | 改进背景先验和前景先验的二维码区域检测方法 | |
CN113920472A (zh) | 一种基于注意力机制的无监督目标重识别方法及系统 | |
CN114170418A (zh) | 一种以图搜图的汽车线束连接器多特征融合图像检索方法 | |
CN111091129A (zh) | 一种基于多重颜色特征流形排序的图像显著区域提取方法 | |
CN108985346B (zh) | 融合低层图像特征及cnn特征的现勘图像检索方法 | |
CN113378620A (zh) | 监控视频噪声环境下跨摄像头行人重识别方法 | |
CN105844299B (zh) | 一种基于词袋模型的图像分类方法 | |
CN112200093B (zh) | 一种基于不确定性估计的行人再识别方法 | |
CN111291785A (zh) | 目标检测的方法、装置、设备及存储介质 | |
CN115393631A (zh) | 基于贝叶斯层图卷积神经网络的高光谱图像分类方法 | |
CN114782761A (zh) | 基于深度学习的智能仓储物料识别方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |