CN109726748A - 一种基于频带特征融合的gl-cnn遥感图像场景分类方法 - Google Patents
一种基于频带特征融合的gl-cnn遥感图像场景分类方法 Download PDFInfo
- Publication number
- CN109726748A CN109726748A CN201811571333.4A CN201811571333A CN109726748A CN 109726748 A CN109726748 A CN 109726748A CN 201811571333 A CN201811571333 A CN 201811571333A CN 109726748 A CN109726748 A CN 109726748A
- Authority
- CN
- China
- Prior art keywords
- band
- frequency sub
- frequency
- feature
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于频带特征融合的GL‑CNN遥感图像场景分类方法,方法实施步骤包括:对原图像进行非下采样小波变换提取出图像的高频子带、低频子带;将原图像的高频子带、原图像进行频带特征融合得到融合高频子带;采用频谱分析的方法分析原图像的低频子带、融合高频子带构成的样本图像的高低频分量,然后联合频谱角向能量分布曲线的平稳区间分析实现融合高频子带与低频子带的样本融合;最后指导卷积神经网络自动提取图像的高低频子带包含的高层特征来实现场景分类。本发明能够克服原高频子带训练产生的过拟合,能够使网络有针对性的学习图像的高低频特征,在场景分类中有明显的优势。
Description
技术领域
本发明涉及遥感图像场景分类技术,具体涉及一种基于频带特征融合的GL-CNN遥感图像场景分类方法。
背景技术
随着卫星技术的蓬勃发展,遥感卫星获取的卫星图像分辨率越来越高,标志着遥感领域已经进入了高分辨率时代。高分辨率遥感影像具有的空间与纹理特征也越来越丰富,而在这些特征中包含了大量的场景语义信息。对场景信息的分类是语义分割和目标识别过程的分类基础,提高场景分类的准确率能使目标识别和语义分割有所突破,但由于图像的场景构成十分复杂,一类场景中包含了多类目标,如何准确的学习每类样本的主要特征成为极具挑战的课题,已引起了遥感学术界的广泛关注。
现有的图像场景分类方法,大致可以分为两类:(1)Oliva A,Torralba A.等人的《场景形状建模:空间包络的一个整体表达[J]》,国际计算机视觉杂志,2001,42(3):145-175(《Modeling the Shape of the Scene:A Holistic Representation of the SpatialEnvelope》([J].International Journal of Computer Vision,2001,42(3):145-175.)采用基于低层次特征的Gist方法。(2)Sivic J,Zisserman A.等人的《视频谷歌:一个视频中目标匹配的文本检索方法》,第九届IEEE国际计算机视觉会议,法国尼斯,2003,2:1470-1477(《Video Google:A Text Retrieval Approach to Object Matching in Videos》,[C]Proceedingsof the Ninth IEEE International Conference on ComputerVision.Nice,France:IEEE,2003,2:1470-1477.)采用基于中层语义特征建模的视觉词袋模型(BoVM)方法。但是中、低层人工特征不能很好地利用高分辨率卫星遥感图像丰富的场景信息。探究能够表达遥感图像高层次抽象特征的分类方法成为该领域的研究热点。而深度学习的出现有效地解决了这一问题,深度学习使用卷积神经网络能够提取图像的高层次特征,更好地表达遥感图像。
目前深度学习领域主要采用三种方法来进行场景分类:(1)例如M.Castelluccio,G.Poggi,C.Sansone,et al.Verdoliva.等人发表的《利用卷积神经网络进行遥感图像中的陆地利用分类》(《Landuse classification in remote sensing images byconvolutional neuralnetworks》(arXiv:1508.00092,2015.))中采用预训练网络(OverFeat、GoogLeNet)直接对遥感图像进行分类,由于预训练网络一般的训练样本为普通光学图像,所以在遥感图像上的分类缺少针对性。(2)例如K.Nogueira,O.Penatti,andJ.Santos,等人发表的《用于遥感场景分类的更好卷积神经网络的探索》,模式识别,vol.61,pp.539–556,2016(《Towards better exploiting convolutional neuralnetworks for remote sensing scene classification》(Pattern Recognition,vol.61,pp.539–556,2016.))采用在预训练网络上使用部分遥感数据进行微调;然后再对遥感图像进行测试的方法,这种微调网络的方法虽然能使网络学习的特征倾向于遥感图像而使得分类的效果优于第一种方法,但是遥感图像的数据量难以微调整个庞大的预训练网络,因而图像特征并没有得到更深层次的学习。(3)例如F.Luus,B.Salmon,F.Bergh,andB.Maharaj.等人发表的《陆地分类的多视角深度学习》,IEEE地球科学与遥感快报,2015,12(12):2448-2452(《Multiview deep learning for land-use classification》([J]IEEEGeoscience andRemote Sensing Letters,2015,12(12):2448-2452.)针对遥感图像特点构建新的网络,再用遥感图像对网络进行训练和测试,但由于样本图像数量不足仅能使用浅层网络,同样导致了网络缺乏学习遥感图像高层次特征的能力。
发明内容
本发明要解决的技术问题:针对现有技术的上述问题,提供一种基于频带特征融合的GL-CNN遥感图像场景分类方法,本发明能够克服原高频子带训练产生的过拟合,能够使网络有针对性的学习图像的高低频特征,在场景分类中有明显的优势。
为了解决上述技术问题,本发明采用的技术方案为:
一种基于频带特征融合的GL-CNN遥感图像场景分类方法,实施步骤包括:
1)对原图像进行非下采样小波变换提取出图像的高频子带、低频子带;
2)将原图像的高频子带、原图像进行频带特征融合得到融合高频子带;
3)采用频谱分析的方法分析原图像的低频子带、融合高频子带构成的样本图像的高低频分量,然后联合频谱角向能量分布曲线的平稳区间分析实现融合高频子带与低频子带的样本融合得到融合后的样本;
4)使用融合后的样本指导卷积神经网络学习图像的高层特征来实现场景分类。
步骤1)中对原图像进行非下采样小波变换提取出图像的高频子带包括水平高频子带、垂直高频子带、对角高频子带。
步骤2)的详细步骤包括:
2.1)将原图像的高频子带和原图像进行空间配准;
2.2)将原图像的高频子带进行主成分变换,获取第一主分量图像;
2.3)对原图像、第一主分量图像进行直方图匹配;
2.4)将第一主分量用原图像替换并做逆主分量变换,得到融合高频子带。
步骤2.2)的详细步骤包括:
2.2.1)输入原图像的高频子带的数据矩阵X;
2.2.2)将数据矩阵X中的每一项数据进行标准化处理,得到标准化后的数据矩阵X*;
2.2.3)针对标准化后的数据矩阵X*,计算相关系数矩阵R及其特征值与对应的特征向量;
2.2.4)计算相关系数矩阵R的各主分量Fj与贡献率η;
2.2.5)针对求解得到的各主分量Fj,选取贡献率η大于预设阈值的主分量,然后将选取的主分量按照降序排列,将获得的第一主分量F1作为第一主分量图像。
步骤2.2.2)中进行标准化处理的函数表达式如式(1)所示;
式(1)中,xij *是对数据矩阵X中第i行第j列数据项xij进行标准化处理的结果,xij为数据矩阵X中第i行第j列数据项,为第j列像素的均值,var(xj)为第j列像素的方差;第j列像素的均值第j列像素的方差var(xj)的函数表达式如式(2)所示;
式(2)中,xij为数据矩阵X中第i行第j列数据项,n为数据矩阵X的总行数。
步骤2.2.3)中计算相关系数矩阵R的函数表达式如式(3)所示;
式(3)中,rij为标准化后的数据矩阵X*中第i项数据项和第j项数据项之间的相关系数,xti为标准化后的数据矩阵X*中第t行第i列数据项,xtj为标准化后的数据矩阵X*中第t行第j列数据项,n为标准化后的数据矩阵X*的总行数。
步骤2.2.3)中计算相关系数矩阵R及其特征值与对应的特征向量时,采用雅可比方法计算相关系数矩阵R的特征值λ1~λp,求得的特征值对应的特征向量Ai的函数表达式如式(4)所示;
Ai=(ai1,ai2,aip);i=1,2…p (4)
式(4)中,ai1~aip为与特征值λ1~λp一一对应的特征向量,λ1~λp为相关系数矩阵R的p个特征值,p为主分量数量。
步骤2.2.4)中计算相关系数矩阵R的各主分量Fj与贡献率η的函数表达式如式(5)所示;
式(5)中,xk为图像矩阵的第k列,ajk为根据式(4)求出的特征向量Ai中一个对应第k列的数值,λi表示第i个特征值,p为主分量数量。
步骤4)的详细步骤包括:
4.1)对样本进行频谱分析,结合频谱角向能量分布曲线得出样本高低频分量的比重;
4.2)分别训练样本融合高频子带、低频子带得出每类的分类结果,再对比频谱分析结果得出样本对高低频子带的敏感程度;
4.3)根据样本类别对高低频子带的敏感程度进行样本融合再通过网络训练得出分类结果。
和现有技术相比,本发明具有下述优点:
1、本发明通过对原图像进行非下采样小波变换提取出图像的高频子带、低频子带;将原图像的高频子带、原图像进行频带特征融合得到融合高频子带;采用频谱分析的方法分析原图像的低频子带、融合高频子带构成的样本图像的高低频分量,然后联合频谱角向能量分布曲线的平稳区间分析实现融合高频子带与低频子带的样本融合;使用样本融合后的样本指导卷积神经网络学习图像的高层特征来实现场景分类,能够克服原高频子带训练产生的过拟合,能够使网络有针对性的学习图像的高低频特征,在场景分类中有明显的优势,具有分类准确率高的优点。
2、针对这些问题,本实施例提出通过学习图像高低频子带特征的方法来提高网络学习卫星图像高层特征的能力,采用融合原图像与高频子带特征的方法来解决许夙晖,慕晓东,赵鹏等提出的《利用多尺度特征与深度网络对遥感影像进行场景分类》([J].测绘学报,2016,45(7):834-840.])中网络训练高频子带时产生的过拟合问题,再将融合高频子带与低频子带的样本融合之后训练,能有效提升场景分类的精度。
附图说明
图1为本发明实施例方法的基本流程示意图。
图2为本发明实施例步骤1)中的图像分解结果。
图3为本发明实施例进行样本融合的流程示意图。
图4为本发明实施例的高频子带特征融合效果图。
图5为本发明实施例中的GL-CNN(指导卷积神经网络)结构示意图。
图6为本发明实施例中的21类样本分类正确率统计图。
图7为本发明实施例中的三类样本频谱与角向能量分布曲线示例。
图8为本发明实施例中的样本融合效果示例。
图9为本发明实施例中的样本融合后的分类混淆矩阵。
具体实施方式
如图1所示,本实施例基于频带特征融合的GL-CNN遥感图像场景分类方法的实施步骤包括:
1)对原图像进行非下采样小波变换提取出图像的高频子带、低频子带;
2)将原图像的高频子带、原图像进行频带特征融合得到融合高频子带;
3)采用频谱分析的方法分析原图像的低频子带、融合高频子带构成的样本图像的高低频分量,然后联合频谱角向能量分布曲线的平稳区间分析实现融合高频子带与低频子带的样本融合得到融合后的样本;
4)使用融合后的样本指导卷积神经网络学习图像的高层特征来实现场景分类。
小波变换作为图像处理中的基础方法主要应用于图像去噪、压缩以及分解。基础小波变换会导致分解之后的子带尺寸发生变化,一次分解之后会变为原图的四分之一大小,为了充分保证原图像素信息的完整性,本实施例中采用NSWT(非下采样小波变换)将图像分解为一个低频子带和多个方向的高频子带,得到的子带图像不仅能够保持与原图像的尺寸一致而且能减少子带图像的成像噪声,因为原图像是多通道彩色图像,所以在变换之前将图像映射到YCbCr颜色空间,分别对单通道图像进行分解,再将变换后的单通道子带图像重构为多通道彩色图像。本实施例中步骤1)中NSWT的图像分解结果如图2所示。非下采样小波变换分解得到的低频子带体现了图像的整体轮廓且保留了原图像大部分信息可以直接用于训练;而高频子带仅保留了原图像的边缘特征与细节信息,直接将高频子带用于训练出现了网络过拟合与泛化能力减弱的问题,从而导致高频子带的分类正确率低于原图像。本实施例采用图像融合的方法来解决高频子带训练的问题,因为水平高频分量所含的边缘特征较为明显,所以选择对其进行频带特征融合。如图2所示,本实施例步骤1)中对原图像进行非下采样小波变换提取出图像的高频子带包括水平高频子带、垂直高频子带、对角高频子带。
图像融合(Image Fusion)是指将多个采集源信道所采集到的关于同一目标的图像数据经过图像处理等技术最大限度的提取不同信道中的有利信息,最后综合成高质量的图像,以提高图像信息的利用率,参见[伊力哈木·亚尔买买提,谢丽蓉,孔军.基于PCA变换与小波变换的遥感图像融合方法[J].红外与激光工程,2014,43(7):2335-2340。因此,为解决上一节通过非下采样小波变换得到的高频子带在参与网络训练时由于特征信息太少容易产生过拟合的问题,本文采用PCA(principal components analysis,主成分分析)图像融合算法将高频子带与原图像进行特征融合来增强图像特征信息。如图3所示,步骤2)的详细步骤包括:
2.1)将原图像的高频子带和原图像进行空间配准;
2.2)将原图像的高频子带进行主成分变换,获取第一主分量图像;
2.3)对原图像、第一主分量图像进行直方图匹配;
2.4)将第一主分量用原图像替换并做逆主分量变换,得到融合高频子带。
本实施例中,步骤2)最终得到融合高频子带的融合效果如图4所示。由图4可以看出进行图像特征融合之后的高频子带图像保留了部分色彩与轮廓特征,且边缘特征与细节信息得到很好的凸显,特征信息得到增强。在减少图像冗余信息的基础上,保证网络在学习到高频特征的同时不会产生网络泛化与抗干扰能力减弱的问题。
本实施例中,步骤2.2)的详细步骤包括:
2.2.1)输入原图像的高频子带的数据矩阵X;
2.2.2)将数据矩阵X中的每一项数据进行标准化处理,得到标准化后的数据矩阵X*;
2.2.3)针对标准化后的数据矩阵X*,计算相关系数矩阵R及其特征值与对应的特征向量;
2.2.4)计算相关系数矩阵R的各主分量Fj与贡献率η;
2.2.5)针对求解得到的各主分量Fj,选取贡献率η大于预设阈值的主分量,然后将选取的主分量按照降序排列,将获得的第一主分量F1作为第一主分量图像。本实施例中,步骤2.2.5)中的预设阈值为85%。
本实施例中,步骤2.2.2)中进行标准化处理的函数表达式如式(1)所示;
式(1)中,xij *是对数据矩阵X中第i行第j列数据项xij进行标准化处理的结果,xij为数据矩阵X中第i行第j列数据项,为第j列像素的均值,var(xj)为第j列像素的方差;第j列像素的均值第j列像素的方差var(xj)的函数表达式如式(2)所示;
式(2)中,xij为数据矩阵X中第i行第j列数据项,n为数据矩阵X的总行数。
本实施例中,步骤2.2.3)中计算相关系数矩阵R的函数表达式如式(3)所示;
式(3)中,rij为标准化后的数据矩阵X*中第i项数据项和第j项数据项之间的相关系数,xti为标准化后的数据矩阵X*中第t行第i列数据项,xtj为标准化后的数据矩阵X*中第t行第j列数据项,n为标准化后的数据矩阵X*的总行数。
本实施例中,步骤2.2.3)中计算相关系数矩阵R及其特征值与对应的特征向量时,采用雅可比方法计算相关系数矩阵R的特征值λ1~λp,求得的特征值对应的特征向量Ai的函数表达式如式(4)所示;
Ai=(ai1,ai2,aip);i=1,2…p (4)
式(4)中,ai1~aip为与特征值λ1~λp一一对应的特征向量,λ1~λp为相关系数矩阵R的p个特征值,p为主分量数量。
本实施例中,步骤2.2.4)中计算相关系数矩阵R的各主分量Fj与贡献率η的函数表达式如式(5)所示;
式(5)中,xk为图像矩阵的第k列,ajk为根据式(4)求出的特征向量Ai中一个对应第k列的数值,λi表示第i个特征值,p为主分量数量。
场景分类的关键在于图像特征的提取与学习,传统的分类模型使用人工选取的特征。由于人工的局限性,在选取特征的同时需要大量的经验累积,所以必须由专业人员来操作,降低了特征选取的可操作性。以Cabor、LBP、SIFT等人工设计的特征为例,这些特征在特定范围的识别中具有相当不错的分类效果,但是根据样本集的不同,这些特征的应用范围受到很大的限制。区别于人工选取的特征,卷积神经网络通过有监督学习来提取更加高层次的图像特征,使网络模型的应用范围得到很大的扩展。基本的卷积神经网络主要由卷积层、池化层、激活层等多种类型的层结构堆砌而成。网络层数的选择与样本类别数以及样本总数量相关,卷积神经网络的基本层类型介绍如下:
卷积层:卷积层是卷积神经网络的核心,该层的功能是对前层输入进行特征提取,假设输入图像为二维矩阵X,大小为m×n,卷积核组数量为K且大小为k×k,进行卷积运算之后得到的输出Y大小为((m-k)/s+1)×((n-k)/s+1),其中,s表示卷积核的步长,卷积核组的数量K为经过卷积层处理之后产生的特征图的数量。相关公式如式(6)所示;
式(6)中,yi表示卷积层的输出,bi表示偏置,xi表示卷积层的输入,wij为权重。
激活层:因为线性模型的表达能力不够,所以使用激活函数加入非线性因素,激活之后的特征图为F。相关公式如式(7)所示;
式(7)中,τ为激活函数,其余参量与式(6)中定义相同。常用的激活函数τ有Sigmoid(S型函数)、Tanh(双曲正切)、ReLU(线性修正单元)等,其中ReLU能够使部分神经元的输出为0,这样就增大了网络的稀疏表达能力,防止网络出现过拟合,而且很好的解决了网络层数增加造成的梯度消散问题,加快SGD(随机梯度下降)的收敛速度,因此大部分的网络结构都使用ReLU作为激活函数。
池化层:当输入层的图像尺寸较大时,经过卷积层运算之后产生的特征图仍然具有很高的特征维度,为了解决数据冗余的问题,使用池化层将特征图进行下采样降低特征维度,网络的运算速度也得到了提升,所以池化层也叫下采样层。一般在前层特征图的2*2的像素范围内采用MAX(最大值)、AVE(均值)等策略进行下采样。
本实施例中,卷积神经网络结构如图5所示,参见图5,本实施例中的卷积神经网络一共包括1个输入层、4个卷积层,4个池化层,4个局部响应归一化层、3个全连接层、2个Dropout层以及1个Softmax层输出分类结果。指导学习的概念来源于心理学,是指有系统指导的按规定程序进行学习的一种学习方式。本文提出的GL-CNN(指导学习卷积神经网络)是指采用频谱分析来实现高低频样本融合,以此来指导卷积神经网络有针对性的学习样本图像的高低频特征的分类模型。本实施例中,步骤4)的详细步骤包括:
4.1)对样本进行频谱分析,结合频谱角向能量分布曲线得出样本高低频分量的比重;
4.2)分别训练样本融合高频子带、低频子带得出每类的分类结果,再对比频谱分析结果得出样本对高低频子带的敏感程度;
4.3)根据样本类别对高低频子带的敏感程度进行样本融合再通过网络训练得出分类结果。
为了对本实施例基于频带特征融合的GL-CNN遥感图像场景分类方法进行验证,试验数据集UCM_LandUse为美国加州土地使用的高分辨率卫星遥感图像数据集,其中包括飞机、河流、森林、住宅区等21个类别,图片大小为256*256,每类图片为100张。本次试验中每类随机选取80张作为训练样本,20张作为测试样本。
为了更加直观的了解样本图像对高低频分量的敏感程度,本文采用频谱分析的方式对样本图像的高低频分量进行定性分析,通过对样本图像频谱角向能量分布曲线平稳区间的分析得出灌木丛、密集住宅、移动住房、停车场、中等密度住宅的高频分量相对突出,而高速公路、十字路口、天桥、跑道、稀疏住宅低频分量相对突出,其他比如飞机、港口、储油罐等类的高频与低频分量比较接近。可以认为高低频子带单独训练时的分类正确率与图像高低频分量的比重有很大的联系,频谱分析的结果能够给样本融合提供理论指导。使用卷积神经网络模型对原图像、融合高频子带和低频子带单独进行训练得出的总体正确率分别为87.4%、92.6%和88.8%,训练的每类正确率如图6所示。
因为高低频信息的提取减少了原图像冗余信息,所以能得到更好的分类效果。联合频谱分析得到的各类别高低频分量的比重可以得出不同类别的样本图像对高低频子带敏感程度有很大区别,由图6可知高频分量较多的类别在融合高频子带上的分类正确率平均高于在低频子带15%左右,低频分量较多的类别在低频子带上的分类正确率平均高于在融合高频子带10%左右,高低频分量接近的类别在两个子带上的分类正确率相近,因此样本图像高低频分量的比重很大程度上决定了选取相应的子带进行分类。
对比高频与低频单独训练的分类结果,统计出融合高频子带分类结果的第9、12、15类(分别代表:高速公路、十字路口、天桥)的分类正确率未高于85%,这三类样本都属于低频分量突出的样本,样本的频谱图与角向能量分布曲线示例如图7所示,频谱角向能量总体分布均匀、曲线的平稳区间较大。由低频子带的分类结果可知低频子带在这三类样本上的正确率均高于融合高频子带10%左右,因此将融合高频子带样本中分类正确率未高于85%的三类样本用低频子带代替来实现样本融合,样本融合效果如图8所示。图8中的三个虚线框表示样本融合之后的低频子带示例,其余为融合高频子带示例。由于融合高频子带与低频子带的样本融合之后,卷积神经网络能够有针对性的学习图像的高低频特征,网络的分类效果得到再次提升,在调整的三类目标上分类正确率平均提高6%,总体正确率达到94.52%,每类的分类结果如图9所示(Agr=农田、Apl=飞机、Bbd=棒球场、Bch=沙滩、Bud=建筑群、Chl=灌木丛、Drl=密集住宅、Frt=森林、Fwy=高速公路、Gfc=高尔夫球场、Hbr=港口、Its=十字路口、Mrl=中密住宅、Mhp=移动住房、Ops=天桥、Pkl=停车场、Rvr=河流、Rwa=跑道、Srl=稀疏住宅、Sts=储油罐、Tsc=网球场)。
为了验证本文提出算法的优势,针对美国加州土地使用UCM_LandUse数据集对算法做分析和对比,并将结果列入表1、表2和表3。
表1:融合前后高频子带分类正确率比较。
原图像 | 未融合 | 频带融合 | |
正确率) | 87.4 | 78.6 | 92.6 |
对比表1未融合的高频子带与原图像的分类正确率可知由于原高频子带包含的场景信息过少导致网络过拟合不能充分学习高频子带特征,因而分类正确率低于原图像。融合之后的高频子带图像克服了由非下采样小波变换得到的高频子带图像存在的信息量大幅度减少的问题,使网络更加容易学习到高频子带信息。文献[10]直接使用高频子带训练的正确率为78.6%,由表1可知特征融合之后的高频子带图像在分类正确率上为92.6%,相比于未融合的高频子带提高14%,能够充分体现融合高频子带在分类上具有明显优势。
表2:高低频分量显著的10类样本分类正确率分析。
由表2可知,高频分量突出的样本图像在融合高频子带分类中正确率均不低于95%,有的类甚至达到了100%,低频分量突出的样本在低频子带分类中也取得了很高的正确率,由图6统计得出剩余的高低频分量接近的样本图像在融合高频子带分类中的平均正确率略高于低频子带3%左右,且均高于原图像,体现了低频子带与特征融合之后的高频子带在分类上的优越性。由此可见,卷积神经网络能很好的学习图像高低频子带所携带的特征信息,与其他分类方法对比结果如表3所示。
表3、不同算法的分类正确率对比。
分类算法 | 分类正确率/(%) |
MNCC | 88.26 |
ConvNET | 89.79 |
SVM | 78.57 |
CCM-BOVW | 86.64 |
MS-DCNN | 91.34 |
PCA-CNN | 92.86 |
本实施例方法 | 94.52 |
其中,MNCC分类算法参见刘杨等的论文(《基于神经认知计算模型的高分辨率遥感图像场景分类》,系统工程与电子技术,2015,37(11):2623-2633)。ConvNET分类算法参见Nogueira K等的论文《基于卷积神经网络的航空场景空间结构特征增强》(2015年第28届SIBGRAPI图形、模式和图像会议论文集.萨尔瓦多:IEEE,2015:289-296)。SVM分类算法参见郑鑫伟等的论文《基于空间关系约束的多特征联合稀疏编码的卫星图像自动标注》(IEEE地球科学与遥感信息,2013,10(4):652-656)。CCM-BOVW分类方法参见赵丽君等的论文《基于多尺度同心圆结构视觉词袋模型的土地利用场景分类》(IEEE应用地球观测与遥感专题杂志,2014,7(12):4620-4613)。MS-DCNN分类方法参见许夙晖等的论文《利用多尺度特征与深度网络对遥感影像进行场景分类》(测绘学报,2016,45(7):834-840)。PCA-CNN分类方法参见何小飞等的论文《联合显著性和多层卷积神经网络的高分影像场景分类》(测绘学报,2016,45(9):1073-1080.)。由表3可知本文提出的通过频谱角向能量分布曲线平稳区间的分析指导卷积神经网络交替学习融合高频子带和低频子带的方法能够有效的增强卷积神经网络的学习效果,通过对比也发现基于卷积神经网络的分类算法(MNCC、ConvNet、MS-DCNN、PCA-CNN以及本文的算法)的分类效果要优于基于学习中、低层特征的分类算法(SVM和BOVM),进一步证明了卷积神经网络的优越性。
综上所述,针对遥感图像的场景分类,本实施例基于频带特征融合的GL-CNN遥感图像场景分类方法通过非下采样小波变换提取出图像的高低频子带,再对原高频子带进行图像特征融合得到新的高频子带,然后采用频谱分析的方法完成高低频子带的样本融合,最后通过卷积神经网络训练来实现场景分类。在标准的遥感图像公开数据集上的分类结果表明,本实施例能够克服原高频子带训练产生的过拟合,能够使网络有针对性的学习图像的高低频特征,在场景分类中有明显的优势。但本实施例还存在不足,在高低频分量接近的图像上还未能有比较好的方法去处理,在卷积神经网络的参数和结构上还可以继续优化改进,以后的工作会针对这两点进行研究。
此外,本实施例还提供一种基于频带特征融合的GL-CNN遥感图像场景分类系统,包括计算机设备,该计算机设备被编程以执行本实施例基于频带特征融合的GL-CNN遥感图像场景分类方法的步骤。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于实施步骤包括:
1)对原图像进行非下采样小波变换提取出图像的高频子带、低频子带;
2)将原图像的高频子带、原图像进行频带特征融合得到融合高频子带;
3)采用频谱分析的方法分析原图像的低频子带、融合高频子带构成的样本图像的高低频分量,然后联合频谱角向能量分布曲线的平稳区间分析实现融合高频子带与低频子带的样本融合得到融合后的样本;
4)使用融合后的样本指导卷积神经网络学习图像的高层特征来实现场景分类。
2.根据权利要求1所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤1)中对原图像进行非下采样小波变换提取出图像的高频子带包括水平高频子带、垂直高频子带、对角高频子带。
3.根据权利要求1所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤2)的详细步骤包括:
2.1)将原图像的高频子带和原图像进行空间配准;
2.2)将原图像的高频子带进行主成分变换,获取第一主分量图像;
2.3)对原图像、第一主分量图像进行直方图匹配;
2.4)将第一主分量用原图像替换并做逆主分量变换,得到融合高频子带。
4.根据权利要求3所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤2.2)的详细步骤包括:
2.2.1)输入原图像的高频子带的数据矩阵X;
2.2.2)将数据矩阵X中的每一项数据进行标准化处理,得到标准化后的数据矩阵X*;
2.2.3)针对标准化后的数据矩阵X*,计算相关系数矩阵R及其特征值与对应的特征向量;
2.2.4)计算相关系数矩阵R的各主分量Fj与贡献率η;
2.2.5)针对求解得到的各主分量Fj,选取贡献率η大于预设阈值的主分量,然后将选取的主分量按照降序排列,将获得的第一主分量F1作为第一主分量图像。
5.根据权利要求4所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤2.2.2)中进行标准化处理的函数表达式如式(1)所示;
式(1)中,xij *是对数据矩阵X中第i行第j列数据项xij进行标准化处理的结果,xij为数据矩阵X中第i行第j列数据项,为第j列像素的均值,var(xj)为第j列像素的方差;第j列像素的均值第j列像素的方差var(xj)的函数表达式如式(2)所示;
式(2)中,xij为数据矩阵X中第i行第j列数据项,n为数据矩阵X的总行数。
6.根据权利要求4所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤2.2.3)中计算相关系数矩阵R的函数表达式如式(3)所示;
式(3)中,rij为标准化后的数据矩阵X*中第i项数据项和第j项数据项之间的相关系数,xti为标准化后的数据矩阵X*中第t行第i列数据项,xtj为标准化后的数据矩阵X*中第t行第j列数据项,n为标准化后的数据矩阵X*的总行数。
7.根据权利要求4所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤2.2.3)中计算相关系数矩阵R及其特征值与对应的特征向量时,采用雅可比方法计算相关系数矩阵R的特征值λ1~λp,求得的特征值对应的特征向量Ai的函数表达式如式(4)所示;
Ai=(ai1,ai2,…aip);i=1,2…p (4)
式(4)中,ai1~aip为与特征值λ1~λp一一对应的特征向量,λ1~λp为相关系数矩阵R的p个特征值,p为主分量数量。
8.根据权利要求7所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤2.2.4)中计算相关系数矩阵R的各主分量Fj与贡献率η的函数表达式如式(5)所示;
式(5)中,xk为图像矩阵的第k列,ajk为根据式(4)求出的特征向量Ai中一个对应第k列的数值,λi表示第i个特征值,p为主分量数量。
9.根据权利要求1~8中任意一项所述的基于频带特征融合的GL-CNN遥感图像场景分类方法,其特征在于,步骤4)的详细步骤包括:
4.1)对样本进行频谱分析,结合频谱角向能量分布曲线得出样本高低频分量的比重;
4.2)分别训练样本融合高频子带、低频子带得出每类的分类结果,再对比频谱分析结果得出样本对高低频子带的敏感程度;
4.3)根据样本类别对高低频子带的敏感程度进行样本融合再通过网络训练得出分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811571333.4A CN109726748B (zh) | 2018-12-21 | 2018-12-21 | 一种基于频带特征融合的gl-cnn遥感图像场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811571333.4A CN109726748B (zh) | 2018-12-21 | 2018-12-21 | 一种基于频带特征融合的gl-cnn遥感图像场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109726748A true CN109726748A (zh) | 2019-05-07 |
CN109726748B CN109726748B (zh) | 2020-10-09 |
Family
ID=66297707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811571333.4A Active CN109726748B (zh) | 2018-12-21 | 2018-12-21 | 一种基于频带特征融合的gl-cnn遥感图像场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109726748B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718234A (zh) * | 2019-09-02 | 2020-01-21 | 江苏师范大学 | 基于语义分割编解码网络的声学场景分类方法 |
CN110781899A (zh) * | 2019-10-23 | 2020-02-11 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN113361546A (zh) * | 2021-06-18 | 2021-09-07 | 合肥工业大学 | 融合非对称卷积和注意力机制的遥感图像特征提取方法 |
CN113553919A (zh) * | 2021-07-01 | 2021-10-26 | 大连民族大学 | 基于深度学习的目标频率特征表达方法、网络和图像分类方法 |
CN113901868A (zh) * | 2021-08-25 | 2022-01-07 | 国网四川省电力公司电力科学研究院 | 一种变电现场安全监控方法及系统 |
CN115201822A (zh) * | 2022-07-07 | 2022-10-18 | 长沙理工大学 | 一种钻井水溶岩盐矿区采卤量估计方法 |
CN116011515A (zh) * | 2022-12-26 | 2023-04-25 | 人民网股份有限公司 | 几何神经网络模型构建方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065291A (zh) * | 2012-12-26 | 2013-04-24 | 辽宁师范大学 | 基于提升小波变换和像素区域相关性的图像融合方法 |
CN103116881A (zh) * | 2013-01-27 | 2013-05-22 | 西安电子科技大学 | 基于PCA与Shearlet变换的遥感图像融合方法 |
CN103778606A (zh) * | 2014-01-17 | 2014-05-07 | Tcl集团股份有限公司 | 一种图像的处理方法及相关装置 |
CN106508048B (zh) * | 2011-12-05 | 2014-08-27 | 中国科学院自动化研究所 | 一种基于多尺度基本形式的相似尺度图像融合方法 |
CN105303545A (zh) * | 2015-11-25 | 2016-02-03 | 中国矿业大学(北京) | 一种多光谱影像和全色卫星影像融合方法 |
-
2018
- 2018-12-21 CN CN201811571333.4A patent/CN109726748B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106508048B (zh) * | 2011-12-05 | 2014-08-27 | 中国科学院自动化研究所 | 一种基于多尺度基本形式的相似尺度图像融合方法 |
CN103065291A (zh) * | 2012-12-26 | 2013-04-24 | 辽宁师范大学 | 基于提升小波变换和像素区域相关性的图像融合方法 |
CN103116881A (zh) * | 2013-01-27 | 2013-05-22 | 西安电子科技大学 | 基于PCA与Shearlet变换的遥感图像融合方法 |
CN103778606A (zh) * | 2014-01-17 | 2014-05-07 | Tcl集团股份有限公司 | 一种图像的处理方法及相关装置 |
CN105303545A (zh) * | 2015-11-25 | 2016-02-03 | 中国矿业大学(北京) | 一种多光谱影像和全色卫星影像融合方法 |
Non-Patent Citations (8)
Title |
---|
BAGAN HASI ET AL: "Use of wavelet high-frequency substitution fusion to increase remote sensing image spatial resolution", 《THIRD INTERNATIONAL SYMPOSIUM ON MULTISPECTRAL IMAGE PROCESSING AND PATTERN RECOGNITION》 * |
DING YANQING ET AL: "Remote Sensing Image Content Retrieval Based on Frequency Spectral Energy", 《INTERNATIONAL CONGRESS OF INFORMATION AND COMMUNICATION TECHNOLOGY》 * |
WEN CAO ET AL: "A remote sensing image fusion method based on PCA transform and wavelet packet transform", 《INTERNATIONAL CONFERENCE ON NEURAL NETWORK AND SIGNAL PROCESSING》 * |
伊力哈木·亚尔买买提 等: "基于 PCA 变换与小波变换的遥感图像融合方法", 《红外与激光工程》 * |
何小飞 等: "联合显著性和多层卷积神经网络的高分影像场景分类", 《测绘学报》 * |
孙岩 等: "基于NSCT和PCA变换域的遥感图像融合算法", 《沈阳工业大学学报》 * |
王杰雄 等: "基于边缘和局部能量的NSCT变换遥感图像融合", 《中国科学院研究生院学报》 * |
许夙晖 等: "利用多尺度特征与深度网络对遥感影像进行场景分类", 《测绘学报》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718234A (zh) * | 2019-09-02 | 2020-01-21 | 江苏师范大学 | 基于语义分割编解码网络的声学场景分类方法 |
CN110781899A (zh) * | 2019-10-23 | 2020-02-11 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN110781899B (zh) * | 2019-10-23 | 2022-11-25 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN113361546A (zh) * | 2021-06-18 | 2021-09-07 | 合肥工业大学 | 融合非对称卷积和注意力机制的遥感图像特征提取方法 |
CN113553919A (zh) * | 2021-07-01 | 2021-10-26 | 大连民族大学 | 基于深度学习的目标频率特征表达方法、网络和图像分类方法 |
CN113553919B (zh) * | 2021-07-01 | 2023-09-01 | 大连民族大学 | 基于深度学习的目标频率特征表达方法、网络和图像分类方法 |
CN113901868A (zh) * | 2021-08-25 | 2022-01-07 | 国网四川省电力公司电力科学研究院 | 一种变电现场安全监控方法及系统 |
CN115201822A (zh) * | 2022-07-07 | 2022-10-18 | 长沙理工大学 | 一种钻井水溶岩盐矿区采卤量估计方法 |
CN115201822B (zh) * | 2022-07-07 | 2023-03-14 | 长沙理工大学 | 一种钻井水溶岩盐矿区采卤量估计方法 |
CN116011515A (zh) * | 2022-12-26 | 2023-04-25 | 人民网股份有限公司 | 几何神经网络模型构建方法、装置、设备及存储介质 |
CN116011515B (zh) * | 2022-12-26 | 2024-01-26 | 人民网股份有限公司 | 几何神经网络模型构建方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109726748B (zh) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109726748A (zh) | 一种基于频带特征融合的gl-cnn遥感图像场景分类方法 | |
Zhao et al. | Object-based convolutional neural network for high-resolution imagery classification | |
CN109034044B (zh) | 一种基于融合卷积神经网络的行人再识别方法 | |
CN110334765A (zh) | 基于注意力机制多尺度深度学习的遥感影像分类方法 | |
CN109359559B (zh) | 一种基于动态遮挡样本的行人再识别方法 | |
CN106096605B (zh) | 一种基于深度学习的图像模糊区域检测方法及装置 | |
CN106407986B (zh) | 一种基于深度模型的合成孔径雷达图像目标识别方法 | |
DE112020005609T5 (de) | Domainanpassung für semantische Segmentierung durch Ausnutzen schwacher Etiketten | |
CN108710863A (zh) | 基于深度学习的无人机航拍场景语义分割方法及系统 | |
CN108596101A (zh) | 一种基于卷积神经网络的遥感图像多目标检测方法 | |
Zheng et al. | Large-scale oil palm tree detection from high-resolution remote sensing images using faster-rcnn | |
CN107886117A (zh) | 基于多特征提取和多任务融合的目标检测算法 | |
CN108846426A (zh) | 基于深度双向lstm孪生网络的极化sar分类方法 | |
CN104298974B (zh) | 一种基于深度视频序列的人体行为识别方法 | |
CN105930846B (zh) | 基于邻域信息和svgdl的极化sar图像分类方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN107085696A (zh) | 一种基于卡口图像的车辆定位及型号识别方法 | |
CN105139028A (zh) | 基于分层稀疏滤波卷积神经网络的sar图像分类方法 | |
CN109409240A (zh) | 一种结合随机游走的SegNet遥感图像语义分割方法 | |
CN107832797B (zh) | 基于深度融合残差网的多光谱图像分类方法 | |
CN109344699A (zh) | 基于分层深度卷积神经网络的冬枣病害识别方法 | |
CN110163213A (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN109800817A (zh) | 基于融合语义神经网络的图像分类方法 | |
CN103778432A (zh) | 一种基于深信度网络的人车分类方法 | |
CN107368852A (zh) | 一种基于非下采样轮廓波dcgan的极化sar图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |