CN111242056A - 一种最大-最小距离嵌入的无监督高光谱图像分类方法 - Google Patents

一种最大-最小距离嵌入的无监督高光谱图像分类方法 Download PDF

Info

Publication number
CN111242056A
CN111242056A CN202010048022.0A CN202010048022A CN111242056A CN 111242056 A CN111242056 A CN 111242056A CN 202010048022 A CN202010048022 A CN 202010048022A CN 111242056 A CN111242056 A CN 111242056A
Authority
CN
China
Prior art keywords
maximum
minimum distance
hyperspectral image
image
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010048022.0A
Other languages
English (en)
Other versions
CN111242056B (zh
Inventor
曹菡
郭延辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN202010048022.0A priority Critical patent/CN111242056B/zh
Publication of CN111242056A publication Critical patent/CN111242056A/zh
Application granted granted Critical
Publication of CN111242056B publication Critical patent/CN111242056B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种最大‑最小距离嵌入的无监督高光谱图像分类方法,包括如下具体步骤:S1:采取多尺度空间特征代替原始特征,得到多尺度特征向量;S2:将所述多尺度特征向量输入最大‑最小距离嵌入的深度自编码器模型,进行特征提取和降维;S3:通过K‑means聚类得到初始聚类结果;S4:利用引导滤波对所述初始聚类结果进行优化。本发明充分利用空间上下文信息,采用多尺度空间特征以便增强数据的判别性。为了克服聚类中的高维度问题,采用最大‑最小距离嵌入的深度自编码器实现特征表示和降维处理,同时也降低了聚类时间,将kmeans聚类结果采用引导滤波进行优化,进一步提高了分类性能。

Description

一种最大-最小距离嵌入的无监督高光谱图像分类方法
技术领域
本发明涉及高光谱图像分类技术领域,更具体的说是涉及一种最大-最小距离嵌入的无监督高光谱图像分类方法。
背景技术
遥感技术的飞速发展使得高光谱图像的采集越来越容易。高光谱图像包含上百个连续的波段,能够更加精确的表达物质的特征。因此,高光谱图像被广泛地应用到各个领域,如地表观测、气体泄漏等。高光谱图像分类作为高光谱图像应用的一个关键问题,得到广泛的关注和研究。
目前,高光谱图像分类主要基于监督的方法,如SVM,KNN,深度学习等。早期,主要以像素级的分类为主,通过比较像素的光谱特征得到分类结果。后来,人们将空间上下文信息和光谱信息融合,采用空谱融合的方法对高光谱图像进行分类。但是,这些方法都需要大量的标注样本。由于高光谱应用场景复杂,有些不适合实地考察。人工标注样本的人力成本和时间代价较大。因此,虽然监督分类方法的效果很好,但是无法将方法直接应用到实际问题中。
无监督分类方法无需先验知识,将相似性高的元素组成一组,实现物体的自动分类。因此,虽然分类性能不如监督分类方法,但是也被应用到计算机视觉、模式识别、信息检索等领域。高光谱图像分类作为一种特殊的视觉问题,也有很多学者采用无监督分类方法。
其中,基于图分割的方法和基于密度的聚类方法是两类比较常见的无监督方法。但是,由于高光谱图像类内差异较大、类间差异较小,这些方法的分类效果有待提高。
众所周知,数据的判别性和维度是影响聚类结果的两个重要因素。高光谱图像不但数据量大,而且维度高,类别之间的差别不明显,给聚类算法的应用带来挑战。
因此,如何提供一种增强数据的判别性和克服聚类中的高维度无监督高光谱图像分类方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种最大-最小距离嵌入的无监督高光谱图像分类方法,充分利用空间上下文信息,采用多尺度空间特征以便增强数据的判别性。为了克服聚类中的高维度问题,采用最大-最小距离嵌入的深度自编码器实现特征表示和降维处理,同时也降低了聚类时间。最后,将kmeans聚类结果采用引导滤波进行优化,进一步提高了分类性能。
为了实现上述目的,本发明提供如下技术方案:
一种最大-最小距离嵌入的无监督高光谱图像分类方法,包括如下具体步骤:
S1:采取多尺度空间特征代替原始特征,得到多尺度特征向量;
S2:将所述多尺度特征向量输入最大-最小距离嵌入的深度自编码器模型,进行特征提取和降维;
S3:通过K-means聚类得到初始聚类结果;
S4:利用引导滤波对所述初始聚类结果进行优化。
优选的,在上述的一种最大-最小距离嵌入的无监督高光谱图像分类方法中,所述S1的具体步骤如下:
S11:原始图像的维度为α×β×S,其中,α×β为空间尺度,S为光谱通道;将原始图像用主成分分析法降维,得到引导图像G和降维后高光谱图像I;
S12:以降维后高光谱图像I的分量为被引导图像,设置e次不同的引导滤波半径re,其中re取3,5,7…像素,正则项ε=0.001,得到引导后的图像分量;以同样的方式为降维后高光谱图像I的其他分量做滤波,得到降维后高光谱图像I的滤波后的图像;
S13:设置不同的引导滤波半径re得到降维后高光谱图像I的e个滤波后的图像,分别为A1,A2,...,Ae
S14:将每个不同的滤波后的图像中对应的分量进行拼接得到一个像素的光谱分量fi,进一步将每个光谱分量fi组合得到多尺度空间特征向量F。
优选的,在上述的一种最大-最小距离嵌入的无监督高光谱图像分类方法中,所述S2中,所述深度自编码器模型包括编码器和解码器;所述编码器和所述解码器为对称结构;所述编码器依次将输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层连接;所述编码器的输出作为所述解码器的输入进行解码。
优选的,在上述的一种最大-最小距离嵌入的无监督高光谱图像分类方法中,所述S2中,输入和输出值尽量保持一致,即输入和输出之间的均方差最小,损失函数为:
Figure BDA0002370121520000031
其中,fW(·),gU(·)分别表示编码器和解码器。
优选的,在上述的一种最大-最小距离嵌入的无监督高光谱图像分类方法中,所述S2中,选出每个元素的最近邻和最远邻,并组成最近、最远输入对;其中一个输入为x,则其对应的最近输入对为(x,xnear),最远输入对为(x,xfar),分别将(x,xnear),(x,xfar)数据对作为输入,损失函数如下:
Figure BDA0002370121520000032
Figure BDA0002370121520000041
其中,Lnear为最近输入对的损失函数;Lfar为最远输入对的损失函数;引入最近输入对和最远输入对的损失函数,总的损失函数为:
L=Lae+λ(Lnear-Lfar);
其中,λ为最大-最小距离嵌入的权重参数。
通过上述技术方案,本发明的技术效果:引入损失函数,让相似的元素,提取的特征更相似;让不相近的元素,提取的特征区别更大。
优选的,在上述的一种最大-最小距离嵌入的无监督高光谱图像分类方法中,所述S4中,将采用K-means聚类方法得到初始的分类图c转化成一个概率图p=[p1,p2,...,pM],其中,pi=[pi1,pi2,...,piN]是一个与概率图大小一样的矩阵;M代表的是高光谱图像的不同分类;其中,概率图中的每个值的定义如下:
Figure BDA0002370121520000042
采用引导滤波对概率图p进行过滤,得到每个pi的概率;通过PCA得到三维彩色引导图像;最后,在概率图p的像素点上,选择具有最大概率值的点作为该像素点的分类,得到的新分类图
Figure BDA0002370121520000043
即为最终结果。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种最大-最小距离嵌入的无监督高光谱图像分类方法,充分利用空间上下文信息,采用多尺度空间特征以便增强数据的判别性。为了克服聚类中的高维度问题,采用最大-最小距离嵌入的深度自编码器实现特征表示和降维处理,同时也降低了聚类时间。最后,将kmeans聚类结果采用引导滤波进行优化,进一步提高了分类性能。(1)采用多尺度空间特征代替原始特征,以便增加数据的判别性;(2)采用最大-最小距离嵌入的深度自编码器提取特征和降低维度,以便提高聚类算法的精度和运行时间;(3)采用传统的k-means聚类方法得到初始的聚类结果;(4)采用引导滤波对聚类结果进行优化处理。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明的框架示意图;
图2附图为本发明的自编码器网络结构示意图;
图3附图为本发明的Salinas数据集分类图;
其中,(a)Kmeans,(b)MSF,(c)PCA,(d)MSPCA,(e)AE,(f)MSAE,(g)MMDC,(h)真实分类图;
图4附图为本发明的Pavia University数据集分类图;
其中,(a)Kmeans,(b)MSF,(c)PCA,(d)MSPCA,(e)AE,(f)MSAE,(g)MMDC,(h)真实分类图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种最大-最小距离嵌入的无监督高光谱图像分类方法,充分利用空间上下文信息,采用多尺度空间特征以便增强数据的判别性。为了克服聚类中的高维度问题,采用最大-最小距离嵌入的深度自编码器实现特征表示和降维处理,同时也降低了聚类时间。最后,将kmeans聚类结果采用引导滤波进行优化,进一步提高了分类性能。
首先采用主成分分析法实现对高光谱图像降维,取其前三个主成分作为彩色的引导图像。然后,分别取Salinas、Pavia University数据集主成分分析的前50、25个主向量作为待输入的图像S、U。然后,分别以不同的滤波半径对高光谱图像S、U的每一层光谱信息进行过滤,并得到过滤后的图像。最后,将S、U及其不同滤波过滤后的图像进行拼接,得到一个融合多尺度空间特征的高光谱图像。
以Salinas数据集为例,以单个光谱通道图像s1作为输入图像、G为引导图像,以得到滤波后的输出u1。采用同样的方式,可以得到所有的ui并构成一个新的高光谱图像U={u1,u2,...,uK}。对于不同的滤波半径r=3,5,7,可以得到三个输出图像A,B,C。
最后,以光谱信息为基本单位重新组织高光谱图像为
Figure BDA0002370121520000061
其中,
Figure BDA0002370121520000062
即,第i个像素的K个光谱信息;然后,多尺度空间特征向量被定义成如公式(6-1)的形式。
Figure BDA0002370121520000063
其中,N为高光谱图像的像素个数。因此,特征F不仅包含了光谱特征S,也包含了不同尺度的空间特征。
为了进一步增强高光谱图像数据的判别性,并能够更好地、降低聚类算法的空间和时间代价,本发明提出最大-最小距离嵌入的深度自编码器模型。该模型以聚类的定义为出发点,使距离近的元素经过编码后,能够更近;距离较远的对象,编码后区分度更大。并且,经过编码后的数据应该最大限度地保留原始数据的结构特征,确保数据不会产生扭曲,而影响聚类结果。
为了能够使数据保持原有的数据特征,构造了一个对称的自编码器。该自编码器的编码阶段和解码阶段具有对称的网络结构,如图2所示。编码器的网络结构有五层,分别为一个输入层、一个输出层、三个隐层(节点个数分别问500,500,2000)。对于Salinas和Pavia University两个数据集,输入层的节点个数分别为200和100,输出层的节点个数分别为16和9(即,数据集的类别个数)。将编码器和解码器分别设为fW(·),gU(·)。在训练阶段,使得所有样本的输入和输出值尽量保持一致,即输入和输出之间的均方差最小。其损失函数如公式6-2所示。
Figure BDA0002370121520000071
其次,为了能够使距离相近数据输出特征更接近,距离较远的数据输出特征更远,采用最大-最小距离嵌入的方法对自编码器进行微调。选出每个元素的最近邻和最远邻,并组成最近、最远输入对。其中一个输入为x,则其对应的最近输入对为(x,xnear),最远输入对为(x,xfar),分别将(x,xnear),(x,xfar)数据对作为输入,损失函数如下:
Figure BDA0002370121520000072
Figure BDA0002370121520000073
为了能够嵌入最大-最小距离,我们对自编码器的训练结果进行微调,将最大-最小距离嵌入训练过程中。其中,Lnear为最近输入对的损失函数,其值越小越好;Lfar为最远输入对的损失函数,其值越大越好。因此,将最近输入对和最远输入对的损失函数引入之后,损失函数改为公式(6-4)。
L=Lae+λ(Lnear-Lfar) 公式(6-4)
其中,λ为最大-最小距离嵌入的权重参数,本实验将其设置为0.01。
引导滤波优化方法,将采用K-means聚类方法得到初始的分类图c转化成一个概率图p=[p1,p2,...,pM],其中,pi=[pi1,pi2,...,piN]是一个与概率图大小一样的矩阵;M代表的是高光谱图像的不同分类;其中,概率图中的每个值的定义如下:
Figure BDA0002370121520000081
采用引导滤波对概率图p进行过滤,得到每个pi的概率;通过PCA得到三维彩色引导图像;最后,在概率图p的像素点上,选择具有最大概率值的点作为该像素点的分类,得到的新分类图
Figure BDA0002370121520000082
即为最终结果。
进一步,假设分类有16类,分类图C可以转化为p1,……,p16十六层与C大小一样的图(矩阵)。然后用引导滤波分别对p1,……,p16,进行过滤,得到p1,……,p16过滤后的图像。过滤后的每个元素是0到1的一个数,即概率。然后选p1到p16的第一个像素,比较p1到p16哪个层上的值最大,如果p3的值最大,那么就说第一个像素属于第三类,依次类推,计算出所有像素点的分类。
本发明采用Python语言,使用Keras深度学习库实现了最大-最小嵌入的自编码器。Kmeans聚类算法采用的是sklearn数据包,并采用kmeans++初始化方法增加算法的稳定性。选用Salinas和Pavia University两个数据集作为研究对象,采用OA、AA和KA三个指标评价了算法的性能。
为了验证提出的多尺度空间特征的判别性,采用K-means聚类方法比较了原始数据(K-means)和多尺度空间特征数据(MSF)的分类结果;为了验证最大-最小距离嵌入自编码提取特征的特征,将原始数据、多尺度空间特征数据进行PCA降维,并与最大-最小距离嵌入的自编码特征进行比较;最后,我们比较了无监督高光谱分类框架(MMDC)的结果。
Salinas实验结果及分析:本实验采用OA、AA和KA三个指标对算法进行了评价。每个算法运行10次,选用平均值±方差的表示方式作为最终的结果。详细的分类结果如表6-1所示。首先,比较MSF和Kmeans两个算法的结果。针对OA、AA两个指标,MSF方法比Kmeans方法分别提升了6%,8%。这说明,提出的多尺度空间特征融合方法能够增加高光谱像素点的判别性,有利于高光谱图像分类精度的提升。分别比较PCA与AE,MSPCA与MSAE方法,以证明提出的自编码器有利于高光谱图像的特征提取。采用主成分分析方法对高光谱图像降维,降维后的结果(PCA)64.28±3.44%略低于原始图像分类结果65.13±2.62%。降维后的多尺度空间特征的结果72.67±0.28%反而高于原始图像分类结果71.65±3.03%,而且稳定性更好。最大-最小嵌入自编码器不但能够降低高光谱图像的光谱维度(由200维降到16维),而且还能提升高光谱图像分类结果。如,原始特征分类结果从65.13±2.62%提升到67.63±0.2%,并增强了算法的稳定性。多尺度空间特征分类结果从71.65±3.03%提升到73.13±1.77%。采用引导滤波对高光谱图像进行优化,进一步提升了分类性能。与原始数据的OA结果相比,MMDC方法由原来的65.13±2.62提升到76.17±1.79%。可见,本发明提出的无监督高光谱图像分类框架能够很大程度提升其分类性能。
表6-1Salinas数据集的分类结果
S K-means MSF PCA MSPCA AE MSAE MMDC
C1 65.29±.14 84.96±.0 65.27±.05 84.94±.01 83.88±.0 89.25±2.9 90.13±3.7
C2 99.40±.0 99.38±.0 99.40±.01 99.38±.0 99.32±.0 99.32±.2 100.0±.0
C3 0±.0 0±.0 0±.0 0±.0 0±.0 0±.0 0±.0
C4 94.74±.06 95.99±.04 94.76±.08 95.97±.0 96.37±.0 96.57±.0 98.17±.0
C5 73.25±.05 74.93±.11 73.22±.08 74.94±.09 69.39±.0 70.64±.44 70.75±.37
C6 100.0±.0 100.0±.0 100.0±.0 100.0±.0 100.0±.0 100.0±.0 100.0±.0
C7 90.10±.01 92.64±.01 90.10±.01 92.62±.02 96.15±.01 93.44±1.6 97.2±1.05
C8 68.7±1.76 70.29±.6 69.28±2.2 70.48±.03 76.41±.56 75.40±.04 79.31±.09
C9 84.41±7.2 89.14±9.9 82.02+9.5 91.27±5.0 83.27±.0 85.42±6.6 85.68±7.1
C10 47.8±17.1 62.9±25.5 42.2±22.6 72.6±13.1 85.60±.0 74.4±29.8 79.9±32.6
C11 0±.0 0±.0 0±.0 0±.0 0±.0 0±.0 0±.0
C12 59.06±.39 58.3±.17 58.93±5.2 58.37±.2 67.19±.0 63.03±6.2 65.65±7.2
C13 36.5±1.81 40.89±.82 37.2±2.45 40.63±.04 39.77±.58 41.74±.06 44.29±.15
C14 91.73±.06 93.87±.23 91.73±.04 93.80±.08 93.71±.0 94.85±.05 97.17±.12
C15 51.93±.94 57.93±.79 51.63±1.3 57.68±.02 46.68±.88 58.43±.02 63.11±.04
C16 74.41±1.5 91.12±.03 74.74±1.8 91.11±.0 96.19±.42 92.11±0.0 98.01±.0
OA 65.13±2.6 71.65±3.0 64.28±3.4 72.67±.28 67.63±.2 73.13±1.8 76.17±1.8
AA 61.42±1.3 69.5±1.96 64.40±1.7 70.24±.53 70.87±.04 70.91±2.2 73.08±2.3
KA 64.84±2.7 68.5±3.25 60.52±3.6 69.61±.29 64.54±.2 70.16±2.0 73.51±2.0
Pavia University实验结果及分析,采用OA、AA和KA对各种分类算法进行评估。表6-2给出了三个评价指标和每个分类的正确率。从表6-2可见,对于该数据集,多尺度空间特征没有增加高光谱图像的分类精度,原始数据的分类(Kmeans)精度为51.76%,多尺度空间特征的分类精度为51.51%。经过主成分分析降维,将高光谱的光谱信息由103维降到9维,其分类精度几乎没有太大变化。但是,经过最大-最小距离嵌入自编码提取特征之后,输出的特征更具有判别性。其中,原始光谱信息经过自编码提取特征之后,其OA分类精度由51.76%上升到54.58%;多尺度空间特征经过自编码提取特征之后,其OA分类精度由51.51%提升到了57.6%。比较AE和MSAE可知,多尺度空间特征经过自编码器提取特征之后,比原始特征分类结果(54.58%)提升了3%。提出MMDC无监督高光谱分类框架的OA结果达到59.76%,优于其他方法。
表6-2Pavia University数据集的分类结果
K-means MSF PCA MSPCA AE MSAE MMDC
C1 76.94±.0 77.16±.0 76.95±.01 77.16±.01 78.00±.01 76.98±.01 76.37±.01
C2 79.13±.01 78.22±.02 79.14±.11 78.24±.02 81.08±.11 83.22±.01 84.46±.03
C3 0±.0 0±.0 0±.0 0±.0 4.65±.002 0±.0 0±.0
C4 49.43±.01 44.12±.0 49.44±.03 44.18±.02 44.52±.025 41.9±.063 45.46±.08
C5 88.0±.0 90.14±.0 87.95±.06 90.14±.0 97.96±.0 90.04±.0 90.56±.0
C6 26.90±.01 28.13±.01 26.89±.04 28.12±.19 21.20±.086 28.0±.005 30.46±.02
C7 0±.0 0±.0 0±.0 0±.0 0±.0 0±.0 0±.0
C8 47.61±.01 48.73±.01 47.62±.01 48.75±.01 50.40±.039 47.76±.02 51.08±.01
C9 99.68±.0 99.79±.0 99.68±.0 99.79±.0 98.96±.0 99.27±.0 100.0±.0
OA 51.76±.01 51.5±.001 51.76±.00 51.51±.02 54.58±.13 57.6±.026 59.76±.03
AA 51.97±.0 51.8±.004 51.96±.01 51.82±.02 52.98±.021 51.91±.01 53.36±.01
KA 42.0±.01 41.80±.01 42.01±.01 41.80±.02 44.77±.13 47.46±.03 50.05±.03
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种最大-最小距离嵌入的无监督高光谱图像分类方法,其特征在于,包括如下具体步骤:
S1:采取多尺度空间特征代替原始特征,得到多尺度特征向量;
S2:将所述多尺度特征向量输入最大-最小距离嵌入的深度自编码器模型,进行特征提取和降维;
S3:通过K-means聚类得到初始聚类结果;
S4:利用引导滤波对所述初始聚类结果进行优化。
2.根据权利要求1所述的一种最大-最小距离嵌入的无监督高光谱图像分类方法,其特征在于,所述S1的具体步骤如下:
S11:原始图像的维度为α×β×S,其中,α×β为空间尺度,S为光谱通道;将原始图像用主成分分析法降维,得到引导图像G和降维后高光谱图像I;
S12:以降维后高光谱图像I的分量为被引导图像,设置e次不同的引导滤波半径re,其中re取3,5,7…像素,正则项ε=0.001,得到引导后的图像分量;以同样的方式为降维后高光谱图像I的其他分量做滤波,得到降维后高光谱图像I的滤波后的图像;
S13:设置不同的引导滤波半径re得到降维后高光谱图像I的e个滤波后的图像,分别为A1,A2,...,Ae
S14:将每个不同的滤波后的图像中对应的分量进行拼接得到一个像素的光谱分量fi,进一步将每个光谱分量fi组合得到多尺度空间特征向量F。
3.根据权利要求1所述的一种最大-最小距离嵌入的无监督高光谱图像分类方法,其特征在于,所述S2中,所述深度自编码器模型包括编码器和解码器;所述编码器和所述解码器为对称结构;所述编码器依次将输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层连接;所述编码器的输出作为所述解码器的输入进行解码。
4.根据权利要求3所述的一种最大-最小距离嵌入的无监督高光谱图像分类方法,其特征在于,所述S2中,输入和输出值尽量保持一致,即输入和输出之间的均方差最小,损失函数为:
Figure FDA0002370121510000021
其中,fW(·),gU(·)分别表示编码器和解码器。
5.根据权利要求4所述的一种最大-最小距离嵌入的无监督高光谱图像分类方法,其特征在于,所述S2中,选出每个元素的最近邻和最远邻,并组成最近、最远输入对;其中一个输入为x,则其对应的最近输入对为(x,xnear),最远输入对为(x,xfar),分别将(x,xnear),(x,xfar)数据对作为输入,损失函数如下:
Figure FDA0002370121510000022
Figure FDA0002370121510000023
其中,Lnear为最近输入对的损失函数;Lfar为最远输入对的损失函数;引入最近输入对和最远输入对的损失函数,总的损失函数为:
L=Lae+λ(Lnear-Lfar);
其中,λ为最大-最小距离嵌入的权重参数。
6.根据权利要求1所述的一种最大-最小距离嵌入的无监督高光谱图像分类方法,其特征在于,所述S4中,将采用K-means聚类方法得到初始的分类图c转化成一个概率图p=[p1,p2,...,pM],其中,pi=[pi1,pi2,...,piN]是一个与概率图大小一样的矩阵;M代表的是高光谱图像的不同分类;其中,概率图中的每个值的定义如下:
Figure FDA0002370121510000024
采用引导滤波对概率图p进行过滤,得到每个pi的概率;通过PCA得到三维彩色引导图像;最后,在概率图p的像素点上,选择具有最大概率值的点作为该像素点的分类,得到的新分类图
Figure FDA0002370121510000031
即为最终结果。
CN202010048022.0A 2020-01-16 2020-01-16 一种最大-最小距离嵌入的无监督高光谱图像分类方法 Active CN111242056B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010048022.0A CN111242056B (zh) 2020-01-16 2020-01-16 一种最大-最小距离嵌入的无监督高光谱图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010048022.0A CN111242056B (zh) 2020-01-16 2020-01-16 一种最大-最小距离嵌入的无监督高光谱图像分类方法

Publications (2)

Publication Number Publication Date
CN111242056A true CN111242056A (zh) 2020-06-05
CN111242056B CN111242056B (zh) 2023-03-10

Family

ID=70869664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010048022.0A Active CN111242056B (zh) 2020-01-16 2020-01-16 一种最大-最小距离嵌入的无监督高光谱图像分类方法

Country Status (1)

Country Link
CN (1) CN111242056B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783884A (zh) * 2020-06-30 2020-10-16 山东女子学院 基于深度学习的无监督高光谱图像分类方法
CN112215267A (zh) * 2020-09-25 2021-01-12 天津大学 一种面向高光谱图像的深度空谱子空间聚类方法
CN113743229A (zh) * 2021-08-07 2021-12-03 北京惠朗时代科技有限公司 一种基于多尺度自编码的中文图像区域识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045626A1 (zh) * 2016-09-07 2018-03-15 深圳大学 基于超像素级信息融合的高光谱图像的分类方法及系统
CN108764064A (zh) * 2018-05-07 2018-11-06 西北工业大学 基于导向滤波器与自编码器的sar目标识别算法
CN110298414A (zh) * 2019-07-09 2019-10-01 西安电子科技大学 基于去噪组合降维和引导滤波的高光谱图像分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045626A1 (zh) * 2016-09-07 2018-03-15 深圳大学 基于超像素级信息融合的高光谱图像的分类方法及系统
CN108764064A (zh) * 2018-05-07 2018-11-06 西北工业大学 基于导向滤波器与自编码器的sar目标识别算法
CN110298414A (zh) * 2019-07-09 2019-10-01 西安电子科技大学 基于去噪组合降维和引导滤波的高光谱图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李森林等: "一种单层自动编码器的聚类算法研究", 《怀化学院学报》 *
王雷光等: "高光谱影像的引导滤波多尺度特征提取", 《遥感学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783884A (zh) * 2020-06-30 2020-10-16 山东女子学院 基于深度学习的无监督高光谱图像分类方法
CN111783884B (zh) * 2020-06-30 2024-04-09 山东女子学院 基于深度学习的无监督高光谱图像分类方法
CN112215267A (zh) * 2020-09-25 2021-01-12 天津大学 一种面向高光谱图像的深度空谱子空间聚类方法
CN112215267B (zh) * 2020-09-25 2022-11-01 天津大学 一种面向高光谱图像的深度空谱子空间聚类方法
CN113743229A (zh) * 2021-08-07 2021-12-03 北京惠朗时代科技有限公司 一种基于多尺度自编码的中文图像区域识别方法及系统

Also Published As

Publication number Publication date
CN111242056B (zh) 2023-03-10

Similar Documents

Publication Publication Date Title
CN111860612B (zh) 无监督高光谱图像隐低秩投影学习特征提取方法
CN111242056B (zh) 一种最大-最小距离嵌入的无监督高光谱图像分类方法
Chen et al. Hyperspectral classification based on spectral–spatial convolutional neural networks
CN112883839B (zh) 基于自适应样本集构造与深度学习的遥感影像解译方法
CN110097060B (zh) 一种面向树干图像的开集识别方法
CN112765352A (zh) 基于具有自注意力机制的图卷积神经网络文本分类方法
CN111783884B (zh) 基于深度学习的无监督高光谱图像分类方法
Shi et al. Hyperspectral target detection with macro-micro feature extracted by 3-D residual autoencoder
CN109766934B (zh) 一种基于深度Gabor网络的图像目标识别方法
Rehman et al. Image classification based on complex wavelet structural similarity
Cao et al. Deep multiple feature fusion for hyperspectral image classification
CN113920472B (zh) 一种基于注意力机制的无监督目标重识别方法及系统
Castellano et al. Deep convolutional embedding for digitized painting clustering
CN115564996A (zh) 一种基于注意力联合网络的高光谱遥感图像分类方法
Velliangira et al. A novel forgery detection in image frames of the videos using enhanced convolutional neural network in face images
Gatto et al. A semi-supervised convolutional neural network based on subspace representation for image classification
CN110188864B (zh) 基于分布表示和分布度量的小样本学习方法
Cui et al. Spectral-spatial hyperspectral image classification based on superpixel and multi-classifier fusion
CN110991554A (zh) 一种基于改进pca的深度网络图像分类方法
CN110852304B (zh) 基于深度学习方法的高光谱数据处理方法
CN110532867B (zh) 一种基于黄金分割法的人脸图像聚类方法
CN110287973B (zh) 一种基于低秩鲁棒线性鉴别分析的图像特征提取方法
CN109063766B (zh) 一种基于判别性预测稀疏分解模型的图像分类方法
CN117523626A (zh) 伪rgb-d人脸识别法
CN112364902B (zh) 一种基于自适应相似性的特征选择学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant