CN111191700B - 基于自适应协同图判别分析的高光谱图像降维方法及装置 - Google Patents

基于自适应协同图判别分析的高光谱图像降维方法及装置 Download PDF

Info

Publication number
CN111191700B
CN111191700B CN201911333763.7A CN201911333763A CN111191700B CN 111191700 B CN111191700 B CN 111191700B CN 201911333763 A CN201911333763 A CN 201911333763A CN 111191700 B CN111191700 B CN 111191700B
Authority
CN
China
Prior art keywords
matrix
class
dimension reduction
image
training samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911333763.7A
Other languages
English (en)
Other versions
CN111191700A (zh
Inventor
叶珍
梁毅康
白璘
曹雯
粘永健
靳程暄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Publication of CN111191700A publication Critical patent/CN111191700A/zh
Application granted granted Critical
Publication of CN111191700B publication Critical patent/CN111191700B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于遥感图像处理领域,公开了一种基于自适应协同图判别分析的高光谱图像降维方法及装置。方法包括:从原始的高光谱数据中选取部分像素作为训练样本;建立以类别分块的Tikhonov正则权重系数矩阵,构造协同表示图;通过广义特征值分解,在最优化准则下,得到最优的投影矩阵P,将测试样本投影于低维空间,实现对高光谱数据降维。本发明将距离加权的Tikhonov正则化与基于l2‑范数最小化的表示法耦合起来,把数据投影到低维流行空间,通过l2‑范数获取协同表示特性。在构造图的过程中,充分挖掘类内像素之间的内在关系,通过距离加权度量自适应地调整协同表示。此外,图权重矩阵采用块对角结构设计,降低了计算成本,进一步提高了判别能力。

Description

基于自适应协同图判别分析的高光谱图像降维方法及装置
技术领域
本发明属于遥感图像处理领域,具体涉及一种基于自适应协同图判别分析的高光谱图像降维方法及装置。
背景技术
高光谱图像目标识别技术具有较强的实用性,已广泛应用于公共安全、环境监测、城市规划、地质勘察、医学诊断等众多领域。高光谱图像(HSI)是由遥感系统获取的、记录了上百个甚至数百个连续光谱波段的图像。由于高光谱图像波段数多、光谱信息丰富,利用其对地物进行精确识别与分类成为可能。然而,在对高光谱图像进行处理时,可用的训练样本数常常低于其谱间的维数(波段数),从而导致数据处理效率低、分类器性能差等问题。因此,降维(DR)成为避免“维数灾难”、减少数据量和时间运行成本的必要预处理步骤。本发明的目的在于通过学习相关技术基础,研究一种适用于高光谱图像的降维方法。
常用的高光谱图像降维策略有两类。一类是基于波段选择的降维策略,该类方法利用波段间的相关性,去除冗余和噪声波段,实现对高光谱图像降维的目的,另一类是基于投影的降维策略。近年来,基于图论的策略被逐渐应用于高光谱图像降维。该类方法通过研究高光谱数据的几何结构并通过保持其相似性来构造一个图权重矩阵,利用求解一个广义特征值的问题,得到较低维的表示。常用的基于图的方法主要依赖于成对欧几里得距离;如局部保护投影(LPP)、局部保护非负矩阵分解(LPNMF)和局部Fisher判别分析(LFDA)等。作为一种无监督降维方法,LPP考虑了流形结构,该流形结构采用最近邻图建模,以保持每个类的局部结构。LPNMF将LPP和非负矩阵分解(NMF)相结合,将数据分解为两个非负矩阵,来提取特征。LPNMF的局部保护约束保证了从原有高维空间保留局部流形结构,并通过描述潜在分布结构的拉普拉斯图来度量局部邻域之间的相似性。LFDA结合了LDA和LPP的优点,利用“相似或亲和”矩阵来保护邻域相关信息。传统的基于图论的策略,依赖于成对欧几里得距离,对数据噪声敏感,可能导致次优图表示。
为了克服以上困难,稀疏表示(SP)成为近年来流行的基于图论的策略。基于稀疏图的判别分析(SGDA)将稀疏系数看作图的权值,可以表示HSI字典中的大部分重要信息,能有效保留流形中的稀疏连接,并减少重建误差。现有技术证明,SGDA可有效应用于高光谱图像降维。然而,由于类内的深度变化(过稀疏性问题),使少量样本的稀疏表示可能并不准确。此外,通过引入-范数最小化来估计相似矩阵(或亲和矩阵)可能会导致更高的计算成本。基于协同图的判别分析(CGDA)采用相似矩阵,用l2-范数最小化代替l1-范数最小化,这意味着稀疏约束所施加的“协作”性质可以代替“竞争”性质。然而,协同表示通常会导致表示系数的密集分布,这可能会导致判别能力下降,产生更高的分类错误率。
发明内容
本发明的目的在于提供一种基于自适应协同图判别分析的高光谱图像降维方法及装置,用以解决现有降维技术影响高光谱图像后续分类精度的问题。
为了实现上述任务,本发明采用以下技术方案:
一种基于自适应协同图判别分析的高光谱图像降维方法,包括如下步骤:
步骤1:获取高光谱图像,对高光谱图像进行归一化处理得到原始图像矩阵X;
步骤2:在原始图像矩阵X的每个类别内随机选取像素点作为训练样本,然后按照同一类别的训练样本排在一起的规则对训练样本进行排序,得到C个类内样本矩阵,C为类别总数且为正整数;
步骤3:根据式Ⅰ获得每个类内样本矩阵的自适应协同表示图,将每个类内样本矩阵的自适应协同表示图按照对角矩阵进行组合,得到所有训练样本矩阵的协同表示图W;
Figure BDA0002330390760000031
其中,l表示类别序号且l∈{1,2,...,C},wl表示第l类训练样本矩阵的自适应协同表示图,Xl表示第l类训练样本矩阵,xl表示第l类训练样本矩阵中的像素点,λ表示拉格朗日乘数,Γl表示第l类训练样本的偏置Tikhonov矩阵;
步骤4:对步骤3得到的所有训练样本的协同表示图W利用广义特征值分解法获得最优映射矩阵P,令Y=PTX,获得降维图像Y。
进一步的,所述原始图像矩阵
Figure BDA0002330390760000032
xi表示原始图像矩阵中第i个像素点,M为像素点的总数,第l类训练样本矩阵包含的像素点总数为ml,ml≤0.2M。
一种基于自适应协同图判别分析的高光谱图像降维装置,包括图像采集单元、自适应协同图建立单元和降维单元;
所述图像采集单元用于采集获取高光谱图像,并对高光谱图像进行归一化处理得到的原始图像矩阵X;并在每个类别内随机选取像素点作为训练样本,对训练样本进行排序,将同一类别的训练样本排在一起,得到C个类内样本矩阵,C为类别总数且为正整数;
所述自适应协同图建立单元用于按照对角矩阵的形式组合每个类内样本矩阵的自适应协同表示图得到所有训练样本矩阵的协同表示图W;所述每个类内样本矩阵的自适应协同表示图根据式Ⅰ获得:
Figure BDA0002330390760000041
其中,l表示类别序号且l∈{1,2,...,C},wl表示第l类训练样本矩阵的自适应协同表示图,Xl表示第l类训练样本矩阵,xl表示第l类训练样本矩阵中的像素点,λ表示拉格朗日乘数,Γl表示第l类训练样本的偏置Tikhonov矩阵;
所述降维单元用于对所有训练样本的协同表示图W利用广义特征值分解法获得最优映射矩阵P,令Y=PTX,获得降维图像Y。
进一步的,所述原始图像矩阵
Figure BDA0002330390760000042
xi表示原始图像矩阵中第i个像素点,M为像素点的总数,第l类训练样本矩阵包含的像素点总数为ml,ml≤0.2M。
本发明与现有技术相比具有以下技术特点:
(1)本发明提出了一种自适应协同图的判别分析方法(ACGDA),将距离加权的Tikhonov正则化与基于l2-范数最小化的表示法耦合起来,通过寻求一个变换投影矩阵,把数据投影到低维流行空间,通过l2-范数获取协同表示特性。在构造图的过程中,充分挖掘类内像素之间的内在关系,通过距离加权度量自适应地调整协同表示。此外,图权重矩阵采用块对角结构设计,降低了计算成本,进一步提高了判别能力。
(2)本发明充分利用像素之间的内在关系,通过构造一个稳定的信息图,对高光谱图像进行特征提取与降维。
(3)采用类内样本来表达每个测试样本和构造图权重矩阵,将目标函数通过l2-范数最小化和闭式解进行优化。
(4)由于图权重矩阵中的非零系数有可能来源于类间样本,从而限制了稀疏表达和协同表达的判别能力。因此,设计了块对角结构形式的图权重矩阵,不但增强了类间判决能力,而且降低了计算复杂度。
(5)利用距离加权Tikhonov正则化自适应地挖掘像素之间的内在关系,进一步增强了判别能力,能有效解决后续分类环节的小样本问题。
(6)将所研究的方法在两个广泛应用的HSI数据集上进行了评估,并与经典方法进行了比较。所研究的方法生成的分类图噪声小、计算效率和分类精度高。
附图说明
图1为该发明的流程图;
图2为CGDA与ACGDA的分块图权系数矩阵;
图2(a)CGDA的分块图权系数矩阵;
图2(b)CGDA的分块图权系数矩阵;
图3为CGDA与ACGDA对实验数据的分类结果;
图3(a)为三个类别的原始分布图;
图3(b)为CGDA对实验数据的分类结果;
图3(c)为ACGDA对实验数据的分类结果。
具体实施方式
在本实施例中公开了一种基于自适应协同图判别分析的高光谱图像降维方法,该方法能对原始维度为N的高光谱数据,找到一个N×K维的投影矩阵P(K<<N),通过投影变换生成一个低维子空间Y=PTX,包括如下步骤:
步骤1:获取高光谱图像,对高光谱图像进行归一化处理得到原始图像矩阵X;所述原始图像矩阵X包含多个类别,原因是本发明是一种有监督降维方法,所以在选择训练样本时可根据groundtruth(真实地物标记)来选出包含不同类别的训练样本;
步骤2:在原始图像矩阵X的每个类别内随机选取像素点作为训练样本,然后按照同一类别的训练样本排在一起的规则对训练样本进行排序,得到C个类内样本矩阵,C为类别总数且为正整数;
步骤3:根据式Ⅰ获得每个类内样本矩阵的自适应协同表示图,将每个类内样本矩阵的自适应协同表示图按照对角矩阵进行组合,得到所有训练样本矩阵的协同表示图W;
Figure BDA0002330390760000061
其中,l表示类别序号且l∈{1,2,...,C},wl表示第l类训练样本矩阵的自适应协同表示图,Xl表示第l类训练样本矩阵,xl表示第l类训练样本矩阵中的像素点,λ表示拉格朗日乘数,Γl表示第l类训练样本的偏置Tikhonov矩阵;
步骤4:对步骤3得到的所有训练样本的协同表示图W利用广义特征值分解法获得最优映射矩阵P,令Y=PTX,获得降维图像Y。
具体的,所述降维后的分类方法为支持向量机。
具体的,根据欧几里德范数,正则项中的Tikhonov矩阵可以表示为:
Figure BDA0002330390760000062
具体的,所述原始图像矩阵
Figure BDA0002330390760000063
xi表示原始图像矩阵中第i个像素点,M为像素点的总数,第l类训练样本矩阵包含的像素点总数为ml,ml≤0.2M。
每类训练样本的数目根据原始数据的规模和具体应用而定,在对高光谱图像进行分类时,训练样本的多少直接决定了分类结果的好坏,但因高光谱图像具有对地标注困难的特性(小样本问题),且训练样本多于一定数量时对分类结果的影响趋缓。通常情况下,训练样本占原图像所有像素的比例一般不超过20%。通常认为,当训练样本数较少时,还能得到优良分类结果的方法,具有解决小样本问题的能力。
由于SGDA是一种有监督降维方法,可有效的对高维数据进行降维。CGDA是一种基于图的协作表示判别分析方法,被用来研究高光谱数据的协同性,该方法将解决l1-范数最优化问题转换为解决l2-范数最优化问题。对于SGDA策略,稀疏表示虽然可以表示字典中的大部分重要信息,通过保持流形结构中的稀疏连接来增强类的区分能力,但可能会导致过稀疏问题和较高的计算成本。CGDA策略因采用闭式解而降低了计算成本,并利用协同约束来提高分类精度。然而,CGDA协同图判别分析方法存在表示系数密集分布的风险,有可能会使误判率上升而影响最终的判别能力。
具体的,为了对SGDA和CGDA策略进行改进,本发明设计了一种基于自适应协同图的判别分析方法(ACGDA),该方法首先需要构建目标函数:
Figure BDA0002330390760000071
Figure BDA0002330390760000072
表示矩阵的l2-范数。
在CGDA的基础上,ACGDA将距离加权的Tikhonov正则化引入到协同表示中,根据类的相关关系计算Tikhonov矩阵,并利用Tikhonov矩阵对协同表示向量进行调整。引入Tikhonov矩阵,可以给算法带来以下潜在优势。即,当字典中的训练样本彼此间越接近时,欧氏距离越小,相应的权值越大。事实上,这种自适应距离测量在不增加任何计算复杂度的情况下,增强了数据表示能力。
由于ACGDA采用封闭形式求解,因此可以通过对下面的代价函数求导来计算图的权值,其代价函数可表示为:
F(Γlwl)=(xl-XlΓlwl)T(xl-XlΓlwl)+λ(Γlwl)TΓlwl
对代价函数求导后得到的最小权值矩阵如下,利用最小权值矩阵即可获得自适应协同表示图:
Figure BDA0002330390760000081
具体的,所述对角矩阵形式如下式:
Figure BDA0002330390760000082
其中,
Figure BDA0002330390760000083
是ml×ml维的协同表达矩阵。由于HSI的波段往往高度相关,测试像素之间的真实关系可能不能准确地反映所有标记的样本,而只能反映同一类样本。换句话说,图权矩阵中的非零系数可能来自类间样本,这将限制稀疏图或协同图的判别能力。因此,本发明采用块对角策略,来进一步提高算法的判别能力并降低代码运行的时间成本,
具体的,广义特征值分解法的目标函数为:
Figure BDA0002330390760000084
其中,L为本征图的拉普拉斯矩阵,令L=D-W,D为具有第i个对角元素的对角矩阵,即
Figure BDA0002330390760000085
最优投影矩阵可表示为:
Figure BDA0002330390760000086
通过下式求解广义特征值获得最优映射矩阵P,即:
XLXTP=ΛXLpXTP
其中,Lp为惩罚图Gp的拉普拉斯矩阵,Λ为由K个最小特征向量构造的对角特征值矩阵。每个元素对应一个特征值,通过计算解得P是与之对应的特征向量。数据内在图和惩罚图可以分别表示为G={X,W}和Gp={X,Wp},W式中被定义为“亲和矩阵或相似矩阵”,Wp为大小为M×M的凸点间的边缘权矩阵,类标签为
Figure BDA0002330390760000091
本实施例还公开了一种基于自适应协同图判别分析的高光谱图像降维装置,包括图像采集单元、自适应协同图建立单元和降维单元;
所述图像采集单元用于采集获取高光谱图像,并对高光谱图像进行归一化处理得到的原始图像矩阵X;并在每个类别内随机选取像素点作为训练样本,对训练样本进行排序,将同一类别的训练样本排在一起,得到C个类内样本矩阵,C为类别总数且为正整数;
所述自适应协同图建立单元用于按照对角矩阵的形式组合每个类内样本矩阵的自适应协同表示图得到所有训练样本矩阵的协同表示图W;所述每个类内样本矩阵的自适应协同表示图根据式Ⅰ获得:
Figure BDA0002330390760000092
其中,l表示类别序号且l∈{1,2,...,C},wl表示第l类训练样本矩阵的自适应协同表示图,Xl表示第l类训练样本矩阵,xl表示第l类训练样本矩阵中的像素点,λ表示拉格朗日乘数,Γl表示第l类训练样本的偏置Tikhonov矩阵;
所述降维单元用于对所有训练样本的协同表示图W利用广义特征值分解法获得最优映射矩阵P,令Y=PTX,获得降维图像Y。
具体的,所述原始图像矩阵
Figure BDA0002330390760000093
xi表示原始图像矩阵中第i个像素点,M为像素点的总数,第l类训练样本矩阵包含的像素点总数为ml,ml≤0.2M。
实施例1
本实施例公开了一种基于自适应协同图判别分析的高光谱图像降维方法,在实施例1的基础上还公开了以下技术特征:
本实施例采用国际公认的标准公开数据集University of Pavia,共有9个类(Asphalt、Meadows、Gravel、Trees、Painted Metal Sheets、Bare Soil、Bitumen、Self-Blocking Bricks、Shadows),其样本数分别为6631、18649、2099、3064、1345、5029、1330、3682和947。
图2(b)为以类别分块的Tikhonov正则图权系数矩阵所得到的结果。采用的数据为来自公开数据集University of Pavia的前三个类别(Asphalt、Meadows和Gravel)。根据图2,CGDA和ACGDA的图权系数矩阵都具有块对角结构(即,对角线方向的三个块区域对应三个不同的类别)。这意味着可以利用图权值对不同类别的样本进行分离。同样可以看出,CGDA的非零系数分布更加平滑,如图2(a)所示;而ACGDA的非零系数分布较稀疏,如图2(b)所示。这表明,ACGDA能够保持数据的固有结构,从而增强对不同类别样本的识别能力。
使用支持向量机(SVM)分类器对二维实验数据进行分类,如图3所示。该数据来自公开数据集University of Pavia的类别1-3(Asphalt、Meadows和Gravel),这三个类分别用红色加号、蓝色正方形和黑色圆形表示。实验中,采用每个类别的前100个像素作为训练样本,紧随其后的100个像素作为测试样本。根据图3(a)可知,第1类与第3类明显重叠,第2类与其他类相对分离。CGDA与ACGDA的分类结果如图3(b)和图3(c)所示,分类错误的区域已在图中标出。显见,ACGDA的分类精度(85%)比CGDA的分类精度(81.33%)更高,说明ACGDA比CGDA误分的样本更少。

Claims (4)

1.基于自适应协同图判别分析的高光谱图像降维方法,其特征在于,包括如下步骤:
步骤1:获取高光谱图像,对高光谱图像进行归一化处理得到原始图像矩阵X;
步骤2:在原始图像矩阵X的每个类别内随机选取像素点作为训练样本,然后按照同一类别的训练样本排在一起的规则对训练样本进行排序,得到C个类内样本矩阵,C为类别总数且为正整数;
步骤3:根据式Ⅰ获得每个类内样本矩阵的自适应协同表示图,将每个类内样本矩阵的自适应协同表示图按照对角矩阵进行组合,得到所有训练样本矩阵的协同表示图W;
wl=(Xl TXl+λΓl TΓl)-1Xl Txl 式Ⅰ
其中,l表示类别序号且l∈{1,2,...,C},wl表示第l类训练样本矩阵的自适应协同表示图,Xl表示第l类训练样本矩阵,xl表示第l类训练样本矩阵中的像素点,λ表示拉格朗日乘数,Γl表示第l类训练样本的偏置Tikhonov矩阵;
步骤4:对步骤3得到的所有训练样本的协同表示图W利用广义特征值分解法获得最优映射矩阵P,令Y=PTX,获得降维图像Y。
2.如权利要求1所述的基于自适应协同图判别分析的高光谱图像降维方法,其特征在于,所述原始图像矩阵
Figure FDA0002330390750000011
xi表示原始图像矩阵中第i个像素点,M为像素点的总数,第l类训练样本矩阵包含的像素点总数为ml,ml≤0.2M。
3.基于自适应协同图判别分析的高光谱图像降维装置,其特征在于,包括图像采集单元、自适应协同图建立单元和降维单元;
所述图像采集单元用于采集获取高光谱图像,并对高光谱图像进行归一化处理得到的原始图像矩阵X;并在每个类别内随机选取像素点作为训练样本,对训练样本进行排序,将同一类别的训练样本排在一起,得到C个类内样本矩阵,C为类别总数且为正整数;
所述自适应协同图建立单元用于按照对角矩阵的形式组合每个类内样本矩阵的自适应协同表示图,得到所有训练样本矩阵的协同表示图W;所述每个类内样本矩阵的自适应协同表示图根据式Ⅰ获得:
wl=(Xl TXl+λΓl TΓl)-1Xl Txl 式Ⅰ
其中,l表示类别序号且l∈{1,2,...,C},wl表示第l类训练样本矩阵的自适应协同表示图,Xl表示第l类训练样本矩阵,xl表示第l类训练样本矩阵中的像素点,λ表示拉格朗日乘数,Γl表示第l类训练样本的偏置Tikhonov矩阵;所述降维单元用于对所有训练样本的协同表示图W利用广义特征值分解法获得最优映射矩阵P,令Y=PTX,获得降维图像Y。
4.如权利要求3所述的基于自适应协同图判别分析的高光谱图像降维装置,其特征在于,所述原始图像矩阵
Figure FDA0002330390750000021
xi表示原始图像矩阵中第i个像素点,M为像素点的总数,第l类训练样本矩阵包含的像素点总数为ml,ml≤0.2M。
CN201911333763.7A 2019-12-20 2019-12-23 基于自适应协同图判别分析的高光谱图像降维方法及装置 Active CN111191700B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2019113248968 2019-12-20
CN201911324896 2019-12-20

Publications (2)

Publication Number Publication Date
CN111191700A CN111191700A (zh) 2020-05-22
CN111191700B true CN111191700B (zh) 2023-04-18

Family

ID=70707438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911333763.7A Active CN111191700B (zh) 2019-12-20 2019-12-23 基于自适应协同图判别分析的高光谱图像降维方法及装置

Country Status (1)

Country Link
CN (1) CN111191700B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881965B (zh) * 2020-07-20 2023-08-25 北京理工大学 药材产地等级的高光谱图形分类识别方法、装置及设备
CN112101381B (zh) * 2020-08-30 2022-10-28 西南电子技术研究所(中国电子科技集团公司第十研究所) 张量协作图判别分析遥感图像特征提取方法
CN112836671B (zh) * 2021-02-26 2024-03-08 西北工业大学 一种基于最大化比率和线性判别分析的数据降维方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8538195B2 (en) * 2007-09-17 2013-09-17 Raytheon Company Hyperspectral image dimension reduction system and method
CN102208034B (zh) * 2011-07-16 2012-10-24 西安电子科技大学 基于半监督维数约减的高光谱图像分类方法
CN105574548B (zh) * 2015-12-23 2019-04-26 北京化工大学 一种基于稀疏和低秩表示图的高光谱数据降维方法
CN110070485A (zh) * 2019-04-04 2019-07-30 南京信息工程大学 一种高光谱图像降维方法

Also Published As

Publication number Publication date
CN111191700A (zh) 2020-05-22

Similar Documents

Publication Publication Date Title
Jiang et al. SuperPCA: A superpixelwise PCA approach for unsupervised feature extraction of hyperspectral imagery
Dong et al. Dimensionality reduction and classification of hyperspectral images using ensemble discriminative local metric learning
Zhao et al. Spectral–spatial feature extraction for hyperspectral image classification: A dimension reduction and deep learning approach
Cheriyadat Unsupervised feature learning for aerial scene classification
Luo et al. Semisupervised sparse manifold discriminative analysis for feature extraction of hyperspectral images
Camps-Valls et al. Advances in hyperspectral image classification: Earth monitoring with statistical learning methods
Liao et al. Semisupervised local discriminant analysis for feature extraction in hyperspectral images
CN111191700B (zh) 基于自适应协同图判别分析的高光谱图像降维方法及装置
CN107145836B (zh) 基于栈式边界辨别自编码器的高光谱图像分类方法
Wang et al. SSRNet: In-field counting wheat ears using multi-stage convolutional neural network
CN103093235B (zh) 一种基于改进距离核主成分分析的手写体数字识别方法
CN106503727B (zh) 一种高光谱图像分类的方法及装置
Jun et al. Spatially adaptive classification of land cover with remote sensing data
Huang et al. Semi-supervised marginal fisher analysis for hyperspectral image classification
CN108038501B (zh) 基于多模态压缩双线性池化的高光谱图像分类方法
CN105160351B (zh) 基于锚点稀疏图的半监督高光谱分类方法
CN108520281A (zh) 一种基于全局与局部保持的高光谱图像半监督降维方法
CN103440512A (zh) 一种基于张量局部保持投影的大脑认知状态的识别方法
Yang et al. Two-stage clustering technique based on the neighboring union histogram for hyperspectral remote sensing images
CN109034213B (zh) 基于相关熵原则的高光谱图像分类方法和系统
Xing et al. Deep network with irregular convolutional kernels and self-expressive property for classification of hyperspectral images
Simonson et al. A statistical approach to combining multisource information in one‐class classifiers
Yang et al. Fully automated classification method for crops based on spatiotemporal deep-learning fusion technology
Sujithra et al. CRUN‐Based Leaf Disease Segmentation and Morphological‐Based Stage Identification
Luo et al. Discriminative supervised neighborhood preserving embedding feature extraction for hyperspectral-image classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant