CN113850216B - 一种面向大场景遥感图像分类的类指定多模联合表示方法 - Google Patents

一种面向大场景遥感图像分类的类指定多模联合表示方法 Download PDF

Info

Publication number
CN113850216B
CN113850216B CN202111160930.XA CN202111160930A CN113850216B CN 113850216 B CN113850216 B CN 113850216B CN 202111160930 A CN202111160930 A CN 202111160930A CN 113850216 B CN113850216 B CN 113850216B
Authority
CN
China
Prior art keywords
remote sensing
sensing image
multispectral
dictionary
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111160930.XA
Other languages
English (en)
Other versions
CN113850216A (zh
Inventor
刘天竹
谷延锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202111160930.XA priority Critical patent/CN113850216B/zh
Publication of CN113850216A publication Critical patent/CN113850216A/zh
Application granted granted Critical
Publication of CN113850216B publication Critical patent/CN113850216B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种面向大场景遥感图像分类的类指定多模联合表示方法,本发明涉及多模遥感图像联合表示方法。本发明的目的是为了提高现有大场景遥感图像的分类精度。过程为:一、输入覆盖区域相同的多模遥感图像,以及相应的地物标签图,构造多模遥感图像的类指定多模联合表示模型;所述多模遥感图像包括多光谱遥感图像和高光谱遥感图像;二、采用乘数交替方向法求解多模遥感图像的类指定多模联合表示模型,得到类指定跨模字典;三、输入大场景多光谱遥感图像,利用多光谱字典对输入的大场景多光谱遥感图像进行稀疏表示,学习得到一致稀疏表示系数矩阵;四、重构得到大场景的高判别性高光谱图像。本发明用于遥感图像分类领域。

Description

一种面向大场景遥感图像分类的类指定多模联合表示方法
技术领域
本发明涉及多模遥感图像联合表示方法。
背景技术
大场景遥感图像的精细分类在光学遥感应用中越来越重要。作为两种典型的光学遥感数据,多光谱图像和高光谱图像具有互补的特征:多光谱图像幅宽大,重访周期短,但波段数少,导致光谱可分性较弱。高光谱图像幅宽窄,重访周期长,但其具有数百个波段,因此具备精细分类的能力。为了有效利用多模遥感图像(高光谱图像和多光谱图像)的优势,近年来有学者对多模态遥感图像的联合表示进行了研究,多模态遥感图像的联合表示就是通过学习覆盖范围相同的高光谱图像和多光谱图像之间的关系,来重建大场景多光谱图像所对应的模拟高光谱图像,从而将高光谱图像的精细分类能力迁移到大场景多光谱图像上,实现分类性能的提升。
当前,多模态联合表示方法主要有两类,一种是基于深度学习的方法,一种是基于稀疏表示的方法。基于深度学习的方法通常难以重构多光谱图像光谱覆盖范围之外的波段,基于稀疏表示的方法虽然没有上述缺点,但是当前方法仅以高光谱图像的重构为目标,并没有考虑后续的分类应用,而且这些方法大多数是无监督的,没有考虑对标签信息的利用。
发明内容
本发明的目的是为了提高现有大场景遥感图像的分类精度,提出了一种面向大场景遥感图像分类的类指定多模联合表示方法。
一种面向大场景遥感图像分类的类指定多模联合表示方法具体过程为:
步骤一、输入覆盖区域相同的多模遥感图像,以及相应的地物标签图,构造多模遥感图像的类指定多模联合表示模型;
所述多模遥感图像包括多光谱遥感图像和高光谱遥感图像;
步骤二、采用乘数交替方向法求解步骤一构造的多模遥感图像的类指定多模联合表示模型,得到类指定跨模字典;
所述类指定的跨模字典包括多光谱字典和高光谱字典;
步骤三、输入大场景多光谱遥感图像,利用步骤二得到的多光谱字典对输入的大场景多光谱遥感图像进行稀疏表示,学习得到一致稀疏表示系数矩阵;
所述输入的大场景多光谱遥感图像的覆盖区域包含步骤一中多光谱遥感图像的覆盖区域;
步骤四、利用步骤二得到的高光谱字典和步骤三得到的一致稀疏表示系数矩阵,重构得到大场景的高判别性高光谱图像。
本发明的有益效果为:
本发明可以从构造有监督约束入手解决上述问题(基于深度学习的方法通常难以重构多光谱图像光谱覆盖范围之外的波段,基于稀疏表示的方法虽然没有上述缺点,但是当前方法仅以高光谱图像的重构为目标,并没有考虑后续的分类应用,而且这些方法大多数是无监督的,没有考虑对标签信息的利用。);在多模联合表示的过程中引入了标签信息,利用训练样本的标签构造分类约束,同时,利用训练样本标签和字典标签的类别一致关系构造判别性稀疏表示系数约束,从而使学习的跨模态字典既具有表示性又具有判别性;即构造类指定的多模遥感图像联合表示模型能够从理论上显著提升重构高光谱图像的分类性能;因此,重构得到的大场景高光谱图像具备更好的判别性,从而显著提升大场景分类精度。
本发明方法通过增加判别性约束和分类约束的方式,学习得到类指定的跨模字典(高光谱字典和多光谱字典),从而重构出大场景的高判别性高光谱图像,最终实现大场景遥感图像高精度分类。
为了验证本发明的性能,在一组真实高光谱-多光谱图像对上进行了验证,实验结果表明,相比当前的代表性方法,本方法重构得到的高光谱图像分类精度更高。实验结果验证了本发明提出的面向大场景遥感图像精细分类的类指定多模联合表示方法的有效性。
附图说明
图1是本发明的实现流程示意图;
图2a是高光谱图像的假彩色合成图;
图2b是多光谱图像的假彩色合成图,其中方框表示其与高光谱数据的重叠区域;
图3a重叠区域的地物标签图,用于构建类指定多模遥感图像联合表示模型;
图3b是非重叠区域的地物标签图,用于评价分类效果;
图4是不同方法的分类效果对比图。
具体实施方式
具体实施方式一:结合图1说明本实施方式,本实施方式一种面向大场景遥感图像分类的类指定多模联合表示方法具体过程为:
步骤一、输入覆盖区域相同的多模遥感图像,以及相应的地物标签图(公式中的H和G都是基于这个地物标签图得到的),构造多模遥感图像的类指定多模联合表示模型,主要包括重构误差约束,判别性约束和分类约束;
所述多模遥感图像包括多光谱遥感图像和高光谱遥感图像;
步骤二、步骤一的模型优化基于约束模型一阶导数零点为极值点的思想,采用乘数交替方向法求解步骤一构造的多模遥感图像的类指定多模联合表示模型,得到类指定跨模字典;
所述类指定的跨模字典包括多光谱字典和高光谱字典;
步骤三、输入大场景多光谱遥感图像,利用步骤二得到的多光谱字典对输入的大场景多光谱遥感图像进行稀疏表示,学习得到一致稀疏表示系数矩阵;
所述输入的大场景多光谱遥感图像的覆盖区域包含步骤一中多光谱遥感图像的覆盖区域;
步骤四、利用步骤二得到的高光谱字典和步骤三得到的一致稀疏表示系数矩阵,重构得到大场景的高判别性高光谱图像。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤一中构造多模遥感图像的类指定多模联合表示模型;具体过程为:
Figure BDA0003289919840000031
Figure BDA0003289919840000032
分别表示输入的覆盖区域相同高光谱和多光谱遥感图像中有标签样本的集合,这些样本为类指定多模联合表示的样本;
Figure BDA0003289919840000033
Figure BDA0003289919840000034
分别表示高光谱字典和多光谱字典;
令X表示跨模稀疏表示系数矩阵;
其中,
Figure BDA0003289919840000035
表示高光谱图像中的有标签样本,
Figure BDA0003289919840000036
表示多光谱图像中的有标签样本,dH表示高光谱图像中样本的光谱维度,dM表示多光谱图像中样本的光谱维度,P表示有标签样本的个数,
Figure BDA0003289919840000037
表示高光谱字典中的原子,
Figure BDA0003289919840000038
表示多光谱字典中的原子,N表示字典中原子的个数;
多模遥感图像的类指定多模联合表示模型的目标函数可表示为:
Figure BDA0003289919840000041
前两项
Figure BDA0003289919840000042
代表重构误差,第三项α||X||1,1为跨模稀疏表示系数的稀疏性约束,第四项β(||DH||*+||DM||*)为跨模字典的低秩约束,第五项
Figure BDA0003289919840000043
为判别性约束,第六项
Figure BDA0003289919840000044
为分类约束;
其中,
Figure BDA0003289919840000045
表示Frobenius范数的平方;||·||1,1表示矩阵每列的L1范数;||·||*表示核范数;
Figure BDA0003289919840000046
表示L2范数的平方;
Figure BDA0003289919840000047
表示输入样本的稀疏表示系数对于分类的判别性;A是将原始的稀疏表示系数变换到最具判别性稀疏特征空间的线性映射;
Figure BDA0003289919840000048
是输入样本YH和YM公共的标签,C表示类别总数;当
Figure BDA0003289919840000049
Figure BDA00032899198400000410
属于第c类时,hc,p=1;W是线性分类器的参数;α,β,γ和χ为平衡各约束项重要性的惩罚系数。
其它步骤与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述多模遥感图像的类指定多模联合表示模型的目标函数中前两项
Figure BDA00032899198400000411
代表重构误差,第三项α||X||1,1代表跨模稀疏表示系数的稀疏性约束,第四项β(||DH||*+||DM||*)代表跨模字典的低秩约束,第五项
Figure BDA00032899198400000412
代表判别性约束,第六项
Figure BDA00032899198400000413
代表分类约束。
其它步骤与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是:所述输入样本的稀疏表示系数对于分类的判别性
Figure BDA00032899198400000414
由输入样本的标签和字典的标签所决定:
Figure BDA00032899198400000415
其它步骤与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是:所述步骤二中步骤一的模型优化基于约束模型一阶导数零点为极值点的思想,采用乘数交替方向法求解步骤一构造的多模遥感图像的类指定多模联合表示模型,得到类指定跨模字典;具体过程为:
为采用乘数交替方向法,需要引入参数B=X,J=DH,K=DM,将多模遥感图像的类指定多模联合表示模型改写成如下形式:
Figure BDA0003289919840000051
s.t.B=X,J=DH,K=DM
其中,
Figure BDA0003289919840000052
B、J、K为参数;
多模遥感图像的类指定多模联合表示模型的拉格朗日增广函数为:
Figure BDA0003289919840000053
其中
Figure BDA0003289919840000054
是拉尔朗日乘子,η是惩罚系数,T为转置;
基于约束模型
Figure BDA0003289919840000055
一阶导数零点为极值点的思想,迭代优化过程如下:
优化X:
X←Γ1 -1Γ2
Γ1=(DH)TDH+(DM)TDM+ATA+WTW+ηIN×N
Γ2=(DH)TYH+(DM)TYM+γATG+χWTH+Φ1+ηB
其中,Γ1、Γ2为中间变量,IN×N表示大小为N×N的单位矩阵,←表示在迭代优化过程中对当前优化的参数赋值;
优化DH和DM
DH←(YHXT+ηJ+Φ2)(XXT+ηIN×N)-1
DM←(YMXT+ηK+Φ3)(XXT+ηIN×N)-1
优化A和W:
A=GXT(XXT+IN×N)-1
W=HXT(XXT+IN×N)-1
优化B:
Figure BDA0003289919840000061
其中,⊙为矩阵的Hadamard积;
优化J和K:
Figure BDA0003289919840000062
Figure BDA0003289919840000063
其中,
Figure BDA0003289919840000064
为软阈值算子,ξ=β/η;
优化
Figure BDA0003289919840000065
Φ1←Φ1+η(B-X)
Φ2←Φ2+η(J-DH)
Φ3←Φ3+η(K-DM)
当||B-X||2≤ε且||J-DH||2≤ε且||K-DM||2≤ε时,停止迭代,此时的
Figure BDA0003289919840000066
Figure BDA0003289919840000067
即为学习得到的类指定跨模字典;ε为预先设定的残差阈值;
所述类指定跨模字典包括多光谱字典和高光谱字典。
其它步骤及参数与具体实施方式一至四之一相同。
具体实施方式六:本实施方式与具体实施方式一至五之一不同的是:所述软阈值算子
Figure BDA0003289919840000068
定义如下:对于秩为r的矩阵E,基于奇异值分解,E被表示为:E=UΣVT,U为EET的特征向量,V为ETE的特征向量,Σ为E的奇异值矩阵,Σ=diag({σi}1≤i≤r);σi为奇异值,是Σ对角线上的元素;
对于任何ξ≥0,
Figure BDA0003289919840000069
其它步骤及参数与具体实施方式一至五之一相同。
具体实施方式七:本实施方式与具体实施方式一至六之一不同的是:所述步骤三中输入大场景多光谱遥感图像,利用步骤二得到的多光谱字典对输入的大场景多光谱遥感图像进行稀疏表示,学习得到一致稀疏表示系数矩阵;具体过程为:
Figure BDA0003289919840000071
为大场景多光谱遥感图像,ZM的稀疏表示系数矩阵为S;
利用步骤二得到的多光谱字典对大场景多光谱遥感图像ZM进行稀疏表示的目标函数为:
Figure BDA0003289919840000072
其中,δ为平衡各约束项重要性的惩罚系数,
Figure BDA0003289919840000073
为大场景多光谱遥感图像中的样本,,Q为大场景多光谱遥感图像中的样本个数;
为了采用乘数交替方向法,需要引入参数R=S,类似于步骤二,得到拉格朗日增广函数:
Figure BDA0003289919840000074
其中,Ω是拉格朗日乘子,κ是惩罚系数,R为参数;
基于约束模型一阶导数零点为极值点的思想,优化过程如下:
优化S:
Figure BDA0003289919840000075
优化R:
Figure BDA0003289919840000076
优化Ω:
Ω←Ω+κ(R-S)
当||R-S||2≤ε时,停止迭代,此时的
Figure BDA0003289919840000077
即为学习得到的一致稀疏表示系数矩阵。
其它步骤及参数与具体实施方式一至六之一相同。
具体实施方式八:本实施方式与具体实施方式一至七之一不同的是:所述步骤四中利用步骤二得到的高光谱字典和步骤三得到的一致稀疏表示系数矩阵,重构得到大场景的高判别性高光谱图像;具体过程为:
重构的高判别性高光谱图像
Figure BDA0003289919840000081
由下式得到:
Figure BDA0003289919840000082
其它步骤及参数与具体实施方式一至七之一相同。
采用以下实施例验证本发明的有益效果:
实施例一:
一种面向大场景遥感图像分类的类指定多模联合表示方法,具体是按照以下步骤制备的:
实验中所用到的多模数据集包含一幅高光谱图像和一幅多光谱图像,数据已经经过了大气、几何校正等预处理。采集地点为黄河三角洲国家级自然保护区。多光谱图像由高分一号宽幅相机于2018年10月31号采集,其包含4个波段,分别是蓝、绿、红和近红外。空间分辨率为16米,共有1066×1108个像素。高光谱图像由高分五号卫星于2018年11月1日采集,它包含330个波段,光谱覆盖范围是400~2500nm。去除了水汽吸收和噪声波段后剩余295波段。它的空间分辨率是30米,实验前首先通过最近邻插值法将其上采样至与多光谱图像相同的分辨率。高光谱图像与多光谱图像的重叠区域大小为404×448。高光谱图像和多光谱图像的假彩色合成图如图2a和图2b所示,重叠区域的地物标签和非重叠区域的地物标签如图3a和3b所示。实验将原始大场景多光谱图像的分类效果作为基线,对比了三种代表性的方法,图4给出了每类分类精度、平均分类精度(AA)、总体分类精度(OA)和kappa系数四种指标的对比结果。可以看出,本方法(CSSR)在5种类别上取得了最高的分类精度,且AA,OA和Kappa系数均高于其他对比方法。此外,本方法是唯一一个分类精度高于原始大场景多光谱图像分类效果的方法实验结果验证了本发明提出的面向大场景遥感图像精细分类的类指定多模联合表示方法的有效性。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (2)

1.一种面向大场景遥感图像分类的类指定多模联合表示方法,其特征在于:所述方法具体过程为:
步骤一、输入覆盖区域相同的多模遥感图像,以及相应的地物标签图,构造多模遥感图像的类指定多模联合表示模型;
所述多模遥感图像包括多光谱遥感图像和高光谱遥感图像;
步骤二、采用乘数交替方向法求解步骤一构造的多模遥感图像的类指定多模联合表示模型,得到类指定跨模字典;
所述类指定的跨模字典包括多光谱字典和高光谱字典;
步骤三、输入大场景多光谱遥感图像,利用步骤二得到的多光谱字典对输入的大场景多光谱遥感图像进行稀疏表示,学习得到一致稀疏表示系数矩阵;
所述输入的大场景多光谱遥感图像的覆盖区域包含步骤一中多光谱遥感图像的覆盖区域;
步骤四、利用步骤二得到的高光谱字典和步骤三得到的一致稀疏表示系数矩阵,重构得到大场景的高判别性高光谱图像;
所述步骤一中构造多模遥感图像的类指定多模联合表示模型;具体过程为:
Figure FDA0003550116910000011
Figure FDA0003550116910000012
分别表示输入的覆盖区域相同高光谱和多光谱遥感图像中有标签样本的集合;
Figure FDA0003550116910000013
Figure FDA0003550116910000014
分别表示高光谱字典和多光谱字典;
令X表示跨模稀疏表示系数矩阵;
其中,
Figure FDA0003550116910000015
表示高光谱图像中的有标签样本,
Figure FDA0003550116910000016
表示多光谱图像中的有标签样本,dH表示高光谱图像中样本的光谱维度,dM表示多光谱图像中样本的光谱维度,P表示有标签样本的个数,
Figure FDA0003550116910000017
表示高光谱字典中的原子,
Figure FDA0003550116910000018
表示多光谱字典中的原子,N表示字典中原子的个数;
多模遥感图像的类指定多模联合表示模型的目标函数可表示为:
Figure FDA0003550116910000019
前两项
Figure FDA0003550116910000021
代表重构误差,第三项α||X||1,1为跨模稀疏表示系数的稀疏性约束,第四项β(||DH||*+||DM||*)为跨模字典的低秩约束,第五项
Figure FDA0003550116910000022
为判别性约束,第六项
Figure FDA0003550116910000023
为分类约束;
其中,
Figure FDA0003550116910000024
表示Frobenius范数的平方;||·||1,1表示矩阵每列的L1范数;||·||*表示核范数;
Figure FDA0003550116910000025
表示L2范数的平方;
Figure FDA0003550116910000026
表示输入样本的稀疏表示系数对于分类的判别性;A是将原始的稀疏表示系数变换到最具判别性稀疏特征空间的线性映射;
Figure FDA0003550116910000027
是输入样本YH和YM公共的标签,C表示类别总数;当
Figure FDA0003550116910000028
Figure FDA0003550116910000029
属于第c类时,hc,p=1;W是线性分类器的参数;α,β,γ和χ为平衡各约束项重要性的惩罚系数;
所述输入样本的稀疏表示系数对于分类的判别性
Figure FDA00035501169100000210
由输入样本的标签和字典的标签所决定:
Figure FDA00035501169100000211
所述步骤二中采用乘数交替方向法求解步骤一构造的多模遥感图像的类指定多模联合表示模型,得到类指定跨模字典;具体过程为:
为采用乘数交替方向法,需要引入参数B=X,J=DH,K=DM,将多模遥感图像的类指定多模联合表示模型改写成如下形式:
Figure FDA00035501169100000212
s.t.B=X,J=DH,K=DM
其中,
Figure FDA00035501169100000213
B、J、K为参数;
多模遥感图像的类指定多模联合表示模型的拉格朗日增广函数为:
Figure FDA0003550116910000031
其中
Figure FDA0003550116910000032
是拉尔朗日乘子,η是惩罚系数,T为转置;
迭代优化过程如下:
优化X:
X←Γ1 -1Γ2
Γ1=(DH)TDH+(DM)TDM+ATA+WTW+ηIN×N
Γ2=(DH)TYH+(DM)TYM+γATG+χWTH+Φ1+ηB
其中,Γ1、Γ2为中间变量,IN×N表示大小为N×N的单位矩阵,←表示在迭代优化过程中对当前优化的参数赋值;
优化DH和DM
DH←(YHXT+ηJ+Φ2)(XXT+ηIN×N)-1
DM←(YMXT+ηK+Φ3)(XXT+ηIN×N)-1
优化A和W:
A=GXT(XXT+IN×N)-1
W=HXT(XXT+IN×N)-1
优化B:
Figure FDA0003550116910000033
其中,⊙为矩阵的Hadamard积;
优化J和K:
Figure FDA0003550116910000034
Figure FDA0003550116910000035
其中,
Figure FDA0003550116910000036
为软阈值算子,ξ=β/η;
优化
Figure FDA0003550116910000041
Φ1←Φ1+η(B-X)
Φ2←Φ2+η(J-DH)
Φ3←Φ3+η(K-DM)
当||B-X||2≤ε且||J-DH||2≤ε且||K-DM||2≤ε时,停止迭代,此时的
Figure FDA0003550116910000042
Figure FDA0003550116910000043
即为学习得到的类指定跨模字典;ε为预先设定的残差阈值;
所述类指定跨模字典包括多光谱字典和高光谱字典;
所述软阈值算子
Figure FDA0003550116910000044
定义如下:对于秩为r的矩阵E,基于奇异值分解,E被表示为:E=UΣVT,U为EET的特征向量,V为ETE的特征向量,Σ为E的奇异值矩阵,Σ=diag({σi}1≤i≤r);σi为奇异值,是Σ对角线上的元素;
对于任何ξ≥0,
Figure FDA0003550116910000045
所述步骤三中输入大场景多光谱遥感图像,利用步骤二得到的多光谱字典对输入的大场景多光谱遥感图像进行稀疏表示,学习得到一致稀疏表示系数矩阵;具体过程为:
Figure FDA0003550116910000046
为大场景多光谱遥感图像,ZM的稀疏表示系数矩阵为S;
利用步骤二得到的多光谱字典对大场景多光谱遥感图像ZM进行稀疏表示的目标函数为:
Figure FDA0003550116910000047
其中,δ为惩罚系数,
Figure FDA0003550116910000048
为大场景多光谱遥感图像中的样本, Q为大场景多光谱遥感图像中的样本个数;
为了采用乘数交替方向法,需要引入参数R=S,得到拉格朗日增广函数:
Figure FDA0003550116910000049
其中,Ω是拉格朗日乘子,κ是惩罚系数,R为参数;
优化过程如下:
优化S:
Figure FDA0003550116910000051
优化R:
Figure FDA0003550116910000052
优化Ω:
Ω←Ω+κ(R-S)
当||R-S||2≤ε时,停止迭代,此时的
Figure FDA0003550116910000053
即为学习得到的一致稀疏表示系数矩阵。
2.根据权利要求1所述一种面向大场景遥感图像分类的类指定多模联合表示方法,其特征在于:所述步骤四中利用步骤二得到的高光谱字典和步骤三得到的一致稀疏表示系数矩阵,重构得到大场景的高判别性高光谱图像;具体过程为:
重构的高判别性高光谱图像
Figure FDA0003550116910000054
由下式得到:
Figure FDA0003550116910000055
CN202111160930.XA 2021-09-30 2021-09-30 一种面向大场景遥感图像分类的类指定多模联合表示方法 Active CN113850216B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111160930.XA CN113850216B (zh) 2021-09-30 2021-09-30 一种面向大场景遥感图像分类的类指定多模联合表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111160930.XA CN113850216B (zh) 2021-09-30 2021-09-30 一种面向大场景遥感图像分类的类指定多模联合表示方法

Publications (2)

Publication Number Publication Date
CN113850216A CN113850216A (zh) 2021-12-28
CN113850216B true CN113850216B (zh) 2022-05-17

Family

ID=78977329

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111160930.XA Active CN113850216B (zh) 2021-09-30 2021-09-30 一种面向大场景遥感图像分类的类指定多模联合表示方法

Country Status (1)

Country Link
CN (1) CN113850216B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114529769B (zh) * 2022-02-21 2022-11-01 哈尔滨工业大学 一种面向大场景遥感图像分类的可分离多模联合表示方法
CN115797175B (zh) * 2022-11-30 2023-07-18 哈尔滨工业大学 一种基于亚像素字典学习的高光谱遥感图像空间超分辨方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107067040A (zh) * 2017-05-11 2017-08-18 攀枝花学院 基于张量稀疏表示及聚类的多光谱遥感图像分类方法
CN110889358A (zh) * 2019-11-19 2020-03-17 哈尔滨理工大学 一种基于相关系数和联合稀疏表示的高光谱图像分类方法及装置
CN113392790A (zh) * 2021-06-24 2021-09-14 哈尔滨工业大学 全色/多光谱遥感图像与高光谱遥感图像的融合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9946931B2 (en) * 2015-04-20 2018-04-17 Los Alamos National Security, Llc Change detection and change monitoring of natural and man-made features in multispectral and hyperspectral satellite imagery

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107067040A (zh) * 2017-05-11 2017-08-18 攀枝花学院 基于张量稀疏表示及聚类的多光谱遥感图像分类方法
CN110889358A (zh) * 2019-11-19 2020-03-17 哈尔滨理工大学 一种基于相关系数和联合稀疏表示的高光谱图像分类方法及装置
CN113392790A (zh) * 2021-06-24 2021-09-14 哈尔滨工业大学 全色/多光谱遥感图像与高光谱遥感图像的融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于多任务联合稀疏和低秩表示的高分辨率遥感图像分类;刘文轩等;《武汉大学学报(信息科学版)》;20180205(第02期);134-140 *
面向对象的高光谱遥感影像稀疏表示分类;徐锐等;《测绘工程》;20180326(第04期);74-78 *

Also Published As

Publication number Publication date
CN113850216A (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
Wang et al. Hyperspectral image reconstruction using a deep spatial-spectral prior
CN111260576B (zh) 一种基于去噪三维卷积自编码网络的高光谱解混算法
CN113850216B (zh) 一种面向大场景遥感图像分类的类指定多模联合表示方法
Vivone et al. Full scale regression-based injection coefficients for panchromatic sharpening
CN111080567B (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
CN106709881B (zh) 一种基于非凸低秩矩阵分解的高光谱图像去噪方法
CN114529769B (zh) 一种面向大场景遥感图像分类的可分离多模联合表示方法
CN104978573A (zh) 一种应用于高光谱图像处理的非负矩阵分解方法
CN113327218B (zh) 一种基于级联网络的高光谱与全色图像融合方法
CN108520495B (zh) 基于聚类流形先验的高光谱图像超分辨重建方法
Wang et al. Tensor decompositions for hyperspectral data processing in remote sensing: A comprehensive review
CN114998167B (zh) 一种基于空间-光谱联合低秩的高光谱与多光谱图像融合方法
Charles et al. Spectral Superresolution of Hyperspectral Imagery Using Reweighted $\ell_ {1} $ Spatial Filtering
Chen et al. Semisupervised spectral degradation constrained network for spectral super-resolution
CN112699838B (zh) 基于光谱诊断特征加权的高光谱混合像元非线性盲分解方法
CN103413292A (zh) 基于约束最小二乘的高光谱图像非线性丰度估计方法
Wen et al. DeepCASD: An end-to-end approach for multi-spectral image super-resolution
CN115311187A (zh) 基于内部和外部先验的高光谱融合成像方法、系统及介质
CN115984155A (zh) 一种基于光谱解混的高光谱、多光谱和全色图像融合方法
CN115147321A (zh) 一种基于可解译神经网络的多光谱图像融合方法
Sun et al. Mixed noise removal for hyperspectral images based on global tensor low-rankness and nonlocal SVD-aided group sparsity
CN113744134A (zh) 基于光谱解混卷积神经网络的高光谱图像超分辨方法
CN110458760B (zh) 基于信息熵的hnmf遥感图像解混方法
Wang et al. Hyperspectral unmixing using deep learning
CN104899850B (zh) 一种基于加权联合稀疏回归的高光谱图像解混方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant