CN112700370B - 超参数保真与深度先验联合学习的高光谱图像超分辨方法 - Google Patents

超参数保真与深度先验联合学习的高光谱图像超分辨方法 Download PDF

Info

Publication number
CN112700370B
CN112700370B CN202011602987.6A CN202011602987A CN112700370B CN 112700370 B CN112700370 B CN 112700370B CN 202011602987 A CN202011602987 A CN 202011602987A CN 112700370 B CN112700370 B CN 112700370B
Authority
CN
China
Prior art keywords
hyperspectral
resolution
super
model
optimization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011602987.6A
Other languages
English (en)
Other versions
CN112700370A (zh
Inventor
杨劲翔
肖亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202011602987.6A priority Critical patent/CN112700370B/zh
Publication of CN112700370A publication Critical patent/CN112700370A/zh
Application granted granted Critical
Publication of CN112700370B publication Critical patent/CN112700370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种超参数保真与深度先验联合学习的高光谱图像超分辨方法,该方法包括:建立超参数保真模型深度先验正则化的高光谱和多光谱图像融合的变分模型;优化高光谱‑多光谱图像融合变分模型;对模型优化迭代过程进行张量化表示;对变分模型优化的迭代过程进行网络展开,执行优化的迭代过程;使用L1范数作为损失函数,训练网络。本发明具有同时在网络中表示高光谱图像退化模型和数据先验的能力,应用于高光谱‑多光谱图像融合具有优异性能。

Description

超参数保真与深度先验联合学习的高光谱图像超分辨方法
技术领域
本发明涉及高光谱-多光谱图像融合技术,特别是一种超参数保真与深度先验联合学习的高光谱图像超分辨方法。
背景技术
高光谱图像包含丰富的空谱信息,能够在像素级区分场景的材料属性,在遥感中具有重要的应用价值。但是高光谱图像的分辨率低,制约其在高分辨率对地观测中的应用。相比而言,多光谱图像分辨率高,能够为高光谱图像提供地物信息。目前,高光谱-多光谱图像融合成为高光谱图像分辨率的增强技术的重要研究方向。
卷积神经网络(CNN)可以利用图像的空间结构提取特征,能够自然地从高光谱和多光谱图像提取深度空谱特征,进而重构高分辨率的高光谱图像,因此在高光谱-多光谱图像融合中受到广泛关注。通过训练CNN表示高低分辨率图像间的映射关系,CNN可以从低分辨率图像推断出高分辨率的高光谱图像。目前,已有多种基于CNN网络结构被提出,例如,三维CNN、双分支CNN和金字塔CNN,用于高光谱-多光谱图像融合。这些CNN融合网络主要是学习从低分辨率高光谱图像和高分辨率多光谱图像到高分辨率高光谱图像间的映射关系,高光谱图像的分辨率退化模型,未能在融合中充分利用上,使得CNN网络结构缺乏科解释性,也限制了融合性能的提升。
最近,已有学者提出在融合网络中利用高光谱图像的分辨率退化模型,以提高网络的可解释性和融合性能。例如,Dian等人[R.Dian,S.Li,A.Guo,L.Fang,Deephyperspectral image sharpening.IEEE Transactions on Neural Networks andLearning Systems,(99),1-11,2018]在Sylvester框架中将CNN和高光谱图像的分辨率退化模型结合,完成高光谱-多光谱图像融合。Zhang等人[L.Zhang,J.Nie,W.Wei,Y.Zhang,etal,Unsupervised Adaptation Learning for Hyperspectral Imagery Super-Resolution.IEEE Conference on Computer Vision and Pattern Recognition,3073-3082,2020]假设高光谱图像的空间退化模型已知,在CNN网络中学习其光谱维退化模型,并通过无监督自适应学习,完成高光谱-多光谱图像融合。Wang等人[W.Wang,W.Zeng,Y.Huang,X.Ding,J.Paisley,Deep Blind Hyperspectral Image Fusion.IEEEInternational Conference on Computer Vision,4150-4159,2019]提出在CNN网络中交替学习退化模型和融合模型。Xie等人[Q.Xie,M.Zhou,Q.Zhao,Z.Xu,D.Meng,MHF-Net:AnInterpretable Deep Network for Multispectral and Hyperspectral ImageFusion.IEEE Transactions on Pattern Analysis and Machine Intelligence,2020]在CNN网络中隐形的学习高光谱图像的空间退化模型,结合低秩先验,重构高分辨率的高光谱图像。尽管上述方法取得了较好的融合性能,但是如何在CNN网络中学习表示高光谱图像的退化模型及其数据先验,还未得到充分研究。
发明内容
本发明的目的在于提供一种超参数保真与深度先验联合学习的高光谱图像超分辨方法,该方法建立深度先验正则的融合模型,通过从海量数据中学习高光谱图像的退化模型和深度先验,重构高分辨率的高光谱图像,获取优异的融合性能。
实现本发明目的的技术解决方案为:一种超参数保真与深度先验联合学习的高光谱图像超分辨方法,包括以下步骤:
第一步,建立超参数保真模型深度先验正则化的高光谱和多光谱图像融合的变分模型,即根据高光谱图像退化模型,设计数据保真项和正则项,在变分框架下建立深度先验正则的高光谱-多光谱图像融合的目标函数;
第二步,采用交替优化和变量分离方法,优化第一步的融合变分模型,得到迭代求解过程;
第三步,对变分模型优化迭代过程进行张量化表示,即将第二步中的迭代优化问题中的矩阵转化为张量,矩阵运算转换为张量运算;
第四步,对变分模型优化的迭代过程进行网络展开,执行优化的迭代过程,即设计高光谱-多光谱图像融合网络,执行变分模型优化的迭代过程,其中高光谱图像退化模型和数据先验均可以用在网络中得到表示;
第五步,使用L1范数作为损失函数,训练网络。
本发明与现有技术相比,其显著特点在于:(1)基于深度先验的变分正则,设计高光谱-多光谱图像的融合模型,并对其网络化展开,融合网络具有可解释性;(2)高光谱图像的退化模型和深度先验在融合网络中表示,并通过网络训练从数据中学习,退化模型和数据先验可得到充分利用;(3)该网络结构简洁,计算复杂度低,具有训练时间短、推理速度快以及融合精度高等优点;(4)本发明方法能够有效在CNN中表示和学习高光谱图像的退化模型,并学习数据的深度先验,算法的融合精度优异,可广泛应用于高光谱-多光谱图像融合。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明方法的结构图。
图2是ICVL数据不同方法的融合结果,分辨率倍增系数为4倍,(a)CNMF,(b)HySure,(c)FUSE,(d)Two-CNN,(e)DBF,(f)MHF-Net,(g)VaFuNet,(h)基准图。
图3是图2中融合结果的误差图,(a)CNMF,(b)HySure,(c)FUSE,(d)Two-CNN,(e)DBF,(f)MHF-Net,(g)VaFuNet。
图4是Harvard数据不同方法的融合结果,分辨率倍增系数为8倍,(a)CNMF,(b)HySure,(c)FUSE,(d)Two-CNN,(e)DBF,(f)MHF-Net,(g)VaFuNet,(h)基准图。
图5是图4中融合结果的误差图,(a)CNMF,(b)HySure,(c)FUSE,(d)Two-CNN,(e)DBF,(f)MHF-Net,(g)VaFuNet。
具体实施方式
结合图1,下面详细说明本发明的实施过程,步骤如下:
第一步,建立超参数保真模型深度先验正则化的高光谱和多光谱图像融合的变分模型,即根据高光谱图像退化模型,设计数据保真项和正则项,在变分框架下建立深度先验正则的高光谱-多光谱图像融合的目标函数。假设高分辨率的高光谱图像为
Figure BDA0002869361280000031
其中M、N和L分别是X的高、宽和波段数;低分辨率高光谱图像为/>
Figure BDA0002869361280000032
其中m、n和L是其长、宽和波段数;高分辨率多光谱图像为/>
Figure BDA0002869361280000033
M、N和l是其长、宽和波段数。已知低分辨率高光谱图像Y和高分辨率多光谱图像Z,高分辨率的高光谱图像X可以从如下变分模型求得:
Figure BDA0002869361280000034
其中,
Figure BDA0002869361280000041
表示空间退化矩阵,/>
Figure BDA0002869361280000042
表示光谱退化矩阵,C和R是未知的,需要估计。||.||F表示L2范数,度量数据保真,J(.)是正则项,表示高光谱图像的先验知识。参数μ和λ是数据保真项和正则项的权值。
第二步,优化高光谱-多光谱图像融合变分模型,即采用交替优化和变量分离方法,优化第一步的融合变分模型,得到迭代求解过程。具体为采用变量分离算法,引入辅助变量V,公式(1)转换为
Figure BDA0002869361280000043
其中,ρ是辅助变量惩罚项的权重,Jdeep(V)表示深度先验,采用交替迭代算法,公式(2)可以转换为子问题迭代求解,在(k+1)次迭代为:
1)X-子问题
Figure BDA0002869361280000044
采用梯度下降法得到Xk+1的解
Xk+1=Xk+δ[-CTY+CTCXk-μZRT+μXkRRT-ρVk+ρXk] (4)
其中,δ是梯度下降的步长。
2)V-子问题
Figure BDA0002869361280000045
公式(5)也可以写成
Figure BDA0002869361280000046
表示Xk+1处λJdeep/2ρ的邻近算子。该邻近算子可以用现有的去噪算法求解。
第三步,对变分模型优化迭代过程进行张量化表示,即将第二步中的迭代优化问题中的矩阵转化为张量,矩阵运算转换为张量运算。具体为,低分辨率高光谱图像为
Figure BDA0002869361280000047
高分辨率多光谱图像为/>
Figure BDA0002869361280000048
公式(4)转化为
Xk+1=Xk+δ|[-CTY+CTCXk-μZ×3R+μXk×3RT×3R-ρVk+ρXk] (6)
其中,
Figure BDA0002869361280000049
表示(k+1)次迭代的中间解,δ表示迭代步长,×3是模-3张量积。类似的,公式(5)可以张量化为
Figure BDA00028693612800000410
其中,
Figure BDA00028693612800000411
是辅助变量V的张量。/>
第四步,对变分模型优化的迭代过程进行网络展开,执行优化的迭代过程,即设计高光谱-多光谱图像融合网络,执行变分模型优化的迭代过程,其中高光谱图像退化模型和数据先验都可以用在网络中得到表示。
具体的,公式(6)中的符号C和CT分别表示空间退化运算及其逆运算,和公式(4)中的C和CT物理意义相同。在网络展开中,可以用卷积层和反卷积层实现,其中卷积层和反卷积层的核尺寸和步长均为高光谱-多光谱图像融合的分辨率倍增系数r。RT和R表示光谱变换,和RT的模-3张量积表示光谱退化,在网络中可以由卷积层实现,其中卷积核尺寸为1×1,特征数为l。类似的,和R的模-3张量积也可以通过卷积层实现,其中卷积核尺寸为1×1,特征数为L。
公式(7)中的邻近算子可采用任何去噪卷积神经网络实现。
第五步,使用L1范数作为损失函数,训练网络。采用重构高光谱图像的误差的L1范数作为损失函数
Figure BDA0002869361280000051
其中,VaFuNet(.)表示融合网络,X(t)表示t个基准高分辨率高光谱图像,Y(t)和Z(t)表示低分辨率高光谱图像和高分辨率多光谱图像,t=1,2,...,T,T表示训练样本数。采用ADAM优化算法优化损失函数。
本发明的效果可通过以下仿真实验进一步说明:
(1)仿真条件
实验数据采用2个数据集。第一个数据集为ICVL数据集,该数据集由Specim PSKappa DX4高光谱相机采集,包含201组图像,每个图像包含31个波段。光谱范围为400~700nm,空间尺寸为1300×1392。第二个数据集为Harvard数据集,该数据集由Nuance FX高光谱相机采集,包含50个场景,每个场景包含31个波段,光谱范围为420~720nm,空间尺寸为1040×1392。
(2)仿真实验结果分析
表1为本发明方法及其对比方法对ICVL和Harvard数据集进行仿真实验的融合性能。
表1
Figure BDA0002869361280000052
/>
Figure BDA0002869361280000061
从实验结果来看,本发明在三个不同数据集上均获得了对比方法中的最好效果,在基准数据集ICVL上,当分辨率倍增系数为4倍和8倍时,重构高分辨率图像的峰值信噪比可达54.4341dB和53.0080dB;在数据集Harvard上,当分辨率倍增系数为4倍和8倍时,重构高分辨率图像的峰值信噪比可达42.1229dB和41.3671dB。本发明方法具有应用于高光谱-多光谱图像融合时具有优异性能。不同对比方法在三组数据集上的融合图如图2-5所示,本发明的融合结果相比于其他方法具有更高的结构保真性,如图2和图4所示,其重构误差也低于其他对比算法,如图3和图5所示。以上数据集的仿真实验结果表明了本发明方法的有效性。

Claims (3)

1.一种超参数保真与深度先验联合学习的高光谱图像超分辨方法,其特征在于,包括以下步骤:
第一步,建立超参数保真模型深度先验正则化的高光谱和多光谱图像融合的变分模型,即根据高光谱图像退化模型,设计数据保真项和正则项,在变分框架下建立深度先验正则的高光谱-多光谱图像融合的目标函数;
假设高分辨率的高光谱图像为
Figure FDA0004068814960000011
其中M、N和L分别是X的长、宽和波段数;低分辨率高光谱图像为/>
Figure FDA0004068814960000012
其中m、n和L是其长、宽和波段数;高分辨率多光谱图像为
Figure FDA0004068814960000013
M、N和l是其长、宽和波段数;已知低分辨率高光谱图像Y和高分辨率多光谱图像Z,高分辨率的高光谱图像X从如下变分模型求得:
Figure FDA0004068814960000014
其中,
Figure FDA0004068814960000015
表示空间退化矩阵,/>
Figure FDA0004068814960000016
表示光谱退化矩阵,C和R是未知的,需要估计;||.||F表示L2范数,度量数据保真,J(.)是正则项,表示高光谱图像的先验知识;参数μ和λ是数据保真项和正则项的权值;
第二步,采用交替优化和变量分离方法,优化第一步的融合变分模型,得到迭代求解过程;具体为采用变量分离算法,引入辅助变量V,公式(1)转换为
Figure FDA0004068814960000017
其中,ρ是辅助变量惩罚项的权重,Jdeep(V)表示深度先验,采用交替迭代算法,公式(2)转换为子问题迭代求解,在(k+1)次迭代为:
1)X-子问题
Figure FDA0004068814960000018
采用梯度下降法得到Xk+1的解
Xk+1=Xk+δ[-CTY+CTCXk-μZRT+μXkRRT-ρVk+ρXk] (4)
其中,δ是梯度下降的步长;
2)V-子问题
Figure FDA0004068814960000019
公式(5)也写成
Figure FDA0004068814960000021
表示Xk+1处λJdeep/2ρ的邻近算子,该邻近算子用现有的去噪算法求解;其中,/>
Figure FDA0004068814960000022
是辅助变量V的张量;
第三步,对变分模型优化迭代过程进行张量化表示,即将第二步中的迭代优化问题中的矩阵转化为张量,矩阵运算转换为张量运算;
第四步,对变分模型优化的迭代过程进行网络展开,执行优化的迭代过程,即设计高光谱-多光谱图像融合网络,执行变分模型优化的迭代过程,其中高光谱图像退化模型和数据先验均能用在网络中得到表示;具体的,公式(6)中的符号C和CT分别表示空间退化运算及其逆运算,和公式(4)中的C和CT物理意义相同;在网络展开中,用卷积层和反卷积层实现,其中卷积层和反卷积层的核尺寸和步长均为高光谱-多光谱图像融合的分辨率倍增系数r;RT和R表示光谱变换,和RT的模-3张量积表示光谱退化,在网络中由卷积层实现,其中卷积核尺寸为1×1,特征数为l;和R的模-3张量积通过卷积层实现,其中卷积核尺寸为1×1,特征数为L;
第五步,使用L1范数作为损失函数,训练网络。
2.根据权利要求1所述的超参数保真与深度先验联合学习的高光谱图像超分辨方法,其特征在于,第三步,对变分模型优化迭代过程进行张量化表示,即将第二步中的迭代优化问题中的矩阵转化为张量,矩阵运算转换为张量运算;具体为,低分辨率高光谱图像为
Figure FDA0004068814960000023
高分辨率多光谱图像为/>
Figure FDA0004068814960000024
公式(4)转化为
Xk+1=Xk+δ[-CTY+CTCX k-μZ×3 R+μXk×3 RT×3 R-ρVk+ρXk] (6)
其中,
Figure FDA0004068814960000025
表示(k+1)次迭代的中间解,δ表示迭代步长,×3是模-3张量积;类似的,公式(5)张量化为
Figure FDA0004068814960000026
其中,
Figure FDA0004068814960000027
是辅助变量V的张量。
3.根据权利要求1所述的超参数保真与深度先验联合学习的高光谱图像超分辨方法,其特征在于,第五步,使用L1范数作为损失函数,训练网络,采用重构高光谱图像的误差的L1范数作为损失函数
Figure FDA0004068814960000028
其中,VaFuNet(.)表示融合网络,X(t)表示t个基准高分辨率高光谱图像,Y(t)和Z(t)表示低分辨率高光谱图像和高分辨率多光谱图像,t=1,2,...,T,T表示训练样本数;采用ADAM优化算法优化损失函数。
CN202011602987.6A 2020-12-29 2020-12-29 超参数保真与深度先验联合学习的高光谱图像超分辨方法 Active CN112700370B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011602987.6A CN112700370B (zh) 2020-12-29 2020-12-29 超参数保真与深度先验联合学习的高光谱图像超分辨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011602987.6A CN112700370B (zh) 2020-12-29 2020-12-29 超参数保真与深度先验联合学习的高光谱图像超分辨方法

Publications (2)

Publication Number Publication Date
CN112700370A CN112700370A (zh) 2021-04-23
CN112700370B true CN112700370B (zh) 2023-06-13

Family

ID=75512262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011602987.6A Active CN112700370B (zh) 2020-12-29 2020-12-29 超参数保真与深度先验联合学习的高光谱图像超分辨方法

Country Status (1)

Country Link
CN (1) CN112700370B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436123B (zh) * 2021-06-22 2022-02-01 宁波大学 去云-分辨率提升协同的高分sar与低分多光谱图像融合方法
CN114155145B (zh) * 2021-11-12 2024-05-17 哈尔滨工业大学 一种基于深度展开网络的空谱同时超分辨率重建方法
CN114757831B (zh) * 2022-06-13 2022-09-06 湖南大学 基于智能空谱融合的高分辨率视频高光谱成像方法、装置及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104867124A (zh) * 2015-06-02 2015-08-26 西安电子科技大学 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法
CN106920220A (zh) * 2017-02-24 2017-07-04 西北工业大学 基于暗原色和交替方向乘子法优化的湍流图像盲复原方法
CN110428387A (zh) * 2018-11-16 2019-11-08 西安电子科技大学 基于深度学习与矩阵分解的高光谱与全色图像融合方法
CN111127374A (zh) * 2019-11-22 2020-05-08 西北大学 一种基于多尺度密集网络的Pan-sharpening方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104867124A (zh) * 2015-06-02 2015-08-26 西安电子科技大学 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法
CN106920220A (zh) * 2017-02-24 2017-07-04 西北工业大学 基于暗原色和交替方向乘子法优化的湍流图像盲复原方法
CN110428387A (zh) * 2018-11-16 2019-11-08 西安电子科技大学 基于深度学习与矩阵分解的高光谱与全色图像融合方法
CN111127374A (zh) * 2019-11-22 2020-05-08 西北大学 一种基于多尺度密集网络的Pan-sharpening方法

Also Published As

Publication number Publication date
CN112700370A (zh) 2021-04-23

Similar Documents

Publication Publication Date Title
CN112700370B (zh) 超参数保真与深度先验联合学习的高光谱图像超分辨方法
Liu et al. A 3-D atrous convolution neural network for hyperspectral image denoising
CN109102477B (zh) 一种基于非凸低秩稀疏约束的高光谱遥感图像恢复方法
Arun et al. CNN-based super-resolution of hyperspectral images
CN112233026A (zh) 一种基于多尺度残差注意力网络的sar图像去噪方法
CN109087273B (zh) 基于增强的神经网络的图像复原方法、存储介质及系统
CN109102469B (zh) 一种基于卷积神经网络的遥感图像全色锐化方法
CN114119444B (zh) 一种基于深度神经网络的多源遥感图像融合方法
CN109859110B (zh) 基于光谱维控制卷积神经网络的高光谱图像全色锐化方法
CN110992262A (zh) 一种基于生成对抗网络的遥感图像超分辨重建方法
Zhang et al. Kernel Wiener filtering model with low-rank approximation for image denoising
CN112150354B (zh) 联合轮廓增强与去噪统计先验的单幅图像超分辨率方法
CN108257093B (zh) 基于可控核与高斯过程回归的单帧图像超分辨方法
CN114998167B (zh) 一种基于空间-光谱联合低秩的高光谱与多光谱图像融合方法
Lin et al. Deep unsupervised learning for image super-resolution with generative adversarial network
Liu et al. Multi-filters guided low-rank tensor coding for image inpainting
CN109636722B (zh) 一种基于稀疏表示的在线字典学习超分辨率重建的方法
Cheng et al. Image super-resolution based on half quadratic splitting
Liu et al. Research on super-resolution reconstruction of remote sensing images: A comprehensive review
CN113962882B (zh) 一种基于可控金字塔小波网络的jpeg图像压缩伪影消除方法
Goyal et al. An adaptive bitonic filtering based edge fusion algorithm for Gaussian denoising
CN111461976A (zh) 基于高效轻量级坐标神经网络的图像超分辨率方法
CN112837220B (zh) 一种提高红外图像分辨率的方法及其用途
CN115131258A (zh) 一种基于稀疏张量先验的高光谱、多光谱和全色图像融合方法
Sun et al. A rapid and accurate infrared image super-resolution method based on zoom mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant