CN112184553A - 一种基于深度先验信息的高光谱图像超分辨率方法 - Google Patents
一种基于深度先验信息的高光谱图像超分辨率方法 Download PDFInfo
- Publication number
- CN112184553A CN112184553A CN202011025262.5A CN202011025262A CN112184553A CN 112184553 A CN112184553 A CN 112184553A CN 202011025262 A CN202011025262 A CN 202011025262A CN 112184553 A CN112184553 A CN 112184553A
- Authority
- CN
- China
- Prior art keywords
- image
- resolution
- layer
- prior information
- hyperspectral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000004927 fusion Effects 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 20
- 230000003595 spectral effect Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 13
- 238000005457 optimization Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000005316 response function Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000009977 dual effect Effects 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims 1
- 230000000644 propagated effect Effects 0.000 claims 1
- 230000015556 catabolic process Effects 0.000 abstract description 7
- 238000006731 degradation reaction Methods 0.000 abstract description 7
- 238000001228 spectrum Methods 0.000 abstract description 2
- 238000000701 chemical imaging Methods 0.000 description 2
- 238000011840 criminal investigation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 101100043438 Mus musculus Srsf10 gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010668 complexation reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度先验信息的高光谱图像超分辨率方法,首先利用双流融合神经网络融合插值后的低分辨率高光谱图像和与其空间配准的高分辨率彩色图像,学习潜在高分辨率高光谱图像的先验信息;然后利用神经网络的输出表征学习到的先验信息,将深度先验信息表征构造正则项约束基于退化物理模型的目标函数;最后通过求解Sylvester方程得到该目标函数的最优解,同时自动估计正则项参数调整退化物理模型和先验信息的贡献度,在最优正则项参数下重建出高分辨率高光谱图像。本发明最大程度地复原了光谱和空间信息,从而得到高质量的高分辨率高光谱图像,同时算法运行速度快,实用性好。
Description
技术领域
本发明属于图像处理领域,具体涉及一种图像超分辨方法。
背景技术
高光谱成像能够同时获取同一场景不同波长的一系列图像,高光谱图像提供的丰富光谱特性在在遥感领域中起着至关重要的作用。相比于传统图像(如彩色和灰度图像),真实场景中的高光谱图像包含更丰富的光谱信息,可以被广泛运用于遥感地物检测,军事侦察和刑侦辅助等任务中。然而,为了得到可接受的信噪比,高光谱成像的高光谱分辨率以牺牲空间分辨率为代价,而低空间分辨率限制了高光谱图像的应用。因此,提高高光谱图像的空间分辨率是非常有必要的。
由于硬件层面的限制,直接研发同时具有高光谱分辨率和高空间分辨率的高光谱相机是非常难的。而现有的传统相机能够整合多高光谱波段的场景反射,拍摄出空间分辨率高但光谱分辨率低的彩色或全色图像。因此,很多研究人员将目光投向低空间分辨率高光谱图像和高空间分辨率传统图像的融合,以得到高空间分辨率的高光谱图像,这个过程被称之为高光谱图像融合或高光谱图像超分辨。
目前最先进的主流高光谱超分辨技术可以大致分为传统优化方法和深度学习方法两种。传统的优化方法通过定义先验信息,并设计正则项,约束由物理退化模型得到的目标函数,通过优化目标函数得到高分辨率高光谱图像,这种方法利用了退化物理模型的信息,往往能够取得比较好的结果,但是手动设计的正则项往往会使得优化求解变得复杂,算法非常耗时。与此同时,主流的传统优化方法中,通过手动调参得到的正则项参数,使得算法缺乏对不同输入数据的适应性,一定程度上限制了方法的实用性。深度学习方法通过直接学习低空间分辨率高光谱图像、高空间分辨率彩色图像到高分辨率高光谱图像之间的网络映射,这种算法可以部署在GPU上进行大规模并行计算,推演速度快,但是没有利用到物理退化模型的信息,性能仍有一定提升空间。
发明内容
为了克服现有技术的不足,本发明提供了一种基于深度先验信息的高光谱图像超分辨率方法,首先利用双流融合神经网络融合插值后的低分辨率高光谱图像和与其空间配准的高分辨率彩色图像,学习潜在高分辨率高光谱图像的先验信息;然后利用神经网络的输出表征学习到的先验信息,将深度先验信息表征构造正则项约束基于退化物理模型的目标函数;最后通过求解Sylvester方程得到该目标函数的最优解,同时自动估计正则项参数调整退化物理模型和先验信息的贡献度,在最优正则项参数下重建出高分辨率高光谱图像。本发明最大程度地复原了光谱和空间信息,从而得到高质量的高分辨率高光谱图像,同时算法运行速度快,实用性好。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:从图像库中获取同一场景的低分辨率高光谱图像Y、高分辨率彩色图像Z和高分辨率高光谱图像X;获取低分辨率高光谱图像Y的光谱通道数为J;对低分辨率高光谱图像Y和高分辨率彩色图像Z进行归一化处理;再对低分辨率高光谱图像Y的每个光谱通道分别进行双三次插值得到插值后高光谱图像Yup;构造配对图像集(Yup,Z;X);
步骤2:构建双流融合网络并采用配对图像集(Yup,Z;X)训练网络;
步骤2-1:构建残差网络模块:从输入到输出依次为卷积层a1、批标准化层b1、激活层c1、卷积层a2、批标准化层b2和叠加层d1;输入特征通过跳跃连接和批标准化层b2的输出一起输入叠加层d1;
步骤2-2:构建双流融合神经网络:
双流融合神经网络包括两个分支;
第一分支从输入到输出依次为:卷积层a3、激活层c2、P个残差网络模块和卷积层a4;第二分支从输入到输出依次为:卷积层a5、激活层c3、Q个残差网络模块和卷积层a6;第一分支和第二分支的输出再一起合流输入特征拼接层,之后依次为卷积层a7、批标准化层b3、激活层c4、卷积层a8和叠加层d2;卷积层a8包含J个3×3的滤波器,步长为1;
第二分支中激活层c3的输出通过跳跃连接和卷积层a8的输出一起输入叠加层d2;
步骤2-3:选用图像集(Yup,Z;X)中三分之二的图像对作为训练集,其余三分之一作为测试集;在训练集的每幅图像中随机选取图像自身尺寸1/h大小的M个图像块,再将每幅图像中的M个图像块进行随机翻转和镜像;将经过上述处理的插值后高光谱图像Yup中的图像块作为第一分支的输入,将经过上述处理的高分辨率彩色图像Z中的图像块作为第二分支的输入,将经过上述处理的高分辨率高光谱图像X作为标签图像;
损失函数定义如下:
||F(Yup,Z;Θ)-X||1
其中,F(*)代表双流融合神经网络映射,Θ代表双流融合神经网络模型参数;
步骤2-4:利用Adam优化算法,设置初始学习率为e,每次向前传播时随机取f 个样本,算法迭代g代;训练完成得到双流融合神经网络模型参数;
步骤3:将测试集中的插值后高光谱图像Yup和高分辨率彩色图像Z输入步骤2训练完成的双流融合神经网络,得到深度先验信息表征Xf;
步骤4:构造带正则项的目标函数:
步骤5:在μ的取值范围[10-8,1]内等间隔选取若干个不同的正则项参数μ值,对步骤4中带正则项的目标函数求导并置为0,将目标函数转化为Sylvester方程,利用 FUSE算法求解在不同的正则项参数μ下的X的解Xμ;
步骤6:基于最大曲率准则估计最优正则项参数μ*;
步骤6-1利用Xμ计算数据保真项和正则项的值:
式中,J1(μ)表示数据保真项的值,J2(μ)表示正则项的值;
步骤6-2:计算由点(J1(μ),J2(μ))组成的曲线曲率,表示为:
步骤6-3:利用最大曲率准则,将使κ(μ)最大值对应的μ作为最佳正则项参数μ*;
优选地,所述卷积层a1、a2、a3、a4、a5、a6和a7均包含64个3×3的滤波器,步长均为1。
优选地,所述激活层c1、c2、c3和c4均为PReLU函数。
优选地,所述P=12,Q=12。
优选地,所述h=4,M=100。
优选地,所述初始学习率e=0.0002,样本数f=16,算法迭代数g=500。
本发明具有以下有益效果:
1、本发明设计了一种能够直接从两种输入图像学习深度先验信息的双流融合神经网络,不需要预先进行两种输入图像的融合,避免了融合过程中带来的误差。
2、本发明通过正则项的构造,将学习到的深度先验信息嵌入到物理退化模型中,约束目标函数,达到了更好的超分辨效果。
3、通过最大曲率准则自动选择最佳的正则项参数,避免了手动调参,有利于对不同输入数据的适应性,增强了本发明的实用性。
附图说明
图1为本发明的流程示意图。
图2为本发明的残差网络模块示意图。
图3为本发明的双流融合神经网络示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,一种基于深度先验信息的高光谱图像超分辨率方法,包括以下步骤:
步骤1:从图像库中获取同一场景的低分辨率高光谱图像Y、高分辨率彩色图像Z和高分辨率高光谱图像X;获取低分辨率高光谱图像Y的光谱通道数为J;对低分辨率高光谱图像Y和高分辨率彩色图像Z进行归一化处理;再对低分辨率高光谱图像Y的每个光谱通道分别进行双三次插值得到插值后高光谱图像Yup;构造配对图像集(Yup,Z;X);
步骤2:构建双流融合网络并采用配对图像集(Yup,Z;X)训练网络;
步骤2-1:如图2所示,构建残差网络模块:从输入到输出依次为卷积层a1、批标准化层b1、激活层c1、卷积层a2、批标准化层b2和叠加层d1;输入特征通过跳跃连接和批标准化层b2的输出一起输入叠加层d1;
步骤2-2:如图3所示,构建双流融合神经网络:
双流融合神经网络包括两个分支;
第一分支从输入到输出依次为:卷积层a3、激活层c2、P个残差网络模块和卷积层a4;第二分支从输入到输出依次为:卷积层a5、激活层c3、Q个残差网络模块和卷积层a6;第一分支和第二分支的输出再一起合流输入特征拼接层,之后依次为卷积层a7、批标准化层b3、激活层c4、卷积层a8和叠加层d2;卷积层a8包含J个3×3的滤波器,步长为1;
第二分支中激活层c3的输出通过跳跃连接和卷积层a8的输出一起输入叠加层d2;
步骤2-3:选用图像集(Yup,Z;X)中三分之二的图像对作为训练集,其余三分之一作为测试集;在训练集的每幅图像中随机选取图像自身尺寸1/h大小的M个图像块,再将每幅图像中的M个图像块进行随机翻转和镜像;将经过上述处理的插值后高光谱图像Yup中的图像块作为第一分支的输入,将经过上述处理的高分辨率彩色图像Z中的图像块作为第二分支的输入,将经过上述处理的高分辨率高光谱图像X作为标签图像;
损失函数定义如下:
||F(Yup,Z;Θ)-X||1
其中,F(*)代表双流融合神经网络映射,Θ代表双流融合神经网络模型参数;
步骤2-4:利用Adam优化算法,设置初始学习率为e,每次向前传播时随机取f 个样本,算法迭代g代;训练完成得到双流融合神经网络模型参数;
步骤3:将测试集中的插值后高光谱图像Yup和高分辨率彩色图像Z输入步骤2训练完成的双流融合神经网络,得到深度先验信息表征Xf;
步骤4:构造带正则项的目标函数:
步骤5:在μ的取值范围[10-8,1]内等间隔选取若干个不同的正则项参数μ值,对步骤4中带正则项的目标函数求导并置为0,将目标函数转化为Sylvester方程,利用 FUSE算法求解在不同的正则项参数μ下的X的解Xμ;
步骤6:基于最大曲率准则估计最优正则项参数μ*;
步骤6-1利用Xμ计算数据保真项和正则项的值:
式中,J1(μ)表示数据保真项的值,J2(μ)表示正则项的值;
步骤6-2:计算由点(J1(μ),J2(μ))组成的曲线曲率,表示为:
步骤6-3:利用最大曲率准则,将使κ(μ)最大值对应的μ作为最佳正则项参数μ*;
步骤7:输出最优正则项参数μ*下的对应的超分辨图像Xμ*,完成高光谱图像超分辨。
优选地,所述卷积层a1、a2、a3、a4、a5、a6和a7均包含64个3×3的滤波器,步长均为1。
优选地,所述激活层c1、c2、c3和c4均为PReLU函数。
优选地,所述P=12,Q=12。
优选地,所述h=4,M=100。
优选地,所述初始学习率e=0.0002,样本数f=16,算法迭代数g=500。
具体实施例:
本实施例在CAVE数据库上进实验。该数据库包含32张在室内受控光源下拍摄的高光谱图像,每张高光谱图像的空间分辨率为512×512(像素),共有31个光谱通道。本发明将CAVE数据集分为训练集(前20张)和测试集合(后12张),把原始的高光谱图像作为真实的高分辨率高光谱图像,并且将空间分辨率分别降为1/8倍,1/16 倍和1/32倍,得到低分辨率高光谱图像,同时利用光谱响应函数得到高分辨率彩色图像。然后采用本发明方法进行超分辨。
为了证明方法的有效性和崭新性,选取了4种对比方法进行了比较:CSU、NSSR、DHSIS和CMS。
本发明采用根值均方误差(RMSE:Root Mean Square Error),峰值信噪比(PSNR:Peak Signal to Noise Ratio),综合维数相对误差(ERGAS:Erreur Relative GlobaleAdimensionnelle de Synthèse)和光谱角映射(SAM:Spectral Angle Mapper)来综合评价高光谱图像超分辨性能。
表1本发明与现有技术处理测试集12张图像的RMSE、PSNR、ERGAS和SAM平均值对比
从表1可以看出,本发明的各个性能指标平均值在各个放大倍数下均是最好的。这是因为本发明充分利用了双流融合网络学习高分辨率高光谱图像的先验信息,并很好的结合了物理退化模型和同时正则项参数选择使得本方法对不同输入数据具有针对性。因此本方法比其他方法更有效、更鲁棒,进一步验证了本发明的有效性。
本发明与现有方法相比,将深度先验信息的学习引入到高光谱图像的超分辨中,利用了深度神经网络强大的学习能力,从两种输入图像中学习先验信息,用于高光谱图像的重建,既避免了传统优化方法中对正则项的设计和对复杂优化式的求解,又避免了深度学习方法对物理退化模型的忽视。同时,引入了最佳正则项参数自动估计,最大程度地提高方法对不同输入数据的适应性,具有超分辨率效果好,算法运行速度快的优点,可用于遥感地物检测,军事侦察和刑侦辅助等任务中。
Claims (6)
1.一种基于深度先验信息的高光谱图像超分辨率方法,其特征在于,包括以下步骤:
步骤1:从图像库中获取同一场景的低分辨率高光谱图像Y、高分辨率彩色图像Z和高分辨率高光谱图像X;获取低分辨率高光谱图像Y的光谱通道数为J;对低分辨率高光谱图像Y和高分辨率彩色图像Z进行归一化处理;再对低分辨率高光谱图像Y的每个光谱通道分别进行双三次插值得到插值后高光谱图像Yup;构造配对图像集(Yup,Z;X);
步骤2:构建双流融合网络并采用配对图像集(Yup,Z;X)训练网络;
步骤2-1:构建残差网络模块:从输入到输出依次为卷积层a1、批标准化层b1、激活层c1、卷积层a2、批标准化层b2和叠加层d1;输入特征通过跳跃连接和批标准化层b2的输出一起输入叠加层d1;
步骤2-2:构建双流融合神经网络:
双流融合神经网络包括两个分支;
第一分支从输入到输出依次为:卷积层a3、激活层c2、P个残差网络模块和卷积层a4;第二分支从输入到输出依次为:卷积层a5、激活层c3、Q个残差网络模块和卷积层a6;第一分支和第二分支的输出再一起合流输入特征拼接层,之后依次为卷积层a7、批标准化层b3、激活层c4、卷积层a8和叠加层d2;卷积层a8包含J个3×3的滤波器,步长为1;
第二分支中激活层c3的输出通过跳跃连接和卷积层a8的输出一起输入叠加层d2;
步骤2-3:选用图像集(Yup,Z;X)中三分之二的图像对作为训练集,其余三分之一作为测试集;在训练集的每幅图像中随机选取图像自身尺寸1/h大小的M个图像块,再将每幅图像中的M个图像块进行随机翻转和镜像;将经过上述处理的插值后高光谱图像Yup中的图像块作为第一分支的输入,将经过上述处理的高分辨率彩色图像Z中的图像块作为第二分支的输入,将经过上述处理的高分辨率高光谱图像X作为标签图像;
损失函数定义如下:
||F(Yup,Z;Θ)-X||1
其中,F(*)代表双流融合神经网络映射,Θ代表双流融合神经网络模型参数;
步骤2-4:利用Adam优化算法,设置初始学习率为e,每次向前传播时随机取f个样本,算法迭代g代;训练完成得到双流融合神经网络模型参数;
步骤3:将测试集中的插值后高光谱图像Yup和高分辨率彩色图像Z输入步骤2训练完成的双流融合神经网络,得到深度先验信息表征Xf;
步骤4:构造带正则项的目标函数:
步骤5:在μ的取值范围[10-8,1]内等间隔选取若干个不同的正则项参数μ值,对步骤4中带正则项的目标函数求导并置为0,将目标函数转化为Sylvester方程,利用FUSE算法求解在不同的正则项参数μ下的X的解Xu;
步骤6:基于最大曲率准则估计最优正则项参数μ*;
步骤6-1利用Xu计算数据保真项和正则项的值:
式中,J1(μ)表示数据保真项的值,J2(μ)表示正则项的值;
步骤6-2:计算由点(J1(μ),J2(μ))组成的曲线曲率,表示为:
步骤6-3:利用最大曲率准则,将使κ(μ)最大值对应的μ作为最佳正则项参数μ*;
2.根据权利要求1所述的一种基于深度先验信息的高光谱图像超分辨率方法,其特征在于,所述卷积层a1、a2、a3、a4、a5、a6和a7均包含64个3×3的滤波器,步长均为1。
3.根据权利要求1所述的一种基于深度先验信息的高光谱图像超分辨率方法,其特征在于,所述激活层c1、c2、c3和c4均为PReLU函数。
4.根据权利要求1所述的一种基于深度先验信息的高光谱图像超分辨率方法,其特征在于,所述P=12,Q=12。
5.根据权利要求1所述的一种基于深度先验信息的高光谱图像超分辨率方法,其特征在于,所述h=4,M=100。
6.根据权利要求1所述的一种基于深度先验信息的高光谱图像超分辨率方法,其特征在于,所述初始学习率e=0.0002,样本数f=16,算法迭代数g=500。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011025262.5A CN112184553A (zh) | 2020-09-25 | 2020-09-25 | 一种基于深度先验信息的高光谱图像超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011025262.5A CN112184553A (zh) | 2020-09-25 | 2020-09-25 | 一种基于深度先验信息的高光谱图像超分辨率方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112184553A true CN112184553A (zh) | 2021-01-05 |
Family
ID=73943910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011025262.5A Pending CN112184553A (zh) | 2020-09-25 | 2020-09-25 | 一种基于深度先验信息的高光谱图像超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112184553A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139902A (zh) * | 2021-04-23 | 2021-07-20 | 深圳大学 | 一种高光谱图像超分辨率重建方法、装置及电子设备 |
CN113780199A (zh) * | 2021-09-15 | 2021-12-10 | 江苏迪赛司自动化工程有限公司 | 一种双视成像装置和皮带运输异物目标智能识别方法 |
CN117726916A (zh) * | 2024-02-18 | 2024-03-19 | 电子科技大学 | 一种图像分辨率融合增强的隐式融合方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428387A (zh) * | 2018-11-16 | 2019-11-08 | 西安电子科技大学 | 基于深度学习与矩阵分解的高光谱与全色图像融合方法 |
-
2020
- 2020-09-25 CN CN202011025262.5A patent/CN112184553A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428387A (zh) * | 2018-11-16 | 2019-11-08 | 西安电子科技大学 | 基于深度学习与矩阵分解的高光谱与全色图像融合方法 |
Non-Patent Citations (1)
Title |
---|
XIUHENG WANG等: "Hyperspectral Image Super-Resolution via Deep Prior Regularization with Parameter Estimation", 《HTTPS://ARXIV.ORG/ABS/2009.04237(V1版)》, 9 September 2020 (2020-09-09), pages 1 - 4 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139902A (zh) * | 2021-04-23 | 2021-07-20 | 深圳大学 | 一种高光谱图像超分辨率重建方法、装置及电子设备 |
CN113780199A (zh) * | 2021-09-15 | 2021-12-10 | 江苏迪赛司自动化工程有限公司 | 一种双视成像装置和皮带运输异物目标智能识别方法 |
CN117726916A (zh) * | 2024-02-18 | 2024-03-19 | 电子科技大学 | 一种图像分辨率融合增强的隐式融合方法 |
CN117726916B (zh) * | 2024-02-18 | 2024-04-19 | 电子科技大学 | 一种图像分辨率融合增强的隐式融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109903228B (zh) | 一种基于卷积神经网络的图像超分辨率重建方法 | |
CN111047515B (zh) | 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法 | |
CN112184553A (zh) | 一种基于深度先验信息的高光谱图像超分辨率方法 | |
CN113222823B (zh) | 基于混合注意力网络融合的高光谱图像超分辨率方法 | |
CN112734646B (zh) | 一种基于特征通道划分的图像超分辨率重建方法 | |
CN112184554B (zh) | 一种基于残差混合膨胀卷积的遥感图像融合方法 | |
CN110675321A (zh) | 一种基于渐进式的深度残差网络的超分辨率图像重建方法 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及系统 | |
CN111932461B (zh) | 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统 | |
CN111127374A (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN112270644A (zh) | 基于空间特征变换和跨尺度特征集成的人脸超分辨方法 | |
CN109214989A (zh) | 基于多方向特征预测先验的单幅图像超分辨率重建方法 | |
CN111369466B (zh) | 基于可变形卷积的卷积神经网络的图像畸变矫正增强方法 | |
CN111178499B (zh) | 一种基于生成对抗网络改进的医学图像超分辨率方法 | |
Niu et al. | Low cost edge sensing for high quality demosaicking | |
CN111833261A (zh) | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 | |
CN109886898B (zh) | 基于优化启发的神经网络的光谱成像系统的成像方法 | |
CN115564692B (zh) | 顾及幅宽差异下的全色-多光谱-高光谱一体化融合方法 | |
CN115331104A (zh) | 一种基于卷积神经网络的农作物种植信息提取方法 | |
CN115526779A (zh) | 一种基于动态注意力机制的红外图像超分辨率重建方法 | |
CN115880158A (zh) | 一种基于变分自编码的盲图像超分辨率重建方法及系统 | |
CN110717947A (zh) | 一种基于外部和内部训练的高质量光谱重构方法 | |
CN116433548A (zh) | 一种基于多级信息提取的高光谱与全色图像融合方法 | |
CN117557476A (zh) | 一种基于fctft的图像重建方法及其系统 | |
CN116883799A (zh) | 成分替换模型引导的高光谱图像深度空间光谱融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210105 |