CN110119780B - 基于生成对抗网络的高光谱图像超分辨重建方法 - Google Patents

基于生成对抗网络的高光谱图像超分辨重建方法 Download PDF

Info

Publication number
CN110119780B
CN110119780B CN201910389210.7A CN201910389210A CN110119780B CN 110119780 B CN110119780 B CN 110119780B CN 201910389210 A CN201910389210 A CN 201910389210A CN 110119780 B CN110119780 B CN 110119780B
Authority
CN
China
Prior art keywords
network
image
resolution
size
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910389210.7A
Other languages
English (en)
Other versions
CN110119780A (zh
Inventor
李旭
蒋瑞拓
李立欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201910389210.7A priority Critical patent/CN110119780B/zh
Publication of CN110119780A publication Critical patent/CN110119780A/zh
Application granted granted Critical
Publication of CN110119780B publication Critical patent/CN110119780B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution

Abstract

本发明公开了一种基于生成对抗网络的高光谱图像超分辨重建方法,在生成器网络中构造光谱和空间残差块,分别用来从高光谱图像丰富冗余的信息中提取光谱特征和空间特征,同时生成器网络和判别器网络交替训练,像素损失和对抗损失共同指导生成器网络重建出高分辨率图像,解决了现技术高光谱图像空间分辨率不足,清晰度低,目视效果差的问题。

Description

基于生成对抗网络的高光谱图像超分辨重建方法
【技术领域】
本发明属于遥感图像处理技术领域,具体涉及一种基于生成对抗网络的高光谱图像超分辨重建方法。
【背景技术】
高光谱技术的发展使得高光谱图像在环境监测、地质勘探、农业、军事应用等诸多民用和军事领域有着不可替代的应用,已经深刻影响到我国的经济发展、国防建设和社会生活等各个方面。但是由于传感器噪声以及时间限制等原因,获取的遥感图像质量总是存在空间分辨率和光谱分辨率的折衷。因此,高光谱图像虽然光谱分辨率高,但是图像的空间分辨率不足,清晰度低,目视效果差。然而在实际应用中,迫切需要具有更高空间分辨率的高质量高光谱图像,进而服务于分类、目标识别等处理,因此研究提高高光谱图像的分辨率具有重要的科学价值和应用前景。
单幅图像超分辨率旨在仅从低空间分辨率图像重建高空间分辨率图像,可以打破高光谱成像系统中固有的空间分辨率的局限性,而无需其他任何先验或辅助信息。传统的高光谱图像超分辨率方法通常采用的是非线性插值法,例如双线性和双三次插值法直接利用相邻像素的信息重构超分辨率图像(参见文献IEEE Trans Image Process,10(10):1521–1527,2001),这种方法容易导致边缘模糊和振铃现象。近年来一些基于卷积神经网络的遥感图像超分辨率方法被相继提出。Liebel等人首次在多光谱图像上成功应用了SRCNN,并发现了一组针对多光谱图像的优化参数(参见文献International Archives of thePhotogrammetry Remote Sensing&S,XLI-B3:883-890,2016)。然而,这种单波段方法的直接应用很容易导致光谱失真。为了解决这个问题,三维全卷积神经网络通过使用三维卷积来同时提取相邻像素的空间信息和相邻波段的频谱相关性,以此来进行高光谱图像超分辨率并取得了不错的效果(参见文献Remote Sensing,9(11):11-39,2017)。另一个解决光谱失真的方法是通过卷积神经网络和非负矩阵分解结合,该方法首先使用SRCNN来提高每个波段的空间分辨率,然后强制超分辨率图像和低分辨率图像端元一致。但是这种方法的性能依赖于端元提取的准确性,这是很难优化的。为此Li等人提出了一种结合空间约束策略(SCT)和深度谱差分卷积神经网络(SDCNN)的方法,该方法首先使用SDCNN来学习低分辨率高光谱图像和高分辨率高光谱图像之间的光谱差异,然后用空间约束策略使重构的超分辨率图像模拟的低分辨率图像和原始的低分辨率图像在空间上相似来增强空间分辨率。然而,由于误差是频带累积的,因此无法有效地学习光谱特征。上述网络在训练时都用均方误差作为损失函数,虽然能够获得不错的峰值信噪比,但是恢复出来的图像通常会丢失高频细节,容易出现过度平滑的纹理,输出图像不具备好的视觉感受。2017年C.Ledig等人首次将生成对抗网络(GAN)用在了解决自然图像超分辨率问题上(参见文献IEEE Conferenceon Computer Vision and Pattern Recognition,2017:105-114),提出了SRGAN,该方法致力于使重建的高分辨率图像与真实的高分辨率图像无论是低层次的像素值上,还是高层次的抽象特征上,以及整体概念和风格上都接近。
【发明内容】
本发明的目的是提供一种基于生成对抗网络的高光谱图像超分辨重建方法,以解决现技术高光谱图像空间分辨率不足,清晰度低,目视效果差的问题。
本发明采用以下技术方案:
基于生成对抗网络的高光谱图像超分辨重建方法,在生成器网络中构造光谱和空间残差块,分别用来从高光谱图像丰富冗余的信息中提取光谱特征和空间特征,同时生成器网络和判别器网络交替训练,像素损失和对抗损失共同指导生成器网络重建出高分辨率图像;
包括以下步骤:
第一步、对高光谱图像划分训练集和验证集;
划分训练集的具体方法是:
将原始高光谱图像作为高分辨率图像记为IHR,其大小为H×W×D,对IHR进行空间下采样得到模拟的低分辨率图像,记为ILR,其大小为h×w×D;
在ILR上选取t×t×D大小的子区域用于验证网络的性能,其余像素用于训练,其余像素为在ILR上除去t×t×D大小的子区域以外的区域;
使用z×z×D大小的子区域在用于训练的区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtrain,其中第i块低分辨率子图像块记为xi,同时在IHR对应的区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytrain,其中第i块高分辨率子图像块记为yi,将Xtrain和Ytrain组成训练集;
其中,H、W和D分别表示图像IHR的高、宽和波段数,h、w分别表示图像ILR的高、宽,且H=c×h,W=c×w,c是采样因子,z<t<1/2min(w,h),z为2的倍数,64≤z≤128,6≤q≤12;
第二步、构建生成对抗网络,所述生成对抗网络结构包括:
一生成器网络,包括光谱残差块和空间残差块,分别用来从高光谱图像中提取光谱特征和空间特征;
一判别器网络;
其中,所述光谱残差块和所述空间残差块均包括两层卷积层,且两层卷积层中间采用参数修正线性单元层作为激活函数,同时残差块的输入输出之间添加跳跃连接;
构建判别器网络结构的方法为:
将SRGAN结构的二维卷积替换为三维卷积,同时去掉最后一层sigmoid函数转换层,SRGAN为超分辨率生成对抗网络;
判别器网络的损失函数定义为:
Figure GDA0002673784010000041
Figure GDA0002673784010000042
其中,
Figure GDA0002673784010000043
代表采样的原始高分辨率子图像块集,m是批处理尺寸,大小可以根据硬件资源进行调整,
Figure GDA0002673784010000044
代表生成器网络超分辨重建结果,
Figure GDA0002673784010000045
表示输入到生成器网络G的一批低分辨率子图像块集,EY[·]和
Figure GDA0002673784010000046
表示取平均,C(Y)和
Figure GDA0002673784010000047
是判别器网络的输出,sigmoid(·)表示sigmoid函数;
第三步、将训练集输入所述生成对抗网络中,并利用像素损失和对抗损失联合训练;
其中,像素损失定义为:
Figure GDA0002673784010000048
对抗损失定义为:
Figure GDA0002673784010000049
生成器总的损失为:
Figure GDA00026737840100000410
第四步、将验证集通过训练好的所述生成对抗网络中的生成器网络,得到最终的超分辨重建结果。
进一步的,第一步中,划分验证集的具体方法是:
使用z×z×D大小的子区域在用于验证的t×t×D子区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtest,同时其对应的IHR区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytest,将Xtest和Ytest组成验证集。
进一步的,第二步中,构建生成器网络结构方法为:
首先第一层采用64个不同的尺寸为3×3×3的卷积滤波器对输入的低分辨率图像提取低级特征,随后采用PReLU层进行激活,然后采用若干个光谱残差块和空间残差块分别提取高级光谱特征和空间特征,再通过4个不同的尺寸为3×3×3的卷积滤波器整合学习到的特征,最后采用pixelshuffle层提高输入的低分辨率图像的尺寸生成重构的高分辨率图像;
其中,PReLU层为参数线性整流单元层,Pixelshuffle层为子像素卷积层。
进一步的,第二步中,光谱残差块中卷积滤波器的大小为1×1×9,1×1表示空间维度的大小,9表示光谱维度上的深度,空间残差块中卷积滤波器的大小为3×3×D,3×3表示空间维度的大小。
进一步的,第三步中,训练步骤为:
步骤S1,对构建的生成对抗网络进行初始化;
步骤S2,分别从训练集中的Xtrain和Ytrain中采样一个批次低分辨率子图像块集
Figure GDA0002673784010000051
和对应的一个批次高分辨率子图像块集
Figure GDA0002673784010000052
输入到生成器网络中,通过最小化公式(5)的LG损失来更新生成器网络模型的参数,包括各层的权重和偏置;
步骤S3,将生成器网络的输出
Figure GDA0002673784010000053
和对应的
Figure GDA0002673784010000054
输入到判别器网络中,通过最小化公式(1)的
Figure GDA0002673784010000055
损失来更新判别器网络模型的参数,包括各层的权重和偏置;
步骤S4,判断网络是否收敛,即损失是否还在下降:
如未收敛,重复步骤S2和S3,即使用反向传播策略交替更新生成器网络和判别器网络,其中优化器采用Adam,学习率设置为0.0001,Adam为自适应矩估计优化器;
如已收敛,则保存训练好的生成器网络模型。
本发明的有益效果是:本发明针对高光谱图像提出一种基于生成对抗网络的超分辨重建方法,有效地提取了高光谱图像的光谱特征和空间信息,重建结果无论在低层次的像素值上,还是高层次的抽象特征上都接近于真实的高分辨率图像,具备良好的视觉感受和客观评价质量。
【附图说明】
图1是本发明基于生成对抗网络的高光谱图像超分辨重建方法的整体流程图;
图2是本发明基于生成对抗网络的高光谱图像超分辨重建方法的生成器网络结构图;
图3是本发明基于生成对抗网络的高光谱图像超分辨重建方法的生成器网络中残差块结构图;
图4是本发明基于生成对抗网络的高光谱图像超分辨重建方法的判别器网络结构图;
图5是本发明基于生成对抗网络的高光谱图像超分辨重建方法的生成对抗网络训练流程图。
【具体实施方式】
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供了一种基于生成对抗网络的高光谱图像超分辨重建方法,在生成器网络中构造光谱和空间残差块,分别用来从高光谱图像丰富冗余的信息中提取光谱特征和空间特征,同时生成器网络和判别器网络交替训练,像素损失和对抗损失共同指导生成器网络重建出高分辨率图像。
该基于生成对抗网络的高光谱图像超分辨重建方法,包括以下步骤:
第一步、对高光谱图像划分训练集和验证集;
第二步、构建生成对抗网络,对抗网络结构包括:
一生成器网络,包括光谱残差块和空间残差块,分别用来从高光谱图像中提取光谱特征和空间特征;
一判别器网络;
其中,光谱残差块和空间残差块均包括两层卷积层,且两层卷积层中间采用参数修正线性单元层作为激活函数,参数修正线性单元层即PReLU层,同时残差块的输入输出之间添加跳跃连接;
第三步、将训练集输入生成对抗网络中,并利用像素损失和对抗损失联合训练;
其中,像素损失定义为:
Figure GDA0002673784010000071
对抗损失定义为:
Figure GDA0002673784010000072
生成器总的损失为:
Figure GDA0002673784010000073
第四步、将验证集通过训练好的生成对抗网络中的生成器网络,得到最终的超分辨重建结果。
在第一步中,划分训练集的具体方法是:
将原始高光谱图像作为高分辨率图像记为IHR,其大小为H×W×D,对IHR进行空间下采样得到模拟的低分辨率图像,记为ILR,其大小为h×w×D;
在ILR上选取t×t×D大小的子区域用于验证网络的性能,其余像素用于训练,其余像素为在ILR上除去t×t×D大小的子区域以外的区域;
使用z×z×D大小的子区域在用于训练的区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtrain,其中第i块低分辨率子图像块记为xi,同时在IHR对应的区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytrain,其中第i块高分辨率子图像块记为yi,将Xtrain和Ytrain组成训练集;
其中,H、W和D分别表示图像IHR的高、宽和波段数,h、w分别表示图像ILR的高、宽,且H=c×h,W=c×w,c是采样因子,z<t<1/2min(w,h),z一般选取2的倍数,64≤z≤128,6≤q≤12。
在第一步中,划分验证集的具体方法是:
使用z×z×D大小的子区域在用于验证的t×t×D子区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtest,同时其对应的IHR区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytest,将Xtest和Ytest组成验证集。
在第二步中,构建生成器网络结构方法为:
首先第一层采用64个不同的尺寸为3×3×3的卷积滤波器对输入的低分辨率图像提取低级特征,随后采用PReLU层进行激活,然后采用若干个光谱残差块和空间残差块分别提取高级光谱特征和空间特征,再通过4个不同的尺寸为3×3×3的卷积滤波器整合学习到的特征,最后采用pixelshuffle层提高输入的低分辨率图像的尺寸生成重构的高分辨率图像。其中,PReLU层为参数线性整流单元层,Pixelshuffle层为子像素卷积层。
在第二步中,构建判别器网络结构的方法为:
将SRGAN结构的二维卷积替换为三维卷积,同时去掉最后一层sigmoid函数转换层,SRGAN为超分辨率生成对抗网络;
判别器网络的损失函数定义为:
Figure GDA0002673784010000081
Figure GDA0002673784010000082
其中,
Figure GDA0002673784010000083
代表采样的原始高分辨率子图像块集,m是批处理尺寸,大小可以根据硬件资源进行调整,
Figure GDA0002673784010000084
代表生成器网络超分辨重建结果,
Figure GDA0002673784010000085
表示输入到生成器网络G的一批低分辨率子图像块集,EY[·]和
Figure GDA0002673784010000086
表示取平均,C(Y)和
Figure GDA0002673784010000091
是判别器网络的输出,sigmoid(·)表示sigmoid函数。
在第二步中,光谱残差块中卷积滤波器的大小为1×1×9,1×1表示空间维度的大小,9表示光谱维度上的深度,空间残差块中卷积滤波器的大小为3×3×D,3×3表示空间维度的大小。
在第三步中,训练步骤为:
步骤S1,对构建的生成对抗网络进行初始化;
步骤S2,分别从训练集中的Xtrain和Ytrain中采样一个批次低分辨率子图像块集
Figure GDA0002673784010000092
和对应的一个批次高分辨率子图像块集
Figure GDA0002673784010000093
输入到生成器网络中,通过最小化公式(5)的LG损失来更新生成器网络模型的参数,包括各层的权重和偏置;
步骤S3,将生成器网络的输出
Figure GDA0002673784010000094
和对应的
Figure GDA0002673784010000095
输入到判别器网络中,通过最小化公式(1)的
Figure GDA0002673784010000096
损失来更新判别器网络模型的参数,包括各层的权重和偏置;
步骤S4,判断网络是否收敛,即损失是否还在下降:
如未收敛,重复步骤S2和S3,即使用反向传播策略交替更新生成器网络和判别器网络,其中优化器采用Adam,学习率设置为0.0001,Adam为自适应矩估计优化器;
如已收敛,则保存训练好的生成器网络模型。
实施例:
采用ROSIS传感器采集到的Pavia Center数据集,包含102个波段,1096×714的有效像素。实施本发明包括以下步骤:
第一步、对高光谱数据集划分训练集和验证集
将原始Pavia Center数据集作为高分辨率图像,记为IHR,大小为1096×714×102,对其进行空间下采样,采样因子选择2,得到的低分辨率图像记为ILR,大小为548×357×102,选取其中75×75×102大小的子区域用于验证网络的性能,其余像素用于训练,使用64×64×102大小的子区域在用于训练的区域上以步长10滑动产生一系列适合输入到网络的大小为64×64×102的低分辨率子图像块,其组成的集合为Xtrain,同时在IHR对应的区域上通过滑窗得到对应的128×128×102大小的高分辨率子图像块所组成的标签集合Ytrain,Xtrain和Ytrain组成训练集;然后以同样的方法在用于验证的75×75×102子区域及其对应的IHR区域上分别得到Xtest和Ytest,它们组成验证集。
第二步、构建生成对抗网络
生成对抗网络结构包括生成器网络和判别器网络。本方法根据高光谱图像图谱合一且包含丰富冗余的光谱信息的特点,特别设计了适用于高光谱图像超分辨的生成对抗网络结构。
生成器网络结构如图2所示:其核心是光谱残差块和空间残差块,分别用来从高光谱图像丰富冗余的信息中提取光谱特征和空间特征,光谱残差块和空间残差块具有相同的结构布局,如图3所示,都包括两层卷积层(Conv),且中间采用参数修正线性单元层(PReLU层,Parametric Rectified Linear Unit)作为激活函数,同时残差块的输入输出之间添加跳跃连接,不同之处在于两种残差块中卷积的滤波器尺寸不同,光谱残差块中卷积滤波器的大小为1×1×9(1×1表示空间维度的大小,9表示光谱维度上的深度),空间残差块中卷积滤波器的大小为3×3×102(3×3表示空间维度的大小),本实例中光谱和空间残差块数量均为2。
根据图2所示,生成器网络结构可概述如下:首先第一层采用64个不同的尺寸为3×3×3的卷积滤波器对输入的低分辨率图像提取低级特征,随后采用PReLU层进行激活,然后采用2个光谱残差块和2个空间残差块分别提取高级光谱特征和空间特征,再通过4个不同的尺寸为3×3×3的卷积滤波器整合学习到的特征,为了避免图像尺寸变动,填充存在于所有上述卷积层中,最后采用pixelshuffle层(参见文献IEEE Conference on ComputerVision and Pattern Recognition,2016:1874-1883)提高输入的低分辨率图像的尺寸生成重构的高分辨率图像;
判别器网络结构如图4所示,图4中,k表示卷积滤波器尺寸,n表示卷积滤波器个数,s表示卷积滤波器移动步长:判别器网络结构布局不同于SRGAN之处在于将二维卷积替换为三维卷积,这样可以更好地适应高光谱图像图谱合一的特点,同时去掉最后一层sigmoid函数转换层。在SRGAN中,判别器网络只能预测输入到其中的超分辨图像的真实程度,也就是说生成器网络对抗损失部分的梯度只来源于超分辨图像。受Relativisticaverage Discriminator(参见文献arXiv preprint,arXiv:1807.00734,2018)的影响,本方法的判别器网络预测原始高分辨率图像比重构的超分辨率图像更真实的概率,相应的生成器网络对抗损失部分的梯度同时来源于超分辨图像和原始高光谱图像,也就是说,生成器网络的更新得益于超分辨图像和原始高光谱图像的共同指导,此处判别器网络的损失函数定义为:
Figure GDA0002673784010000111
Figure GDA0002673784010000112
其中
Figure GDA0002673784010000113
代表采样的原始高分辨率子图像块集,m是批处理尺寸,本实例中大小为4,
Figure GDA0002673784010000114
(如图2所示)代表生成器网络超分辨重建结果,
Figure GDA0002673784010000115
表示输入到生成器网络G的一批低分辨率子图像块集,EY[·]和
Figure GDA0002673784010000116
表示取平均,C(Y)和
Figure GDA0002673784010000117
是判别器网络的输出。
第三步训练生成对抗网络
此实例中像素损失采用基于L1范数的最小绝对偏差损失函数,定义为:
Figure GDA0002673784010000118
生成器网络的对抗损失与判别器网络的损失具有对称形式:
Figure GDA0002673784010000121
可以看出在生成对抗训练中,生成器网络同时受原始高分辨率高光谱图像和超分辨重构图像的指导,因此能产生细节纹理更清晰,看起来更真实的图像。
生成器总的损失为:
Figure GDA0002673784010000122
如图5所示,生成对抗网络训练流程图包括以下步骤:
步骤S1,对构建的生成对抗网络进行初始化,可采用高斯,半正定或者He初始化,此实例选择He初始化(参见文献IEEE International Conference on Computer Vision,2015:1026-1034);
步骤S2,分别从训练集中的Xtrain和Ytrain中采样一个批次低分辨率子图像块集
Figure GDA0002673784010000123
和对应的一个批次高分辨率子图像块集
Figure GDA0002673784010000124
输入到生成器网络中,通过最小化公式(5)的LG损失来更新生成器网络模型的参数,包括各层的权重和偏置;
步骤S3,将生成器网络的输出
Figure GDA0002673784010000125
和对应的
Figure GDA0002673784010000126
输入到判别器网络中,通过最小化公式(1)的
Figure GDA0002673784010000127
损失来更新判别器网络模型的参数,包括各层的权重和偏置;
步骤S4,判断网络是否收敛,即损失是否还在下降,如未收敛,重复步骤S2和S3,即使用反向传播策略交替更新生成器网络和判别器网络,其中优化器采用Adam(参见文献arXiv preprint arXiv:1412.6980,2015),学习率设置为0.0001,如已收敛,则保存训练好的生成器网络模型。
如图1所示,本发明包括以下步骤:
第一步、对高光谱图像划分训练集和验证集;
第二步、构建生成对抗网络,
第三步、将训练集输入生成对抗网络中,并利用像素损失和对抗损失联合训练;
第四步、将验证集通过训练好的生成对抗网络中的生成器网络,得到最终的超分辨重建结果。
第一步中,将原始高光谱图像作为高分辨率图像,记为IHR,大小为H×W×D,(H,W和D分别表示原始高光谱图像的高,宽和波段数),对IHR其进行空间下采样得到模拟的低分辨率图像,记为ILR,大小为h×w×D,(h是图像ILR的高,w是图像ILR的宽,H和h存在关系:H=c×h,W=c×w,c是采样因子,),在ILR上选取其中t×t×D(z<t<1/2min(w,h))大小的子区域用于验证网络的性能,其余像素用于训练,使用z×z×D(z一般选取2的倍数,便于GPU并行计算,64≤z≤128,6≤q≤12)大小的子区域在用于训练的区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtrain,其中第i块低分辨率子图像块记为xi,同时在IHR对应的区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytrain,其中第i块高分辨率子图像块记为yi,Xtrain中的xi和Ytrain中的yi一一对应,Xtrain和Ytrain组成训练集。
然后以同样的方法在用于验证的t×t×D子区域及其对应的IHR区域上分别得到Xtest和Ytest,它们组成验证集。具体为,使用z×z×D大小的子区域在用于验证的t×t×D子区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtest,同时其对应的IHR区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytest,将Xtest和Ytest组成验证集。
第二步中,构建生成对抗网络结构,包括生成器网络和判别器网络。SRGAN(参见文献IEEE Conference on Computer Vision and Pattern Recognition,2017:105-114)是针对自然图像超分辨所设计的生成对抗网络,如果直接应用于高光谱图像超分辨会产生明显的光谱失真现象,所以本方法根据高光谱图像图谱合一且包含丰富冗余的光谱信息的特点,特别设计了适用于高光谱图像超分辨的生成对抗网络结构。
生成器网络结构如图2所示:其核心是光谱残差块和空间残差块,分别用来从高光谱图像丰富冗余的信息中提取光谱特征和空间特征,光谱残差块和空间残差块具有相同的结构布局,如图3所示,都包括两层卷积层(Conv),且中间采用参数修正线性单元层(PReLU层,Parametric Rectified Linear Unit)作为激活函数,同时残差块的输入输出之间添加跳跃连接,不同之处在于两种残差块中卷积的滤波器尺寸不同,光谱残差块中卷积滤波器的大小为1×1×9(1×1表示空间维度的大小,9表示光谱维度上的深度),空间残差块中卷积滤波器的大小为3×3×D(3×3表示空间维度的大小),残差块的数量可以根据计算资源进行调整。根据图2所示,生成器网络结构可概述如下:首先第一层采用64个不同的尺寸为3×3×3的卷积滤波器对输入的低分辨率图像提取低级特征,随后采用PReLU层进行激活,然后采用若干个光谱残差块和空间残差块分别提取高级光谱特征和空间特征,再通过4个不同的尺寸为3×3×3的卷积滤波器整合学习到的特征,为了避免图像尺寸变动,填充存在于所有上述卷积层中,最后采用pixelshuffle层(参见文献IEEE Conference on ComputerVision and Pattern Recognition,2016:1874-1883)提高输入的低分辨率图像的尺寸生成重构的高分辨率图像;
判别器网络结构如图4所示:网络结构布局和SRGAN基本相同,不同的是将二维卷积替换为三维卷积,这样可以更好地适应高光谱图像图谱合一的特点,同时去掉最后一层sigmoid函数转换层。在SRGAN中,判别器网络只能预测输入到其中的超分辨图像的真实程度,也就是说生成器网络对抗损失部分的梯度只来源于超分辨图像。受Relativisticaverage Discriminator(参见文献arXiv preprint,arXiv:1807.00734,2018)的影响,本发明的判别器网络预测原始高分辨率图像比重构的超分辨率图像更真实的概率,相应的生成器网络对抗损失部分的梯度同时来源于超分辨图像和原始高光谱图像,也就是说,生成器网络的更新得益于超分辨图像和原始高光谱图像的共同指导,此处判别器网络的损失函数定义为:
Figure GDA0002673784010000151
Figure GDA0002673784010000152
其中
Figure GDA0002673784010000153
代表采样的原始高分辨率子图像块集,m是批处理尺寸,大小可以根据硬件资源进行调整,
Figure GDA0002673784010000154
(如图2所示)代表生成器网络超分辨重建结果,
Figure GDA0002673784010000155
表示输入到生成器网络G的一批低分辨率子图像块集,EY[·]和
Figure GDA0002673784010000156
表示取平均,C(Y)和
Figure GDA0002673784010000157
是判别器网络的输出,sigmoid(·)表示sigmoid函数。
进一步,第三步中,像素损失采用基于L1范数的最小绝对偏差损失函数,利于网络的训练,定义为:
Figure GDA0002673784010000158
生成器网络的对抗损失与判别器网络的损失具有对称形式:
Figure GDA0002673784010000159
可以看出在生成对抗训练中,生成器网络同时受原始高分辨率高光谱图像和超分辨重构图像的指导,因此能产生细节纹理更清晰,看起来更真实的图像。
生成器总的损失为:
Figure GDA00026737840100001510
第三步中,如图5所示,训练步骤如下:
步骤S1,对构建的生成对抗网络进行初始化,可采用高斯,半正定或者He初始化(参见文献IEEE International Conference on Computer Vision,2015:1026-1034);
步骤S2,分别从训练集中的Xtrain和Ytrain中采样一个批次低分辨率子图像块集
Figure GDA0002673784010000161
和对应的一个批次高分辨率子图像块集
Figure GDA0002673784010000162
输入到生成器网络中,通过最小化公式(5)的LG损失来更新生成器网络模型的参数,包括各层的权重和偏置;
步骤S3,将生成器网络的输出
Figure GDA0002673784010000163
和对应的
Figure GDA0002673784010000164
输入到判别器网络中,通过最小化公式(1)的
Figure GDA0002673784010000165
损失来更新判别器网络模型的参数,包括各层的权重和偏置;
步骤S4,判断网络是否收敛,即损失是否还在下降,如未收敛,重复步骤S2和S3,即使用反向传播策略交替更新生成器网络和判别器网络,其中优化器采用Adam(参见文献arXiv preprint arXiv:1412.6980,2015),学习率设置为0.0001,如已收敛,则保存训练好的生成器网络模型。
本发明针对高光谱图像提出一种基于生成对抗网络的超分辨重建方法,有效地提取了高光谱图像的光谱特征和空间信息,重建结果无论在低层次的像素值上,还是高层次的抽象特征上都接近于真实的高分辨率图像,具备良好的视觉感受和客观评价质量。
针对高光谱遥感图像光谱分辨率高且图谱合一的特点,以及现有方法不能同时有效地提取光谱信息和空间信息的问题,本发明提供了一种基于生成对抗网络的高光谱图像超分辨重建方法,在生成器网络中构造了光谱和空间残差块,以分别探索相邻波段图像中的光谱相关性以及相邻像素之间的空间上下文信息,从而兼顾光谱特征和空间特征的共同提取。同时生成器网络和判别器网络交替训练,像素损失和对抗损失共同指导生成器网络重建出细节纹理更逼真,视觉感受更好的超分辨结果。

Claims (5)

1.基于生成对抗网络的高光谱图像超分辨重建方法,其特征在于,在生成器网络中构造光谱和空间残差块,分别用来从高光谱图像丰富冗余的信息中提取光谱特征和空间特征,同时生成器网络和判别器网络交替训练,像素损失和对抗损失共同指导生成器网络重建出高分辨率图像;
包括以下步骤:
第一步、对高光谱图像划分训练集和验证集;
划分训练集的具体方法是:
将原始高光谱图像作为高分辨率图像记为IHR,其大小为H×W×D,对IHR进行空间下采样得到模拟的低分辨率图像,记为ILR,其大小为h×w×D;
在ILR上选取t×t×D大小的子区域用于验证网络的性能,其余像素用于训练,其余像素为在ILR上除去t×t×D大小的子区域以外的区域;
使用z×z×D大小的子区域在用于训练的区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtrain,其中第i块低分辨率子图像块记为xi,同时在IHR对应的区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytrain,其中第i块高分辨率子图像块记为yi,将Xtrain和Ytrain组成训练集;
其中,H、W和D分别表示图像IHR的高、宽和波段数,h、w分别表示图像ILR的高、宽,且H=c×h,W=c×w,c是采样因子,z<t<1/2min(w,h),z为2的倍数,64≤z≤128,6≤q≤12;
第二步、构建生成对抗网络,所述生成对抗网络结构包括:
一生成器网络,包括光谱残差块和空间残差块,分别用来从高光谱图像中提取光谱特征和空间特征;
一判别器网络;
其中,所述光谱残差块和所述空间残差块均包括两层卷积层,且两层卷积层中间采用参数修正线性单元层作为激活函数,同时残差块的输入输出之间添加跳跃连接;
构建判别器网络结构的方法为:
将SRGAN结构的二维卷积替换为三维卷积,同时去掉最后一层sigmoid函数转换层,SRGAN为超分辨率生成对抗网络;
判别器网络的损失函数定义为:
Figure FDA0002673782000000021
Figure FDA0002673782000000022
其中,
Figure FDA0002673782000000023
代表采样的原始高分辨率子图像块集,m是批处理尺寸,大小可以根据硬件资源进行调整,
Figure FDA0002673782000000024
代表生成器网络超分辨重建结果,
Figure FDA0002673782000000025
表示输入到生成器网络G的一批低分辨率子图像块集,EY[·]和
Figure FDA0002673782000000026
表示取平均,C(Y)和
Figure FDA0002673782000000027
是判别器网络的输出,sigmoid(·)表示sigmoid函数;
第三步、将训练集输入所述生成对抗网络中,并利用像素损失和对抗损失联合训练;
其中,像素损失定义为:
Figure FDA0002673782000000028
对抗损失定义为:
Figure FDA0002673782000000029
生成器总的损失为:
Figure FDA00026737820000000210
第四步、将验证集通过训练好的所述生成对抗网络中的生成器网络,得到最终的超分辨重建结果。
2.如权利要求1所述的基于生成对抗网络的高光谱图像超分辨重建方法,其特征在于,所述第一步中,划分验证集的具体方法是:
使用z×z×D大小的子区域在用于验证的t×t×D子区域上以步长q滑动产生一系列适合输入到网络的大小为z×z×D的低分辨率子图像块,其组成的集合为Xtest,同时其对应的IHR区域上通过滑窗得到由cz×cz×D大小的高分辨率子图像块所组成的标签集合Ytest,将Xtest和Ytest组成验证集。
3.如权利要求1所述的基于生成对抗网络的高光谱图像超分辨重建方法,其特征在于,所述第二步中,构建生成器网络结构方法为:
首先第一层采用64个不同的尺寸为3×3×3的卷积滤波器对输入的低分辨率图像提取低级特征,随后采用PReLU层进行激活,然后采用若干个光谱残差块和空间残差块分别提取高级光谱特征和空间特征,再通过4个不同的尺寸为3×3×3的卷积滤波器整合学习到的特征,最后采用pixelshuffle层提高输入的低分辨率图像的尺寸生成重构的高分辨率图像;
其中,PReLU层为参数线性整流单元层,Pixelshuffle层为子像素卷积层。
4.如权利要求3所述的基于生成对抗网络的高光谱图像超分辨重建方法,其特征在于,所述第二步中,光谱残差块中卷积滤波器的大小为1×1×9,1×1表示空间维度的大小,9表示光谱维度上的深度,空间残差块中卷积滤波器的大小为3×3×D,3×3表示空间维度的大小。
5.如权利要求1所述的基于生成对抗网络的高光谱图像超分辨重建方法,其特征在于,所述第三步中,训练步骤为:
步骤S1,对构建的生成对抗网络进行初始化;
步骤S2,分别从训练集中的Xtrain和Ytrain中采样一个批次低分辨率子图像块集
Figure FDA0002673782000000031
和对应的一个批次高分辨率子图像块集
Figure FDA0002673782000000032
输入到生成器网络中,通过最小化公式(5)的LG损失来更新生成器网络模型的参数,包括各层的权重和偏置;
步骤S3,将生成器网络的输出
Figure FDA0002673782000000041
和对应的
Figure FDA0002673782000000042
输入到判别器网络中,通过最小化公式(1)的
Figure FDA0002673782000000043
损失来更新判别器网络模型的参数,包括各层的权重和偏置;
步骤S4,判断网络是否收敛,即损失是否还在下降:
如未收敛,重复步骤S2和S3,即使用反向传播策略交替更新生成器网络和判别器网络,其中优化器采用Adam,学习率设置为0.0001,Adam为自适应矩估计优化器;
如已收敛,则保存训练好的生成器网络模型。
CN201910389210.7A 2019-05-10 2019-05-10 基于生成对抗网络的高光谱图像超分辨重建方法 Active CN110119780B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910389210.7A CN110119780B (zh) 2019-05-10 2019-05-10 基于生成对抗网络的高光谱图像超分辨重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910389210.7A CN110119780B (zh) 2019-05-10 2019-05-10 基于生成对抗网络的高光谱图像超分辨重建方法

Publications (2)

Publication Number Publication Date
CN110119780A CN110119780A (zh) 2019-08-13
CN110119780B true CN110119780B (zh) 2020-11-27

Family

ID=67521979

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910389210.7A Active CN110119780B (zh) 2019-05-10 2019-05-10 基于生成对抗网络的高光谱图像超分辨重建方法

Country Status (1)

Country Link
CN (1) CN110119780B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110660038B (zh) * 2019-09-09 2023-06-09 山东工商学院 一种基于生成对抗网络的多光谱图像与全色图像融合方法
CN110866472A (zh) * 2019-11-04 2020-03-06 西北工业大学 一种无人机地面运动目标识别与图像增强系统及方法
CN111063021B (zh) * 2019-11-21 2021-08-27 西北工业大学 一种空间运动目标的三维重建模型建立方法及装置
CN111047512B (zh) * 2019-11-25 2022-02-01 中国科学院深圳先进技术研究院 图像增强方法、装置及终端设备
CN111161141B (zh) * 2019-11-26 2023-02-28 西安电子科技大学 基于频带间注意力机制对抗学习高光谱单图超分辨率方法
CN111192196A (zh) * 2019-12-23 2020-05-22 中电健康云科技有限公司 一种提高推扫式光谱仪高光谱图像的实时分辨率的方法
CN111339931B (zh) * 2020-02-25 2023-04-28 四川翼飞视科技有限公司 一种联合性别属性训练的人脸识别网络模型构建方法
CN111429349B (zh) * 2020-03-23 2023-03-24 西安电子科技大学 基于光谱约束对抗网络的高光谱图像超分辨率方法
CN111626932B (zh) * 2020-05-07 2023-09-29 Tcl华星光电技术有限公司 图像的超分辨率重建方法及装置
CN111652813B (zh) * 2020-05-22 2023-03-28 中国科学技术大学 一种横向束流截面处理方法及装置
CN111860571B (zh) * 2020-06-03 2021-05-25 成都信息工程大学 一种基于cip数据质量控制的云微粒子分类方法
CN111899166A (zh) * 2020-06-19 2020-11-06 北京理工大学 一种基于深度学习的医学高光谱显微图像超分辨重构方法
CN111784581A (zh) * 2020-07-03 2020-10-16 苏州兴钊防务研究院有限公司 基于自归一化生成对抗网络的sar图像超分辨率重建方法
CN112116064A (zh) * 2020-08-11 2020-12-22 西安电子科技大学 光谱超分辨自适应加权注意力机制深层网络数据处理方法
CN112381716B (zh) * 2020-11-18 2023-08-18 爱像素(深圳)智能科技有限公司 一种基于生成式对抗网络的图像增强方法
CN112734638B (zh) * 2020-12-24 2022-08-05 桂林理工大学 一种遥感影像超分辨重建方法、装置及存储介质
CN112598578B (zh) * 2020-12-28 2022-12-30 北京航空航天大学 一种核磁共振图像超分辨率重建系统及方法
CN112967379B (zh) * 2021-03-03 2022-04-22 西北工业大学深圳研究院 一种基于感知一致生成对抗网络的三维医学图像重建方法
CN113095218B (zh) * 2021-04-09 2024-01-26 西北工业大学 一种高光谱图像目标检测算法
CN113435243A (zh) * 2021-05-14 2021-09-24 西安电子科技大学 一种高光谱真实下采样模糊核估计方法
CN113435474A (zh) * 2021-05-25 2021-09-24 中国地质大学(武汉) 一种基于双生成对抗网络的遥感图像融合方法
CN113643183B (zh) * 2021-10-14 2021-12-21 湖南大学 非匹配遥感图像弱监督学习超分辨率重建方法及系统
CN113888413B (zh) * 2021-12-03 2022-02-22 湖南大学 异时异源多光谱图像盲光谱超分辨方法及系统
CN114972625A (zh) * 2022-03-22 2022-08-30 广东工业大学 一种基于rgb光谱超分辨技术的高光谱点云生成方法
CN114858782B (zh) * 2022-07-05 2022-09-27 中国民航大学 基于拉曼高光谱对抗判别模型的奶粉掺杂非定向检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101140325A (zh) * 2007-10-16 2008-03-12 哈尔滨工业大学 高光谱图像的空间-光谱信息协同提高分辨率的方法
CN109035142A (zh) * 2018-07-16 2018-12-18 西安交通大学 一种对抗网络结合航拍图像先验的卫星图像超分辨方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10088662B2 (en) * 2015-04-30 2018-10-02 Farnoud KAZEMZADEH System, method and apparatus for ultra-resolved ultra-wide field-of-view multispectral and hyperspectral holographic microscopy
CN107085716B (zh) * 2017-05-24 2021-06-04 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
CN108764005B (zh) * 2018-01-31 2019-06-18 华侨大学 一种高光谱遥感图像地物空间波谱特征提取方法及系统
CN109145992B (zh) * 2018-08-27 2021-07-20 西安电子科技大学 协作生成对抗网络和空谱联合的高光谱图像分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101140325A (zh) * 2007-10-16 2008-03-12 哈尔滨工业大学 高光谱图像的空间-光谱信息协同提高分辨率的方法
CN109035142A (zh) * 2018-07-16 2018-12-18 西安交通大学 一种对抗网络结合航拍图像先验的卫星图像超分辨方法

Also Published As

Publication number Publication date
CN110119780A (zh) 2019-08-13

Similar Documents

Publication Publication Date Title
CN110119780B (zh) 基于生成对抗网络的高光谱图像超分辨重建方法
CN111062872B (zh) 一种基于边缘检测的图像超分辨率重建方法及系统
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
CN106952228B (zh) 基于图像非局部自相似性的单幅图像的超分辨率重建方法
CN111080567B (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
Lin et al. Hyperspectral image denoising via matrix factorization and deep prior regularization
CN105046672B (zh) 一种图像超分辨率重建方法
CN112734646B (zh) 一种基于特征通道划分的图像超分辨率重建方法
CN109741256A (zh) 基于稀疏表示和深度学习的图像超分辨率重建方法
CN106920214B (zh) 空间目标图像超分辨率重建方法
Huang et al. Deep hyperspectral image fusion network with iterative spatio-spectral regularization
CN111127374A (zh) 一种基于多尺度密集网络的Pan-sharpening方法
CN104657962B (zh) 基于级联线性回归的图像超分辨重建方法
CN109949217B (zh) 基于残差学习和隐式运动补偿的视频超分辨率重建方法
CN112837224A (zh) 一种基于卷积神经网络的超分辨率图像重建方法
Liu et al. An efficient residual learning neural network for hyperspectral image superresolution
CN112163998A (zh) 一种匹配自然降质条件的单图像超分辨率分析方法
CN115526777A (zh) 一种盲超分网络建立方法、盲超分方法及存储介质
Deng et al. Multiple frame splicing and degradation learning for hyperspectral imagery super-resolution
Zhong et al. Attention_FPNet: Two-branch remote sensing image pansharpening network based on attention feature fusion
Chen et al. Guided dual networks for single image super-resolution
CN113096015A (zh) 基于渐进式感知和超轻量级网络的图像超分辨率重建方法
CN115082344A (zh) 基于细节注入的双分支网络全色锐化方法
CN104123707A (zh) 一种基于局部秩先验的单幅图像超分辨率重建方法
Wang et al. Asymmetric Dual-Direction Quasi-Recursive Network for Single Hyperspectral Image Super-Resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant