CN110660038B - 一种基于生成对抗网络的多光谱图像与全色图像融合方法 - Google Patents

一种基于生成对抗网络的多光谱图像与全色图像融合方法 Download PDF

Info

Publication number
CN110660038B
CN110660038B CN201910845610.4A CN201910845610A CN110660038B CN 110660038 B CN110660038 B CN 110660038B CN 201910845610 A CN201910845610 A CN 201910845610A CN 110660038 B CN110660038 B CN 110660038B
Authority
CN
China
Prior art keywords
image
network
feature extraction
multispectral
full
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910845610.4A
Other languages
English (en)
Other versions
CN110660038A (zh
Inventor
李晋江
李桂会
范辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Technology and Business University
Original Assignee
Shandong Technology and Business University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Technology and Business University filed Critical Shandong Technology and Business University
Priority to CN201910845610.4A priority Critical patent/CN110660038B/zh
Publication of CN110660038A publication Critical patent/CN110660038A/zh
Application granted granted Critical
Publication of CN110660038B publication Critical patent/CN110660038B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10041Panchromatic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗网络的多光谱图像与全色图像融合方法。其步骤包括:首先收集多光谱图像与全色图像数据集,对图像进行配准处理,并将数据集分为训练集与测试集;然后构造特征提取网络,输入为全色图像;其次构造生成对抗网络,利用Wassertein距离进行优化判别器,输入多光谱图像,输出融合的高分辨率多光谱图像,最后训练生成对抗网络,并利用测试集进行测试。尤其是,它不需要额外的处理流程,是一种端对端的实现多光谱图像融合的方法。而且,该方法以大量数据为驱动学习的融合映射关系,对于大部分不同数据集的图像,该方法都能使融合后图像在空间细节信息注入的同时能更好的保持原多光谱图像的光谱信息。

Description

一种基于生成对抗网络的多光谱图像与全色图像融合方法
技术领域
本发明涉及一种遥感图像处理方法,具体涉及一种基于生成对抗网络的图像融合方法。
背景技术
遥感卫星利用光谱传感器能够得到低空间分辨率多光谱图像和高空间分辨率的全色图像,多光谱图像具有较丰富的地物光谱信息,即含有较高的光谱分辨率,但它的空间分辨率较低,即图像含有较少的细节信息,然而,全色图像具有较高的空间分辨率,它能够充分体现地物的位置特征和边缘特征,有利于对地面物体的准确定位,但是其光谱分辨率较低;因此,关于多光谱图像与全色图像融合的研究问题引起了极大的关注;融合后的图像同时具有较高的光谱分辨率和空间分辨率,为更方便、更全面地认识环境和自然资源提供了可能;它常常被应用于测绘,目标检测,植被分类或者地物分类、天气预报及其他遥感数据应用。
传统的方法主要分为四类:基于成分替代的方法、基于多分辨率分析的方法、基于模型法、基于超分辨率的方法;基于成分替代的算法中通常将多光谱图像进行颜色空间的变换,来分离图像的空间和光谱信息,然后使用全色图像实现成分替代,对颜色空间进行逆变换得到最终的融合图像;这类方法通常提供高质量的空间细节,计算效率较高,但它们通常还会在泛锐化中引入光谱失真;常见的基于成分替代的图像融合方法有IHS变换融合方法、Brovey,GS,PCA变换融合方法等;基于多分辨率分析的算法通过对全色图像实现多分辨分层分解得到其空间细节信息,注入到多光谱图像中得到最终的融合图像;这种方法不仅可以准确地从不同尺度的分解图像中提取特征,而且能够减少融合过程中的光晕和混叠伪像,但是需要较高的计算成本;常见的基于多分辨率分析的图像融合方法包括小波变换(ATWT)、拉普拉斯金字塔分解、平滑滤波器强度调制(SFIM)等方法;基于模型的算法首先是通过创建融合图像与全色/多光谱图像之间的关系模型,再对模型进行优化求解获得最终融合后的图像;基于模型的图像融合方法很好的解决了光谱的失真问题,但是模型的求解过程复杂,时间效率低;常见的模型方法包括P+XS算法、稀疏编码算法,基于先验的算法等;其中稀疏编码的方法通过构造高低分辨率字典集,学习到相应的稀疏系数,从而得到最终的融合图像;此种算法虽然能取得较为满意的融合效果,但需要大量的训练图像来生成大规模的字典;从上述方法分析来看,传统方法有框架简单的特点,实现了在一定程度上增强多光谱图像的空间分辨率,然而,往往伴随着严重的光谱失真。
最近,基于深度学习的技术,特别是卷积神经网络(CNN),已经应用于各种研究领域,并取得了令人满意的表现;尤其使用深度卷积神经网络恢复图像质量的方法得到了成功的应用,促使遥感领域的研究人员将CNN用于多光谱融合问题;通常基于深度学习的方法是通过CNN学习相应的高与低分辨率的映射关系;其中,生成对抗网络是深度学习模型的一种,它的网络结构包括两部分:生成网络和判别网络,它们的互相博弈学习产生相当好的输出,而且它对于解决图像超分辨率的鲁棒性已经被证明。
发明内容
本发明提出了一种基于生成对抗网络的多光谱图像与全色图像融合的方法,目的是缓解传统融合方法中融合规则的局限性,处理的结果存在严重光谱失真的问题。
为了实现上述目的,本发明采用如下技术方案:
首先收集多光谱图像与全色图像数据集,对图像进行配准处理,并将数据集分为训练集与测试集;然后构建特征提取网络与生成对抗网络,利用交替迭代训练的方式训练网络模型,最后利用测试集测试网络,最终获得高分辨率多光谱图像。
本发明的具体步骤为:
步骤1、收集多光谱图像与全色图像数据集,对图像进行配准处理,并将数据集分为训练集与测试集。
上述步骤1具体包括以下步骤:
1.1)选取QuickBird,WorldView-2,WorldView-4,Pleiades-1中的多光谱图像与全色图像作为数据集;
1.2)分别对多光谱图像与全色图像进行配准处理,为了让全色图像和多光谱图像精确配准,以全色图像正射校正结果为多光谱图像正射校正控制点参考源;
1.3)为了缩短训练时间,增大数据集,将多光谱图像与全色图像裁剪成像元大小相差四倍的图像块;
1.4)为了制作成对的数据集,将多光谱图像上采样四倍,原始多光谱图像做为评价的真实参考图像;
1.5)从数据集中划分训练集与测试集。
步骤2、构造特征提取网络,输入为全色图像,网络设计了低频特征提取网络,高频特征提取网络,低频特征提取网络结构采用一个卷积层和一个反子像素层和两个卷积块,每一层卷积块包括一个卷积层和一个ReLU激活层,低频特征提取过程是将低分辨率图像输入到生成网络,然后经过卷积和反向子像素层进行特征处理,最后生成图像结构特征;高频特征提取网络需要大的接收性引导和多尺度特征学习来获得判别性表示;因此,采用四个精细特征提取块进一步提取特征。
步骤3、构建生成器网络,并将特征提取网络的每层输出级联到生成器,输入为低分辨率的多光谱图像和全色图像,输出为高分辨率的多光谱图像。
上述步骤3具体包括以下步骤:
3.1)构建生成器网络,生成器试图将输入多光谱图像变换为地面实况的高空间分辨率图像,生成网络分为三个功能阶段进行构建,包括:特征提取阶段,融合阶段和重建阶段;对于特征提取阶段,采用与特征提取网络前三层相同的结构;融合阶段采用两组精细特征提取块与融合块交替连联,一层融合块组成,其中每个融合块由卷积层+激活层+卷积层,残差跳跃组成;重建阶段由一层卷积层,一层激活层,一层子像素卷积层组成;重建阶段处理的过程,首先将特征图进行非线性映射输出16个像素子通道,然后将每个通道通过线性组合方式生成一个4×4的像素区域,该区域对应于高分辨率图像的像素子块,从而将16×64×64×3的特征图像重建为256×256×3的高分辨率图像;
3.2)将全色图像特征提取网络的每个输出级联到生成器特征提取阶段,促使细节特征的注入多光谱图像。
步骤4、构造判别器网络,判别器鼓励生成器产生更真实的图像,判别器的网络结构使用SRGAN,并通过Wasserstein距离进行优化。
步骤5、训练生成对抗网络,利用测试集进行测试。
上述步骤5具体包括以下步骤:
5.1)采用交替迭代训练的方式训练生成器网络与判别器网络,其中利Wassertein距离去衡量生成数据分布和真实数据分布之间的距离,改进的判别器和生成器的损失函数定义为:
(1)
Figure GDA0004140738000000031
(2)
Figure GDA0004140738000000032
其中YL为低分辨率图像,YH为高分辨率图像,YH′为真实高分辨率图像,m为批尺寸,θ为判别器参数,G表示生成器,D表示判别器;
5.2)利用测试数据集测试网络的性能,并利用无参考评价指标与全参考指标主进行评价。
本发明的有益效果:
(1)本发明实现了端对端的多光谱图像与全色图像融合算法,避免引入其他的处理流程,导致运行效率低的问题。
(2)本发明利用数据驱动的生成对抗网络学习多光谱图像与全色图像的融合函数,该方法扩大了适用范围,即对于大部分数据都有效,解决了传统融合模型普适性差的问题。
附图说明
图1是本发明的一种基于多光谱图像与全色图像融合方法的整体流程示意图;
图2是本发明构造的生成对抗网络结构示意图;
图3是本发明在Wordview系列示例图像的融合结果图像;
图4是本发明在QuickBird示例图像的融合结果图像。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
如图1所示,包括以下步骤:
1、收集多光谱图像与全色图像数据集,对图像进行配准处理,并将数据集分为训练集与测试集;
1.1)选取QuickBird,WorldView-2,WorldView-4,Pleiades-1中的多光谱图像与全色图像作为数据集,其中QuickBird卫星捕获的多光谱图像和全色图像的空间分辨率为2.88m和0.72m;WorldView-2卫星提供空间分辨率为2m的8波段多光谱图像和空间分辨率为0.5m的全色图像;WorldView-4提供空间分辨率为1.24m的4波段多光谱图像和空间分辨率为0.3m的全色图像;Pleiades-1卫星提供空间分辨率为2m的4个波段的多光谱图像和空间分辨率为0.5m的全色图像;
1.2)利用ENVI软件分别对多光谱图像与全色图像进行配准处理,为了让全色和多光谱精确配准,对全色图像选择控制点,并指导选取多光谱图像控制点,分别进行正射校正;
1.3)为了缩短训练时间,增大数据集,利用ENVI软件将多光谱图像剪裁大小为的图像块,全色图像在相应位置剪裁大小为的图像块;
1.4)为了制作成对的数据集,将多光谱图像利用二次插值算法上采样四倍,保持与全色图像大小一致,原始多光谱图像做为评价的真实参考图像;
1.5)考虑到不同卫星获得的图像具有不同的特征,我们分别为每个卫星准备网络训练集,每组中的样本由从相应卫星随机抽样的8500个补丁组成,其中6000个补丁用于训练,而其余的2500补丁用于验证模型,每个补丁的大小为256×256,对应全色图像大小为1024×1024;测试图像包含四个波段和八个波段。
2、构造特征提取网络,输入大小为的全色图像,网络结构图见图2,网络设计了低频特征提取网络,高频特征提取网络;低频特征提取网络结构采用一个卷积层和一个反子像素层和两个卷积块;每一层卷积块包括一个卷积核数量为64,大小为的卷积层和一个ReLU激活层,低频特征提取过程是将低分辨率图像输入到生成网络,然后经过卷积和反向子像素层处理进行特征处理,最后生成图像结构特征;高频特征提取网络需要大的接收性引导和多尺度特征学习来获得判别性表示;因此,采用四个精细特征提取块进一步提取特征,构建精细特征提取块模块来预测接收场并提取具有密集像素采样率和比例的分层特征,在每个精细特征提取块内,首先将三个扩张的卷积(扩张率为1,2,4)组合成一个多尺度特征提取组,然后以剩余方式级联三个构成精细特征提取块,精细特征提取块在保持参数个数不变的情况下不仅增大了卷积核的感受野,而且丰富了卷积的多样性,从而形成了具有不同接收区域和扩张率的卷积集合,精细特征提取块学到的高度辨别特征对整体融合结果是有益的。
3、构建生成器网络,并将特征提取网络的每层输出级联到生成器,输入为低分辨率的多光谱图像和全色图像,输出为高分辨率的多光谱图像;
3.1)构建生成器网络,生成器试图将输入多光谱图像变换为地面实况的高空间分辨率图像,如图2所示,生成网络分为三个功能阶段进行构建,包括:特征提取阶段,融合阶段和重建阶段,对于特征提取阶段,采用与特征提取网络前三层相同的结构;融合阶段采用两组精细特征提取块与融合块交替连联,一层融合块组成,其中每个融合块由卷积层+激活层+卷积层,残差跳跃组成;重建阶段由一层卷积层,一层激活层,一层子像素卷积层组成;重建阶段处理的过程,首先将特征图进行非线性映射输出16个像素子通道,然后将每个通道通过线性组合方式生成一个4×4的像素区域,该区域对应于高分辨率图像的像素子块,从而将16×64×64×3的特征图像重建为256×256×3的高分辨率图像;
3.2)将全色图像特征提取网络的输出级联到生成器特征提取阶段,促使细节特征的注入多光谱图像。
4、构造判别器网络,判别器鼓励生成器产生更真实的图像,判别器的网络结构使用SRGAN,并通过Wasserstein距离进行优化;生成器的输出图像与对应真实图像经过判别器网络后会得到一个介于0-1之间的输出,0表示融合图像效果并不理想,不是真实高分辨率图像,1则相反。
5、训练生成对抗网络,利用测试集进行测试;
5.1)采用交替迭代训练的方式训练生成器网络与判别器网络,其中利用Wassertein距离去衡量生成数据分布和真实数据分布之间的距离,改进的判别器和生成器的损失函数定义为:
(1)
Figure GDA0004140738000000061
(2)
Figure GDA0004140738000000062
其中YL为低分辨率图像,YH为高分辨率图像,YH′为真实高分辨率图像,m为批尺寸,θ为判别器参数,G表示生成器,D表示判别器;具体的网络参数设置如下:网络框架设计采用tensorflow,所有网络模型都采用小批量SGD进行训练并应用RMSProp求解器,因为RMSProp即使在高度非平稳的问题上也表现良好。对于学习率,采用分段常数衰减策略。它是在事先定义好的训练次数区间上,设置不同的学习率常数。训练所有模型,对于前20个时期的学习率为0.0001,并在接下来的20个时期内,将学习率线性衰减为0,以确保收敛;
5.2)利用测试数据集测试网络的性能,并利用无参考评价指标与全参考指标主进行评价,部分测试结果见图3,图4。
图3表示WorldView数据集中示例图像的处理结果,图3(a)为低分辨率多光谱图像,图3(b)为全色图像,3(c)为本发明的处理结果;图4表示QuickBird数据集中示例图像的处理结果,图4(a)为低分辨率多光谱图像,4(b)为全色图像,4(c)为本发明的处理结果;从3-4图的结果可以看出,本发明具有普适性,结果图像较好的保持了光谱和细节信息。
综上,本发明公开了一种基于生成对抗网络的多光谱图像与全色图像融合方法,特别是,它不需要额外的处理流程,是一种端对端的实现多光谱图像融合的方法,而且,该方法以大量数据为驱动学习的融合映射关系,对于大部分不同类别图像,该方法都能使融合后图像在空间细节信息注入的同时能更好的保持原图像的光谱信息,上述虽然结合附图对本发明的具体实施方式进行了详细的描述,但并不是限制了本发明的保护范围,所属领域技术人员应该明白,在本发明描述的技术范围内,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (3)

1.一种基于生成对抗网络的多光谱图像与全色图像融合方法,其特征是,主要包含以下几个步骤:
步骤1、收集多光谱图像与全色图像数据集,对图像进行配准处理,并将数据集分为训练集与测试集;
步骤2、构造特征提取网络,输入为全色图像;
步骤3、构造生成器网络,并将特征提取网络的输出级联到生成器,输入为多光谱图像;
步骤4、构造判别器网络,利用Wassertein距离进行优化;
步骤5、训练生成对抗网络,利用测试集进行测试;
所述步骤1)收集多光谱图像与全色图像数据集,对图像进行配准处理,并将数据集分为训练集与测试集,分为以下几个步骤:
2.1)选取QuickBird,WorldView-2,WorldView-4,Pleiades-1中的多光谱图像与全色图像作为数据集,其中QuickBird卫星捕获的多光谱图像和全色图像的空间分辨率为2.88m和0.72m;WorldView-2卫星提供空间分辨率为2m的8波段多光谱图像和空间分辨率为0.5m的全色图像;WorldView-4提供空间分辨率为1.24m的4波段多光谱图像和空间分辨率为0.3m的全色图像;Pleiades-1卫星提供空间分辨率为2m的4个波段的多光谱图像和空间分辨率为0.5m的全色图像;
2.2)利用ENVI软件分别对多光谱图像与全色图像进行配准处理,为了让全色图像和多光谱图像精确配准,对全色图像选择控制点,并指导选取多光谱图像控制点,分别进行正射校正;
2.3)为了缩短训练时间,增大数据集,利用ENVI软件将多光谱图像剪裁大小为的图像块,全色图像在相应位置剪裁大小为256×256的图像块;
2.4)为了制作成对的数据集,将多光谱图像利用二次插值算法上采样四倍,保持与全色图像大小一致,原始多光谱图像作为评价的真实参考图像;
2.5)考虑到不同卫星获得的图像具有不同的特征,分别为每个卫星准备网络训练集;每组中的样本由从相应卫星随机抽样的8500个补丁组成,其中6000个补丁用于训练,而其余的2500补丁用于验证模型,每个补丁的大小为256×256,对应全色图像大小为1024×1024;测试图像包含四个波段和八个波段;
所述步骤2)构造特征提取网络,输入为全色图像;构造特征提取网络,输入大小为256×256的全色图像,网络设计了低频特征提取网络,高频特征提取网络,低频特征提取网络结构采用一个卷积层和一个反子像素层和两个卷积块,每一层卷积块包括一个卷积核数量为64,大小为7×7的卷积层和一个ReLU激活层,低频特征提取过程是将低分辨率图像输入到生成网络,然后经过卷积和反向子像素层处理进行特征处理,最后生成图像结构特征;高频特征提取网络需要大的接收性引导和多尺度特征学习来获得判别性表示;因此,采用四个精细特征提取块进一步提取特征,构建精细特征提取块模块来预测接收场并提取具有密集像素采样率和比例的分层特征,在每个精细特征提取块内,首先将三个扩张的3×3卷积组合成一个多尺度特征提取组,其中扩张率为1,2,4,然后以剩余方式级联三个构成精细特征提取块,精细特征提取块在保持参数个数不变的情况下不仅增大了卷积核的感受野,而且丰富了卷积的多样性,从而形成了具有不同接收区域和扩张率的卷积集合,精细特征提取块学到的高度辨别特征对整体融合结果是有益的。
2.如权利要求1所述的一种基于生成对抗网络的多光谱图像与全色图像融合方法,其特征是,所述步骤3)构造生成器网络,并将特征提取网络的输出级联到生成器,输入是多光谱图像,为以下几个步骤:
4.1)构建生成器网络,生成器试图将输入多光谱图像变换为于地面实况的高空间分辨率图像,生成网络分为三个功能阶段进行构建,包括:特征提取阶段,融合阶段和重建阶段;对于特征提取阶段,采用与特征提取网络前三层相同的结构;融合阶段采用两组精细特征提取块与融合块交替连联,一层融合块组成,其中每个融合块由卷积层+激活层+卷积层,残差跳跃组成;重建阶段由一层卷积层,一层激活层,一层子卷积层组成;重建阶段处理的过程,首先将特征图进行非线性映射输出16个像素子通道,然后将每个通道通过线性组合方式生成一个4×4的像素区域;该区域对应于高分辨率图像的像素子块,从而将16×64×64×3的特征图像重建为256×256×3的高分辨率图像;
4.2)将全色图像特征提取网络的输出级联到生成器特征提取阶段,促使细节特征的注入多光谱图像。
3.如权利要求1所述的一种基于生成对抗网络的多光谱图像与全色图像融合方法,其特征是,所述步骤4)构造判别器,利用Wassertein距离进行优化,分为以下几个步骤:
5.1)采用交替迭代训练的方式训练生成器网络与判别器网络,其中利用Wassertein距离去衡量生成数据分布和真实数据分布之间的距离,改进的判别器和生成器的损失函数定义为:
Figure QLYQS_1
Figure QLYQS_2
其中YL为低分辨率图像,YH为高分辨率图像,YH′为真实高分辨率图像,m为批尺寸,θ为判别器参数,G表示生成器,D表示判别器;具体的网络参数设置如下:网络框架设计采用tensorflow,所有网络模型都采用小批量SGD进行训练并应用RMSProp求解器,因为RMSProp即使在高度非平稳的问题上也表现良好;对于学习率,采用分段常数衰减策略;它是在事先定义好的训练次数区间上,设置不同的学习率常数;训练所有模型,对于前20个时期的学习率为0.0001,并在接下来的20个时期内,将学习率线性衰减为0,以确保收敛;
5.2)利用测试数据集测试网络的性能,并利用无参考评价指标与全参考指标主进行评价。
CN201910845610.4A 2019-09-09 2019-09-09 一种基于生成对抗网络的多光谱图像与全色图像融合方法 Active CN110660038B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910845610.4A CN110660038B (zh) 2019-09-09 2019-09-09 一种基于生成对抗网络的多光谱图像与全色图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910845610.4A CN110660038B (zh) 2019-09-09 2019-09-09 一种基于生成对抗网络的多光谱图像与全色图像融合方法

Publications (2)

Publication Number Publication Date
CN110660038A CN110660038A (zh) 2020-01-07
CN110660038B true CN110660038B (zh) 2023-06-09

Family

ID=69037995

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910845610.4A Active CN110660038B (zh) 2019-09-09 2019-09-09 一种基于生成对抗网络的多光谱图像与全色图像融合方法

Country Status (1)

Country Link
CN (1) CN110660038B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275640B (zh) * 2020-01-17 2022-12-09 天津大学 一种融合二维离散小波变换和生成对抗网络的图像增强方法
CN111340698A (zh) * 2020-02-17 2020-06-26 北京航空航天大学 一种基于神经网络的多光谱图像光谱分辨率增强方法
CN111340743B (zh) * 2020-02-18 2023-06-06 云南大学 一种半监督多光谱和全色遥感图像融合方法和系统
CN111340080B (zh) * 2020-02-19 2024-03-29 济南大学 一种基于互补卷积特征的高分辨率遥感影像融合方法及系统
CN111429371B (zh) * 2020-03-23 2023-09-29 Oppo广东移动通信有限公司 图像处理方法、装置及终端设备
CN111612766B (zh) * 2020-05-20 2023-05-12 北京金山云网络技术有限公司 图像质量评价方法、装置和电子设备
CN111986084B (zh) * 2020-08-03 2023-12-12 南京大学 一种基于多任务融合的多相机低光照图像质量增强方法
CN111967516B (zh) * 2020-08-14 2024-02-06 西安电子科技大学 一种逐像素分类方法、存储介质及分类设备
CN112149802B (zh) * 2020-09-17 2022-08-09 广西大学 一种语义结构一致的图像内容转换方法
CN112164005B (zh) * 2020-09-24 2023-03-17 Oppo(重庆)智能科技有限公司 图像颜色校正方法、装置、设备及存储介质
CN112529827A (zh) * 2020-12-14 2021-03-19 珠海大横琴科技发展有限公司 遥感图像融合模型的训练方法及装置
CN113191993B (zh) * 2021-04-20 2022-11-04 山东师范大学 基于深度学习的全色与多光谱图像融合方法
CN113240606A (zh) * 2021-05-24 2021-08-10 博奥生物集团有限公司 中医望诊图像颜色校正方法及系统
CN113435474A (zh) * 2021-05-25 2021-09-24 中国地质大学(武汉) 一种基于双生成对抗网络的遥感图像融合方法
CN113643197B (zh) * 2021-07-19 2023-06-20 海南大学 一种结合引导滤波和nsct的两阶轻量型网络全色锐化方法
CN113793289B (zh) * 2021-09-10 2023-06-20 海南大学 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
CN113888413B (zh) * 2021-12-03 2022-02-22 湖南大学 异时异源多光谱图像盲光谱超分辨方法及系统
CN114663301B (zh) * 2022-03-05 2024-03-08 西北工业大学 一种基于小波层的卷积神经网络全色锐化方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916436A (zh) * 2010-08-30 2010-12-15 武汉大学 一种多尺度空间投影遥感影像融合方法
CN102800098A (zh) * 2012-07-19 2012-11-28 中国科学院自动化研究所 多特征多级别的可见光全色与多光谱高精度配准方法
CN109509152A (zh) * 2018-12-29 2019-03-22 大连海事大学 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN110119780A (zh) * 2019-05-10 2019-08-13 西北工业大学 基于生成对抗网络的高光谱图像超分辨重建方法
CN110211046A (zh) * 2019-06-03 2019-09-06 重庆邮电大学 一种基于生成对抗网络的遥感图像融合方法、系统和终端

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916436A (zh) * 2010-08-30 2010-12-15 武汉大学 一种多尺度空间投影遥感影像融合方法
CN102800098A (zh) * 2012-07-19 2012-11-28 中国科学院自动化研究所 多特征多级别的可见光全色与多光谱高精度配准方法
CN109509152A (zh) * 2018-12-29 2019-03-22 大连海事大学 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN110119780A (zh) * 2019-05-10 2019-08-13 西北工业大学 基于生成对抗网络的高光谱图像超分辨重建方法
CN110211046A (zh) * 2019-06-03 2019-09-06 重庆邮电大学 一种基于生成对抗网络的遥感图像融合方法、系统和终端

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"GAN-Assisted two-stream neural network for high-resolution remote sensing image classification";Tao Yiting等;《Remote sens》;20171218;第12卷(第9期);1328 *
"SFTGAN:a generative adversarial network for pan-sharpening equipped with spatial feature transform layers";Zhang Yutian等;《Journal of appliced remote sensing》;20190531;第13卷(第2期);026507 *

Also Published As

Publication number Publication date
CN110660038A (zh) 2020-01-07

Similar Documents

Publication Publication Date Title
CN110660038B (zh) 一种基于生成对抗网络的多光谱图像与全色图像融合方法
Yang et al. Deep learning for single image super-resolution: A brief review
CN110119780B (zh) 基于生成对抗网络的高光谱图像超分辨重建方法
Deng et al. Machine learning in pansharpening: A benchmark, from shallow to deep networks
CN109035142B (zh) 一种对抗网络结合航拍图像先验的卫星图像超分辨方法
CN106952228A (zh) 基于图像非局部自相似性的单幅图像的超分辨率重建方法
CN106920214B (zh) 空间目标图像超分辨率重建方法
Ye et al. FusionCNN: a remote sensing image fusion algorithm based on deep convolutional neural networks
CN114723631A (zh) 基于深度上下文先验与多尺度重建子网络的图像去噪方法、系统及装置
CN111008936A (zh) 一种多光谱图像全色锐化方法
Liu et al. An efficient unfolding network with disentangled spatial-spectral representation for hyperspectral image super-resolution
CN115311184A (zh) 基于半监督深度神经网络的遥感图像融合方法及系统
Mishra et al. Self-FuseNet: data free unsupervised remote sensing image super-resolution
Qin et al. Deep ResNet based remote sensing image super-resolution reconstruction in discrete wavelet domain
Wang et al. Image super-resolution using multi-granularity perception and pyramid attention networks
Xiong et al. Gradient boosting for single image super-resolution
CN111882512B (zh) 基于深度学习的图像融合方法、装置、设备和存储介质
CN115861083B (zh) 一种多尺度和全局特征的高光谱与多光谱遥感融合方法
CN114529482B (zh) 基于小波多通道深度网络的图像压缩感知重建方法
CN116309221A (zh) 一种多光谱图像融合模型的构建方法
CN109785253B (zh) 一种基于增强反投影的全色锐化后处理方法
CN113962943B (zh) 一种基于双向重建编码网络和强化残差网络的高光谱变化检测方法
CN114638761A (zh) 一种高光谱图像全色锐化方法、设备及介质
Dou et al. Single image super-resolution reconstruction with wavelet based deep residual learning
CN110807746B (zh) 一种基于细节内嵌注入卷积神经网络高光谱图像锐化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant