CN115345792A - 一种基于u型金字塔残差结构的全色锐化方法 - Google Patents

一种基于u型金字塔残差结构的全色锐化方法 Download PDF

Info

Publication number
CN115345792A
CN115345792A CN202210957337.6A CN202210957337A CN115345792A CN 115345792 A CN115345792 A CN 115345792A CN 202210957337 A CN202210957337 A CN 202210957337A CN 115345792 A CN115345792 A CN 115345792A
Authority
CN
China
Prior art keywords
image
pyramid
panchromatic
feature extraction
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210957337.6A
Other languages
English (en)
Inventor
王瀛
潘珊珊
张铭博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202210957337.6A priority Critical patent/CN115345792A/zh
Publication of CN115345792A publication Critical patent/CN115345792A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10041Panchromatic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于U型金字塔残差结构的全色锐化方法。该方法包括:获取多光谱图像和全色图像,并对两种图像按照设定大小进行剪裁以得到训练集和测试集;利用训练集对基于U型金字塔残差结构的全色锐化网络模型进行训练,获得最优全色锐化网络模型;利用训练得到的最优全色锐化网络模型对测试集中的图像数据进行全色锐化。结构特征包括:将多光谱和全色图像渐进重采样得到两个金字塔图像序列;相同尺度图像合并后提取特征;自上向下进行相同尺度图像特征融合;自下向上进行相同尺度图像重建;最后通过跳连接保持光谱信息最终得到高分辨率多光谱图像。

Description

一种基于U型金字塔残差结构的全色锐化方法
技术领域
本发明涉及遥感图像融合技术领域,尤其涉及一种基于U型金字塔残差结构的全色锐化方法。
背景技术
当前的卫星传感器被多方面技术限制无法直接提供高分辨率多光谱图像极大限制了遥感图像的应用。相对优化物理设备而言,全色锐化技术成本小的多,传统的全色锐化方法分为三种:基于成分替换方法,基于多分辨率分析方法以及基于优化模型方法。基于成分替换方法主要思想是通过变换工具将多光谱图像分解空间和光谱分量,然后将全色图像代替空间分量再逆变换得到融合图像,这种方法优点是实现简单,运行快但缺点是造成光谱失真。基于多分辨率分析方法是将原图像分解不同尺度,不同分辨率序列再根据融合策略将相同尺度的图像分别融合,最后通过逆变换生成最终融合图像。多分辨率分析方法要比成分替换方法融合质量较好,但是计算量增大。优化模型方法将全色锐化方法转换为建立高效融合模型求最优解的过程。优化模型方法的代价是时间复杂度高,在实际操作中模型求解不理想,效率低。
随着深度学习技术在计算机视觉多个热门研究中取得令人满意的突破,基于深度学习的全色锐化方法也相继被提出:依据图像超分辨率的相关知识,PNN是第一个提出将卷积神经网络应用到全色锐化中,网络结构由三层卷积构成,实现简单(参考文献1:Masi,Giuseppe,Davide Cozzolino,Luisa Verdoliva,and Giuseppe Scarpa.2016."Pansharpening by Convolutional Neural Networks"Remote Sensing 8,no.7:594)。相较传统的方法增强空间信息和保持光谱信息,PNN都有很大提升,但是浅层的映射操作无法提取更多的图像特征。ResNet利用残差网络设计两分支,一方面在图像高频域内训练网络,另一方面利用跳连接实现光谱补充(参考文献2:J.Yang,X.Fu,Y.Hu,Y.Huang,X.Ding andJ.Paisley,"PanNet:ADeep Network Architecture for Pan-Sharpening,"2017IEEEInternational Conference on Computer Vision(ICCV),2017,pp.1753-1761)。残差网络的成功实现使得更多的残差连接被应用,ResTFnet结合残差网络与双流卷积网络结构(参考文献3:Xiangyu Liu,Qingjie Liu,Yunhong Wang,Remote sensing image fusionbased on two-stream fusion network,Information Fusion,Volume 55,2020,Pages1-15,ISSN 1566-2535)。以上方法是将多光谱图像上采样至全色图像大小,输入网络训练,这样不仅会造成多光谱信息损失而且计算量大。DUnet方法渐进向融合过程注入多尺度原图像特征信息,先是用梯度计算器提取全色图像的空间信息作为网络的输入,又设计多尺度特征复用网络结构重建图像(参考文献4:D.Lei,Y.Huang,L.Zhang and W.Li,"Multibranch Feature Extraction and Feature Multiplexing Network forPansharpening,"in IEEE Transactions on Geoscience and Remote Sensing,vol.60,pp.1-13,2022,Art no.5402613,doi:10.1109/TGRS.2021.3074624)。
发明内容
为了能够至少解决采用插值方法上采样后的图像质量不高,高频分量损失,多光谱图像渐进补充光谱信息却忽略了相同分辨率的多光谱图像与全色图像的相关性,以及原图像简单的通道合并输入网络,无法充分的提取有效特征等技术问题中的部分问题,本发明提出一种基于U型金字塔残差结构的全色锐化方法。
本发明提供一种基于U型金字塔残差结构的全色锐化方法,步骤包括:
步骤1:获取多光谱图像和全色图像,并对两种图像按照设定大小进行剪裁以得到训练集和测试集;
步骤2:利用训练集对基于U型金字塔残差结构的全色锐化网络模型进行训练,获得最优全色锐化网络模型;
步骤3:利用训练得到的最优全色锐化网络模型对测试集中的图像数据进行全色锐化;
其中,所述基于U型金字塔残差结构的全色锐化网络模型的构建过程包括:
构建多尺度特征提取模块,具体包括:重采样单元、合并单元和特征提取单元;其中,重采样单元用于对输入的多光谱图像渐进扩大图像,得到多层多光谱图像金字塔;对输入的全色图像渐进缩小图像,得到多层全色图像金字塔;合并单元用于将相同尺度的多光谱图像和全色图像进行像素和通道双合并;特征提取单元用于对合并单元输出的多个不同尺度图像进行特征提取;
构建U型金字塔残差结构,具体包括:特征融合模块和图像重建模块;其中,特征融合模块用于对特征提取单元输出的不同分辨率下的特征图进行自上而下的特征融合;图像重建模块用于对特征融合模块输出的不同分辨率下的特征图进行自下而上的图像重建,最后使用跳连接对最大尺度多光谱图像和重建图像进行求和。
进一步地,所述重采样单元具体用于:
将输入的多光谱图像依次进行s次转置卷积操作以实现渐进t倍扩大图像,生成s+1层多光谱图像金字塔;s≥2,t≥2;
将输入的全色图像依次进行s次卷积操作以实现渐进t倍缩小图像,生成s+1层全色图像金字塔。
进一步地,所述多尺度特征提取模块还包括高通滤波单元;
对应地,所述合并单元具体用于按照下式对相同尺度的多光谱图像和全色图像进行通道拼接;
Figure BDA0003791880710000031
其中,i表示第i层金字塔,f表示拼接后的图像,MS表示多光谱图像,PAN表示全色图像,h(PAN)表示全色图像经过高通滤波单元后输出的高通域的全色图像,
Figure BDA0003791880710000032
表示像素相加操作,
Figure BDA0003791880710000033
表示通道拼接操作。
进一步地,所述特征融合模块具体用于:从金字塔中最高分辨率层开始,针对金字塔中的任意相邻两层对应的特征提取单元输出的图像采用给定融合过程进行特征融合,直至融合至金字塔中最低层分辨率层;
其中,所述给定融合过程具体包括:将金字塔中较高分辨率层对应的最后一个特征提取单元输出的图像进行池化下采样以将图像缩小s倍,进而与金字塔中较低分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取。
进一步地,所述图像重建模块具体用于:从金字塔中最低分辨率层开始,针对金字塔中的任意两层对应的特征提取单元输出的图像采用给定重建过程进行特征融合,直至融合至金字塔中最高层分辨率层;
其中,所述给定重建过程具体包括:将金字塔中较低分辨率层对应的最后一个特征提取单元输出的图像进行卷积上采样以将图像扩大s倍,进而与金字塔中较高分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取。
进一步地,步骤2中,训练过程中使用下式作为损失函数:
Figure BDA0003791880710000041
Figure BDA0003791880710000042
Figure BDA0003791880710000043
loss=λ(losscc+lossssim)+εlossMAE,ε=1-λ
其中,HRMS表示使用跳连接求和后得到的最终高分辨率多光谱图像,GT表示参照的多光谱图像,Cov(·)表示图像的协方差,D(·)表示图像的方差,U(·)表示图像的均值,δ(·)表示图像的标准差,C1,C2,C3,λ表示常数,n表示样本个数。
进一步地,所述特征提取单元采用密集残差卷积网络来提取空间和光谱特征。
本发明的有益效果:
由于采用U型金字塔结构将原图像分为等比例图像序列自上向下过程提取融合特征,自下向上过程重建图像,且设计横向级联促进特征复用,相较现有方法,本发明能够产生更加具有针对性的光谱和空间信息同时注入对应尺度光谱和空间细节特征使得生成高分辨率图像质量较好;通过对全色图像像素和通道双重合并,与简单通道合并相比不仅加强了空间细节而且保持了空间结构。
附图说明
图1为本发明实施例提供的一种基于U型金字塔残差结构的全色锐化方法的流程示意图;
图2为本发明实施例提供的基于U型金字塔残差结构的全色锐化网络模型的结构示意图之一;
图3为本发明实施例提供的基于U型金字塔残差结构的全色锐化网络模型的结构示意图之二;
图4为本发明实施例提供的:(a)是降分辨率的多光谱图像,(b)是降分辨率的全色图像,(c)是实例的模拟测试融合图像。
图5为本发明实施例提供的:(a)是全分辨率的多光谱图像,(b)是全分辨率的全色图像,(c)是实例的真实测试融合图像。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,本发明实施例提供一种基于U型金字塔残差结构的全色锐化方法,包括以下步骤:
S101:获取多光谱图像和全色图像,并对两种图像按照设定大小进行剪裁以得到训练集和测试集;
S102:利用训练集对基于U型金字塔残差结构的全色锐化网络模型进行训练,获得最优全色锐化网络模型;
S103:利用训练得到的最优全色锐化网络模型对测试集中的图像数据进行全色锐化;
具体地,训练集图像输入网络模型充分训练模型后获取最佳权重,测试集的图像输入训练好的网络模型中产生高分辨率的多光谱图像,达到全色锐化目的。
其中,如图2所示,所述基于U型金字塔残差结构的全色锐化网络模型的构建过程包括:
构建多尺度特征提取模块,具体包括:重采样单元、合并单元和特征提取单元;其中,重采样单元用于对输入的多光谱图像渐进扩大图像,得到多层多光谱图像金字塔;对输入的全色图像渐进缩小图像,得到多层全色图像金字塔;合并单元用于将相同尺度的多光谱图像和全色图像进行像素和通道双合并;特征提取单元用于对合并单元输出的多个不同尺度图像进行特征提取;
构建U型金字塔残差结构,具体包括:特征融合模块和图像重建模块;其中,特征融合模块用于对特征提取单元输出的不同分辨率下的特征图进行自上而下的特征融合;图像重建模块用于对特征融合模块输出的不同分辨率下的特征图进行自下而上的图像重建,最后使用跳连接对最大尺度多光谱图像和重建图像进行求和。
本发明实施例提供的基于U型金字塔残差结构的全色锐化方法,通过构建图像金字塔将图像采用卷积操作,自主学习最佳上采样权重使得图像分为多个分辨率层对应合并,从而提取多尺度细节特征,基于金字塔的网络结构能够较好的学习多光谱图像和全色图像波段间的相关性。
实施例2
在上述实施例1的基础上,如图3所示,本发明实施例中提供一种基于U型金字塔残差结构的全色锐化网络模型的另一种网络架构;
其中,重采样单元具体用于:将输入的多光谱图像依次进行s次转置卷积操作以实现渐进t倍扩大图像,生成s+1层多光谱图像金字塔;将输入的全色图像依次进行s次卷积操作以实现渐进t倍缩小图像,生成s+1层全色图像金字塔;s≥2,t≥2。
多尺度特征提取模块还包括高通滤波单元;对应地,合并单元具体用于按照下式对相同尺度的多光谱图像和全色图像进行通道拼接;
Figure BDA0003791880710000061
其中,i表示第i层金字塔,f表示拼接后的图像,MS表示多光谱图像,PAN表示全色图像,h(PAN)表示全色图像经过高通滤波单元后输出的高通域的全色图像,
Figure BDA0003791880710000062
表示像素相加操作,
Figure BDA0003791880710000063
表示通道拼接操作。
特征融合模块具体用于:从金字塔中最高分辨率层开始,针对金字塔中的任意相邻两层对应的特征提取单元输出的图像采用给定融合过程进行特征融合,直至融合至金字塔中最低层分辨率层;其中,所述给定融合过程具体包括:将金字塔中较高分辨率层对应的最后一个特征提取单元输出的图像进行池化下采样以将图像缩小s倍,进而与金字塔中较低分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取。
所述图像重建模块具体用于:从金字塔中最低分辨率层开始,针对金字塔中的任意两层对应的特征提取单元输出的图像采用给定重建过程进行特征融合,直至融合至金字塔中最高层分辨率层;其中,所述给定重建过程具体包括:将金字塔中较低分辨率层对应的最后一个特征提取单元输出的图像进行卷积上采样以将图像扩大s倍,进而与金字塔中较高分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取。
具体地,图3所示网络架构是以s=2,即三层图像金字塔为例。其中,t=2为例。
实施例3
在上述各实施例的基础上,本发明实施例提供一种基于U型金字塔残差结构的全色锐化方法,具体包括以下步骤:
S301:准备数据集。
具体地,实例数据来自WorldView 2卫星传感器。首先按照64*64大小数据剪裁生成数据集,数据集分成测试集和训练集,其中测试集又分成全分辨率测试集(真实测试集)和下降分辨率测试集(模拟测试集),全分辨率测试集数量设定100张64*64尺寸图像,下降分辨率测试集数量设定为数据集的20%。依据Wald协议设置训练网络的输入图像,剪裁后WorldView 2,卫星训练数据量为7988。
S302:多尺度提取图像细节特征。
具体地,利用多尺度特征提取模块将输入的多光谱图像通过转置卷积操作渐进2倍扩大图像,将输入的全色图像通过卷积操作渐进2倍缩小图像,这样构成了两个图像金字塔。不同尺度的多光谱图像与高通滤波后的该层全色图像像素叠加后再与全色图像通道拼接。该步骤表达式可参见上述的公式(1)所示。
S303:利用特征提取单元(例如密集残差卷积网络)提取图像的细节特征(包括空间和光谱特征),每层得到64通道的光谱空间特征。
S304:U型金字塔模型结构构建,包括自上而下特征融合过程和自下而上重建图像过程,以及跳连接过程。
具体地,基于图3所示的网络结构,自上而下特征融合过程具体包括:从金字塔中最高分辨率层开始,将金字塔中最高分辨率层对应的特征提取单元输出的图像进行池化下采样以将图像缩小2倍,进而与金字塔中次高分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取;然后,针对金字塔中次高分辨率层,将其对应的最后一个特征提取单元输出的图像进行池化下采样以将图像缩小2倍,进而与金字塔中最低分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对应像素融合后的特征图采用特征提取单元再次进行特征提取,至此,特征融合过程结束。
基于图3所示的网络结构,自下而上重建图像过程具体包括:从金字塔中最低分辨率层开始,将金字塔中最低分辨率层对应的最后一个特征提取单元输出的图像进行卷积上采样以将图像扩大2倍,进而与金字塔中次高分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取;然后,针对金字塔中次高分辨率层,将其对应的最后一个特征提取单元输出的图像进行卷积上采样以将图像扩大2倍,进而与金字塔中最高分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取。
具体地,在自下而上重建图像过程中,通过特征复用(在图3中,这一过程表现为横向连接)加快了网络的收敛速度,提高了模型训练的效率。
模型结构的最后为了保持光谱信息,使用跳连接来融合最大尺度多光谱图像与重建图像,本实施例中,跳连接表达式为:
Figure BDA0003791880710000081
式中,HRMS表示最终高分辨率多光谱图像,F表示自下向上得到的重建图像,MS↑4表示最大尺度多光谱图像,本实施例中即为扩大四倍的多光谱图像,目的是为了和重建图像达到相同的尺度大小。
S305:网络模型建立完成后,设置损失函数反向传播。损失函数设计使用SSIM与CC结合MAE多任务指导训练网络,不断优化参数产生最优全色锐化网络模型。
具体地,损失函数表达式为:
Figure BDA0003791880710000082
Figure BDA0003791880710000083
Figure BDA0003791880710000091
loss=λ(losscc+lossssim)+εlossMAE,ε=1-λ
其中,GT表示参照的多光谱图像,Cov(·)表示图像的协方差,D(·)表示图像的方差,U(·)表示图像的均值,δ(·)表示图像的标准差,C1,C2,C3,λ表示常数,n表示样本个数。
S306:训练网络。使用pycharm根据以上操作设计程序,其具体参数设为:batchSize设为16;选择主流的Adam优化器;学习率设为0.0001。把步骤S301中训练数据集输入网络中训练。实验的硬件环境为:CPU为Intel(R)Xeon(R)CPU E5-2650 v4@2.20GHz;GPU为Tesla P40。
S307:测试网络。将测试集图像输入训练完成的网络模型中,得到最终融合图像,也即高分辨率多光谱图像。如图4和图5所示。
表1下降分辨率图像各类方法融合结果的客观评价
方法 ERGAS SAM UIQI Q2<sup>n</sup> SCC
PNN 3.1527 5.3866 0.8922 0.8886 0.9406
PanNet 3.0976 5.1741 0.8992 0.8951 0.9439
SRPPNN 2.6957 4.4999 0.9135 0.9098 0.9596
DUnet 2.6585 4.4465 0.9112 0.9079 0.9612
本发明 2.6012 4.3364 0.9189 0.9158 0.9633
表2全分辨率图像各类方法融合结果的客观评价
Method QNR D<sub>S</sub> D<sub>λ</sub>
PNN 0.8913 0.0686 0.0442
PanNet 0.8952 0.0777 0.0339
SRPPNN 0.8910 0.0729 0.0422
DUnet 0.8963 0.0614 0.0498
本发明 0.9050 0.0643 0.0352
选择PNN,PanNet,SRPPNN,DUnet全色锐化算法作为对比算法进行对比实验。表1是实例的下降分辨率图像采用不同全色锐化方法得到的结果图像,有五种需要参考图像的质量评估指标,全局相对光谱损失(ERGAS)、光谱角映射(SAM)、通用图像质量指数(UIQI)、Q2n指数和空间相关系数(SCC),其中UIQI、Q2n和SCC对应的数值越接近于1,ERGAS和SAM数值接近0代表图像与原图像越接近。表2是实例的全分辨率图像采用不同全色锐化方法得到的结果图像,使用三种无参考图像的定量评估指标QNR、DS、Dλ,其中DS和Dλ对应数值越接近0、QNR数值越接近1表示对应融合图像质量较好。三个实例实验证明本发明提出的全色锐化方法无论在空间细节还是光谱结构都优于其他方法,证明本发明方法的有效性。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (7)

1.一种基于U型金字塔残差结构的全色锐化方法,其特征在于,步骤包括:
步骤1:获取多光谱图像和全色图像,并对两种图像按照设定大小进行剪裁以得到训练集和测试集;
步骤2:利用训练集对基于U型金字塔残差结构的全色锐化网络模型进行训练,获得最优全色锐化网络模型;
步骤3:利用训练得到的最优全色锐化网络模型对测试集中的图像数据进行全色锐化;
其中,所述基于U型金字塔残差结构的全色锐化网络模型的构建过程包括:
构建多尺度特征提取模块,具体包括:重采样单元、合并单元和特征提取单元;其中,重采样单元用于对输入的多光谱图像渐进扩大图像,得到多层多光谱图像金字塔;对输入的全色图像渐进缩小图像,得到多层全色图像金字塔;合并单元用于将相同尺度的多光谱图像和全色图像进行像素和通道双合并;特征提取单元用于对合并单元输出的多个不同尺度图像进行特征提取;
构建U型金字塔残差结构,具体包括:特征融合模块和图像重建模块;其中,特征融合模块用于对特征提取单元输出的不同分辨率下的特征图进行自上而下的特征融合;图像重建模块用于对特征融合模块输出的不同分辨率下的特征图进行自下而上的图像重建,最后使用跳连接对最大尺度多光谱图像和重建图像进行求和。
2.根据权利要求1所述的一种基于U型金字塔残差结构的全色锐化方法,其特征在于,所述重采样单元具体用于:
将输入的多光谱图像依次进行s次转置卷积操作以实现渐进t倍扩大图像,生成s+1层多光谱图像金字塔;s≥2,t≥2;
将输入的全色图像依次进行s次卷积操作以实现渐进t倍缩小图像,生成s+1层全色图像金字塔。
3.根据权利要求2所述的一种基于U型金字塔残差结构的全色锐化方法,其特征在于,所述多尺度特征提取模块还包括高通滤波单元;
对应地,所述合并单元具体用于按照下式对相同尺度的多光谱图像和全色图像进行通道拼接;
Figure FDA0003791880700000011
其中,i表示第i层金字塔,f表示拼接后的图像,MS表示多光谱图像,PAN表示全色图像,h(PAN)表示全色图像经过高通滤波单元后输出的高通域的全色图像,
Figure FDA0003791880700000021
表示像素相加操作,
Figure FDA0003791880700000022
表示通道拼接操作。
4.根据权利要求2所述的一种基于U型金字塔残差结构的全色锐化方法,其特征在于,所述特征融合模块具体用于:从金字塔中最高分辨率层开始,针对金字塔中的任意相邻两层对应的特征提取单元输出的图像采用给定融合过程进行特征融合,直至融合至金字塔中最低层分辨率层;
其中,所述给定融合过程具体包括:将金字塔中较高分辨率层对应的最后一个特征提取单元输出的图像进行池化下采样以将图像缩小s倍,进而与金字塔中较低分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取。
5.根据权利权利要求2所述的一种基于U型金字塔残差结构的全色锐化方法,其特征在于,所述图像重建模块具体用于:从金字塔中最低分辨率层开始,针对金字塔中的任意两层对应的特征提取单元输出的图像采用给定重建过程进行特征融合,直至融合至金字塔中最高层分辨率层;
其中,所述给定重建过程具体包括:将金字塔中较低分辨率层对应的最后一个特征提取单元输出的图像进行卷积上采样以将图像扩大s倍,进而与金字塔中较高分辨率层对应的第一个特征提取单元输出的图像进行像素融合,最后对像素融合的特征图采用特征提取单元再次进行特征提取。
6.根据权利权利要求1所述的一种基于U型金字塔残差结构的全色锐化方法,其特征在于,步骤2中,训练过程中使用下式作为损失函数:
Figure FDA0003791880700000023
Figure FDA0003791880700000024
Figure FDA0003791880700000025
loss=λ(losscc+lossssim)+εlossMAE,ε=1-λ
其中,HRMS表示使用跳连接求和后得到的最终高分辨率多光谱图像,GT表示参照的多光谱图像,Cov(·)表示图像的协方差,D(·)表示图像的方差,U(·)表示图像的均值,δ(·)表示图像的标准差,C1,C2,C3,λ表示常数,n表示样本个数。
7.根据权利权利要求1-6任一所述的一种基于U型金字塔残差结构的全色锐化方法,其特征在于,所述特征提取单元采用密集残差卷积网络来提取空间和光谱特征。
CN202210957337.6A 2022-08-10 2022-08-10 一种基于u型金字塔残差结构的全色锐化方法 Pending CN115345792A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210957337.6A CN115345792A (zh) 2022-08-10 2022-08-10 一种基于u型金字塔残差结构的全色锐化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210957337.6A CN115345792A (zh) 2022-08-10 2022-08-10 一种基于u型金字塔残差结构的全色锐化方法

Publications (1)

Publication Number Publication Date
CN115345792A true CN115345792A (zh) 2022-11-15

Family

ID=83952385

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210957337.6A Pending CN115345792A (zh) 2022-08-10 2022-08-10 一种基于u型金字塔残差结构的全色锐化方法

Country Status (1)

Country Link
CN (1) CN115345792A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117078563A (zh) * 2023-10-16 2023-11-17 武汉大学 启明星一号卫星高光谱图像全色锐化方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117078563A (zh) * 2023-10-16 2023-11-17 武汉大学 启明星一号卫星高光谱图像全色锐化方法及系统
CN117078563B (zh) * 2023-10-16 2024-02-02 武汉大学 启明星一号卫星高光谱图像全色锐化方法及系统

Similar Documents

Publication Publication Date Title
CN111369440B (zh) 模型训练、图像超分辨处理方法、装置、终端及存储介质
CN111047516B (zh) 图像处理方法、装置、计算机设备和存储介质
CN111179177B (zh) 图像重建模型训练方法、图像重建方法、设备及介质
CN108830796B (zh) 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法
CN111062872A (zh) 一种基于边缘检测的图像超分辨率重建方法及系统
CN111080567A (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
CN111353424B (zh) 深度递归残差网络的遥感图像空谱融合方法和电子设备
CN109272452B (zh) 小波域中基于集团结构子带共同学习超分辨率网络的方法
CN104657962B (zh) 基于级联线性回归的图像超分辨重建方法
CN109214989A (zh) 基于多方向特征预测先验的单幅图像超分辨率重建方法
CN114581347B (zh) 无参考影像的光学遥感空谱融合方法、装置、设备及介质
CN114862731B (zh) 低秩先验与空谱信息引导的多-高光谱影像融合方法
CN105550989A (zh) 基于非局部高斯过程回归的图像超分辨方法
CN115760814A (zh) 一种基于双耦合深度神经网络的遥感图像融合方法及系统
CN115345792A (zh) 一种基于u型金字塔残差结构的全色锐化方法
CN116485741A (zh) 一种无参考图像质量评价方法、系统、电子设备及存储介质
CN111008936A (zh) 一种多光谱图像全色锐化方法
CN108921801A (zh) 用于生成图像的方法和装置
Wang et al. No-reference stereoscopic image quality assessment using quaternion wavelet transform and heterogeneous ensemble learning
Lu et al. A novel 3D medical image super-resolution method based on densely connected network
CN112767255B (zh) 基于特征分离融合网络的图像超分辨率重构方法及系统
Cui et al. Exploring the potential of channel interactions for image restoration
CN117079105A (zh) 遥感图像空谱融合方法、装置、电子设备及存储介质
George Robust single image super resolution using neighbor embedding and fusion in wavelet domain
CN116029908A (zh) 基于跨模态和跨尺度特征融合的3d磁共振超分辨率方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination