CN113222819A - 一种基于深度卷积神经网络的遥感图像超分辨重建方法 - Google Patents

一种基于深度卷积神经网络的遥感图像超分辨重建方法 Download PDF

Info

Publication number
CN113222819A
CN113222819A CN202110546005.4A CN202110546005A CN113222819A CN 113222819 A CN113222819 A CN 113222819A CN 202110546005 A CN202110546005 A CN 202110546005A CN 113222819 A CN113222819 A CN 113222819A
Authority
CN
China
Prior art keywords
image
network
spatial
edge
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110546005.4A
Other languages
English (en)
Other versions
CN113222819B (zh
Inventor
黄波
吴了泥
何伯勇
郭志明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202110546005.4A priority Critical patent/CN113222819B/zh
Publication of CN113222819A publication Critical patent/CN113222819A/zh
Application granted granted Critical
Publication of CN113222819B publication Critical patent/CN113222819B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种基于深度卷积神经网络的遥感图像超分辨重建方法,涉及数字图像处理。令输入图像为ILR,经过深度残差注意力网络输出图像IDRAN,图像IDRAN经过边缘加强网络后输出图像中边缘细节加强后的图像IEEN,最后令图像IDRAN与图像IEEN相融合获取最终的遥感图像超分辨率重建结果ISR。用残差双注意力块实现特征间传递,保证信息完整性。每个残差双注意力块中加入LFF子模块,使得网络具有更强特征表达能力。引入一种注意力机制,该机制融合通道注意力和空间注意力,可更有效关注重要特征信息。提出一种边缘加强网络,进一步增强遥感图像的边缘细节恢复能力。

Description

一种基于深度卷积神经网络的遥感图像超分辨重建方法
技术领域
本发明涉及数字图像处理,尤其是涉及一种基于深度卷积神经网络的遥感图像超分辨重建方法。
背景技术
随着现代航空航天技术的快速发展,遥感图像越来越广泛地应用在各个领域,如农林监测、军事侦察、城市规划等,对其分辨率要求越来越高。然而由于硬件条件和探测距离的限制,遥感图像的分辨率和清晰度还有很大的提高空间。考虑到从物理层面提高成像传感器的研究成本高、硬件迭代开发周期长等等因素,从算法层面将低分辨率遥感图像重建为高分辨率图像正在成为当前研究的热点之一。
单幅图像超分辨率重建(Single Image Super-Resolution,SISR)技术可以提高遥感数据的空间分辨率,同时提供低分辨率(Low-Resolution,LR)图像中没有的空间细节。近年来,随着深度学习和GPU计算能力的发展,深度卷积神经网络(DCNN)已成为图像分类、目标检测和超分辨率重建的主流方法。基于深度卷积神经网络的方法从数据中自动学习高层特征,为提高分辨率恢复性能提供一种非常可行的方法。
与自然图像相比,遥感图像具有更复杂的背景和种类繁多的地物信息,此外受到超长距离成像、大气干扰和设备噪声等因素的影响,遥感图像中地面目标物之间的纹理结构和高频细节更难复原。尽管已经提出一些基于深度卷积神经网络的算法来实现遥感图像的超分辨率重建,如文件CN109584161A公开的基于通道注意力的卷积神经网络的遥感图像超分辨率重建方法,但该文件仅考虑注重每一个通道的权重,而忽视空间特征的权重。文件CN110136063A公开的基于生成对抗网络的遥感图像超分辨率重建方法,但基于GAN的遥感图像超分辨率重建方法存在生成图像边缘容易过渡平滑、训练过程不稳定等限制因素。
如何提供一种效果较佳的遥感图像超分辨率重建方法是本领域技术人员亟需解决的问题。
发明内容
本发明的目的是针对现有技术存在的上述技术问题,提供一种基于深度卷积神经网络的遥感图像超分辨重建方法。
本发明包括以下步骤:
1)令输入图像为ILR,经过深度残差注意力网络输出图像IDRAN
2)图像IDRAN经过边缘加强网络后输出图像中边缘细节加强后的图像IEEN
3)令图像IDRAN与图像IEEN相融合获取最终的遥感图像超分辨率重建结果ISR
在步骤1)中,所述深度残差注意力网络(deep residual attention network,DRAN)分为上采样分支和主体网络。
所述上采样分支用来学习图像的全局残差信息,公式如下:
Ibicubic=HBicubic(ILR) (1)
其中,HBicubic(·)为双三次插值上采样操作,Ibicubic为上采样后的图像。
所述主体网络分为浅层特征提取模块、深度特征提取模块、上采样模块和重建模块;
所述浅层特征提取模块的公式如下:
F0=HSF(ILR) (2)
其中,HSF(·)为卷积核大小为3像素×3像素的卷积操作,F0为提取的浅层特征图像。
所述深度采样提取模块由N个残差双注意力块(residual double attentionblock,RDAB)组成;计算公式如下:
Fb,n=HRDAB,n(Fb,n-1)=HRDAB,n(HRDAB,n-1(…HRDAB,1(F0)…)) (3)
其中,HRDAB,n(·)为第n个RDAB块操作;Fb,n-1和Fb,n分别为第n个RDAB块的输入和输出;
每个RDAB块包含LFF子模块、CA子模块和SA子模块;所述LFF子模块用于提取和融合多样化的局部特征,所述CA子模块用于获取不同通道的重要特征信息,所述SA子模块用于关注带有高频信息的空间位置;
所述LFF子模块的公式如下:
F1=f1,3(Fb,n-1) (4)
F2=f2,3(ReLU(F1)) (5)
FLLF=f3,1(fConcat(F1,F2)) (6)
其中,fm,n(·)为第m个卷积核大小为n像素×n像素的卷积操作,fConcat(·)为特征图拼接操作,ReLU(·)为ReLU激活函数,F1和F2分别为第n个RDAB块中的第一个卷积和第二个卷积的输出,FLLF为LFF子模块最终的输出。
所述CA子模块的计算流程如下:
定义
Figure BDA0003073668820000031
为通道总数为C的特征图,其中单个通道的尺寸大小为H×W;对第c个通道的特征图
Figure BDA0003073668820000032
计算全局均值池化,得到所对应的通道特征描述子
Figure BDA0003073668820000033
计算如下::
Figure BDA0003073668820000034
其中,
Figure BDA0003073668820000035
为FLLF中第c个特征图中位置为(i,j)上的值,
Figure BDA0003073668820000036
Figure BDA0003073668820000037
为FLLF对应的通道特征描述子。定义Dchannel对应的通道权重
Figure BDA0003073668820000038
Achannel的计算如下:
Achannel=σ(W1ReLU(W0Dchannel)) (8)
其中,σ(·)和ReLU(·)分别为Sigmoid函数和ReLU函数。W0(·)为通道下采样率为r的卷积核大小为1像素×1像素的卷积操作。W1(·)为通道上采样率为r的卷积核大小为1像素×1像素的卷积操作。
定义CA子模块的通道注意力图输出为
Figure BDA0003073668820000039
Figure BDA00030736688200000310
的计算如下:
Figure BDA00030736688200000311
其中,
Figure BDA00030736688200000312
为特征图通道相乘操作。
所述SA子模块的计算流程如下:
定义Dspatial,avg和Dspatial,max分别为FCA的均值池化空间特征描述子和最大值池化空间特征描述子,Dspatial,avg和Dspatial,max的计算如下:
Figure BDA00030736688200000313
Figure BDA00030736688200000314
其中,Dspatial,avg(i,j)和Dspatial,avg(i,j)分别为Dspatial,avg和Dspatial,max在位置(i,j)上的值,
Figure BDA00030736688200000315
为FCA中第c个特征图中位置为(i,j)上的值;对Dspatial,avg和Dspatial,max进行融合,获取FCA的空间权重Aspatial,计算如下:
Aspatial=σ(W2ReLU(fConcat(Dspatial,avg,Dspatial,max))) (12)
其中,σ(·)、ReLU(·)和fConcat(·)分别为Sigmoid函数、ReLU函数和特征图拼接操作,W2(·)为输入通道数为2、输出通道数为1、卷积核大小为7像素×7像素的卷积操作。
定义SA子模块的空间注意力图输出为
Figure BDA0003073668820000041
则FSA的计算如下:
Figure BDA0003073668820000042
其中,
Figure BDA0003073668820000043
为特征图相乘操作。
所述RDAB块的最终输出为:
Fb,n=Fb,n-1+FCA+FSA (14)
其中,+为特征图相加操作。
所述主体网络中的上采样模块的公式如下:
Fup=HPixel Shuffle(W3(Fb,N)) (15)
其中,W3(·)为卷积核大小为3像素×3像素的卷积操作,HPixel Shuffle(·)为像素洗牌(Pixel Shuffle)上采样操作,Fb,N为F0经过N个RDAB块操作后的输出图像,Fup为上采样后的图像。
所述主体网络中的重建模块的公式如下:
Ires=W4(Fup) (16)
其中,为保证重建后的图像通道数与输入的低分辨率图像一致,W4(·)为输出通道为3的卷积核大小为3像素×3像素的卷积操作,Ires为主体网络的输出图像。
所述深度残差注意力网络的输出为:
IDRAN=Ires+Ibicubic (17)
在步骤2)中,所述边缘加强网络(edge-enhanced network,EEN)用于减弱遥感图像中的噪声和加强提取到的边缘信息。
具体地,通过拉普拉斯算子对深度残差注意力网络的输出IDRAN进行边缘检测,抽取边缘信息,公式如下:
ILaplacian=Laplacian(x,y)⊙IDRAN (18)
其中,Laplacian(x,y)为拉普拉斯算子,具体形式为([-1,-1,-1],[-1,8,-1],[-1,-1,-1])的卷积掩膜,⊙为卷积计算,ILaplacian为对IDRAN做拉普拉斯操作完输出的图像。
具体地,利用步长卷积提取边缘特征图同时将其转换为LR空间,进一步,通过含有多个密集块(dense block,DR)的密集子网络来获取更精细的边缘信息,同时使用一个掩膜分支来抑制噪声和虚假边缘。随后对边缘加强后的图像做上采样操作投射到HR空间。计算公式如下:
Figure BDA0003073668820000051
其中,CD(·)为带有步长卷积的下采样操作,CDR(·)为密集子网络操作,CM(·)为掩膜分支操作,
Figure BDA0003073668820000052
为特征图相乘操作,HPixel Shuffle(·)为像素洗牌(Pixel Shuffle)上采样操作,IEdge为边缘加强后的特征图。
具体地,边缘加强网络的输出为:
IEEN=IEdge-ILaplacian (20)
其中,-为特征图相减操作。
在步骤3)中,将深度残差注意力网络的输出IDRAN与边缘加强网络IEEN相融合获取最终的超分辨率遥感图像ISR,公式为:
ISR=IDRAN+IEEN (21)
其中,+为特征图相加操作。
具体地,使用损失函数对整个网络进行优化,损失函数定义如下:
L(Θ)=||ISR-IHR|| (22)
其中,IHR为真实的高分辨率遥感图像,Θ为整个网络的参数。
与现有技术相比,本发明的优点如下:
1.本发明提出的深度残差注意力网络采用上采样分支网络和主体网络,上采样分支直接对低分辨率遥感图像做双三次插值上采样来学习图像的全局残差信息,针对图像中低频信息容易复原和高频信息不同意复原的特征,低频信息仅在浅层中进行复原,高频信息将会被越深的层复原。为防止浅层的特征在信息传递过程中被弱化或者丢失,本发明提出一种残差双注意力块来实现特征之间的传递,保证信息的完整性。
2.为重建高质量的遥感图像细节提供更丰富的信息,在每个残差双注意力块中加入局部特征融合子模块(LFF子模块),该子模块提取和融合多样化的局部特征,使得网络具有更强的特征表达能力。
3.本发明在残差注意力块中引入一种注意力机制,该机制融合通道注意力和空间注意力。通道注意力机制聚焦特征图中的高权重通道,空间注意力机制则关注高权重空间位置。最后通过融合通道注意力和空间注意力,网络可以更有效地关注重要特征信息。
4.本发明提出一种边缘加强网络,该网络首先利用步长卷积将提取的拉普拉斯边缘特征映射到LR空间,进一步,通过含有多个密集块的密集子网络来获取更精细的边缘信息,同时使用一个掩膜分支来抑制噪声和虚假边缘,随后对边缘加强后的图像做上采样操作投射到HR空间。边缘增强网络进一步增强遥感图像的边缘细节恢复能力。
附图说明
图1为本发明实施例的流程框图。
图2为本发明实施例深度残差注意力网络(DRAN块)结构示意图。
图3为本发明实施例残差双注意力块(RDAB块)结构示意图。
图4为本发明实施例通道注意力(CA)子模块结构示意图。
图5为本发明实施例空间注意力(SA)子模块结构示意图。
图6为本发明实施例边缘增强网络(EEN)结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供基于深度残差注意力网络和边缘加强网络的遥感图像超分辨率重建的整体框图。令输入图像为ILR,经过深度残差注意力网络输出图像IDRAN,IDRAN经过边缘加强网络后输出图像中边缘细节加强后的图像IEEN,最后令IDRAN与IEEN相融合获取最终的遥感图像超分辨率重建结果ISR
图2为本发明实施例提供的深度残差注意力网络(DRAN)结构图。具体地,深度残差注意力网络分为上采样分支网络和主体网络。
具体地,上采样分支用来学习图像的全局残差信息,公式如下:
Ibicubic=HBicubic(ILR) (1)
其中,HBicubic(·)为双三次插值上采样操作,Ibicubic为上采样后的图像。
具体地,主体网络分为浅层特征提取模块、深度特征提取模块、上采样模块和重建模块。
具体地,主体网络中的浅层特征提取模块的公式如下:
F0=HSF(ILR) (2)
其中,HSF(·)为卷积核大小为3像素×3像素的卷积操作,F0为提取的浅层特征图像。
具体地,主体网络中的深度采样提取模块由N个残差双注意力块(residualdouble attention block,RDAB)组成。计算公式如下:
Fb,n=HRDAB,n(Fb,n-1)=HRDAB,n(HRDAB,n-1(…HRDAB,1(F0)…)) (3)
其中,HRDAB,n(·)为第n个RDAB模块操作。Fb,n-1和Fb,n分别为第n个RDAB模块的输入和输出。
具体地,每个RDAB块包含局部特征融合(local feature fusion,LFF)、通道注意力(Channel Attention,CA)和空间注意力(Spatial Attention,SA)三个子模块。图3为本发明实施例提供的残差双注意力块(RDAB)结构图。
具体地,LFF子模块用于提取和融合多样化的局部特征,LFF子模块的公式如下:
F1=f1,3(Fb,n-1) (4)
F2=f2,3(ReLU(F1)) (5)
FLLF=f3,1(fConcat(F1,F2)) (6)
其中,fm,n(·)为第m个卷积核大小为n像素×n像素的卷积操作,fConcat(·)为特征图拼接操作,ReLU(·)为ReLU激活函数,F1和F2分别为第n个RDAB块中的第一个卷积和第二个卷积的输出,FLLF为LFF子模块最终的输出。
具体地,CA子模块用于获取不同通道的重要特征信息,图4为本发明实施例提供的通道注意力(CA)子模块结构图,CA子模块的计算流程如下:
定义
Figure BDA0003073668820000071
为通道总数为C的特征图,其中单个通道的尺寸大小为H×W。对于第c个通道的特征匿
Figure BDA0003073668820000072
计算全局均值池化,得到所对应的通道特征描述子
Figure BDA0003073668820000073
计算如下:
Figure BDA0003073668820000074
其中,
Figure BDA0003073668820000075
为FLLF中第c个特征图中位置为(i,j)上的值,
Figure BDA0003073668820000076
Figure BDA0003073668820000077
为FLLF对应的通道特征描述子。定义Dchannel对应的通道权重
Figure BDA0003073668820000078
Achannel的计算如下:
Achannel=σ(W1ReLU(W0Dchannel)) (8)
其中,σ(·)和ReLU(·)分别为Sigmoid函数和ReLU函数。W0(·)为通道下采样率为r的卷积核大小为1像素×1像素的卷积操作。W1(·)为通道上采样率为r的卷积核大小为1像素×1像素的卷积操作。
定义CA子模块的通道注意力图输出为
Figure BDA0003073668820000081
Figure BDA0003073668820000082
的计算如下:
Figure BDA0003073668820000083
其中,
Figure BDA0003073668820000084
为特征图通道相乘操作。
具体地,SA子模块关注带有高频信息的空间位置,图5为本发明实施例提供的空间注意力(SA)子模块结构图,SA子模块的计算流程如下:
定义Dspatial,avg和Dspatial,max分别为FCA的均值池化空间特征描述子和最大值池化空间特征描述子,Dspatial,avg和Dspatial,max的计算如下:
Figure BDA0003073668820000085
Figure BDA0003073668820000086
其中,Dspatial,avg(i,j)和Dspatial,avg(i,j)分别为Dspatial,avg和Dspatial,max在位置(i,j)上的值,
Figure BDA0003073668820000087
为FCA中第c个特征图中位置为(i,j)上的值。对Dspatial,avg和Dspatial,max进行融合,获取FCA的空间权重Aspatial,计算如下:
Aspatial=σ(W2ReLU(fConcat(Dspatial,avg,Dspatial,max))) (12)
其中,σ(·)、ReLU(·)和fConcat(·)分别为Sigmoid函数、ReLU函数和特征图拼接操作,W2(·)为输入通道数为2、输出通道数为1、卷积核大小为7像素×7像素的卷积操作。
定义SA子模块的空间注意力图输出为
Figure BDA0003073668820000088
则FSA的计算如下:
Figure BDA0003073668820000089
其中,
Figure BDA00030736688200000810
为特征图相乘操作。
具体地,RDAB块的最终输出为:
Fb,n=Fb,n-1+FCA+FSA (14)
其中,+为特征图相加操作。
具体地,主体网络中的上采样模块的公式如下:
Fup=HPixel Shuffle(W3(Fb,N)) (15)
其中,W3(·)为卷积核大小为3像素×3像素的卷积操作,HPixel Shuffle(·)为像素洗牌(Pixel Shuffle)上采样操作,Fb,N为F0经过N个RDAB块操作后的输出图像,Fup为上采样后的图像。
具体地,主体网络中的重建模块的公式如下:
Ires=W4(Fup) (16)
其中,为保证重建后的图像通道数与输入的低分辨率图像一致,W4(·)为输出通道为3的卷积核大小为3像素×3像素的卷积操作,Ires为主体网络的输出图像。
具体地,深度残差注意力网络的输出为:
IDRAN=Ires+Ibicubic (17)
图6为本发明实施例提供的边缘增强网络(EEN)结构图,边缘加强网络(EEN)用于减弱遥感图像中的噪声和加强提取到的边缘信息。
具体地,通过拉普拉斯算子对深度残差注意力网络的输出IDRAN进行边缘检测,抽取边缘信息,公式如下:
ILaplacian=Laplacian(x,y)⊙IDRAN (18)
其中,Laplacian(x,y)为拉普拉斯算子,具体形式为([-1,-1,-1],[-1,8,-1],[-1,-1,-1])的卷积掩膜,⊙为卷积计算,ILaplacian为对IDRAN做拉普拉斯操作完输出的图像。
具体地,利用步长卷积提取边缘特征图同时将其转换为LR空间,进一步,通过含有多个密集块(dense block,DR)的密集子网络来获取更精细的边缘信息,同时使用一个掩膜分支来抑制噪声和虚假边缘。随后对边缘加强后的图像做上采样操作投射到HR空间。计算公式如下:
Figure BDA0003073668820000091
其中,CD(·)为带有步长卷积的下采样操作,CDR(·)为密集子网络操作,CM(·)为掩膜分支操作,
Figure BDA0003073668820000092
为特征图相乘操作,HPixel Shuffle(·)为像素洗牌(Pixel Shuffle)上采样操作,IEdge为边缘加强后的特征图。
具体地,边缘加强网络的输出为:
IEEN=IEdge-ILaplacian (20)
其中,-为特征图相减操作。
具体地,将深度残差注意力网络的输出IDRAN与边缘加强网络IEEN相融合获取最终的超分辨率遥感图像ISR,公式为:
ISR=IDRAN+IEEN (21)
其中,+为特征图相加操作。
具体地,使用损失函数对整个网络进行优化,损失函数定义如下:
L(Θ)=||ISR-IHR|| (22)
其中,IHR为真实的高分辨率遥感图像,Θ为整个网络的参数。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本发明中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本发明所示的这些实施例,而是要符合与本发明所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于其具体步骤为:
1)令输入图像为ILR,经过深度残差注意力网络输出图像IDRAN
2)图像IDRAN经过边缘加强网络后输出图像中边缘细节加强后的图像IEEN
3)令图像IDRAN与图像IEEN相融合获取最终的遥感图像超分辨率重建结果ISR
2.如权利要求1所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于在步骤1)中,所述深度残差注意力网络分为上采样分支和主体网络;所述上采样分支用来学习图像的全局残差信息,所述主体网络分为浅层特征提取模块、深度特征提取模块、上采样模块和重建模块;经过深度残差注意力网络输出图像IDRAN为:
IDRAN=Ires+Ibicubic
其中,Ibicubic为上采样后的图像,Ires为主体网络的输出图像。
3.如权利要求2所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于所述上采样分支用来学习图像的全局残差信息,上采样后的图像Ibicubic公式如下:
Ibicubic=HBicubic(ILR)
其中,HBicubic(·)为双三次插值上采样操作。
4.如权利要求2所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于所述浅层特征提取模块的公式如下:
F0=HSF(ILR)
其中,HSF(·)为卷积核大小为3像素×3像素的卷积操作,F0为提取的浅层特征图像。
5.如权利要求2所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于所述深度采样提取模块由N个残差双注意力块组成,即RDAB块;计算公式如下:
Fb,n=HRDAB,n(Fb,n-1)=HRDAB,n(HRDAB,n-1(···HRDAB,1(F0)···))
其中,HRDAB,n(·)为第n个RDAB块操作;Fb,n-1和Fb,n分别为第n个RDAB块的输入和输出;
每个RDAB块包含LFF子模块、CA子模块和SA子模块;所述LFF子模块用于提取和融合多样化的局部特征,所述CA子模块用于获取不同通道的重要特征信息,所述SA子模块用于关注带有高频信息的空间位置;
所述LFF子模块的公式如下:
F1=f1,3(Fb,n-1)
F2=f2,3(ReLU(F1))
FLLF=f3,1(fConcat(F1,F2))
其中,fm,n(·)为第m个卷积核大小为n像素×n像素的卷积操作,fConcat(·)为特征图拼接操作,ReLU(·)为ReLU激活函数,F1和F2分别为第n个RDAB块中的第一个卷积和第二个卷积的输出,FLLF为LFF子模块最终的输出;
所述CA子模块的计算流程如下:
定义
Figure FDA0003073668810000021
为通道总数为C的特征图,其中单个通道的尺寸大小为H×W;对第c个通道的特征图
Figure FDA0003073668810000022
计算全局均值池化,得到所对应的通道特征描述子
Figure FDA0003073668810000023
计算如下::
Figure FDA0003073668810000024
其中,
Figure FDA0003073668810000025
为FLLF中第c个特征图中位置为(i,j)上的值,
Figure FDA0003073668810000026
Figure FDA0003073668810000027
为FLLF对应的通道特征描述子;定义Dchannel对应的通道权重
Figure FDA0003073668810000028
Achannel的计算如下:
Achannel=σ(W1ReLU(W0Dchannel))
其中,σ(·)和ReLU(·)分别为Sigmoid函数和ReLU函数;W0(·)为通道下采样率为r的卷积核大小为1像素×1像素的卷积操作;W1(·)为通道上采样率为r的卷积核大小为1像素×1像素的卷积操作;
定义CA子模块的通道注意力图输出为
Figure FDA0003073668810000029
Figure FDA00030736688100000210
的计算如下:
Figure FDA00030736688100000211
其中,
Figure FDA00030736688100000212
为特征图通道相乘操作;
所述SA子模块的计算流程如下:
定义Dspatial,avg和Dspatial,max分别为FCA的均值池化空间特征描述子和最大值池化空间特征描述子,Dspatial,avg和Dspatial,max的计算如下:
Figure FDA00030736688100000213
Figure FDA0003073668810000031
其中,Dspatial,avg(i,j)和Dspatial,avg(i,j)分别为Dspatial,avg和Dspatial,max在位置(i,j)上的值,
Figure FDA0003073668810000035
为FCA中第c个特征图中位置为(i,j)上的值;对Dspatial,avg和Dspatial,max进行融合,获取FCA的空间权重Aspatial,计算如下:
Aspatial=σ(W2ReLU(fConcat(Dspatial,avg,Dspatial,max)))
其中,σ(·)、ReLU(·)和fConcat(·)分别为Sigmoid函数、ReLU函数和特征图拼接操作,W2(·)为输入通道数为2、输出通道数为1、卷积核大小为7像素×7像素的卷积操作;
定义SA子模块的空间注意力图输出为
Figure FDA0003073668810000032
则FSA的计算如下:
Figure FDA0003073668810000033
其中,
Figure FDA0003073668810000034
为特征图相乘操作;
所述RDAB块的最终输出为:
Fb,n=Fb,n-1+FCA+FSA
其中,+为特征图相加操作。
6.如权利要求2所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于所述上采样模块的公式如下:
Fup=HPixelShuffle(W3(Fb,N))
其中,W3(·)为卷积核大小为3像素×3像素的卷积操作,HPixelShuffle(·)为像素洗牌上采样操作,Fb,N为F0经过N个RDAB块操作后的输出图像,Fup为上采样后的图像。
7.如权利要求2所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于所述重建模块的公式如下:
Ires=W4(Fup)
其中,为保证重建后的图像通道数与输入的低分辨率图像一致,W4(·)为输出通道为3的卷积核大小为3像素×3像素的卷积操作,Ires为主体网络的输出图像。
8.如权利要求1所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于在步骤2)中,所述边缘加强网络用于减弱遥感图像中的噪声和加强提取到的边缘信息,首先通过拉普拉斯算子对图像IDRAN进行边缘检测,抽取边缘信息;利用步长卷积将提取的拉普拉斯边缘特征映射到LR空间,然后通过含有多个密集块的密集子网络来获取更精细的边缘信息,同时使用一个掩膜分支来抑制噪声和虚假边缘,随后对边缘加强后的图像做上采样操作投射到HR空间。
9.如权利要求8所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于所述图像IDRAN经过边缘加强网络后输出图像中边缘细节加强后的图像IEEN的具体步骤为:
通过拉普拉斯算子对深度残差注意力网络的输出IDRAN进行边缘检测,抽取边缘信息,公式如下:
ILaplacian=Laplacian(x,y)⊙IDRAN
其中,Laplacian(x,y)为拉普拉斯算子,具体形式为([-1,-1,-1],[-1,8,-1],[-1,-1,-1])的卷积掩膜,⊙为卷积计算,ILaplacian为对IDRAN做拉普拉斯操作完输出的图像;
利用步长卷积提取边缘特征图同时将其转换为LR空间,通过含有多个密集块的密集子网络来获取更精细的边缘信息,同时使用一个掩膜分支来抑制噪声和虚假边缘;随后对边缘加强后的图像做上采样操作投射到HR空间;计算公式如下:
Figure FDA0003073668810000041
其中,CD(·)为带有步长卷积的下采样操作,CDR(·)为密集子网络操作,CM(·)为掩膜分支操作,
Figure FDA0003073668810000042
为特征图相乘操作,片PixelShuffle(·)为像素洗牌上采样操作,IEdge为边缘加强后的特征图;
图像中边缘细节加强后的图像IEEN为:
IEEN=IEdge-ILaplacian
其中,-为特征图相减操作,IEdge为边缘加强后的特征图,ILaplacian为对IDRAN做拉普拉斯操作完输出的图像。
10.如权利要求1所述一种基于深度卷积神经网络的遥感图像超分辨重建方法,其特征在于在步骤3)中,令图像IDRAN与图像IEEN相融合获取最终的遥感图像超分辨率重建结果ISR的公式为:
ISR=IDRAN+IEEN
其中,+为特征图相加操作;
使用损失函数对整个网络进行优化,损失函数定义如下:
L(Θ)=||ISR-IHR||
其中,IHR为真实的高分辨率遥感图像,Θ为整个网络的参数。
CN202110546005.4A 2021-05-19 2021-05-19 一种基于深度卷积神经网络的遥感图像超分辨重建方法 Active CN113222819B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110546005.4A CN113222819B (zh) 2021-05-19 2021-05-19 一种基于深度卷积神经网络的遥感图像超分辨重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110546005.4A CN113222819B (zh) 2021-05-19 2021-05-19 一种基于深度卷积神经网络的遥感图像超分辨重建方法

Publications (2)

Publication Number Publication Date
CN113222819A true CN113222819A (zh) 2021-08-06
CN113222819B CN113222819B (zh) 2022-07-26

Family

ID=77093098

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110546005.4A Active CN113222819B (zh) 2021-05-19 2021-05-19 一种基于深度卷积神经网络的遥感图像超分辨重建方法

Country Status (1)

Country Link
CN (1) CN113222819B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114066777A (zh) * 2021-11-30 2022-02-18 安庆师范大学 一种光场图像角度重建方法
CN115829842A (zh) * 2023-01-05 2023-03-21 武汉图科智能科技有限公司 一种基于fpga实现图片超分辨率重建的装置
CN116071243A (zh) * 2023-03-27 2023-05-05 江西师范大学 一种基于边缘增强的红外图像超分辨率重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903255A (zh) * 2019-03-04 2019-06-18 北京工业大学 一种基于3d卷积神经网络的高光谱图像超分辨率复原方法
AU2020100275A4 (en) * 2020-02-25 2020-03-26 Huang, Shuying DR Remote sensing image super-resolution based on multi-dictionary sparse representation with fractal classification
CN111192200A (zh) * 2020-01-02 2020-05-22 南京邮电大学 基于融合注意力机制残差网络的图像超分辨率重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903255A (zh) * 2019-03-04 2019-06-18 北京工业大学 一种基于3d卷积神经网络的高光谱图像超分辨率复原方法
CN111192200A (zh) * 2020-01-02 2020-05-22 南京邮电大学 基于融合注意力机制残差网络的图像超分辨率重建方法
AU2020100275A4 (en) * 2020-02-25 2020-03-26 Huang, Shuying DR Remote sensing image super-resolution based on multi-dictionary sparse representation with fractal classification

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HUANG BO 等: ""Pyramid Information Distillation Attention Network for Super-Resolution Reconstruction of Remote Sensing Images"", 《REMOTE SENSING》, 17 December 2021 (2021-12-17) *
张晓阳等: "基于深度卷积网络的红外遥感图像超分辨率重建", 《黑龙江大学自然科学学报》, no. 04, 25 August 2018 (2018-08-25) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114066777A (zh) * 2021-11-30 2022-02-18 安庆师范大学 一种光场图像角度重建方法
CN114066777B (zh) * 2021-11-30 2022-07-15 安庆师范大学 一种光场图像角度重建方法
CN115829842A (zh) * 2023-01-05 2023-03-21 武汉图科智能科技有限公司 一种基于fpga实现图片超分辨率重建的装置
CN115829842B (zh) * 2023-01-05 2023-04-25 武汉图科智能科技有限公司 一种基于fpga实现图片超分辨率重建的装置
CN116071243A (zh) * 2023-03-27 2023-05-05 江西师范大学 一种基于边缘增强的红外图像超分辨率重建方法

Also Published As

Publication number Publication date
CN113222819B (zh) 2022-07-26

Similar Documents

Publication Publication Date Title
CN113222819B (zh) 一种基于深度卷积神经网络的遥感图像超分辨重建方法
Dong et al. RRSGAN: Reference-based super-resolution for remote sensing image
CN112507997B (zh) 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
CN112750082B (zh) 基于融合注意力机制的人脸超分辨率方法及系统
US20180300855A1 (en) Method and a system for image processing
CN111754438B (zh) 基于多分支门控融合的水下图像复原模型及其复原方法
CN111951195A (zh) 图像增强方法及装置
CN117078930A (zh) 基于边界感知和注意力机制的医学图像分割方法
CN117788296B (zh) 基于异构组合深度网络的红外遥感图像超分辨率重建方法
CN115578262A (zh) 基于afan模型的偏振图像超分辨率重建方法
CN115601236A (zh) 一种基于特征信息蒸馏网络的遥感图像超分辨重建方法
CN109993701B (zh) 一种基于金字塔结构的深度图超分辨率重建的方法
Hua et al. Dynamic scene deblurring with continuous cross-layer attention transmission
Wang et al. Msfnet: multistage fusion network for infrared and visible image fusion
CN116977651B (zh) 一种基于双分支和多尺度特征提取的图像去噪方法
CN116543165B (zh) 一种基于双通道复合深度网络的遥感图像果树分割方法
Shin et al. LoGSRN: Deep super resolution network for digital elevation model
Liang et al. Multi-scale and multi-patch transformer for sandstorm image enhancement
CN113705358B (zh) 一种基于特征映射的多角度侧脸正面化方法
CN115565034A (zh) 基于双流增强网络的红外小目标检测方法
CN116266336A (zh) 视频超分辨率重建方法、装置、计算设备及存储介质
CN113780305A (zh) 一种基于两种线索交互的显著性目标检测方法
CN117576483B (zh) 基于多尺度卷积自编码器的多源数据融合地物分类方法
CN114926734B (zh) 基于特征聚合和注意融合的固体废弃物检测装置及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant