CN111179167B - 一种基于多阶段注意力增强网络的图像超分辨方法 - Google Patents

一种基于多阶段注意力增强网络的图像超分辨方法 Download PDF

Info

Publication number
CN111179167B
CN111179167B CN201911271576.0A CN201911271576A CN111179167B CN 111179167 B CN111179167 B CN 111179167B CN 201911271576 A CN201911271576 A CN 201911271576A CN 111179167 B CN111179167 B CN 111179167B
Authority
CN
China
Prior art keywords
feature
representing
block
stage
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911271576.0A
Other languages
English (en)
Other versions
CN111179167A (zh
Inventor
陈瑞
张衡
赵毅强
刘继鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201911271576.0A priority Critical patent/CN111179167B/zh
Publication of CN111179167A publication Critical patent/CN111179167A/zh
Application granted granted Critical
Publication of CN111179167B publication Critical patent/CN111179167B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于多阶段注意力增强网络的图像超分辨方法,通过多阶段注意力增强网络实现,所述多阶段注意力增强网络包括:浅层特征提取模块,用于从LR输入中提取浅层特征F0,基于增强U‑net模块的级联残差组件,包括多级级联残差组件模块,用于将所述浅层特征F0输入到多级CRG模块中,以提取深层特征FDF;上采样模块,用于对提取到的深层特征FDF进行上采样操作,生成高分辨率特征FUP,图像重构组件,用于对生成的高分辨率特征FUP通过一个卷积层映射成SR图像输出。本发明不仅允许大量的低频信息通过多个层间跳接进行流动,而且还使主干网络能够专注于学习大感受野范围内的抽象特征表示。

Description

一种基于多阶段注意力增强网络的图像超分辨方法
技术领域
本发明涉及图像超分辨技术领域,特别是涉及一种基于多阶段注意力增强网络的图像超分辨方法。
背景技术
单帧图像超分辨(SISR)旨在从其对应的低分辨率(LR)输入图像中重建高分辨率(HR)图像。SISR技术有望最大程度地减少重建误差并产生良好的主观视觉效果。HR图像可以提供更多所需信息。因此,图像超分辨(SR)在许多计算机视觉任务中具有重要应用,例如视频监视、卫星成像和消费者摄影。对于同一LR图像,由于HR图像的估计具有多种解决方案,因此SISR是一个典型的不适定反问题。另外,包括噪声和模糊在内的成像质量下降问题将使HR图像的恢复过程更加困难。因此,有必要探索可靠地自然图像先验知识,以及HR-LR图像对的正确映射,以找到具有高视觉质量的最佳解决方案。
常用的图像插值方法通过利用各种插值内核来预测未知像素值来生成HR图像。尽管它们计算简单且快速,但是由于对相邻像素加权的过程易于抑制高频图像分量,因此它们的插值性能受到限制。为了提供更多有用重建信息,基于重建的方法采用各种正则化技术作为先验知识。但是,它们仍然很难恢复精细的图像结构和纹理,因为以启发方式获得的先验知识不足以代表自然图像的多样化模式。为了获得更好的视觉质量,学习类的方法通过从HR-LR示例图像或图像对中学习映射关系来解决SR问题。尽管这些方法获得了良好的视觉质量,但是它们的建模能力相对于大规模训练数据仍然有限,这将限制图像重建质量的提高。当前,用于SR任务的深度学习技术已比以前的SR方法取得了更加优越的性能。由于使用纯数据驱动的方式,使用端到端训练模式的深度卷积神经网络(CNN)具有强大的特征表示能力。目前已有一系列基于CNN的SISR方法,从LR输入及其对应的HR训练样本中学习映射函数。现有的大多数基于CNN的SR模型主要通过设计更深或更广的网络以学习更多具有可区分性的高级特征,而忽略了跨不同尺度和通道特征间的交互,因此缺乏对特征关系的表示能力并且限制了图像SR结果的准确性和稳定性。
发明内容
本发明的目的是针对现有技术中存在的技术缺陷,而提供一种基于多阶段注意力增强网络的图像超分辨方法,以进一步的提高单帧图像超分辨的性能。
为实现本发明的目的所采用的技术方案是:
一种基于多阶段注意力增强网络的图像超分辨方法,通过多阶段注意力增强网络实现,所述多阶段注意力增强网络包括:
浅层特征提取模块,用于从LR输入中提取浅层特征F0
基于增强U-net模块的级联残差组件,包括多级级联残差组件模块,用于将所述浅层特征F0输入到多级CRG模块中,以提取深层特征FDF
上采样模块,用于对提取到的深层特征FDF进行上采样操作,生成高分辨率特征FUP
图像重构组件,用于对生成的高分辨率特征FUP通过一个卷积层映射成SR图像输出。
其中,所述级联残差组件模块包括一个增强U-net块,多个残差块,一个群池化块:增强U-net块利用了不同分辨率的特征图中互补的多尺度特征和自相似性,在大视场内找到图像中代表全局的结构,从而有效地融合局部和全局特征,以获得更好的上下文表示;残差块进一步改善特征信息流,提取丰富的局部特征;在将残差块生成的特征图拼接后,进一步在一个级联残差组件模块内进行全局特征融合,从而自适应地保存内容层级的特征信息。
其中,第g个级联残差组件模块表示为:
Fg=Fg-1+Fg,P=Fg-1+WGPBHg(Fg-1)
其中,WGPB表示设置给群池化块的卷积层的权重,H(·)表示第g个级联残差组件模块的函数,Fg-1,Fg表示第g个级联残差组件模块的输入和输出,Fg,p表示群池化块的输出。
其中,所述增强U-net块是将多分辨率注意力机制整合到具有残差结构的基本U-net中形成,以全局方式充分利用层级特征,可将浅层特征和深层特征合并在一起;基于该增强U-net块的结构,第m个自下而上块生成的深层特征--高分辨率特征,用如下等式来表示:
Figure BDA0002314340220000031
其中,
Figure BDA0002314340220000032
是第m个自下而上块的函数,TMRA(·)表示多分辨率注意力的重新缩放函数,
Figure BDA0002314340220000033
表示第m个自上而下块的输出,为低层次特征,
Figure BDA0002314340220000034
表示前面的第m-1个自下而上块的输出,为低分辨率特征图。
其中,所述多分辨率注意力机制,在全局范围内确认存在互相补充的特征图的并进行重新校准,根据U-Net结构的编码器和解码器之间特征图的变化统计量计算通道权重,然后使用得到的权重因子来有选择性增强更多内容信息的特征图并抑制无用特征;将编码器的大小为H×W的C个特征图
Figure BDA0002314340220000035
作为输入,给定与FE相同的尺寸,解码器输出特征图
Figure BDA0002314340220000036
作为计算参考模板,池化矢量zE∈Rc的第c个尺度计算如下:
Figure BDA0002314340220000037
其中,
Figure BDA0002314340220000038
是FD的平均特征图的第c个通道输出,R表示实数集合,(i,j)表示图像中像素点的坐标;
使用Sigmoid函数作为权重门函数,得到权重集合为:
w=f(WUδ(WDzE))
WU和WD表示卷积层的权重集,分别将输出特征的通道维度变为C和C/r,f(·)和δ(·)分别表示Sigmoid门和ReLU,r表示减少的特征通道数,最后获得通道注意力权重图w以重新调整输入:
Figure BDA0002314340220000041
其中,wc
Figure BDA0002314340220000042
分别表示第c通道的权重因子和特征图。
其中,所述群池化块与多支流视觉注意力机制结合,通过操作缩放多个网络流的特征图,以全局方式利用特征间的相互依赖性关系,找到对高分辨率图像重构有重要影响的特征图;B个特征流被送入群池化块中,群池化投票因子S∈RBC计算为:
Figure BDA0002314340220000043
其中,sc表示第c个特征图的投票因子,yc(i,j)表示第c个特征图,Y(·)表示与群池化块的所有通道连接中的特征图,RBC表示实向量空间。
其中,与对内容重要性排序的注意力机制结合,通过测量不同特征图之间的内容相似度,使更多信息以粗糙至精细的方式传输到网络重建层,以提高重建图像的视觉质量;其对特征图的相似度计算如下:
Figure BDA0002314340220000044
其中,
Figure BDA0002314340220000045
Figure BDA0002314340220000046
表示每个特征图的最大池化过程,通过1/C·∑ti计算平均特征图
Figure BDA0002314340220000047
Figure BDA0002314340220000048
Figure BDA0002314340220000049
向量化以计算特征图得分qc,T=[t1,…,tC]表示大小为H×W的C个特征图,上标T表示转置。
本发明提出的多阶段注意力增强网络MAAN,用于学习视觉特征的共同表示和交互;通过将增强U-net组件堆叠成深度残差结构中,将高分辨率特征和低分辨率内容信息结合起来,以提供有用的特征。另外,利用多分辨率、多流和内容排序注意力机制来增强特征学习能力,使得本发明可以充分利用多尺度和多层次特征之间的互补信息。
附图说明
图1是本发明的多阶段注意力增强网络的整体结构网络图;
图2为本发明的三种注意力模块融合到网络多阶段处理模块的融合示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提出了一个用于单帧图像超分辨的多阶段注意力增强网络,通过学习跨尺度和跨通道的全局内容感知特征组来重建高分辨率图像。所提出的网络采用了多个增强U-net组件并使用级联残差连接,不仅允许大量的低频信息通过多个层间跳接进行流动,而且还使主干网络能够专注于学习大感受野范围内的抽象特征表示。
此外,进一步的,本发明还提出多分辨率、多支流和内容重要性排序的注意力模块,并将其融合到网络多阶段处理模块中,通过使用上述的三种注意力模块,每个通道特征均可自适应地重新缩放和融合,以在多个表示阶段生成更逼真的高分辨率图像内容。
如图1-2所示,本发明基于多阶段注意力增强网络的图像超分辨方法,通过多阶段注意力增强网络MAAN实现,所述多阶段注意力增强网络包括:
浅层特征提取模块,基于增强U-net模块的级联残差组件(CRG),上采样模块(Upscale Module)和图像重构组件。
本发明用ILR和ISR分别表示MAAN的输入和输出。本发明仅用一个卷积层(Conv)来从LR输入中提取浅层特征F0
F0=HSF(ILR) (1)
其中HSF(·)表示浅层模块操作。提取到的浅层特征F0被输入到多级CRG模块中,用于提取深层特征。因此,可以进一步得到以下表达式
FDF=HCRG(F0) (2)
其中,HCRG(·)表示深层级联残差U-net结构。此主网络包含总数为G的多级CRGs,可以堆叠成很深的网络,从而提供更大的感受野。提取到的深层特征通过一个UpscaleModule来进行上采样操作。
FUP=HUP(FDP) (3)
生成的高分辨率特征FUP通过一个卷积层映射成SR图像
ISR=HREC(FUP)=HMAAN(ILR) (4)
其中,HREC(·)和HMAAN(·)分别表示重建层以及整个MAAN网络的函数。
本发明中,所述的级联残差组件(CRG),如图1所示,每个CRG主要包含一个增强U-net块(EUB),B个残差块(RBs),一个群池化块(GPB),以及级联残差(RIC)连接。EUB利用了不同分辨率的特征图中互补的多尺度特征和自相似性。此外,它可以在大的视场内找到图像中代表全局的结构,从而可以有效地融合局部和全局特征,以获得更好的上下文表示。在CRG中引入了基本残差块(RBs)以进一步有效地改善特征信息流,因为RB中有多个卷积层可以提取丰富的局部特征。在将RB生成的特征图进行拼接后,进一步在一个CRG内进行全局特征融合,从而自适应地保存内容层级的特征信息。
为了进一步减轻CRG的权重参数,便于稳定训练,通过级联几个残差结构实现一种RIC来连接各个模块。
本发明采用具有残差结构的CRG作为更深层网络的基本结构。进一步引入CRG内的级联机制来使深层网络的训练保持稳定。将第g个CRG表示为
Fg=Fg-1+Fg,P=Fg-1+WGPBHg(Fg-1) (5)
其中WGPB表示设置给GPB的卷积层的权重,不失一般性,为简单起见,省略了偏置项。H(·)表示第g个CRG的函数。Fg-1,Fg表示第g个CRG的输入和输出,Fg,p表示GPB的输出。深层特征FDF通过如下等式得到
FDF=F0+WLSCFG (6)
其中,WLSC是在主网络尾部卷积层的权重,FG表示通过主干网络全部CRG处理后的特征输出。这种多阶段结构不仅可以简化跨CRG的信息流,还可以为生成HR图像提供非常深的CNN结构。
本发明中,所述的增强U-net块(EUB),如图1所示,本发明将多分辨率注意力(MRA)整合到具有残差结构的基本U-net(BUN)中。U-Net结构本质上是一个编码器和解码器网络,其中许多自上而下和自下而上的块通过一系列密集的跳跃路径连接在一起。这种结构鼓励完全重用信息流并捕获具有不同分辨率的多尺度特征。
Figure BDA0002314340220000071
表示第m个自上而下块的输出,
Figure BDA0002314340220000072
表示前面的第m-1个自下而上块的输出。基于EUB的结构,第m个自下而上块生成的深层特征可用如下等式来表示
Figure BDA0002314340220000073
其中
Figure BDA0002314340220000074
是第m个自下而上块的函数。TMRA(·)表示MRA的重新缩放函数。通过从低分辨率特征图
Figure BDA0002314340220000075
和低层次特征
Figure BDA0002314340220000076
产生高分辨率特征
Figure BDA0002314340220000077
第m个自下而上阶段的卷积块可以捕获长距离信息。EUB的TMRA操作可以使中间特征图在每个图像尺度内在语义上是有区别的。另外,补充信息被提取并融合以突出显著特征。EUB的残差结构以全局方式充分利用层级特征,可以将浅层特征和深层特征合并在一起。
本发明,还提出一种多分辨率视觉注意力机制(MRA),如图2所示,将多分辨率视觉注意力机制(MRA)模块与EUB融合集成在一起。MRA的目的是在全局范围内确认存在互相补充的特征图的并进行重新校准。根据编码器和解码器之间特征图的变化统计量计算通道权重,然后使用得到的权重因子来有选择性增强更多内容信息的特征图并抑制无用特征。将编码器的大小为H×W的C个特征图
Figure BDA0002314340220000081
作为输入。给定与FE相同的尺寸,解码器输出的特征图
Figure BDA0002314340220000082
作为计算参考模板。池化矢量zE∈Rc的第c个尺度计算如下
Figure BDA0002314340220000083
其中,
Figure BDA0002314340220000084
是FD的平均特征图的第c个通道输出。
图2中,FD的平均操作HGA可计算为
Figure BDA0002314340220000085
全局平均池化HVA根据等式(8)在各个特征通道上沿空间维度进行操作。为利用聚合信息,通过全局池化进一步构建注意力关系,使用Sigmoid函数作为权重门函数,得到权重集合为:
w=f(WUδ(WDzE)) (9)
WU和WD表示卷积层的权重集,分别将输出特征的通道维度变为C和C/r。f(·)和δ(·)分别表示Sigmoid门和ReLU。最后获得通道注意力权重图w以重新调整输入:
Figure BDA0002314340220000086
其中,wc
Figure BDA0002314340220000087
分别表示第c通道的权重因子和特征图。通过使用这种通道注意力,可自适应地增强EUB中不同分辨率的特征并进行有效融合。
本发明中,还提出提出一种多支流视觉注意力机制(MSA),如图2所示。将多支流视觉注意力机制(MSA)模块与群池化块(GBP)融合,通过函数HGP操作缩放多个网络流的特征图。这种注意力机制不仅减小参数,而且以全局方式利用特征间的相互依赖性关系。多支流视觉注意力机制(MSA)有助于找到对高分辨率图像重构有重要影响的特征图。假设B个特征流被送入GPB中。群池化投票因子S∈RBC计算为:
Figure BDA0002314340220000091
其中,Y(·)表示与GPB的所有通道连接中的特征图。通过使用式(9)和(10)中类似方法,可获取第c个通道中全局缩放因子和特征图以重新缩放特征流。
本发明中,还提出一种对内容重要性排序的注意力机制(CRA),如图2所示,利用HCS操作通过测量不同特征图之间的内容相似度来实现CRA模块。这种自注意力特征图包含了较多的重要内容信息,增强了中频和高频段的图像特征,这些特征通常代表边缘、纹理和其他细节,会显著提高重建图像的视觉质量。T=[t1,…,tC]表示大小为H×W的C个特征图。通过1/C·∑ti计算平均特征图
Figure BDA0002314340220000092
Figure BDA0002314340220000093
Figure BDA0002314340220000094
表示每个特征图的最大池化过程,通常选择将特征图的大小减小至1/4。
特征图的相似度计算如下:
Figure BDA0002314340220000095
Figure BDA0002314340220000096
Figure BDA0002314340220000097
向量化以计算特征图得分qc,可根据式(9)和(10)获得加权特征图。最后,更多信息以粗糙至精细的方式传输到网络重建层。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (7)

1.基于多阶段注意力增强网络的图像超分辨方法,其特征在于,通过多阶段注意力增强网络实现,所述多阶段注意力增强网络包括:
浅层特征提取模块,用于从LR输入中提取浅层特征F0
级联残差组件,包括多级级联残差组件模块,用于将所述浅层特征F0输入到多级CRG模块中,以提取深层特征FDF
上采样模块,用于对提取到的深层特征FDF进行上采样操作,生成高分辨率特征FUP
图像重构组件,用于对生成的高分辨率特征FUP通过一个卷积层映射成SR图像输出;
所述级联残差组件模块包括增强U-net块,所述增强U-net块是将多分辨率注意力机制整合到具有残差结构的基本U-net中形成,以全局方式充分利用层级特征,将浅层特征和深层特征合并在一起;
其中,所述多分辨率注意力机制,在全局范围内确认存在互相补充的特征图并进行重新校准,根据U-Net结构的编码器和解码器之间特征图的变化统计量计算通道权重,然后使用得到的权重因子来有选择性增强更多内容信息的特征图并抑制无用特征;将编码器的大小为H×W的C个特征图
Figure FDA0004168880490000011
作为输入,给定与FE相同的尺寸,解码器输出特征图
Figure FDA0004168880490000012
作为计算参考模板,池化矢量zE∈Rc的第c个尺度计算如下:
Figure FDA0004168880490000013
其中,
Figure FDA0004168880490000014
是FD的平均特征图的第c个通道输出,R表示实数集合,(i,j)表示图像中像素点的坐标。
2.根据权利要求1所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,所述级联残差组件模块包括一个增强U-net块,多个残差块,一个群池化块:增强U-net块利用了不同分辨率的特征图中互补的多尺度特征和自相似性,在大视场内找到图像中代表全局的结构,从而有效地融合局部和全局特征,以获得更好的上下文表示;残差块进一步改善特征信息流,提取丰富的局部特征;在将残差块生成的特征图拼接后,进一步在一个级联残差组件模块内进行全局特征融合,从而自适应地保存内容层级的特征信息。
3.根据权利要求2所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,第g个级联残差组件模块表示为:
Fg=Fg-1+Fg,P=Fg-1+WGPBHg(Fg-1)
其中,WGPB表示设置给群池化块的卷积层的权重,H(·)表示第g个级联残差组件模块的函数,Fg-1,Fg表示第g个级联残差组件模块的输入和输出,Fg,p表示群池化块的输出。
4.根据权利要求2所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,基于所述增强U-net块的结构,第m个自下而上块生成的深层特征--高分辨率特征,用如下等式来表示:
Figure FDA0004168880490000021
其中,
Figure FDA0004168880490000022
是第m个自下而上块的函数,TMRA(·)表示多分辨率注意力的重新缩放函数,
Figure FDA0004168880490000023
表示第m个自上而下块的输出,为低层次特征,
Figure FDA0004168880490000024
表示前面的第m-1个自下而上块的输出,为低分辨率特征图。
5.根据权利要求4所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,所述多分辨率注意力机制,
使用Sigmoid函数作为权重门函数,得到权重集合为:
w=f(WUδ(WDzE))
WU和WD表示卷积层的权重集,分别将输出特征的通道维度变为C和C/r,f(·)和δ(·)分别表示Sigmoid门和ReLU,r表示减少的特征通道数,最后获得通道注意力权重图w以重新调整输入:
Figure FDA0004168880490000031
其中,wc
Figure FDA0004168880490000032
分别表示第c通道的权重因子和特征图。
6.根据权利要求5所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,所述群池化块与多支流视觉注意力机制结合,通过操作缩放多个网络流的特征图,以全局方式利用特征间的相互依赖性关系,找到对高分辨率图像重构有重要影响的特征图;B个特征流被送入群池化块中,群池化投票因子S∈RBC计算为:
Figure FDA0004168880490000033
其中,sc表示第c个特征图的投票因子,yc(i,j)表示第c个特征图,
Y(·)表示与群池化块的所有通道连接中的特征图,RBC表示实向量空间。
7.根据权利要求6所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,与对内容重要性排序的注意力机制结合,通过测量不同特征图之间的内容相似度,使更多信息以粗糙至精细的方式传输到网络重建层,以提高重建图像的视觉质量;其对特征图的相似度计算如下:
Figure FDA0004168880490000034
其中,
Figure FDA0004168880490000035
Figure FDA0004168880490000036
表示每个特征图的最大池化过程,通过1/C·∑ti计算平均特征图
Figure FDA0004168880490000037
Figure FDA0004168880490000038
Figure FDA0004168880490000039
向量化以计算特征图得分qc,T=[t1,…,tC]表示大小为H×W的C个特征图,上标T表示转置。
CN201911271576.0A 2019-12-12 2019-12-12 一种基于多阶段注意力增强网络的图像超分辨方法 Active CN111179167B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911271576.0A CN111179167B (zh) 2019-12-12 2019-12-12 一种基于多阶段注意力增强网络的图像超分辨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911271576.0A CN111179167B (zh) 2019-12-12 2019-12-12 一种基于多阶段注意力增强网络的图像超分辨方法

Publications (2)

Publication Number Publication Date
CN111179167A CN111179167A (zh) 2020-05-19
CN111179167B true CN111179167B (zh) 2023-05-16

Family

ID=70653878

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911271576.0A Active CN111179167B (zh) 2019-12-12 2019-12-12 一种基于多阶段注意力增强网络的图像超分辨方法

Country Status (1)

Country Link
CN (1) CN111179167B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696038A (zh) * 2020-05-26 2020-09-22 新华三大数据技术有限公司 图像超分辨率方法、装置、设备及计算机可读存储介质
CN111833246B (zh) * 2020-06-02 2022-07-08 天津大学 基于注意力级联网络的单帧图像超分辨方法
CN111861880B (zh) * 2020-06-05 2022-08-30 昆明理工大学 基于区域信息增强与块自注意力的图像超分与融合方法
CN111986085B (zh) * 2020-07-31 2024-09-13 南京航空航天大学 一种基于深度反馈注意力网络系统的图像超分辨率方法
CN112070670B (zh) * 2020-09-03 2022-05-10 武汉工程大学 全局-局部分离注意力机制的人脸超分辨率方法及系统
CN112233033B (zh) * 2020-10-19 2022-11-01 中南民族大学 解析先验融合的渐进高倍人脸超分辨率系统及其方法
CN112348766B (zh) * 2020-11-06 2023-04-18 天津大学 一种用于监控视频增强的渐进式特征流深度融合网络
CN112330542B (zh) * 2020-11-18 2022-05-03 重庆邮电大学 基于crcsan网络的图像重建系统及方法
CN112668619B (zh) * 2020-12-22 2024-04-16 万兴科技集团股份有限公司 图像处理方法、装置、终端及存储介质
CN112581401B (zh) * 2020-12-25 2023-04-28 英特灵达信息技术(深圳)有限公司 一种raw图片的获取方法、装置及电子设备
CN113284064B (zh) * 2021-05-24 2023-04-07 西安理工大学 一种基于注意力机制跨尺度上下文低照度图像增强方法
CN114119585B (zh) * 2021-12-01 2022-11-29 昆明理工大学 基于Transformer的关键特征增强胃癌图像识别方法
CN114463204A (zh) * 2022-01-18 2022-05-10 三峡大学 一种基于双判别器异构CycleGAN的图像去雾框架
CN114897694B (zh) * 2022-05-10 2024-09-24 南京航空航天大学 基于混合注意力和双层监督的图像超分辨率重建方法
CN116934598B (zh) * 2023-09-19 2023-12-01 湖南大学 一种多尺度特征融合的轻量级遥感图像超分方法及系统
CN118446899B (zh) * 2024-07-05 2024-08-30 杭州电子科技大学 基于层级感受野Transformer的图像超分辨率方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859106A (zh) * 2019-01-28 2019-06-07 桂林电子科技大学 一种基于自注意力的高阶融合网络的图像超分辨率重建方法
CN109903228A (zh) * 2019-02-28 2019-06-18 合肥工业大学 一种基于卷积神经网络的图像超分辨率重建方法
CN110033410A (zh) * 2019-03-28 2019-07-19 华中科技大学 图像重建模型训练方法、图像超分辨率重建方法及装置
CN110415170A (zh) * 2019-06-24 2019-11-05 武汉大学 一种基于多尺度注意力卷积神经网络的图像超分辨率方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859106A (zh) * 2019-01-28 2019-06-07 桂林电子科技大学 一种基于自注意力的高阶融合网络的图像超分辨率重建方法
CN109903228A (zh) * 2019-02-28 2019-06-18 合肥工业大学 一种基于卷积神经网络的图像超分辨率重建方法
CN110033410A (zh) * 2019-03-28 2019-07-19 华中科技大学 图像重建模型训练方法、图像超分辨率重建方法及装置
CN110415170A (zh) * 2019-06-24 2019-11-05 武汉大学 一种基于多尺度注意力卷积神经网络的图像超分辨率方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
席志红 ; 袁昆鹏 ; .基于残差通道注意力和多级特征融合的图像超分辨率重建.激光与光电子学进展.2019,(04),全文. *

Also Published As

Publication number Publication date
CN111179167A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN111179167B (zh) 一种基于多阶段注意力增强网络的图像超分辨方法
Liu et al. Video super-resolution based on deep learning: a comprehensive survey
CN113362223B (zh) 基于注意力机制和双通道网络的图像超分辨率重建方法
CN111833246B (zh) 基于注意力级联网络的单帧图像超分辨方法
Xiao et al. Satellite video super-resolution via multiscale deformable convolution alignment and temporal grouping projection
CN110443842B (zh) 基于视角融合的深度图预测方法
CN112396607B (zh) 一种可变形卷积融合增强的街景图像语义分割方法
CN113096017A (zh) 基于深度坐标注意力网络模型的图像超分辨率重建方法
CN115457498A (zh) 一种基于双注意力和密集连接的城市道路语义分割方法
CN115482382A (zh) 一种基于Transformer架构的图像语义分割方法
CN113240683B (zh) 基于注意力机制的轻量化语义分割模型构建方法
CN112270366B (zh) 基于自适应多特征融合的微小目标检测方法
CN112364838B (zh) 一种利用合成的联机文本图像改进手写ocr性能的方法
CN114898284B (zh) 一种基于特征金字塔局部差异注意力机制的人群计数方法
US20240062347A1 (en) Multi-scale fusion defogging method based on stacked hourglass network
CN116486074A (zh) 一种基于局部和全局上下文信息编码的医学图像分割方法
US20240070809A1 (en) Cascaded local implicit transformer for arbitrary-scale super-resolution
CN113658047A (zh) 一种结晶图像超分辨率重建方法
Liu et al. Research on super-resolution reconstruction of remote sensing images: A comprehensive review
CN113379606A (zh) 一种基于预训练生成模型的人脸超分辨方法
CN116664435A (zh) 一种基于多尺度人脸解析图融入的人脸复原方法
Wang et al. Underwater image super-resolution using multi-stage information distillation networks
CN117689592A (zh) 一种基于级联自适应网络的水下图像增强方法
CN117252892A (zh) 基于轻量化视觉自注意力网络的双分支人像自动抠图模型
WO2023010981A1 (zh) 编解码方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant