CN111179167B - 一种基于多阶段注意力增强网络的图像超分辨方法 - Google Patents
一种基于多阶段注意力增强网络的图像超分辨方法 Download PDFInfo
- Publication number
- CN111179167B CN111179167B CN201911271576.0A CN201911271576A CN111179167B CN 111179167 B CN111179167 B CN 111179167B CN 201911271576 A CN201911271576 A CN 201911271576A CN 111179167 B CN111179167 B CN 111179167B
- Authority
- CN
- China
- Prior art keywords
- feature
- representing
- block
- stage
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000005070 sampling Methods 0.000 claims abstract description 4
- 238000011176 pooling Methods 0.000 claims description 23
- 230000007246 mechanism Effects 0.000 claims description 17
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 8
- 230000000295 complement effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 101150064138 MAP1 gene Proteins 0.000 claims 1
- 101150077939 mapA gene Proteins 0.000 claims 1
- 239000010410 layer Substances 0.000 abstract description 15
- 235000008694 Humulus lupulus Nutrition 0.000 abstract description 2
- 239000011229 interlayer Substances 0.000 abstract description 2
- 239000012141 concentrate Substances 0.000 abstract 1
- 230000006870 function Effects 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- GFZMFCVDDFHSJK-UHFFFAOYSA-N 2-(methylideneamino)acetonitrile Chemical compound C=NCC#N GFZMFCVDDFHSJK-UHFFFAOYSA-N 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- YBJHBAHKTGYVGT-ZKWXMUAHSA-N (+)-Biotin Chemical compound N1C(=O)N[C@@H]2[C@H](CCCCC(=O)O)SC[C@@H]21 YBJHBAHKTGYVGT-ZKWXMUAHSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- FEPMHVLSLDOMQC-UHFFFAOYSA-N virginiamycin-S1 Natural products CC1OC(=O)C(C=2C=CC=CC=2)NC(=O)C2CC(=O)CCN2C(=O)C(CC=2C=CC=CC=2)N(C)C(=O)C2CCCN2C(=O)C(CC)NC(=O)C1NC(=O)C1=NC=CC=C1O FEPMHVLSLDOMQC-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于多阶段注意力增强网络的图像超分辨方法,通过多阶段注意力增强网络实现,所述多阶段注意力增强网络包括:浅层特征提取模块,用于从LR输入中提取浅层特征F0,基于增强U‑net模块的级联残差组件,包括多级级联残差组件模块,用于将所述浅层特征F0输入到多级CRG模块中,以提取深层特征FDF;上采样模块,用于对提取到的深层特征FDF进行上采样操作,生成高分辨率特征FUP,图像重构组件,用于对生成的高分辨率特征FUP通过一个卷积层映射成SR图像输出。本发明不仅允许大量的低频信息通过多个层间跳接进行流动,而且还使主干网络能够专注于学习大感受野范围内的抽象特征表示。
Description
技术领域
本发明涉及图像超分辨技术领域,特别是涉及一种基于多阶段注意力增强网络的图像超分辨方法。
背景技术
单帧图像超分辨(SISR)旨在从其对应的低分辨率(LR)输入图像中重建高分辨率(HR)图像。SISR技术有望最大程度地减少重建误差并产生良好的主观视觉效果。HR图像可以提供更多所需信息。因此,图像超分辨(SR)在许多计算机视觉任务中具有重要应用,例如视频监视、卫星成像和消费者摄影。对于同一LR图像,由于HR图像的估计具有多种解决方案,因此SISR是一个典型的不适定反问题。另外,包括噪声和模糊在内的成像质量下降问题将使HR图像的恢复过程更加困难。因此,有必要探索可靠地自然图像先验知识,以及HR-LR图像对的正确映射,以找到具有高视觉质量的最佳解决方案。
常用的图像插值方法通过利用各种插值内核来预测未知像素值来生成HR图像。尽管它们计算简单且快速,但是由于对相邻像素加权的过程易于抑制高频图像分量,因此它们的插值性能受到限制。为了提供更多有用重建信息,基于重建的方法采用各种正则化技术作为先验知识。但是,它们仍然很难恢复精细的图像结构和纹理,因为以启发方式获得的先验知识不足以代表自然图像的多样化模式。为了获得更好的视觉质量,学习类的方法通过从HR-LR示例图像或图像对中学习映射关系来解决SR问题。尽管这些方法获得了良好的视觉质量,但是它们的建模能力相对于大规模训练数据仍然有限,这将限制图像重建质量的提高。当前,用于SR任务的深度学习技术已比以前的SR方法取得了更加优越的性能。由于使用纯数据驱动的方式,使用端到端训练模式的深度卷积神经网络(CNN)具有强大的特征表示能力。目前已有一系列基于CNN的SISR方法,从LR输入及其对应的HR训练样本中学习映射函数。现有的大多数基于CNN的SR模型主要通过设计更深或更广的网络以学习更多具有可区分性的高级特征,而忽略了跨不同尺度和通道特征间的交互,因此缺乏对特征关系的表示能力并且限制了图像SR结果的准确性和稳定性。
发明内容
本发明的目的是针对现有技术中存在的技术缺陷,而提供一种基于多阶段注意力增强网络的图像超分辨方法,以进一步的提高单帧图像超分辨的性能。
为实现本发明的目的所采用的技术方案是:
一种基于多阶段注意力增强网络的图像超分辨方法,通过多阶段注意力增强网络实现,所述多阶段注意力增强网络包括:
浅层特征提取模块,用于从LR输入中提取浅层特征F0,
基于增强U-net模块的级联残差组件,包括多级级联残差组件模块,用于将所述浅层特征F0输入到多级CRG模块中,以提取深层特征FDF;
上采样模块,用于对提取到的深层特征FDF进行上采样操作,生成高分辨率特征FUP,
图像重构组件,用于对生成的高分辨率特征FUP通过一个卷积层映射成SR图像输出。
其中,所述级联残差组件模块包括一个增强U-net块,多个残差块,一个群池化块:增强U-net块利用了不同分辨率的特征图中互补的多尺度特征和自相似性,在大视场内找到图像中代表全局的结构,从而有效地融合局部和全局特征,以获得更好的上下文表示;残差块进一步改善特征信息流,提取丰富的局部特征;在将残差块生成的特征图拼接后,进一步在一个级联残差组件模块内进行全局特征融合,从而自适应地保存内容层级的特征信息。
其中,第g个级联残差组件模块表示为:
Fg=Fg-1+Fg,P=Fg-1+WGPBHg(Fg-1)
其中,WGPB表示设置给群池化块的卷积层的权重,H(·)表示第g个级联残差组件模块的函数,Fg-1,Fg表示第g个级联残差组件模块的输入和输出,Fg,p表示群池化块的输出。
其中,所述增强U-net块是将多分辨率注意力机制整合到具有残差结构的基本U-net中形成,以全局方式充分利用层级特征,可将浅层特征和深层特征合并在一起;基于该增强U-net块的结构,第m个自下而上块生成的深层特征--高分辨率特征,用如下等式来表示:
其中,所述多分辨率注意力机制,在全局范围内确认存在互相补充的特征图的并进行重新校准,根据U-Net结构的编码器和解码器之间特征图的变化统计量计算通道权重,然后使用得到的权重因子来有选择性增强更多内容信息的特征图并抑制无用特征;将编码器的大小为H×W的C个特征图作为输入,给定与FE相同的尺寸,解码器输出特征图作为计算参考模板,池化矢量zE∈Rc的第c个尺度计算如下:
使用Sigmoid函数作为权重门函数,得到权重集合为:
w=f(WUδ(WDzE))
WU和WD表示卷积层的权重集,分别将输出特征的通道维度变为C和C/r,f(·)和δ(·)分别表示Sigmoid门和ReLU,r表示减少的特征通道数,最后获得通道注意力权重图w以重新调整输入:
其中,所述群池化块与多支流视觉注意力机制结合,通过操作缩放多个网络流的特征图,以全局方式利用特征间的相互依赖性关系,找到对高分辨率图像重构有重要影响的特征图;B个特征流被送入群池化块中,群池化投票因子S∈RBC计算为:
其中,sc表示第c个特征图的投票因子,yc(i,j)表示第c个特征图,Y(·)表示与群池化块的所有通道连接中的特征图,RBC表示实向量空间。
其中,与对内容重要性排序的注意力机制结合,通过测量不同特征图之间的内容相似度,使更多信息以粗糙至精细的方式传输到网络重建层,以提高重建图像的视觉质量;其对特征图的相似度计算如下:
本发明提出的多阶段注意力增强网络MAAN,用于学习视觉特征的共同表示和交互;通过将增强U-net组件堆叠成深度残差结构中,将高分辨率特征和低分辨率内容信息结合起来,以提供有用的特征。另外,利用多分辨率、多流和内容排序注意力机制来增强特征学习能力,使得本发明可以充分利用多尺度和多层次特征之间的互补信息。
附图说明
图1是本发明的多阶段注意力增强网络的整体结构网络图;
图2为本发明的三种注意力模块融合到网络多阶段处理模块的融合示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提出了一个用于单帧图像超分辨的多阶段注意力增强网络,通过学习跨尺度和跨通道的全局内容感知特征组来重建高分辨率图像。所提出的网络采用了多个增强U-net组件并使用级联残差连接,不仅允许大量的低频信息通过多个层间跳接进行流动,而且还使主干网络能够专注于学习大感受野范围内的抽象特征表示。
此外,进一步的,本发明还提出多分辨率、多支流和内容重要性排序的注意力模块,并将其融合到网络多阶段处理模块中,通过使用上述的三种注意力模块,每个通道特征均可自适应地重新缩放和融合,以在多个表示阶段生成更逼真的高分辨率图像内容。
如图1-2所示,本发明基于多阶段注意力增强网络的图像超分辨方法,通过多阶段注意力增强网络MAAN实现,所述多阶段注意力增强网络包括:
浅层特征提取模块,基于增强U-net模块的级联残差组件(CRG),上采样模块(Upscale Module)和图像重构组件。
本发明用ILR和ISR分别表示MAAN的输入和输出。本发明仅用一个卷积层(Conv)来从LR输入中提取浅层特征F0
F0=HSF(ILR) (1)
其中HSF(·)表示浅层模块操作。提取到的浅层特征F0被输入到多级CRG模块中,用于提取深层特征。因此,可以进一步得到以下表达式
FDF=HCRG(F0) (2)
其中,HCRG(·)表示深层级联残差U-net结构。此主网络包含总数为G的多级CRGs,可以堆叠成很深的网络,从而提供更大的感受野。提取到的深层特征通过一个UpscaleModule来进行上采样操作。
FUP=HUP(FDP) (3)
生成的高分辨率特征FUP通过一个卷积层映射成SR图像
ISR=HREC(FUP)=HMAAN(ILR) (4)
其中,HREC(·)和HMAAN(·)分别表示重建层以及整个MAAN网络的函数。
本发明中,所述的级联残差组件(CRG),如图1所示,每个CRG主要包含一个增强U-net块(EUB),B个残差块(RBs),一个群池化块(GPB),以及级联残差(RIC)连接。EUB利用了不同分辨率的特征图中互补的多尺度特征和自相似性。此外,它可以在大的视场内找到图像中代表全局的结构,从而可以有效地融合局部和全局特征,以获得更好的上下文表示。在CRG中引入了基本残差块(RBs)以进一步有效地改善特征信息流,因为RB中有多个卷积层可以提取丰富的局部特征。在将RB生成的特征图进行拼接后,进一步在一个CRG内进行全局特征融合,从而自适应地保存内容层级的特征信息。
为了进一步减轻CRG的权重参数,便于稳定训练,通过级联几个残差结构实现一种RIC来连接各个模块。
本发明采用具有残差结构的CRG作为更深层网络的基本结构。进一步引入CRG内的级联机制来使深层网络的训练保持稳定。将第g个CRG表示为
Fg=Fg-1+Fg,P=Fg-1+WGPBHg(Fg-1) (5)
其中WGPB表示设置给GPB的卷积层的权重,不失一般性,为简单起见,省略了偏置项。H(·)表示第g个CRG的函数。Fg-1,Fg表示第g个CRG的输入和输出,Fg,p表示GPB的输出。深层特征FDF通过如下等式得到
FDF=F0+WLSCFG (6)
其中,WLSC是在主网络尾部卷积层的权重,FG表示通过主干网络全部CRG处理后的特征输出。这种多阶段结构不仅可以简化跨CRG的信息流,还可以为生成HR图像提供非常深的CNN结构。
本发明中,所述的增强U-net块(EUB),如图1所示,本发明将多分辨率注意力(MRA)整合到具有残差结构的基本U-net(BUN)中。U-Net结构本质上是一个编码器和解码器网络,其中许多自上而下和自下而上的块通过一系列密集的跳跃路径连接在一起。这种结构鼓励完全重用信息流并捕获具有不同分辨率的多尺度特征。表示第m个自上而下块的输出,表示前面的第m-1个自下而上块的输出。基于EUB的结构,第m个自下而上块生成的深层特征可用如下等式来表示
其中是第m个自下而上块的函数。TMRA(·)表示MRA的重新缩放函数。通过从低分辨率特征图和低层次特征产生高分辨率特征第m个自下而上阶段的卷积块可以捕获长距离信息。EUB的TMRA操作可以使中间特征图在每个图像尺度内在语义上是有区别的。另外,补充信息被提取并融合以突出显著特征。EUB的残差结构以全局方式充分利用层级特征,可以将浅层特征和深层特征合并在一起。
本发明,还提出一种多分辨率视觉注意力机制(MRA),如图2所示,将多分辨率视觉注意力机制(MRA)模块与EUB融合集成在一起。MRA的目的是在全局范围内确认存在互相补充的特征图的并进行重新校准。根据编码器和解码器之间特征图的变化统计量计算通道权重,然后使用得到的权重因子来有选择性增强更多内容信息的特征图并抑制无用特征。将编码器的大小为H×W的C个特征图作为输入。给定与FE相同的尺寸,解码器输出的特征图作为计算参考模板。池化矢量zE∈Rc的第c个尺度计算如下
图2中,FD的平均操作HGA可计算为全局平均池化HVA根据等式(8)在各个特征通道上沿空间维度进行操作。为利用聚合信息,通过全局池化进一步构建注意力关系,使用Sigmoid函数作为权重门函数,得到权重集合为:
w=f(WUδ(WDzE)) (9)
WU和WD表示卷积层的权重集,分别将输出特征的通道维度变为C和C/r。f(·)和δ(·)分别表示Sigmoid门和ReLU。最后获得通道注意力权重图w以重新调整输入:
本发明中,还提出提出一种多支流视觉注意力机制(MSA),如图2所示。将多支流视觉注意力机制(MSA)模块与群池化块(GBP)融合,通过函数HGP操作缩放多个网络流的特征图。这种注意力机制不仅减小参数,而且以全局方式利用特征间的相互依赖性关系。多支流视觉注意力机制(MSA)有助于找到对高分辨率图像重构有重要影响的特征图。假设B个特征流被送入GPB中。群池化投票因子S∈RBC计算为:
其中,Y(·)表示与GPB的所有通道连接中的特征图。通过使用式(9)和(10)中类似方法,可获取第c个通道中全局缩放因子和特征图以重新缩放特征流。
本发明中,还提出一种对内容重要性排序的注意力机制(CRA),如图2所示,利用HCS操作通过测量不同特征图之间的内容相似度来实现CRA模块。这种自注意力特征图包含了较多的重要内容信息,增强了中频和高频段的图像特征,这些特征通常代表边缘、纹理和其他细节,会显著提高重建图像的视觉质量。T=[t1,…,tC]表示大小为H×W的C个特征图。通过1/C·∑ti计算平均特征图用和表示每个特征图的最大池化过程,通常选择将特征图的大小减小至1/4。
特征图的相似度计算如下:
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.基于多阶段注意力增强网络的图像超分辨方法,其特征在于,通过多阶段注意力增强网络实现,所述多阶段注意力增强网络包括:
浅层特征提取模块,用于从LR输入中提取浅层特征F0,
级联残差组件,包括多级级联残差组件模块,用于将所述浅层特征F0输入到多级CRG模块中,以提取深层特征FDF;
上采样模块,用于对提取到的深层特征FDF进行上采样操作,生成高分辨率特征FUP,
图像重构组件,用于对生成的高分辨率特征FUP通过一个卷积层映射成SR图像输出;
所述级联残差组件模块包括增强U-net块,所述增强U-net块是将多分辨率注意力机制整合到具有残差结构的基本U-net中形成,以全局方式充分利用层级特征,将浅层特征和深层特征合并在一起;
其中,所述多分辨率注意力机制,在全局范围内确认存在互相补充的特征图并进行重新校准,根据U-Net结构的编码器和解码器之间特征图的变化统计量计算通道权重,然后使用得到的权重因子来有选择性增强更多内容信息的特征图并抑制无用特征;将编码器的大小为H×W的C个特征图作为输入,给定与FE相同的尺寸,解码器输出特征图作为计算参考模板,池化矢量zE∈Rc的第c个尺度计算如下:
2.根据权利要求1所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,所述级联残差组件模块包括一个增强U-net块,多个残差块,一个群池化块:增强U-net块利用了不同分辨率的特征图中互补的多尺度特征和自相似性,在大视场内找到图像中代表全局的结构,从而有效地融合局部和全局特征,以获得更好的上下文表示;残差块进一步改善特征信息流,提取丰富的局部特征;在将残差块生成的特征图拼接后,进一步在一个级联残差组件模块内进行全局特征融合,从而自适应地保存内容层级的特征信息。
3.根据权利要求2所述基于多阶段注意力增强网络的图像超分辨方法,其特征在于,第g个级联残差组件模块表示为:
Fg=Fg-1+Fg,P=Fg-1+WGPBHg(Fg-1)
其中,WGPB表示设置给群池化块的卷积层的权重,H(·)表示第g个级联残差组件模块的函数,Fg-1,Fg表示第g个级联残差组件模块的输入和输出,Fg,p表示群池化块的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911271576.0A CN111179167B (zh) | 2019-12-12 | 2019-12-12 | 一种基于多阶段注意力增强网络的图像超分辨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911271576.0A CN111179167B (zh) | 2019-12-12 | 2019-12-12 | 一种基于多阶段注意力增强网络的图像超分辨方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111179167A CN111179167A (zh) | 2020-05-19 |
CN111179167B true CN111179167B (zh) | 2023-05-16 |
Family
ID=70653878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911271576.0A Active CN111179167B (zh) | 2019-12-12 | 2019-12-12 | 一种基于多阶段注意力增强网络的图像超分辨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111179167B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696038A (zh) * | 2020-05-26 | 2020-09-22 | 新华三大数据技术有限公司 | 图像超分辨率方法、装置、设备及计算机可读存储介质 |
CN111833246B (zh) * | 2020-06-02 | 2022-07-08 | 天津大学 | 基于注意力级联网络的单帧图像超分辨方法 |
CN111861880B (zh) * | 2020-06-05 | 2022-08-30 | 昆明理工大学 | 基于区域信息增强与块自注意力的图像超分与融合方法 |
CN111986085B (zh) * | 2020-07-31 | 2024-09-13 | 南京航空航天大学 | 一种基于深度反馈注意力网络系统的图像超分辨率方法 |
CN112070670B (zh) * | 2020-09-03 | 2022-05-10 | 武汉工程大学 | 全局-局部分离注意力机制的人脸超分辨率方法及系统 |
CN112233033B (zh) * | 2020-10-19 | 2022-11-01 | 中南民族大学 | 解析先验融合的渐进高倍人脸超分辨率系统及其方法 |
CN112348766B (zh) * | 2020-11-06 | 2023-04-18 | 天津大学 | 一种用于监控视频增强的渐进式特征流深度融合网络 |
CN112330542B (zh) * | 2020-11-18 | 2022-05-03 | 重庆邮电大学 | 基于crcsan网络的图像重建系统及方法 |
CN112668619B (zh) * | 2020-12-22 | 2024-04-16 | 万兴科技集团股份有限公司 | 图像处理方法、装置、终端及存储介质 |
CN112581401B (zh) * | 2020-12-25 | 2023-04-28 | 英特灵达信息技术(深圳)有限公司 | 一种raw图片的获取方法、装置及电子设备 |
CN113284064B (zh) * | 2021-05-24 | 2023-04-07 | 西安理工大学 | 一种基于注意力机制跨尺度上下文低照度图像增强方法 |
CN114119585B (zh) * | 2021-12-01 | 2022-11-29 | 昆明理工大学 | 基于Transformer的关键特征增强胃癌图像识别方法 |
CN114463204A (zh) * | 2022-01-18 | 2022-05-10 | 三峡大学 | 一种基于双判别器异构CycleGAN的图像去雾框架 |
CN114897694B (zh) * | 2022-05-10 | 2024-09-24 | 南京航空航天大学 | 基于混合注意力和双层监督的图像超分辨率重建方法 |
CN116934598B (zh) * | 2023-09-19 | 2023-12-01 | 湖南大学 | 一种多尺度特征融合的轻量级遥感图像超分方法及系统 |
CN118446899B (zh) * | 2024-07-05 | 2024-08-30 | 杭州电子科技大学 | 基于层级感受野Transformer的图像超分辨率方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859106A (zh) * | 2019-01-28 | 2019-06-07 | 桂林电子科技大学 | 一种基于自注意力的高阶融合网络的图像超分辨率重建方法 |
CN109903228A (zh) * | 2019-02-28 | 2019-06-18 | 合肥工业大学 | 一种基于卷积神经网络的图像超分辨率重建方法 |
CN110033410A (zh) * | 2019-03-28 | 2019-07-19 | 华中科技大学 | 图像重建模型训练方法、图像超分辨率重建方法及装置 |
CN110415170A (zh) * | 2019-06-24 | 2019-11-05 | 武汉大学 | 一种基于多尺度注意力卷积神经网络的图像超分辨率方法 |
-
2019
- 2019-12-12 CN CN201911271576.0A patent/CN111179167B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859106A (zh) * | 2019-01-28 | 2019-06-07 | 桂林电子科技大学 | 一种基于自注意力的高阶融合网络的图像超分辨率重建方法 |
CN109903228A (zh) * | 2019-02-28 | 2019-06-18 | 合肥工业大学 | 一种基于卷积神经网络的图像超分辨率重建方法 |
CN110033410A (zh) * | 2019-03-28 | 2019-07-19 | 华中科技大学 | 图像重建模型训练方法、图像超分辨率重建方法及装置 |
CN110415170A (zh) * | 2019-06-24 | 2019-11-05 | 武汉大学 | 一种基于多尺度注意力卷积神经网络的图像超分辨率方法 |
Non-Patent Citations (1)
Title |
---|
席志红 ; 袁昆鹏 ; .基于残差通道注意力和多级特征融合的图像超分辨率重建.激光与光电子学进展.2019,(04),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111179167A (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179167B (zh) | 一种基于多阶段注意力增强网络的图像超分辨方法 | |
Liu et al. | Video super-resolution based on deep learning: a comprehensive survey | |
CN113362223B (zh) | 基于注意力机制和双通道网络的图像超分辨率重建方法 | |
CN111833246B (zh) | 基于注意力级联网络的单帧图像超分辨方法 | |
Xiao et al. | Satellite video super-resolution via multiscale deformable convolution alignment and temporal grouping projection | |
CN110443842B (zh) | 基于视角融合的深度图预测方法 | |
CN112396607B (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN113096017A (zh) | 基于深度坐标注意力网络模型的图像超分辨率重建方法 | |
CN115457498A (zh) | 一种基于双注意力和密集连接的城市道路语义分割方法 | |
CN115482382A (zh) | 一种基于Transformer架构的图像语义分割方法 | |
CN113240683B (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN112270366B (zh) | 基于自适应多特征融合的微小目标检测方法 | |
CN112364838B (zh) | 一种利用合成的联机文本图像改进手写ocr性能的方法 | |
CN114898284B (zh) | 一种基于特征金字塔局部差异注意力机制的人群计数方法 | |
US20240062347A1 (en) | Multi-scale fusion defogging method based on stacked hourglass network | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
US20240070809A1 (en) | Cascaded local implicit transformer for arbitrary-scale super-resolution | |
CN113658047A (zh) | 一种结晶图像超分辨率重建方法 | |
Liu et al. | Research on super-resolution reconstruction of remote sensing images: A comprehensive review | |
CN113379606A (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN116664435A (zh) | 一种基于多尺度人脸解析图融入的人脸复原方法 | |
Wang et al. | Underwater image super-resolution using multi-stage information distillation networks | |
CN117689592A (zh) | 一种基于级联自适应网络的水下图像增强方法 | |
CN117252892A (zh) | 基于轻量化视觉自注意力网络的双分支人像自动抠图模型 | |
WO2023010981A1 (zh) | 编解码方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |