CN113469906B - 一种用于图像修复的跨层全局和局部感知网络的方法 - Google Patents

一种用于图像修复的跨层全局和局部感知网络的方法 Download PDF

Info

Publication number
CN113469906B
CN113469906B CN202110703334.5A CN202110703334A CN113469906B CN 113469906 B CN113469906 B CN 113469906B CN 202110703334 A CN202110703334 A CN 202110703334A CN 113469906 B CN113469906 B CN 113469906B
Authority
CN
China
Prior art keywords
layer
cross
local
stage
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110703334.5A
Other languages
English (en)
Other versions
CN113469906A (zh
Inventor
蒋斌
孙林
黄伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202110703334.5A priority Critical patent/CN113469906B/zh
Publication of CN113469906A publication Critical patent/CN113469906A/zh
Application granted granted Critical
Publication of CN113469906B publication Critical patent/CN113469906B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种用于图像修复的跨层全局和局部感知网络的方法,属于图像修复技术领域。步骤1:构造一个基于一种带有残差连接的编码解码结构U‑net的跨层全局和局部感知网络模型;步骤2:粗修复阶段,做简单的卷积下采样上采样操作后,输出第一阶段图片Iout1,再将其输入到精修复阶段;步骤3:精修复阶段,将粗修复阶段输出的图片Iout1作为输入,CHGLANet包括对不同的层级定义不同的特征:本发明的优势有:使用的局部和全局注意力机制,极大的减少了参数的运算。提出了一种跨层全局和局部融合机制,将深层特征图信息和浅层特征图信息融合,弥补了浅层特征图丢失图片结构信息,深层特征图丢失图片纹理信息的缺点,使得生成图片的一致性更强。

Description

一种用于图像修复的跨层全局和局部感知网络的方法
技术领域
本发明涉及一种用于图像修复的跨层全局和局部感知网络的方法,属于图像修复技术领域。
背景技术
图像修复任务是对缺失或者损坏区域的结构和纹理进行修复,来获得视觉逼真的图像。它可以用于去除图片中不需要的目标、恢复破损的部分或编辑图像内容等多种应用,已成为计算机视觉领域的研究热点。在2016年之前,图像修复的主要方法是2001年Ballester等人提出的基于扩散的方法和2009年Barnes等人提出的基于补丁的方法。这两种方法都只能对纹理进行修复,但是不能读取缺失区域的结构信息,所以只能对简单场景的图片进行修复。近年来随着生成对抗网络(GAN)的发展,图像修复的方法逐渐由传统方法转换成使用基于GAN的深度学习的方法。2016年,Pathak等人首次利用GAN来进行图像修复工作。不久之后,Liu等人提出了一种部分卷积的新的深度学习方法,通过逐层更新马赛克的方式让修复效果提升。2018年,Yu等人首次将注意力机制引入图像修复的工作中,注意力机制可以不仅利用修复区域周围的信息,还能利用整张图片的全局信息,让修复的结构和纹理更加清晰连贯。之后,在近两年很多研究学者都开始利用基于U-net的多尺度的方法,即考虑在不同尺度下的特征合成。但是,全局像素注意力机制只关注解决全局纹理的一致性,忽略了局部纹理的一致性,这会导致边缘的模糊和带有人工处理的痕迹。这些模型虽然都有着一定地客观效果,但是没有考虑到,在卷积的过程中,低层卷积包含更多的纹理信息而会丢失一些结构信息,而高层卷积包含更多的结构信息而会丢失一些纹理信息,如果仅仅是把编码过程中的特征图映射到解码过程中的对应层,则再也无法找回丢失的信息。
发明内容
本发明的目的在于提供一种用于图像修复的跨层全局和局部感知网络的方法,在全局像素注意力机制的基础上,进一步提出局部连贯性注意力机制来精细化局部纹理细节,从而克服现有技术中的不足。
本发明通过以下技术方案实现,包括以下步骤:
步骤1:构造一个基于一种带有残差连接的编码解码结构U-net的跨层全局和局部感知网络模型,该网络的输入为一张256×256的打过马赛克的图片Iin,输出为256×256的修复后的图片;网络框架由两个阶段组成:粗修复阶段和精修复阶段,每个阶段均生成对抗网络GAN,即每个阶段除了有一个带有残差连接的编码解码结构U-net的框架外,还包括一个判别器;
步骤2:粗修复阶段,做简单的卷积下采样上采样操作后,输出第一阶段图片Iout1,再将其输入到精修复阶段;
步骤3:精修复阶段,将粗修复阶段输出的图片Iout1作为输入,其中包括跨层全局和局部感知网络,定义为CHGLANet;CHGLANet包括对不同的层级定义不同的特征:
步骤3.1,从{Fi,i=1,2,3...}开始,Fi表示的是第i层网络输出的特征图,即feature map,Fn和Fn-1被融合进了第一跨层融合模块m1,在m1中,全局像素注意力机制将Fn-1作为输入,输出为重建后的特征Fn,增进结构的一致性;
步骤3.2,Fn-1和重建后的特征Fn连接,并且通过尺寸为1×1的卷积层做一个简单的融合,生成Fg
步骤3.3,通过局部连贯性注意力机制,精细化Fg的局部纹理细节,并由第一跨层融合模块m1生成特征
Figure GDA0003846186440000021
步骤3.4,第二跨层融合模块m2和第三跨层融合模块m3,分别将{Fn,Fn-1,Fn-2}和{Fn,Fn-1,Fn-2,Fn-3}作为输入,并且分别输出
Figure GDA0003846186440000022
Figure GDA0003846186440000023
步骤3.5,再通过第一融合模块m1整合特征
Figure GDA0003846186440000024
得到特征
Figure GDA0003846186440000025
步骤3.6,相似地,第二融合模块m2同样用特征
Figure GDA0003846186440000026
整合为特征
Figure GDA0003846186440000027
步骤3.7,最后,,第三融合模块m3从特征
Figure GDA0003846186440000028
中获得特征
Figure GDA0003846186440000029
所述的步骤3中提到的全局像素注意力机制包括以下操作方法:
先将特征Fi划分为
Figure GDA00038461864400000210
组,其中Ci是特征的通道数,σ是接下来进行像素混洗操作需要上采样的比率;
再用分组的通道注意力操作,即对每组的通道进行评分,
Figure GDA00038461864400000211
其中
Figure GDA00038461864400000212
这里
Figure GDA00038461864400000213
是第j组通道,αi是第j组通道里面的第i个通道对应的评分。
像素混洗操作将高级特征重塑为与低级特征相同的大小,利用像素混洗的转换原理,将通道间的相关性转化到空间区域的相关性,使得注意力评分αi,在图像水平上改善了结构一致性。
所述的步骤3中提到的局部连贯性注意力机制包括以下操作方法:
将Fg分为小块补丁:{pk,k=1,2,...,HW/s2},其中H,W是特征图的高度和宽度,k是补丁的序号;其中每一个补丁的大小是s×s,这里s是一个自定义的维度大小,局部连贯性注意力机制的s在不同的跨层融合模块中大小不同,
Figure GDA0003846186440000031
增强了不同场景中的拟合能力。
补丁内的注意力评分计算方法如下:
Figure GDA0003846186440000032
这里p代表的是对应的补丁,(u,v),(g,n),(h,w)是pk的坐标,f(.,.)是点积运算;
局部连贯性注意力机制模块计算得到空间注意力得分:
k,k=1,2,3,...,HW/s2}
其中,Φk={βmn,m=1,2,...,s,n=1,2,...,s},注意力评分βmn保持了patch级别上局部纹理的一致性;
其中H,W是特征图的高度和宽度,k是补丁的序号,每一个补丁的大小是s×s。
本发明在训练模型阶段,包括以下方法:
像素重建损失:
Figure GDA0003846186440000033
其中,Iout2是第二阶段生成的图片,即我们网络修复的图片,Igt是真实图片,这里HWC代表的是这张RGB图片中所有的像素之和,|.|1代表的是第一范数,感知损失:
Figure GDA0003846186440000034
Φi(.)代表的是从预训练好的VGG网络中的第i层提取出的特征图,
风格损失:
Figure GDA0003846186440000041
Figure GDA0003846186440000042
代表的是从预训练好的VGG网络中的第i层提取出的特征图的格莱姆(Gram)矩阵。再加上生成对抗损失Ladv和平滑损失Ltv组成联合损失:
Ltotal=λreLrepercLpercstyLstyletvLtvadvLadv
λrepercstytvadv分别代表重建损失,感知损失,风格损失,平滑损失和对抗损失在总损失中所占的权重。
本发明的有益效果在于,(1)本方法使用的局部和全局注意力机制,相比于常用的通道注意力机制和空间注意力机制,极大的减少了参数的运算。(2)提出了一种跨层全局和局部融合机制,将深层特征图信息和浅层特征图信息融合,弥补了浅层特征图丢失图片结构信息,深层特征图丢失图片纹理信息的缺点,使得生成图片的一致性更强。
附图说明
图1为本发明的结构流程图。
具体实施方式
下面结合附图1对本发明的优选实施例作进一步说明,包括以下步骤:
步骤1:构造一个基于一种带有残差连接的编码解码结构U-net的跨层全局和局部感知网络模型,如图1中的(a)CHGLANet部分所示,该网络的输入为一张256×256的打过马赛克的图片Iin,输出为256×256的修复后的图片;网络框架由两个阶段组成:粗修复阶段和精修复阶段,每个阶段均生成对抗网络GAN,即每个阶段除了有一个带有残差连接的编码解码结构U-net的框架外,还包括一个判别器;
步骤2:粗修复阶段,做简单的卷积下采样上采样操作后,输出第一阶段图片Iout1,再将其输入到精修复阶段;
步骤3:精修复阶段,将粗修复阶段输出的图片Iout1作为输入,其中包括跨层全局和局部感知网络,定义为CHGLANet;CHGLANet包括对不同的层级定义不同的特征:
步骤3.1,从{Fi,i=1,2,3...}开始,Fi表示的是第i层网络输出的特征图,即feature map,Fn和Fn-1被融合进了第一跨层融合模块m1,在m1中,全局像素注意力机制将Fn-1作为输入,输出为重建后的特征Fn,增进结构的一致性;
步骤3.2,Fn-1和重建后的特征Fn连接,并且通过尺寸为1×1的卷积层做一个简单的融合,生成Fg;但是,全局像素注意力机制只关注解决全局纹理的一致性,忽略了局部纹理的一致性,这会导致边缘的模糊和带有人工处理的痕迹;
步骤3.3,为了解决这一问题,进一步地,通过局部连贯性注意力机制,精细化Fg的局部纹理细节,并由第一跨层融合模块m1生成特征
Figure GDA0003846186440000051
步骤3.4,与第一个跨层融合模型相比,第二跨层融合模块m2和第三跨层融合模块m3,分别将{Fn,Fn-1,Fn-2}和{Fn,Fn-1,Fn-2,Fn-3}作为输入,并且分别输出
Figure GDA0003846186440000052
Figure GDA0003846186440000053
步骤3.5,再通过第一融合模块m1整合特征
Figure GDA0003846186440000054
得到特征
Figure GDA0003846186440000055
步骤3.6,相似地,第二融合模块m2同样用特征
Figure GDA0003846186440000056
整合为特征
Figure GDA0003846186440000057
步骤3.7,最后,第三融合模块m3从特征
Figure GDA0003846186440000058
中获得特征
Figure GDA0003846186440000059
所述的步骤3中提到的全局像素注意力机制包括以下操作方法:如图1中(b)GPA部分所示,先将特征Fi划分为
Figure GDA00038461864400000510
组,其中Ci是特征的通道数,σ是接下来进行像素混洗操作需要上采样的比率;如果将H×W的尺寸上采样为2H×2W,那么此时σ=2;
再用分组的通道注意力操作,即对每组的通道进行评分,
Figure GDA00038461864400000511
其中
Figure GDA00038461864400000512
这里
Figure GDA00038461864400000513
是第j组通道,αi是第j组通道里面的第i个通道对应的评分。像素混洗操作将高级特征重塑为与低级特征相同的大小,利用像素混洗的转换原理,将通道间的相关性转化到空间区域的patch间的相关性,如表1所示,使得注意力评分αi在图像水平上改善了结构一致性。
Figure GDA00038461864400000514
表1
所述的步骤3中提到的局部连贯性注意力机制包括以下操作方法:如图1中的(c)LCA部分所示,将Fg分为小块补丁:{pk,k=1,2,...,HW/s2},其中H,W是特征图的高度和宽度,k是补丁的序号;其中每一个补丁的大小是s×s,这里s是一个自定义的维度大小,实验中我们取的是3×3,局部连贯性注意力机制的s在不同的跨层融合模块中大小不同,
Figure GDA0003846186440000061
增强了不同场景中的拟合能力。提出的局部连贯性注意力机制模型,和non-local模块的方法相似,对于每个补丁p_k,不同之处在于模型的区域设计。Non-local模块用了所有位置的特征通道,而局部连贯性注意力机制用了补丁的特征通道。
补丁内的注意力评分计算方法如下:
Figure GDA0003846186440000062
这里p代表的是对应的补丁,(u,v),(g,n),(h,w)是pk的坐标,f(.,.)是点积运算;
局部连贯性注意力机制模块计算得到空间注意力得分:
k,k=1,2,3,...,HW/s2}
其中,Φk={βmn,m=1,2,...,s,n=1,2,...,s},如表2所示,注意力评分βmn保持了patch级别上局部纹理的一致性;
Figure GDA0003846186440000063
表2
其中H,W是特征图的高度和宽度,k是补丁的序号,每一个补丁的大小是s×s。
通过Places2和Paris street view(PSV)数据集上的测试,其中常见的评价指标PSNR(越高越好),SSIM(越高越好),FID(越低越好)都优于现有技术。表1是中心马赛克的修复效果,其中在Places2和PSV上,PSNR的值分别达到了25.04和24.52,SSIM的值分别达到了0.807和0.799,FID的值分别达到了62.19和59.78。当然现在最常见的是在不规则马赛克上面进行图像修复,表2是和其他所有经典或者最新的方法在不规则马赛克上进行的对比。其中10-20,20-30,30-40,40-50,50-60分别代表的是原图中打马赛克的区域面积占图片总面积的多少,例如10-20表示原图中打马赛克的区域占整张图片的10%-20%。其中,EC是Edge-Connect方法,SF是Structure Flow,GC是Gated-Convolution,RFR是RecurrentFeature Reasoning,MED是Mutual Encoder-Decoder,都是2019年和2020年提出的有效的修复方法。通过和它们的比较可以观察出,本发明的方法确实是最好的。
本发明在训练模型阶段,包括以下方法:
像素重建损失:
Figure GDA0003846186440000071
其中,Iout2是第二阶段生成的图片,即我们网络修复的图片,Igt是真实图片,这里HWC代表的是这张RGB图片中所有的像素之和,|.|1代表的是第一范数,感知损失:
Figure GDA0003846186440000072
Φi(.)代表的是从预训练好的VGG网络中的第i层提取出的特征图,
风格损失:
Figure GDA0003846186440000073
Figure GDA0003846186440000074
代表的是从预训练好的VGG网络中的第i层提取出的特征图的格莱姆(Gram)矩阵。
再加上生成对抗损失Ladv和平滑损失Ltv(该领域常见的两个损失函数)组成联合损失:
Ltotal=λreLrepercLpercstyLstyletvltvadvLadv
λrepercstytvadv分别代表重建损失,感知损失,风格损失,平滑损失和对抗损失在总损失中所占的权重。
综上所述,本发明上述实例的优势有:
1.本方法使用的局部和全局注意力机制,相比于常用的通道注意力机制和空间注意力机制,极大的减少了参数的运算;
2.提出了一种跨层全局和局部融合机制,将深层特征图信息和浅层特征图信息融合,弥补了浅层特征图丢失图片结构信息,深层特征图丢失图片纹理信息的缺点,使得生成图片的一致性更强;
3.通过Celeba-HQ,Places2和Paris street view(PSV)三个数据集上的测试,其中常见的评价指标PSNR(越高越好),SSIM(越高越好),FID(越低越好)都优于现有技术。其中在Places2和PSV上,PSNR的值分别达到了25.04和24.52,SSIM的值分别达到了0.807和0.799,FID的值分别达到了62.19和59.78。

Claims (3)

1.一种用于图像修复的跨层全局和局部感知网络的方法,其特征在于包括以下步骤:
步骤1:构造一个基于一种带有残差连接的编码解码结构U-net的跨层全局和局部感知网络模型,该网络的输入为一张256×256的打过马赛克的图片Iin,输出为256×256的修复后的图片;网络框架由两个阶段组成:粗修复阶段和精修复阶段,每个阶段均生成对抗网络GAN,即每个阶段除了有一个带有残差连接的编码解码结构U-net的框架外,还包括一个判别器;
步骤2:粗修复阶段,做简单的卷积下采样上采样操作后,输出第一阶段图片Iout1,再将其输入到精修复阶段;
步骤3:精修复阶段,将粗修复阶段输出的图片Iout1作为输入,其中包括跨层全局和局部感知网络,定义为CHGLANet;CHGLANet包括对不同的层级定义不同的特征:
步骤3.1,从{Fi,i=1,2,3...}开始,Fi表示的是第i层网络输出的特征图,即featuremap,Fn和Fn-1被融合进了第一跨层融合模块m1,在m1中,全局像素注意力机制将Fn-1作为输入,输出为重建后的特征Fn,增进结构的一致性;
步骤3.2,Fn-1和重建后的特征Fn连接,并且通过尺寸为1×1的卷积层做一个简单的融合,生成Fg
步骤3.3,通过局部连贯性注意力机制,精细化Fg的局部纹理细节,并由第一跨层融合模块m1生成特征
Figure FDA0003898851890000011
步骤3.4,第二跨层融合模块m2和第三跨层融合模块m3,分别将{Fn,Fn-1,Fn-2}和{Fn,Fn-1,Fn-2,Fn-3}作为输入,并且分别输出
Figure FDA0003898851890000012
Figure FDA0003898851890000013
步骤3.5,再通过第一跨层融合模块m1整合特征
Figure FDA0003898851890000014
得到特征
Figure FDA0003898851890000015
步骤3.6,相似地,第二跨层融合模块m2同样用特征
Figure FDA0003898851890000016
整合为特征
Figure FDA0003898851890000017
步骤3.7,最后,第三跨层融合模块m3从特征
Figure FDA0003898851890000018
中获得特征
Figure FDA0003898851890000019
其中全局像素注意力机制包括以下操作方法:先将特征Fi划分为
Figure FDA00038988518900000110
组,其中Ci是特征的通道数,σ是接下来进行像素混洗操作需要上采样的比率;再用分组的通道注意力操作,即对每组的通道进行评分,
Figure FDA00038988518900000111
其中
Figure FDA00038988518900000112
这里
Figure FDA00038988518900000113
是第j组通道,αi是第j组通道里面的第i个通道对应的评分;像素混洗操作将高级特征重塑为与低级特征相同的大小,利用像素混洗的转换原理,将通道间的相关性转化到空间区域的相关性,使得注意力评分αi在图像水平上改善了结构一致性;
其中局部连贯性注意力机制包括以下操作方法:将Fg分为小块补丁:{pk,k=1,2,...,HW/s2},其中H,W是特征图的高度和宽度,k是补丁的序号;其中每一个补丁的大小是s×s,这里s是一个自定义的维度大小,局部连贯性注意力机制的s在不同的跨层融合模块中大小不同,
Figure FDA0003898851890000021
增强了不同场景中的拟合能力。
2.根据权利要求1所述的一种用于图像修复的跨层全局和局部感知网络的方法,其特征在于,
补丁内的注意力评分计算方法如下:
Figure FDA0003898851890000022
这里p代表的是对应的补丁,(u,v),(g,n),(h,w)是pk的坐标,f(.,.)是点积运算;
局部连贯性注意力机制模块计算得到空间注意力得分:
k,k=1,2,3,...,HW/s2}
其中,Φk={βmn,m=1,2,...,s,n=1,2,...,s},注意力评分βmn保持了patch级别上局部纹理的一致性;
其中H,W是特征图的高度和宽度,k是补丁的序号,每一个补丁的大小是s×s。
3.根据权利要求2所述的一种用于图像修复的跨层全局和局部感知网络的方法,其特征在于,在训练模型阶段,包括以下方法:
像素重建损失:
Figure FDA0003898851890000023
其中,Iout2是第二阶段生成的图片,即我们网络修复的图片,Igt是真实图片,这里HWC代表的是这张RGB图片中所有的像素之和,|.|1代表的是第一范数,
感知损失:
Figure FDA0003898851890000024
Φi(.)代表的是从预训练好的VGG网络中的第i层提取出的特征图,
风格损失:
Figure FDA0003898851890000031
Figure FDA0003898851890000032
代表的是从预训练好的VGG网络中的第i层提取出的特征图的格莱姆(Gram)矩阵;
再加上生成对抗损失Ladv和平滑损失Ltv组成联合损失:
Ltotal=λreLrepercLpercstyLstyletvLtvadvLadv
λre,λperc,λsty,λtv,λadv分别代表重建损失,感知损失,风格损失,平滑损失和生成对抗损失在总损失中所占的权重。
CN202110703334.5A 2021-06-24 2021-06-24 一种用于图像修复的跨层全局和局部感知网络的方法 Active CN113469906B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110703334.5A CN113469906B (zh) 2021-06-24 2021-06-24 一种用于图像修复的跨层全局和局部感知网络的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110703334.5A CN113469906B (zh) 2021-06-24 2021-06-24 一种用于图像修复的跨层全局和局部感知网络的方法

Publications (2)

Publication Number Publication Date
CN113469906A CN113469906A (zh) 2021-10-01
CN113469906B true CN113469906B (zh) 2023-02-07

Family

ID=77872631

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110703334.5A Active CN113469906B (zh) 2021-06-24 2021-06-24 一种用于图像修复的跨层全局和局部感知网络的方法

Country Status (1)

Country Link
CN (1) CN113469906B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114266711A (zh) * 2021-12-24 2022-04-01 樊瑶 一种基于注意力跨层转移机制的生成式图像修复方法
CN115035170B (zh) * 2022-05-17 2024-03-05 合肥工业大学 基于全局纹理与结构的图像修复方法
CN115908205B (zh) * 2023-02-21 2023-05-30 成都信息工程大学 图像修复方法、装置、电子设备和存储介质
CN117994172B (zh) * 2024-04-03 2024-06-18 中国海洋大学 基于时序依赖和边缘细化的海温图像鲁棒补全方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829868B (zh) * 2019-02-28 2023-04-21 华南理工大学 一种轻量级深度学习模型图像去雾方法、电子设备及介质
TWI719512B (zh) * 2019-06-24 2021-02-21 瑞昱半導體股份有限公司 使用像素通道置亂的卷積神經網路的演算方法與系統
CN110503609B (zh) * 2019-07-15 2023-04-28 电子科技大学 一种基于混合感知模型的图像去雨方法
CN111080628B (zh) * 2019-12-20 2023-06-20 湖南大学 图像篡改检测方法、装置、计算机设备和存储介质
CN111709895B (zh) * 2020-06-17 2023-05-16 中国科学院微小卫星创新研究院 基于注意力机制的图像盲去模糊方法及系统

Also Published As

Publication number Publication date
CN113469906A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN113469906B (zh) 一种用于图像修复的跨层全局和局部感知网络的方法
Lim et al. DSLR: Deep stacked Laplacian restorer for low-light image enhancement
CN102902961B (zh) 基于k近邻稀疏编码均值约束的人脸超分辨率处理方法
CN109671023A (zh) 一种人脸图像超分辨率二次重建方法
CN111784582B (zh) 一种基于dec_se的低照度图像超分辨率重建方法
CN112288632B (zh) 基于精简esrgan的单图像超分辨率方法及系统
CN113222875B (zh) 一种基于色彩恒常性的图像和谐化合成方法
CN116152120B (zh) 一种融合高低频特征信息的低光图像增强方法及装置
CN115908205B (zh) 图像修复方法、装置、电子设备和存储介质
CN111833261A (zh) 一种基于注意力的生成对抗网络的图像超分辨率复原方法
CN112767283A (zh) 一种基于多图像块划分的非均匀图像去雾方法
CN115829880A (zh) 基于上下文结构注意力金字塔网络的图像修复方法
CN109559278B (zh) 基于多特征学习的超分辨图像重建方法及系统
CN114694176A (zh) 一种基于深度学习的轻量级人体姿态估计方法
CN114359044A (zh) 一种基于参考图像的图像超分辨率系统
CN116523985B (zh) 一种结构和纹理特征引导的双编码器图像修复方法
CN114549314A (zh) 一种提高图像分辨率的方法
CN113077403B (zh) 基于局部数据块的张量增强技术的彩色图像重建方法
CN115375537A (zh) 非线性感知多尺度的超分辨率图像生成系统及方法
CN108846797A (zh) 基于两种训练集合的图像超分辨率方法
CN104537610A (zh) 基于稀疏表示和uv通道处理的图像超分辨率重建方法
CN113077385A (zh) 基于对抗生成网络和边缘增强的视频超分辨率方法及系统
CN113726976A (zh) 一种基于编码-解码网络的大容量以图藏图方法和系统
Zeng et al. Swin-CasUNet: cascaded U-Net with Swin Transformer for masked face restoration
Chen et al. Pyramid attention dense network for image super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant