CN111047541B - 一种基于小波变换注意力模型的图像修复方法 - Google Patents

一种基于小波变换注意力模型的图像修复方法 Download PDF

Info

Publication number
CN111047541B
CN111047541B CN201911400990.7A CN201911400990A CN111047541B CN 111047541 B CN111047541 B CN 111047541B CN 201911400990 A CN201911400990 A CN 201911400990A CN 111047541 B CN111047541 B CN 111047541B
Authority
CN
China
Prior art keywords
image
network
generator
generator network
trunk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911400990.7A
Other languages
English (en)
Other versions
CN111047541A (zh
Inventor
王瑾
王琛
朱青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201911400990.7A priority Critical patent/CN111047541B/zh
Publication of CN111047541A publication Critical patent/CN111047541A/zh
Application granted granted Critical
Publication of CN111047541B publication Critical patent/CN111047541B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于小波变换注意力模型的图像修复方法,用于提供一种高质量的图像修复方法。本发明基于图像修复网络,该网络是以GAN为基础,包括生成器网络和判别器网络;生成器网络部分首先利用DWT将受损图像中已知区域特征分解为多频子带,然后通过注意力机制进一步提取已知区域的深层信息,最后通过IDWT生成修复后的图像;在判别器网络部分采用PatchGAN的全卷积判别器网络结构,修复后的图像和ground‑truth图像共同作为输入,生成器网络和判别器网络交替优化,并通过最小化全局损失函数进行反向传播,迭代地调整生成器网络参数,最终使得优化后的生成器网络可以生成高质量的图像修复结果。

Description

一种基于小波变换注意力模型的图像修复方法
技术领域:
本发明涉及计算机图像处理领域,具体涉及一种基于小波变换注意力模型和生成对抗网络的图像修复方法。
背景技术:
图像修复是指利用某种方法,通过图像已知区域信息来推断缺失区域内容并将其修复补全的技术。这是一个经典的、具有挑战性的图像处理课题,广泛应用于图像编辑、基于图像的渲染和计算摄影等领域。在图像修复工作中有两点待解决的问题:首先,在修复过程中,要保持图像纹理结构的连续性,使缺失区域尽可能接近或达到原始图像的效果;其次,修复后的图像要真实自然,符合人们的视觉连贯性,让观察者认为这是一张真实的图像。
传统的图像修复方法通常是从已知区域搜索较为相似的图像块并复制到缺失区域。这种方法对背景比较单一的图像处理效果较好,但对人脸等复杂或非重复结构的纹理图像处理效果有限,不适用于修复场景较为复杂、缺失区域较多的图像。近年来,基于卷积神经网络的方法在图像修复领域取得了巨大的成功。Pathak等人首先利用对抗性损失函数训练深度神经网络来预测缺失区域,这有利于捕获大面积缺失区域的边缘和全局结构(D.Pathak,P.Krahenbuhl,J.Donahue,T.Darrell,and A.A.Efros,“Context encoders:Feature learning by inpainting,”in IEEE Conference on Computer Vision PatternRecognition,2016.)。Ishikawa等人通过结合全局和局部的对抗性损失函数来生成更精细的纹理信息。(H.Ishikawa,H.Ishikawa,and H.Ishikawa,Globally and locallyconsistent image completion,2017.)基于卷积神经网络的图像修复方法虽然能够处理场景较为复杂或者缺失区域较多的图像修复问题,但通常会使修复后的图像出现结构扭曲、纹理模糊和内容不连贯有明显的边界等问题。
综上,现有的图像修复方法修复图像质量较低,尤其是对于纹理结构较为复杂或者缺失区域面积较大的图像,容易使修复结果出现结构扭曲、纹理细节模糊和内容不连贯等问题,具有一定的局限性。
发明内容
本发明的目的是克服上述现有图像修复方法的不足,提供一种高质量的图像修复方法,该方法能够产生结构更准确、纹理更清晰和内容更连贯的修复图像。
本发明的图像修复网络是以生成对抗网络(GAN)为基础,包括生成器网络和判别器网络;在生成器网络部分采用Unet++网络结构,将受损图像作为输入,首先利用离散小波变换(DWT)将受损图像中已知区域特征分解为多频子带,然后通过注意力机制进一步提取已知区域的深层信息,最后通过小波逆变换(IDWT)生成修复后的图像;在判别器网络部分采用马尔可夫判别器(PatchGAN)的全卷积判别器网络结构,生成器网络输出的修复图像和ground-truth图像共同作为输入,生成器网络和判别器网络交替优化,并通过最小化全局损失函数约束生成对抗网络的反向传播,迭代地调整生成器网络参数,最终使得优化后的生成器网络可以生成高质量的图像修复结果。
上述方法的具体步骤如下:
步骤一:构建生成器网络。生成器网络G以Unet++的编码器和解码器结构为基础,编码器和解码器通过skip connections连接。用i代表编码器每一层的索引,j代表沿着skip connections的索引,则G每一层的特征向量xi,j计算为:
Figure GDA0004192915890000021
式中,
Figure GDA0004192915890000022
代表卷积操作,k是卷积核大小为3×3的滤波器,{·}代表Concatenation操作。
步骤二:利用DWT将已知区域特征分解为多频子带
Figure GDA0004192915890000023
具体操作:首先,用p代表LL、LH、HL和HH 4种低通和高通滤波器,滤波器fp使用卷积步长为2迭代地将已知区域特征x分解为4个多频子带
Figure GDA0004192915890000024
Figure GDA0004192915890000025
式中,j=0,↓2代表因子为2的标准降采样算子,最后,将4个多频子带Concatenation得到DWT操作后的特征向量
Figure GDA0004192915890000026
Figure GDA0004192915890000027
步骤三:将特征向量
Figure GDA0004192915890000037
传递到注意力机制中提取特征x′i,j,并通过IDWT操作生成修复后的图像。提取特征x′i,j的具体操作为:首先,生成注意力矩阵Mwt
Figure GDA0004192915890000032
其中,σ代表sigmoid激活函数k1和k2是卷积核大小为1×1的滤波器;最后,通过注意力矩阵Mwt
Figure GDA0004192915890000038
之间的矩阵乘法得到最终的特征向量x′i,j
Figure GDA0004192915890000034
步骤四:构建判别器网络。判别器网络D采用马尔可夫判别器(PatchGAN)的全卷积判别器网络结构,在训练过程中,生成器网络G的目标就是将受损图像补全生成真实的修复图像去欺骗判别器网络D。而D的目标就是辨别出G生成的修复图像和ground-truth图像的差异。通过G和D不断博弈,最小化全局损失函数进行反向传播,迭代地调整G的参数,最终使得优化后的G可以生成高质量的图像修复结果。
全局损失函数Ltotal由四部分构成:
Ltotal=λrLradvLadvcLcsLs (6)
其中,λ代表权重系数,本发明中取λr=1,λadv=0.2,λc=1,λs=10。
①重建损失函数Lr用于约束生成器网络生成的修复结果近似于ground-truth图像,公式如下:
Lr=||Φ(I;W)-Igr||1 (7)
式中,Φ(I;W)表示生成器网络G的输出,I代表输入的受损图像,W代表需要调整的G的参数,Igr代表ground-truth图像。
②对抗性损失函数Ladv用于迭代优化生成器网络G的参数W,公式如下:
Figure GDA0004192915890000035
式中,
Figure GDA0004192915890000036
表示分布函数的期望值,pdata(Igt)代表ground-truth图像的分布,pmiss(I)代表输入到生成器网络中的受损图像的分布,D(·)表示判别器网络D判断生成网络输出的修复后图像与ground-truth图像的相似概率。
③内容损失函数Lc用于比较生成器网络生成的修复结果与ground-truth图像特征间的内容相似度,公式如下:
Figure GDA0004192915890000041
式中,l代表生成器网络层数(0≤l≤4),i代表生成器每一层的索引(0≤i≤4),j代表沿着skip connections的索引(0≤j≤4)。
Figure GDA0004192915890000042
Nl和Ml分别第l层中滤波器的数量和大小,Fl表示第l层即生成网络输出的修复图像的特征表示。Pl表示第l层的ground-truth图像的特征表示。
④风格损失函数Ls用于比较生成器网络生成的修复结果与ground-truth图像特征间的纹理相似度,公式如下:
Figure GDA0004192915890000043
式中,ω为权重因子,
Figure GDA0004192915890000044
A是ground-truth图像的Gram矩阵,G为生成器网络生成的修复结果的Gram矩阵,利用Gram矩阵计算表达特征之间的相关性。
本发明所述的生成器网络G还能以U-net的编码器和解码器结构为基础。
有益效果
与现有的技术相比,本发明通过小波变换注意力模型和生成对抗网络,将受损图像已知区域特征分解为多频子带,提取和传递深层信息,利用注意力机制提取受损图像已知区域的有利特征,进行受损区域的图像修复;同时利用生成对抗网络交替优化模式,最小化全局损失函数进行误差的反向传播,迭代地更新生成器网络参数,最终使得优化后的生成器网络可以生成结构更准确、纹理更清晰和内容更连贯的修复图像,明显优于最先进的方法。
附图说明:
图1基于生成对抗网络模型的图像修复技术框架图;
图2基于小波变换注意力模型的生成器网络框架图;
图3小波变换注意力模型流程图;
图4小波变换注意力模型的影响。
具体实施方式:
为了能够更清楚地描述本发明的技术内容,下面结合具体实例来进一步的描述:
在本发明中,受卷积神经网络的发展和注意力机制的推动,提出了一种新的架构,将小波变换和注意力机制结合到生成对抗网络框架中,并以Unet++编码器和解码器结构为生成器网络的基本结构,有效地解决图像修复中的实际问题。
本发明的框架图如图1所示,在训练过程中,生成器网络G的目标就是将受损图像补全为真实的修复图像去欺骗判别器网络D。而D的目标就是判别出G生成的修复图像和ground-truth图像的误差。通过G和D不断博弈,最小化全局损失函数进行反向传播误差,迭代地更新G的参数,最终使得优化后的G可以生成高质量的图像修复结果。
图2为基于小波变换注意力模型的生成器网络G的框架图,xi,j表示4层G中每一层的特征向量,i代表编码器每一层的索引(0≤i≤4),j代表沿着skip connections的索引(0≤j≤4)。
在图3小波变换注意力模型流程图中,一方面,小波变换将受损图像已知区域特征分解为多频子带,有利于提取和传输深层信息;另一方面,注意力机制增强了小波变换捕获重要多频信息的能力。这种组合不仅扩大了底层特征的接受域,而且突出了缺失区域的重要特征。
Context Encoder产生了模糊的结果和人为的边界。Contextual Attention呈现扭曲的结构。Shift-Net预测有些细节缺失。PICNet会产生重复和扭曲的图像。与这些方法相比,本发明都能更好地处理这些问题,产生更直观、更真实的结果。我们还使用通用的评价指标进行了定量比较。表1表明本发明达到了最好的性能。
表1不同算法的客观质量比较
Figure GDA0004192915890000051
Figure GDA0004192915890000061
本发明也可以修复随机缺失区域。而对于结构区域,本发明更有效。
消融实验:
对小波变换注意力模型的效果进行了实验分析。如图4所示,直方图第一列为生成器网络为UNet++基线网络。第二列在没有注意力机制的情况下将小波变换加入到网络中。第三列以Unet为基线的小波变换注意力模型,第四列是基于Unet++小波变换注意力模型。结果表明,小波变换注意力模型是有效的。
小波变换注意力模型的位置也会影响图像质量或增加计算时间开销。表2为小波变换注意力模型在生成器网络G中沿着skip connections的索引j的第一层、第一二层和第一二三层的质量结果。为了获得更好的性能,本发明选择将其放置在网络的全部三层中。
表2生成器网络中小波变换注意力模型的位置影响
不同层数 PSNR SSIM l1(%) l2(%)
j=1 25.96 0.85 2.03 0.38
j=1,2 25.05 0.84 2.36 0.60
j=1,2,3 26.38 0.86 1.96 0.34

Claims (3)

1.一种基于小波变换注意力模型的图像修复方法,其特征在于:基于图像修复网络,该网络是以生成对抗网络GAN为基础,包括生成器网络G和判别器网络D;在生成器网络部分采用Unet++网络结构或Unet网络结构,将受损图像作为输入,首先利用离散小波变换DWT将受损图像中已知区域特征分解为多频子带,然后通过注意力机制进一步提取已知区域的深层信息,最后通过小波逆变换IDWT生成修复后的图像;在判别器网络部分采用马尔可夫判别器PatchGAN的全卷积判别器网络结构,生成器网络输出的修复图像和ground-truth图像共同作为输入,生成器网络和判别器网络交替优化,并通过最小化全局损失函数约束生成对抗网络的反向传播,迭代地更新生成器网络参数,最终使得优化后的生成器网络能够生成高质量的图像修复结果;
所述的生成器网络G以Unet++或Unet的编码器和解码器结构为基础,编码器和解码器通过skip connections连接,用i代表编码器每一层的索引,j代表沿着skip connections的索引,则G每一层的特征向量xi,j计算为:
Figure FDA0004181074070000011
式中,
Figure FDA0004181074070000012
代表卷积操作,k是卷积核大小为3×3的滤波器,{·}代表Concatenation操作;
生成器网络G的具体工作过程如下:
步骤一:利用DWT将已知区域特征分解为多频子带
Figure FDA0004181074070000013
具体操作:首先,用p代表LL、LH、HL和HH4种低通和高通滤波器,滤波器fp使用卷积步长为2迭代地将已知区域特征x分解为4个多频子带
Figure FDA0004181074070000014
Figure FDA0004181074070000015
式中,j=0,↓2代表因子为2的标准降采样算子,最后,将4个多频子带Concatenation得到DWT操作后的特征向量
Figure FDA0004181074070000016
Figure FDA0004181074070000017
步骤二:将特征向量
Figure FDA0004181074070000026
传递到注意力机制中提取特征x′i,j,并通过IDWT操作生成修复后的图像,其中,特征x′i,j的提取过程为:首先,生成注意力矩阵Mwt
Figure FDA0004181074070000022
其中,σ代表sigmoid激活函数,k1和k2是卷积核大小为1×1的滤波器;最后,通过注意力矩阵Mwt
Figure FDA0004181074070000023
之间的矩阵乘法得到最终的特征向量x′i,j
Figure FDA0004181074070000024
2.根据权利要求1所述的一种基于小波变换注意力模型的图像修复方法,其特征在于:
所述的判别器网络D采用马尔可夫判别器PatchGAN的全卷积判别器网络结构,在训练过程中,生成器网络G的目标是将受损图像补全生成真实的修复图像去欺骗判别器网络D;D的目标是辨别出G生成的修复图像和ground-truth图像的误差;通过G和D不断博弈,最小化全局损失函数进行反向传播误差,迭代地更新G的参数,最终使得优化后的G能够生成高质量的图像修复结果。
3.根据权利要求1所述的一种基于小波变换注意力模型的图像修复方法,其特征在于:
所述的全局损失函数Ltotal如下:
Ltotal=λrLradvLadvcLcsLs (6)
其中,λr=1,λadv=0.2,λc=1,λs=10;
重建损失函数Lr为:
Lr=||Φ(I;W)-Igr||1 (7)
式中,Φ(I;W)表示生成器网络G的输出,I代表输入的受损图像,W代表需要调整的G的参数,Igr代表ground-truth图像;Lr用于约束生成器网络生成的修复结果接近于ground-truth图像;
对抗性损失函数Ladv为:
Figure FDA0004181074070000025
式中,
Figure FDA0004181074070000031
表示分布函数的期望值,pdata(Igt)代表ground-truth图像的分布,pmiss(I)代表输入到生成器网络中的受损图像的分布,D′(·)表示判别器网络D判断生成网络输出的修复后图像与ground-truth图像的相似概率;
内容损失函数定义Lc为:
Figure FDA0004181074070000032
式中,l代表生成器网络层数,0≤l≤4,i代表生成器每一层的索引,0≤i≤4,j代表沿着skip connections的索引,0≤j≤4;
Figure FDA0004181074070000033
Nl和Ml分别为第(层中滤波器的数量和大小,Fl表示第l层生成网络输出的修复图像的特征表示;Pl表示第l层的ground-truth图像的特征表示;
风格损失函数Ls为:
Figure FDA0004181074070000034
式中,ω为权重因子,
Figure FDA0004181074070000035
A是ground-truth图像的Gram矩阵,G′为生成器网络生成的修复结果的Gram矩阵,利用Gram矩阵计算表达特征之间的相关性。
CN201911400990.7A 2019-12-30 2019-12-30 一种基于小波变换注意力模型的图像修复方法 Active CN111047541B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911400990.7A CN111047541B (zh) 2019-12-30 2019-12-30 一种基于小波变换注意力模型的图像修复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911400990.7A CN111047541B (zh) 2019-12-30 2019-12-30 一种基于小波变换注意力模型的图像修复方法

Publications (2)

Publication Number Publication Date
CN111047541A CN111047541A (zh) 2020-04-21
CN111047541B true CN111047541B (zh) 2023-06-02

Family

ID=70242057

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911400990.7A Active CN111047541B (zh) 2019-12-30 2019-12-30 一种基于小波变换注意力模型的图像修复方法

Country Status (1)

Country Link
CN (1) CN111047541B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111531546B (zh) * 2020-05-22 2023-06-16 山东浪潮科学研究院有限公司 一种机器人位姿估计方法、装置、设备及存储介质
CN111626964B (zh) * 2020-06-03 2023-09-26 上海联影医疗科技股份有限公司 扫描图像的优化方法、优化装置和医学扫描系统
CN111787187B (zh) * 2020-07-29 2021-07-02 上海大学 利用深度卷积神经网络进行视频修复的方法、系统、终端
CN112862875B (zh) * 2021-01-18 2022-02-15 中国科学院自动化研究所 基于选择性机制注意力机制的雨图去雨方法、系统及设备
CN112884669B (zh) * 2021-02-25 2022-12-06 电子科技大学 基于多尺度内容注意力机制的图像修复方法、存储介质和终端
CN113034390B (zh) * 2021-03-17 2022-10-18 复旦大学 一种基于小波先验注意力的图像修复方法及系统
US20240104163A1 (en) * 2021-03-30 2024-03-28 Nec Corporation Information processing system, information processing method, and recording medium
CN112989710B (zh) * 2021-04-22 2024-03-01 苏州联电能源发展有限公司 工控传感器数值异常检测方法及装置
CN113158997B (zh) * 2021-05-22 2023-04-18 河南工业大学 基于深度学习的粮库监控图像去噪方法、装置及介质
CN113205468B (zh) * 2021-06-01 2022-08-09 桂林电子科技大学 一种基于自注意力机制和gan的水下图像实时复原模型方法
CN113538230A (zh) * 2021-06-09 2021-10-22 安徽七天教育科技有限公司 一种基于扫描试卷的图像恢复系统以及使用方法
CN113409216A (zh) * 2021-06-24 2021-09-17 北京工业大学 一种基于频带自适应修复模型的图像修复方法
CN113409217A (zh) * 2021-06-24 2021-09-17 北京工业大学 一种基于多频子带概率推理模型的图像修复方法
CN115908144B (zh) * 2023-03-08 2023-06-02 中国科学院自动化研究所 基于随机小波注意力的图像处理方法、装置、设备及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840086B2 (en) * 2005-10-12 2010-11-23 The Regents Of The University Of California Method for inpainting of images
CN101635047A (zh) * 2009-03-25 2010-01-27 湖南大学 基于小波变换的纹理合成图像修复方法
CN109685724B (zh) * 2018-11-13 2020-04-03 天津大学 一种基于深度学习的对称感知人脸图像补全方法
CN109785244B (zh) * 2018-11-30 2020-12-11 中国农业大学 一种多目标图像的修复方法
CN109859125B (zh) * 2019-01-14 2022-10-21 广东工业大学 基于形态学检测与小波变换的图像高光修复方法
CN110288537A (zh) * 2019-05-20 2019-09-27 湖南大学 基于自注意力的深度生成式对抗网络的人脸图像补全方法
CN110475118A (zh) * 2019-07-11 2019-11-19 北京工业大学 一种基于注意力机制深度循环网络的旧电影闪烁修复方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Generative Image Inpainting with Contextual Attention;Jiahui Yu等;CVPR2018;全文 *
小波变换与纹理合成相结合的图像修复;张东 等;中国图象图形学报;全文 *

Also Published As

Publication number Publication date
CN111047541A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN111047541B (zh) 一种基于小波变换注意力模型的图像修复方法
Yeh et al. Multi-scale deep residual learning-based single image haze removal via image decomposition
Zhang et al. Learning deep CNN denoiser prior for image restoration
Jam et al. R-mnet: A perceptual adversarial network for image inpainting
CN113763268A (zh) 人脸图像盲修复方法及系统
CN113409216A (zh) 一种基于频带自适应修复模型的图像修复方法
Zhu et al. PNEN: Pyramid non-local enhanced networks
Du et al. Blind image denoising via dynamic dual learning
CN113962905B (zh) 基于多阶段特征互补网络的单幅图像去雨方法
Givkashi et al. Image inpainting using autoencoder and guided selection of predicted pixels
CN116051407A (zh) 一种图像修复方法
Ramwala et al. Reminiscent net: conditional GAN-based old image de-creasing
CN113096015B (zh) 基于渐进式感知和超轻量级网络的图像超分辨率重建方法
Campana et al. Variable-hyperparameter visual transformer for efficient image inpainting
Wang et al. Image inpainting based on multi-frequency probabilistic inference model
CN117078553A (zh) 一种基于多尺度深度学习的图像去雾方法
Srinivasan et al. An Efficient Video Inpainting Approach Using Deep Belief Network.
CN116703783A (zh) 基于CNN-Transformer混合建模及双边交互的低照度图像增强方法
CN116758092A (zh) 图像分割方法、装置、电子设备及存储介质
CN116563111A (zh) 基于深度递归残差通道注意力的图像放大方法
Van Noord et al. Light-weight pixel context encoders for image inpainting
CN115909084A (zh) 基于边缘信息的单幅遥感图像云去除方法
CN115330639A (zh) 一种基于非局部注意力的深度增强图像去噪方法
Yang et al. Semantic guidance learning for high-resolution non-homogeneous dehazing
CN113689360A (zh) 一种基于生成对抗网络的图像修复方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant