CN111047541B - 一种基于小波变换注意力模型的图像修复方法 - Google Patents
一种基于小波变换注意力模型的图像修复方法 Download PDFInfo
- Publication number
- CN111047541B CN111047541B CN201911400990.7A CN201911400990A CN111047541B CN 111047541 B CN111047541 B CN 111047541B CN 201911400990 A CN201911400990 A CN 201911400990A CN 111047541 B CN111047541 B CN 111047541B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- generator
- generator network
- trunk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000009466 transformation Effects 0.000 title claims abstract description 8
- 230000008439 repair process Effects 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000005315 distribution function Methods 0.000 claims description 2
- 238000012546 transfer Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims 1
- 230000004807 localization Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000002679 ablation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于小波变换注意力模型的图像修复方法,用于提供一种高质量的图像修复方法。本发明基于图像修复网络,该网络是以GAN为基础,包括生成器网络和判别器网络;生成器网络部分首先利用DWT将受损图像中已知区域特征分解为多频子带,然后通过注意力机制进一步提取已知区域的深层信息,最后通过IDWT生成修复后的图像;在判别器网络部分采用PatchGAN的全卷积判别器网络结构,修复后的图像和ground‑truth图像共同作为输入,生成器网络和判别器网络交替优化,并通过最小化全局损失函数进行反向传播,迭代地调整生成器网络参数,最终使得优化后的生成器网络可以生成高质量的图像修复结果。
Description
技术领域:
本发明涉及计算机图像处理领域,具体涉及一种基于小波变换注意力模型和生成对抗网络的图像修复方法。
背景技术:
图像修复是指利用某种方法,通过图像已知区域信息来推断缺失区域内容并将其修复补全的技术。这是一个经典的、具有挑战性的图像处理课题,广泛应用于图像编辑、基于图像的渲染和计算摄影等领域。在图像修复工作中有两点待解决的问题:首先,在修复过程中,要保持图像纹理结构的连续性,使缺失区域尽可能接近或达到原始图像的效果;其次,修复后的图像要真实自然,符合人们的视觉连贯性,让观察者认为这是一张真实的图像。
传统的图像修复方法通常是从已知区域搜索较为相似的图像块并复制到缺失区域。这种方法对背景比较单一的图像处理效果较好,但对人脸等复杂或非重复结构的纹理图像处理效果有限,不适用于修复场景较为复杂、缺失区域较多的图像。近年来,基于卷积神经网络的方法在图像修复领域取得了巨大的成功。Pathak等人首先利用对抗性损失函数训练深度神经网络来预测缺失区域,这有利于捕获大面积缺失区域的边缘和全局结构(D.Pathak,P.Krahenbuhl,J.Donahue,T.Darrell,and A.A.Efros,“Context encoders:Feature learning by inpainting,”in IEEE Conference on Computer Vision PatternRecognition,2016.)。Ishikawa等人通过结合全局和局部的对抗性损失函数来生成更精细的纹理信息。(H.Ishikawa,H.Ishikawa,and H.Ishikawa,Globally and locallyconsistent image completion,2017.)基于卷积神经网络的图像修复方法虽然能够处理场景较为复杂或者缺失区域较多的图像修复问题,但通常会使修复后的图像出现结构扭曲、纹理模糊和内容不连贯有明显的边界等问题。
综上,现有的图像修复方法修复图像质量较低,尤其是对于纹理结构较为复杂或者缺失区域面积较大的图像,容易使修复结果出现结构扭曲、纹理细节模糊和内容不连贯等问题,具有一定的局限性。
发明内容
本发明的目的是克服上述现有图像修复方法的不足,提供一种高质量的图像修复方法,该方法能够产生结构更准确、纹理更清晰和内容更连贯的修复图像。
本发明的图像修复网络是以生成对抗网络(GAN)为基础,包括生成器网络和判别器网络;在生成器网络部分采用Unet++网络结构,将受损图像作为输入,首先利用离散小波变换(DWT)将受损图像中已知区域特征分解为多频子带,然后通过注意力机制进一步提取已知区域的深层信息,最后通过小波逆变换(IDWT)生成修复后的图像;在判别器网络部分采用马尔可夫判别器(PatchGAN)的全卷积判别器网络结构,生成器网络输出的修复图像和ground-truth图像共同作为输入,生成器网络和判别器网络交替优化,并通过最小化全局损失函数约束生成对抗网络的反向传播,迭代地调整生成器网络参数,最终使得优化后的生成器网络可以生成高质量的图像修复结果。
上述方法的具体步骤如下:
步骤一:构建生成器网络。生成器网络G以Unet++的编码器和解码器结构为基础,编码器和解码器通过skip connections连接。用i代表编码器每一层的索引,j代表沿着skip connections的索引,则G每一层的特征向量xi,j计算为:
步骤四:构建判别器网络。判别器网络D采用马尔可夫判别器(PatchGAN)的全卷积判别器网络结构,在训练过程中,生成器网络G的目标就是将受损图像补全生成真实的修复图像去欺骗判别器网络D。而D的目标就是辨别出G生成的修复图像和ground-truth图像的差异。通过G和D不断博弈,最小化全局损失函数进行反向传播,迭代地调整G的参数,最终使得优化后的G可以生成高质量的图像修复结果。
全局损失函数Ltotal由四部分构成:
Ltotal=λrLr+λadvLadv+λcLc+λsLs (6)
其中,λ代表权重系数,本发明中取λr=1,λadv=0.2,λc=1,λs=10。
①重建损失函数Lr用于约束生成器网络生成的修复结果近似于ground-truth图像,公式如下:
Lr=||Φ(I;W)-Igr||1 (7)
式中,Φ(I;W)表示生成器网络G的输出,I代表输入的受损图像,W代表需要调整的G的参数,Igr代表ground-truth图像。
②对抗性损失函数Ladv用于迭代优化生成器网络G的参数W,公式如下:
式中,表示分布函数的期望值,pdata(Igt)代表ground-truth图像的分布,pmiss(I)代表输入到生成器网络中的受损图像的分布,D(·)表示判别器网络D判断生成网络输出的修复后图像与ground-truth图像的相似概率。
③内容损失函数Lc用于比较生成器网络生成的修复结果与ground-truth图像特征间的内容相似度,公式如下:
式中,l代表生成器网络层数(0≤l≤4),i代表生成器每一层的索引(0≤i≤4),j代表沿着skip connections的索引(0≤j≤4)。Nl和Ml分别第l层中滤波器的数量和大小,Fl表示第l层即生成网络输出的修复图像的特征表示。Pl表示第l层的ground-truth图像的特征表示。
④风格损失函数Ls用于比较生成器网络生成的修复结果与ground-truth图像特征间的纹理相似度,公式如下:
本发明所述的生成器网络G还能以U-net的编码器和解码器结构为基础。
有益效果
与现有的技术相比,本发明通过小波变换注意力模型和生成对抗网络,将受损图像已知区域特征分解为多频子带,提取和传递深层信息,利用注意力机制提取受损图像已知区域的有利特征,进行受损区域的图像修复;同时利用生成对抗网络交替优化模式,最小化全局损失函数进行误差的反向传播,迭代地更新生成器网络参数,最终使得优化后的生成器网络可以生成结构更准确、纹理更清晰和内容更连贯的修复图像,明显优于最先进的方法。
附图说明:
图1基于生成对抗网络模型的图像修复技术框架图;
图2基于小波变换注意力模型的生成器网络框架图;
图3小波变换注意力模型流程图;
图4小波变换注意力模型的影响。
具体实施方式:
为了能够更清楚地描述本发明的技术内容,下面结合具体实例来进一步的描述:
在本发明中,受卷积神经网络的发展和注意力机制的推动,提出了一种新的架构,将小波变换和注意力机制结合到生成对抗网络框架中,并以Unet++编码器和解码器结构为生成器网络的基本结构,有效地解决图像修复中的实际问题。
本发明的框架图如图1所示,在训练过程中,生成器网络G的目标就是将受损图像补全为真实的修复图像去欺骗判别器网络D。而D的目标就是判别出G生成的修复图像和ground-truth图像的误差。通过G和D不断博弈,最小化全局损失函数进行反向传播误差,迭代地更新G的参数,最终使得优化后的G可以生成高质量的图像修复结果。
图2为基于小波变换注意力模型的生成器网络G的框架图,xi,j表示4层G中每一层的特征向量,i代表编码器每一层的索引(0≤i≤4),j代表沿着skip connections的索引(0≤j≤4)。
在图3小波变换注意力模型流程图中,一方面,小波变换将受损图像已知区域特征分解为多频子带,有利于提取和传输深层信息;另一方面,注意力机制增强了小波变换捕获重要多频信息的能力。这种组合不仅扩大了底层特征的接受域,而且突出了缺失区域的重要特征。
Context Encoder产生了模糊的结果和人为的边界。Contextual Attention呈现扭曲的结构。Shift-Net预测有些细节缺失。PICNet会产生重复和扭曲的图像。与这些方法相比,本发明都能更好地处理这些问题,产生更直观、更真实的结果。我们还使用通用的评价指标进行了定量比较。表1表明本发明达到了最好的性能。
表1不同算法的客观质量比较
本发明也可以修复随机缺失区域。而对于结构区域,本发明更有效。
消融实验:
对小波变换注意力模型的效果进行了实验分析。如图4所示,直方图第一列为生成器网络为UNet++基线网络。第二列在没有注意力机制的情况下将小波变换加入到网络中。第三列以Unet为基线的小波变换注意力模型,第四列是基于Unet++小波变换注意力模型。结果表明,小波变换注意力模型是有效的。
小波变换注意力模型的位置也会影响图像质量或增加计算时间开销。表2为小波变换注意力模型在生成器网络G中沿着skip connections的索引j的第一层、第一二层和第一二三层的质量结果。为了获得更好的性能,本发明选择将其放置在网络的全部三层中。
表2生成器网络中小波变换注意力模型的位置影响
不同层数 | PSNR | SSIM | l1(%) | l2(%) |
j=1 | 25.96 | 0.85 | 2.03 | 0.38 |
j=1,2 | 25.05 | 0.84 | 2.36 | 0.60 |
j=1,2,3 | 26.38 | 0.86 | 1.96 | 0.34 |
Claims (3)
1.一种基于小波变换注意力模型的图像修复方法,其特征在于:基于图像修复网络,该网络是以生成对抗网络GAN为基础,包括生成器网络G和判别器网络D;在生成器网络部分采用Unet++网络结构或Unet网络结构,将受损图像作为输入,首先利用离散小波变换DWT将受损图像中已知区域特征分解为多频子带,然后通过注意力机制进一步提取已知区域的深层信息,最后通过小波逆变换IDWT生成修复后的图像;在判别器网络部分采用马尔可夫判别器PatchGAN的全卷积判别器网络结构,生成器网络输出的修复图像和ground-truth图像共同作为输入,生成器网络和判别器网络交替优化,并通过最小化全局损失函数约束生成对抗网络的反向传播,迭代地更新生成器网络参数,最终使得优化后的生成器网络能够生成高质量的图像修复结果;
所述的生成器网络G以Unet++或Unet的编码器和解码器结构为基础,编码器和解码器通过skip connections连接,用i代表编码器每一层的索引,j代表沿着skip connections的索引,则G每一层的特征向量xi,j计算为:
生成器网络G的具体工作过程如下:
2.根据权利要求1所述的一种基于小波变换注意力模型的图像修复方法,其特征在于:
所述的判别器网络D采用马尔可夫判别器PatchGAN的全卷积判别器网络结构,在训练过程中,生成器网络G的目标是将受损图像补全生成真实的修复图像去欺骗判别器网络D;D的目标是辨别出G生成的修复图像和ground-truth图像的误差;通过G和D不断博弈,最小化全局损失函数进行反向传播误差,迭代地更新G的参数,最终使得优化后的G能够生成高质量的图像修复结果。
3.根据权利要求1所述的一种基于小波变换注意力模型的图像修复方法,其特征在于:
所述的全局损失函数Ltotal如下:
Ltotal=λrLr+λadvLadv+λcLc+λsLs (6)
其中,λr=1,λadv=0.2,λc=1,λs=10;
重建损失函数Lr为:
Lr=||Φ(I;W)-Igr||1 (7)
式中,Φ(I;W)表示生成器网络G的输出,I代表输入的受损图像,W代表需要调整的G的参数,Igr代表ground-truth图像;Lr用于约束生成器网络生成的修复结果接近于ground-truth图像;
对抗性损失函数Ladv为:
式中,表示分布函数的期望值,pdata(Igt)代表ground-truth图像的分布,pmiss(I)代表输入到生成器网络中的受损图像的分布,D′(·)表示判别器网络D判断生成网络输出的修复后图像与ground-truth图像的相似概率;
内容损失函数定义Lc为:
式中,l代表生成器网络层数,0≤l≤4,i代表生成器每一层的索引,0≤i≤4,j代表沿着skip connections的索引,0≤j≤4;Nl和Ml分别为第(层中滤波器的数量和大小,Fl表示第l层生成网络输出的修复图像的特征表示;Pl表示第l层的ground-truth图像的特征表示;
风格损失函数Ls为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911400990.7A CN111047541B (zh) | 2019-12-30 | 2019-12-30 | 一种基于小波变换注意力模型的图像修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911400990.7A CN111047541B (zh) | 2019-12-30 | 2019-12-30 | 一种基于小波变换注意力模型的图像修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111047541A CN111047541A (zh) | 2020-04-21 |
CN111047541B true CN111047541B (zh) | 2023-06-02 |
Family
ID=70242057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911400990.7A Active CN111047541B (zh) | 2019-12-30 | 2019-12-30 | 一种基于小波变换注意力模型的图像修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111047541B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111531546B (zh) * | 2020-05-22 | 2023-06-16 | 山东浪潮科学研究院有限公司 | 一种机器人位姿估计方法、装置、设备及存储介质 |
CN111626964B (zh) * | 2020-06-03 | 2023-09-26 | 上海联影医疗科技股份有限公司 | 扫描图像的优化方法、优化装置和医学扫描系统 |
CN111787187B (zh) * | 2020-07-29 | 2021-07-02 | 上海大学 | 利用深度卷积神经网络进行视频修复的方法、系统、终端 |
CN112862875B (zh) * | 2021-01-18 | 2022-02-15 | 中国科学院自动化研究所 | 基于选择性机制注意力机制的雨图去雨方法、系统及设备 |
CN112884669B (zh) * | 2021-02-25 | 2022-12-06 | 电子科技大学 | 基于多尺度内容注意力机制的图像修复方法、存储介质和终端 |
CN113034390B (zh) * | 2021-03-17 | 2022-10-18 | 复旦大学 | 一种基于小波先验注意力的图像修复方法及系统 |
US20240104163A1 (en) * | 2021-03-30 | 2024-03-28 | Nec Corporation | Information processing system, information processing method, and recording medium |
CN112989710B (zh) * | 2021-04-22 | 2024-03-01 | 苏州联电能源发展有限公司 | 工控传感器数值异常检测方法及装置 |
CN113158997B (zh) * | 2021-05-22 | 2023-04-18 | 河南工业大学 | 基于深度学习的粮库监控图像去噪方法、装置及介质 |
CN113205468B (zh) * | 2021-06-01 | 2022-08-09 | 桂林电子科技大学 | 一种基于自注意力机制和gan的水下图像实时复原模型方法 |
CN113538230A (zh) * | 2021-06-09 | 2021-10-22 | 安徽七天教育科技有限公司 | 一种基于扫描试卷的图像恢复系统以及使用方法 |
CN113409216A (zh) * | 2021-06-24 | 2021-09-17 | 北京工业大学 | 一种基于频带自适应修复模型的图像修复方法 |
CN113409217A (zh) * | 2021-06-24 | 2021-09-17 | 北京工业大学 | 一种基于多频子带概率推理模型的图像修复方法 |
CN115908144B (zh) * | 2023-03-08 | 2023-06-02 | 中国科学院自动化研究所 | 基于随机小波注意力的图像处理方法、装置、设备及介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7840086B2 (en) * | 2005-10-12 | 2010-11-23 | The Regents Of The University Of California | Method for inpainting of images |
CN101635047A (zh) * | 2009-03-25 | 2010-01-27 | 湖南大学 | 基于小波变换的纹理合成图像修复方法 |
CN109685724B (zh) * | 2018-11-13 | 2020-04-03 | 天津大学 | 一种基于深度学习的对称感知人脸图像补全方法 |
CN109785244B (zh) * | 2018-11-30 | 2020-12-11 | 中国农业大学 | 一种多目标图像的修复方法 |
CN109859125B (zh) * | 2019-01-14 | 2022-10-21 | 广东工业大学 | 基于形态学检测与小波变换的图像高光修复方法 |
CN110288537A (zh) * | 2019-05-20 | 2019-09-27 | 湖南大学 | 基于自注意力的深度生成式对抗网络的人脸图像补全方法 |
CN110475118A (zh) * | 2019-07-11 | 2019-11-19 | 北京工业大学 | 一种基于注意力机制深度循环网络的旧电影闪烁修复方法 |
-
2019
- 2019-12-30 CN CN201911400990.7A patent/CN111047541B/zh active Active
Non-Patent Citations (2)
Title |
---|
Generative Image Inpainting with Contextual Attention;Jiahui Yu等;CVPR2018;全文 * |
小波变换与纹理合成相结合的图像修复;张东 等;中国图象图形学报;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111047541A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111047541B (zh) | 一种基于小波变换注意力模型的图像修复方法 | |
Yeh et al. | Multi-scale deep residual learning-based single image haze removal via image decomposition | |
Zhang et al. | Learning deep CNN denoiser prior for image restoration | |
Jam et al. | R-mnet: A perceptual adversarial network for image inpainting | |
CN113763268A (zh) | 人脸图像盲修复方法及系统 | |
CN113409216A (zh) | 一种基于频带自适应修复模型的图像修复方法 | |
Zhu et al. | PNEN: Pyramid non-local enhanced networks | |
Du et al. | Blind image denoising via dynamic dual learning | |
CN113962905B (zh) | 基于多阶段特征互补网络的单幅图像去雨方法 | |
Givkashi et al. | Image inpainting using autoencoder and guided selection of predicted pixels | |
CN116051407A (zh) | 一种图像修复方法 | |
Ramwala et al. | Reminiscent net: conditional GAN-based old image de-creasing | |
CN113096015B (zh) | 基于渐进式感知和超轻量级网络的图像超分辨率重建方法 | |
Campana et al. | Variable-hyperparameter visual transformer for efficient image inpainting | |
Wang et al. | Image inpainting based on multi-frequency probabilistic inference model | |
CN117078553A (zh) | 一种基于多尺度深度学习的图像去雾方法 | |
Srinivasan et al. | An Efficient Video Inpainting Approach Using Deep Belief Network. | |
CN116703783A (zh) | 基于CNN-Transformer混合建模及双边交互的低照度图像增强方法 | |
CN116758092A (zh) | 图像分割方法、装置、电子设备及存储介质 | |
CN116563111A (zh) | 基于深度递归残差通道注意力的图像放大方法 | |
Van Noord et al. | Light-weight pixel context encoders for image inpainting | |
CN115909084A (zh) | 基于边缘信息的单幅遥感图像云去除方法 | |
CN115330639A (zh) | 一种基于非局部注意力的深度增强图像去噪方法 | |
Yang et al. | Semantic guidance learning for high-resolution non-homogeneous dehazing | |
CN113689360A (zh) | 一种基于生成对抗网络的图像修复方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |