CN113781324A - 一种老照片修复方法 - Google Patents
一种老照片修复方法 Download PDFInfo
- Publication number
- CN113781324A CN113781324A CN202110902109.4A CN202110902109A CN113781324A CN 113781324 A CN113781324 A CN 113781324A CN 202110902109 A CN202110902109 A CN 202110902109A CN 113781324 A CN113781324 A CN 113781324A
- Authority
- CN
- China
- Prior art keywords
- feature
- old
- prior
- coding
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000004927 fusion Effects 0.000 claims abstract description 55
- 230000009466 transformation Effects 0.000 claims abstract description 37
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 69
- 230000008439 repair process Effects 0.000 claims description 56
- 230000007547 defect Effects 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 4
- 206010021403 Illusion Diseases 0.000 claims description 3
- 238000005538 encapsulation Methods 0.000 claims description 3
- 230000016776 visual perception Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000007499 fusion processing Methods 0.000 abstract description 4
- 230000015556 catabolic process Effects 0.000 description 16
- 238000006731 degradation reaction Methods 0.000 description 16
- 230000007850 degeneration Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种老照片修复方法,是由一类属性引导参考先验与生成式先验融合网络处理实现,该网络包括浅层特征提取模块、深层特征编码网络、空间先验特征变换模块、潜在解耦融合模块以及特征解码重建网络。本发明通过提取潜在空间的类属性解耦表示指导参考先验信息与生成式先验信息的提取以及融合过程,取得了稳定的老照片修复表现与良好的泛化性能,进一步提高了老照片的修复质量。
Description
技术领域
本发明涉及照片修复技术领域,特别是涉及一种语义类属性引导与参考图像先验知识融合的老照片修复方法。
背景技术
老照片修复的目的是去除老照片中的各种退化因素,重建具有良好视觉品质的老照片。老照片代表了一个时代的记忆,记录了许多消逝的美好瞬间,因此老照片修复技术具有重要纪念意义以及商业价值,广泛应用于人像修复,考古等领域。通常老照片修复存在多种不同的解,是一个典型的不适定反问题。老照片中的退化多样且复杂,例如划痕、破损、缺失等退化因素严重破坏了图像的结构信息,噪声、模糊、褪色等退化因素使图像的内容信息遭到破坏。未知并且复杂的退化组成使得老照片的修复过程变得相当困难。因此,探索更加可靠的先验信息与潜在的属性表达是有必要的,这有助于增强算法对复杂退化的泛化能力,进一步找到具有良好修复表现的解决方案。
通常,修复过程首先由数字化设备数字化老照片,然后由专业的技术人员使用图像处理工具逐像素的进行修复,消耗了大量的人力,成本难以接受并且无法实现批量的老照片修复。传统的老照片修复算法采用不同的数字图像处理技术对不同的缺陷类别分别进行处理,例如数字滤波,锐度增强,非局部自相似以及局部平滑等。但是,它们通常产生不连贯或者不自然的修复结果,对复杂退化的泛化能力较差。
随着深度学习技术的发展,基于深度学习的图像修复技术在各种退化缺陷修复上取得了显著的成果。凭借卷积神经网络强大的表示能力,以纯数据驱动的方式学习低质量图像与高质量图像间的端到端映射。大量基于深度学习的修复方法被提出,包括核估计,相似补丁搜索,退化过程学习,局部卷积以及多尺度修复等。然而,它们只针对单一退化或简单的退化组合设计,使用合成数据进行端到端的模型训练,对未知复杂的退化组成泛化能力有限。目前,仅有少量的研究探索复杂的多退化因素修复,通常训练多个针对不同任务的模型,以选择或自适应的方式进行模型组合。然而,各种退化因素间的耦合关系导致模型之间相互影响并且合成数据与真实数据间的分布差异导致了老照片的修复性能受到限制。
近年来,生成式模型得到了广泛研究,例如生成对抗网络与变分自编码器。大量的研究通过探索潜在空间的表达来实现对目标生成图像的操控,证明了生成式模型具有自发学习潜在空间表征的能力。一些研究通过对图像的潜在空间语义进行控制或逼近低质量图像与高质量图像的潜在空间分布来完成对图像的修复。然而,通常它们难以学习潜在空间中语义信息的解耦表示,无法实现对各类特征的准确操控,导致修复性能下降。
为了获得更加良好的复杂退化修复表现,更多的先验信息被探索进行图像修复,例如梯度先验,语义先验,生成先验与参考先验等。更多可靠的先验信息引入增强了图像修复的性能表现。其中生成先验与参考先验以其具有强大的先验信息封装能力被广泛研究。参考先验通常从具有高质量的参考图像中获得良好的先验信息表示来辅助修复过程。生成先验通常指由生成式模型封装的大量细节,语义,结构等先验信息。然而,参考先验与生成式先验信息的多样性严重影响了修复结果的真实性,修复能力受到限制。如何准确提取修复所需的先验信息与平衡先验信息的多样性与修复结果的保真性是提高复杂退化修复表现的关键。
发明内容
本发明的目的是针对现有技术中存在的技术缺陷,而提供一种老照片修复方法,旨在修复老照片中复杂的退化因素,获得具有良好质量的老照片。该方法提出了类属性引导的参考先验与生成式先验融合网络以对老照片修复,通过提取潜在空间的类属性解耦表示指导参考先验信息与生成式先验信息的提取以及融合过程,取得了稳定的老照片修复表现与良好的泛化性能,进一步提高了老照片的修复质量。
为实现本发明的目的所采用的技术方案是:
一种老照片修复方法,由一类属性引导参考先验与生成式先验融合网络处理实现,该网络包括浅层特征提取模块、深层特征编码网络、空间先验特征变换模块、潜在解耦融合模块以及特征解码重建网络;处理步骤如下:
首先由浅层特征提取模块提取参考图像xr的浅层特征fr以及待修复老照xo的浅层特征fo,送入到深层特征编码网络分别进行逐层编码获得具有不同尺度的语义特征与潜在空间编码,其中,待修复老照片与参考图像的潜在编码vo与vr被送入潜在解耦融合模块提取解耦的类属性编码,然后进行类属性融合获得融合潜在编码vs,融合潜在编码vs用来引导空间先验特征变换模块提取生成式先验特征,对参考图像编码特征、待修复老照片特征和生成式先验特征进行空间融合变换,获得第k层融合先验信息的特征ft k与粗修复解码特征被送入特征解码重建网络逐层的进行特征解码,重建修复的老照片y输出。
作为一个优选的技术方案,本发明的所述老照片修复方法,所述深层特征编码网络的具体处理步骤如下:
对提取的浅层特征进行深度为m的编码,然后通过全局均值池化获得潜在空间编码:
其中,与分别表示第k层老照片与参考图像的编码特征,与分别表示第k层老照片与参考图像的编码,编码由卷积层Conv、实例归一化InstanceNorm与Relu激活函数组成,Favg(·)表示全局均值池化vo与vr分别表示老照片与参考图像的潜在编码。
作为一个优选的技术方案,本发明的所述老照片修复方法,所述潜在解耦融合模块获得融合修复后的老照片潜在编码vs的步骤如下:
首先分别提取参考图像潜在编码与老照片潜在编码的类属性编码表示:
其中,Hcla(·),Hcon(·),Hcom(·),Hsmo(·)分别表示提取四种类属性的操作, 分别表示提取的老照片类属性编码,分别表示提取的参考图像类属性编码,然后按照提取的类属性种类进行类属性融合,将参考图像的类属性融合到老照片的类属性中,对老照片的潜在类属性进行修复:
其中,Fcla(·),Fcon(·),Fcom(·),Fsmo(·)表示融合四种潜在类属性的操作, 分别表示融合修复后的老照片潜在类属性编码,然后对获得的潜在类属性编码进行融合获得融合修复后的老照片潜在编码vs:
其中,Fs(·)表示融合潜在类属性编码的操作。
作为一个优选的技术方案,本发明的所述老照片修复方法,所述空间先验特征变换模块仅在第一层编码特征融合中引入生成式先验特征;采用分离式空间特征调制融合待修复老照片编码特征、参考图像编码特征与生成式先验特征;其步骤如下:
首先获得第k层融合先验信息的特征ft k,表示如下;
其中,Fres(·)表示G个残差块级联的粗修复操作。
作为一个优选的技术方案,本发明的所述老照片修复方法,所述第k层融合先验信息的特征ft k的具体获得步骤如下:
一个映射网络被使用对潜在编码vs进行优化:
zp=Fm(vs)
其中,Fm(·)表示映射网络函数。zp表示优化后的生成式先验潜在编码,然后zp被送入预训练的人像生成式模型中获得生成式先验特征fp:
fp=Mp(zp)
其中,Mp(·)表示封装生成式先验的预训练生成式模型,然后对获得的先验特征进行空间融合变换,首先将老照片编码特征划分为两个部分:
其中,表示提取第k层参考图像编码特征调制参数的函数,表示提取的第k层参考图像编码特征的调制参数,Fw(·),Fb(·)表示提取生成式先验特征调制参数的函数,wp,bp表示提取的生成式先验特征的调制参数;然后将wp,bp与第一部分老照片编码特征进行空间调制变换:
然后拼接两部分空间变换特征,再由潜在编码vs通过注意力网络为拼接后的空间变换特征赋予自适应注意力权重,注意力网络由一系列卷积层(Conv),Relu激活以及Sigmoid函数组成;
其中,Fc(·)表示拼接空间变换特征的函数,Fca(·)表示通道注意力网络。
作为一个优选的技术方案,本发明的所述老照片修复方法,所述特征解码重建网络的处理步骤如下:
其中,表示第k层解码特征。Dk(·)表示第k层解码操作,由转置卷积层Transpose Conv、实例归一化InstanceNorm以及Relu激活函数组成;最后,一个卷积层和残差连接被使用重建修复的老照片y:
其中,Fre(·)表示最后的重建卷积操作。
作为一个优选的技术方案,本发明的所述老照片修复方法,该网络设置一个双判别器网络结构辅助修复过程,由风格判别器以及缺陷判别器组成;风格判别器网络对判别器输出的Gram矩阵进行真假性判别,Gram矩阵与图像的风格紧密相关;风格判别器损失函数表示如下:
缺陷判别器对输入的梯度图进行真假性判别,梯度图可直观的显示出老照片的缺陷情况;缺陷判别器损失函数表示如下:
作为一个优选的技术方案,本发明折的所述老照片修复方法,组合内容损失函数、感知损失函数与对抗损失函数共同约束修复的解空间;通过联合双判别器损失函数,获得了预期的感知-失真平衡内容损失函数:
内容损失函数:计算修复的老照片与目标图像之间的平均绝对误差,加速网络收敛过程,约束修复老照片的内容真实性;
感知损失函数:通过感知相似度来提高图像的视觉质量。利用预训练的VGG网络提取包含语义信息的特征,计算修复的老照片特征与目标图像特征的平均绝对误差,使符合人类视觉感知;
其中,φj(·)表示提取VGG网络第j层特征的函数;
联合三种损失函数作为最终的优化损失目标,表示如下:
本发明提出一个潜在解耦融合模块来进行潜在空间编码的类属性提取与解耦,同时完成参考图像类属性编码与待修复老照片类属性编码的融合修复,融合后的潜在编码指导生成式先验信息的提取与先验特征的融合过程。
本发明提出一个空间先验特征变换模块在多尺度编码空间实现先验信息的高效融合,保证了先验信息多样性与修复保真性的良好平衡。
此外,本发明提出一个双判别器网络结构与联合优化损失目标进一步增强了风格与缺陷修复能力,获得了良好的感知与失真平衡。
附图说明
图1为本发明实施例的类属性引导参考先验与生成式先验融合的老照片修复网络结构图;
图2为本发明实施例的潜在解耦融合模块(LDF)的结构图;
图3为本发明实施例的空间先验特征变换模块(SPT)的结构图;
图4为本发明实施例的双判别器网络结构图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提出了一个类属性引导参考先验与生成式先验融合的老照片修复网络。通过提取图像的潜在解耦类属性编码引导参考先验信息与生成式先验信息的引入过程,提出的网络展现了强大的复杂退化修复能力与良好的泛化性能。
本发明设计了一个空间先验特征变换模块来融合参考先验特征,生成式先验特征与待修复老照片特征,通过高效的空间调制实现先验信息多样性与修复结果保真性的良好平衡,在细节修复上显示了一定的优势。
本发明设计了一个潜在解耦融合模块来提取潜在类属性的解耦表示,根据退化因素的性质提取解耦的图像类属性编码,在潜在空间中对高质量参考图像的类属性编码与待修复老照片的潜在类属性编码进行融合修复,进一步增强了网络对各种复杂退化的泛化能力。
本发明设计了一个双判别器网络结构,通过判别Gram矩阵与图像梯度更好的修复老照片的风格与缺陷,同时设计了一种新的联合优化损失函数结合对抗训练过程进一步增强了老照片的高频细节,取得了良好的真实性与感知质量。
本发明提出的类属性引导参考先验与生成式先验融合网络整体结构如图1所示,网络整体结构包括浅层特征提取模块、深层特征编码网络、空间先验特征变换模块(Spatial prior-feature transform module,SPT)、潜在解耦融合模块(Latentdecoupling and fusion module,LDF)以及特征解码重建网络。
首先,使用一个卷积层(Convolution,Conv)提取高质量参考图像xr的浅层特征fr,使用n层核由大到小的卷积层获得具有较大感受野的待修复老照片xo的浅层特征fo,浅层特征提取模块表示如下:
其中Fos(·)与Frs(·)分别表示待修复老照片与参考图像的浅层特征提取操作。然后提取的浅层特征fo与fr送入深层特征编码网络分别进行逐层编码获得具有不同尺度的语义特征与潜在空间编码。
本发明对提取的浅层特征进行深度为m的编码,然后通过全局均值池化获得潜在空间编码:
其中与分别表示第k层老照片与参考图像的编码特征。与分别表示第k层老照片与参考图像的编码,编码由卷积层(Conv)、实例归一化(InstanceNorm)与Relu激活函数组成。Favg(·)表示全局均值池化。vo与vr分别表示老照片与参考图像的潜在编码。vo与vr被送入潜在解耦融合模块进一步提取解耦的类属性编码,然后进行类属性融合获得融合潜在编码vs。
vs=Ff(Fd(vo,vr)) (3)
其中,Fd(·)表示提取解耦类属性编码操作。Ff(·)表示类属性融合操作。融合潜在编码vs进一步用来引导空间先验特征变换模块提取生成式先验特征,对参考图像编码特征、待修复老照片特征和生成式先验特征进行空间融合变换。
其中,表示第k层解码特征。Dk(·)表示第k层解码操作,由转置卷积层(Transpose Conv)、实例归一化(InstanceNorm)以及Relu激活函数组成。最后,一个卷积层和残差连接被使用重建修复的老照片y:
其中,Fre(·)表示最后的重建卷积操作。
本发明实施例中,通过潜在解耦融合模块(LDF)来提取参考图像潜在编码与老照片潜在编码的类属性解耦表示并且进一步进行潜在类属性融合修复,显著增强了网络的泛化性能。其具体结构如图2所示,根据退化类别的性质划分了四类潜在的类属性。老照片中存在的退化均可以归类到四种类属性中,例如模糊与清晰度(Clarity)相对应、噪声及胶片颗粒与平滑性(Smoothness)相对应、划痕及磨损与连通性(Connectivity)相对应、缺失与完整性(Completeness)相对应。首先分别提取参考图像潜在编码与老照片潜在编码的类属性编码表示:
其中,Hcla(·),Hcon(·),Hcom(·),Hsmo(·)分别表示提取四种类属性的操作。 分别表示提取的老照片类属性编码。分别表示提取的参考图像类属性编码。然后按照提取的类属性种类进行类属性融合,将参考图像的类属性融合到老照片的类属性中,对老照片的潜在类属性进行修复:
其中,Fcla(·),Fcon(·),Fcom(·),Fsmo(·)表示融合四种潜在类属性的操作。 分别表示融合修复后的老照片潜在类属性编码。然后对获得的高质量潜在类属性编码进一步进行融合获得融合修复后的老照片潜在编码vs:
其中,Fs(·)表示融合潜在类属性编码的操作。
本发明实施例中,提出一个空间先验特征变换模块(SPT)来融合先验特征与待修复老照片特征,填充老照片中丢失的信息,其结构如图3所示。
具体来说,空间先验特征变换模块完成两个任务。第一,有选择的引入生成式先验特征,如图1所示,网络仅在第一层编码特征融合中引入生成式先验特征。第二,采用分离式空间特征调制融合待修复老照片编码特征、参考图像编码特征与生成式先验特征,实现了先验信息多样性与修复结果保真性的良好平衡,进一步增强了老照片的细节修复能力。为了进一步提高生成式先验信息提取的准确性,一个映射网络被使用对潜在编码vs进一步进行优化:
zp=Fm(vs) (11)
其中,Fm(·)表示映射网络函数。zp表示优化后的生成式先验潜在编码,然后zp被送入预训练的人像生成式模型中获得生成式先验特征fp:
fp=Mp(zp) (12)
其中,Mp(·)表示封装生成式先验的预训练生成式模型。然后,对获得的先验特征进行空间融合变换,首先将老照片编码特征划分为两个部分:
其中,表示提取第k层参考图像编码特征调制参数的函数。表示提取的第k层参考图像编码特征的调制参数。Fw(·),Fb(·)表示提取生成式先验特征调制参数的函数。wp,bp表示提取的生成式先验特征的调制参数。然后将wp,bp与第一部分老照片编码特征进行空间调制变换:
在先验特征融合过程中,划分的第一部分待修复老照片编码特征始终保持一条跳跃连接路径,保证了修复结果的保真性,达到了先验信息多样性与修复保真性的良好平衡。然后,将第二部分待修复老照片编码特征与参考图像编码特征调制参数进行空间调制变换:
然后拼接两部分空间变换特征,再由潜在编码vs通过注意力网络为拼接后的空间变换特征赋予自适应注意力权重。注意力网络由一系列卷积层(Conv),Relu激活以及Sigmoid函数组成。
其中,Fc(·)表示拼接空间变换特征的函数。Fca(·)表示通道注意力网络。ft k表示融合了先验信息的第k层输出变换特征,进一步用来引导特征解码过程。
本发明设计的空间先验特征变换模块进一步对潜在编码vs进行优化,有针对性地对生成式先验信息进行提取,一定程度上约束了生成式先验信息的多样性,采用分离式双路空间调制变换融合先验特征信息更加高效,同时实现了先验信息多样性与修复结果保真性的良好平衡。
为了获得良好的老照片风格和缺陷修复表现,本发明设计一个双判别器网络结构来辅助修复过程。双判别器结构如图4所示,风格判别器网络对判别器输出的Gram矩阵进行真假性判别,Gram矩阵与图像的风格紧密相关。风格判别器损失函数表示如下:
缺陷判别器对输入的梯度图进行真假性判别,梯度图可以直观的显示出老照片的缺陷情况。缺陷判别器损失函数表示如下:
为了进一步约束修复老照片的真实性,增强修复结果的感知质量,本发明组合内容损失函数、感知损失函数与对抗损失函数共同约束修复的解空间。通过联合双判别器损失函数,获得了良好的感知-失真平衡。
内容损失函数:计算修复的老照片与目标图像之间的平均绝对误差,加速网络收敛过程,约束修复老照片的内容真实性。
感知损失函数:通过感知相似度来提高图像的视觉质量。利用预训练的VGG网络提取包含语义信息的特征,计算修复的老照片特征与目标图像特征的平均绝对误差,更加符合人类视觉感知。
其中,φj(·)表示提取VGG网络第j层特征的函数。
本发明联合三种损失函数作为最终的优化损失目标,表示如下:
本发明设计的双判别器网络结构更加有针对性的关注风格和缺陷的修复情况,通过对抗性训练与联合优化目标取得了良好的缺陷与风格修复表现,进一步增强了老照片修复的真实性与感知表现,细节更加丰富。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.老照片修复方法,其特征在于,由一类属性引导参考先验与生成式先验融合网络处理实现,该网络包括浅层特征提取模块、深层特征编码网络、空间先验特征变换模块、潜在解耦融合模块以及特征解码重建网络;处理步骤如下:
首先由浅层特征提取模块提取参考图像xr的浅层特征fr以及待修复老照xo的浅层特征fo,送入到深层特征编码网络分别进行逐层编码获得具有不同尺度的语义特征与潜在空间编码,其中,待修复老照片与参考图像的潜在编码vo与vr被送入潜在解耦融合模块提取解耦的类属性编码,然后进行类属性融合获得融合潜在编码vs,融合潜在编码vs用来引导空间先验特征变换模块提取生成式先验特征,对参考图像编码特征、待修复老照片特征和生成式先验特征进行空间融合变换,获得第k层融合先验信息的特征ft k与粗修复解码特征fd m被送入特征解码重建网络逐层的进行特征解码,重建修复的老照片y输出。
3.根据权利要求2所述老照片修复方法,其特征在于,所述潜在解耦融合模块获得融合修复后的老照片潜在编码vs的步骤如下:
首先分别提取参考图像潜在编码与老照片潜在编码的类属性编码表示:
其中,Hcla(·),Hcon(·),Hcom(·),Hsmo(·)分别表示提取四种类属性的操作, 分别表示提取的老照片类属性编码,分别表示提取的参考图像类属性编码,然后按照提取的类属性种类进行类属性融合,将参考图像的类属性融合到老照片的类属性中,对老照片的潜在类属性进行修复:
其中,Fcla(·),Fcon(·),Fcom(·),Fsmo(·)表示融合四种潜在类属性的操作, 分别表示融合修复后的老照片潜在类属性编码,然后对获得的潜在类属性编码进行融合获得融合修复后的老照片潜在编码vs:
其中,Fs(·)表示融合潜在类属性编码的操作。
5.根据权利要求4所述老照片修复方法,其特征在于,所述第k层融合先验信息的特征ft k的具体获得步骤如下:
一个映射网络被使用对潜在编码vs进行优化:
zp=Fm(vs)
其中,Fm(·)表示映射网络函数。zp表示优化后的生成式先验潜在编码,然后zp被送入预训练的人像生成式模型中获得生成式先验特征fp:
fp=Mp(zp)
其中,Mp(·)表示封装生成式先验的预训练生成式模型,然后对获得的先验特征进行空间融合变换,首先将老照片编码特征划分为两个部分:
其中,表示提取第k层参考图像编码特征调制参数的函数,表示提取的第k层参考图像编码特征的调制参数,Fw(·),Fb(·)表示提取生成式先验特征调制参数的函数,wp,bp表示提取的生成式先验特征的调制参数;然后将wp,bp与第一部分老照片编码特征进行空间调制变换:
然后拼接两部分空间变换特征,再由潜在编码vs通过注意力网络为拼接后的空间变换特征赋予自适应注意力权重,注意力网络由一系列卷积层(Conv),Relu激活以及Sigmoid函数组成;
其中,Fc(·)表示拼接空间变换特征的函数,Fca(·)表示通道注意力网络。
7.根据权利要求6所述老照片修复方法,其特征在于,该网络设置一个双判别器网络结构辅助修复过程,由风格判别器以及缺陷判别器组成;风格判别器网络对判别器输出的Gram矩阵进行真假性判别,Gram矩阵与图像的风格紧密相关;风格判别器损失函数表示如下:
缺陷判别器对输入的梯度图进行真假性判别,梯度图可直观的显示出老照片的缺陷情况;缺陷判别器损失函数表示如下:
8.根据权利要求7所述老照片修复方法,其特征在于,组合内容损失函数、感知损失函数与对抗损失函数共同约束修复的解空间;通过联合双判别器损失函数,获得了预期的感知-失真平衡内容损失函数:
内容损失函数:计算修复的老照片与目标图像之间的平均绝对误差,加速网络收敛过程,约束修复老照片的内容真实性;
感知损失函数:通过感知相似度来提高图像的视觉质量。利用预训练的VGG网络提取包含语义信息的特征,计算修复的老照片特征与目标图像特征的平均绝对误差,使符合人类视觉感知;
其中,φj(·)表示提取VGG网络第j层特征的函数;
联合三种损失函数作为最终的优化损失目标,表示如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110902109.4A CN113781324B (zh) | 2021-08-06 | 2021-08-06 | 一种老照片修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110902109.4A CN113781324B (zh) | 2021-08-06 | 2021-08-06 | 一种老照片修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113781324A true CN113781324A (zh) | 2021-12-10 |
CN113781324B CN113781324B (zh) | 2023-09-29 |
Family
ID=78836989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110902109.4A Active CN113781324B (zh) | 2021-08-06 | 2021-08-06 | 一种老照片修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781324B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115546017A (zh) * | 2022-11-30 | 2022-12-30 | 天津大学 | 一种多媒体换脸方法及装置 |
CN117876242A (zh) * | 2024-03-11 | 2024-04-12 | 深圳大学 | 眼底图像增强方法、装置、设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
US20200294309A1 (en) * | 2019-03-11 | 2020-09-17 | Beijing University Of Technology | 3D Reconstruction Method Based on Deep Learning |
CN112348743A (zh) * | 2020-11-06 | 2021-02-09 | 天津大学 | 一种融合判别式网络和生成式网络的图像超分辨率方法 |
CN112669247A (zh) * | 2020-12-09 | 2021-04-16 | 深圳先进技术研究院 | 一种用于多任务医学图像合成的先验指导型网络 |
-
2021
- 2021-08-06 CN CN202110902109.4A patent/CN113781324B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
US20200294309A1 (en) * | 2019-03-11 | 2020-09-17 | Beijing University Of Technology | 3D Reconstruction Method Based on Deep Learning |
CN112348743A (zh) * | 2020-11-06 | 2021-02-09 | 天津大学 | 一种融合判别式网络和生成式网络的图像超分辨率方法 |
CN112669247A (zh) * | 2020-12-09 | 2021-04-16 | 深圳先进技术研究院 | 一种用于多任务医学图像合成的先验指导型网络 |
Non-Patent Citations (5)
Title |
---|
DAVID BAU ET AL.: "Semantic Photo Manipulation with a Generative Image Prior", 《ARXIV:2005.07727V2》, pages 1 - 11 * |
PHILLIP ISOLA ET AL.: "Image-to-Image Translation with Conditional Adversarial Networks", 《ARXIV:1611.07004V3》, pages 1 - 17 * |
XINTAO WANG ET AL.: "Towards Real-World Blind Face Restoration with Generative Facial Prior", 《ARXIV:2101.04061V2》, pages 1 - 11 * |
孟丽莎等: "基于密集卷积生成对抗网络的图像修复", 《计算机科学》, pages 202 - 207 * |
张雪菲等: "基于变分自编码器的人脸图像修复", 《计算机辅助设计与图形学学报》, pages 401 - 409 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115546017A (zh) * | 2022-11-30 | 2022-12-30 | 天津大学 | 一种多媒体换脸方法及装置 |
CN115546017B (zh) * | 2022-11-30 | 2023-03-10 | 天津大学 | 一种多媒体换脸方法及装置 |
CN117876242A (zh) * | 2024-03-11 | 2024-04-12 | 深圳大学 | 眼底图像增强方法、装置、设备及可读存储介质 |
CN117876242B (zh) * | 2024-03-11 | 2024-05-28 | 深圳大学 | 眼底图像增强方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113781324B (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A closed-form solution to photorealistic image stylization | |
Lu et al. | Image generation from sketch constraint using contextual gan | |
Lu et al. | Attribute-guided face generation using conditional cyclegan | |
Li et al. | Single image dehazing via conditional generative adversarial network | |
CN108875935B (zh) | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 | |
Jiang et al. | Image inpainting based on generative adversarial networks | |
CN111401216B (zh) | 图像处理、模型训练方法、装置、计算机设备和存储介质 | |
US11790581B2 (en) | Transferring hairstyles between portrait images utilizing deep latent representations | |
CN111489287A (zh) | 图像转换方法、装置、计算机设备和存储介质 | |
CN110689599A (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
US20230245351A1 (en) | Image style conversion method and apparatus, electronic device, and storage medium | |
WO2023072067A1 (zh) | 人脸属性编辑模型的训练以及人脸属性编辑方法 | |
CN113781324A (zh) | 一种老照片修复方法 | |
WO2023151529A1 (zh) | 人脸图像的处理方法及相关设备 | |
WO2024109374A1 (zh) | 换脸模型的训练方法、装置、设备、存储介质和程序产品 | |
CN110874575A (zh) | 一种脸部图像处理方法及相关设备 | |
Hu et al. | Dear-gan: Degradation-aware face restoration with gan prior | |
WO2022166840A1 (zh) | 人脸属性编辑模型的训练方法、人脸属性编辑方法及设备 | |
Liu et al. | Attentive semantic and perceptual faces completion using self-attention generative adversarial networks | |
Gilbert et al. | Disentangling structure and aesthetics for style-aware image completion | |
CN111726621B (zh) | 一种视频转换方法及装置 | |
CN115984949B (zh) | 一种带有注意力机制的低质量人脸图像识别方法及设备 | |
Yu et al. | Stacked generative adversarial networks for image compositing | |
US20230206515A1 (en) | Automatic caricature generating method and apparatus | |
CN117151990A (zh) | 一种基于自注意力编码解码的图像去雾方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |