CN113781376B - 一种基于分治融合的高清人脸属性编辑方法 - Google Patents
一种基于分治融合的高清人脸属性编辑方法 Download PDFInfo
- Publication number
- CN113781376B CN113781376B CN202111085995.2A CN202111085995A CN113781376B CN 113781376 B CN113781376 B CN 113781376B CN 202111085995 A CN202111085995 A CN 202111085995A CN 113781376 B CN113781376 B CN 113781376B
- Authority
- CN
- China
- Prior art keywords
- attribute
- face
- editing
- definition face
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000004927 fusion Effects 0.000 claims abstract description 32
- 239000013598 vector Substances 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims description 7
- 230000008485 antagonism Effects 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000007500 overflow downdraw method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于分治融合的高清人脸属性编辑方法,属于计算机视觉领域。该方法提出了一个包含低清人脸编辑网络与高清人脸图像融合网络的人脸属性编辑框架。先对原始高分辨率图像进行下采样后得到低分辨率的人脸图像,在低清人脸编辑网络中对低分辨率的人脸图像进行属性编辑后上采样至原大小;在高清人脸图像融合网络中对原始高分辨率图像与上采样的人脸图像进行切片,利用双通道编码器编码,再与属性差值向量融合,之后在解码器中解码得到结果切片,最后按位置拼接得到高清人脸图像。本发明提出的高清人脸属性编辑方法被验证具有较高的图像生成效率且生成的图像具有较高质量。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于分治融合的高清人脸属性编辑方法。
背景技术
人脸属性(如肤色,胡子,刘海)是人脸的一个的重要特征。人脸属性编辑的主要目的是用新属性更新替换人脸的旧属性,是一个很广的应用领域,不仅可以用于辅助其他诸如人脸识别等相关的任务,也可以独立成若干新的任务,在人机交互,娱乐社交领域有广泛应用,传统的人脸识别和人脸属性预测任务。不同于低分辨率人脸图像编辑的巨大成功,针对高分辨率的图像的人脸属性编辑研究的较少。
现有的人脸编辑方法如STGAN,随着图片分辨率的线性增加,其显存消耗的增长模式明显快于线性增长。此外,不同分辨率图像使用的框架往往是一样的,而在实际应用中,对于更高分辨率的图像来言更深的网络是不可或缺的,因此,显存消耗的增长实际上会更严重,甚至达到指数增长,因此在一些移动场景(如智能手机、AR/VR眼镜)中,由于计算和内存资源有限,往往导致编辑的效果的不理想甚至无法进行编辑。因此,开发一套适合高分辨率图片的属性编辑网络显得十分必要。
发明内容
本发明的目的在于针对现有技术中对于处理高分辨率人脸图片时计算和内存资源耗尽的问题,提供一种基于分治融合的高清人脸属性编辑方法。
本发明的目的是通过以下技术方案来实现的:
步骤一:利用低清人脸编辑网络对下采样后的原始高清人脸图像进行第一次人脸属性编辑,再将编辑后的人脸图像上采样恢复至原始尺寸;
步骤二:将原始高清人脸图像与步骤一获得的上采样后的低清人脸编辑后的图像做相同切片,将相同位置的切片差与低清人脸编辑后的图像切片输入高清人脸融合网络中进行第二次人脸属性编辑;
所述的高清人脸融合网络包括双通道多层编码器和单通道多层解码器,所述的相同位置的切片差与低清人脸编辑后的图像切片在双通道多层编码器中分别编码,编码结果按通道相加并与属性差值向量融合,再输入到单通道多层解码器中进行解码,得到第二次人脸属性编辑后的切片;所述的属性差值向量是由人脸图像的目标属性向量和源属性向量作差得到的;
步骤三、将高清人脸融合网络输出的切片结果按位置拼接,得到最终的含新属性的人脸图像。
本发明的有益效果是,解决了现有人脸属性编辑模型因尺寸过大而只能处理低分辨率人脸图像的问题,在大大降低显存消耗的同时,也保证了属性编辑后的人脸图像拥有高分辨率,有利于搭载至计算和内存资源有限的设备。
附图说明
图1是基于注意力机制的低清人脸编辑网络框架基本结构图。
图2是基于分治融合的高清人脸编辑网络框架基本结构图。
图3是加权平均融合方法的示意图。
图4是本方法的实际应用效果图
具体实施方式
下面根据附图详细说明本发明。
本发明提出一种基于分治融合的高清人脸属性编辑方法,基于一种新的人脸属性编辑框架实现,包含了如图2所示的低清人脸编辑网络与高清人脸图像融合网络的人脸属性编辑框架。先对原始高分辨率图像进行下采样后得到低分辨率的人脸图像,在低清人脸编辑网络中对低分辨率的人脸图像进行属性编辑后上采样至原大小;在高清人脸图像融合网络中对原始高分辨率图像与上采样的人脸图像进行切片,利用双通道编码器编码后再与属性差值向量融合,之后在解码器中解码得到结果切片,最后按位置拼接得到高清人脸图像。
如图2所示的框架结构,本发明的实施主要包括以下步骤:
步骤一:利用低清人脸编辑网络对下采样后的原始高清人脸图像进行第一次人脸属性编辑,再将编辑后的人脸图像上采样恢复至原始尺寸;
步骤二:将原始高清人脸图像与步骤一获得的上采样后的低清人脸编辑后的图像做相同切片,将相同位置的切片差与低清人脸编辑后的图像切片输入高清人脸融合网络中进行第二次人脸属性编辑;
所述的高清人脸融合网络包括双通道多层编码器和单通道多层解码器,所述的相同位置的切片差与低清人脸编辑后的图像切片在双通道多层编码器中分别编码,编码结果按通道相加并与属性差值向量融合,再输入到单通道多层解码器中进行解码,得到第二次人脸属性编辑后的切片;所述的属性差值向量是由人脸图像的目标属性向量和源属性向量作差得到的;
步骤三、将高清人脸融合网络输出的切片结果按位置拼接,得到最终的含新属性的人脸图像。
下面分别对本发明提出的低清人脸编辑网络、高清人脸融合网络的结构、运算过程及训练过程进行介绍。
(一)低清人脸编辑网络
如图1所示,本发明提出一种ATGAN模型进行低清人脸编辑,对原始高清人脸图像Xi(下标i表示input)下采样至合适大小的低分辨率图像X′i,将X′i作为低清人脸编辑网络的输入进行属性编辑得到第一次人脸属性编辑后的图像X′t(下标t表示temp):
其中,表示低清人脸编辑网络,/>表示低清人脸编辑网络中的编码器,表示低清人脸编辑网络中的解码器。Ad表示目标图像属性和原图像属性的差值:
其中,表示人脸图像的目标属性向量,/>表示原始高清人脸图像Xi的源属性向量。每张图片的属性由一个0/1向量表示,向量的某个位置表示某个具体属性,若有该属性,在该位置的值为1,反之为0。
在本发明的一项具体实施中,所述的低清人脸编辑网络的训练过程为:将所述的第一次人脸属性编辑后得到的人脸图像经过卷积处理后分别作为判别器和属性分类器的输入,利用多任务学习的方式对低清人脸编辑网络进行训练;所述的多任务损失包括重建损失、对抗损失、属性损失和分类器损失。具体为:
1、使用属性分类器C来约束生成的图像X't拥有所需的属性即计算公式如下:
其中,pdata和pattr表示真实图像的分布和属性的分布,Ci(X′t)表示第i属性的预测,是所有属性的二元交叉熵损失的总和,/>表示生成器分类损失,/>表示取期望,/>表示目标属性向量/>的第i属性,att_n表示属性数量。
2、解码器需要学习以原始属性为条件,通过解码潜在表示z来重建输入图像,学习目标为:
其中,表示重建损失,下角标1表示采取的损失表现形式为L1损失,/>表示低清人脸编辑网络中的编码器,/>表示低清人脸编辑网络中的解码器
3、还引入了生成器(包括编码器和解码器)和鉴别器之间的对抗学习,使生成的图像具有视觉真实感。鉴别器和生成器的对抗性损失公式如下:
对抗性损失通过WGAN-GP进行优化,表示生成器损失,/>表示鉴别器损失。DL≤1表示判别器需要保证Lipschitz连续,且Lipschitz常数不超过1。
(二)高清人脸融合网络编码器
采用分而治之的思想,将上采样后的低清人脸编辑后图像Xt与原始高清人脸图像Xi进行切片,如图2中位于第二条虚线上方的部分,得到Xt和Xi两个图片集合:
{Xt[m,n]|m=1,2,...k1 n=1,2,...,k2}
{Xi[m,n]|m=1,2,...k1 n=1,2,...,k2}
其中,k1,k2分别表示需要裁剪的横向块数和列向块数,Xt[m,n]表示上采样后的第一次人脸属性编辑后的图像中的切片,Xi[m,n]表示原始高清人脸图像的切片。为从原始高清图像编码器中获取原始图像切片中的分辨率信息,在上采样图像编码器中获取对应位置的上采样图像切片中的属性信息,分别将Xt[m,n]和Xi[m,n]用不同的编码器编码(双通道编码器的参数不同),即:
分别表示高清人脸融合网络中的第一通道编码器和第二通道编码器。
(三)高清人脸融合网络解码器
高清人脸融合网络中的解码器模型与ATGAN模型(图1)一致,Xo[m,n]为最终编辑的高清大图结果Xo的第m行块第n列块位置切片,即:
其中,表示高清人脸融合网络中的解码器,[…,…]表示按通道连接。
(四)加权平均融合方法
本发明提出一种加权平均融合的方法,如图3所示:将双通道多层编码器输出的编码后的切片图像采用加权平均法进行融合,假设两张需要融合的图片分别为image1、image2,如图3所示他们有一个公共的区域region2,区别在于颜色。现在需要将2张图片融合,对于融合的图片,只能存在一个,该region2某个点计算方式为:
其中,表示融合之后新的region2,/>和/>分别表示image1和image2的region2。
weight为权重,计算公式如下:
其中,x为切片在原始高清人脸图像中的坐标,k表示权重。。
最后通过将所有得到的切片图像集合{Xo[m,n]|m=1,2,…k1,n=1,2,…,k2},按照上述融合方法依次融合,消除切片带来的网格效应。
(五)注意力单元ATU
如图2所示,解码器的相邻两层之间引入注意力单元,所述的注意力单元的输入为解码器第l层输出的特征向量与编码器第p-l层输出的特征向量,注意力单元的输出作为解码器第l+1层的输入,解码器最后一层的输出作为编辑后的人脸图像;p为编码器和解码器的层数。在多层解码器的每一层输入中均加入属性差值向量。
ATU的计算公式为:
将注意力单元的两个输入表示为fenc∈RW×H×C和fdec∈RW×H×C,其中fenc为编码层输出的特征向量,fdec为解码层输出的特征向量;
将fenc和fdec的维度变为(W×H)×C,其中W和H表示特征图的长和宽,C表示通道数量;
计算注意力机制中W×H个键值和查询值:
ki=Wk*fenc
qi=Wq*fdec
1≤i≤(W×H)
其中,ki和qi表示第i个键值和查询值,Wk和Wq表示1×1卷积核;
计算相似度矩阵α:
其中,Wt表示1×1卷积核,ReLU(.)表示relu激活函数,Sigmoid(.)表示sigmoid激活函数;αij是相似度矩阵α中的元素,表示编码层的第j个通道对解码层的第i个通道的影响程度;
计算注意力单元的输出PA:
PA=α·fenc
(六)高清人脸融合网络的损失函数
在本发明的一项具体实施中,所述的高清人脸融合网络的训练过程为:将步骤三得到的最终的含新属性的人脸图像经过卷积处理后分别作为判别器和属性分类器的输入,利用多任务学习的方式对高清人脸融合网络进行训练;所述的多任务损失包括重建损失、对抗损失、属性损失和分类器损失。其中属性分类损失、对抗损失与低清人脸属性编辑网络中的一致,重建损失学习的目标为:
其中,
这里本发明采用L1 loss来抑制模糊,Xo[m,n]1表示高清人脸融合网络输出的切片结果,upsample(.)表示上采样。
图4展示了本实施例对512×512人脸图像的实施效果图,分别编辑了六种人脸属性,分别为变黑发、眉毛变厚、白皙、男性化、加八字胡、加刘海。可见在不同属性的编辑中均得到了高清、自然的效果,拥有高分辨率,有利于搭载至计算和内存资源有限的设备。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (9)
1.一种基于分治融合的高清人脸属性编辑方法,其特征在于,包括以下步骤:
步骤一:利用低清人脸编辑网络对下采样后的原始高清人脸图像进行第一次人脸属性编辑,再将编辑后的人脸图像上采样恢复至原始尺寸;
步骤二:将原始高清人脸图像与步骤一获得的上采样后的低清人脸编辑后的图像做相同切片,将相同位置的切片差与低清人脸编辑后的图像切片输入高清人脸融合网络中进行第二次人脸属性编辑;
所述的高清人脸融合网络包括双通道多层编码器和单通道多层解码器,所述的相同位置的切片差与低清人脸编辑后的图像切片在双通道多层编码器中分别编码,编码结果按通道相加并与属性差值向量融合,再输入到单通道多层解码器中进行解码,得到第二次人脸属性编辑后的切片;所述的属性差值向量是由人脸图像的目标属性向量和源属性向量作差得到的;
所述双通道多层编码器输出的编码后的切片图像采用加权平均法进行融合,首先确定双通道输出的切片图像image1,image2的公共区域region2,对公共区域的像素点重新进行计算:
其中,表示融合之后的新的公共区域,/>和/>分别表示image1和image2的原始公共区域;weight为权重,计算公式为:
其中,x为切片在原始高清人脸图像中的像素点坐标,k表示权重;
步骤三、将高清人脸融合网络输出的切片结果按位置拼接,得到最终的含新属性的人脸图像。
2.根据权利要求1所述的基于分治融合的高清人脸属性编辑方法,其特征在于,所述的低清人脸编辑网络的训练过程为:将所述的第一次人脸属性编辑后得到的人脸图像经过卷积处理后分别作为判别器和属性分类器的输入,利用多任务学习的方式对低清人脸编辑网络进行训练;所述的多任务学习的损失包括重建损失、对抗损失、属性损失和分类器损失。
3.根据权利要求1所述的基于分治融合的高清人脸属性编辑方法,其特征在于,所述的高清人脸融合网络的训练过程为:将步骤三得到的最终的含新属性的人脸图像经过卷积处理后分别作为判别器和属性分类器的输入,利用多任务学习的方式对高清人脸融合网络进行训练;所述的多任务学习的损失包括重建损失、对抗损失、属性损失和分类器损失。
4.根据权利要求1所述的基于分治融合的高清人脸属性编辑方法,其特征在于,在单通道多层解码器的相邻两层之间引入注意力单元,所述的注意力单元的输入为解码器第l层输出的特征向量与编码器第p-l层输出的特征向量,注意力单元的输出作为解码器第l+1层的输入,解码器最后一层的输出作为编辑后的人脸图像;p为编码器和解码器的层数。
5.根据权利要求4所述的基于分治融合的高清人脸属性编辑方法,其特征在于,在单通道多层解码器的每一层输入中均加入属性差值向量。
6.根据权利要求5所述的基于分治融合的高清人脸属性编辑方法,其特征在于,所述的低清人脸编辑网络采用编码-解码网络,且解码器结构与高清人脸融合网络中的单通道多层解码器结构相同。
7.根据权利要求6所述的基于分治融合的高清人脸属性编辑方法,其特征在于,所述的低清人脸编辑网络表示为:
其中,X′t表示第一次人脸属性编辑后的图像,X′i表示下采样后的原始高清人脸图像,Ad表示属性差值向量,表示人脸图像的目标属性向量,/>表示原始高清人脸图像Xi的源属性向量,/>表示低清人脸编辑网络,/>表示低清人脸编辑网络中的编码器,表示低清人脸编辑网络中的解码器。
8.根据权利要求4所述的基于分治融合的高清人脸属性编辑方法,其特征在于,所述的高清人脸融合网络表示为:
{Xt[m,n]|m=1,2,...k1 n=1,2,...,k2}
{Xi[m,n]|m=1,2,...k1 n=1,2,...,k2}
其中,k1,k2分别表示切片后的横向块数和列向块数,Xt[m,n]表示上采样后的第一次人脸属性编辑后的图像中的切片,Xi[m,n]表示原始高清人脸图像的切片,表示编码器第一通道,/>表示编码器第二通道,[…,…]表示按通道连接,Ad表示属性差值向量,表示解码器,Xo[m,n]表示高清人脸融合网络输出的切片结果。
9.根据权利要求4所述的基于分治融合的高清人脸属性编辑方法,其特征在于,所述的注意力单元计算公式为:
将注意力单元的两个输入表示为fenc∈RW×H×C和fdec∈RW×H×C,其中fenc为编码层输出的特征向量,fdec为解码层输出的特征向量;
将fenc和fdec的维度变为(W×H)×C,其中W和H表示特征图的长和宽,C表示通道数目;
计算注意力机制中W×H个键值和查询值:
ki=Wk*feenc
qi=Wq*fdec
1≤i≤(W×H)
其中,ki和qi表示第i个键值和查询值,Wk和Wq表示1×1卷积核;
计算相似度矩阵α:
其中,Wt表示1×1卷积核,ReLU(.)表示R激活函数,Sigmoid(.)表示sigmoid激活函数;αij是相似度矩阵α中的元素,表示编码层的第j个通道对解码层的第i个通道的影响程度;
计算注意力单元的输出PA:
PA=α·fenc。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085995.2A CN113781376B (zh) | 2021-09-16 | 2021-09-16 | 一种基于分治融合的高清人脸属性编辑方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085995.2A CN113781376B (zh) | 2021-09-16 | 2021-09-16 | 一种基于分治融合的高清人脸属性编辑方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113781376A CN113781376A (zh) | 2021-12-10 |
CN113781376B true CN113781376B (zh) | 2024-02-23 |
Family
ID=78844526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111085995.2A Active CN113781376B (zh) | 2021-09-16 | 2021-09-16 | 一种基于分治融合的高清人脸属性编辑方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781376B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036518A (zh) * | 2022-04-29 | 2023-11-10 | 北京字跳网络技术有限公司 | 图像生成方法、设备、存储介质及程序产品 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368662A (zh) * | 2020-02-25 | 2020-07-03 | 华南理工大学 | 一种人脸图像属性编辑方法、装置、存储介质及设备 |
CN111932444A (zh) * | 2020-07-16 | 2020-11-13 | 中国石油大学(华东) | 基于生成对抗网络的人脸属性编辑方法及信息处理终端 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109745062B (zh) * | 2019-01-30 | 2020-01-10 | 腾讯科技(深圳)有限公司 | Ct图像的生成方法、装置、设备及存储介质 |
-
2021
- 2021-09-16 CN CN202111085995.2A patent/CN113781376B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368662A (zh) * | 2020-02-25 | 2020-07-03 | 华南理工大学 | 一种人脸图像属性编辑方法、装置、存储介质及设备 |
CN111932444A (zh) * | 2020-07-16 | 2020-11-13 | 中国石油大学(华东) | 基于生成对抗网络的人脸属性编辑方法及信息处理终端 |
Also Published As
Publication number | Publication date |
---|---|
CN113781376A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | DEA-Net: Single image dehazing based on detail-enhanced convolution and content-guided attention | |
CN113177882B (zh) | 一种基于扩散模型的单帧图像超分辨处理方法 | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN113934890B (zh) | 一种文字自动生成场景视频的方法及系统 | |
CN109996073B (zh) | 一种图像压缩方法、系统、可读存储介质及计算机设备 | |
CN115311720B (zh) | 一种基于Transformer的deepfake生成方法 | |
CN113362242B (zh) | 基于多特征融合网络的图像修复方法 | |
CN113724136B (zh) | 一种视频修复方法、设备及介质 | |
CN112233012A (zh) | 一种人脸生成系统及方法 | |
CN110830808A (zh) | 一种视频帧重构方法、装置及终端设备 | |
CN116843830A (zh) | 一种基于自监督学习的掩码图像建模算法 | |
CN115908805A (zh) | 基于卷积增强交叉自注意力变形器的u型图像分割网络 | |
DE102021109050A1 (de) | Durch ein neuronales generative adversarial netzwerk unterstützte videokompression und -übertragung | |
CN113781376B (zh) | 一种基于分治融合的高清人脸属性编辑方法 | |
CN116205820A (zh) | 图像增强方法、目标识别方法、设备及介质 | |
CN115424310A (zh) | 一种面向人脸重演中表情分离任务的弱标注学习方法 | |
Li et al. | Image super-resolution reconstruction based on multi-scale dual-attention | |
CN116523985B (zh) | 一种结构和纹理特征引导的双编码器图像修复方法 | |
CN117522674A (zh) | 一种联合局部和全局信息的图像重建系统及方法 | |
CN116451398A (zh) | 一种基于条件扩散模型的城市路网布局设计方法 | |
CN114283181B (zh) | 一种基于样例的动态纹理迁移方法及系统 | |
CN116362995A (zh) | 一种基于标准先验的牙齿图像修复方法和系统 | |
US20230186608A1 (en) | Method, device, and computer program product for video processing | |
CN115690238A (zh) | 图像生成及模型训练方法、装置、设备和存储介质 | |
CN113079391A (zh) | 一种人像图像混合处理方法、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |