CN114820286B - 自适应特征融合恢复及混合妆容迁移重组方法 - Google Patents
自适应特征融合恢复及混合妆容迁移重组方法 Download PDFInfo
- Publication number
- CN114820286B CN114820286B CN202210117527.7A CN202210117527A CN114820286B CN 114820286 B CN114820286 B CN 114820286B CN 202210117527 A CN202210117527 A CN 202210117527A CN 114820286 B CN114820286 B CN 114820286B
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- makeup
- network
- migration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005012 migration Effects 0.000 title claims abstract description 95
- 238000013508 migration Methods 0.000 title claims abstract description 95
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000004927 fusion Effects 0.000 title claims abstract description 39
- 238000005215 recombination Methods 0.000 title claims abstract description 10
- 230000006798 recombination Effects 0.000 title claims abstract description 10
- 238000011084 recovery Methods 0.000 title claims abstract description 9
- 238000000605 extraction Methods 0.000 claims abstract description 27
- 230000001815 facial effect Effects 0.000 claims abstract description 19
- 230000008521 reorganization Effects 0.000 claims abstract description 14
- 238000005286 illumination Methods 0.000 claims abstract description 10
- 239000013598 vector Substances 0.000 claims description 27
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 20
- 230000009467 reduction Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 239000002537 cosmetic Substances 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 10
- 125000004122 cyclic group Chemical group 0.000 claims description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims description 2
- 230000001172 regenerating effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 31
- 238000005516 engineering process Methods 0.000 abstract description 12
- 230000036544 posture Effects 0.000 abstract description 6
- 238000012549 training Methods 0.000 description 3
- 230000008485 antagonism Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种自适应特征融合恢复及混合妆容迁移重组方法,本发明主要实现了基于自适应特征融合模块的面部特征恢复技术、根据求解加权最小二乘WLS模型选择引导图像、搭建特征提取网络以及风格迁移网络进行卸妆操作、结合生成式对抗网络及变分自编码器网络各自优势实现基于参考带妆图像的妆容迁移重组。本发明主要解决了由于姿态或光照不同、背景及人物姿势的差异性、输入照片的清晰度、尺寸大小以及自带妆容对妆容迁移重组效果产生的影响。通过结合生成式对抗网络和变分自编码器网络技术进行妆容重组,达到较好的妆容迁移效果。
Description
技术领域
本发明涉及计算机图像处理领域,尤其涉及于一种基于自适应空间特征融合的注意力机制的面部特征融合恢复技术以及结合生成式对抗网络和变分自编码器生成网络技术的妆容重组方法。
背景技术
在计算机图像处理领域,妆容迁移作为风格迁移的分支,利用生成式对抗网络能较好地实现从源图进行妆容特征与人脸特征的分离及在目标图上进行妆容迁移的妆容重组,具有一定程度的鲁棒性,却容易受到参考图像与源图像间存在的背景及人物姿势差异性的影响。为了优化妆容迁移效果,从成对的妆容迁移到引入循环可持续损失函数进行不成对的妆容迁移。
在现有技术中,虽有PSGAN妆容迁移论文中提出的AMM模块来解决源和参考图像的姿势和表情存在的差异性对效果带来的影响,但是基于参考图像进行的妆容迁移,妆容特征来自特定图像,选择的参考图像是否恰当对于最终效果还是具有一定影响。况且在如今大数据化时代,数据集中可供当作参考图像的图像种类繁多,如何高效地挑出能达到最优妆容迁移效果的参考图像显得较为重要。
除此之外,输入图像的清晰度以及输入图像是否自带妆容对于妆容迁移的效果也有较大影响,对于妆容的效果体现有一定干扰作用。目标图像的尺寸及清晰程度如果与参考图片不一致,也会使得实验效果不尽人意。实验表明,采用生成式对抗网络进行全局的妆容迁移效果较好,但是局部的细节体现不如采用变分自编码器生成网络技术。
发明内容
本发明的目的是:提供一种基于自适应空间特征融合的注意力机制的面部特征融合恢复技术以及结合生成式对抗网络和变分自编码器生成网络技术的妆容重组方法。
为了达到上述目的,本发明的技术方案提供了一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,包括以下步骤:
步骤1、获取输入图像,输入图像中包括样本图像集一张低清晰度的原始输入图像Id,其中,/>表示第k张样本图像,K表示样本图像的总数;
步骤2、从样本图像集中获得与原始输入图像Id相似度最高的图像样本图像作为引导图像;
步骤3、将引导图像与原始输入图像Id输入多个级联的自适应特征融合模块,由最后一级自适应特征融合模块输出具有较高还原清晰度的图像其中,每一级的自适应特征融合模块基于以下步骤实现:
步骤301、得到原始输入图像Id的特征Fd后进行降维处理;
步骤302、得到引导图像的特征Fg,w,a后进行降维处理;
步骤303、通过提取二进制图像的特征得到标记点特征,其中,提取所有输入图像的M个特征点后获得二进制图像;
步骤304、对步骤303中所得特征进行降维处理;
步骤305、将步骤301、步骤302以及步骤303所得到的维度一致的特征进行连接;
步骤306、将通过步骤305获得的经过连接的特征作为带偏置卷积网络层的输入,在带偏置卷积网络层中引入注意力机制,利用引入注意力机制的带偏置卷积网络层融合所输入的特征;
步骤307:将通过步骤302获得的引导图像的特征Fg,w,a作为卷积层的输入;
步骤308:将经过步骤307处理后的特征与通过步骤301获得的特征进行减法运算后,送入残差结构进行降维处理;
步骤309:将经过步骤308处理的特征与通过步骤306所获得的特征进行乘法运算后,再次送入残差结构进行降维处理;
步骤310:将通过步骤301获得的原始输入图像Id的特征作为卷积层的输入;
步骤311:将经过步骤310处理后的特征与经过步骤309处理后的特征进行加法运算后和通过步骤309得到的结果共同输入包含残差块的重建子网处理得到输出结果;
在最后一级自适应特征融合模块中,通过包含残差块的重建子网得到最终的具有较高还原清晰度的图像
步骤4、若图像自带妆容,则进入步骤5进行妆容迁移;若图像/>不带妆容,则进入步骤6;
步骤5、将图像输入IDNet特征提取网络,将IDNet特征提取网络的输出输入STNet风格迁移网络,由STNet风格迁移网络产生卸妆后的输出图像/>
步骤6、利用风格迁移网络处理卸妆后的输出图像或直接处理不带妆容的具有较高还原清晰度的图像/>将待风格迁移网络处理的图像进一步定义为素颜图像x∈[0,1]H×W×3;将步骤2获得的引导图像或者用户自定义的带妆容图像作为参考带妆图像y∈[0,1]H×W×3;风格迁移网络先采用GAN生成式对抗网络对输入的素颜图像x以及参考带妆图像y进行基于DMT的插值妆容迁移,通过控制权重大小α∈[0,1]进行插值妆容迁移,达到调节妆容浓淡程度的目的;再利用VAE变分自编码器进行局部优化。
优选地,在所述步骤2之后,并在所述步骤3之前还包括:利用MLS滑动最小二乘法和AdaIN模块在特征空间中对引导图像进行空间对齐和照明转换。
优选地,利用MLS滑动最小二乘法及AdaIN模块对引导图像进行处理包括以下步骤:
将选定的引导图像的特征和标记点分别表示为Fg、Lg,原始输入图像Id的特征和标记点记作Fd、Ld,引入位置对角矩阵Wp,对于Wp对角线上第m个元素Wp(m,m)有其中,/>表示原始输入图像的第m个标记点;根据公式/>得到位置仿射矩阵Mp,/>为Ld的齐次表示,然后进行双线性插值后得到引导图像根据输入图像的扭曲特征,记作Fg,w;
通过AdaIN模块将经过MLS处理后的扭曲特征Fg,w转化为原始输入图像Id的风格,即光照效果,合成具有原始输入图像Id风格的输出图像,从而经过AdaIN模块处理后得到特征Fg,w,a和原始输入图像Id的特征Fd在空间和风格上图像对齐。
优选地,所述步骤2包括以下步骤:
运用人脸特征点检测,对于样本图像集中的每张样本图像以及原始输入图像Id,检测出M个特征点;
分别计算输入原始输入图像Id与样本图像集中各样本图像的对应特征点之间的加权仿射距离之和:设输入原始输入图像Id与样本图像/>的所有M个特征点的加权仿射距离之和为/>则有/>式中,wm为原始输入图像Id与样本图像/>中第m个特征点的加权仿射距离,wm为赋予第m个特征点的权重,根据图像间表情姿势差异,给每个特征点赋予不同的权重;
列举所有样本图像,在前向传播中得到M个特征点与原始输入图像Id对应特征点间具有最小仿射距离和的样本图像
引入辅助损失,通过反向传播算法更新特征点权重值,反复迭代后,找出样本图像集中最佳的样本图像作为引导图像。
优选地,将图像定义为带妆容的输入图像yr,则所述步骤5包括以下步骤:
步骤501、将输入图像yr输入IDNet特征提取网络,IDNet特征提取网络利用编码瓶颈结构区分输入图像yr中的妆容特征和人脸特征,获得输入图像yr的视觉特征图Vr∈RC ×H×W;
步骤502、视觉特征图Vr在IDNet特征提取网络内经过1×1卷积层后得到人脸特征信息在IDNet特征提取网络内不断沿着通道维度扩展重复从而产生特征张量/>
步骤503、将视觉特征图Vr以及特征张量输入STNet风格迁移网络;
STNet风格迁移网络运用编码瓶颈结构及解码瓶颈结构,其编码部分结构与IDNet特征提取网络类似,但参数不同。STNet风格迁移网络的编码部分采用不带仿射参数的IN即Instance Normalization归一化算法,使得视觉特征图Vr正态分布。卸妆后特征图由公式/>计算得出,其中,/>和/>为步骤502中从IDNet特征提取网络中提取的特征张量。卸妆后特征图/>送入STNet风格迁移网络后续解码部分,最终获得卸妆后的输出图像/>
优选地,步骤6中,所述GAN生成式对抗网络包括人脸特征编码器、妆容编码器、解码器和判别器,则利用所述GAN生成式对抗网络进行插值妆容迁移具体包括以下步骤:
步骤601:获取素颜图像x;
步骤602:基于素颜图像x获取人脸特征Ei,采用人脸特征编码器对人脸特征进行编码;
步骤603:经过人脸特征编码器处理得到人脸特征码ix;
步骤604:获取参考带妆图像y;
步骤605:基于参考带妆图像y获取妆容特征Em,采用妆容特征编码器对妆容特征Em进行编码;
步骤606:经过妆容特征编码器处理得到妆容特征码my;
步骤607:将妆容特征码my和人脸特征码ix输入解码器;
步骤608:解码器生成重组后的带妆容图像xs,带妆容图像xs再次被分离为人脸特征与妆容特征;
步骤609:将步骤608获得的人脸特征输入人脸特征编码器,再次生成人脸特征码
步骤610:将步骤608获得的妆容特征输入妆容特征编码器,再次生成妆容特征码
步骤611:由解码器生成重组后妆容图像xf,式中,α∈[0,1]表示权重,权重越大表示妆容的浓度越大,G(·)为解码器函数。
步骤612:获得素颜图像x;
步骤613:获得重组后妆容图像xf;
步骤614:将素颜图像x以及重组后妆容图像xf输入判别器后,由判别器输出判别结论,若素颜图像x与重组后妆容图像xf对应同一个用户,则判别器输出为真,将重组后妆容图像xf作为GAN生成式对抗网络的最终输出,若素颜图像x与重组后妆容图像xf对应不是同一个用户,则判别器输出为假,则返回步骤步骤601,直至判别器输出为真。
优选地,步骤6中,VAE变分自编码器对重组后妆容图像xf进行妆容局部细节优化,具体包括以下步骤:
S601:获得获取重组后妆容图像xf以及参考带妆图像y,将重组后妆容图像xf定义为源图像Ιx,将参考带妆图像y定义为参考图像Ιy;
S602:将源图像Ιx和参考图像Ιy分别嵌入两个隐向量Lx、Ly,Lx可分解为人脸特征向量Fx和妆容特征向量Mx,Ly可分解为人脸特征向量Fy和妆容特征向量My,其中,运用一个转换矩阵W从Lx、Ly提取人脸特征向量Fx、Fy,运用一个转换矩阵Ι-W从Lx、Ly中提取妆容特征向量Mx、My,Ι包括源图像Ιx和参考图像Ιy;
基于Parsing Mask提取三个化妆品覆盖的关键脸部部位与妆容特征,分别为底妆、眼影和唇彩,在隐空间中进一步将Lx、Ly进行分解,其中,唇部特征向量和/>经过转换矩阵W依次分解为/>与/>以及/>与/>眼部特征向量/>和/>经过转换矩阵W依次分解为/>与/>以及/>与/>脸部特征向量/>和/>经过转换矩阵W依次分解为/>与/>以及/>与/>
然后,和/>进行加法操作,/>和/>进行加法操作,/>和/>进行加法操作;
S603:将通过步骤S602获得的输出输入进入解码部分,获得最终的输出结果。
优选地,步骤6中,为了保持脸部和妆容的信息,引入循环一致性损失函数,如下所示:
Lcyc=‖LyW-Fx‖2+‖Ly(I-W)-My‖2
Ly为或/>Fx为/>或/>My为/>或/>对VAE变分自编码器进行训练时,使循环一致性损失函数收敛。
在本发明所公开的技术方案中:首先输入像素较低图像Id,基于系列样本图像选出与输入图像相似度最高的图像作为引导;然后按相似度从高至低排列,提供可自行选择的多张进行混合妆容迁移的图像;对目前涉及到的图像均进行双立方采样至256×256尺寸;利用MLS和AdaIN在特征空间中对引导图像进行空间对齐和照明转换,为防止对齐出错,因此本发明采用了MLS滑动最小二乘法对齐,而AdaIN模块则用输入图像的均值和标准差作为仿射参数,将光照效果当作一种图像风格,其可将引导图像的特征转化为输入图像的风格;接下来采用自适应特征融合模块以及注意力区域逐步融合转化后的引导图像和特征;经过包含残差块的重建子网得到最终输出较为清晰的图像;得到清晰图像后,为了妆容迁移更好的效果,搭建特征提取网络提取特征信息,和输入图片一起作为风格迁移网络的输入,从而输出卸妆后效果图;在编码部分,采用不带仿射参数的正则化算法从而获得正态分布的特征,不断更新视觉特征图,最终产生卸妆后的图像;接下来选择引导照片作为参考照片,进行基于DMT的插值妆容迁移;将生成的图像分解为两部分,人脸特征及妆容风格;然后分别获得对应的人脸特征码,根据此生成器生成妆容特征码,同理从带妆的图像提取妆容特征,获得妆容特征码;将特征码乘以权重,权重越大表示妆容的浓度越大;接着将妆容特征与源图像的人脸特征相结合生成重组后妆容;重组后的妆容再分解,依次生成对应的特征码;最后将重组妆容作为判别器的输入,将图片分类,不断训练;接下来运用变分自编码器生成网络技术原理将图像进行局部优化;将原引导图像当作参考图像,将经过上一步骤生成式对抗网络产生的照片嵌入隐空间,在隐空间利用变分自解码器优化局部妆容细节。
通过使用本发明不仅能高效地挑出能达到最优妆容迁移效果的参考图像,一定程度上通过对图像的处理解决了输入图像的清晰度以及是否自带妆容对于核心模块妆容迁移的影响效果,并且由于结合了生成式对抗网络和变分自编码器网络技术进行妆容重组,能够达到较好的妆容迁移效果。
本发明与现有技术相比,主要创新点体现在:
1)为了防止参考图像与输入图像之间由于姿态或光照不同,考虑到引导照片和输入图像存在的背景及人物姿势仍然存在的一定差异性,在不同情况下作为主要参照,来重建图像的选择不同,采用AdaIN模块以及注意力区域来引导进行渐进的融合,采用了四个自适应特征融合模块,从而较大地提高了图像处理的鲁棒性;
2)考虑到输入照片的清晰度、尺寸大小、自带妆容对妆容迁移产生的影响,引入特征提取网络以特征矩阵的方式提取特征信息,并作为风格迁移网络的输入,不断生成更新视觉特征图,最终得到图像卸妆后效果;
3)本发明考虑到结合GAN和VAE的优势,GAN进行全局妆容迁移,通过控制参数大小进行插值妆容迁移,VAE进行局部优化。同时引入循环一致性损失函数,提高局部妆容迁移效果。
附图说明
图1示出了本发明提供的面部特征融合恢复技术以及引导图像的选择的具体实现流程图;
图2示出了图1所示流程图中自适应空间特征融合的具体实现;
图3示出了运用编码瓶颈结构搭建IDNet特征提取网络以及STNet风格迁移网络实现卸妆功能的具体实现流程图;
图4示出了基于生成式对抗网络原理实现插值妆容迁移的生成器具体实现流程;
图5示出了基于生成式对抗网络原理实现插值妆容迁移的判别器具体实现流程;
图6示出了基于变分自编码器生成网络技术原理实现局部妆容迁移细节优化的具体流程。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
为了防止输入图像的清晰度以及存在的背景或人物姿势及表情差异对妆容迁移效果造成的影响,本发明提供了面部特征融合恢复实现方法以及一种对于能达到相对最优妆容迁移效果的引导图像的具体选择的实现方式,包含以下步骤:
参见图1所示,本发明实现基于自适应特征融合模块的面部特征恢复技术以及根据求解加权最小二乘WLS模型选择引导图像,从一系列样本图像选出与低清晰度的原始输入图像相似度最高的样本图像作为引导图像,具体流程包括以下步骤:
S101:获取输入图像,输入图像中包括样本图像集一张低清晰度的原始输入图像Id以及供用户选择的带妆图像,其中,/>表示第k张样本图像,K表示样本图像的总数,上标e表示为Example picture sets,即样本图像集合的简写;上标d表示为Degradedpicture,即低清晰度的原始输入图像的简写。
S102:将步骤S101获得的所有输入图像进行双立方采样至256×256尺寸。
S103:通过求解加权最小二乘模型从样本图像集选择出表现最优的样本图像作为原始输入图像Id的引导图像。
由于重建高清晰度的输入图像时,引导图像与输入图像的差异性容易降低输出的真实性,所以本发明基于通过求解加权最小二乘模型得到特征点集合间的加权仿射距离进行相似度测量,将样本图像集中与原始输入图像Id具有最高相似度的一张样本图像作为引导图像。
步骤S103进一步包括以下步骤:
运用人脸特征点检测,对于样本图像集中的每张样本图像以及原始输入图像Id,检测出68个特征点;
分别计算输入原始输入图像Id与样本图像集中各样本图像的对应特征点之间的加权仿射距离之和:设输入原始输入图像Id与样本图像/>的所有68个特征点的加权仿射距离之和为/>则有/>式中,wm为原始输入图像Id与样本图像/>中第m个特征点的加权仿射距离,wm为赋予第m个特征点的权重,由于存在图像间表情姿势差异,因此给每个特征点赋予的权重不同;
列举所有样本图像,在前向传播中得到68个特征点与原始输入图像Id对应特征点间具有最小仿射距离和的样本图像
引入辅助损失,通过反向传播算法更新特征点权重值,反复迭代后,找出样本图像集中最佳的样本图像作为引导图像。
S104:分别对二进制图像、择优选出的引导图像以及原始输入图像Id进行特征提取,其中,提取所有输入图像的68个特征点获得二进制图像。
S105:利用MLS和AdaIN模块在特征空间中对引导图像进行空间对齐和照明转换,具体包括以下步骤:
由于引导图像与原始输入图像Id间存在的姿态差异性,利用MLS和AdaIN模块在特征空间中对引导图像进行空间对齐和照明转换;为防止对齐出错,本发明采用了MLS滑动最小二乘法对齐:将选定的引导图像的特征和标记点分别表示为Fg、Lg,原始输入图像的特征和标记点记作Fd、Ld,引入位置对角矩阵Wp,对于Wp对角线上第m个元素Wp(m,m)有其中,/>表示原始输入图像的第m个标记点;根据公式得到位置仿射矩阵Mp,其中/>为Ld的齐次表示。然后进行双线性插值得到引导图像根据输入图像的扭曲特征,记作Fg,w。
由于MLS的可微性,在训练过程中特征提取子网是可学习的,因此特征提取和MLS可共同进行,提高了空间对齐的鲁棒性;
接下来引入AdaIN模块:使用原始输入图像Id的均值和标准差作为仿射参数,将光照效果当作一种图像风格,通过AdaIN模块将经过MLS处理后的扭曲特征Fg,w转化为原始输入图像Id的风格,即光照效果,合成具有原始输入图像Id风格的输出图像,从而经过AdaIN模块处理后得到特征Fg,w,a和原始输入图像Id的特征Fd在空间和风格上图像对齐。其中,上标a为AdaIN简写,w为warped feature,即扭曲特征的简写,g为guidance feature,即引导图像特征的简写。
接下来,本发明通过合并多个自适应特征融合模块(下文简称为ASFF模块),结合输入的信息与引导图像的转化输出具有较高还原清晰度的图片当进行特征融合时,如果直接将原始输入图像Id和引导图像进行连接作为重建子网,对输入会受限于图像间探索出的互补性,因此本发明选择采用ASFF块逐步融合转化后的引导图像和特征。同时,考虑到引导图像和原始输入图像Id存在的背景及人物姿势的差异性,在不同情况下作为主要参照来重建图像的选择不同,因此本发明引出注意力区域来引导具体特征融合。
S106:采用四个ASFF模块经过包含残差块的重建子网得到最终输出的具有较高还原清晰度的图像具体包括以下步骤:
为了提高鲁棒性,本发明进行渐进的融合,采用了四个相同的ASFF模块后得到特征Fc,其中,每一个ASFF模块的具体实现,参见图2所示,具体步骤包括:
S201:得到原始输入图像Id的特征Fd后经过1×1卷积核降维;
S202:得到经过步骤S105处理的引导图像的特征Fg,w,a后经过1×1卷积核降维;
S203:通过提取二进制图像的特征得到标记点特征;
S204:对步骤S203中所得特征进行1×1卷积核降维;
S205:将步骤S201、步骤S202以及步骤S204所得到的的特征进行连接;
S206:将通过步骤S205获得的经过连接的特征作为带偏置卷积网络层的输入;
S207:在步骤S206基础上引入注意力机制,利用引入注意力机制的带偏置卷积网络层将经过1×1卷积降维后的Fg,w,a、Fd和标记点特征三者融合:
由于引导图像的特征Fg,w,a和原始输入图像Id的特征Fd空间移变,传递互补信息,因此将两者相结合重建图像清晰效果更好;同时,因为存在背景及人物表情动作差异,需要基于原始输入图像Id的特征Fd进行重建,保留原始输入图像Id的部分特征,因此本发明在带偏置卷积网络层中引入注意力机制,将经过1×1卷积降维后的Fg,w,a、Fd和标记点特征三者融合;
S208:将通过步骤S202获得的引导图像的特征Fg,w,a作为卷积层的输入;
S209:将经过步骤S208处理后的特征与通过步骤S201获得的经过卷积层处理后的特征进行减法运算后,送入残差结构进行降维处理;
S210:将经过步骤S209处理的特征与经过步骤S207处理的特征进行乘法运算后,再次送入残差结构进行降维处理;
S211:将通过步骤S201获得的原始输入图像Id的特征作为卷积层的输入;
S212:将经过步骤S211处理后的特征与经过步骤S210处理后的特征进行加法运算后和通过步骤S210得到的结果共同输入包含残差块的重建子网处理得到输出结果。
在第四个ASFF模块中,将特征Fc输入包含残差块的重建子网后,得到最终的具有较高还原清晰度的图像
图像是否自带妆容对于妆容迁移的效果也有较大影响,对于妆容的效果体现有一定干扰作用。因此,得到具有较高还原清晰度的图像后需要判断是否自带妆容。若自带妆容,则需要进行卸妆处理后再进行妆容迁移;若不带妆容,则用户手动选择直接进行妆容迁移。
为了妆容迁移更好的效果,对于自带妆容的图像,需要先进行卸妆处理。卸妆处理的具体流程如图3所示,搭建特征提取网络提取特征信息,和图像一起作为风格迁移网络的输入从而输出卸妆后效果图。具体实现卸妆操作的步骤包括:
S301:获得具有较高还原清晰度的图像将图像/>定义为带妆容的输入图像yr;
S302:将输入图像yr输入IDNet特征提取网络,在IDNet特征提取网络中经过编码三重瓶颈结构处理后输出人脸特征信息上标C、H、W分别表示图像通道数、图像高度、图像宽度;
S303:将IDNet特征提取网络的输出人脸特征信息 作为STNet风格迁移网络解码部分的输入;
步骤S301至步骤303具体包括以下步骤:
IDNet特征提取网络利用编码瓶颈结构区分妆容特征和人脸特征,经编码瓶颈结构后获得输入图像yr的视觉特征图Vr∈RC×H×W;
将视觉特征图Vr输入STNet风格迁移网络;同时,视觉特征图Vr在IDNet特征提取网络内经过1×1卷积层后得到人脸特征信息 在IDNet特征提取网络内不断沿着通道维度扩展重复从而产生特征张量/>将特征张量/> 输入STNet风格迁移网络;
STNet风格迁移网络运用编码瓶颈结构及解码瓶颈结构,其编码部分结构与IDNet特征提取网络类似,但参数不同。在STNet编码部分中采用不带仿射参数的IN即InstanceNormalization归一化算法,使得视觉特征图Vr正态分布。卸妆后特征图由公式/>计算得出,其中,/>和/>为步骤502中从IDNet特征提取网络中提取的特征张量。卸妆后特征图/>送入STNet风格迁移网络后续解码部分,最终获得卸妆后的输出图像/>
S304:由STNet风格迁移网络产生卸妆后的输出图像利用风格迁移网络处理卸妆后的输出图像/>或直接处理不带妆容的具有较高还原清晰度的图像/>将待风格迁移网络处理的图像进一步定义为素颜图像x∈[0,1]H×W×3。
本发明提供的风格迁移网络结合GAN生成式对抗网络和VAE变分自编码器的优势,由GAN生成式对抗网络进行全局妆容迁移,通过控制参数大小进行插值妆容迁移,再利用VAE变分自编码器进行局部优化。
利用GAN生成式对抗网络实现从源图进行妆容特征与人脸特征的分离及在目标图上进行全局性妆容迁移的妆容重组,并实现基于权重调节的妆容浓淡程度控制。GAN生成式对抗网络的结构由四个部分组成,分别是人脸特征编码器、妆容编码器、解码器和判别器。
本发明选择步骤S103获得的引导图像或者用户自定义的带妆容图像作为参考带妆图像y∈[0,1]H×W×3,由GAN生成式对抗网络进行基于DMT的插值妆容迁移,具体流程如图4所示,步骤包括:
S401:获取素颜图像x;
S402:基于素颜图像x获取人脸特征Ei,采用人脸特征编码器对人脸特征进行编码;
S403:经过人脸特征编码器处理得到人脸特征码ix;
S404:获取参考带妆图像y;
S405:基于参考带妆图像y获取妆容特征Em,采用妆容特征编码器对妆容特征Em进行编码;
S406:经过妆容特征编码器处理得到妆容特征码my;
S407:将妆容特征码my和人脸特征码ix输入解码器;
S408:解码器生成重组后的带妆容图像xs,带妆容图像xs再次被分离为人脸特征与妆容特征;
S409:将步骤S408获得的人脸特征输入人脸特征编码器,再次生成人脸特征码
S410:将步骤S408获得的妆容特征输入妆容特征编码器,再次生成妆容特征码
S411:由解码器生成重组后妆容图像xf,式中,α∈[0,1]表示权重,权重越大表示妆容的浓度越大,G(·)为解码器函数。
判别器的具体实现,参见图4所示,具体步骤包括:
S501:获得素颜图像x;
S502:获得重组后妆容图像xf;
S503:将素颜图像x以及重组后妆容图像xf输入判别器后,由判别器输出判别结论,若素颜图像x与重组后妆容图像xf对应同一个用户,则判别器输出为真,将重组后妆容图像xf作为GAN生成式对抗网络的最终输出,若素颜图像x与重组后妆容图像xf对应不是同一个用户,则判别器输出为假,则返回步骤S401,直至判别器输出为真。
风格迁移网络再利用VAE变分自编码器对重组后妆容图像xf进行妆容局部细节优化,同时引入循环一致性损失函数,提高局部妆容迁移效果,具体流程如图6所示,其中步骤包括:
获取重组后妆容图像xf以及参考带妆图像y,将重组后妆容图像xf定义为源图像Ιx,将参考带妆图像y定义为参考图像Ιy;然后基于Parsing Mask分别划分源图像Ιx与参考图像Ιy的脸部区域、眼部区域以及嘴唇区域,之后两种图像相对应的部分分别依次作为输入进入编码部分嵌入隐空间,在隐空间利用变分自解码器优化局部妆容细节,包括以下步骤:
S601:获得获取重组后妆容图像xf以及参考带妆图像y,将重组后妆容图像xf定义为源图像Ιx,将参考带妆图像y定义为参考图像Ιy;
S602:将源图像Ιx和参考图像Ιy分别嵌入两个隐向量Lx、Ly,Lx可分解为人脸特征向量Fx和妆容特征向量Mx,Ly可分解为人脸特征向量Fy和妆容特征向量My,其中,运用一个转换矩阵W从Lx、Ly提取人脸特征向量Fx、Fy,运用一个转换矩阵Ι-W从Lx、Ly中提取妆容特征向量Mx、My,Ι包括源图像Ιx和参考图像Ιy;
基于Parsing Mask提取三个化妆品覆盖的关键脸部部位与妆容特征,分别为底妆、眼影和唇彩,在隐空间中进一步将Lx、Ly进行分解,其中,唇部特征向量和/>经过转换矩阵W依次分解为/>与/>以及/>与/>眼部特征向量/>和/>经过转换矩阵W依次分解为/>与/>以及/>与/>脸部特征向量/>和/>经过转换矩阵W依次分解为/>与/>以及/>与/>
然后,和/>进行加法操作,/>和/>进行加法操作,/>和/>进行加法操作;
为了保持脸部和妆容的信息,在隐空间设计循环一致性损失函数,如下所示:
Lcyc=||LyW-Fx||2+||Ly(I-W)-My||2
Ly为或/>Fx为/>或/>My为/>或/>对VAE变分自编码器进行训练直至循环一致性损失函数收敛。
S603:将通过步骤S602获得的输出输入进入解码部分,获得最终的输出结果。
以上为本发明的具体实施方式,综上所述,本发明主要提出了一种基于自适应空间特征融合的注意力机制的面部特征融合恢复技术以及结合生成式对抗网络和变分自编码器生成网络技术的妆容重组模型训练方式。其中,本发明主要实现了基于自适应特征融合模块的面部特征恢复技术、根据求解加权最小二乘WLS模型选择引导图像、搭建特征提取网络以及风格迁移网络进行卸妆操作、结合生成式对抗网络及变分自编码器网络各自优势实现基于引导图像的妆容迁移重组。
本发明主要解决了由于姿态或光照不同、背景及人物姿势的差异性、输入照片的清晰度、尺寸大小以及自带妆容对妆容迁移重组效果产生的影响;通过结合生成式对抗网络和变分自编码器网络技术进行妆容重组,达到较好妆容迁移效果。
Claims (8)
1.一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,包括以下步骤:
步骤1、获取输入图像,输入图像中包括样本图像集一张低清晰度的原始输入图像Id,其中,/>表示第k张样本图像,K表示样本图像的总数;
步骤2、从样本图像集中获得与原始输入图像Id相似度最高的图像样本图像作为引导图像;
步骤3、将引导图像与原始输入图像Id输入多个级联的自适应特征融合模块,由最后一级自适应特征融合模块输出具有较高还原清晰度的图像其中,每一级的自适应特征融合模块基于以下步骤实现:
步骤301、得到原始输入图像Id的特征Fd后进行降维处理;
步骤302、得到引导图像的特征Fg,w,a后进行降维处理;
步骤303、通过提取二进制图像的特征得到标记点特征,其中,提取所有输入图像的M个特征点后获得二进制图像;
步骤304、对步骤303中所得特征进行降维处理;
步骤305、将步骤301、步骤302以及步骤303所得到的维度一致的特征进行连接;
步骤306、将通过步骤305获得的经过连接的特征作为带偏置卷积网络层的输入,在带偏置卷积网络层中引入注意力机制,利用引入注意力机制的带偏置卷积网络层融合所输入的特征;
步骤307:将通过步骤302获得的引导图像的特征Fg,w,a作为卷积层的输入;
步骤308:将经过步骤307处理后的特征与通过步骤301获得的特征进行减法运算后,送入残差结构进行降维处理;
步骤309:将经过步骤308处理的特征与通过步骤306所获得的特征进行乘法运算后,再次送入残差结构进行降维处理;
步骤310:将通过步骤301获得的原始输入图像Id的特征作为卷积层的输入;
步骤311:将经过步骤310处理后的特征与经过步骤309处理后的特征进行加法运算后和通过步骤309得到的结果共同输入包含残差块的重建子网处理得到输出结果;
在最后一级自适应特征融合模块中,通过包含残差块的重建子网得到最终的具有较高还原清晰度的图像
步骤4、若图像自带妆容,则进入步骤5进行妆容迁移;若图像/>不带妆容,则进入步骤6;
步骤5、将图像输入IDNet特征提取网络,将IDNet特征提取网络的输出输入STNet风格迁移网络,由STNet风格迁移网络产生卸妆后的输出图像/>
步骤6、利用风格迁移网络处理卸妆后的输出图像或直接处理不带妆容的具有较高还原清晰度的图像/>将待风格迁移网络处理的图像进一步定义为素颜图像x∈[0,1]H×W×3;将步骤2获得的引导图像或者用户自定义的带妆容图像作为参考带妆图像y∈[0,1]H×W×3;风格迁移网络先采用GAN生成式对抗网络对输入的素颜图像x以及参考带妆图像y进行基于DMT的插值妆容迁移,通过控制权重大小α∈[0,1]进行插值妆容迁移,达到调节妆容浓淡程度的目的;再利用VAE变分自编码器进行局部优化。
2.如权利要求1所述的一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,在所述步骤2之后,并在所述步骤3之前还包括:利用MLS滑动最小二乘法和AdaIN模块在特征空间中对引导图像进行空间对齐和照明转换。
3.如权利要求2所述的一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,利用MLS滑动最小二乘法及AdaIN模块对引导图像进行处理包括以下步骤:
将选定的引导图像的特征和标记点分别表示为Fg、Lg,原始输入图像Id的特征和标记点记作Fd、Ld,引入位置对角矩阵Wp,对于Wp对角线上第m个元素Wp(m,m)有其中,/>表示原始输入图像的第m个标记点;根据公式/>得到位置仿射矩阵Mp,/>为Ld的齐次表示,然后进行双线性插值后得到引导图像根据输入图像的扭曲特征,记作Fg,w;
通过AdaIN模块将经过MLS处理后的扭曲特征Fg,w转化为原始输入图像Id的风格,即光照效果,合成具有原始输入图像Id风格的输出图像,从而经过AdaIN模块处理后得到特征Fg,w,a和原始输入图像Id的特征Fd在空间和风格上图像对齐。
4.如权利要求1所述的一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,所述步骤2包括以下步骤:
运用人脸特征点检测,对于样本图像集中的每张样本图像以及原始输入图像Id,检测出M个特征点;
分别计算输入原始输入图像Id与样本图像集中各样本图像的对应特征点之间的加权仿射距离之和:设输入原始输入图像Id与样本图像/>的所有M个特征点的加权仿射距离之和为/>则有/>式中,wm为原始输入图像Id与样本图像/>中第m个特征点的加权仿射距离,wm为赋予第m个特征点的权重,根据图像间表情姿势差异,给每个特征点赋予不同的权重;
列举所有样本图像,在前向传播中得到M个特征点与原始输入图像Id对应特征点间具有最小仿射距离和的样本图像
引入辅助损失,通过反向传播算法更新特征点权重值,反复迭代后,找出样本图像集中最佳的样本图像作为引导图像。
5.如权利要求1所述的一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,将图像定义为带妆容的输入图像yr,则所述步骤5包括以下步骤:
步骤501、将输入图像yr输入IDNet特征提取网络,IDNet特征提取网络利用编码瓶颈结构区分输入图像yr中的妆容特征和人脸特征,获得输入图像yr的视觉特征图Vr∈RC×H×W;
步骤502、视觉特征图Vr在IDNet特征提取网络内经过1×1卷积层后得到人脸特征信息在IDNet特征提取网络内不断沿着通道维度扩展重复从而产生特征张量/>
步骤503、将视觉特征图Vr以及特征张量输入STNet风格迁移网络;
STNet风格迁移网络运用编码瓶颈结构及解码瓶颈结构,STNet风格迁移网络的编码部分采用不带仿射参数的Instance Normalization归一化算法,使得视觉特征图V,正态分布,则卸妆后特征图由公式/>计算得出,其中,/>和/>为步骤502中从IDNet特征提取网络中提取的特征张量;卸妆后特征图/>送入STNet风格迁移网络后续解码部分,最终获得卸妆后的输出图像/>
6.如权利要求1所述的一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,步骤6中,所述GAN生成式对抗网络包括人脸特征编码器、妆容编码器、解码器和判别器,则利用所述GAN生成式对抗网络进行插值妆容迁移,具体包括以下步骤:
步骤601:获取素颜图像x;
步骤602:基于素颜图像x获取人脸特征Ei,采用人脸特征编码器对人脸特征进行编码;
步骤603:经过人脸特征编码器处理得到人脸特征码ix;
步骤604:获取参考带妆图像y;
步骤605:基于参考带妆图像y获取妆容特征Em,采用妆容特征编码器对妆容特征Em进行编码;
步骤606:经过妆容特征编码器处理得到妆容特征码my;
步骤607:将妆容特征码my和人脸特征码ix输入解码器;
步骤608:解码器生成重组后的带妆容图像xs,带妆容图像xs再次被分离为人脸特征与妆容特征;
步骤609:将步骤608获得的人脸特征输入人脸特征编码器,再次生成人脸特征码
步骤610:将步骤608获得的妆容特征输入妆容特征编码器,再次生成妆容特征码
步骤611:由解码器生成重组后妆容图像xf,式中,α∈[0,1]表示权重,权重越大表示妆容的浓度越大,G(·)为解码器函数。
步骤612:获得素颜图像x;
步骤613:获得重组后妆容图像xf;
步骤614:将素颜图像x以及重组后妆容图像xf输入判别器后,由判别器输出判别结论,若素颜图像x与重组后妆容图像xf对应同一个用户,则判别器输出为真,将重组后妆容图像xf作为GAN生成式对抗网络的最终输出,若素颜图像x 与重组后妆容图像xf对应不是同一个用户,则判别器输出为假,则返回步骤步骤601,直至判别器输出为真。
7.如权利要求1所述的一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,步骤6中,VAE变分自编码器对重组后妆容图像xf进行妆容局部细节优化,具体包括以下步骤:
S601:获得获取重组后妆容图像xf以及参考带妆图像y,将重组后妆容图像xf定义为源图像Ix,将参考带妆图像y定义为参考图像Iy;
S602:将源图像Ix和参考图像Iy分别嵌入两个隐向量Lx、Ly,Lx可分解为人脸特征向量Fx和妆容特征向量Mx,Ly可分解为人脸特征向量Fy和妆容特征向量My,其中,运用一个转换矩阵W从Lx、Ly提取人脸特征向量Fx、Fy,运用一个转换矩阵I-W从Lx、Ly中提取妆容特征向量Mx、My,I包括源图像Ix和参考图像Iy;
基于Parsing Mask提取三个化妆品覆盖的关键脸部部位与妆容特征,分别为底妆、眼影和唇彩,在隐空间中进一步将Lx、Ly进行分解,其中,唇部特征向量和/>经过转换矩阵W依次分解为/>与/>以及/>与/>眼部特征向量/>和/>经过转换矩阵W依次分解为/>与/>以及/>与/>脸部特征向量/>和/>经过转换矩阵W依次分解为与/>以及/>与/>
然后,和/>进行加法操作,/>和/>进行加法操作,/>和/>进行加法操作;
S603:将通过步骤S602获得的输出输入进入解码部分,获得最终的输出结果。
8.如权利要求1所述的一种自适应特征融合恢复及混合妆容迁移重组方法,其特征在于,步骤6中,为了保持脸部和妆容的信息,引入循环一致性损失函数,如下所示:
Lcyc=‖LyW-Fx‖2+‖Ly(I-W)-My‖2
Ly为或/>Fx为/>或/>My为/>或/>对VAE变分自编码器进行训练时,使循环一致性损失函数收敛。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210117527.7A CN114820286B (zh) | 2022-02-08 | 2022-02-08 | 自适应特征融合恢复及混合妆容迁移重组方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210117527.7A CN114820286B (zh) | 2022-02-08 | 2022-02-08 | 自适应特征融合恢复及混合妆容迁移重组方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114820286A CN114820286A (zh) | 2022-07-29 |
CN114820286B true CN114820286B (zh) | 2024-04-12 |
Family
ID=82527831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210117527.7A Active CN114820286B (zh) | 2022-02-08 | 2022-02-08 | 自适应特征融合恢复及混合妆容迁移重组方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114820286B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10504268B1 (en) * | 2017-04-18 | 2019-12-10 | Educational Testing Service | Systems and methods for generating facial expressions in a user interface |
CN111640057A (zh) * | 2020-05-25 | 2020-09-08 | 武汉理工大学 | 基于隐藏变量解耦的人脸图像局部特征迁移网络及方法 |
CN111815534A (zh) * | 2020-07-14 | 2020-10-23 | 厦门美图之家科技有限公司 | 实时皮肤妆容迁移方法、装置、电子设备和可读存储介质 |
CN111950430A (zh) * | 2020-08-07 | 2020-11-17 | 武汉理工大学 | 基于颜色纹理的多尺度妆容风格差异度量及迁移方法、系统 |
CN111950432A (zh) * | 2020-08-07 | 2020-11-17 | 武汉理工大学 | 一种基于区域风格一致性的妆容风格迁移方法及系统 |
WO2021129642A1 (zh) * | 2019-12-23 | 2021-07-01 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN113808008A (zh) * | 2021-09-23 | 2021-12-17 | 华南农业大学 | 基于Transformer构建生成对抗网络实现妆容迁移的方法 |
CN113822793A (zh) * | 2021-07-16 | 2021-12-21 | 华南理工大学 | 图像处理方法、装置和存储介质及电子设备 |
CN113850169A (zh) * | 2021-09-17 | 2021-12-28 | 西北工业大学 | 一种基于图像分割和生成对抗网络的人脸属性迁移方法 |
-
2022
- 2022-02-08 CN CN202210117527.7A patent/CN114820286B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10504268B1 (en) * | 2017-04-18 | 2019-12-10 | Educational Testing Service | Systems and methods for generating facial expressions in a user interface |
WO2021129642A1 (zh) * | 2019-12-23 | 2021-07-01 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN111640057A (zh) * | 2020-05-25 | 2020-09-08 | 武汉理工大学 | 基于隐藏变量解耦的人脸图像局部特征迁移网络及方法 |
CN111815534A (zh) * | 2020-07-14 | 2020-10-23 | 厦门美图之家科技有限公司 | 实时皮肤妆容迁移方法、装置、电子设备和可读存储介质 |
CN111950430A (zh) * | 2020-08-07 | 2020-11-17 | 武汉理工大学 | 基于颜色纹理的多尺度妆容风格差异度量及迁移方法、系统 |
CN111950432A (zh) * | 2020-08-07 | 2020-11-17 | 武汉理工大学 | 一种基于区域风格一致性的妆容风格迁移方法及系统 |
CN113822793A (zh) * | 2021-07-16 | 2021-12-21 | 华南理工大学 | 图像处理方法、装置和存储介质及电子设备 |
CN113850169A (zh) * | 2021-09-17 | 2021-12-28 | 西北工业大学 | 一种基于图像分割和生成对抗网络的人脸属性迁移方法 |
CN113808008A (zh) * | 2021-09-23 | 2021-12-17 | 华南农业大学 | 基于Transformer构建生成对抗网络实现妆容迁移的方法 |
Non-Patent Citations (2)
Title |
---|
基于GAN的人脸图像光照迁移;宁宁;金鑫;张晓昆;李艳楠;;北京电子科技学院学报;20191215(04);38-46 * |
基于M-CycleGAN实现口罩图像风格迁移;王诣天;石文;;电脑编程技巧与维护;20200318(03);133-136 * |
Also Published As
Publication number | Publication date |
---|---|
CN114820286A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
WO2022267641A1 (zh) | 一种基于循环生成对抗网络的图像去雾方法及系统 | |
CN110084734B (zh) | 一种基于物体局部生成对抗网络的大数据权属保护方法 | |
CN110544297A (zh) | 一种单幅图像的三维模型重建方法 | |
CN110889370B (zh) | 基于条件生成对抗网络的端对端的侧面人脸合成正脸的系统及方法 | |
CN113762147B (zh) | 人脸表情迁移方法、装置、电子设备及存储介质 | |
CN115311720B (zh) | 一种基于Transformer的deepfake生成方法 | |
Lehmann | Turbo segmentation of textured images | |
CN110599411A (zh) | 一种基于条件生成对抗网络的图像修复方法及系统 | |
CN112288632A (zh) | 基于精简esrgan的单图像超分辨率方法及系统 | |
CN110853119A (zh) | 一种鲁棒的基于参考图片的妆容迁移方法 | |
CN116797437A (zh) | 一种基于生成对抗网络的端到端图像隐写方法 | |
CN113538608A (zh) | 基于生成对抗网络的可控人物图像生成方法 | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
CN117994480A (zh) | 一种轻量化手部重建与驱动的方法 | |
CN113077545A (zh) | 一种基于图卷积的从图像中重建着装人体模型的方法 | |
CN116416677A (zh) | 自监督人体姿态转换方法及系统、可读存储介质 | |
CN114820286B (zh) | 自适应特征融合恢复及混合妆容迁移重组方法 | |
CN117793371A (zh) | 一种基于Swin-Unet架构的多张高分辨率彩色图像隐藏方法 | |
Hua et al. | Image super resolution using fractal coding and residual network | |
CN115861552A (zh) | 基于深度学习的地貌晕渲图生成方法及系统 | |
CN116563103A (zh) | 一种基于自适应神经网络的遥感图像时空融合方法 | |
KR102442980B1 (ko) | Erp 기반 다시점 360도 영상의 초해상화 방법 및 영상처리장치 | |
Yang | Super resolution using dual path connections | |
CN113436094A (zh) | 一种基于多视角注意力机制的灰度图像自动上色方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |