CN115330629A - 卷积神经网络的卸妆方法、装置、设备及可读存储介质 - Google Patents
卷积神经网络的卸妆方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN115330629A CN115330629A CN202210999276.XA CN202210999276A CN115330629A CN 115330629 A CN115330629 A CN 115330629A CN 202210999276 A CN202210999276 A CN 202210999276A CN 115330629 A CN115330629 A CN 115330629A
- Authority
- CN
- China
- Prior art keywords
- image
- makeup
- network
- result
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 47
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 239000002537 cosmetic Substances 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 10
- 238000002054 transplantation Methods 0.000 abstract description 3
- 238000005728 strengthening Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 8
- 238000011176 pooling Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 210000000697 sensory organ Anatomy 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了卷积神经网络的卸妆方法、装置、设备及可读存储介质,涉及人体皮肤技术领域,包括获取至少两组带妆图像;对所述带妆图像进行预处理,得到所述带妆图像的预处理结果;基于网络U‑Net,将所述预处理结果输入至所述网络U‑Net中,得出输出结果;根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,得到卸妆模型。本发明有利效果引进了不同人脸部位的HSV通道的loss,可以较好的针对不同部位做强化处理,保证卸妆后的素颜图色泽过度平滑;通过预训练模型,使网络对物体具备一定的识别能力,提高特征提取能力。利用mask妆容移植,增加了样本妆容的多样性,使得网络有比较好的卸妆效果和较好的鲁棒性。
Description
技术领域
本发明涉及人体皮肤技术领域,具体而言,涉及卷积神经网络的卸妆方法、装置、设备及可读存储介质。
背景技术
对带妆图像进行上妆操作会出现妆容叠加问题,导致妆容过重。另外,带妆图像改变了脸部特征,对一些人脸验证系统识别造成了一定困难。因此,处理图像前,往往需要先做卸妆操作,获得干净的素颜图,从而更好的进行上妆,识别。
现有的卸妆方法,往往通过调整曲线对图像滤波的方式,调整了像素的饱和度、亮度等,模拟出不同部位的卸妆效果,但是不同肤色的卸妆效果差异过大,尤其是卸妆后妆容发绿发白,甚至一些图片的细节丢失。
发明内容
本发明的目的在于提供一种卷积神经网络的卸妆方法、装置、设备及可读存储介质,以改善上述问题。为了实现上述目的,本发明采取的技术方案如下:
第一方面,本申请提供了一种卷积神经网络的卸妆方法,包括:
获取至少两组带妆图像;
对所述带妆图像进行预处理,得到所述带妆图像的预处理结果;
基于网络U-Net,将所述预处理结果输入至所述网络U-Net中,得出输出结果;
根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,得到卸妆模型。
优选地,所述对所述图像数据进行预处理,得到预处理结果,其中包括:
将至少两组所述带妆图像输入至RGB通道,得到输入图;
随机选取所述输入图和预设的目标图进行图像增强,所述图像增强包括对所述输入图和预设的目标图进行裁剪、平移和左右翻转的操作。
优选地,所述基于网络U-Net,将所述预处理结果输入至所述网络U-Net中;得出输出结果,其中包括:
选用所述网络U-Net,所述网络U-Net包括身份信息编辑器、妆容信息编码器、图像生成器以及图像判别器;所述妆容信息编码器和图像生成器构成了图像生成模块;所述的身份信息编码器由多层卷积层组成,接收到输入的目标图像后使用卷积层对目标图像中的身份信息进行特征提取,最终输出目标图像的身份信息编码;所述的妆容信息编码器使用多层的卷积层和池化层组成,接收到输入的目标图像和参考图像后使用卷积层对对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码和参考图像妆容信息编码;所述的图像生成器为图像解码器,接收身份信息编码和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像;所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像和目标图像的重建图像;
提取所述带妆图像中的颜色和边缘特征,并对所述带妆图像中的颜色和边缘特征进行修复,得到修复后的结果进行输出,记作输出结果。
优选地,所述根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,其中包括:
计算所述输出结果在HSV通道上的loss,其中,对所述带妆图像进行归一化处理,得到所述归一化结果,将所述归一化结果进行卷积神经网络处理;
设置权重,使用Adam优化方法,进行多次迭代,确定各个所述带妆图像的权重;
迭代收敛后的所述带妆图像组成图像数据库;
基于预设的监督图的损失调整网络参数和所述图像数据库,进行训练和学习。
第二方面,本申请还提供了一种卷积神经网络的卸妆装置,包括:
获取模块:用于获取至少两组带妆图像;
预处理模块:用于对所述带妆图像进行预处理,得到所述带妆图像的预处理结果;
输出模块:用于基于网络U-Net,将所述预处理结果输入至所述网络U-Net中,得出输出结果;
获得模块:用于根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,得到卸妆模型。
第三方面,本申请还提供了一种卷积神经网络的卸妆设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现所述卷积神经网络的卸妆方法的步骤。
第四方面,本申请还提供了一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述基于卷积神经网络的卸妆方法的步骤。
本发明的有益效果为:
本发明利用卷积神经网络对物体的特征提取和识别能力,通过训练,学习出特征的变换映射,从而祛除人脸上的妆容。我们对干净的素颜图进行了多套不同妆容的上妆操作,得到了大量的带妆-素颜图数据对,训练前先加载预训练权重,使模型具有较好的初始化参数。训练时随机抽取不同妆容下的带妆图并进行预处理做为模型输入,根据模型输出与素颜监督图的损失调整网络参数,得到最后的卸妆模型。
本发明引进了不同人脸部位的HSV通道的loss,可以较好的针对不同部位做强化处理,保证卸妆后的素颜图色泽过度平滑;通过预训练模型,使网络对物体具备一定的识别能力,提高特征提取能力。利用mask妆容移植,增加了样本妆容的多样性,使得网络有比较好的卸妆效果和较好的鲁棒性。
本发明基于深度学习方法最大程度卸除图像上的妆容信息,同时保持五官特征;相比于传统卸妆方法,可以区分原图上的妆容信息与原始人脸特征信息,实现卸妆,针对不同肤色或重妆图像都具有更好的细节处理和卸妆效果。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例中所述的卷积神经网络的卸妆方法流程示意图;
图2为本发明实施例中所述的卷积神经网络的卸妆装置结构示意图;
图3为本发明实施例中所述的卷积神经网络的卸妆设备结构示意图。
图中:701、获取模块;702、预处理模块;7021、输入单元;7022、第一选取单元;703、输出模块;7031、第二选取单元;7032、提取单元;704、获得模块;7041、计算单元;7042、优化单元;7043、迭代单元;7044、训练单元;800、卷积神经网络的卸妆设备;801、处理器;802、存储器;803、多媒体组件;804、I/O接口;805、通信组件。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1:
现有的卸妆方法,往往通过调整曲线对图像滤波的方式,调整了像素的饱和度、亮度等,模拟出不同部位的卸妆效果,但是不同肤色的卸妆效果差异过大,尤其是卸妆后妆容发绿发白,甚至一些图片的细节丢失。
利用卷积神经网络强大的学习能力,在干净素颜图的监督下,学习出人脸的卸妆映射函数,在卸妆的同时保证了五官特征。
本方法基于现有的问题,提出利用卷积神经网络来实现卸妆。
本实施例提供了一种卷积神经网络的卸妆方法。
参见图1,图中示出了本方法包括步骤S100、步骤S200、步骤S300和步骤S400。
S100、获取至少两组带妆图像。
可以理解的是,在本步骤中,首先对干净的素颜图进行了多套不同妆容的上妆操作,得到了大量的带妆-素颜图数据。
S200、对所述带妆图像进行预处理,得到所述带妆图像的预处理结果。
可以理解的是,在本步骤中,其中包括:将至少两组所述带妆图像输入至RGB通道,得到输入图;
随机选取所述输入图和预设的目标图进行图像增强,所述图像增强包括对所述输入图和预设的目标图进行裁剪、平移和左右翻转的操作。
需要说明的是,建立起卸妆网络结构,首先进行数据预处理:
对于带妆图像输入(RGB通道),以随机的概率分别对输入图以及目标图做裁剪、平移、左右翻转的几何操作,丰富图像特征。
t_imgi in,t_imgi target=transform(imgi in,imgi target)
其中,imgi in代表输入带状图,imgi target代表对应的素颜图,t_imgi in代表经过几何操作后的输入带状图,t_imgi target代表经过几何操作后对应的素颜图,i代表样本集中的第i张图,transform代表几何操作。
S300、基于网络U-Net,将所述预处理结果输入至所述网络U-Net中,得出输出结果。
可以理解的是,在本步骤中,其中包括:
选用所述网络U-Net,所述网络U-Net包括身份信息编辑器、妆容信息编码器、图像生成器以及图像判别器;所述妆容信息编码器和图像生成器构成了图像生成模块;所述的身份信息编码器由多层卷积层组成,接收到输入的目标图像后使用卷积层对目标图像中的身份信息进行特征提取,最终输出目标图像的身份信息编码;所述的妆容信息编码器使用多层的卷积层和池化层组成,接收到输入的目标图像和参考图像后使用卷积层对对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码和参考图像妆容信息编码;所述的图像生成器为图像解码器,接收身份信息编码和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像;所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像和目标图像的重建图像;
提取所述带妆图像中的颜色和边缘特征,并对所述带妆图像中的颜色和边缘特征进行修复,得到修复后的结果进行输出,记作输出结果。
需要说明的是,本方法选用网络U-Net,是一种常用编码-解码网络,在语义分割和图像翻译都有较好的应用。编码部分在于提取颜色和边缘特征,解码部分在于恢复具体细节边缘,如眼珠以及眼线等。在编码部分对输入图片进行5次下采样(最大池化),解码阶段5次上采样(双线性插值),为叙述方便,本文用Encode1,Encode2,Encode3,Encode4,Encode5,Decode1,Decode2,Decode3,Decode4,Decode5,Finally conv分别表示网络中各个编码和解码阶段,每个Encode和Decode都包含多个网络Block。
S400、根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,得到卸妆模型。
可以理解的是,在本步骤中,其中包括:计算所述输出结果在HSV通道上的loss,其中,对所述带妆图像进行归一化处理,得到所述归一化结果,将所述归一化结果进行卷积神经网络处理;
设置权重,使用Adam优化方法,进行多次迭代,确定各个所述带妆图像的权重;
迭代收敛后的所述带妆图像组成图像数据库;
基于预设的监督图的损失调整网络参数和所述图像数据库,进行训练和学习。
需要说明的是,结合不同人脸区域权重的监督,流程如下:
为了加强不同部位的卸妆效果及卸妆后的肤色,对不同人脸区域计算HSV通道上的loss。
本实施例中,假设X为网络输出结果转成HSV通道,Y为对应的target的HSV通道,利用已有的脸部分割结果得到不同化妆位置的mask,脸部(face),嘴唇(lip),眼部(eye),眉(eyebrow),之后将嘴唇mask和眼部mask组合成一个整体maskeye_lip,眉毛mask和脸部mask组成一个整体maskbrow_face,分别与原图相乘,提取出对应的区域,计算每块区域的L1 loss,嘴唇眼部区域侧重考虑H,S。眉毛和脸部侧重考虑H通道。其中wk(k=1,2)为每块对应的权重,由每块的HSV通道像素值的平均值减去全图HSV通道像素值的平均值的欧式距离得到,并对所有权重进行归一化。
Losseye_lip=w1(λ1||XK1 H-YK1 H||1+λ2||XK1 S-YK1 S||1+λ3||XK1 V-YK1 V||1)
其中,XK1,YK1分别代表输出图和目标图对应的嘴唇眼部区域,上标H,S,V,分别对应各自颜色通道,λ1,λ1,λ3则代表不同颜色通道损失的权重。Losseye_lip为嘴唇眼部区域的HSV通道损失。
Lossbrow_face=w2(λ4||XK2 H-YK2 H||1+λ5||XK2 S-YK2 S||1+λ6||XK2 V-YK2 V||1)
其中,XK2,YK2分别代表输出图和目标图对应的眉毛和脸部区域,上标H,S,V,分别对应各自颜色通道,λ4,λ5,λ6则代表不同颜色通道损失的权重。Lossbrow_face为眉毛脸部区域的HSV通道损失。
其中,Yj HSV代表第j块区域的HSV特征,YHSV代表全图的HSV特征,w1,w2则为各自块对应的权重。
此外,还要计算X和Y全图的l2loss。
Loss2=||X-Y||2
另外,还引入了感知损失Loss3,使得输入图与目标图具有更相似的语义。
其中,Loss3表示感知损失,j表示感知损失网络ε(·)的第j层,Cj,Hj,Wj为第j层特征图大小。
本方法总共的Loss计算表示为:
Loss=Losseye_lip+Lossbrow_face+θLoss2+Loss3
其中,θ为全图l2损失Loss2的权重,根据经验,设置为1.2比较合适。Losseye_lip为嘴唇眼部区域的HSV通道损失,Lossbrow_face为眉毛脸部区域的HSV通道损失。Loss3为感知损失。
需要说明的是,具体地,以上描述后,进行训练和学习:将预处理的图像输入网络,按照上述的loss训练,使用Adam优化器,学习率设置为0.0002。
综上所述,本发明的有益效果为引进了不同人脸部位的HSV通道的loss,可以较好的针对不同部位做强化处理,保证卸妆后的素颜图色泽过度平滑。通过预训练模型,使网络对物体具备一定的识别能力,提高特征提取能力。利用mask妆容移植,增加了样本妆容的多样性,使得网络有比较好的卸妆效果和较好的鲁棒性。本方法基于深度学习方法最大程度卸除图像上的妆容信息,同时保持五官特征。相比于传统卸妆方法,可以区分原图上的妆容信息与原始人脸特征信息,实现卸妆,针对不同肤色或重妆图像都具有更好的细节处理和卸妆效果。
实施例2:
如图2所示,本实施例提供了一种卷积神经网络的卸妆装置,参见图2所述装置包括:
获取模块701:用于获取至少两组带妆图像;
预处理模块702:用于对所述带妆图像进行预处理,得到所述带妆图像的预处理结果;
输出模块703:用于基于网络U-Net,将所述预处理结果输入至所述网络U-Net中,得出输出结果;
获得模块704:用于根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,得到卸妆模型。
具体地,所述预处理模块702,其中包括:
输入单元7021:用于将至少两组所述带妆图像输入至RGB通道,得到输入图;
第一选取单元7022:用于随机选取所述输入图和预设的目标图进行图像增强,所述图像增强包括对所述输入图和预设的目标图进行裁剪、平移和左右翻转的操作。
具体地,所述输出模块703,其中包括:
第二选取单元7031:用于选用所述网络U-Net,所述网络U-Net包括身份信息编辑器、妆容信息编码器、图像生成器以及图像判别器;所述妆容信息编码器和图像生成器构成了图像生成模块;所述的身份信息编码器由多层卷积层组成,接收到输入的目标图像后使用卷积层对目标图像中的身份信息进行特征提取,最终输出目标图像的身份信息编码;所述的妆容信息编码器使用多层的卷积层和池化层组成,接收到输入的目标图像和参考图像后使用卷积层对对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码和参考图像妆容信息编码;所述的图像生成器为图像解码器,接收身份信息编码和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像;所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像和目标图像的重建图像;
提取单元7032:用于提取所述带妆图像中的颜色和边缘特征,并对所述带妆图像中的颜色和边缘特征进行修复,得到修复后的结果进行输出,记作输出结果。
具体地,所述获得模块704,其中包括:
计算单元7041:用于计算所述输出结果在HSV通道上的loss,其中,对所述带妆图像进行归一化处理,得到所述归一化结果,将所述归一化结果进行卷积神经网络处理;
优化单元7042:用于设置权重,使用Adam优化方法,进行多次迭代,确定各个所述带妆图像的权重;
迭代单元7043:用于迭代收敛后的所述带妆图像组成图像数据库;
训练单元7044:用于基于预设的监督图的损失调整网络参数和所述图像数据库,进行训练和学习。
需要说明的是,关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
实施例3:
相应于上面的方法实施例,本实施例中还提供了一种卷积神经网络的卸妆设备,下文描述的一种卷积神经网络的卸妆设备与上文描述的一种卷积神经网络的卸妆方法可相互对应参照。
图3是根据示例性实施例示出的一种卷积神经网络的卸妆设备800的框图。如图3所示,该卷积神经网络的卸妆设备800可以包括:处理器801,存储器802。该卷积神经网络的卸妆设备800还可以包括多媒体组件803,I/O接口804,以及通信组件805中的一者或多者。
其中,处理器801用于控制该卷积神经网络的卸妆设备800的整体操作,以完成上述的卷积神经网络的卸妆方法中的全部或部分步骤。存储器802用于存储各种类型的数据以支持在该卷积神经网络的卸妆设备800的操作,这些数据例如可以包括用于在该卷积神经网络的卸妆设备800上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器802可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static RandomAccess Memory,简称SRAM),电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件803可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器802或通过通信组件805发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口804为处理器801和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件805用于该卷积神经网络的卸妆设备800与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near FieldCommunication,简称NFC),2G、3G或4G,或它们中的一种或几种的组合,因此相应的该通信组件805可以包括:Wi-Fi模块,蓝牙模块,NFC模块。
在一示例性实施例中,卷积神经网络的卸妆设备800可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal ProcessingDevice,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的卷积神经网络的卸妆方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的卷积神经网络的卸妆方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器802,上述程序指令可由卷积神经网络的卸妆设备800的处理器801执行以完成上述的卷积神经网络的卸妆方法。
实施例4:
相应于上面的方法实施例,本实施例中还提供了一种可读存储介质,下文描述的一种可读存储介质与上文描述的一种卷积神经网络的卸妆方法可相互对应参照。
一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例的卷积神经网络的卸妆方法的步骤。
该可读存储介质具体可以为U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可存储程序代码的可读存储介质。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种卷积神经网络的卸妆方法,其特征在于,包括:
获取至少两组带妆图像;
对所述带妆图像进行预处理,得到所述带妆图像的预处理结果;
基于网络U-Net,将所述预处理结果输入至所述网络U-Net中,得出输出结果;
根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,得到卸妆模型。
2.根据权利要求1所述的卷积神经网络的卸妆方法,其特征在于,所述对所述图像数据进行预处理,得到预处理结果,其中包括:
将至少两组所述带妆图像输入至RGB通道,得到输入图;
随机选取所述输入图和预设的目标图进行图像增强,所述图像增强包括对所述输入图和预设的目标图进行裁剪、平移和左右翻转的操作。
3.根据权利要求1所述的卷积神经网络的卸妆方法,其特征在于,所述基于网络U-Net,将所述预处理结果输入至所述网络U-Net中;得出输出结果,其中包括:
选用所述网络U-Net,所述网络U-Net包括身份信息编辑器、妆容信息编码器、图像生成器以及图像判别器;所述妆容信息编码器和图像生成器构成了图像生成模块;所述的身份信息编码器由多层卷积层组成,接收到输入的目标图像后使用卷积层对目标图像中的身份信息进行特征提取,最终输出目标图像的身份信息编码;所述的妆容信息编码器使用多层的卷积层和池化层组成,接收到输入的目标图像和参考图像后使用卷积层对对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码和参考图像妆容信息编码;所述的图像生成器为图像解码器,接收身份信息编码和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像;所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像和目标图像的重建图像;
提取所述带妆图像中的颜色和边缘特征,并对所述带妆图像中的颜色和边缘特征进行修复,得到修复后的结果进行输出,记作输出结果。
4.根据权利要求1所述的卷积神经网络的卸妆方法,其特征在于,所述根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,其中包括:
计算所述输出结果在HSV通道上的loss,其中,对所述带妆图像进行归一化处理,得到所述归一化结果,将所述归一化结果进行卷积神经网络处理;
设置权重,使用Adam优化方法,进行多次迭代,确定各个所述带妆图像的权重;
迭代收敛后的所述带妆图像组成图像数据库;
基于预设的监督图的损失调整网络参数和所述图像数据库,进行训练和学习。
5.一种卷积神经网络的卸妆装置,其特征在于,包括:
获取模块:用于获取至少两组带妆图像;
预处理模块:用于对所述带妆图像进行预处理,得到所述带妆图像的预处理结果;
输出模块:用于基于网络U-Net,将所述预处理结果输入至所述网络U-Net中,得出输出结果;
获得模块:用于根据所述输出结果和预设的监督图的损失调整网络参数,经过训练和学习,得到卸妆模型。
6.根据权利要求5所述的卷积神经网络的卸妆装置,其特征在于,所述预处理模块,其中包括:
输入单元:用于将至少两组所述带妆图像输入至RGB通道,得到输入图;
第一选取单元:用于随机选取所述输入图和预设的目标图进行图像增强,所述图像增强包括对所述输入图和预设的目标图进行裁剪、平移和左右翻转的操作。
7.根据权利要求5所述的卷积神经网络的卸妆装置,其特征在于,所述输出模块,其中包括:
第二选取单元:用于选用所述网络U-Net,所述网络U-Net包括身份信息编辑器、妆容信息编码器、图像生成器以及图像判别器;所述妆容信息编码器和图像生成器构成了图像生成模块;所述的身份信息编码器由多层卷积层组成,接收到输入的目标图像后使用卷积层对目标图像中的身份信息进行特征提取,最终输出目标图像的身份信息编码;所述的妆容信息编码器使用多层的卷积层和池化层组成,接收到输入的目标图像和参考图像后使用卷积层对对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码和参考图像妆容信息编码;所述的图像生成器为图像解码器,接收身份信息编码和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像;所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像和目标图像的重建图像;
提取单元:用于提取所述带妆图像中的颜色和边缘特征,并对所述带妆图像中的颜色和边缘特征进行修复,得到修复后的结果进行输出,记作输出结果。
8.根据权利要求5所述的卷积神经网络的卸妆装置,其特征在于,所述获得模块,其中包括:
计算单元:用于计算所述输出结果在HSV通道上的loss,其中,对所述带妆图像进行归一化处理,得到所述归一化结果,将所述归一化结果进行卷积神经网络处理;
优化单元:用于设置权重,使用Adam优化方法,进行多次迭代,确定各个所述带妆图像的权重;
迭代单元:用于迭代收敛后的所述带妆图像组成图像数据库;
训练单元:用于基于预设的监督图的损失调整网络参数和所述图像数据库,进行训练和学习。
9.一种卷积神经网络的卸妆设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述卷积神经网络的卸妆方法的步骤。
10.一种可读存储介质,其特征在于:所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述卷积神经网络的卸妆方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210999276.XA CN115330629A (zh) | 2022-08-19 | 2022-08-19 | 卷积神经网络的卸妆方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210999276.XA CN115330629A (zh) | 2022-08-19 | 2022-08-19 | 卷积神经网络的卸妆方法、装置、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115330629A true CN115330629A (zh) | 2022-11-11 |
Family
ID=83925043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210999276.XA Pending CN115330629A (zh) | 2022-08-19 | 2022-08-19 | 卷积神经网络的卸妆方法、装置、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115330629A (zh) |
-
2022
- 2022-08-19 CN CN202210999276.XA patent/CN115330629A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113793408B (zh) | 一种实时音频驱动人脸生成方法、装置及服务器 | |
CN109376582B (zh) | 一种基于生成对抗网络的交互式人脸卡通方法 | |
CN110322416B (zh) | 图像数据处理方法、装置以及计算机可读存储介质 | |
CN113822969B (zh) | 训练神经辐射场模型和人脸生成方法、装置及服务器 | |
CN109558832A (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN109919830B (zh) | 一种基于美学评价的带参考人眼图像修复方法 | |
CN111861945B (zh) | 一种文本引导的图像修复方法和系统 | |
CN109389076B (zh) | 图像分割方法及装置 | |
CN114723760B (zh) | 人像分割模型的训练方法、装置及人像分割方法、装置 | |
CN113705290A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN115187706B (zh) | 一种人脸风格迁移的轻量化方法、系统、存储介质和电子设备 | |
CN111080746A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN113486944A (zh) | 人脸融合方法、装置、设备及存储介质 | |
CN117557689B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Yin et al. | Multiscale depth fusion with contextual hybrid enhancement network for image dehazing | |
CN116051686A (zh) | 图上文字擦除方法、系统、设备及存储介质 | |
CN115330629A (zh) | 卷积神经网络的卸妆方法、装置、设备及可读存储介质 | |
CN112906527B (zh) | 一种基于深度神经网络编码的指静脉生物密钥生成方法 | |
CN114627404A (zh) | 智能化视频人物替换方法、系统 | |
CN111275778A (zh) | 人脸简笔画生成方法及装置 | |
CN115496989B (zh) | 一种生成器、生成器训练方法及避免图像坐标粘连方法 | |
CN116542292B (zh) | 图像生成模型的训练方法、装置、设备及存储介质 | |
CN117115312B (zh) | 一种语音驱动面部动画方法、装置、设备及介质 | |
CN116862803B (zh) | 逆转图像重建方法、装置、设备及可读存储介质 | |
Singh et al. | Sign language to number by neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |