CN108229279B - 人脸图像处理方法、装置和电子设备 - Google Patents
人脸图像处理方法、装置和电子设备 Download PDFInfo
- Publication number
- CN108229279B CN108229279B CN201710247289.0A CN201710247289A CN108229279B CN 108229279 B CN108229279 B CN 108229279B CN 201710247289 A CN201710247289 A CN 201710247289A CN 108229279 B CN108229279 B CN 108229279B
- Authority
- CN
- China
- Prior art keywords
- image
- face
- region
- area
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 296
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims description 140
- 210000001508 eye Anatomy 0.000 claims description 133
- 230000008569 process Effects 0.000 claims description 91
- 230000006870 function Effects 0.000 claims description 68
- 230000002087 whitening effect Effects 0.000 claims description 43
- 238000011282 treatment Methods 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 28
- 230000014759 maintenance of location Effects 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000001815 facial effect Effects 0.000 claims description 16
- 238000012216 screening Methods 0.000 claims description 16
- 208000002874 Acne Vulgaris Diseases 0.000 claims description 14
- 206010000496 acne Diseases 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 14
- 206010027145 Melanocytic naevus Diseases 0.000 claims description 11
- 208000007256 Nevus Diseases 0.000 claims description 11
- 238000013508 migration Methods 0.000 claims description 11
- 230000005012 migration Effects 0.000 claims description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 5
- 206010025421 Macule Diseases 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 12
- 238000013527 convolutional neural network Methods 0.000 description 25
- 238000000227 grinding Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 235000002673 Dioscorea communis Nutrition 0.000 description 7
- 241000544230 Dioscorea communis Species 0.000 description 7
- 208000035753 Periorbital contusion Diseases 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 210000004209 hair Anatomy 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 238000005282 brightening Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005498 polishing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 208000035874 Excoriation Diseases 0.000 description 1
- 208000003351 Melanosis Diseases 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000010425 computer drawing Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003020 moisturizing effect Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007517 polishing process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Ophthalmology & Optometry (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例提供了一种人脸图像处理方法、装置和电子设备,其中,人脸图像处理方法包括:对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息;针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。通过本发明的实施例,使得对图像的处理效果更好,提升了处理效果,且满足了差异化处理需求。
Description
技术领域
本发明实施例涉及人工智能技术领域,尤其涉及一种人脸图像处理方法、装置和电子设备。
背景技术
近年来,随着人工智能技术的普及与发展,利用计算机对图像进行美化处理被应用到越来越多的场景当中。例如,人脸美化等应用。其中,人脸美化功能因能为用户带来较好的使用体验,逐渐成为图像美化应用中的必备功能。
发明内容
本发明实施例提供了一种人脸图像处理方案。
根据本发明实施例的第一方面,提供了一种人脸图像处理方法,包括:对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息;针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。
可选地,针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:接收用户输入的区域划分信息,根据区域划分信息确定人脸区域图像中的第一区域对应的图像和第二区域对应的图像;至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:获取预设的标准人脸模板,标准人脸模板中包含有标准人脸关键点信息;根据人脸区域图像中的人脸关键点信息和标准人脸关键点信息,对标准人脸模板进行匹配变形;至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:至少根据人脸区域图像中的人脸关键点信息确定人脸区域图像中的第一区域和第二区域;对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,至少根据人脸区域图像中的人脸关键点信息确定人脸区域图像中的第一区域和第二区域,包括:获取预设的标准人脸模板,其中,标准人脸模板中包含有标准人脸关键点信息、用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与第一预设区域不同的第二预设区域非皮肤区域的第二预设区域;根据人脸区域图像中的人脸关键点信息和标准人脸关键点信息,对标准人脸模板进行匹配变形;至少根据变形后的标准人脸模板中的第一预设区域和第二预设区域,确定人脸区域图像中的第一区域和第二区域。
可选地,第二预设区域用于指示标准人脸中的非皮肤区域。
可选地,至少根据变形后的标准人脸模板中的第一预设区域和第二预设区域,确定人脸区域图像中的第一区域和第二区域,包括:确定人脸区域图像中与变形后的标准人脸模板中的第一预设区域对应的区域,为第一初始区域;筛除第一初始区域对应的图像中包括的用于指示非皮肤的像素;确定筛除了第一初始区域中对应用于指示非皮肤的像素之后的区域,为第一区域;确定人脸区域图像中与变形后的标准人脸模板中的第二预设区域对应的区域以及第一初始区域中筛除掉的部分,为第二区域。
可选地,至少根据人脸区域图像中的人脸关键点信息对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:获取预设的标准人脸模板,标准人脸模板中包含有标准人脸关键点信息;根据人脸区域图像中的人脸关键点信息和标准人脸模板,对人脸区域图像进行变形;至少根据人脸区域图像和变形后的人脸区域图像对第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,获取预设的标准人脸模板,包括:从预设的标准人脸模板集所包括的至少二个不同的标准人脸模板中,确定当前图像处理所需使用的标准人脸模板。
可选地,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行以下一项或几项处理:瘦脸、眼部放大、眼部增强、面部磨皮、嘴唇红润/光滑、祛除黑眼圈/眼袋、面部美白/红润、祛痘/祛痣/祛斑。
可选地,至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理,包括:对第一区域对应的图像和第二区域对应的图像进行模糊处理,获得模糊后人脸区域图像;根据人脸区域图像和变形后的标准人脸模板生成变形后人脸区域图像;根据变形后人脸区域图像、模糊后人脸区域图像和人脸区域图像,生成磨皮后人脸区域图像。
可选地,第二区域对应的图像包括嘴唇图像;至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理,包括:对嘴唇图像进行红润和/或模糊处理,获得红润和/或模糊处理后嘴唇图像;根据嘴唇图像和变形后的标准人脸模板,生成变形后嘴唇图像;根据变形后嘴唇图像、红润和/或模糊处理后嘴唇图像、以及嘴唇图像,生成最终嘴唇图像。
可选地,第二区域对应的图像包括眼部下方设定区域的图像;至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理,包括:对眼部下方设定区域的图像进行模糊处理;对模糊处理后的眼部下方设定区域的图像进行颜色迁移;根据眼部下方设定区域的图像和变形后的标准人脸模板,生成变形后的眼部下方设定区域图像;根据变形后的眼部下方设定区域图像、颜色迁移后的眼部下方设定区域图像和眼部下方设定区域的图像,生成最终眼部下方设定区域的图像。
可选地,至少根据人脸区域图像和变形后人脸区域图像对第一区域对应的图像和/或第二区域对应的图像进行处理,包括:对第一区域对应的图像和/或第二区域对应的图像进行美白和/或红润处理,并生成美白和/或红润处理后的人脸区域图像;根据人脸区域图像、变形后人脸区域图像和美白和/或红润处理后的人脸区域图像,生成最终人脸区域图像。
可选地,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:确定第一区域中的痘/痣/斑区域;在第一区域对应的图像中对痘/痣/斑区域对应的部分进行修补处理。
可选地,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:确定第二区域中的眼部区域;在人脸区域图像中对应眼部区域的图像进行放大处理。
可选地,对待处理图像进行人脸检测,包括:通过预先训练完成的神经网络对待处理图像进行人脸检测。
可选地,对神经网络的训练包括:通过对包含有人脸特征点标注信息的原始样本图像至少进行信息保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息;基于神经网络对原始样本图像以及加扰样本图像进行检测,得到针对原始样本图像中人脸特征点的第一预测信息以及针对加扰样本图像中人脸特征点的第二预测信息;确定第一预测信息和标注信息之间的第一差异、第一预测信息和第二预测信息之间的第二差异、以及第二差异与信息保持加扰处理所处理的图像信息之间的第三差异;根据第一差异和第三差异调整神经网络的网络参数。
可选地,对包含有人脸特征点标注信息的原始样本图像至少进行信息保持加扰处理,包括:对包含有人脸特征点标注信息的原始样本图像进行信息保持加扰处理和信息非保持加扰处理。
可选地,确定第一预测信息和标注信息之间的第一差异包括:使用第一损失函数确定第一预测信息和原始样本图像中人脸特征点标注信息之间的第一差异,其中,第一损失函数用于度量对原始样本图像中的人脸特征点预测结果的准确度。
可选地,确定第一预测信息和第二预测信息之间的第二差异包括:使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异;其中,第二损失函数用于度量对原始样本图像中的人脸特征点预测结果和对加扰样本图像中的人脸特征点预测结果的差异。
可选地,使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异包括:通过第一距离计算函数获得第一预测信息和第二预测信息之间的距离,距离为第二差异。
可选地,确定第二差异与信息保持加扰处理所处理的图像信息之间的第三差异包括:通过第二距离计算函数,获得第二差异与信息保持加扰处理所处理的图像信息之间的距离,距离为第三差异。
可选地,信息保持加扰处理包括以下至少之一:仿射变换处理、平移处理、缩放处理、旋转处理。
根据本发明实施例的第二方面,提供一种人脸图像处理装置,包括:图像检测模块,用于对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息;人脸区域图像处理模块,用于针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。
可选地,人脸区域图像处理模块包括:区域划分信息接收模块,用于接收用户输入的区域划分信息,根据区域划分信息确定人脸区域图像中的第一区域对应的图像和第二区域对应的图像;第一图像处理模块,用于至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,人脸区域图像处理模块包括:第一预设模板获取模块,用于获取预设的标准人脸模板,标准人脸模板中包含有标准人脸关键点信息;第一匹配变形模块,用于根据人脸区域图像中的人脸关键点信息和标准人脸关键点信息,对标准人脸模板进行匹配变形;第二图像处理模块,至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,人脸区域图像处理模块包括:区域划分模块,用于至少根据人脸区域图像中的人脸关键点信息确定人脸区域图像中的第一区域和第二区域;第三图像处理模块,用于对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,第三图像处理模块包括:第二预设模板获取模块,用于获取预设的标准人脸模板,其中,标准人脸模板中包含有标准人脸关键点信息、用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与第一预设区域不同的第二预设区域;第二匹配变形模块,用于根据人脸区域图像中的人脸关键点信息和标准人脸关键点信息,对标准人脸模板进行匹配变形;第四图像处理模块,用于至少根据变形后的标准人脸模板中的第一预设区域和第二预设区域,确定人脸区域图像中的第一区域和第二区域。
可选地,第二预设模板获取模块,用于获取预设的标准人脸模板,其中,标准人脸模板中包含有标准人脸关键点信息、用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与第一预设区域不同的第二预设区域,第二预设区域用于指示标准人脸中的非皮肤区域。
可选地,第四图像处理模块包括:第一初始区域确定模块,确定人脸区域图像中与变形后的标准人脸模板中的第一预设区域对应的区域,为第一初始区域;筛除模块,用于筛除第一初始区域对应的图像中包括的用于指示非皮肤的像素;第一区域确定模块,用于确定筛除了第一初始区域中对应用于指示非皮肤的像素之后的区域,为第一区域;第二区域确定模块,用于确定人脸区域图像中与变形后的标准人脸模板中的第二预设区域对应的区域以及第一初始区域中筛除掉的部分,为第二区域。
可选地,人脸区域图像处理模块包括:第三预设模板获取模块,用于获取预设的标准人脸模板,标准人脸模板中包含有标准人脸关键点信息;第三匹配变形模块,用于根据人脸区域图像中的人脸关键点信息和标准人脸模板,对人脸区域图像进行变形;第五图像处理模块,用于至少根据人脸区域图像和变形后的人脸区域图像对第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,第一预设模板获取模块或第二预设模板获取模块或第三预设模板获取模块在获取预设的标准人脸模板时,从预设的标准人脸模板集所包括的至少二个不同的标准人脸模板中,确定当前图像处理所需使用的标准人脸模板。
可选地,人脸区域图像处理模块至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行以下一项或几项处理:瘦脸、眼部放大、眼部增强、面部磨皮、嘴唇红润/光滑、祛除黑眼圈/眼袋、面部美白/红润、祛痘/祛痣/祛斑。
可选地,第二图像处理模块包括:模糊处理模块,用于对第一区域对应的图像和第二区域对应的图像进行模糊处理,获得模糊后人脸区域图像;变形后人脸区域图像生成模块,用于根据人脸区域图像和变形后的标准人脸模板生成变形后人脸区域图像;磨皮后人脸区域图像生成模块,用于根据变形后人脸区域图像、模糊后人脸区域图像和人脸区域图像,生成磨皮后人脸区域图像。
可选地,第二图像处理模块至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理时,第二区域对应的图像包括嘴唇图像;第二图像处理模块包括:嘴唇处理模块,用于对嘴唇图像进行红润和/或模糊处理,获得红润和/或模糊处理后嘴唇图像;变形后嘴唇图像生成模块,用于根据嘴唇图像和变形后的标准人脸模板,生成变形后嘴唇图像;最终嘴唇图像生成模块,用于根据变形后嘴唇图像、红润和/或模糊处理后嘴唇图像、以及嘴唇图像,生成最终嘴唇图像。
可选地,第二图像处理模块至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理时,第二区域对应的图像包括眼部下方设定区域的图像;第二图像处理模块包括:眼部下方处理模块,用于对眼部下方设定区域的图像进行模糊处理;颜色迁移模块,用于对模糊处理后的眼部下方设定区域的图像进行颜色迁移;变形后的眼部下方设定区域图像生成模块,用于根据眼部下方设定区域的图像和变形后的标准人脸模板,生成变形后的眼部下方设定区域图像;最终眼部下方设定区域的图像生成模块,用于根据变形后的眼部下方设定区域图像、颜色迁移后的眼部下方设定区域图像和眼部下方设定区域的图像,生成最终眼部下方设定区域的图像。
可选地,第五图像处理模块包括:美白和/或红润处理后的人脸区域图像生成模块,用于对第一区域对应的图像和/或第二区域对应的图像进行美白和/或红润处理,并生成美白和/或红润处理后的人脸区域图像;最终人脸区域图像生成模块,用于根据人脸区域图像、变形后人脸区域图像和美白和/或红润处理后的人脸区域图像,生成最终人脸区域图像。
可选地,第三图像处理模块包括:痘/痣/斑区域确定模块,用于确定第一区域中的痘/痣/斑区域;修补模块,用于在第一区域对应的图像中对痘/痣/斑区域对应的部分进行修补处理。
可选地,第三图像处理包括:眼部区域确定模块,用于确定第二区域中的眼部区域;放大处理模块,用于在人脸区域图像中对应眼部区域的图像进行放大处理。
可选地,图像检测模块用于通过预先训练完成的神经网络对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息。
可选地,图像检测模块包括训练模块,用于对神经网络的训练,训练模块包括:加扰模块,用于通过对包含有人脸特征点标注信息的原始样本图像至少进行信息保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息;检测模块,用于基于神经网络对原始样本图像以及加扰样本图像进行检测,得到针对原始样本图像中人脸特征点的第一预测信息以及针对加扰样本图像中人脸特征点的第二预测信息;确定模块,用于确定第一预测信息和标注信息之间的第一差异、第一预测信息和第二预测信息之间的第二差异、以及第二差异与信息保持加扰处理所处理的图像信息之间的第三差异;调整模块,用于根据第一差异和第三差异调整神经网络的网络参数。
可选地,加扰模块,用于通过对包含有人脸特征点标注信息的原始样本图像进行信息保持加扰处理和信息非保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息。
可选地,确定模块包括:第一差异确定模块,用于使用第一损失函数确定第一预测信息和原始样本图像中人脸特征点标注信息之间的第一差异,其中,第一损失函数用于度量对原始样本图像中的人脸特征点预测结果的准确度。
可选地,确定模块包括:第二差异确定模块,用于使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异;其中,第二损失函数用于度量对原始样本图像中的人脸特征点预测结果和对加扰样本图像中的人脸特征点预测结果的差异。
可选地,第二差异确定模块用于通过第一距离计算函数获得第一预测信息和第二预测信息之间的距离,距离为第二差异。
可选地,确定模块包括:第三差异确定模块,用于通过第二距离计算函数,获得第二差异与信息保持加扰处理所处理的图像信息之间的距离,距离为第三差异。
可选地,信息保持加扰处理包括以下至少之一:仿射变换处理、平移处理、缩放处理、旋转处理。
根据本发明实施例的第三方面,提供一种电子设备包括:处理器、存储器、通信元件和通信总线,处理器、存储器和通信元件通过通信总线完成相互间的通信;存储器用于存放至少一可执行指令,可执行指令使处理器执行如第一方面任一项的人脸图像处理方法对应的操作。
根据本发明实施例的第四方面,提供了另一种计算机可读存储介质,所述计算机可读存储介质存储有:用于对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息的可执行指令;用于针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理的可执行指令,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。
通过本发明的人脸图像处理方案,通过对待处理图像进行人脸检测,能够获得待处理图像中的至少一个人脸区域图像,以及每个人脸区域图像中的人脸关键点信息,根据每个人脸区域图像的人脸关键点信息可以对每个人脸区域图像进行对应的处理,从而满足对人脸图像的不同处理需求。处理需求包括但不限于进行美化、卡通化、艺术化等。根据不同的处理对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,由于第一区域对应的图像和第二区域对应的图像至少不重叠,使得处理更加有针对性,处理效果更好。既满足了用户的差异化图像处理需求,又大大提升了处理效果。
附图说明
图1是根据本发明实施例一的一种人脸图像处理方法的步骤流程图;
图2是根据本发明实施例二的一种人脸图像处理方法的步骤流程图;
图3是图2所示实施例中的一种标准人脸模板的示意图;
图4是图2所示实施例中的眼部放大原理的示意图;
图5是图2所示实施例中瘦脸原理的示意图;
图6是根据本发明的实施例三的一种人脸图像处理装置的结构框图;
图7是根据本发明的实施例四的一种人脸图像处理装置的结构框图;
图8是根据本发明的实施例五的一种电子设备的结构示意图。
具体实施方式
下面结合附图(若干附图中相同的标号表示相同的元素)和实施例,对本发明实施例的具体实施方式作进一步详细说明。以下实施例用于说明本发明,但不用来限制本发明的范围。
本领域技术人员可以理解,本发明实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
实施例一
参照图1,示出了根据本发明实施例一的一种人脸图像处理方法的步骤流程图。
本实施例的人脸图像处理方法包括以下步骤:
步骤S102:对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息。
其中,本发明实施例中,人脸图像意指包含有人脸的图像。一个人脸图像中可以包括一个人脸、也可以包括多个(两个或两个以上)人脸。本图像处理方法对于包括一个人脸或多个人脸的待处理图像均可适用。待处理图像可以是静态图像,也可以是动态视频帧序列中的视频帧图像。也就是说,本图像处理方法可以对静态图像(如照片)进行处理,也可以对动态视频进行处理。本图像处理方法可以进行单个人脸图像的处理,也可以对多个人脸图像进行连续处理。
通过对待处理图像进行人脸检测,能够获得待处理的图像中的所有人脸区域图像,并确定各个人脸区域图像中的人脸关键点信息。人脸关键点信息可以表征人脸的特征点,通过人脸关键点基本可以确定人脸轮廓的形状、位置,人脸五官及毛发的形状、位置等等。
本发明实施例中,本步骤的具体实现方式可以由本领域技术人员根据实际需求采用任意适当的方式实现人脸区域图像获取和人脸关键点信息获取,如通过神经网络学习的方式等,本发明实施例对本步骤的具体实现方式不作限制。
步骤S104:针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。
针对每个人脸区域图像,根据不同的处理需求,对人脸区域图像的第一区域对应的图像和/或第二区域的图像进行不同的处理。由于第一区域对应的图像和第二区域对应的图像至少部分不重叠,因而可以根据进行的处理不同而对相应的区域对应的图像进行处理,即满足处理需求,又确保处理效果,且使处理后的图像自然。
通过对待处理图像进行人脸检测,能够获得待处理图像中的至少一个人脸区域图像,以及每个人脸区域图像中的人脸关键点信息,根据每个人脸区域图像的人脸关键点信息可以对每个人脸区域图像进行对应的处理,从而满足对人脸图像的不同处理需求。处理需求包括但不限于进行美化、卡通化、艺术化等。根据不同的处理对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,由于第一区域对应的图像和第二区域对应的图像至少不重叠,使得处理更加有针对性,处理效果更好。既满足了用户的差异化图像处理需求,又大大提升了处理效果。
本实施例的人脸图像处理方法可以由任意适当的具有图像或数据处理能力的设备执行,包括但不限于:移动终端、PC机、服务器、车载设备、娱乐设备、广告设备等。
实施例二
参照图2示出了根据本发明实施例二的一种人脸图像处理方法的步骤流程图。
步骤202:获取待处理的图像,并对待处理的图像进行全图美白。
本步骤为可选步骤。对待处理的图像进行全图美白可以提高待处理的图像的亮度,使后续进行人脸检测更加方便,人脸检测的效果更好。在本实施例中,对图像进行全图美白采用使用分段曲线对图像亮度做拉伸的方式实现。具体地,通过分段曲线对图像亮度做拉伸,增强低光处的曝光,抑制高光处的曝光,提高图像的整体亮度,从而实现全图美白。进行全图美白后的图像可以记做“image1”,进行全图美白前的原始图像可以记做“source”。
本实施例中仅对实现全图美白的方式进行了例举,本领域技术人员能够根据实际需求选择现有技术中任何能够实现全图美白的技术方案。
步骤204:对全图美白后的图像进行全图红润处理。
本步骤为可选步骤。对全图美白后的图像进行全图红润处理可以进一步使后续进行人脸定位更加方便,最终处理后的图像的美化效果也更好。在本实施例中,把全图美白后的图像变换到YUV颜色空间,然后对全图美白后的图像进行全图红润处理。
通过计算YUV颜色空间中Y通道的亮度映射表,依据如下公式1进行全图红润处理中的全图提亮:
whiten_table[Y]=round(pow(Y/255.0,whiten_strenth)*255);(公式1)
其中,whiten_table[Y]指Y通道的值。whiten_strenth指提亮比例,其取值范围时0.0至1.0(含0.0和1.0)。在本步骤中,可以不做提亮处理,若不做提亮处理,则whiten_strenth的取值为:0.0。也可直接省略本步骤。
pow(Y/255.0,whiten_strenth)是指求Y/255.0的whiten_strenth次方。即以pow函数是一个求a(第一个参数)的b(第二个参数)次方的函数。
round(pow(Y/255.0,whiten_strenth)*255)是指求pow(Y/255.0,whiten_strenth)*255的最近的整数。即round函数是一个取整的函数。
继续在YUV颜色空间对人脸图像进行全图红润处理,公式如下:
YPlus=0.2578*15*tone_strenth;(公式2)
UPlus=0.1454*15*tone_strenth;(公式3)
VPlus=0.4375*15*tone_strenth;(公式4)
YptrOutput[Y_index]=(whiten_table[Y]+YPlus>255)?255:whiten_table[Y]+YPlus;(公式5)
UptrOutput[U_index]=(UptrInPut[U_index]+Uplus>255)?255:UptrInPut[U_index]+UPlus;(公式6)
VptrOutput[V_index]=(VptrInPut[V_index]+Vplus>255)?255:VptrInPut[V_index]+VPlus;(公式7)
其中,Yplus/Uplus/VPlus表示各分量调整值。whiten_table是亮度映射表,计算公式如上。Y/UptrInPut/VptrInPut是源图像y/u/v各分量值。YptrOutput/UptrOutput/VptrOutput是调整后各分量输出值。U_index/V_index是每个像素的索引
在进行全图红润时可以仅对U通道和V通道进行处理。进行全图美白和红润处理后的图像可以记做“image2”。
步骤S206:对待处理图像进行人脸检测,获得所述待处理的图像包括的至少一个人脸区域图像以及各所述人脸区域图像中的人脸关键点信息。
进行全图美白和全图红润处理后的图像(“image2”)可以通过人脸检测,获取每个人脸的人脸位置信息和每个人脸的人脸关键点信息。根据人脸位置信息可以获取包含人脸的人脸区域图像,人脸区域图像可以记做“FaceReg”,每个人脸区域图像中包括一个人脸。
当待处理图像中包括两个或两个以上的人脸时每个人脸生成一张人脸区域图像。人脸区域图像可以是从待处理图像中抠选出的包含人脸的区域的图像。
在一种实施方式中,所述对待处理图像进行人脸检测包括通过预先训练完成的神经网络模型对待处理图像进行人脸检测。
对所述神经网络模型的训练包括:
获取待训练的原始样本图像。
其中,原始样本图像中包含有人脸特征点的标注信息,也即,预先对待训练的原始样本图像进行人脸特征点的标注,以进行卷积神经网络的人脸特征点检测训练。
对原始样本图像进行加扰处理,获取加扰后的样本图像,以及信息保持加扰处理所处理的图像信息。
本实施例中,对每一个待训练的原始样本图像进行加扰处理,生成新的图像,即加扰后的样本图像。原始样本图像和加扰后的样本图像都将输入卷积神经网络,进行卷积神经网络训练。同时,记录信息保持加扰处理所处理的图像信息,包括原图像信息和加扰处理后的图像信息之间的差异的信息。
本实施例中,对原始样本图像进行的加扰处理,即包括信息保持加扰处理,也包括信息非保持加扰处理。在针对防抖动的卷积神经网络训练中,仅使用信息保持加扰处理对原始样本图像进行加扰,进而训练卷积神经网络,可以使得训练更有针对性;而既使用信息保持加扰处理又使用信息非保持加扰处理对原始样本图像进行加扰,进而训练卷积神经网络,既可以训练卷积神经网络的防抖动性能,又可以使得卷积神经网络能够对不同的图像进行鉴别和进一步的检测处理,提升卷积神经网络的检测性能。但是,因信息非保持加扰处理不会影响卷积神经网络对人脸特征点的输出,因此仅对信息保持加扰处理所处理的图像信息进行记录即可。
其中,对原始样本图像的信息保持加扰处理和信息非保持加扰处理均可以由本领域技术人员采用任意适当的方式进行,如通过对比度调整或者高斯噪声函数进行信息非保持加扰处理,通过旋转拉伸或者位移变换函数或者仿射变换函数进行信息保持加扰处理,等等。但不限于此,其他的加扰处理也同样适用。
将原始样本图像和加扰后的样本图像输入卷积神经网络进行检测训练,获得针对原始样本图像中人脸特征点的第一预测信息和针对加扰样本图像中人脸特征点的第二预测信息。
将原始样本图像和加扰样本图像输入卷积神经网络进行检测训练,分别获得对应的预测信息。其中,卷积神经网络中的卷积层部分可以采用常规的卷积层部分,包括但不限于卷积层、非线性响应单元(非线性响应单元包括但不限于ReLU层)、特征提取层、计算层等,对原始样本图像和加扰样本图像的处理可以参照相关的卷积神经网络的处理进行,在此不再赘述。经卷积神经网络的检测训练后,获得相应的预测信息,对于原始样本图像,该预测信息为对原始样本图像中人脸特征点的检测结果;对于加扰样本图像,该预测信息为对加扰样本图像中的人脸特征点的检测结果(某次的预测信息可以理解为卷积神经网络在某次训练过程中的输出结果)。
确定第一预测信息和原始样本图像中人脸特征点的标注信息之间的第一差异、以及第一预测信息和第二预测信息之间的第二差异。
本实施例中,使用第一损失函数确定第一预测信息和原始样本图像中人脸特征点的标注信息之间的第一差异;使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异。
其中,第一损失函数用于度量对原始样本图像中的人脸特征点检测结果的准确度,第二损失函数用于度量对原始样本图像中的人脸特征点检测结果和对加扰样本图像中的人脸特征点检测结果的差异。第一损失函数可以为常规的卷积神经网络中的损失函数,如EuclideanLoss函数、SmoothL1Loss函数等,通过第一损失函数获得的损失值为第一损失值。第二损失函数可以为适当的度量两个检测结果差异的函数。一种可行方案中,可以使用适当的距离计算函数(为与后续的距离计算函数相区分,将该距离计算函数记为第一距离计算函数)作为第二损失函数,在此情况下,先获得第一预测信息和第二预测信息;使用第一距离计算函数计算第一预测信息和第二预测信息之间的距离;将所述距离确定为第二损失值,该损失值即为第二差异。其中,第一距离计算函数可以为任意适当的函数,如欧式距离计算函数、马式距离计算函数等等。
需要说明的是,获得第一差异和获得第二差异的执行可以不分先后顺序,也可以并行执行。
根据第二差异与信息保持加扰处理所处理的图像信息,获得第三差异。
在一种可行方式中,可以通过第二距离计算函数,获得第二差异与信息保持加扰处理所处理的图像信息之间的距离,所述距离为第三差异。其中,第二距离计算函数可以为任意适当的函数,如欧式距离计算函数、马式距离计算函数等等。
根据第一差异和第三差异调整卷积神经网络的网络参数。
将第一差异和第三差异均作为更新卷积神经网络的依据,以使参数更新更为有效,训练出的卷积神经网络除了能够精准地进行人脸定位外,还能够有效减弱视频中相邻两帧的人脸抖动。
对卷积神经网络的训练是一个迭代过程,需要有一个训练终止条件,该条件可以如迭代训练次数,也可以如收敛条件。因此,可以判断对卷积神经网络的训练是否满足预定的训练终止条件;若不满足,则根据第一差异和第三差异调整卷积神经网络的网络参数,使用调整后的网络参数继续训练卷积神经网络直至满足预定的训练终止条件;若满足,则完成对卷积神经网络的训练。
步骤S208:针对每个所述人脸区域图像,至少根据所述人脸区域图像中的人脸关键点信息,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,所述第二区域对应的图像与所述第一区域对应的图像至少部分不重叠。
在本步骤中,第一区域和第二区域指示的人脸区域图像中的图像可以根据需要确定,例如,第一区域可以用于指示人脸区域图像中人脸的皮肤区域,第二区域用于指示人脸区域图像中与第一区域不同的区域(如,第二区域用于指示人脸区域图像中的人脸的非皮肤区域,或者第二区域用于指示人脸区域图像中人脸的非皮肤区域、以及人脸区域图像中人的头发、耳朵等人脸之外的区域等)。
人脸区域图像中的第一区域和第二区域可以通过现有的方式确定,例如,人工标注划分方式、像素颜色信息筛选。
在一种可行方式中,可以通过预设的标准人脸模板确定第一区域和第二区域。例如,针对每个人脸区域图像,可以获取预设的标准人脸模板,其中,标准人脸模板中包含有标准人脸关键点信息;根据人脸区域图像中的人脸关键点信息和标准人脸关键点信息,对标准人脸模板进行匹配变形;根据变形后的标准人脸模板,确定人脸区域图像中的第一区域和/或第二区域。在标准人脸模板中,可以对不同的人脸关键点进行标注,以使具有相同标注的人脸关键点可以形成不同的区域,由此,在标准人脸模板变形后,人脸区域图像中与标准人脸模板对应的人脸关键点也可以有与标准人脸模板中的人脸关键点相同的标注,以确定人脸区域图像中的第一区域和/或第二区域。或者,标准人脸模板中除包括标准人脸关键点信息外,还可以包含有用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的非皮肤区域的第二预设区域,在此情况下,在标准人脸模板变形后,可以根据其第一预设区域和第二预设区域,确定人脸区域图像中的第一区域和第二区域。
在另一种可行的实施方式中,第一区域和第二区域的确定根据用户的选择确定。例如:
接收用户输入的区域划分信息,根据区域划分信息确定人脸区域图像中的第一区域对应的图像和第二区域对应的图像。
确定第一区域和第二区域时,可以将人脸区域图像提供给用户(提供的方式可以是在具有显示功能的屏幕上显示人脸区域图像),使用户能够在人脸区域图像上选择自己想要的区域(这个区域可以是连续的一个区域,也可以是分隔的多个区域)作为第一区域和第二区域中的一个,然后将剩下的区域作为第一区域和第二区域中的另一个,并根据用户的选定生成并接收区域划分信息。
根据接收到的区域划分信息,确定人脸区域图像中的第一区域和第二区域,从而确定第一区域对应的图像和第二区域对应的图像。例如,将用户选定的区域确定为第一区域,将用户选定之外的区域确定为第二区域。
在另一种可行的实施方式中,人脸区域图像中的第一区域和第二区域根据人脸区域图像中的人脸关键点信息确定。
下面对根据人脸区域图像中的人脸关键点信息确定人脸区域图像中的第一区域和第二区域进行详细说明:
获取预设的标准人脸模板,其中,所述标准人脸模板中包含有标准人脸关键点信息,标准人脸模板中还可以包含用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的非皮肤区域的第二预设区域。
标准人脸模板(记做“标准人脸mask”)是预先设置的模板,其可以包括人脸关键点信息。如图3所示,图3中示出了一种标准人脸模板。标准人脸模板可以通过但不限于手绘、计算机绘制等方式获得。一种可选的实现方式是选择一张用作标准人脸模版的人脸图像,手工绘制出标准人脸模板,并在标准人脸模板中标记出人脸关键点信息。还可以在标准人脸模板中标示出指示标准人脸中的皮肤区域的第一预设区域,皮肤区域可以包括脸颊、额头、下巴等区域。指示标准人脸中的非皮肤区域的第二预设区域,非皮肤区域可以包括眼睛、眉毛、嘴巴等。
标准人脸模板可以包括多个,多个标准人脸模板组成一个标准人脸模板集,每个标准人脸模板中可以仅包含人脸的部分区域,也可以包含整张人脸。每个标准人脸模板中包含的信息可以不相同。每个标准人脸模板对应一种处理。
根据所述人脸区域图像中的人脸关键点信息和所述标准人脸关键点信息,对所述标准人脸模板进行匹配变形。
由于标准人脸模板的大小、形状等与人脸区域图像中的人脸的大小形状可能不同,因此需要对标准人脸模板进行变形。对标准人脸模板进行变形可以采用现有的变形方法,只要保证变形后的标准人脸模板中的人脸关键点与人脸区域图像中的人脸关键点的距离尽可能接近或者对齐(两者的距离满足设定阈值即认为两者对齐)即可。
至少根据变形后的所述标准人脸模板中的第一预设区域和第二预设区域,确定所述人脸区域图像中的所述第一区域和所述第二区域。
变形后的标准人脸模板的大小、形状等与人脸区域图像中的人脸的形状、大小一致,因此可以根据变形后的标准人脸模板中的第一预设区域和第二预设区域确定人脸区域图像中的第一区域和第二区域。
其具体过程可以是:
确定所述人脸区域图像中与变形后的所述标准人脸模板中的第一预设区域对应的区域,为第一初始区域。
变形后的标准人脸模板中的各部分应是与人脸区域图像中的人脸的各部分对应的。例如,变形后的标准人脸模板中的人脸的脸颊与人脸区域图像中的人脸的脸颊相对应,因此人脸区域图像中的与变形后的标准人脸模板中的第一预设区域对应的区域,可以确定为第一初始区域。
筛除所述第一初始区域对应的图像中包括的用于指示非皮肤的像素。
由于人脸区域图像中的人脸的形态存在不确定性,例如,人脸的姿势、表情、发型、是否戴眼镜、口罩等,因此在确定第一初始区域后,还需要对第一初始区域指示的区域进行筛选和排除,将第一初始区域中的非皮肤像素排除。对第一初始区域中的非皮肤像素进行排除的过程可以是:
获取第一初始区域对应的图像的各像素的像素信息(像素信息中包括但不限于颜色信息),根据像素信息中的颜色信息可以确定哪些像素是非皮肤的像素(颜色值在某些设定阈值之外的像素即为非皮肤像素,例如额头上的头发、眼睛框等的颜色信息与皮肤的颜色信息差距较大)。确定非皮肤像素之后,将这些非皮肤像素进行标识(例如,将非皮肤像素的颜色值置零,使其显示黑色),以将这些非皮肤像素从第一初始区域中筛除。
确定筛除了所述第一初始区域中对应用于指示非皮肤的像素之后的区域,为所述第一区域。
筛除第一初始区域中对应用于指示非皮肤的像素后的区域即为人脸区域图像中的第一区域。
确定所述人脸区域图像中与变形后的所述标准人脸模板中的第二预设区域对应的区域以及所述第一初始区域中筛除掉的部分,为所述第二区域。
人脸区域图像中第一区域之外的区域即为第二区域。具体地第二区域包括与变形后的标准人脸模板的第二预设区域对应的区域、和第一初始区域中筛除的区域。
对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
确定人脸区域图像中的第一区域和第二区域之后,即可以确定第一区域对应的图像和第二区域对应的图像,可以对第一区域对应的图像和第二区域对应的图像进行处理。
在其他实施例中,确定人脸区域图像中的第一区域和第二区域还可以通过下述方式:
获取预设的标准人脸模板,所述标准人脸模板中包含有标准人脸关键点信息。
此步骤与上一方式中的对应步骤的相同,在此不再赘述。
根据所述人脸区域图像中的人脸关键点信息和所述标准人脸模板,对所述人脸区域图像进行变形。
在本步骤中,根据人脸关键点信息将人脸区域图像变形,使人脸区域图像中的人脸关键点与标准人脸模板中的人脸关键点尽可能接近或对齐(两者的距离满足设定阈值即认为两者对齐)。对人脸区域图像进行变形后,变形后的人脸区域图像的大小、形状与标准人脸模板的大小、形状一致,之后与上一方式一样,可以根据标准人脸模板中的第一预设区域和第二预设区域确定变形后的人脸区域图像中的第一区域和第二区域。
至少根据所述人脸区域图像和变形后的所述人脸区域图像对所述第一区域对应的图像和/或第二区域对应的图像进行处理。
确定变形后的人脸区域图像中的第一区域和第二区域后,可以对第一区域对应的图像和第二区域对应的图像进行处理。需要说明的是,由于对人脸区域图像进行了变形,因此在处理完变形后的人脸区域图像后,需要对处理完的变形后的人脸区域图像进行反变形,使其大小和形状与变形前的人脸区域图像一致。
对人脸区域图像的第一区域对应的图像和/或第二区域对应的图像进行处理包括:
根据不同的处理需求,针对每个人脸区域图像,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行相应的处理。
针对每个人脸区域图像,用户可能存在多种处理需求,例如,进行美颜、卡通化、艺术化、妆化、娱乐化等。进行美颜时,可能需要进行磨皮、大眼、嘴唇红润等处理。进行卡通化时,可能进行五官局部放大、扭曲等处理。进行艺术化时,可能进行图片做旧等处理。
以进行美颜为例,可以由用户选定对人脸区域图像进行哪些处理,如进行磨皮、美白、红润、眼部放大等。也可以通过系统设置默认的处理。
在本实施例中,人脸区域图像的处理包括至少下列之一:瘦脸、眼部放大、眼部增强、面部磨皮、嘴唇红润/光滑、祛除黑眼圈/眼袋、面部美白/红润、祛痘/祛痣/祛斑。其中嘴唇红润/光滑、祛除黑眼圈/眼袋、面部美白/红润、祛痘/祛痣/祛斑中的“/”表示“和/或”,即嘴唇红润/光滑应理解为“嘴唇红润和/或光滑”。
下面针对上述每一种处理,对人脸区域图像进行的处理进行说明:
一、进行面部磨皮处理
进行面部磨皮处理时,至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理包括:
对所述第一区域对应的图像和所述第二区域对应的图像进行模糊处理,获得模糊后人脸区域图像。
对人脸区域图像(“FaceReg”)中的第一区域对应的图像和第二区域对应的图像进行模糊处理,获得模糊后的人脸区域图像(记做“BluredFaceReg”)。
其中,模糊处理可以仅进行高斯模糊处理,也可以仅进行中值模糊处理,也可以既进行高斯模糊处理,又进行中值模糊处理。
若同时进行了高斯模糊处理和中值模糊处理,则在生成模糊后的人脸区域图像时,对进行了高斯模糊处理的人脸区域图像和进行了中值模糊处理的人脸区域图像中的各对应像素取最大值,作为生成的模糊后的人脸区域图像(“BluredFaceReg”)的对应位置的像素。在此过程中,由于对人脸区域图像的第一区域对应的图像和第二区域对应的图像均进行了处理,而在进行磨皮时,一部分人脸区域图像(例如,第二区域指示的非皮肤区域图像)是不需要进行磨皮处理的,为了避免整张脸进行磨皮处理造成的处理后图像的不自然,对模糊后的人脸区域图像进行下述处理,以确保美化效果同时保证处理后的图像更加自然。
根据所述人脸区域图像和变形后的所述标准人脸模板生成变形后人脸区域图像。
根据变形后的标准人脸模板(上面已经说明了变形后标准人脸模板的获取方式,在此不再赘述)和人脸区域图像(“FaceReg”)并生成变形后的人脸区域图像(记做“warpmask”)。
变形后的人脸区域图像中的各个像素根据标准人脸模板中标示的第一预设区域的像素信息和第二预设区域的像素信息确定。例如,如图3所示,图3中,标准人脸模板中的黑色部分表示第二预设区域(非皮肤区域,不做磨皮处理的区域),则变形后的人脸区域图像中的与第二预设区域对应的区域的像素信息根据第二预设区域的像素信息确定。从而保留眉毛、眼睛、嘴唇、鼻沟等部位的细节。黑色之外的区域表示第一预设区域(皮肤区域,需要进行磨皮处理的区域)。
在一种可选方式中,对于需要磨皮的区域还可以进行多级细分,例如多个不同级别的白色,越白表示磨皮力度越大。
为了使变形后人脸区域图像边缘平滑、过渡自然,可以通过人脸区域图像(“FaceReg”)对变形后人脸区域图像(“warpmask”)进行导向滤波(“guidedfilter”),从而生成平滑的变形后人脸区域图像(记做“smoothwarpedmask”)。
根据所述变形后人脸区域图像、所述模糊后人脸区域图像和所述人脸区域图像,生成磨皮后人脸区域图像。
由于变形后人脸区域图像(“warpmask”)已经区分了人脸区域图像(“FaceReg”)中的需要磨皮区域和不需要磨皮区域,因此利用变形后人脸区域图像(“warpmask”)可以对模糊后人脸区域图像(“BluredFaceReg”)进行调节,从而使磨皮后图像更加自然。
在一种实施方式中:可以根据变形后人脸区域图像(“warpmask”,若进行了导向滤波,则变形后人脸区域图像为“smoothwarpedmask”)、模糊后人脸区域图像(“BluredFaceReg”)和人脸区域图像(“FaceReg”),生成磨皮后人脸区域图像(记做“smoothFaceReg”)。
如,根据下述公式8生成磨皮后人脸区域图像(记做“smoothFaceReg”)。smoothFaceReg=smoothwarpedmask*BluredFaceReg+(1.0–smoothwarpedmask)*FaceReg(公式8)
为了进一步提高生成的磨皮后人脸区域图像的边缘平滑度,使过渡更加自然,使用磨皮后人脸区域图像(“smoothFaceReg”)对人脸区域图像(“FaceReg”)进行导向滤波(“guidedfilter”)生成平滑的磨皮后人脸区域图像(记做“guidedsmoothFaceReg”)。
之后将平滑的磨皮后人脸区域图像(“guidedsmoothFaceReg”)放回原图(人脸区域图像)中,并通过“AlphaBlending”方式控制力度。可选的力度控制公式为:
FaceReg=alpha*guidedsmoothFaceReg+(1.0-alpha)*FaceReg(公式9)
其中,“alpha”的取值范围为0.0至1.0,用于控制磨皮力度。
二、处理为嘴唇红润/光滑处理
当确定的处理包括嘴唇红润/光滑处理时,所述第二区域对应的图像包括嘴唇图像;所述至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理包括:
对所述嘴唇图像进行红润和/或模糊处理,获得红润和/或模糊处理后嘴唇图像。
人脸区域图像中的第二区域的确定方式上面已经记载,在此不再赘述。需要说明的是,第二区域的对应的图像包括的嘴唇图像可以根据人脸关键点信息从人脸区域图像中抠选出来,在进行嘴唇红润/光滑处理时,嘴唇图像记做“FaceReg”。
具体进行红润和/或模糊处理可以是:对嘴唇图像(“FaceReg”)进行红润处理、高斯模糊和/或中值模糊,并生成红润和/或模糊处理后的嘴唇图像(记做“smoothFaceReg”)。
根据所述嘴唇图像和变形后的所述标准人脸模板,生成变形后嘴唇图像。
变形后的标准人脸模板的获取方式上面已经记载,在此不再赘述。需要说明的是:该标准人脸模板可以是从标准人脸模板集中获取的与嘴唇红润/光滑处理对应的标准人脸模板。该标准人脸模板中可以仅包含进行嘴唇红润/光滑处理所要处理的嘴唇及周边的区域的图像,也可以包含整张人脸的图像。
根据变形后标准人脸模板与嘴唇图像生成变形后嘴唇图像(“warpmask”)的过程与磨皮处理中根据所述人脸区域图像和变形后的所述标准人脸模板生成变形后人脸区域图像的过程相同,在此不再赘述。变形后嘴唇图像的像素信息中指示出对嘴唇图像进行处理的力度。此过程中变形后的标准人脸模板同样可以进行导向滤波,使边缘更加平滑,生成平滑的变形后嘴唇图像(记做“smoothwarpmask”)。
根据所述变形后嘴唇图像(“warpmask”或者“smoothwarpmask”)、所述红润和/或模糊处理后嘴唇图像(“smoothFaceReg”)、以及所述嘴唇图像(“FaceReg”),生成最终嘴唇图像。
根据变形后嘴唇图像、红润和/或模糊处理后的嘴唇图像、以及嘴唇图像生成的最终嘴唇图像的过程与磨皮处理中根据所述变形后人脸区域图像、所述模糊后人脸区域图像和所述人脸区域图像,生成磨皮后人脸区域图像的过程类似,在此不再赘述。
之后通过AlphaBlending的方式将最终嘴唇图像放入人脸区域图像中。
其中,“AlphaBlending”又称“α混合”,AlphaBlending是按照“Alpha”混合向量的值来混合源像素和目标像素的一种图像处理技术。Alpha混合向量一般表示了图片的透明度。
以两个像素的α混合为例:
首先,把源像素和目标像素的RGB三个颜色分量分离。然后把源像素的三个颜色分量分别乘上Alpha的值,并把目标像素的三个颜色分量分别乘上Alpha的反值。接下来把结果按对应颜色分量相加,获得最后求得的每个分量结果。最后把三个颜色分量重新合成为一个像素输出。
三、处理为祛除黑眼圈/眼袋处理
当处理包括祛除黑眼圈/眼袋处理时,所述第二区域对应的图像包括眼部下方设定区域的图像;所述至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理包括:
对所述眼部下方设定区域的图像进行模糊处理。
人脸区域图像中的第二区域的确定方式上面已经记载,在此不再赘述。需要说明的是,第二区域的对应的图像包括的眼部下方设定区域的图像。眼部下方设定区域的图像可以根据人脸关键点信息从人脸区域图像中抠选出来,在进行祛除黑眼圈/眼袋处理时,眼部下方设定区域的图像记做“FaceReg”。其中,眼部下方的设定区域可以由本领域技术人员根据实际情况适当设定,以黑眼圈和/或眼袋可能存在的区域大小进行设定即可。
具体对眼部下方设定区域的图像进行模糊处理可以是:对眼部下方设定区域的图像(“FaceReg”)进行高斯模糊和/或中值模糊,并生成模糊处理后的眼部下方设定区域的图像(记做“smoothFaceReg”)。
对模糊处理后的所述眼部下方设定区域的图像进行颜色迁移。
对模糊后的眼部下方设定区域图像进行颜色迁移,并生成迁移后人脸的眼部下方设定区域图像。对模糊后的眼部下方设定区域图像进行颜色迁移的具体过程包括:将模糊后的眼部下方设定区域图像转换至YUV颜色空间,计算眼部下方设定区域(即黑眼圈和/或眼袋区域)及下方皮肤的均值和方差,之后进行颜色迁移。
根据所述眼部下方设定区域的图像和变形后的所述标准人脸模板,生成变形后的眼部下方设定区域图像。
根据眼部下方设定区域图像和变形后的标准人脸模板,生成变形后眼部下方设定区域图像。
此过程中的标准人脸模板是从标准人脸模板集中选取的对应与祛除黑眼圈/眼袋处理的人脸标准模板。根据所述眼部下方设定区域的图像和变形后的所述标准人脸模板,生成变形后的眼部下方设定区域图像的过程与磨皮处理中根据所述人脸区域图像和变形后的所述标准人脸模板生成变形后人脸区域图像的过程相同,在此不再赘述。
变形后的标准人脸模板同样可以进行导向滤波,使边缘更加平滑,生成平滑的变形后的眼部下方设定区域图像(记做smoothwarpmask)。
根据所述变形后的眼部下方设定区域图像、颜色迁移后的眼部下方设定区域图像和所述眼部下方设定区域的图像,生成最终眼部下方设定区域的图像。
根据变形后的眼部下方设定区域图像、颜色迁移后的眼部下方设定区域图像和眼部下方设定区域图像,生成最终眼部下方设定区域的图像的过程与磨皮处理中根据所述变形后人脸区域图像、所述模糊后人脸区域图像和所述人脸区域图像,生成磨皮后人脸区域图像的过程类似,在此不再赘述。最终眼部下方设定区域的图像是祛除黑眼圈/眼袋后的眼部下方设定区域的图像。
之后通过AlphaBlending的方式将祛除黑眼圈眼袋后的眼部下方设定区域的图像放入人脸区域图像中。
四、处理为祛痘/祛痣祛斑处理
当确定的处理包括祛痘/祛痣祛斑处理时,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理包括:
确定所述第一区域中的痘/痣/斑区域。
在一种实施方式中,将人脸区域图像转化为梯度图,通过Blobdetect生成Blobmask。同时将人脸标准模板进行变形和导向滤波,生成变形后的人脸标准模板(guidedwarpedmask)。用变形后的人脸标准模板对Blobmask进行筛选,然后进行肤色筛选、分割出眼镜mask做筛选、connectedcomponent做筛选,确定出痘和/或痣和/或斑的位置。
在所述第一区域对应的图像中对所述痘/痣/斑区域对应的部分进行修补处理。
在一种实施方式中,对痘和/或痣和/或斑区域进行修补处理包括对人脸区域图像进行磨皮处理,例如,进行高斯模糊和/或中值模糊。结合connectedcomponent筛选后的图像和磨皮处理后的图像生成祛痘和/或祛痣和/或祛斑后的人脸区域图像。
之后通过AlphaBlending的方式将祛痘祛痣后人脸区域图像放入原人脸区域图像中。
五、处理为面部美白/红润处理
当确定的处理包括面部美白/红润处理时,所述至少根据所述人脸区域图像和所述变形后人脸区域图像对所述第一区域对应的图像和/或第二区域对应的图像进行处理包括:
对所述第一区域对应的图像和/或所述第二区域对应的图像进行美白和/或红润处理,并生成美白和/或红润处理后的人脸区域图像。
对第一区域对应的图像和第二区域对应的图像进行美白处理包括通过分段曲线对人脸区域图像亮度做拉伸,增强低光处的曝光,抑制高光处的曝光,提高第一区域对应的图像和第二区域对应的图像的亮度。
当然,在其他实施例中,也可以仅对第一区域对应的图像(皮肤区域的图像)进行美白。
根据所述人脸区域图像、所述变形后人脸区域图像和所述美白和/或红润处理后的人脸区域图像,生成最终人脸区域图像。
根据变形后人脸区域图像、美白和/或红润处理后的人脸区域图像和人脸区域图像,生成最终的人脸区域图像。这一过程与磨皮处理中根据所述变形后人脸区域图像、所述模糊后人脸区域图像和所述人脸区域图像,生成磨皮后人脸区域图像的过程类似,在此不再赘述。
之后通过AlphaBlending的方式将最终人脸区域图像放入人脸区域图像中。
六、处理为眼部增强处理
当确定的处理包括眼部增强处理时,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理包括:
确定所述第二区域中的眼部区域。
确定第二区域中的眼部区域的方式可以是根据人脸关键点信息确定眼部区域。然后将眼部区域从人脸区域图像中抠出。
在所述人脸区域图像中对应眼部区域的图像进行增强处理。
在一种实施方式中,对抠出的眼部区域的图像中的眼睛进行增强对比度处理。
通过AlphaBlending的方式将增强后眼部区域图像与抠出的眼部区域图像结合,并将结合后图像进行USM锐化,之后将锐化后眼部区域图像还原至人脸区域图像中。
七、处理为眼部放大处理
当确定的处理包括眼部放大时,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:
确定所述第二区域中的眼部区域。
确定第二区域中的眼部区域的方式可以是根据人脸关键点信息确定眼部区域。然后将眼部区域从人脸区域图像中抠出。
在所述人脸区域图像中对应眼部区域的图像进行放大处理。
在一种实施方式中,进行放大处理包括:
根据人脸关键点信息确定人脸区域图像中的左眼和/或右眼的关键点信息,依据放大原理对眼睛进行放大处理。放大原理是:如图4所示,设眼睛区域是以(pointX,pointY)为中心,Radius为半径的圆形区域,对于任一像素(x,y)按照其所在位置和半径之间的比值,从经过点(pointX,pointY)和(x,y)的直线中选择一个位置像素作为该点新的像素值,如果这个新的位置位于两点之间(X1,Y1),则出现眼睛缩小效果,如果这个新的位置位于两点的连线的延长线上(X2,Y2),则出现放大现象。
为了减小放大后眼睛边缘模糊现象,映射后位置的像素值使用双线性插值的方法进行优化。线性映射的计算公式调整成离眼珠越进的像素的变换越小,而越远的变化越大。
八、处理为瘦脸处理
当确定的处理包括瘦脸处理时,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理包括:
根据人脸关键点信息中的人脸轮廓部位关键点信息,按一定比例把这些人脸轮廓部位关键点向内移动得到新的关键点。按照图形局部变换原理,逐个对为关键点为圆心的圆形区域做变形,新位置的像素值使用双线性插值减小模糊。
图形局部变换原理是:如图5所示,图5中的圆代表一个半径为rmax的圆形选区。其中,C点是当前圆形选区的圆心。圆心从C移动到M,致使图像中的点U变换到点X。当获知这一变换的逆变换时,给出点X时,可以求出它变换前的坐标U(精确的浮点坐标),然后用变化前图像在U点附近的像素进行插值,求出U的像素值。如此对圆形选区内的每个像素进行求值,便可得到变换后的图像。
逆变换公式为:
通过本实施例,通过人脸检测,支持对单张或多张人脸进行处理。将人脸关键点定位技术和标准人脸模板相结合,可实现对人脸的不同区域做精准的差异化处理,能够准确地对人脸上的皮肤区域做需要处理的同时,保证眉毛、眼睛、毛发等细节的完好无损和高锐度,极大提高了人脸处理方面的处理效果,且处理后的图像能够保持自然。
本实施例的人脸图像处理方法可以由任意适当的具有图像或数据处理能力的设备执行,包括但不限于:移动终端、PC机、服务器、车载设备、娱乐设备、广告设备等。
实施例三
参照图6,示出了根据本发明实施例三的一种人脸图像处理装置的结构框图。
本实施例的人脸图像处理装置,包括:图像检测模块602,用于对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息;人脸区域图像处理模块604,用于针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。
本实施例的人脸图像处理装置用于实现前述多个方法实施例中相应的人脸图像处理方法,并具有相应的方法实施例的有益效果,在此不再赘述。
实施例四
参照图7,示出了根据本发明的实施例四的一种人脸图像处理装置的结构框图。
本实施例的人脸图像处理装置,包括:图像检测模块702,用于对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息;人脸区域图像处理模块704,用于针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。
可选地,人脸区域图像处理模块704包括:区域划分信息接收模块7041,用于接收用户输入的区域划分信息,根据区域划分信息确定人脸区域图像中的第一区域对应的图像和第二区域对应的图像;第一图像处理模块7042,用于至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,人脸区域图像处理模块704包括:第一预设模板获取模块7043,用于获取预设的标准人脸模板,标准人脸模板中包含有标准人脸关键点信息;第一匹配变形模块7044,用于根据人脸区域图像中的人脸关键点信息和标准人脸关键点信息,对标准人脸模板进行匹配变形;第二图像处理模块7045,至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,人脸区域图像处理模块704包括:区域划分模块7046,用于至少根据人脸区域图像中的人脸关键点信息确定人脸区域图像中的第一区域和第二区域;第三图像处理模块7047,用于对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,第三图像处理模块7047包括:第二预设模板获取模块(图中未示出),用于获取预设的标准人脸模板,其中,标准人脸模板中包含有标准人脸关键点信息、用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与第一预设区域不同的第二预设区域;第二匹配变形模块(图中未示出),用于根据人脸区域图像中的人脸关键点信息和标准人脸关键点信息,对标准人脸模板进行匹配变形;第四图像处理模块(图中未示出),用于至少根据变形后的标准人脸模板中的第一预设区域和第二预设区域,确定人脸区域图像中的第一区域和第二区域。
可选地,第二预设模板获取模块(图中未示出),用于获取预设的标准人脸模板,其中,标准人脸模板中包含有标准人脸关键点信息、用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与第一预设区域不同的第二预设区域,第二预设区域用于指示标准人脸中的非皮肤区域。
可选地,第四图像处理模块包括:第一初始区域确定模块(图中未示出),确定人脸区域图像中与变形后的标准人脸模板中的第一预设区域对应的区域,为第一初始区域;筛除模块(图中未示出),用于筛除第一初始区域对应的图像中包括的用于指示非皮肤的像素;第一区域确定模块(图中未示出),用于确定筛除了第一初始区域中对应用于指示非皮肤的像素之后的区域,为第一区域;第二区域确定模块(图中未示出),用于确定人脸区域图像中与变形后的标准人脸模板中的第二预设区域对应的区域以及第一初始区域中筛除掉的部分,为第二区域。
可选地,人脸区域图像处理模块704包括:第三预设模板获取模块7048,用于获取预设的标准人脸模板,标准人脸模板中包含有标准人脸关键点信息;第三匹配变形模块7049,用于根据人脸区域图像中的人脸关键点信息和标准人脸模板,对人脸区域图像进行变形;第五图像处理模块704a,用于至少根据人脸区域图像和变形后的人脸区域图像对第一区域对应的图像和/或第二区域对应的图像进行处理。
可选地,第一预设模板获取模块7043或第二预设模板获取模块(图中未示出)或第三预设模板获取模块7048在获取预设的标准人脸模板时,从预设的标准人脸模板集所包括的至少二个不同的标准人脸模板中,确定当前图像处理所需使用的标准人脸模板。
可选地,人脸区域图像处理模块704至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行以下一项或几项处理:瘦脸、眼部放大、眼部增强、面部磨皮、嘴唇红润/光滑、祛除黑眼圈/眼袋、面部美白/红润、祛痘/祛痣/祛斑。
可选地,第二图像处理模块7045包括:模糊处理模块(图中未示出),用于对第一区域对应的图像和第二区域对应的图像进行模糊处理,获得模糊后人脸区域图像;变形后人脸区域图像生成模块(图中未示出),用于根据人脸区域图像和变形后的标准人脸模板生成变形后人脸区域图像;磨皮后人脸区域图像生成模块(图中未示出),用于根据变形后人脸区域图像、模糊后人脸区域图像和人脸区域图像,生成磨皮后人脸区域图像。
可选地,第二图像处理模块7045至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理时,第二区域对应的图像包括嘴唇图像;第二图像处理模块7045包括:嘴唇处理模块(图中未示出),用于对嘴唇图像进行红润和/或模糊处理,获得红润和/或模糊处理后嘴唇图像;变形后嘴唇图像生成模块(图中未示出),用于根据嘴唇图像和变形后的标准人脸模板,生成变形后嘴唇图像;最终嘴唇图像生成模块(图中未示出),用于根据变形后嘴唇图像、红润和/或模糊处理后嘴唇图像、以及嘴唇图像,生成最终嘴唇图像。
可选地,第二图像处理模块7045至少根据变形后的标准人脸模板,对第一区域对应的图像和/或第二区域对应的图像进行处理时,第二区域对应的图像包括眼部下方设定区域的图像;第二图像处理模块7045包括:眼部下方处理模块(图中未示出),用于对眼部下方设定区域的图像进行模糊处理;颜色迁移模块(图中未示出),用于对模糊处理后的眼部下方设定区域的图像进行颜色迁移;变形后的眼部下方设定区域图像生成模块,用于根据眼部下方设定区域的图像和变形后的标准人脸模板,生成变形后的眼部下方设定区域图像;最终眼部下方设定区域的图像生成模块(图中未示出),用于根据变形后的眼部下方设定区域图像、颜色迁移后的眼部下方设定区域图像和眼部下方设定区域的图像,生成最终眼部下方设定区域的图像。
可选地,第五图像处理模块704a包括:美白和/或红润处理后的人脸区域图像生成模块(图中未示出),用于对第一区域对应的图像和/或第二区域对应的图像进行美白和/或红润处理,并生成美白和/或红润处理后的人脸区域图像;最终人脸区域图像生成模块(图中未示出),用于根据人脸区域图像、变形后人脸区域图像和美白和/或红润处理后的人脸区域图像,生成最终人脸区域图像。
可选地,第三图像处理模块7047包括:痘/痣/斑区域确定模块(图中未示出),用于确定第一区域中的痘/痣/斑区域;修补模块(图中未示出),用于在第一区域对应的图像中对痘/痣/斑区域对应的部分进行修补处理。
可选地,第三图像处理包括:眼部区域确定模块(图中未示出),用于确定第二区域中的眼部区域;放大处理模块(图中未示出),用于在人脸区域图像中对应眼部区域的图像进行放大处理。
可选地,图像检测模块702用于通过预先训练完成的神经网络对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息。
可选地,图像检测模块702包括训练模块7021,用于对神经网络的训练,训练模块7021包括:加扰模块(图中未示出),用于通过对包含有人脸特征点标注信息的原始样本图像至少进行信息保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息;检测模块(图中未示出),用于基于神经网络对原始样本图像以及加扰样本图像进行检测,得到针对原始样本图像中人脸特征点的第一预测信息以及针对加扰样本图像中人脸特征点的第二预测信息;确定模块(图中未示出),用于确定第一预测信息和标注信息之间的第一差异、第一预测信息和第二预测信息之间的第二差异、以及第二差异与信息保持加扰处理所处理的图像信息之间的第三差异;调整模块(图中未示出),用于根据第一差异和第三差异调整神经网络的网络参数。
可选地,加扰模块(图中未示出),用于通过对包含有人脸特征点标注信息的原始样本图像进行信息保持加扰处理和信息非保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息。
可选地,确定模块包括(图中未示出):第一差异确定模块,用于使用第一损失函数确定第一预测信息和原始样本图像中人脸特征点标注信息之间的第一差异,其中,第一损失函数用于度量对原始样本图像中的人脸特征点预测结果的准确度。
可选地,确定模块包括:第二差异确定模块(图中未示出),用于使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异;其中,第二损失函数用于度量对原始样本图像中的人脸特征点预测结果和对加扰样本图像中的人脸特征点预测结果的差异。
可选地,第二差异确定模块用于通过第一距离计算函数获得第一预测信息和第二预测信息之间的距离,距离为第二差异。
可选地,确定模块包括:第三差异确定模块(图中未示出),用于通过第二距离计算函数,获得第二差异与信息保持加扰处理所处理的图像信息之间的距离,距离为第三差异。
可选地,信息保持加扰处理包括以下至少之一:仿射变换处理、平移处理、缩放处理、旋转处理。
本实施例的人脸图像处理装置用于实现前述多个方法实施例中相应的人脸图像处理方法,并具有相应的方法实施例的有益效果,在此不再赘述。
实施例五
参照图8,本发明的实施例五的一种电子设备的结构示意图。本发明实施例五提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图8,其示出了适于用来实现本发明实施例的终端设备或服务器的电子设备800的结构示意图:如图6所示,电子设备800包括一个或多个处理器、通信元件等,一个或多个处理器例如:一个或多个中央处理单元(CPU)801,和/或一个或多个图像处理器(GPU)813等,处理器可以根据存储在只读存储器(ROM)802中的可执行指令或者从存储部分808加载到随机访问存储器(RAM)803中的可执行指令而执行各种适当的动作和处理。通信元件包括通信组件812和/或通信接口809。其中,通信组件812可包括但不限于网卡,网卡可包括但不限于IB(Infiniband)网卡,通信接口809包括诸如LAN卡、调制解调器等的网络接口卡的通信接口,通信接口809经由诸如因特网的网络执行通信处理。
处理器可与只读存储器802和/或随机访问存储器803中通信以执行可执行指令,通过通信总线804与通信组件812相连、并经通信组件812与其他目标设备通信,从而完成本发明实施例提供的任一项图像处理方法对应的操作,例如,对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息;针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。
此外,在RAM803中,还可存储有装置操作所需的各种程序和数据。CPU801或GPU813、ROM802以及RAM803通过通信总线804彼此相连。在有RAM803的情况下,ROM802为可选模块。RAM803存储可执行指令,或在运行时向ROM802中写入可执行指令,可执行指令使处理器执行上述通信方法对应的操作。输入/输出(I/O)接口805也连接至通信总线804。通信组件812可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在通信总线链接上。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信接口809。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
需要说明的,如图8所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图8的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU和CPU可分离设置或者可将GPU集成在CPU上,通信元件可分离设置,也可集成设置在CPU或GPU上,等等。这些可替换的实施方式均落入本发明的保护范围。
特别地,根据本发明实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本发明实施例提供的方法步骤对应的指令,例如,对待处理图像进行人脸检测,获得待处理的图像包括的至少一个人脸区域图像以及各人脸区域图像中的人脸关键点信息;针对每个人脸区域图像,至少根据人脸区域图像中的人脸关键点信息,对人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,第二区域对应的图像与第一区域对应的图像至少部分不重叠。在这样的实施例中,该计算机程序可以通过通信元件从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器执行时,执行本发明实施例的方法中限定的上述功能。
需要指出,根据实施的需要,可将本发明实施例中描述的各个部件/步骤拆分为更多部件/步骤,也可将两个或多个部件/步骤或者部件/步骤的部分操作组合成新的部件/步骤,以实现本发明实施例的目的。
上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CDROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如ASIC或FPGA)的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,RAM、ROM、闪存等),当所述软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的处理方法。此外,当通用计算机访问用于实现在此示出的处理的代码时,代码的执行将通用计算机转换为用于执行在此示出的处理的专用计算机。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
以上实施方式仅用于说明本发明实施例,而并非对本发明实施例的限制,有关技术领域的普通技术人员,在不脱离本发明实施例的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明实施例的范畴,本发明实施例的专利保护范围应由权利要求限定。
Claims (45)
1.一种人脸图像处理方法,包括:
通过预先训练完成的神经网络对待处理图像进行人脸检测,获得所述待处理的图像包括的至少一个人脸区域图像以及各所述人脸区域图像中的人脸关键点信息;
针对每个所述人脸区域图像,至少根据所述人脸区域图像中的人脸关键点信息和预设的标准人脸模板,确定人脸区域图像中的第一区域和/或第二区域,并对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,所述第二区域对应的图像与所述第一区域对应的图像至少部分不重叠,
其中,所述神经网络为利用原始样本图像以及加扰样本图像训练得到;所述原始样本图像包含人脸特征点标注信息;所述加扰样本图像为通过对所述原始样本图像至少进行信息保持加扰处理后得到的图像。
2.根据权利要求1所述的方法,其中,针对每个所述人脸区域图像,所述方法还包括:
接收用户输入的区域划分信息,根据所述区域划分信息确定所述人脸区域图像中的第一区域对应的图像和第二区域对应的图像;
至少根据所述人脸区域图像中的人脸关键点信息,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
3.根据权利要求1所述的方法,其中,至少根据所述人脸区域图像中的人脸关键点信息和预设的标准人脸模板,确定人脸区域图像中的第一区域和/或第二区域,并对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:
获取预设的标准人脸模板,所述标准人脸模板中包含有标准人脸关键点信息;
根据所述人脸区域图像中的人脸关键点信息和所述标准人脸关键点信息,对所述标准人脸模板进行匹配变形;
至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理。
4.根据权利要求3所述的方法,其中,所述标准人脸模板中还包含:用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与所述第一预设区域不同的第二预设区域;
所述至少根据所述人脸区域图像中的人脸关键点信息和预设的标准人脸模板,确定人脸区域图像中的第一区域和/或第二区域,包括:
根据所述人脸区域图像中的人脸关键点信息和所述标准人脸关键点信息,对所述标准人脸模板进行匹配变形;
至少根据变形后的所述标准人脸模板中的第一预设区域和第二预设区域,确定所述人脸区域图像中的所述第一区域和所述第二区域。
5.根据权利要求4所述的方法,其中,所述第二预设区域用于指示标准人脸中的非皮肤区域。
6.根据权利要求4所述的方法,其中,至少根据变形后的所述标准人脸模板中的第一预设区域和第二预设区域,确定所述人脸区域图像中的所述第一区域和所述第二区域,包括:
确定所述人脸区域图像中与变形后的所述标准人脸模板中的第一预设区域对应的区域,为第一初始区域;
筛除所述第一初始区域对应的图像中包括的用于指示非皮肤的像素;
确定筛除了所述第一初始区域中对应用于指示非皮肤的像素之后的区域,为所述第一区域;
确定所述人脸区域图像中与变形后的所述标准人脸模板中的第二预设区域对应的区域以及所述第一初始区域中筛除掉的部分,为所述第二区域。
7.根据权利要求1所述的方法,其中,至少根据所述人脸区域图像中的人脸关键点信息和预设的标准人脸模板,确定人脸区域图像中的第一区域和/或第二区域,并对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:
获取预设的标准人脸模板,所述标准人脸模板中包含有标准人脸关键点信息;
根据所述人脸区域图像中的人脸关键点信息和所述标准人脸模板,对所述人脸区域图像进行变形;
至少根据所述人脸区域图像和变形后的所述人脸区域图像对所述第一区域对应的图像和/或第二区域对应的图像进行处理。
8.根据权利要求3-7中任一项所述的方法,其中,获取预设的标准人脸模板,包括:
从预设的标准人脸模板集所包括的至少二个不同的标准人脸模板中,确定当前图像处理所需使用的标准人脸模板。
9.根据权利要求1-7中任一项所述的方法,其中,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行以下一项或几项处理:
瘦脸、眼部放大、眼部增强、面部磨皮、嘴唇红润/光滑、祛除黑眼圈/眼袋、面部美白/红润、祛痘/祛痣/祛斑。
10.根据权利要求3所述的方法,其中,至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理,包括:
对所述第一区域对应的图像和所述第二区域对应的图像进行模糊处理,获得模糊后人脸区域图像;
根据所述人脸区域图像和变形后的所述标准人脸模板生成变形后人脸区域图像;
根据所述变形后人脸区域图像、所述模糊后人脸区域图像和所述人脸区域图像,生成磨皮后人脸区域图像。
11.根据权利要求3所述的方法,其中,所述第二区域对应的图像包括嘴唇图像;所述至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理,包括:
对所述嘴唇图像进行红润和/或模糊处理,获得红润和/或模糊处理后嘴唇图像;
根据所述嘴唇图像和变形后的所述标准人脸模板,生成变形后嘴唇图像;
根据所述变形后嘴唇图像、所述红润和/或模糊处理后嘴唇图像、以及所述嘴唇图像,生成最终嘴唇图像。
12.根据权利要求3所述的方法,其中,所述第二区域对应的图像包括眼部下方设定区域的图像;所述至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理,包括:
对所述眼部下方设定区域的图像进行模糊处理;
对模糊处理后的所述眼部下方设定区域的图像进行颜色迁移;
根据所述眼部下方设定区域的图像和变形后的所述标准人脸模板,生成变形后的眼部下方设定区域图像;
根据所述变形后的眼部下方设定区域图像、颜色迁移后的眼部下方设定区域图像和所述眼部下方设定区域的图像,生成最终眼部下方设定区域的图像。
13.根据权利要求7所述的方法,其中,所述至少根据所述人脸区域图像和所述变形后人脸区域图像对所述第一区域对应的图像和/或第二区域对应的图像进行处理,包括:
对所述第一区域对应的图像和/或所述第二区域对应的图像进行美白和/或红润处理,并生成美白和/或红润处理后的人脸区域图像;
根据所述人脸区域图像、所述变形后人脸区域图像和所述美白和/或红润处理后的人脸区域图像,生成最终人脸区域图像。
14.根据权利要求1所述的方法,其中,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:
确定所述第一区域中的痘/痣/斑区域;
在所述第一区域对应的图像中对所述痘/痣/斑区域对应的部分进行修补处理。
15.根据权利要求1所述的方法,其中,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,包括:
确定所述第二区域中的眼部区域;
在所述人脸区域图像中对应眼部区域的图像进行放大处理。
16.根据权利要求1-7中任一项所述的方法,其中,对所述神经网络的训练包括:
通过对包含有人脸特征点标注信息的原始样本图像至少进行信息保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息;
基于神经网络对所述原始样本图像以及所述加扰样本图像进行检测,得到针对所述原始样本图像中人脸特征点的第一预测信息以及针对所述加扰样本图像中人脸特征点的第二预测信息;
确定所述第一预测信息和所述标注信息之间的第一差异、所述第一预测信息和所述第二预测信息之间的第二差异、以及所述第二差异与所述信息保持加扰处理所处理的图像信息之间的第三差异;
根据所述第一差异和所述第三差异调整所述神经网络的网络参数。
17.根据权利要求16所述的方法,其中,所述对包含有人脸特征点标注信息的原始样本图像至少进行信息保持加扰处理,包括:
对包含有人脸特征点标注信息的原始样本图像进行信息保持加扰处理和信息非保持加扰处理。
18.根据权利要求16所述的方法,其中,确定所述第一预测信息和所述标注信息之间的第一差异包括:
使用第一损失函数确定第一预测信息和原始样本图像中人脸特征点标注信息之间的第一差异,其中,所述第一损失函数用于度量对原始样本图像中的人脸特征点预测结果的准确度。
19.根据权利要求16所述的方法,其中,确定所述第一预测信息和所述第二预测信息之间的第二差异包括:
使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异;其中,所述第二损失函数用于度量对原始样本图像中的人脸特征点预测结果和对加扰样本图像中的人脸特征点预测结果的差异。
20.根据权利要求19所述的方法,其中,使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异包括:
通过第一距离计算函数获得所述第一预测信息和所述第二预测信息之间的距离,所述距离为所述第二差异。
21.根据权利要求16所述的方法,其中,确定所述第二差异与所述信息保持加扰处理所处理的图像信息之间的第三差异包括:
通过第二距离计算函数,获得所述第二差异与所述信息保持加扰处理所处理的图像信息之间的距离,所述距离为所述第三差异。
22.根据权利要求16所述的方法,其中,所述信息保持加扰处理包括以下至少之一:仿射变换处理、平移处理、缩放处理、旋转处理。
23.一种人脸图像处理装置,包括:
图像检测模块,用于通过预先训练完成的神经网络对待处理图像进行人脸检测,获得所述待处理的图像包括的至少一个人脸区域图像以及各所述人脸区域图像中的人脸关键点信息;
人脸区域图像处理模块,用于针对每个所述人脸区域图像,至少根据所述人脸区域图像中的人脸关键点信息和预设的标准人脸模板,确定人脸区域图像中的第一区域和/或第二区域,并对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理,其中,所述第二区域对应的图像与所述第一区域对应的图像至少部分不重叠,
其中,所述神经网络为利用原始样本图像以及加扰样本图像训练得到;所述原始样本图像包含人脸特征点标注信息;所述加扰样本图像为通过对所述原始样本图像至少进行信息保持加扰处理后得到的图像。
24.根据权利要求23所述的装置,其中,所述人脸区域图像处理模块包括:
区域划分信息接收模块,用于接收用户输入的区域划分信息,根据所述区域划分信息确定所述人脸区域图像中的第一区域对应的图像和第二区域对应的图像;
第一图像处理模块,用于至少根据所述人脸区域图像中的人脸关键点信息,对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行处理。
25.根据权利要求23所述的装置,其中,所述人脸区域图像处理模块包括:
第一预设模板获取模块,用于获取预设的标准人脸模板,所述标准人脸模板中包含有标准人脸关键点信息;
第一匹配变形模块,用于根据所述人脸区域图像中的人脸关键点信息和所述标准人脸关键点信息,对所述标准人脸模板进行匹配变形;
第二图像处理模块,至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理。
26.根据权利要求25所述的装置,其中,所述标准人脸模板中还包含:用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与所述第一预设区域不同的第二预设区域;
所述人脸区域图像处理模块包括:
第二匹配变形模块,用于根据所述人脸区域图像中的人脸关键点信息和所述标准人脸关键点信息,对所述标准人脸模板进行匹配变形;
第四图像处理模块,用于至少根据变形后的所述标准人脸模板中的第一预设区域和第二预设区域,确定所述人脸区域图像中的所述第一区域和所述第二区域。
27.根据权利要求26所述的装置,其中,第二预设模板获取模块,用于获取预设的标准人脸模板,其中,所述标准人脸模板中包含有标准人脸关键点信息、用于指示标准人脸中至少部分的皮肤区域的第一预设区域、以及用于指示标准人脸中的与所述第一预设区域不同的第二预设区域,所述第二预设区域用于指示标准人脸中的非皮肤区域。
28.根据权利要求26所述的装置,其中,所述第四图像处理模块包括:
第一初始区域确定模块,确定所述人脸区域图像中与变形后的所述标准人脸模板中的第一预设区域对应的区域,为第一初始区域;
筛除模块,用于筛除所述第一初始区域对应的图像中包括的用于指示非皮肤的像素;
第一区域确定模块,用于确定筛除了所述第一初始区域中对应用于指示非皮肤的像素之后的区域,为所述第一区域;
第二区域确定模块,用于确定所述人脸区域图像中与变形后的所述标准人脸模板中的第二预设区域对应的区域以及所述第一初始区域中筛除掉的部分,为所述第二区域。
29.根据权利要求23所述的装置,其中,所述人脸区域图像处理模块包括:
第三预设模板获取模块,用于获取预设的标准人脸模板,所述标准人脸模板中包含有标准人脸关键点信息;
第三匹配变形模块,用于根据所述人脸区域图像中的人脸关键点信息和所述标准人脸模板,对所述人脸区域图像进行变形;
第五图像处理模块,用于至少根据所述人脸区域图像和变形后的所述人脸区域图像对所述第一区域对应的图像和/或第二区域对应的图像进行处理。
30.根据权利要求25-29中任一项所述的装置,其中,第一预设模板获取模块或第二预设模板获取模块或第三预设模板获取模块在获取预设的标准人脸模板时,从预设的标准人脸模板集所包括的至少二个不同的标准人脸模板中,确定当前图像处理所需使用的标准人脸模板。
31.根据权利要求23-29中任一项所述的装置,其中,所述人脸区域图像处理模块用于对所述人脸区域图像中的第一区域对应的图像和/或第二区域对应的图像进行以下一项或几项处理:瘦脸、眼部放大、眼部增强、面部磨皮、嘴唇红润/光滑、祛除黑眼圈/眼袋、面部美白/红润、祛痘/祛痣/祛斑。
32.根据权利要求25所述的装置,其中,第二图像处理模块包括:
模糊处理模块,用于对所述第一区域对应的图像和所述第二区域对应的图像进行模糊处理,获得模糊后人脸区域图像;
变形后人脸区域图像生成模块,用于根据所述人脸区域图像和变形后的所述标准人脸模板生成变形后人脸区域图像;
磨皮后人脸区域图像生成模块,用于根据所述变形后人脸区域图像、所述模糊后人脸区域图像和所述人脸区域图像,生成磨皮后人脸区域图像。
33.根据权利要求25所述的装置,其中,所述第二图像处理模块至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理时,所述第二区域对应的图像包括嘴唇图像;所述第二图像处理模块包括:
嘴唇处理模块,用于对所述嘴唇图像进行红润和/或模糊处理,获得红润和/或模糊处理后嘴唇图像;
变形后嘴唇图像生成模块,用于根据所述嘴唇图像和变形后的所述标准人脸模板,生成变形后嘴唇图像;
最终嘴唇图像生成模块,用于根据所述变形后嘴唇图像、所述红润和/或模糊处理后嘴唇图像、以及所述嘴唇图像,生成最终嘴唇图像。
34.根据权利要求25所述的装置,其中,所述第二图像处理模块至少根据变形后的所述标准人脸模板,对所述第一区域对应的图像和/或所述第二区域对应的图像进行处理时,所述第二区域对应的图像包括眼部下方设定区域的图像;所述第二图像处理模块包括:
眼部下方处理模块,用于对所述眼部下方设定区域的图像进行模糊处理;
颜色迁移模块,用于对模糊处理后的所述眼部下方设定区域的图像进行颜色迁移;
变形后的眼部下方设定区域图像生成模块,用于根据所述眼部下方设定区域的图像和变形后的所述标准人脸模板,生成变形后的眼部下方设定区域图像;
最终眼部下方设定区域的图像生成模块,用于根据所述变形后的眼部下方设定区域图像、颜色迁移后的眼部下方设定区域图像和所述眼部下方设定区域的图像,生成最终眼部下方设定区域的图像。
35.根据权利要求29所述的装置,其中,所述第五图像处理模块包括:
美白和/或红润处理后的人脸区域图像生成模块,用于对所述第一区域对应的图像和/或所述第二区域对应的图像进行美白和/或红润处理,并生成美白和/或红润处理后的人脸区域图像;
最终人脸区域图像生成模块,用于根据所述人脸区域图像、所述变形后人脸区域图像和所述美白和/或红润处理后的人脸区域图像,生成最终人脸区域图像。
36.根据权利要求23所述的装置,其中,第三图像处理模块包括:
痘/痣/斑区域确定模块,用于确定所述第一区域中的痘/痣/斑区域;
修补模块,用于在所述第一区域对应的图像中对所述痘/痣/斑区域对应的部分进行修补处理。
37.根据权利要求23所述的装置,其中,第三图像处理包括:
眼部区域确定模块,用于确定所述第二区域中的眼部区域;
放大处理模块,用于在所述人脸区域图像中对应眼部区域的图像进行放大处理。
38.根据权利要求23-37中任一项所述的装置,其中,所述图像检测模块包括训练模块,用于对所述神经网络的训练,所述训练模块包括:
加扰模块,用于通过对包含有人脸特征点标注信息的原始样本图像至少进行信息保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息;
检测模块,用于基于神经网络对所述原始样本图像以及所述加扰样本图像进行检测,得到针对所述原始样本图像中人脸特征点的第一预测信息以及针对所述加扰样本图像中人脸特征点的第二预测信息;
确定模块,用于确定所述第一预测信息和所述标注信息之间的第一差异、所述第一预测信息和所述第二预测信息之间的第二差异、以及所述第二差异与所述信息保持加扰处理所处理的图像信息之间的第三差异;
调整模块,用于根据所述第一差异和所述第三差异调整所述神经网络的网络参数。
39.根据权利要求38所述的装置,其中,所述加扰模块,用于通过对包含有人脸特征点标注信息的原始样本图像进行信息保持加扰处理和信息非保持加扰处理,获得加扰样本图像以及信息保持加扰处理所处理的图像信息。
40.根据权利要求38所述的装置,其中,所述确定模块包括:
第一差异确定模块,用于使用第一损失函数确定第一预测信息和原始样本图像中人脸特征点标注信息之间的第一差异,其中,所述第一损失函数用于度量对原始样本图像中的人脸特征点预测结果的准确度。
41.根据权利要求38所述的装置,其中,所述确定模块包括:
第二差异确定模块,用于使用第二损失函数确定第一预测信息和第二预测信息之间的第二差异;其中,所述第二损失函数用于度量对原始样本图像中的人脸特征点预测结果和对加扰样本图像中的人脸特征点预测结果的差异。
42.根据权利要求41所述的装置,其中,所述第二差异确定模块用于
通过第一距离计算函数获得所述第一预测信息和所述第二预测信息之间的距离,所述距离为所述第二差异。
43.根据权利要求38所述的装置,其中,所述确定模块包括:
第三差异确定模块,用于通过第二距离计算函数,获得所述第二差异与所述信息保持加扰处理所处理的图像信息之间的距离,所述距离为所述第三差异。
44.根据权利要求38所述的装置,其中,所述信息保持加扰处理包括以下至少之一:仿射变换处理、平移处理、缩放处理、旋转处理。
45.一种电子设备,包括:处理器、存储器、通信元件和通信总线,所述处理器、所述存储器和所述通信元件通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-22任一项所述的人脸图像处理方法对应的操作。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710247289.0A CN108229279B (zh) | 2017-04-14 | 2017-04-14 | 人脸图像处理方法、装置和电子设备 |
PCT/CN2018/082180 WO2018188534A1 (zh) | 2017-04-14 | 2018-04-08 | 人脸图像处理方法、装置和电子设备 |
US16/600,457 US11132824B2 (en) | 2017-04-14 | 2019-10-12 | Face image processing method and apparatus, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710247289.0A CN108229279B (zh) | 2017-04-14 | 2017-04-14 | 人脸图像处理方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108229279A CN108229279A (zh) | 2018-06-29 |
CN108229279B true CN108229279B (zh) | 2020-06-02 |
Family
ID=62656557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710247289.0A Active CN108229279B (zh) | 2017-04-14 | 2017-04-14 | 人脸图像处理方法、装置和电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11132824B2 (zh) |
CN (1) | CN108229279B (zh) |
WO (1) | WO2018188534A1 (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6872742B2 (ja) * | 2016-06-30 | 2021-05-19 | 学校法人明治大学 | 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム |
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN108230255A (zh) * | 2017-09-19 | 2018-06-29 | 北京市商汤科技开发有限公司 | 用于实现图像增强的方法、装置和电子设备 |
CN108230331A (zh) * | 2017-09-30 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、计算机存储介质 |
CN108764091B (zh) * | 2018-05-18 | 2020-11-17 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
US10956714B2 (en) | 2018-05-18 | 2021-03-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
CN109002796B (zh) * | 2018-07-16 | 2020-08-04 | 阿里巴巴集团控股有限公司 | 一种图像采集方法、装置和系统以及电子设备 |
CN109087239B (zh) * | 2018-07-25 | 2023-03-21 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法、装置及存储介质 |
CN109376618B (zh) * | 2018-09-30 | 2021-03-23 | 北京旷视科技有限公司 | 图像处理方法、装置及电子设备 |
CN111243011A (zh) * | 2018-11-29 | 2020-06-05 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN111353929A (zh) * | 2018-12-21 | 2020-06-30 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN109886107A (zh) * | 2019-01-15 | 2019-06-14 | 北京奇艺世纪科技有限公司 | 眼部图像处理方法、设备、图像处理设备、介质 |
CN109934766B (zh) * | 2019-03-06 | 2021-11-30 | 北京市商汤科技开发有限公司 | 一种图像处理方法及装置 |
CN109978063B (zh) * | 2019-03-28 | 2021-03-02 | 厦门美图之家科技有限公司 | 一种生成目标对象的对齐模型的方法 |
CN110222571B (zh) * | 2019-05-06 | 2023-04-07 | 平安科技(深圳)有限公司 | 黑眼圈智能判断方法、装置及计算机可读存储介质 |
CN112446832A (zh) * | 2019-08-31 | 2021-03-05 | 华为技术有限公司 | 一种图像处理方法及电子设备 |
CN111462007B (zh) * | 2020-03-31 | 2023-06-09 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备及计算机存储介质 |
CN111539905B (zh) * | 2020-05-15 | 2023-08-25 | 北京百度网讯科技有限公司 | 用于生成图像的方法、装置、设备以及存储介质 |
CN111556337B (zh) * | 2020-05-15 | 2021-09-21 | 腾讯科技(深圳)有限公司 | 一种媒体内容植入方法、模型训练方法以及相关装置 |
CN112069993B (zh) * | 2020-09-04 | 2024-02-13 | 西安西图之光智能科技有限公司 | 基于五官掩膜约束的密集人脸检测方法及系统和存储介质 |
CN112150393B (zh) * | 2020-10-12 | 2024-08-13 | 深圳数联天下智能科技有限公司 | 人脸图像磨皮方法、装置、计算机设备及存储介质 |
CN114549332A (zh) * | 2020-11-25 | 2022-05-27 | 杭州火烧云科技有限公司 | 一种基于人体解析先验支持下的卷积神经网络肤质处理方法及处理装置 |
US11574388B2 (en) * | 2020-12-29 | 2023-02-07 | Adobe Inc. | Automatically correcting eye region artifacts in digital images portraying faces |
CN113096231B (zh) * | 2021-03-18 | 2023-10-31 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113177526B (zh) * | 2021-05-27 | 2023-10-03 | 中国平安人寿保险股份有限公司 | 基于人脸识别的图像处理方法、装置、设备及存储介质 |
CN114638829A (zh) * | 2022-05-18 | 2022-06-17 | 安徽数智建造研究院有限公司 | 隧道衬砌检测模型的抗干扰训练方法及隧道衬砌检测方法 |
TWI831582B (zh) * | 2023-01-18 | 2024-02-01 | 瑞昱半導體股份有限公司 | 偵測系統以及偵測方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544478A (zh) * | 2013-10-09 | 2014-01-29 | 五邑大学 | 一种全方位人脸检测的方法及系统 |
CN104992402A (zh) * | 2015-07-02 | 2015-10-21 | 广东欧珀移动通信有限公司 | 一种美颜处理方法及装置 |
CN105447823A (zh) * | 2014-08-07 | 2016-03-30 | 联想(北京)有限公司 | 一种图像处理方法及一种电子设备 |
CN105657249A (zh) * | 2015-12-16 | 2016-06-08 | 东莞酷派软件技术有限公司 | 一种图像处理方法及用户终端 |
CN105654420A (zh) * | 2015-12-21 | 2016-06-08 | 小米科技有限责任公司 | 人脸图像处理方法及装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008234342A (ja) | 2007-03-20 | 2008-10-02 | Fujifilm Corp | 画像処理装置及び画像処理方法 |
JP4720880B2 (ja) | 2008-09-04 | 2011-07-13 | ソニー株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
US8295557B2 (en) | 2009-01-12 | 2012-10-23 | Arcsoft Hangzhou Co., Ltd. | Face image processing method |
CN103413270A (zh) | 2013-08-15 | 2013-11-27 | 北京小米科技有限责任公司 | 一种图像的处理方法、装置和终端设备 |
CN104573614B (zh) * | 2013-10-22 | 2020-01-03 | 北京三星通信技术研究有限公司 | 用于跟踪人脸的设备和方法 |
CN104680121B (zh) | 2013-11-27 | 2022-06-03 | 腾讯科技(深圳)有限公司 | 一种人脸图像的处理方法及装置 |
CN103632165B (zh) | 2013-11-28 | 2017-07-04 | 小米科技有限责任公司 | 一种图像处理的方法、装置及终端设备 |
WO2015078007A1 (zh) * | 2013-11-29 | 2015-06-04 | 徐勇 | 一种快速人脸对齐方法 |
CN104715224B (zh) | 2013-12-11 | 2019-01-04 | 腾讯科技(深圳)有限公司 | 一种获取用户群体的面部特征图像的方法及装置 |
CN103824049A (zh) | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联神经网络的人脸关键点检测方法 |
US10339685B2 (en) | 2014-02-23 | 2019-07-02 | Northeastern University | System for beauty, cosmetic, and fashion analysis |
CN104952036B (zh) | 2015-06-18 | 2018-11-06 | 福州瑞芯微电子股份有限公司 | 一种即时视频中的人脸美化方法和电子设备 |
CN105069007B (zh) | 2015-07-02 | 2018-01-19 | 广东欧珀移动通信有限公司 | 一种建立美颜数据库的方法及装置 |
CN104992167B (zh) | 2015-07-28 | 2018-09-11 | 中国科学院自动化研究所 | 一种基于卷积神经网络的人脸检测方法及装置 |
WO2017041295A1 (en) * | 2015-09-11 | 2017-03-16 | Intel Corporation | Real-time face beautification features for video images |
US9864901B2 (en) * | 2015-09-15 | 2018-01-09 | Google Llc | Feature detection and masking in images based on color distributions |
CN105426870B (zh) * | 2015-12-15 | 2019-09-24 | 北京文安智能技术股份有限公司 | 一种人脸关键点定位方法及装置 |
CN105787878B (zh) | 2016-02-25 | 2018-12-28 | 杭州格像科技有限公司 | 一种美颜处理方法及装置 |
CN105869159A (zh) | 2016-03-28 | 2016-08-17 | 联想(北京)有限公司 | 一种图像分割方法及装置 |
CN106056562B (zh) * | 2016-05-19 | 2019-05-28 | 京东方科技集团股份有限公司 | 一种人脸图像处理方法、装置及电子设备 |
-
2017
- 2017-04-14 CN CN201710247289.0A patent/CN108229279B/zh active Active
-
2018
- 2018-04-08 WO PCT/CN2018/082180 patent/WO2018188534A1/zh active Application Filing
-
2019
- 2019-10-12 US US16/600,457 patent/US11132824B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544478A (zh) * | 2013-10-09 | 2014-01-29 | 五邑大学 | 一种全方位人脸检测的方法及系统 |
CN105447823A (zh) * | 2014-08-07 | 2016-03-30 | 联想(北京)有限公司 | 一种图像处理方法及一种电子设备 |
CN104992402A (zh) * | 2015-07-02 | 2015-10-21 | 广东欧珀移动通信有限公司 | 一种美颜处理方法及装置 |
CN105657249A (zh) * | 2015-12-16 | 2016-06-08 | 东莞酷派软件技术有限公司 | 一种图像处理方法及用户终端 |
CN105654420A (zh) * | 2015-12-21 | 2016-06-08 | 小米科技有限责任公司 | 人脸图像处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US11132824B2 (en) | 2021-09-28 |
CN108229279A (zh) | 2018-06-29 |
US20200043213A1 (en) | 2020-02-06 |
WO2018188534A1 (zh) | 2018-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229279B (zh) | 人脸图像处理方法、装置和电子设备 | |
CN108229278B (zh) | 人脸图像处理方法、装置和电子设备 | |
CN112784773B (zh) | 图像处理方法及装置、存储介质、终端 | |
CN106056064B (zh) | 一种人脸识别方法及人脸识别装置 | |
JP4461789B2 (ja) | 画像処理装置 | |
WO2017149315A1 (en) | Locating and augmenting object features in images | |
US20110115786A1 (en) | Image processing apparatus, image processing method, and program | |
US20120075331A1 (en) | System and method for changing hair color in digital images | |
GB2548087A (en) | Locating and augmenting object features in images | |
BR102012033722A2 (pt) | Sistema e método para simulação de maquiagem em dispositivos portáteis equipados com câmera digital | |
CN111066026B (zh) | 用于向图像数据提供虚拟光调节的技术 | |
CN111783511A (zh) | 美妆处理方法、装置、终端以及存储介质 | |
CN110866139A (zh) | 一种化妆处理方法、装置及设备 | |
WO2023165369A1 (zh) | 图像处理方法和装置 | |
US10803677B2 (en) | Method and system of automated facial morphing for eyebrow hair and face color detection | |
CN113379623B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113344837B (zh) | 人脸图像处理方法及装置、计算机可读存储介质、终端 | |
CN108346128B (zh) | 一种美颜磨皮的方法和装置 | |
KR20170046635A (ko) | 얼굴 특징 기반의 가상 체험 시스템 및 그 방법 | |
CN114359030B (zh) | 一种人脸逆光图片的合成方法 | |
CN105956993A (zh) | 一种基于gpu的移动端视频美颜的即时呈现方法 | |
CN114998115A (zh) | 图像美化处理方法、装置及电子设备 | |
CN114596213A (zh) | 一种图像处理方法及装置 | |
CN113421197B (zh) | 一种美颜图像的处理方法及其处理系统 | |
US9563940B2 (en) | Smart image enhancements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP02 | Change in the address of a patent holder | ||
CP02 | Change in the address of a patent holder |
Address after: 518000 Guangdong city of Shenzhen province Qianhai Shenzhen Hong Kong cooperation zone before Bay Road No. 1 building 201 room A Patentee after: SHENZHEN SENSETIME TECHNOLOGY Co.,Ltd. Address before: 13, building 518000, China Merchants development center, 1063 Nanhai Road, Guangdong, Shenzhen, Nanshan District Patentee before: SHENZHEN SENSETIME TECHNOLOGY Co.,Ltd. |