CN107146204A - 一种图像美颜方法及终端 - Google Patents
一种图像美颜方法及终端 Download PDFInfo
- Publication number
- CN107146204A CN107146204A CN201710167736.1A CN201710167736A CN107146204A CN 107146204 A CN107146204 A CN 107146204A CN 201710167736 A CN201710167736 A CN 201710167736A CN 107146204 A CN107146204 A CN 107146204A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- measured
- processing
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012545 processing Methods 0.000 claims abstract description 82
- 238000001514 detection method Methods 0.000 claims description 94
- 230000001815 facial effect Effects 0.000 claims description 85
- 238000012549 training Methods 0.000 claims description 26
- 230000004075 alteration Effects 0.000 claims description 16
- 238000005457 optimization Methods 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 14
- 238000007637 random forest analysis Methods 0.000 claims description 12
- 238000012417 linear regression Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000005192 partition Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 11
- 230000002087 whitening effect Effects 0.000 abstract description 10
- 230000000875 corresponding effect Effects 0.000 description 26
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Abstract
本发明实施例公开了一种图像美颜方法及终端,其中该方法包括:获取当前图像;对当前图像进行处理,得到人脸关键点;根据人脸关键点对当前图像进行美颜处理,得到目标图像。本发明实施例中,先获取当前图像并对其进行处理,得到人脸关键点,再根据人脸关键点对当前图像进行美颜处理,得到目标图像。由于先检测出人脸关键点,因此在对当前图像进行美颜处理时,可仅对人脸关键点以外的区域进行美白及磨皮处理,从而提高了美颜处理后图像的清晰度,也提高了美颜效果。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像美颜方法及其终端。
背景技术
随着智能终端不断发展,可用于拍照的智能终端越来越多,如智能手机、平板电脑等。用户在使用这些智能终端进行拍照时,为了拍出满意的照片,越来越多的智能终端厂商内置了美颜功能。现有的美颜处理方法一般是对整张图片进行整体上的模糊处理及色调调整,以达到视觉上的美白和磨皮效果。但是,这样的全图模糊处理会损失人脸图像中的面部关键点信息,从而使得处理后的图像不够清晰,效果较差。
发明内容
本发明实施例提供一种图像美颜方法及其终端,可提高美颜效果。
本发明实施例提供了一种图像美颜方法,包括:
获取当前图像;
对当前图像进行处理,得到人脸关键点;
根据人脸关键点对当前图像进行美颜处理,得到目标图像。
本发明实施例还提供了一种终端,包括:
获取单元,用于获取当前图像;
第一处理单元,用于对当前图像进行处理,得到人脸关键点;
第二处理单元,用于根据人脸关键点对当前图像进行美颜处理,得到目标图像。
本发明实施例中,先获取当前图像并对其进行处理,得到人脸关键点,再根据人脸关键点对当前图像进行美颜处理,得到目标图像。由于先检测出人脸关键点,因此在对当前图像进行美颜处理时,可仅对人脸关键点以外的区域进行美白及磨皮处理,从而提高了美颜处理后图像的清晰度,也提高了美颜效果。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明第一实施例提供的一种图像美颜方法的流程示意图;
图2是本发明第二实施例提供的一种图像方法的流程示意图;
图3是图2中步骤S202的子流程示意图;
图4是本发明一实施例提供的一种强分类器的结构示意图;
图5是本发明一实施例提供的一种特征模板的示意图;
图6是本发明一实施例提供的一种子窗口的结构示意图;
图7是本发明一实施例提供的另一种子窗口的结构示意图;
图8是本发明一实施例提供的待测人脸图像示意图;
图9是步骤S204的子流程示意图;
图10是第一区域示意图;
图11是第二区域示意图;
图12是肤色检测效果图;
图13是人脸特征示意图;
图14是shape-index特征描述示意图;
图15是分类示意图;
图16是本发明第一实施例提供的一种终端的结构示意图;
图17是本发明第二实施例提供的一种终端的结构示意;
图18是本发明第三实施例提供的一种终端的结构示意。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本发明实施例中描述的终端包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
终端支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在终端上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
请参考图1,是本发明第一实施例提供的图像美颜方法的流程示意图,如图所示,该方法可以包括以下步骤:
S101,获取当前图像。
用户可以通过触控或者语音的方式向终端发送开启拍照应用的指令,终端在接收到用户发送的开启拍照应用指令的时,可以开启拍照应用以获取初始图像。其中,该初始图像以缓存的形式存储在终端中。该初始图像可以是YUV格式的,也可以是RGB格式的。若该初始图像是YUV格式的,可提取Y通道图像及V通道图像以作为当前图像。
S102,对当前图像进行处理,得到人脸关键点。
终端可以先采用人脸检测方法对当前图像进行人脸检测以得到待测人脸图像,再提取该待测人脸图像的五官区域信息和人脸肤色边缘信息,并根据五官区域信息和人脸肤色边缘信息优化初始形状,最后根据优化后的初始形状检测当前图像的人脸关键点。该部分的详细过程将在下一实施例中详述,在此不再赘述。
S103,根据人脸关键点对当前图像进行美颜处理,得到目标图像。
人脸关键点包括眼睛、鼻尖、嘴角、眉毛以及面部轮廓等。终端检测出该人脸关键点后,可对当前图像中除上述人脸关键点以外的区域进行美白及磨皮等美颜处理,得到用户想要的图像,即目标图像。
本发明实施例,先获取当前图像,并对当前图像进行处理,得到人脸关键点,再根据人脸关键点对当前图像进行美颜处理,得到目标图像。由于先检测出人脸关键点,因此在对当前图像进行美颜处理时,可仅对人脸关键点以外的区域进行美白及磨皮处理,从而提高了美颜处理后图像的清晰度,也提高了美颜效果。
参见图2,是本发明第二实施例提供的一种图像方法的流程示意图,如图所示,该方法可以包括以下步骤:
S201,获取当前图像。
用户可以通过触控或者语音的方式向终端发送开启拍照应用的指令,终端在接收到用户发送的开启拍照应用指令的时,可以开启拍照应用以获取初始图像。该初始图像可以是YUV格式的,也可以是RGB格式的。若该初始图像是YUV格式的,可提取Y通道图像及V通道图像以作为当前图像。
S202,对当前图像进行人脸检测以检测出待测人脸图像。
请参考图3,步骤S202可以包括以下步骤:
S2021,训练强分类器。
作为一种可选的实施方式,训练强分类器的具体过程如下:
(1)选定训练样本T={(x1,y1),(x2,y2)…(xi,yi)…(xN,yN)},并将该训练样本存储于指定位置,如样本数据库中。其中xi表示第i个样本,yi=0时表示其为负样本(非人脸),yi=1时表示其为正样本(人脸)。N为训练样本数量。x1表示第1个样本,y1表示第1个样本的值,当y1=0时表示其为负样本(非人脸),y1=1时表示其为正样本(人脸);x2表示第2个样本,y2表示第2个样本的值,当y2=0时表示其为负样本(非人脸),y2=1时表示其为正样本(人脸);xN表示第N个样本,yN表示第N个样本的值,当yN=0时表示其为负样本(非人脸),yN=1时表示其为正样本(人脸)。
(2)初始化训练样本的权值分布D1,即给每个训练样本设置相同的权值,可以表示为:
D1=(w11,w12…w1i…w1N),w1i=1/N,i=1,2…N
其中,w11表示第1个样本所对应的权值,w12表示第2个样本所对应的权值,w1i表示第i个样本所对应的权值,w1N表示第N个样本所对应的权值。
(3)设置迭代次数t,t=1,2,...,N,N为自然数。
(4)归一化权值:
其中,Dt(i)为第t次循环中第i个样本的权值,qt(i)为第t次循环中第i个样本的归一化权值。
(5)对训练样本进行学习以得到多个弱分类器,并计算每一弱分类器在训练样本上的分类误差率:使用具有权值分布Dt的训练样本学习得到弱分类器h(xi,fi,pi,θi),计算弱分类器的分类错误率εt:
其中,一个弱分类器h(xi,fi,pi,θi)是由特征fi,阈值θi,以及偏置位置pi组成:
另外,xi为一个训练样本,特征fi与弱分类器hi(xi,fi,pi,θi)具有一一对应的关系,偏置位pi的作用是控制不等式的方向,使得不等式符号都是小于等于号,训练一个弱分类器的就是找到最优阈值值θi的过程。
(6)从(5)中确定的弱分类器中,找出一个具有最小的分类错误率εt(i)的弱分类器ht。
(7)根据分类误差率计算弱分类器的系数βt:
βt=εt/(1-εt)
其中,该系数表示每一弱分类器在强分类器中所占的权值,当xi被正确地分类时,ei的值取0,当被xi错误地分类时,ei的值取1。并跟该系数对所有训练样本的权值进行更新:
(8)所有训练样本的权值更新后,循环执行步骤(4)到(7),直到迭代N次后,结束迭代,得到强分类器H(x):
其中,αt=log(1/βt)。
根据上述方法所得到的强分类器可以如图4所示。在该图中,该强分类器由3个级联的弱分类器组成。
S2022,按照预设缩小比例对当前图像进行缩小以得到第一检测图像。
需要说明的是,终端可以按照预设缩小比例对该当前图像进行缩小以得到第一检测图像,以便提高检测人脸图像的效率。例如,终端处理一张1300万像素的图像,需要20ms,如果将该1300万像素的图像缩小10倍,相应的处理时间也会缩小。其中,预设放大比例可以根据终端处理图像的性能决定。
S2023,将该第一检测图像进行多次划分以得到多张第二检测图像,每张第二检测图像包括多个子窗口。
终端可以将该第一检测图像进行多次划分以得到多张第二检测图像,每张该第二检测图像包括多个子窗口,其中每次划分的子窗口的个数越多,计算得出的Haar特征值也越多,检测到的人脸图像更加准确,但是每次划分的子窗口越多,计算Haar特征值的时间也会相应增加,另外,子窗口的最大数量不能超过强分类器检测的最大子窗口数量,所以划分的子窗口的数量可以根据检测人脸图像的准确性、计算Haar特征值的时间、强分类器子窗口的数量等因素综合考虑。其中,Haar特征值可以通过图像的子窗口的像素值计算得出,并用于描述图像的灰度变化。
举例来说,终端初次可以将第一检测图像划分为20*20个子窗口,然后可以按照等比例扩大划分子窗口的数量,如按照3倍的比例扩大划分子窗口的数量,即可以将该第一检测图像划分为60*60个子窗口、180*180个子窗口或540*540个子窗口等。
S2024,根据积分图计算每张第二检测图像中每个子窗口的Haar特征值。
由于计算Haar特征值需要已知每个子窗口的像素值,每个子窗口的像素值可以根据子窗口的端点处的积分图计算出,所以可以根据积分图计算每张第二检测图像的Haar特征值。
作为一种可选的实施方式,上述根据积分图计算每个子窗口的Haar特征值,可以包括:根据该积分图计算该每个子窗口对应的像素值;根据该每个子窗口的像素值计算该每个子窗口的Haar特征值。
需要说明的是,当前图像中的任意一点的积分图是指从图像的左上角到这点所构成的矩形区域内所有点的像素值值之和,同理对于具有多个子窗口第二检测图像中,每个子窗口端点处的积分图为该端点到该图像左上角所包含的所有子窗口的像素值之和。所以在计算出各个子窗口端点处的积分图的情况下,可以根据积分图计算各个子窗口的像素值,并可以根据每个子窗口的像素值计算各子窗口的Haar特征值。
进一步,在计算Haar特征值时,首先需要选择合适的特征模版,特征模版是由两个或多个的矩形组合而成,特征模板内有黑色和白色两种矩形,其中常见的特征模版如图5所示。其中每种特征模版仅对应一种特征,但每种特征可以对应多种特征模版,常见的特征有边缘特征、线性特征、点特征、对角特征,然后将特征模版按照预设规则放置在灰度图像对应的子窗口中,计算该特征模版放置区域对应的Haar特征值,该Haar特征值由特征模版中白色矩形区域的像素和减去黑色矩形区域的像素和计算得出。其中,预设规则包括设置特征模版的大小、特征模版在子窗口中放置的位置,预设规则根据灰度图像划分的子窗口的数量决定。
其中,在选定特征模版的情况下,由于特征模版的大小不同,且在每张第二检测图像的的子窗口中放置的位置不同,所以对于一个特征模版,每张第二检测图像中对应有多个Haar特征,同时可以选择多个特征模版来计算每张第二检测图像的Haar特征,另外,该每张第二检测图像的划分的子窗口的数量不一样,所以每张第二检测图像的Haar特征值的数量不一样。
举例来说,终端可以将灰度图像缩小1000倍,并将该缩小后的灰度图像划分为20*20个子窗口,根据积分图计算各个子窗口的像素值,其步骤包括:
1、计算各个子窗口端点处的积分图,这里以计算如图6中的子窗口D的端点(i,j)处的积分图为例,端点(i,j)的积分图为该点到灰度图像左上角所包括的各子窗口的像素之和,可表示为:
Integral(i,j)=子窗口D的像素值+子窗口C的像素值+子窗口B的像素值+子窗口A的像素值;
因为Integral(i-1,j-1)=子窗口A的像素值;
Integral(i-1,j)=子窗口A的像素值+子窗口C的像素值;
Integral(i,j-1)=子窗口B的像素值+子窗口A的像素值;
所以,Integral(i,j)进一步可以表示为:
Integral(i,j)=Integral(i,j-1)+Integral(i-1,j)-Integral(i-1,j-1)+子窗口D的像素值;
其中,Integral(,)表示某点的积分图,进过观察发现(i,j)点的积分图可以通过(i,j-1)点的积分图Integral(i,j-1)加上第j列的像素和ColumnSum(j)获得,即(i,j)点的积分图可以表示为:
Integral(i,j)=Integral(i,j-1)+ColumnSum(j);
其中,ColumnSum(0)=0,Integral(0,j)=0,所以对于20*20的子窗口,灰度图像上所有子窗口端点处的积分图可以通过19+19+2*19*19=760次迭代求得。
2、根据各子窗口端点处的积分图计算各个子窗口的像素值,这里以计算子窗口D的像素值为例,由步骤1可知子窗口D的像素值可以由端点(i,j)、(i,j-1),(i-1,j)及(i-1,j-1)处的积分图计算得出,即子窗口D的像素值可表示为:
子窗口D的像素值=Integral(i,j)+Integral(i-1,j-1)-Integral(i-1,j)-Integral(i,j-1);
根据上式可知,只要已知各个子窗口端点处的积分图,就可以计算出各个子窗口的像素值。
进一步,在获得各个子窗口的像素值以后,可以根据各个窗口的像素值计算Haar特征值,其中选择不同的特征模版,放置的位置不同,且特征模版的尺寸不同,对应的Haar特征值不同,选择图5中的以边缘特征对应的特征模板为例,如图7所示,该特征模版对应区域的Haar特征值可以由子窗口A的像素值减去子窗口B的像素值。
S2025,根据强分类器及每张第二检测图像得到的Haar特征值检测出多张第一人脸图像。
在计算出每张第二检测图像中各个子窗口的Haar特征值后,终端可以根据强分类器及每张该第二检测图像得到的Haar特征值检测出多张第一人脸图像,也就是说根据一张第二检测图像的Haar特征值及强分类器可以检测出一张第一人脸图像。具体的,强分类器可以由若干个弱分类器组成,将每张第二检测图像的子窗口的Haar特征值输入到强分类器中,逐级通过各个弱分类器,相当于弱分类器判断Haar特征值是否满足对应的预设人脸特征条件,若满足,则允许该Haar特征值通过,若不满足,则不允许该Haar特征值通过。如果有一级未通过,则该Haar特征值对应的子窗口将被拒绝,并分类为非人脸,每一级都能够通过,则对该Haar特征值进一步处理以找出该Haar特征值对应的子窗口,并将该Haar特征值对应的子窗口分类为人脸,对每张第二检测图像中分类为人脸的子窗口进行合并,以得到每张第二检测图像对应的第一人脸图像(例如,将子窗口数量为20*20的第二检测图像中检测出的人脸子窗口进行合并得到一张对应的第一人脸图像)。本实施例中所描述的根据强分类器及每张该第二检测图像得到的Haar特征值检测出多张第一人脸图像的方法的步骤比较简单,从而降低人脸图像检测的复杂度,且该强分类器可以是由多个弱分类器组成,所以提高了人脸检测的准确率。
举例来说,如图4所示,该强分类器是由3个级联的弱分类器组成,将子窗口数量为24*24的第二检测图像的各个子窗口的Haar特征值依次输入到3个弱分类器中,每个弱分类器判断该Haar特征值是否满足对应的预设人脸特征条件,若满足,则允许该Haar特征值通过,若不满足,则不允许该Haar特征值通过。如果有一级未通过,则该Haar特征值对应的子窗口将被拒绝,并分类为非人脸,每一级都能够通过,则对该Haar特征值进一步处理以找出该Haar特征值对应的子窗口,并将该Haar特征值对应的子窗口分类为人脸,将子窗口数量为24*24的第二检测图像中分类为人脸的子窗口进行合并,以得子窗口数量为24*24的第二检测图像对应的第一人脸图像。同理可以根据以上步骤计算子窗口数量为36*36的第二检测图像对应的第一人脸图像。
S2026,将该多张第一人脸图像进行合并得到待测人脸图像。
将该多张第一人脸图像进行合并得到该待测人脸图像,也就是说对不同子窗口数量的第二检测图像得到的多张人脸图像进行合并得到该待测人脸图像。具体的,将不同的第一人脸图像进行对比,若某两张第一人脸图像重叠面积大于预设阈值,则认为这两张第一人脸图像表示同一人脸,对这两张第一人脸进行合并,即将这两张第一人脸的位置和大小的平均值作为合并后得到的人脸位置和大小;如果某两张第一人脸图像重叠面积小于预设阈值,则认为该两张第一人脸图像表示两个不同的人脸,将该两张人脸图像合并成一张图像,该图像具有两个人脸区域,经过多次对比及合并操作可以得到待测人脸图像。其中,所检测出的人脸图像如图8所示。
S203,对该待测人脸图像进行五官检测,得到五官区域信息。
需要说明的是,步骤S203中是对Y通道的待测人脸图像进行五官检测,以得到五官区域信息。
进一步地,步骤S203具体包括:
(1)按照预设缩小比例对待测人脸图像进行缩小以得到第一处理图像;
(2)将第一处理图像进行多次划分以得到多张第二处理图像,每张第二处理图像包括多个子窗口;
(3)根据积分图计算每张第二处理图像中每个子窗口的Haar特征值;
(4)根据强分类器及每张第二处理图像得到的Haar特征值检测出五官区域信息。
举例来说,第二处理图像的各个子窗口的Haar特征值依次输入到3个弱分类器所构成的强分类器中,该强分类器的输出结果就是人眼、鼻子、嘴巴等五官区域信息。
需要说明的是,步骤(1)至(3)的具体过程请参考步骤S2022至S2024,在此不再赘述。且,采用步骤(1)至(4)检测五官区域信息,由于强分类器可以是由多个弱分类器组成,因此提高了检测的准确率。
S204,对待测人脸图像进行肤色检测,得到人脸肤色边缘信息。
需要说明的是,步骤S204是对V通道的待测人脸图像进行肤色检测,以得到人脸肤色边缘信息。
进一步地,如图9所示,步骤S204可以包括:
S2041,对待测人脸图像进行提取处理,得到第一区域。
第一区域即待测人脸图像的中心区域Rc。以如图8所示的待测人脸图像为例,假设人脸检测初始坐标表示为{x,y,w,h},其中x表示待测人脸图像左上角的横坐标,y表示待测人脸图像左上角的纵坐标,w表示待测人脸图像的宽,h表示待测人脸图像的高。采用公式(4)计算待测人脸图像的中心区域Rc:
RC={x+d*w,y+d*h,(1-2*d)*w,(1-2*d)*h} (4)
其中,d为尺度参数,取值范围为0—0.5。
所得到的中心区域如图10所示,本实施例中,限定该中心区域内全为肤色。
S2042,对待测人脸图像进行扩大及移动处理,得到第二区域。
第二区域即经扩大及移动处理后的待测人脸图像所在的区域Ro。采用公式(5)对图8所示的待测人脸图像按比例进行扩大及移动处理,得到第二区域Ro:
RO={x,y-d*h,w,(1+d)*h}; (5)
所得到的第二区域如图11所示,本实施例中,第二区域包括肤色区域和非肤色区域(如毛发、背景等等)。
举例来说,先将如图8所示的待测人脸图像进行扩大处理,再将左上角的横坐标向左上角方向移动,便可得到如图11所示的第二区域。对比图8及图11可以看出,图11中的图像比图8中的图像多了更多的毛发区域及背景区域。需要说明的是,对图8所示待测人脸图像进行扩大处理的目的是为了提高肤色检测的准确性。
S2043,计算第一区域在色差通道的最大色差值及最小色差值。
采用公式(6)计算第一区域Rc在色差(cr)通道的最大色差值Rc-max,采用公式(7)计算第一区域Rc在色差(cr)通道的最小色差值Rc-min:
S2044,对第二区域进行聚类,计算第二区域的原始分割阈值。
作为一种可选的实施方式,本实施例中采用大津法(又称为最大类间方差法)来对第二区域进行聚类,以计算第二区域的原始分割阈值。其中,先对大津法做如下说明:大津法是一种确定图像二值化分割阈值的算法。对于图像I(x,y),前景(即目标)和背景的分割阈值记作G,属于前景的像素点数占整幅图像的比例记为ω0,其平均灰度μ0;背景像素点数占整幅图像的比例为ω1,其平均灰度为μ1。图像的总平均灰度记为μ,类间方差记为g。
假设图像的背景较暗,并且图像的大小为M×N,图像中像素的灰度值小于阈值G的像素个数记作N0,像素灰度大于阈值G的像素个数记作N1,则分类阈值g=ω0ω1(μ0-μ1)2。
采用大津法对如图12所示的、第二区域Ro进行聚类,可得到第二区域Ro的原始分割阈值G0。
S2045,根据最大色差值、最小色差值及原始分割阈值得到分类阈值区间。
该分类阈值区间用于检测待测人脸图像的肤色区域及非肤色区域。
该步骤分为两种情况:
第一种,若原始分割阈值Go<{RC-min,RC-max},则确定出目标分割阈值的最小值Gmin=Go,最大值Gmax=RC-max+λ*D,其中,D∝(RC-min,Go),λ表示正相关于,D表示正相关于阈值G和色差值R之差。因此,所确定的分类阈值区间为[Gmin,Gmax],即[G0,RC-max+λ*D]。
第二种,若原始分割阈值Go>{RC-min,RC-max},则确定出目标分割阈值的最小值Gmin=RC-min+λ*D,最大值Gmax=Go,其中,D∝(RC-min,Go)。因此,所确定的分类阈值区间为[Gmin,Gmax],即[Rc-min+λ*D,G0]。举例来说,假如原始分割阈值是150,第一区域Rc的最大色差值为140,最小色差值为120,则得到的分类阈值区间为(150,120+λ*D)。
S2046,根据分类阈值区间遍历待测人脸图像,以得到待测人脸图像的肤色区域及非肤色区域,从而可以得到待测人脸图像的人脸肤色边缘信息。
若得到的分类阈值区间为(110,150),利用该分类阈值区间对待测人脸图像进行遍历,便可得到待测人脸图像中的肤色区域及非肤色区域。如图12所示,肤色检测效果如图所示,图中的区域1为肤色区域,区域2为非肤色区域。
需要说明的是,本发明实施例中所描述的肤色检测过程中,当前图像看作是图像序列中的一帧图像,基于每一帧图像,计算该帧图像的第一区域(即中心区域),相当于在每一帧图像上提取一小样本,根据该小样本的最大色差值、最小色差值以及大津法可确定出每一帧图像的分类阈值区间,最后根据分类阈值区间确定出每一帧图像的肤色区域及非肤色区域。与现有技术相比,该肤色检测过程有如下优点:
(1)传统基于先验信息的肤色检测方法,通常是给定一区域,基于该区域对图像进行肤色检测。该区域即事先所确定的用于肤色检测的先验信息。该方法准确性低下,尤其是在受光照或不同肤色人群本身影响时。而本实施例中的检测方法,是针对当帧图像进行样本提取以及分类阈值区间的确定,从而在当帧图像完成肤色检测,该方法具有实时性和动态性,且不受光照或不同肤色人群本身的影响,准确性较高;
(2)传统基于模式识别的肤色检测方法,通常是对多个肤色样本及非肤色样本进行处理,运算复杂度高,检测效率低下,且该方法仍然受光照或不同肤色人群本身的影响较大。而本实施例中的检测方法,是针对当帧图像进行样本提取以及分类阈值区间的确定,从而在当帧图像完成肤色检测,不需要事先对多个样本进行处理,从而降低了运算复杂度,提高了检测效率。且该方法在当帧图像完成肤色检测,不受其它帧图像的影响,从而提高了检测的准确性。
S205,根据五官区域信息和人脸肤色边缘信息优化初始形状。
为了更好地描述步骤S206,先对其中所涉及的相关技术做如下介绍:
(1)级联线性回归模型
面部特征点检测(定位)问题可以看作是学习一个回归函数F,以图象I作为输入,输出θ为特征点的位置(人脸形状):θ=F(I)
简单的说,级联回归模型可以统一为以下框架:学习多个回归函数{f1,…,fn-1,fn}来逼近函数F:
θ=F(I)=fn(fn-1(…f1(θ0,I),I),I)
θi=fi(θi-1,I),i=1,…,n
所谓的级联,即当前函数fi的输入依赖于上一级函数fi-1的输出θi-1,而每一个fi的学习目标都是逼近特征点的真实位置θ,θ0为初始形状。通常情况,fi不是直接回归真实位置θ,而是回归当前形状θi-1与真实位置θ之间的差:Δθi=θ-θi-1。
(2)级联形状回归模型(CascadedPose Regression,CPR)
基于上述思想,产生了级联形状回归模型。该模型的基本思想是:给定初始形状θ0(通常为平均形状),根据该初始形状θ0提取特征(即两个像素点的差值)作为函数f1的输入。针对每个函数fi建模成Random Fern回归器,来预测当前形状θi-1与目标形状θ的差Δθi,并根据Δθi预测结果更新当前形状得θi=θi-1+Δθi,作为下一级函数fi+1的输入。该方法的不足之处在于对初始化形状θ0比较敏感,使用不同的初始化做多次测试并融合多次预测结果可以一定程度上缓解初始化对于算法的影响,但并不能完全解决该问题,且多次测试会带来额外的运算开销。因此,可以看出,初始形状θ0将直接影响人脸关键点检测的准确性。
(3)局部二值特征级联模型
基于上述思想,产生了基于局部二值特征(Local binary feature,LBF)的级联模型。该级联模型的思想如下:
Sd=Sd-1+Rd(I,Sd-1)
其中,Sd就表示了绝对形状,Rd表示一个回归器,I表示图像,Rd表示根据图像和形状的位置信息预测出一个形变,并将它加到当前形状上以组成一个新形状,d表示级联层数。
同样地,在基于该模型的算法中,初始形状(本实施例中用S0表示)仍然直接影响人脸关键点检测的准确性。基于此,本实施例中将检测到的五官区域和人脸边缘区域对初始形状S0赋值。
具体地,如图13所示,从该图中对人脸初始形状S0的特征点可以总结如下:(1)左眼特征点为37-42,左侧眼角为37,右侧眼角为40;(2)右眼特征点为43-48,左侧眼角为43,右侧眼角为46;(3)鼻尖特征点为32-36,中间点为34;(4)嘴角特征点为49-68,其中左侧嘴外角49,左侧嘴内角为61,右侧嘴外角为55,右侧嘴内角为65;(5)人脸的肤色边缘点为1-17。
针对这一特定现象,采用如下公式,将检测到五官区域信息和人脸肤色边缘信息赋值给这些特征点:
pf=R(rectf)+Tf
其中pf为上述相关五官的特征点,R(rectf)为关键点与检测的RECT之间的关系,Tf为相关的阈值。
通过上述的关系束缚后,可以更加有效地确定初始形状S0,实现了对初始形状S0的优化,从而使得检测更加精准和快捷。
需要说明的是,初始形状指的级联形状回归模型中,用于检测人脸关键点的原始人脸形状。该初始形状通常为根据多个人脸样本所得到的、多个人脸样本的平均形状,利用平均形状进行人脸关键点检测的准确性较低。因此,本发明实施例中,先对待测人脸图像进行五官区域信息及人脸边缘区域信息等的检测,再将所得到的五官区域信息及人脸边缘区域信息赋值给初始形状,以实现对初始形状的优化,从而提高人脸关键点检测的准确性。
S206,根据优化后的初始形状及随机森林得到目标局部二值特征。
S207,根据目标局部二值特征进行全局线性回归训练以预测形状增量。
S208,根据形状增量得到人脸关键点。
需要说明的是,鉴于前述对基于LBF级联模型的描述,该方法中针对每个人脸关键点给出一个随机森林进行预测,并将所有人脸关键点对应的随机森林输出的局部特征相互连接起来,构成局部二值特征,之后,利用该局部二值特征进行全局回归,从而预测形变,即预测形状增量,最后根据形状增量得到人脸关键点。
进一步地,每一随机森林又包括多个相互独立的随机树。训练随机树所采取的特征是形状指数(shape-index)特征,该特征的定义为:在关键点附近产生两个特征点,两个特征点的像素之差就是shape-index特征。其中,shape-index特征的描述如图所示。从图14中可以看出,随着级联的深入(即t的增大),随机点的范围逐渐变小,以期获得更加准确的局部特征。
具体地,在训练随机树时,输入是X={I,S},而预测目标是Y=ΔS。实际在训练随机树时,树中的每个节点的训练过程都是一样的。具体地,在对某个节点(即人脸关键点)进行训练时,先从事先随机生成的shape-index特征集合F中选取一个特征,该特征能够将所有样本点x映射成一个实数集合。可理解地,也可临时随机生成一个特征集合,或整棵随机树使用一个特征集合,或整个随机森林使用一个特征集合。而在本实施例中,一棵随机树使用一个特征集合。之后,随机生成一个阈值,将样本点分配到左右子树中,其目的是期望左右子树中的样本点y具有相同的模式。
其中,特征选取是可以采用如下公式:
Δ=S(y|y∈Root)-[S(y|y∈Left)+S(y|y∈Right)]
在上述公式中,F表示特征函数集合,f表示选取到的特征函数(即利用随机到的特征点计算Shape-index特征),δ表示随机生成的阈值,S用来刻画样本点之间的相似度或者样本集合的熵(可表示为方差)。针对每个节点,训练数据(X,Y)将会被分成两部分(X1,Y1)和(X2,Y2),用了方差来刻画,所以选择特征函数f时,希望方差减小最大。
上述每一棵随机树的输出可表示为一个局部二值特征(如图15所示),将随机森林中所有随机树对应的局部二值特征前后连接起来,便得到了目标局部二值特征,即LBF特征。进一步地,利用该目标局部二值特征进行全局线性回归训练以预测形状增量。其中,线性回归可采用公式(8)进行表示:
其中,ΔS形变目标,lbf表示特征,Wt是线性回归的参数,λ用来抑制模型,防止出现过拟合。因此,预测形状增量时,可采用下面的公式(9):
ΔS=Wt.lbf(9)
结合上述描述,步骤S206至S208的具体过程如下:先根据优化后初始形状提取shape-index特征,基于该shape-index特征进行随机树训练以得到随机森林,之后,利用该随机森林对待测人脸图像中的每个关键点进行预测,所得到的预测结果便构成了目标局部二值特征,再采用公式(8)和(9)进行全局线性回归训练以预测形状增量,在得到形状增量后,便可根据该形状增量检测出人脸关键点。
需要说明的是,步骤S201至S208实现了对当前图像的人脸关键点检测。在上述人脸关键点检测过程中,根据对当前图像进行处理所得到的五官区域信息和人脸肤色边缘信息优化了初始形状,从而确保了人脸关键点检测的准确性,同时减少了为了提高准确性而进行多次测试所带来的运算开销,降低了运算复杂度,确保了检测的时效性。
S209,根据人脸关键点对当前图像进行美颜处理,得到目标图像。
人脸关键点包括眼睛、鼻尖、嘴角、眉毛以及面部轮廓等。终端检测出该人脸关键点后,可对当前图像中除上述人脸关键点以外的区域进行美白及磨皮等美颜处理,得到用户想要的图像,即目标图像。
本发明实施例中,先获取当前图像,并对当前图像进行处理,得到人脸关键点,再根据人脸关键点对当前图像进行美颜处理,得到目标图像。由于先检测出人脸关键点,因此在对当前图像进行美颜处理时,可仅对人脸关键点以外的区域进行美白及磨皮处理,从而提高了美颜处理后图像的清晰度,也提高了美颜效果。
参见图16,图16是本发明实施例提供的一种终端的结构示意图,如图所示,该终端可以包括:
获取单元10,用于获取当前图像;
第一处理单元11,用于对当前图像进行处理,得到人脸关键点;
第二处理单元12,用于根据人脸关键点对当前图像进行美颜处理,得到目标图像。
本发明实施例中,先通过获取单元10获取当前图像,并通过第一处理单元11对当前图像进行处理,得到人脸关键点,再通过第二处理单元12根据人脸关键点对当前图像进行美颜处理,得到目标图像。由于先检测出人脸关键点,因此在对当前图像进行美颜处理时,可仅对人脸关键点以外的区域进行美白及磨皮处理,从而提高了美颜处理后图像的清晰度,也提高了美颜效果。
请参见图17,图17是本发明第二实施例提供一种终端的结构示意图,如图所示,该终端可以包括:
获取单元20,用于获取当前图像;
第一处理单元21,用于对当前图像进行处理,得到人脸关键点;
第二处理单元22,用于根据人脸关键点对当前图像进行美颜处理,得到目标图像。
作为一种可能的实施方式,第一处理单元21具体包括:
第一检测单元211,用于对当前图像进行人脸检测,得到待测人脸图像;
第二检测单元212,用于对待测人脸图像进行五官检测,得到五官区域信息;
第三检测单元213,用于对待测人脸图像进行肤色检测,得到人脸肤色边缘信息;
优化单元214,用于根据五官区域信息和人脸边缘信息优化初始形状;
第四检测单元215,用于根据优化后的初始形状检测当前图像的人脸关键点。
作为一种可能的实施方式,第二检测单元212具体用于:
按照预设缩小比例对待测人脸图像进行缩小以得到第一处理图像;
将第一处理图像进行多次划分以得到多张第二处理图像,每张第二处理图像包括多个子窗口;
根据积分图计算每张第二处理图像中每个子窗口的Haar特征值;
根据强分类器及每张第二处理图像得到的Haar特征值检测出五官区域信息。
作为一种可能的实施方式,第三检测单元213具体用于:
对待测人脸图像进行提取处理,得到第一区域;
对待测人脸图像进行扩大及移动处理,得到第二区域;
计算第一区域的最大色差值及最小色差值;
计算第二区域的原始分割值;
根据最大色差值、最小色差值及原始分割阈值确定分类阈值区间;
根据分类阈值区间遍历待测人脸图像,得到人脸肤色边缘信息。
作为一种可能的实施方式,第四检测单元215具体用于:
根据优化后的初始形状及随机森林得到目标局部二值特征;
根据目标局部二值特征进行全局线性回归训练以预测形状增量;
根据形状增量得到人脸关键点。
本发明实施例中,先通过获取单元20获取当前图像,并通过第一处理单元21对当前图像进行处理,得到人脸关键点,再通过第二处理单元22根据人脸关键点对当前图像进行美颜处理,得到目标图像。由于先检测出人脸关键点,因此在对当前图像进行美颜处理时,可仅对人脸关键点以外的区域进行美白及磨皮处理,从而提高了美颜处理后图像的清晰度,也提高了美颜效果。
进一步地,本发明实施例中,在进行人脸关键点进行检测时,根据对当前图像进行处理所得到的五官区域信息和人脸肤色边缘信息优化了初始形状,从而确保了人脸关键点检测的准确性,减少了为了提高准确性而进行多次测试所带来的运算开销,降低了运算复杂度,确保了检测的时效性。
进一步地,本发明实施例中,在进行肤色检测时,是针对当帧图像进行样本提取以及分类阈值区间的确定,从而在当帧图像完成肤色检测,该方法具有实时性和动态性,且不受光照或不同肤色人群本身的影响,准确性较高;且该方法在当帧图像完成肤色检测,不受其它帧图像的影响,从而提高了肤色检测的准确性。
需要说明的是,图16及图17所示终端的具体工作流程已在前述方法流程部分做了详述,在此不再赘述。
参见图18,是本发明实施例中提供的一种终端的结构示意图,如图所示,该终端包括:至少一个处理器301,例如CPU(Central Processing Unit,中央处理器),至少一个用户接口303,存储器304,至少一个通信总线302。其中,通信总线302用于实现这些组件之间的连接通信。其中,用户接口303可以包括显示屏(Display)、键盘(Keyboard),可选用户接口303还可以包括标准的有线接口、无线接口。存储器304可以是高速RAM存储器(RamdomAccessMemory,易挥发性随机存取存储器),也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器304可选的还可以是至少一个位于远离前述处理器301的存储装置。其中处理器301可以结合图16至17所描述的终端,存储器304中存储一组程序代码,且处理器301调用存储器304中存储的程序代码,用于执行以下操作:
获取当前图像;
对当前图像进行处理,得到人脸关键点;
根据所述人脸关键点对所述当前图像进行美颜处理,得到目标图像。
作为一种可能的实施方式,处理器301还用于执行以下操作:
对所述当前图像进行人脸检测,得到待测人脸图像;
对所述待测人脸图像进行检测,得到五官区域信息和人脸肤色边缘信息;
根据所述五官区域信息和人脸肤色边缘信息优化初始形状;
根据优化后的所述初始形状检测所述当前图像的所述人脸关键点。
作为一种可能的实施方式,处理器301还用于执行以下操作:
对待测人脸图像进行离散余弦变换及逆离散余弦变换以得到区域图像;
根据待测人脸图像及区域图像得到所述五官区域信息。
作为一种可能的实施方式,处理器301还用于执行以下操作:
对所述待测人脸图像进行提取处理,得到第一区域;
对所述待测人脸图像进行扩大及移动处理,得到第二区域;
计算所述第一区域的最大色差值及最小色差值;
计算所述第二区域的原始分割值;
根据所述最大色差值、最小色差值及原始分割阈值确定分类阈值区间;
根据分类阈值区间遍历待测人脸图像,得到人脸肤色边缘信息。
作为一种可能的实施方式,处理器301还用于执行以下操作:
根据优化后的初始形状及随机森林得到目标局部二值特征;
根据目标局部二值特征进行全局线性回归训练以预测形状增量;
根据形状增量得到人脸关键点。
本发明实施例中,由于先检测出人脸关键点,因此在对当前图像进行美颜处理时,可仅对人脸关键点以外的区域进行美白及磨皮处理,从而提高了美颜处理后图像的清晰度,也提高了美颜效果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的终端和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种图像美颜方法,其特征在于,包括:
获取当前图像;
对所述当前图像进行处理,得到人脸关键点;
根据所述人脸关键点对所述当前图像进行美颜处理,得到目标图像。
2.如权利要求1所述的方法,其特征在于,对所述当前图像进行处理,得到人脸关键点具体包括:
对所述当前图像进行人脸检测,得到待测人脸图像;
对所述待测人脸图像进行五官检测,得到五官区域信息;
对所述待测人脸图像进行肤色检测,得到人脸肤色边缘信息;
根据所述五官区域信息和人脸肤色边缘信息优化初始形状;
根据优化后的所述初始形状检测所述当前图像的所述人脸关键点。
3.根据权利要求2所述的方法,其特征在于,对所述待测人脸图像进行五官检测,得到所述五官区域信息具体包括:
按照预设缩小比例对所述待测人脸图像进行缩小以得到第一处理图像;
将所述第一处理图像进行多次划分以得到多张第二处理图像,每张所述第二处理图像包括多个子窗口;
根据积分图计算每张所述第二处理图像中每个子窗口的Haar特征值;
根据强分类器及每张所述第二处理图像得到的Haar特征值检测出所述五官区域信息。
4.如权利要求2所述的方法,其特征在于,对所述待测人脸图像进行肤色检测,得到所述人脸肤色边缘信息具体包括:
对所述待测人脸图像进行提取处理,得到第一区域;
对所述待测人脸图像进行扩大及移动处理,得到第二区域;
计算所述第一区域的最大色差值及最小色差值;
计算所述第二区域的原始分割值;
根据所述最大色差值、最小色差值及原始分割阈值确定分类阈值区间;
根据所述分类阈值区间遍历所述待测人脸图像,得到所述人脸肤色边缘信息。
5.如权利要求2-4任一项所述的方法,其特征在于,根据优化后的所述初始形状检测所述当前图像的所述人脸关键点具体包括:
根据优化后的所述初始形状及随机森林得到目标局部二值特征;
根据所述目标局部二值特征进行全局线性回归训练以预测形状增量;
根据所述形状增量得到所述人脸关键点。
6.一种终端,其特征在于,包括:
获取单元,用于获取当前图像;
第一处理单元,用于对所述当前图像进行处理,得到人脸关键点;
第二处理单元,用于根据所述人脸关键点对所述当前图像进行美颜处理,得到目标图像。
7.如权利要求6所述的终端,其特征在于,所述第一处理单元包括:
第一检测单元,用于对所述当前图像进行人脸检测,得到待测人脸图像;
第二检测单元,用于对所述待测人脸图像进行五官检测,得到五官区域信息;
第三检测单元,用于对所述待测人脸图像进行肤色检测,得到人脸肤色边缘信息;
优化单元,用于根据所述五官区域信息和人脸边缘信息优化初始形状;
第四检测单元,用于根据优化后的所述初始形状检测所述当前图像的所述人脸关键点。
8.根据权利要求7所述的终端,其特征在于,所述第二检测单元具体用于:
按照预设缩小比例对所述待测人脸图像进行缩小以得到第一处理图像;
将所述第一处理图像进行多次划分以得到多张第二处理图像,每张所述第二处理图像包括多个子窗口;
根据积分图计算每张所述第二处理图像中每个子窗口的Haar特征值;
根据强分类器及每张所述第二处理图像得到的Haar特征值检测出所述五官区域信息。
9.根据权利要求7所述的终端,其特征在于,所述第三检测单元具体用于:
对所述待测人脸图像进行提取处理,得到第一区域;
对所述待测人脸图像进行扩大及移动处理,得到第二区域;
计算所述第一区域的最大色差值及最小色差值;
计算所述第二区域的原始分割值;
根据所述最大色差值、最小色差值及原始分割阈值确定分类阈值区间;
根据所述分类阈值区间遍历所述待测人脸图像,得到所述人脸肤色边缘信息。
10.根据权利要求7至9任一项所述的终端,其特征在于,所述第四检测单元具体用于:
根据优化后的所述初始形状及随机森林得到目标局部二值特征;
根据所述目标局部二值特征进行全局线性回归训练以预测形状增量;
根据所述形状增量得到所述人脸关键点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710167736.1A CN107146204A (zh) | 2017-03-20 | 2017-03-20 | 一种图像美颜方法及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710167736.1A CN107146204A (zh) | 2017-03-20 | 2017-03-20 | 一种图像美颜方法及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107146204A true CN107146204A (zh) | 2017-09-08 |
Family
ID=59783472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710167736.1A Withdrawn CN107146204A (zh) | 2017-03-20 | 2017-03-20 | 一种图像美颜方法及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107146204A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107665482A (zh) * | 2017-09-22 | 2018-02-06 | 北京奇虎科技有限公司 | 实现双重曝光的视频数据实时处理方法及装置、计算设备 |
CN107705279A (zh) * | 2017-09-22 | 2018-02-16 | 北京奇虎科技有限公司 | 实现双重曝光的图像数据实时处理方法及装置、计算设备 |
CN107730445A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN107909551A (zh) * | 2017-10-30 | 2018-04-13 | 珠海市魅族科技有限公司 | 图像处理方法、装置、计算机装置及计算机可读存储介质 |
CN108121957A (zh) * | 2017-12-19 | 2018-06-05 | 北京麒麟合盛网络技术有限公司 | 美颜素材的推送方法及装置 |
CN108391111A (zh) * | 2018-02-27 | 2018-08-10 | 深圳Tcl新技术有限公司 | 图像清晰度调节方法、显示装置及计算机可读存储介质 |
CN108765516A (zh) * | 2018-03-26 | 2018-11-06 | 阳光暖果(北京)科技发展有限公司 | 一种基于缩略图的五官区域染色方法 |
CN109819318A (zh) * | 2019-02-02 | 2019-05-28 | 广州虎牙信息科技有限公司 | 一种图像处理、直播方法、装置、计算机设备及存储介质 |
CN110248242A (zh) * | 2019-07-10 | 2019-09-17 | 广州虎牙科技有限公司 | 一种图像处理和直播方法、装置、设备和存储介质 |
-
2017
- 2017-03-20 CN CN201710167736.1A patent/CN107146204A/zh not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107665482A (zh) * | 2017-09-22 | 2018-02-06 | 北京奇虎科技有限公司 | 实现双重曝光的视频数据实时处理方法及装置、计算设备 |
CN107705279A (zh) * | 2017-09-22 | 2018-02-16 | 北京奇虎科技有限公司 | 实现双重曝光的图像数据实时处理方法及装置、计算设备 |
CN107705279B (zh) * | 2017-09-22 | 2021-07-23 | 北京奇虎科技有限公司 | 实现双重曝光的图像数据实时处理方法及装置、计算设备 |
CN107909551A (zh) * | 2017-10-30 | 2018-04-13 | 珠海市魅族科技有限公司 | 图像处理方法、装置、计算机装置及计算机可读存储介质 |
CN107730445A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN108121957A (zh) * | 2017-12-19 | 2018-06-05 | 北京麒麟合盛网络技术有限公司 | 美颜素材的推送方法及装置 |
CN108391111A (zh) * | 2018-02-27 | 2018-08-10 | 深圳Tcl新技术有限公司 | 图像清晰度调节方法、显示装置及计算机可读存储介质 |
CN108765516A (zh) * | 2018-03-26 | 2018-11-06 | 阳光暖果(北京)科技发展有限公司 | 一种基于缩略图的五官区域染色方法 |
CN109819318A (zh) * | 2019-02-02 | 2019-05-28 | 广州虎牙信息科技有限公司 | 一种图像处理、直播方法、装置、计算机设备及存储介质 |
CN109819318B (zh) * | 2019-02-02 | 2022-03-22 | 广州虎牙信息科技有限公司 | 一种图像处理、直播方法、装置、计算机设备及存储介质 |
CN110248242A (zh) * | 2019-07-10 | 2019-09-17 | 广州虎牙科技有限公司 | 一种图像处理和直播方法、装置、设备和存储介质 |
CN110248242B (zh) * | 2019-07-10 | 2021-11-09 | 广州虎牙科技有限公司 | 一种图像处理和直播方法、装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107146204A (zh) | 一种图像美颜方法及终端 | |
CN106204522B (zh) | 对单个图像的联合深度估计和语义标注 | |
CN107146196A (zh) | 一种图像美颜方法及终端 | |
US10170104B2 (en) | Electronic device, method and training method for natural language processing | |
CN109635150B (zh) | 文本生成方法、装置以及存储介质 | |
US20230177821A1 (en) | Document image understanding | |
CN111291266A (zh) | 基于人工智能的推荐方法、装置、电子设备及存储介质 | |
CN110084281A (zh) | 图像生成方法、神经网络的压缩方法及相关装置、设备 | |
CN109359538A (zh) | 卷积神经网络的训练方法、手势识别方法、装置及设备 | |
CN109711448A (zh) | 基于判别关键域和深度学习的植物图像细粒度分类方法 | |
CN109063743B (zh) | 基于半监督多任务学习的医疗数据分类模型的构建方法 | |
US9208374B2 (en) | Information processing apparatus, control method therefor, and electronic device | |
CN110674636B (zh) | 一种用电行为分析方法 | |
Wang et al. | Energy based competitive learning | |
CN105549885A (zh) | 滑屏操控中用户情绪的识别方法和装置 | |
Gao et al. | Face detection algorithm based on improved TinyYOLOv3 and attention mechanism | |
Weiss et al. | Dynamic structured model selection | |
Barbu et al. | Face detection with a 3d model | |
CN109711441A (zh) | 图像分类方法、装置、存储介质及电子设备 | |
Mayer et al. | Adjusted pixel features for robust facial component classification | |
JP2010009517A (ja) | パターン検出器の学習装置、学習方法及びプログラム | |
CN107146203A (zh) | 一种图像虚化方法及终端 | |
CN110188791A (zh) | 基于自动估计的视觉情感标签分布预测方法 | |
CN111445545B (zh) | 一种文本转贴图方法、装置、存储介质及电子设备 | |
CN112926631A (zh) | 金融文本的分类方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170908 |
|
WW01 | Invention patent application withdrawn after publication |