CN102663354B - 人脸标定方法和系统 - Google Patents

人脸标定方法和系统 Download PDF

Info

Publication number
CN102663354B
CN102663354B CN201210082964.6A CN201210082964A CN102663354B CN 102663354 B CN102663354 B CN 102663354B CN 201210082964 A CN201210082964 A CN 201210082964A CN 102663354 B CN102663354 B CN 102663354B
Authority
CN
China
Prior art keywords
point
barycenter
face
center
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210082964.6A
Other languages
English (en)
Other versions
CN102663354A (zh
Inventor
王晖
谢晓境
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tencent Computer Systems Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201210082964.6A priority Critical patent/CN102663354B/zh
Publication of CN102663354A publication Critical patent/CN102663354A/zh
Priority to KR1020147029988A priority patent/KR101683704B1/ko
Priority to PCT/CN2013/072518 priority patent/WO2013143390A1/zh
Priority to CA2867365A priority patent/CA2867365C/en
Priority to AP2014007969A priority patent/AP2014007969A0/xx
Priority to MYPI2014702659A priority patent/MY167554A/en
Priority to EP13770054.8A priority patent/EP2833288B1/en
Priority to SG11201405684WA priority patent/SG11201405684WA/en
Priority to RU2014142591/08A priority patent/RU2601185C2/ru
Application granted granted Critical
Publication of CN102663354B publication Critical patent/CN102663354B/zh
Priority to PH12014501995A priority patent/PH12014501995A1/en
Priority to ZA2014/06837A priority patent/ZA201406837B/en
Priority to CL2014002526A priority patent/CL2014002526A1/es
Priority to US14/497,191 priority patent/US9530045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Abstract

一种人脸标定方法,所述方法包括:对图片进行预处理;提取预处理后的图片中的角点,对所述角点进行滤波和合并,得到角点的连通区域;提取所述角点的连通区域中的质心;将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域。采用上述方法,能够提高人脸标定的准确率和效率。此外,还提供了一种人脸标定系统。

Description

人脸标定方法和系统
【技术领域】
本发明涉及人脸检测技术,尤其涉及一种人脸标定方法和系统。
【背景技术】
人脸标定广泛应用于各种基于人脸识别的产品中,人脸标定的准确性对于人脸识别至关重要。随着通信技术的不断发展,越来越多的便携式通信设备也具有人脸识别的功能,例如,数码相机的人脸识别和笑脸拍照、移动设备的人脸解锁等。
目前的人脸识别中,标定人脸时需要大量的训练样本,且标定人脸需要大量运算,算法效率低下且准确度不高,无法满足海量数据的处理。
【发明内容】
基于此,有必要提供一种能提高效率和准确率的人脸标定方法。
一种人脸标定方法,包括以下步骤:对图片进行预处理;提取预处理后的图片中的角点,对所述角点进行滤波和合并,得到角点的连通区域;提取所述角点的连通区域中的质心;将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域。
在其中一个实施例中,所述预处理包括图片的色阶调整、自动白平衡、尺度归一化和图像马赛克的一种以上。
在其中一个实施例中,所述提取预处理后的图片中的角点的步骤为:根据预先定义的3X3模板计算当前像素点与周围像素点的亮度差异度,提取所述亮度差异度大于等于第一阈值的像素点为角点;所述3X3模板为以当前像素点为中心和所述当前像素点的左、右、上、下、左上、右上、左下和右下的像素点所构成的区域。
在其中一个实施例中,所述对角点进行滤波的步骤为:识别所述预处理后的图片中的肤色点,滤除四周预设范围内不含有肤色点的角点;提取YcgCr和YcbCr两个颜色空间的交叉部分的中心为肤色中心,计算所述角点的Cb、Cg、Cr分量值,并计算所述角点的Cb、Cg、Cr分量值与所述肤色中心的距离,滤除所述距离大于第二阈值的角点。
在其中一个实施例中,所述提取角点的连通区域的中的质心的步骤为:筛选出区域面积大于等于第三阈值和/或宽高比例在预设范围内的连通区域;提取所述筛选出的连通区域中的中心点为质心;计算所述提取出的质心的方向,去除所述方向的垂直度在设定垂直度范围内的质心。
在其中一个实施例中,所述人脸模板为矩形模板,包含左眼顶点、右眼顶点和至少一个位于与左眼顶点和右眼顶点所在边平行的另一边上的第三点。
在其中一个实施例中,所述将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域的步骤为:遍历质心,对每个质心点,执行:以当前的第一质心点为人脸模板的顶点,搜索与所述右眼顶点的距离小于等于第四阈值的第二质心点;搜索与所述与左眼顶点和右眼顶点所在边平行的另一边的垂直距离小于等于第四阈值的第三质心点;根据所述第二质心点与所述右眼顶点的距离、所述第三质心点与所述另一边的垂直距离、所述第三质心点与所述第三点的最短距离计算所述匹配概率;判断所述匹配概率是否大于等于预定值,若是,则将所述第一质心点、第二质心点和第三质心点所构成的区域定位为候选人脸区域。
在其中一个实施例中,在所述将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域的步骤之后,还包括:将候选人脸区域划分为设定数量的格子,计算每一格中的肤色比例;筛选出所述肤色比例满足预设肤色比例分布的候选人脸区域为最终人脸区域。
此外,还有必要提供一种能提高效率和准确率的人脸标定系统。
一种人脸标定系统,包括:预处理模块,用于对图片进行预处理;角点提取模块,用于提取预处理后的图片中的角点;角点滤波和合并模块,用于对所述角点进行滤波和合并,得到角点的连通区域;质心提取模块,用于提取所述角点的连通区域中的质心;候选人脸区域定位模块,用于将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域。
在其中一个实施例中,所述预处理为图片的色阶调整、自动白平衡、尺度归一化和图像马赛克的一种以上。
在其中一个实施例中,所述角点提取模块用于根据预先定义的3X3模板计算当前像素点与周围像素点的亮度差异度,提取所述亮度差异度大于等于第一阈值的像素点为角点;所述3X3模板为以当前像素点为中心和所述当前像素点的左、右、上、下、左上、右上、左下和右下的像素点所构成的区域。
在其中一个实施例中,所述角点滤波和合并模块用于识别所述预处理后的图片中的肤色点,滤除四周预设范围内不含有肤色点的角点;
所述角点滤波和合并模块还用于提取YcgCr和YcbCr两个颜色空间的交叉部分的中心为肤色中心,计算所述角点的Cb、Cg、Cr分量值,并计算所述角点的Cb、Cg、Cr分量值与所述肤色中心的距离,滤除所述距离大于第二阈值的角点。
其中一个实施例中,所述质心提取模块包括:连通区域筛选单元,用于筛选出区域面积大于等于第三阈值和/或宽高比例在预设范围内的连通区域;质心提取单元,用于提取所述筛选出的连通区域中的中心点为质心;质心去除单元,用于计算所述提取出的质心的方向,去除所述方向的垂直度在设定垂直度范围内的质心。
在其中一个实施例中,所述人脸模板为矩形模板,包含左眼顶点、右眼顶点和至少一个位于与左眼顶点和右眼顶点所在边平行的另一边上的第三点。
在其中一个实施例中,所述候选人脸区域定位模块包括:
搜索单元,用于对每个质心点,以当前的第一质心点为人脸模板的顶点,搜索与所述右眼顶点的距离小于等于第四阈值的第二质心点;以及还用于搜索与所述与左眼顶点和右眼顶点所在边平行的另一边的垂直距离小于等于第四阈值的第三质心点;
匹配概率计算单元,用于根据所述第二质心点与所述右眼顶点的距离、所述第三质心点与所述另一边的垂直距离、所述第三质心点与所述第三点的最短距离计算所述匹配概率;
区域定位单元,用于判断所述匹配概率是否大于等于预定值,若是,则将所述第一质心点、第二质心点和第三质心点所构成的区域定位为候选人脸区域。
在其中一个实施例中,所述系统还包括:区域筛选模块,用于将候选人脸区域划分为设定数量的格子,计算每一格中的肤色比例,筛选出所述肤色比例满足预设肤色比例分布的候选人脸区域为最终人脸区域。
上述人脸标定方法和系统,通过计算质心与人脸模板的匹配概率,将匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域,这种人脸模板的概率模型,可以鲁棒地伸缩、旋转,更准确的匹配人脸,且算法效率高,因此能够提高人脸标定的效率和准确率。
【附图说明】
图1为一个实施例中人脸标定方法的流程示意图;
图2为某一图片R通道上的直方图;
图3为一个实施例中3X3模板的示意图;
图4为一个实施例中提取角点的连通区域中的质心的流程示意图;
图5为一个实施例中人脸模板的示意图;
图6为一个实施例中定位候选人脸区域的流程示意图;
图7为一个实施例中将质心与人脸模板进行匹配的示意图;
图8为一个实施例中肤色比例模型的示意图;
图9为一个实施例中人脸标定系统的结构框图;
图10为一个实施例中质心提取模块的结构框图;
图11为一个实施例中候选人脸区域定位模块的结构框图;
图12为另一个实施例中人脸标定系统的结构框图。
【具体实施方式】
如图1所示,在一个实施例中,一种人脸标定方法,包括以下步骤:
步骤S102,对图片进行预处理。
具体的,在一个实施例中,对图片进行的预处理包括图片的色阶调整、自动白平衡、尺度归一化和图像马赛克的一种以上。对图片进行预处理后,可有效减少后续的计算量,从而提高标定效率。
步骤S104,提取预处理后的图片中的角点,对角点进行滤波和合并,得到角点的连通区域。
角点是指图像中周围亮度变化剧烈的点,提取出角点后所得到的图片可视为轮廓图。而在提取出预处理后的图片中的角点并不全是所需要的五官的角点,因此需要对角点进行滤波,将与五官位置无关的角点去掉。而滤波后的角点会局部聚集,比如眼睛、嘴巴部分的角点。因此,可对局部聚集的角点进行合并,得到角点的连通区域。
步骤S106,提取角点的连通区域中的质心。
质心为角点的连通区域的中心点,质心可有效表征人脸中的各个主要特征部位,包括眼、鼻、嘴等,提取出质心后,可用于后续进行人脸模板匹配。
步骤S108,将质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域。
本实施例中,通过这种人脸模板的概率模型,可以鲁棒地伸缩、旋转,更准确的匹配人脸,且算法效率高,因此能够提高人脸标定的效率和准确率。
在一个优选的实施例中,对图片进行预处理包括图片的色阶调整、自动白平衡、尺度归一化和图像马赛克。
图像的色阶调整是指调整图片的色阶。色阶是表示图片亮度强度的指数标准,图片的色彩丰满度和精细度是由色阶决定的。通过调整图片的色阶可以调整图像的阴影、中间调和高光的强度级别,从而在一定程度上增强图像的视觉效果。
在一个实施例中,可对图片的RGB三个通道分别进行色阶调整。如图2所示,为某一图片R通道上的直方图,可去除包含较少数据的阴影区和高光区,将左右边界调整到[left,right]区间上,然后对R上的值重新映射回到[0,255]区间。[left,right]区间即去除了阴影区和高光区之后保留下的色阶信息。
具体的,可按照如下公式计算新的R/G/B值:
Diff=right-left
newRGB=(oldRGB-left)*255/Diff
其中,newRGB为新的R/G/B值,oldRGB为色阶调整前的R/G/B值。
本实施例中,色阶调整后的图片对比度会有所改善,边缘会更加清晰,更利于后续的肤色识别、角点滤波等。
自动白平衡用于解决色彩偏移问题。由于在实际的拍照过程中,由于移动终端等设备的拍摄环境或摄像头等设备本身的限制,会导致曝光不准确,从而发生显著的色彩偏移或严重缺失部分色彩的情况。色彩偏移或严重缺失部分色彩会影响后续的肤色区域的提取,因此需要进行自动白平衡。
在一个实施例中,可按照如下公式进行自动白平衡:
R ′ = G ave R ave R , G′=G, B ′ = G ave B ave B
其中,R′、G′、B′分别为白平衡后的图片三分量值,R、G、B为原图像的三分量值;Rave、Gave、Bave分别为图片上的R、G、B分类的均值。
由于不同大小的图片在后续的角点、质点提取、角点合并和滤波等处理上有不同的参数,因此为使得后续这些处理过程统一参数,可对图片进行尺寸归一化,即对图片进行缩放处理。
在一个实施例中,可保持原图比例对图片进行缩放,也可不保持原图比例进行缩放。优选的,保持原图比例对图片进行缩放,例如,可将高度大于400px的图片保持宽高比例缩小到高度为400px,对于高度小于400px的图片则可维持原尺寸不变,不进行放大。
由于有些图片的边缘比较宽,如大于1像素的单位,若直接在像素级别上提取角点可能会缺失大量所需的角点。在一个优选的实施例中,可在图片的尺寸归一化后对图片进行马赛克处理,将图片转化为一个马赛克图像,可以更准确的提取角点,同时,在马赛克图片上提取角点也能大大提升处理的速度。例如,在400px尺度下,可选择马赛克的尺度为2X2px,新的像素值则为这四个像素的平均值。
在一个实施例中,步骤S104中提取预处理后的图片中的角点的具体过程为:根据预先定义的3X3模板计算当前像素点与周围像素点的亮度差异度,提取亮度差异度大于等于第一阈值的像素点为角点;其中,该3X3模板为以当前像素点为中心和当前像素点的左、右、上、下、左上、右上、左下和右下的像素点所构成的区域。
如图3所示,当前像素点为C,则其左、右、上、下、左上、右上、左下和右下的像素点分别为A1、A、B、B1、A3、B2、B3和A2,这9个像素点所构成的区域即为定义的3X3模板。具体的,在一个实施例中,对于预处理后的图片中的每一个像素点(即当前像素点),按照如下公式计算当前像素点与周围像素点的亮度差异度:
定义:
rA1=w1*(fA-fC)2+w1*(fA1-fC)2
rB1=w2*(fB-fC)2+w2*(fB1-fC)2
R1=min(rA1,rB1)
rA2=w3*(fA2-fC)2+w3*(fA3-fC)2
rB2=w4*(fB2-fC)2+w4*(fB3-fC)2
R2=min(rA2,rB2)
其中,f表示像素点的亮度分量(0~255),如fA表示C点的右边像素A的亮度。W1、W2、W3和W4为权重,可取W1=W2=1,W3=W4=1。如果R1和R2都小于给定的阈值T1(如T1=200),则该点(即当前像素点)不是角点,否则进行以下公式的计算:
B1=w5*(fB-fA)X(fA-fC)+w5*(fB1-fA1)X(fA1-fC)
B2=w6*(fB-fA1)X(fA1-fC)+w6*(fB1-fA)X(fA-fC)
B3=w7*(fB2-fA2)X(fA2-fC)+w7*(fB3-fA3)X(fA3-fC)
B4=w8*(fB2-fA3)X(fA3-fC)+w8*(fB3-fA2)X(fA2-fC)
mB1=min(B1,B2)
mB2=min(B3,B4)
A1=rB1-rA1-2X mB1
A2=rB2-rA2-2X mB2
R1=rA1-mB12/A1当mB1<0且A1+mB1>0
R2=rA2-mB22/A2当mB2<0且A2+mB2>0
其中,W5、W6、W7、W8为权重,可取W5=W6=1,W7=W8=1,计算得到最终的R1和R2为当前像素点与周围像素点的亮度差异度。如果R1和R2都小于给定的阈值T2(如T2=700),则该点(即当前像素点)不是角点,否则,说明该点在图像中周围亮度变化剧烈,该点为角点。
在一个实施例中,在步骤S104中对角点进行滤波的步骤为:识别预处理后的图片中的肤色点,滤除四周预设范围内不含有肤色点的角点;提取YcgCr和YcbCr两个颜色空间的交叉部分的中心为肤色中心,计算所述角点的Cb、Cg、Cr分量值,并计算所述角点的Cb、Cg、Cr分量值与所述肤色中心的距离,滤除所述距离大于第二阈值的角点。本实施例中,即保留周围有肤色的角点并去除掉与肤色距离较远的角点。
可做皮肤检测的颜色空间有很多种,如RGB、HSV、YCbCr、YUV、YCgCr等。在一个优选的实施例中,可同时在YCbCr和YCgCr两个空间上提取肤色,提取的准确率较好。在YCgCr颜色空间上,肤色范围为Cg∈[85,135],Cr∈[-Cg+260,-Cg+280]。在YCbCr颜色空间上,肤色范围为Cb∈[77,127],Cr∈[133,173],同时,在这两个颜色空间上Y∈[16,235]。
具体的,可预处理后的图片中的像素点,按照如下公式根据像素点的RGB值计算得到Y、Cb、Cr、Cg分量:
Y Cb Cg Cr = 16 128 128 128 + 65.481 128.553 24.966 - 37.797 - 74.203 112 - 81.085 112 - 30.915 112 - 93.786 - 18.214 R G B
如果所计算得到的Y、Cb、Cr、Cg分量同时满足上述两个肤色范围,则该像素为肤色像素点(即肤色点)。如果提取出的角点的四周预设范围内不含有肤色点,在滤除该角点。
本实施例中,取图片在上述两个颜色空间的交叉部分的中心(Pcr,Pcg,Pcb),即为肤色中心,对于预处理后的图片中的每个像素点,计算出它的Cb、Cr、Cg分量后,再计算该像素点到肤色中心的欧式距离。如果像素点的颜色到肤色中心的欧式距离大于第二阈值,则认为该像素点不可能为肤色,滤除掉该角点。
在一个实施例中,在对角点进行滤波后可得到角点二值图,但由于此时提取出的提交数目比较多,直接在角点二值图上匹配人脸模板会造成很大的计算量,而很多角点在局部会聚集,因此可将邻近的角点进行合并,以减少后续的计算量。
具体的,可预先定义一个距离函数,当邻近的角点之间的距离满足预设条件则进行合并。关于合并邻近角点的算法可采用传统的像素标记算法、游程连通性算法和区域生长算法进行合并,在此则不再赘述。合并角点后,得到多个角点的连通区域。
如图4所示,在一个实施例中,步骤S106的具体过程为:
步骤S116,筛选出区域面积大于等于第三阈值和/或宽高比例在预设范围内的连通区域。
由于得到的部分的角点的连通区域可能并不符合人脸的特性,因此需要对角点的连通区域进行过滤。具体的,本实施例中,可去除掉区域面积小于第三阈值的连通区域;和/或宽高比例不在预设范围内的连通区域。例如,第三阈值设定为450,则筛选出区域面积大于等于450的连通区域。预设范围可为宽高比例必须大于0.5,小于5。其中,第三阈值可根据人脸模板的尺度进行设定,以有利于后续匹配人脸模板。
步骤S126,提取筛选出的连通区域中的中心点为质心。
步骤S136,计算提取的质心的方向,去除方向的垂直度在设定垂直度范围内的质心。
具体的,质心为一个矢量,质心的方向与它在图像所处的位置有关,质心其方向表示的是它所处区域的边缘走向信息。进一步的,可采用传统的Sobel算子(一种边缘提取算子)计算质心的方向,去除方向的垂直度在设定垂直度范围内的质心,即对于方向接近垂直的质心,其为从垂直边缘提取的质心,应去除掉。
在执行步骤S136之后,所得到的质心则可用于进行人脸模板匹配,具体的,每个质心可表达为(P,R,D),其中,P为合并后的连通区域的中心点,R为该连通区域的半径,D为连通区域的密度。
在一个实施例中,人脸模板为矩形模板,包含左眼顶点、右眼顶点和至少一个位于与左眼顶点和右眼顶点所在边平行的另一边上的第三点。
如图5所示,人脸模板为矩形模板,至少包括三个点,每个点由(P,w,h)来表示,其中,P为点的二维坐标,w是该点左右允许出现的最大横向范围,h是该点上下允许出现的最大纵向范围。如图5所示,左眼顶点为p0,右眼顶点为p1,p2为第三点,图5中的虚线质点表示当确定了p0和p1后,点p2可能存在的位置。
如图6所示,在一个实施例中,步骤S108的具体过程为:遍历质心点,对每个质心点,执行:
步骤S118,以当前的第一质心点为人脸模板的顶点,搜索与右眼顶点的距离小于等于第四阈值的第二质心点。
具体的,如果搜索不到第二质心点,则说明该人脸模板不匹配,如果搜索得到,则执行步骤S128。如图7所示,其中,width、height为人脸模板的宽度和高度,搜索到的第二质心点为c1。
步骤S128,搜索与所述与左眼顶点和右眼顶点所在边平行的另一边的垂直距离小于等于第四阈值的第三质心点。
具体的,如果搜索不到第三质心点,则说明人脸模板不匹配,如果搜索得到,则执行步骤S138。如图7所示,搜索到的第三质心点为c2。
步骤S138,根据第二质心点与右眼顶点的距离、第三质心点与所述另一边的垂直距离、第三质心点与所述第三点的最短距离计算匹配概率。
具体的,在一个实施例中,可在搜索到第二质心点后,根据第二质心点与右眼顶点的距离计算第一概率值。结合图7,可按照如下公式计算第一概率值:
s1=1-d1/threshold
其中,s1为第一概率值,d1为第二质心点c1与右眼顶点的距离,threshold为第四阈值。
在搜索到第三质心点后,可根据第三质心点与所述另一边的垂直距离计算第二概率值。结合图7,可按照如下公式计算第二概率值:
s2=1-d2/threshold
其中,s2为第二概率值,d2为第三质心点c2与所述另一边line1的垂直距离,threshold为第四阈值。
在搜索得到第三质心点c2后,可计算得到第三质心点c2与人脸模板的所有第三点的距离,得到最短距离,如图7所示,最短距离为第三质心点c2与第三点p4之间的距离d3。如果d3大于width/5,则说明该人脸模板不匹配,否则,进一步根据第三质心点与所述第三点的最短距离计算第三概率值。具体的,可按照如下公式计算第三概率值:
s3=1-d3/(width/5)
其中,s3为第三概率值,d3为最短距离,width为人脸模板的宽度。
进一步的,根据上述计算的三个概率值计算匹配概率。在一个实施例中,可按照如下公式计算匹配概率:
p=3*s1+s2+s3
步骤S148,判断匹配概率是否大于等于预定值,若是,则进入步骤S150,否则结束。
例如,对于250pxX250px的人脸模板,可设定第四阈值为50px,预定值为0.8。
步骤S158,将第一质心点、第二质心点和第三质心点所构成的区域定位为候选人脸区域。
如图7所示,第一质心点c0、搜索到的第二质心点c1和第三质心点c2所构成的区域定位为候选人脸区域。
应当说明的是,在搜索质心点时,可以按照多种不同的搜索方式进行搜索。例如,可以进行完全搜索,即将每一个质心都作为人脸模板的顶点进行计算。为提高搜索效率,也可以进行部分搜索,即在搜索过程中可将部分不符合条件的质心忽略掉,从而加速整个搜索过程。例如,被大面积暗色区域包围的质心明显不会是起始的左眼位置;五官的质心邻近区域不应该存在超大的纵向或横向排列的质心;忽略与人脸模板边框接近的区域的质心;忽略与模板尺寸接近的椭圆形或弧形排列的质心。
在一个实施例中,在步骤S108之后还可对候选人脸区域进行区域筛选,具体过程为:将候选人脸区域划分为设定数量的格子,计算每一格中的肤色比例;筛选出肤色比例满足预设肤色比例分布的候选人脸区域为最终人脸区域。
对于有些候选人脸区域,可能并不是真正的人脸区域,对候选人脸区域进行区域筛选可以进一步提高定位人脸的准确率。在一个实施例中,如图8所示,可将人脸区域分为9格,分别计算每一格中的肤色比例。肤色比例即该格子中肤色像素点占该格子的所有像素点的比例。而识别肤色像素点可采用上述的肤色识别方法,在此则不再赘述。
具体的,如图8所示,每个格子中的肤色比例分别为p1~p9,设定阈值T3和T4,当肤色比例满足以下条件,可该候选人脸区域为最终人脸区域:
P1、p3、p4、p7、p8、p9>=T1
|p3-p1|<T2
|p6-p4|<T2
|p9-p7|<T2
其中,T1可设定为0.5,T2可设定为0.5。
在得到最终人脸区域后,可进一步获取该最终人脸区域在图片中的位置以及最终人脸区域的大小,并输出。
如图9所示,在一个实施例中,一种人脸标定系统,包括预处理模块10、角点提取模块20、角点滤波和合并模块30、质心提取模块40和候选人脸区域定位模块,其中:
预处理模块10用于对图片进行预处理。
具体的,在一个实施例中,预处理模块10对图片进行的预处理包括图片的色阶调整、自动白平衡、尺度归一化和图像马赛克的一种以上。对图片进行预处理后,可有效减少后续的计算量,从而提高标定效率。
角点提取模块20用于提取预处理后的图片中的角点。
角点滤波和合并模块30用于对角点进行滤波和合并,得到角点的连通区域。
质心提取模块40用于提取角点的连通区域中的质心。
候选人脸区域定位模块50用于将质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域。
本实施例中,通过这种人脸模板的概率模型,可以鲁棒地伸缩、旋转,更准确的匹配人脸,且算法效率高,因此能够提高人脸标定的效率和准确率。
在一个实施例中,角点提取模块20用于根据预先定义的3X3模板计算当前像素点与周围像素点的亮度差异度,提取亮度差异度大于等于第一阈值的像素点为角点;其中,该3X3模板为以当前像素点为中心和当前像素点的左、右、上、下、左上、右上、左下和右下的像素点所构成的区域。
在一个实施例中,角点滤波和合并模块30用于识别预处理后的图片中的肤色点,滤除四周预设范围内不含有肤色点的角点,还用于提取YcgCr和YcbCr两个颜色空间的交叉部分的中心为肤色中心,计算所述角点的Cb、Cg、Cr分量值,并计算所述角点的Cb、Cg、Cr分量值与所述肤色中心的距离,滤除所述距离大于第二阈值的角点。。本实施例中,即保留周围有肤色的角点并去除掉与肤色距离较远的角点。
在一个实施例中,在对角点进行滤波后可得到角点二值图,但由于此时提取出的提交数目比较多,直接在角点二值图上匹配人脸模板会造成很大的计算量,而很多角点在局部会聚集,因此可将邻近的角点进行合并,以减少后续的计算量。
具体的,角点滤波和合并模块30用于预先定义一个距离函数,当邻近的角点之间的距离满足预设条件则进行合并。关于合并邻近角点的算法可采用传统的像素标记算法、游程连通性算法和区域生长算法进行合并,在此则不再赘述。合并角点后,得到多个角点的连通区域。
在一个实施例中,如图10所述,质心提取模块40包括连通区域筛选单元410、质心提取单元420和质心去除单元430,其中:
连通区域筛选单元410用于筛选出区域面积大于等于第三阈值和/或宽高比例在预设范围内的连通区域。
质心提取单元420用于提取筛选出的连通区域中的中心点为质心。
质心去除单元430用于计算提取的质心的方向,去除方向的垂直度在设定垂直度范围内的质心。
具体的,质心为一个矢量,质心的方向与它在图像所处的位置有关,质心其方向表示的是它所处区域的边缘走向信息。进一步的,质心去除单元430可用于采用传统的Sobel算子(一种边缘提取算子)计算质心的方向,去除方向的垂直度在设定垂直度范围内的质心,即对于方向接近垂直的质心,其为从垂直边缘提取的质心,应去除掉。
在一个实施例中,人脸模板为矩形模板,包含左眼顶点、右眼顶点和至少一个位于与左眼顶点和右眼顶点所在边平行的另一边上的第三点。
如图11所示,候选人脸区域定位模块50包括搜索单元510、匹配概率计算单元520和区域定位单元530,其中:
搜索单元510用于以当前的第一质心点为人脸模板的顶点,搜索与右眼顶点的距离小于等于第四阈值的第二质心点;以及还用于搜索与所述与左眼顶点和右眼顶点所在边平行的另一边的垂直距离小于等于第四阈值的第三质心点。
匹配概率计算单元520用于根据第二质心点与右眼顶点的距离、第三质心点与所述另一边的垂直距离、第三质心点与所述第三点的最短距离计算匹配概率。
区域定位单元530用于判断匹配概率是否大于等于预定值,若是,则将第一质心点、第二质心点和第三质心点所构成的区域定位为候选人脸区域。
在一个实施例中,搜索单元在搜索质心点时,可以按照多种不同的搜索方式进行搜索。例如,可以进行完全搜索,即将每一个质心都作为人脸模板的顶点进行计算。为提高搜索效率,也可以进行部分搜索,即在搜索过程中可将部分不符合条件的质心忽略掉,从而加速整个搜索过程。例如,被大面积暗色区域包围的质心明显不会是起始的左眼位置;五官的质心邻近区域不应该存在超大的纵向或横向排列的质心;忽略与人脸模板边框接近的区域的质心;忽略与模板尺寸接近的椭圆形或弧形排列的质心。
如图12所示,在另一个实施例中,人脸标定系统还包括区域筛选模块60,其中:
区域筛选模块60用于将候选人脸区域划分为设定数量的格子,计算每一格中的肤色比例;筛选出肤色比例满足预设肤色比例分布的候选人脸区域为最终人脸区域。
对于有些候选人脸区域,可能并不是真正的人脸区域,对候选人脸区域进行区域筛选可以进一步提高定位人脸的准确率。在一个实施例中,如图8所示,可将人脸区域分为9格,分别计算每一格中的肤色比例。肤色比例即该格子中肤色像素点占该格子的所有像素点的比例。而识别肤色像素点可采用上述的肤色识别方法,在此则不再赘述。
区域筛选模块60在得到最终人脸区域后,可进一步用于获取该最终人脸区域在图片中的位置以及最终人脸区域的大小,并输出。
应当说明的是,上述人脸标定方法和系统,可用于各种人脸识别应用中。上述人脸标定方法和系统,相对于传统的标定算法,能够更加准确的标定出人脸区域,且执行效率更高,能够适应海量的数据处理。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (12)

1.一种人脸标定方法,包括以下步骤:
对图片进行预处理;
提取预处理后的图片中的角点,对所述角点进行滤波和合并,得到角点的连通区域;
提取所述角点的连通区域中的质心;
将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域;
所述人脸模板为矩形模板,包含左眼顶点、右眼顶点和至少一个位于与左眼顶点和右眼顶点所在边平行的另一边上的第三点;
所述将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域的步骤为:
遍历质心,对每个质心点,执行:
以当前的第一质心点为人脸模板的顶点,搜索与所述右眼顶点的距离小于等于第四阈值的第二质心点;
搜索与所述与左眼顶点和右眼顶点所在边平行的另一边的垂直距离小于等于第四阈值的第三质心点;
根据所述第二质心点与所述右眼顶点的距离、所述第三质心点与所述另一边的垂直距离、所述第三质心点与所述第三点的最短距离计算所述匹配概率;
判断所述匹配概率是否大于等于预定值,若是,则将所述第一质心点、第二质心点和第三质心点所构成的区域定位为候选人脸区域。
2.根据权利要求1所述的人脸标定方法,其特征在于,所述预处理包括图片的色阶调整、自动白平衡、尺度归一化和图像马赛克的一种以上。
3.根据权利要求1所述的人脸标定方法,其特征在于,所述提取预处理后的图片中的角点的步骤为:
根据预先定义的3X3模板计算当前像素点与周围像素点的亮度差异度,提取所述亮度差异度大于等于第一阈值的像素点为角点;
所述3X3模板为以当前像素点为中心和所述当前像素点的左、右、上、下、左上、右上、左下和右下的像素点所构成的区域。
4.根据权利要求1所述的人脸标定方法,其特征在于,所述对所述角点进行滤波的步骤为:
识别所述预处理后的图片中的肤色点,滤除四周预设范围内不含有肤色点的角点;
提取YcgCr和YcbCr两个颜色空间的交叉部分的中心为肤色中心,计算所述角点的Cb、Cg、Cr分量值,并计算所述角点的Cb、Cg、Cr分量值与所述肤色中心的距离,滤除所述距离大于第二阈值的角点。
5.根据权利要求1所述的人脸标定方法,其特征在于,所述提取角点的连通区域中的质心的步骤为:
筛选出区域面积大于等于第三阈值和/或宽高比例在预设范围内的连通区域;
提取所述筛选出的连通区域中的中心点为质心;
计算所述提取出的质心的方向,去除所述方向的垂直度在设定垂直度范围内的质心。
6.根据权利要求1所述的人脸标定方法,其特征在于,在所述将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域的步骤之后,还包括:
将候选人脸区域划分为设定数量的格子,计算每一格中的肤色比例;
筛选出所述肤色比例满足预设肤色比例分布的候选人脸区域为最终人脸区域。
7.一种人脸标定系统,其特征在于,包括:
预处理模块,用于对图片进行预处理;
角点提取模块,用于提取预处理后的图片中的角点;
角点滤波和合并模块,用于对所述角点进行滤波和合并,得到角点的连通区域;
质心提取模块,用于提取所述角点的连通区域中的质心;
候选人脸区域定位模块,用于将所述质心与人脸模板进行匹配,计算质心与人脸模板的匹配概率,将所述匹配概率大于等于预定值的质心所构成的区域定位为候选人脸区域;
所述人脸模板为矩形模板,包含左眼顶点、右眼顶点和至少一个位于与左眼顶点和右眼顶点所在边平行的另一边上的第三点;
所述候选人脸区域定位模块包括:
搜索单元,用于对每个质心点,以当前的第一质心点为人脸模板的顶点,搜索与所述右眼顶点的距离小于等于第四阈值的第二质心点;以及还用于搜索与所述与左眼顶点和右眼顶点所在边平行的另一边的垂直距离小于等于第四阈值的第三质心点;
匹配概率计算单元,用于根据所述第二质心点与所述右眼顶点的距离、所述第三质心点与所述另一边的垂直距离、所述第三质心点与所述第三点的最短距离计算所述匹配概率;
区域定位单元,用于判断所述匹配概率是否大于等于预定值,若是,则将所述第一质心点、第二质心点和第三质心点所构成的区域定位为候选人脸区域。
8.根据权利要求7所述的人脸标定系统,其特征在于,所述预处理为图片的色阶调整、自动白平衡、尺度归一化和图像马赛克的一种以上。
9.根据权利要求7所述的人脸标定系统,其特征在于,所述角点提取模块用于根据预先定义的3X3模板计算当前像素点与周围像素点的亮度差异度,提取所述亮度差异度大于等于第一阈值的像素点为角点;
所述3X3模板为以当前像素点为中心和所述当前像素点的左、右、上、下、左上、右上、左下和右下的像素点所构成的区域。
10.根据权利要求7所述的人脸标定系统,其特征在于,所述角点滤波和合并模块用于识别所述预处理后的图片中的肤色点,滤除四周预设范围内不含有肤色点的角点;
所述角点滤波和合并模块还用于提取YcgCr和YcbCr两个颜色空间的交叉部分的中心为肤色中心,计算所述角点的Cb、Cg、Cr分量值,并计算所述角点的Cb、Cg、Cr分量值与所述肤色中心的距离,滤除所述距离大于第二阈值的角点。
11.根据权利要求7所述的人脸标定系统,其特征在于,所述质心提取模块包括:
连通区域筛选单元,用于筛选出区域面积大于等于第三阈值和或宽高比例在预设范围内的连通区域;
质心提取单元,用于提取所述筛选出的连通区域中的中心点为质心;
质心去除单元,用于计算所述提取出的质心的方向,去除所述方向的垂直度在设定垂直度范围内的质心。
12.根据权利要求7所述的人脸标定系统,其特征在于,所述系统还包括:
区域筛选模块,用于将候选人脸区域划分为设定数量的格子,计算每一格中的肤色比例,筛选出所述肤色比例满足肤色比例分布的候选人脸区域为最终人脸区域。
CN201210082964.6A 2012-03-26 2012-03-26 人脸标定方法和系统 Active CN102663354B (zh)

Priority Applications (13)

Application Number Priority Date Filing Date Title
CN201210082964.6A CN102663354B (zh) 2012-03-26 2012-03-26 人脸标定方法和系统
EP13770054.8A EP2833288B1 (en) 2012-03-26 2013-03-13 Face calibration method and system, and computer storage medium
RU2014142591/08A RU2601185C2 (ru) 2012-03-26 2013-03-13 Способ, система и компьютерный носитель данных для детектирования лица
CA2867365A CA2867365C (en) 2012-03-26 2013-03-13 Method, system and computer storage medium for face detection
AP2014007969A AP2014007969A0 (en) 2012-03-26 2013-03-13 Face calibration method and system, and computer storage medium
MYPI2014702659A MY167554A (en) 2012-03-26 2013-03-13 Method, System And Computer Storage Medium For Face Detection
KR1020147029988A KR101683704B1 (ko) 2012-03-26 2013-03-13 얼굴 보정 방법, 시스템 및 컴퓨터 저장 매체
SG11201405684WA SG11201405684WA (en) 2012-03-26 2013-03-13 Face calibration method and system, and computer storage medium
PCT/CN2013/072518 WO2013143390A1 (zh) 2012-03-26 2013-03-13 人脸标定方法和系统、计算机存储介质
PH12014501995A PH12014501995A1 (en) 2012-03-26 2014-09-05 Method, system and computer storage medium for face detection
ZA2014/06837A ZA201406837B (en) 2012-03-26 2014-09-18 Face calibration method and system, and computer storage medium
CL2014002526A CL2014002526A1 (es) 2012-03-26 2014-09-24 Metodo para detectar una cara, que comprende preprocesar una imagen, extraer las esquinas de la imagen preprocesada, obtener un componente conectado de las esquinas, extraer los centroides del componente, hacer coincidir los centroides con una plantilla, calcular una probabilidad de coincidencia de los centroides con la plantilla, identificar las regiones formadas por los centroides teniendo una probabilidad de coincidencia mayor o igual a un valor predeterminado; sistema; medio de almacenamiento
US14/497,191 US9530045B2 (en) 2012-03-26 2014-09-25 Method, system and non-transitory computer storage medium for face detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210082964.6A CN102663354B (zh) 2012-03-26 2012-03-26 人脸标定方法和系统

Publications (2)

Publication Number Publication Date
CN102663354A CN102663354A (zh) 2012-09-12
CN102663354B true CN102663354B (zh) 2014-02-19

Family

ID=46772838

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210082964.6A Active CN102663354B (zh) 2012-03-26 2012-03-26 人脸标定方法和系统

Country Status (13)

Country Link
US (1) US9530045B2 (zh)
EP (1) EP2833288B1 (zh)
KR (1) KR101683704B1 (zh)
CN (1) CN102663354B (zh)
AP (1) AP2014007969A0 (zh)
CA (1) CA2867365C (zh)
CL (1) CL2014002526A1 (zh)
MY (1) MY167554A (zh)
PH (1) PH12014501995A1 (zh)
RU (1) RU2601185C2 (zh)
SG (1) SG11201405684WA (zh)
WO (1) WO2013143390A1 (zh)
ZA (1) ZA201406837B (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663354B (zh) * 2012-03-26 2014-02-19 腾讯科技(深圳)有限公司 人脸标定方法和系统
JP5878586B2 (ja) * 2013-05-09 2016-03-08 華碩電腦股▲ふん▼有限公司ASUSTeK COMPUTER INC. 画像色調整方法及びその電子装置
CN104156717A (zh) * 2014-08-31 2014-11-19 王好贤 基于图像处理技术的驾驶员驾车打电话违章识别方法
CN104284017A (zh) * 2014-09-04 2015-01-14 广东欧珀移动通信有限公司 一种信息提示方法及装置
CN105303552A (zh) * 2015-08-07 2016-02-03 深圳市瀚海基因生物科技有限公司 一种单分子定位装置
CN110852996A (zh) * 2015-08-07 2020-02-28 深圳市真迈生物科技有限公司 一种单分子定位方法
CN105488475B (zh) * 2015-11-30 2019-10-15 西安闻泰电子科技有限公司 手机中人脸检测方法
US9934397B2 (en) 2015-12-15 2018-04-03 International Business Machines Corporation Controlling privacy in a face recognition application
CN105844235B (zh) * 2016-03-22 2018-12-14 南京工程学院 基于视觉显著性的复杂环境人脸检测方法
CN107452002A (zh) * 2016-05-31 2017-12-08 百度在线网络技术(北京)有限公司 一种图像分割方法及装置
US20210090545A1 (en) * 2017-04-12 2021-03-25 Hewlett-Packard Development Company, L.P. Audio setting modification based on presence detection
CN107122751B (zh) * 2017-05-03 2020-12-29 电子科技大学 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法
CN107239764A (zh) * 2017-06-07 2017-10-10 成都尽知致远科技有限公司 一种动态降噪的人脸识别方法
KR102397396B1 (ko) 2017-09-13 2022-05-12 삼성전자주식회사 자동 화이트 밸런스를 위한 이미지 처리 방법 및 장치
CN108399630B (zh) * 2018-01-22 2022-07-08 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN110415168B (zh) * 2018-04-27 2022-12-02 武汉斗鱼网络科技有限公司 人脸局部缩放处理方法、存储介质、电子设备及系统
US10762336B2 (en) * 2018-05-01 2020-09-01 Qualcomm Incorporated Face recognition in low light conditions for unlocking an electronic device
CN109657544B (zh) * 2018-11-10 2023-04-18 江苏网进科技股份有限公司 一种人脸检测方法和装置
US10885606B2 (en) 2019-04-08 2021-01-05 Honeywell International Inc. System and method for anonymizing content to protect privacy
CN112052706B (zh) * 2019-06-06 2022-07-29 鸿富锦精密工业(武汉)有限公司 电子装置及人脸识别方法
CN114503172A (zh) * 2019-08-09 2022-05-13 克利尔维尤人工智能股份有限公司 基于人脸识别来提供关于人的信息的方法
US11062579B2 (en) 2019-09-09 2021-07-13 Honeywell International Inc. Video monitoring system with privacy features
CN111814702A (zh) * 2020-07-13 2020-10-23 安徽兰臣信息科技有限公司 一种基于成年人脸和儿童照特征空间映射关系的儿童人脸识别方法
CN111724406B (zh) * 2020-07-14 2023-12-08 苏州精濑光电有限公司 一种区域连通合并方法、装置、设备和介质
CN112418184A (zh) * 2020-12-14 2021-02-26 杭州魔点科技有限公司 基于鼻部特征的人脸检测方法、装置、电子设备及介质
CN113747640B (zh) * 2021-09-03 2024-02-09 深圳时空数字科技有限公司 一种数字展厅灯光智能中央控制方法及系统
CN114022934B (zh) * 2021-11-04 2023-06-27 清华大学 一种基于多数原则的实时人像聚档方法、系统和介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216882A (zh) * 2007-12-28 2008-07-09 北京中星微电子有限公司 一种人脸眼角与嘴角定位与跟踪的方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361497B1 (ko) 1999-01-08 2002-11-18 엘지전자 주식회사 얼굴영역 추출방법
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
KR100682889B1 (ko) 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
JP4085959B2 (ja) * 2003-11-14 2008-05-14 コニカミノルタホールディングス株式会社 物体検出装置、物体検出方法、および記録媒体
EP1566788A3 (en) * 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
JP2009104427A (ja) * 2007-10-24 2009-05-14 Fujifilm Corp 顔検出方法及び装置、並びに顔検出プログラム
RU2382407C1 (ru) * 2008-11-21 2010-02-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система для обнаружения лица
CN101561710B (zh) * 2009-05-19 2011-02-09 重庆大学 一种基于人脸姿态估计的人机交互方法
KR101151435B1 (ko) * 2009-11-11 2012-06-01 한국전자통신연구원 얼굴 인식 장치 및 방법
CN102663354B (zh) * 2012-03-26 2014-02-19 腾讯科技(深圳)有限公司 人脸标定方法和系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216882A (zh) * 2007-12-28 2008-07-09 北京中星微电子有限公司 一种人脸眼角与嘴角定位与跟踪的方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种基于肤色和模板匹配的人脸检测方法;卢绪军等;《计算机应用与软件》;20110731;第28卷(第7期);第112页右栏最后1段、第114页左栏第2-4段、第114页右栏倒数第1-4段 *
卢绪军等.一种基于肤色和模板匹配的人脸检测方法.《计算机应用与软件》.2011,第28卷(第7期),第112页右栏最后1段、第114页左栏第2-4段、第114页右栏倒数第1-4段.

Also Published As

Publication number Publication date
CL2014002526A1 (es) 2015-04-10
CA2867365C (en) 2016-11-08
AP2014007969A0 (en) 2014-09-30
CN102663354A (zh) 2012-09-12
US20150016687A1 (en) 2015-01-15
WO2013143390A1 (zh) 2013-10-03
RU2601185C2 (ru) 2016-10-27
KR20140137014A (ko) 2014-12-01
EP2833288A4 (en) 2015-06-10
KR101683704B1 (ko) 2016-12-07
ZA201406837B (en) 2015-11-25
RU2014142591A (ru) 2016-05-20
SG11201405684WA (en) 2014-10-30
MY167554A (en) 2018-09-14
US9530045B2 (en) 2016-12-27
EP2833288A1 (en) 2015-02-04
EP2833288B1 (en) 2020-05-27
CA2867365A1 (en) 2013-10-03
PH12014501995B1 (en) 2014-11-24
PH12014501995A1 (en) 2014-11-24

Similar Documents

Publication Publication Date Title
CN102663354B (zh) 人脸标定方法和系统
CN106651872B (zh) 基于Prewitt算子的路面裂缝识别方法及系统
CN105809138B (zh) 一种基于分块识别的道路警告标志检测与识别方法
CN103235938B (zh) 车牌检测与识别的方法及系统
CN102982350B (zh) 一种基于颜色和梯度直方图的台标检测方法
CN105205480B (zh) 一种复杂场景中人眼定位方法及系统
CN103914708B (zh) 基于机器视觉的食品品种检测方法及系统
CN106846339A (zh) 一种图像检测方法和装置
CN102132323A (zh) 自动图像矫直
CN103761529A (zh) 一种基于多色彩模型和矩形特征的明火检测方法和系统
CN105205489A (zh) 基于颜色纹理分析器与机器学习的车牌检测方法
CN102819728A (zh) 一种基于分类模板匹配的交通标志检测方法
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
CN110287787B (zh) 图像识别方法、装置及计算机可读存储介质
CN108256467B (zh) 一种基于视觉注意机制和几何特征的交通标志检测方法
CN103440035A (zh) 一种三维空间中的手势识别系统及其识别方法
CN104597057A (zh) 一种基于机器视觉的柱状二极管表面缺陷检测装置
CN104318266A (zh) 一种图像智能分析处理预警方法
CN106228157A (zh) 基于图像识别技术的彩色图像文字段落分割与识别方法
CN106297492A (zh) 一种教育玩具套件及利用颜色和轮廓识别编程模块的方法
CN105069816A (zh) 一种进出口人流量统计的方法及系统
CN103218615A (zh) 人脸判定方法
CN106558044A (zh) 影像模组的解像力测量方法
Wang et al. Lane detection algorithm based on density clustering and RANSAC
CN104573743A (zh) 一种人脸图像检测过滤方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20151221

Address after: The South Road in Guangdong province Shenzhen city Fiyta building 518000 floor 5-10 Nanshan District high tech Zone

Patentee after: Shenzhen Tencent Computer System Co., Ltd.

Address before: Shenzhen Futian District City, Guangdong province 518044 Zhenxing Road, SEG Science Park 2 East Room 403

Patentee before: Tencent Technology (Shenzhen) Co., Ltd.