CN102982320B - 一种提取眉毛轮廓的方法 - Google Patents
一种提取眉毛轮廓的方法 Download PDFInfo
- Publication number
- CN102982320B CN102982320B CN201210514932.9A CN201210514932A CN102982320B CN 102982320 B CN102982320 B CN 102982320B CN 201210514932 A CN201210514932 A CN 201210514932A CN 102982320 B CN102982320 B CN 102982320B
- Authority
- CN
- China
- Prior art keywords
- eyebrow
- region
- adafactor
- num1
- mingray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种提取眉毛轮廓的方法,粗选眉毛区域以减少后续的计算量,由于眉毛与肤色具有比较大的亮度差,尤其是对于黄色人种来说更具有典型性,通过像素点的这种差异,进行二值化,产生明显区分于肤色的眉毛轮廓。基于灰度的二值化进程计算量比较小,速度比较快。
Description
技术领域
本发明涉及一种提取眉毛轮廓的方法,属于生物识别技术领域。
背景技术
眉毛作为人脸的重要子特征,应当在生物特征识别技术领域中占据比较重要的地位,然而实际情况却是对眉毛研究和应用还处在起步阶段,对眉毛的特征提取方面的技术文献也不多。
发明专利申请公开之《基于眉毛识别的身份鉴别方法》(公开号 CN1645406A),其直接利用眉毛的彩色图像的像素信息描述眉毛特征;而发明专利申请公开之《基于眉毛识别的身份鉴别方法》(公开号 CN1801180A)通过傅里叶变换和K均值算法提取眉毛的纹理特征;文献《基于小波变换和SVM的眉毛身份验证系统研究》(《计算机应用研究》2009年第11期)通过小波变换的方法提取眉毛的纹理特征;而文献《一种基于特征串比较的眉毛识别方法》(《北京工业大学学报》2008年第01期)通过离散傅里叶变换和矢量量化的方法提取眉毛的纹理特征。
基于以上描述可知,现阶段在生物识别技术领域的研究主要专注于眉毛纹理信息的提取,对于眉毛轮廓信息的提取还未见报道。发明人认为对眉毛轮廓的提取具有很高的价值,如在美容领域,涉及修饰眉毛轮廓等,如果能够对眉毛轮廓提取,可以为后续的处理提供借鉴。因此有必要提出提取眉毛轮廓的方法,此方法应当对各种光照具有很好的适应性,可有效提取眉毛轮廓。
发明内容
有鉴于此,本发明的目的在于提供一种能够提取眉毛轮廓的方法,以拓展眉毛提取在生物识别领域中的应用。
本发明采用以下技术方案:
一种提取眉毛轮廓的方法,包括以下步骤;
1)针对所要处理的图片,粗选眉毛区域,生成眉毛截取区域;
2)统计所述眉毛截取区域内各灰度级的像素点个数Num[n],其中 ;
3)设置一个大于0的自适应因子,然后统计灰度值小于×MinGray的个数Num1,其中MinGray为所述眉毛截取区域中灰度最小像素点的灰度值;
4)当Num1>P1×Q,则令=-C1,再次统计灰度值小于×MinGray的个数Num1,如此循环直到Num1<P1×Q;当Num1<P2×Q,则令=+C2,再次统计灰度值小于×MinGray的个数Num1,如此循环直到Num1>P2×Q;其中C1和C2为预定的调整量,P1和P2为常数,前者取0.28-0.36,后者取0.08-0.16;而Q为粗选眉毛区域中的像素点个数;
5)然后对截取区域内的像素点(,)进行二值化:
;
其中,M、N对应所述眉毛截取区域中行、列像素点数的最大值。
从以上的方案可知,依据本发明,粗选眉毛区域以减少后续的计算量,由于眉毛与肤色具有比较大的亮度差,尤其是对于黄色人种来说更具有典型性,通过像素点的这种差异,进行二值化,产生明显区分于肤色的眉毛轮廓。基于灰度的二值化进程计算量比较小,速度比较快。
本发明的所述提取眉毛轮廓的方法,在较佳的实施例中,所述眉毛截取区域为矩形区域,匹配笛卡尔坐标系正交的坐标轴,容易计算。
上述提取眉毛轮廓的方法,生成所述眉毛截取区域的步骤为通过样本学习的方式,统计样本中匹配的矩形区域对角的一对像素点的坐标值,训练的结果为所述坐标值约束矩形区域的最大值或者均值,以作为约束眉毛截取区域的一对像素点的坐标值,可以提高眉毛区域定位的准确率。
进一步地,上述提取眉毛轮廓的方法,将要处理的图片尺寸归一化:利用支持向量机的学习,通过样本的学习,定位图像上人的两瞳孔位置,标定两瞳孔间距为设定距离,进而设定两瞳孔的中点作为图片的中心点,将图片放缩到归一的目标尺寸,可以进一步提高眉毛区域定位的准确率。
上述提取眉毛轮廓的方法,在步骤2)前还包括判断所述眉毛截取区域中眉毛是否被遮挡的步骤,若被遮挡,则不再进行当前图片的后续处理,减少不必要的处理,筛选有价值的要处理的图片。
上述提取眉毛轮廓的方法,判断是否被遮挡的方法是分割所述眉毛截取区域为若干子区域,并计算每一子区域的灰度平均值AveGray,然后判断AveGray-MinGray,当差值大于等于阈值Thresh1,则无遮挡,否则有遮挡。
优选地,上述提取眉毛轮廓的方法,为了简化计算,所述子区域为所述眉毛截取区域的行或者列。
优选地,上述提取眉毛轮廓的方法,所述阈值Thresh1的范围为60-110。
优选地,上述提取眉毛轮廓的方法,所述自适应因子的范围为1.5-2.5,常数P1范围为0.28-0.36,常数P2的范围为0.08-0.16,常数C1通常为0.05-0.15,常数C2通常为0.05-0.15。
优选地,上述提取眉毛轮廓的方法,所述自适应因子为2,常数P1为0.33,常数P2为0.13,常数C1通常为0.1,常数C2通常为0.1。
附图说明
图1为矩形的眉毛截取区域。
图2为图1所示的眉毛截取区域处理后的眉毛轮廓图象。
具体实施方式
发明人通过对人的眉毛进行了大量的统计分析,得到了专门提取眉毛轮廓的有效方法,出于对光照的广泛适应性,以有效的提取眉毛轮廓,提出以下方案,方案中的一些步骤和参量本领域的技术人员可以针对具体的应用而进行选择:
一种提取眉毛轮廓的方法,包括步骤:
1.截取眉毛区域,为提取眉毛轮廓做准备;粗选眉毛截取区域可以减少后续的计算量,并且减少干扰区域。
1.1 将图片几何尺寸归一化,对于n(n1)幅人脸图像,作为样本,依次粗略估计能截取眉毛区域的矩形大小A---j,统计此矩形的左上角坐标(x---1j,y----1j)和右下角坐标(x---2j,y----2j),其中。计算可截取所有眉毛区域的坐标点(x---1,y----1)和(x---2,y----2),以期覆盖绝大多数的样本图像,在减少计算量的同时,应当尽可能防止漏掉眉毛区域。
1.1.1 根据1.1,图片几何尺寸归一化的一种方法是可以利用支持向量机,通过大量样本的学习,定位人的两瞳孔位置,设定两瞳孔距离为64像素,设定两瞳孔的中点为图片的中心点,将图片放缩到240×320的尺寸;将图片进行几何尺寸归一化可以有效避免无目的的寻找眉毛区域,实现对眉毛区域的大致定位,提高眉毛区域定位的准确率;同时上述尺寸特征所提取的眉毛轮廓具有足够的分辨率,可以满足据此所产生的其他应用对眉毛图像的技术要求。
应当理解,本领域的技术人员在面对更高的要求时,应用本方案可以简单修改所述的尺寸规格。
1.1.2 根据1.1,眉毛区域的坐标点可取坐标集合的最大值,,(i=1,2);此方法可以确保眉毛区域以最大概率落在截取区域;
1.1.3 根据1.1,眉毛区域的坐标点可取坐标集合的均值,, (i=1,2);此方法可以使得截取的眉毛区域的有效面积比例变大,更精确的提取眉毛区域;
1.2.计算平均矩形区域的大小M×N,其中M= y----2- y----1+1,N= x---2- x---1+1,约束出矩形区域;
1.3.对于一幅归一化的人脸图像,用M×N的矩形截取眉毛区域。
具备条件时,可以进行如椭圆形选区或者说眉毛截取区域的选择,计算量稍大。
2判断眉毛是否有遮挡,有遮挡时则停止对眉毛轮廓的提取;通过实验发现,眉毛无遮挡时某一行或某一列的灰度均值与眉毛区域的灰度最小值之差具有一定的规律性,这种自然属性使得判断眉毛是否被遮挡成为现实。在下面的步骤中,判断眉毛是否有遮挡的步骤如2.1-2.3所示;
2.1.计算M×N区域的某一局部区域的灰度平均值AveGray;
2.1.1 根据2.1,某一局部区域可以是任意行;
2.1.2根据2.1,某一局部区域可以是任意列;
2.2.计算M×N区域的灰度最小值MinGray;
2.3.计算 AveGray-MinGray,当差值大于等于阈值Thresh1,则无遮挡,否则有遮挡;其中所说的规律性是通过对样本的研究发现,因此,所说的阈值Thresh1可以源自人为设定,也可以通过大量样本学习产生。
人脸的三庭五眼黄金分割特征决定了即便是人种有差异,人脸轮廓也具有非常大的相似性,所述阈值Thresh1可以统一设定,也可以针对人种的训练样本确定,当然这种差异相对来说比较小。
当存在眉毛遮挡,则停止眉毛轮廓的提取,否则转第3步。
2.3.1 根据2.3,阈值Thresh1的范围通常为60-110,通过实验,Thresh1=75时效果最佳,效果在此出现峰值,向两边效果渐差的分布,再低于60或者高于110时,效果较差,虽然具有一定的参考价值,但已无意义;
3对眉毛区域进行二值化,实现对眉毛轮廓的提取;
3.1.统计截取区域各灰度级的个数Num[n],其中;
3.2.设置自适应因子(为大于零的常数),统计灰度值小于×MinGray的个数Num1;
3.2.1 根据3.2.1,自适应因子可用的范围通常为1.5-2.5,通过实验,=2时效果最佳;
这里涉及通常,主要是在大多数的应用中,可用的范围一般都具有较好的效果,个别群体的存在会影响整体的识别效果,包括最佳的自适应因子在内,也是可调的对象。以下的常数也具有相同的特点。
3.3 当Num1>P1×M×N(P1为大于零的常数),则令=-C1(C1为大于零的常数),再次统计灰度值小于×MinGray的个数Num1,如此循环直到Num1<P1×M×N;当Num1<P2×M×N(P2为大于零的常数),则令=+C2(C2为大于零的常数),再次统计灰度值小于×MinGray的个数Num1,如此循环直到Num1>P2×M×N;
3.3.1 根据3.3,常数P1的范围通常为0.28-0.36,通过实验,P1=0.33时效果最佳;
3.3.2 根据3.3,常数C1的范围通常为0.05-0.15,通过实验,C1=0.1时效果最佳;
3.3.3 根据3.3,常数P2的范围通常为0.08-0.16,通过实验,P2=0.13时效果最佳;
3.3.4 根据3.3,常数C2的范围通常为0.05-0.15,通过实验,C2=0.1时效果最佳;
3.4.设二值化后的结果为,则对于截取的区域中的任意一点(,),二值化的规则为:
。
一个更具体的实施例产生如图1和2所示的效果,具体为:
1.截取眉毛区域
1.1设学习样本数S=100000,利用支持向量机,通过样本学习,定位人的两瞳孔位置,设定两瞳孔距离为64像素,设定两瞳孔的中点为图片的中心点,将图片放缩到240×320的尺寸;
1.2对于n=100幅人脸图像,依次粗略估计能截取眉毛区域的矩形大小A---j,统计此矩形的左上角坐标(x---1j,y----1j)和右下角坐标(x---2j,y----2j),其中。计算可截取所有眉毛区域的坐标点(x---1,y----1)和(x---2,y----2);取眉毛区域的坐标点可取坐标集合的最大值,,(i=1,2);
1.3计算平均矩形区域的大小M×N,其中M= y----2- y----1+1,N= x---2- x---1+1;
1.4对于一幅归一化的人脸图像,用M×N的矩形截取眉毛区域。
2判断眉毛是否有遮挡
2.1.计算M×N区域第一行的灰度平均值AveGray;
2.2.计算M×N区域的最小灰度值MinGray;
2.3.计算 AveGray-MinGray,当差值大于等于阈值75,则无遮挡,否则有遮挡;
当存在眉毛遮挡,则停止眉毛轮廓的提取,否则转第3步。
3对眉毛区域进行二值化
3.1.统计截取区域各灰度级的个数Num[n],其中;
3.2.设置自适应因子=2,统计灰度值小于×MinGray的个数Num1;
3.3 当Num1>0.33×M×N,则令=-0.1,再次统计灰度值小于×MinGray的个数Num1,重复上述步骤直到Num1<0.33×M×N;当Num1<0.13×M×N,则=+0.1,再次统计灰度值小于×MinGray的个数Num1,重复上述步骤直到Num1>0.13×M×N。
3.4.设二值化后的结果为,则对于截取的区域中的任意一点(,),二值化的规则为:
。
本发明一个具体的应用为:现场通过摄像头或照相机获取人脸图像,同时通过扫描仪或便携式采集设备获取人的有效证件的照片(包括身份证、学生证、驾驶证、护照等), 截取两幅图片的眉毛区域,通过本发明所采用的方法得到眉毛轮廓,通过比对眉毛轮廓对人的身份进行验证。此应用可基本覆盖人脸识别可应用的所有领域,并可广泛应用于人脸识别不太适用或人员流量大、人流身份不固定的场合,比如机场、火车站、海关等。
本发明可当作独立特征直接进行身份识别及验证,可作为人脸识别的有效子特征,也可融合虹膜识别、指纹识别、掌纹识别和人耳识别等方法验证或识别人的身份。
Claims (9)
1.一种提取眉毛轮廓的方法,其特征在于,包括以下步骤;
1)针对所要处理的图片,粗选眉毛区域,生成眉毛截取区域;
2)统计所述眉毛截取区域内各灰度级的像素点个数Num[n],其中0≤n≤255;
3)设置一个大于0的自适应因子AdaFactor,然后统计灰度值小于AdaFactor×MinGray的个数Num1,其中MinGray为所述眉毛截取区域中灰度最小像素点的灰度值;
4)在所述眉毛截取区域中,当Num1>P1×Q,则令AdaFactor=AdaFactor-C1,再次统计灰度值小于AdaFactor×MinGray的个数Num1,如此循环直到Num1<P1×Q;当Num1<P2×Q,则令AdaFactor=AdaFactor+C2,再次统计灰度值小于AdaFactor×MinGray的个数Num1,如此循环直到Num1>P2×Q;其中C1和C2为预定的调整量,P1和P2为常数,P1取0.28-0.36,P2取0.08-0.16;而Q为眉毛截取区域中的像素点个数;
5)然后对截取区域内的像素点A(i,j)(0≤i<M,0≤j<N)进行二值化:
其中,M、N对应所述眉毛截取区域中行、列像素点数的最大值。
2.根据权利要求1所述的提取眉毛轮廓的方法,其特征在于,所述眉毛截取区域为矩形区域。
3.根据权利要求2所述的提取眉毛轮廓的方法,其特征在于,将要处理的图片尺寸归一化:利用支持向量机的学习,通过样本的学习,定位图像上人的两瞳孔位置,标定两瞳孔间距为设定距离,进而设定两瞳孔的中点作为图片的中心点,将图片放缩到归一的目标尺寸。
4.根据权利要求1至3任一所述的提取眉毛轮廓的方法,其特征在于,在步骤2)前还包括判断所述眉毛截取区域中眉毛是否被遮挡的步骤,若被遮挡,则不再进行当前图片的后续处理。
5.根据权利要求4所述的提取眉毛轮廓的方法,其特征在于,判断是否被遮挡的方法是分割所述眉毛截取区域为若干子区域,并计算每一子区域的灰度平均值AveGray,然后判断AveGray-MinGray,当差值大于等于阈值Thresh1,则无遮挡,否则有遮挡。
6.根据权利要求5所述的提取眉毛轮廓的方法,其特征在于,所述子区域为所述眉毛截取区域的行或者列。
7.根据权利要求5所述的提取眉毛轮廓的方法,其特征在于,所述阈值Thresh1的范围为60-110。
8.根据权利要求1所述的提取眉毛轮廓的方法,其特征在于,所述自适应因子AdaFactor的范围为1.5-2.5,常数C1为0.05-0.15,常数C2为0.05-0.15。
9.根据权利要求8所述的提取眉毛轮廓的方法,其特征在于,所述自适应因子AdaFactor为2,常数P1为0.33,常数P2为0.13,常数C1为0.1,常数C2为0.1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210514932.9A CN102982320B (zh) | 2012-12-05 | 2012-12-05 | 一种提取眉毛轮廓的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210514932.9A CN102982320B (zh) | 2012-12-05 | 2012-12-05 | 一种提取眉毛轮廓的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102982320A CN102982320A (zh) | 2013-03-20 |
CN102982320B true CN102982320B (zh) | 2015-07-08 |
Family
ID=47856305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210514932.9A Active CN102982320B (zh) | 2012-12-05 | 2012-12-05 | 一种提取眉毛轮廓的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102982320B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203329B (zh) * | 2016-07-08 | 2019-02-22 | 安徽工业大学 | 一种基于眉毛建立身份标识模板及进行身份识别的方法 |
CN106210522B (zh) * | 2016-07-15 | 2019-06-14 | Oppo广东移动通信有限公司 | 一种图像处理方法、装置、移动终端及可读存储介质 |
CN107464253B (zh) * | 2017-07-10 | 2020-11-20 | 北京小米移动软件有限公司 | 眉毛定位方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101493887A (zh) * | 2009-03-06 | 2009-07-29 | 北京工业大学 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
CN101739545A (zh) * | 2008-11-21 | 2010-06-16 | 上海电机学院 | 一种人脸检测方法 |
CN102479318A (zh) * | 2010-11-22 | 2012-05-30 | 上海银晨智能识别科技有限公司 | 一种人脸识别方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7027619B2 (en) * | 2001-09-13 | 2006-04-11 | Honeywell International Inc. | Near-infrared method and system for use in face detection |
-
2012
- 2012-12-05 CN CN201210514932.9A patent/CN102982320B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739545A (zh) * | 2008-11-21 | 2010-06-16 | 上海电机学院 | 一种人脸检测方法 |
CN101493887A (zh) * | 2009-03-06 | 2009-07-29 | 北京工业大学 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
CN102479318A (zh) * | 2010-11-22 | 2012-05-30 | 上海银晨智能识别科技有限公司 | 一种人脸识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102982320A (zh) | 2013-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111344712B (zh) | 用于图像去标识的系统和方法 | |
CN104766063B (zh) | 一种活体人脸识别方法 | |
CN101930543B (zh) | 一种自拍视频中眼睛图像的调正方法 | |
CN101593272B (zh) | 一种基于asm算法的人脸特征定位方法 | |
CN104036278B (zh) | 人脸算法标准脸部图像的提取方法 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN109508700A (zh) | 一种人脸识别方法、系统及存储介质 | |
CN101739546A (zh) | 基于图像交叉重建的单样本注册图像人脸识别方法 | |
CN104318603A (zh) | 从手机相册调取照片生成3d模型的方法及系统 | |
Oh et al. | Extracting sclera features for cancelable identity verification | |
CN107066969A (zh) | 一种人脸识别方法 | |
CN105160306A (zh) | 虹膜图像模糊判断的方法和装置 | |
CN105813548A (zh) | 用于评估至少一个面部临床体征的方法 | |
US10586098B2 (en) | Biometric method | |
CN104050448A (zh) | 一种人眼定位、人眼区域定位方法及装置 | |
CN102982320B (zh) | 一种提取眉毛轮廓的方法 | |
CN109725721A (zh) | 用于裸眼3d显示系统的人眼定位方法及系统 | |
Nishiyama et al. | Face recognition using the classified appearance-based quotient image | |
Syambas et al. | Image processing and face detection analysis on face verification based on the age stages | |
CN108491798A (zh) | 基于个性化特征的人脸识别方法 | |
CN116342968B (zh) | 一种双通道人脸识别方法及装置 | |
CN111626181A (zh) | 人脸识别大数据分析方法 | |
CN106127160A (zh) | 一种用于虹膜识别的人眼快速定位方法 | |
CN113837020B (zh) | 一种化妆进度检测方法、装置、设备及存储介质 | |
Niazi et al. | Hybrid face detection in color images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C56 | Change in the name or address of the patentee | ||
CP01 | Change in the name or title of a patent holder |
Address after: Shun high tech Zone of Ji'nan City, Shandong province 250101 China West Road No. 699 Patentee after: SYNTHESIS ELECTRONIC TECHNOLOGY CO., LTD. Address before: Shun high tech Zone of Ji'nan City, Shandong province 250101 China West Road No. 699 Patentee before: Shandong Synthesis Electronic Technology Co., Ltd. |