CN105512630A - 近实时效应的人眼检测与定位方法 - Google Patents

近实时效应的人眼检测与定位方法 Download PDF

Info

Publication number
CN105512630A
CN105512630A CN201510894511.7A CN201510894511A CN105512630A CN 105512630 A CN105512630 A CN 105512630A CN 201510894511 A CN201510894511 A CN 201510894511A CN 105512630 A CN105512630 A CN 105512630A
Authority
CN
China
Prior art keywords
human eye
face
area
human
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510894511.7A
Other languages
English (en)
Other versions
CN105512630B (zh
Inventor
周圆
陈洁
陈莹
田宝亮
侯春萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201510894511.7A priority Critical patent/CN105512630B/zh
Publication of CN105512630A publication Critical patent/CN105512630A/zh
Application granted granted Critical
Publication of CN105512630B publication Critical patent/CN105512630B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Abstract

本发明涉及一种近实时效应的人眼检测与定位方法,首先利用Adaboost算法找到人脸区域,并在此基础上运用先验知识缩小眼睛的位置范围,分别将左右眼睛的位置估计出来;然后进行模板匹配,初步检测到人脸区域,并确定人眼的候选区域,通过计算人眼平均模板和待检测图像之间的相关系数,通过相关程度来最终确定该候选区域是否为人眼区域;当相关系数大于预先设定好的阈值判断该区域为人眼区域,框出此区域,否则便不是人眼的位置。本发明能提高人眼的正确检测率和定位率。

Description

近实时效应的人眼检测与定位方法
技术领域
本发明涉及计算机视觉领域,更具体的是一种具有近实时效应的人眼检测与定位系统的实现。
背景技术
人眼检测技术在当前的计算机视觉领域是最重要的发展趋势之一。随着裸眼3D技术日趋成熟并逐渐走入我们的生活,如何让人们更好地达到视觉上的享受,让人们在全自动的条件之下,得到最身临其境的感受;同时,随着计算机视觉领域的飞速发展,在人脸识别研究中,眼睛作为重要的面部特征在人脸识别系统中也扮演着重要的角色。我们面临的现实情况使得人眼检测与定位成为了我们研究的重要部分。
然而,随着背景复杂度的增强,人眼定位系统的识别率极快的下降同时误检率极大程度地上升。眼睛作为脸部特征的重要组成部分,它的检测对于人脸信息的处理具有重要的意义,因此只要人眼被精确定位,脸部其他各器官的位置定位也就变得简单。眼睛的定位还可以使人脸的归一化得以较好地实现,同时使得预处理的效果更加明显。因而眼睛的定位与人脸分割和人脸识别的结果直接相关。
人脸检测是一种非常复杂的模式识别技术,这是因为人脸是一类具有复杂变化的自然结构目标,并且具有以下特征:(1)可变的模式,这是由于外貌、表情、肤色等的不同而引起的;(2)人脸上可能存在眼镜、胡须等附属物;(3)人脸影像作为一种三维物体,很容易受到光照产生的阴影的影响。目前人脸的检测方法主要有基于知识的方法、基于特征的方法、基于模板匹配的方法和基于外观的方法。基于知识的方法,由于先验知识的不完备性,而使检测能力受到限制;基于模板匹配的方法实现简单,但检测精度较低,且必须使用变形模板才能检测尺寸不同的人脸,而变形模板的参数调整是一个优化的过程,耗时较长,实时性差;基于外观的方法可以达到较高的检测精度,缺点是训练时间长,检测速度慢,同时对训练样本的依赖性较强。
人眼定位是人脸检测中的关键步骤,当前,对于人眼检测定位,主要有两种方式:一种是首先在图像中检测人脸,然后在人脸区域中找到眼睛的位置,以此达到人眼检测的目的;另一种则直接在图像中找到眼睛的位置。目前的人眼检测与定位方法主要分为参数可调的模型法(如霍夫变换、可变形眼睛模板)、眼角检测法、特征眼法和对称性检测法。其中参数可调的模型法需要定义一个能量函数,通过调整模型参数使能量函数最小化,这种思想好,但能量函数中的加权系数只能由经验确定,难以推广,其次能量函数优化过程十分耗时,难以实际应用。眼角检测法通过Gabor滤波器检测眼角,因此要求脸像尺寸较大,对图像质量,尤其是眼角的对比度要求较高。特征眼检测法由于事先不知人眼(或人脸)位置(以及人脸是否倾斜),因此对图像中对称点的搜索十分耗时。
由于当前的人眼检测技术主要是依赖于人脸检测技术的发展,眼睛区域在整幅图像中的面积较小,直接在图像中实施眼睛检测会因为目标过小,致使精度不高而且人脸检测的效果将直接影响眼睛检测的准确性。与此同时,当前研究主要针对正面人脸图像比较多,在人脸出现偏移和旋转时检测精度不高,因为此时图像中人眼的部分信息会发生变化,很难鲁棒地检测眼睛。
人眼检测涉及人脸检测,当前人脸检测算法存在着一定的局限性制约人眼检测,本发明就此提出了一种将传统、经典的算法同先验知识结合起来的方法从而实现近实时检测和定位人眼的目的。
发明内容
本发明的目的是克服现有技术的上述不足,从鲁棒性和精确性两方面考虑,提供一种基于Adaboost算法和模板匹配的人脸检测和定位方法。在现有有限资源的基础上,实现对于人眼的正确检测率和定位率的提高。本发明的技术方案如下:
一种近实时效应的人眼检测与定位方法,首先利用Adaboost算法找到人脸区域,并在此基础上运用先验知识缩小眼睛的位置范围,分别将左右眼睛的位置估计出来;然后进行模板匹配,初步检测到人脸区域,并确定人眼的候选区域,通过计算人眼平均模板和待检测图像之间的相关系数,通过相关程度来最终确定该候选区域是否为人眼区域;当相关系数大于预先设定好的阈值判断该区域为人眼区域,框出此区域,否则便不是人眼的位置。
其中的具体过程可以如下:
①用Haar特征的位置信息,对训练样本进行统计就可以得到对应的特征参数,一个弱分类器hj(x)包括一个类Haar特征的特征值fj,一个分类阈值θj和一个分类方向pj
②利用Adaboost算法训练强分类器,训练流程如下:
(1)给定一个训练集(x1,y1)(x2,y2)...(xi,yi)...(xn,yn),xi是输入的训练样本,yi是分类的类别标志。其中xi表示第i个样本,y=0时为负样本,y=1时为正样本,n为训练样本总数,在人眼检测中,0和1分别表示非人眼与人眼。
(2)初始化权重:设Dt(i)为第t次循环中第i个样本的误差权重,对于负样本,p为负样本个数;对于正样本,q为正样本个数;
(3)对于t=1,2,3...T,进行迭代训练,选取当轮中的最佳弱分类器,迭代T次即代表选取T个最佳弱分类器;
③通过Adaboost算法,得到弱分类器,以此训练得到强分类器,再利用分类器进行人脸检测;
④令找到的脸部框的上边缘中心为坐标原点,上边缘为x轴,纵向中心对称线为y轴,则可以将左眼镜像的位置缩小为脸部左半边自原点四分之一到二分之一的地方,同理,右眼镜像的位置缩小为脸部右半边自原点四分之一到二分之一的地方,初步确定人眼位置,称之为候选区域;
⑤基于模板匹配的方法,在图像灰度层次上直接比较目标模板和候选区域之间的相似性,计算二者之间的相关系数,衡量T和Sij之间的误差,公式为:
其中,T(m,n)为模板,Sij(m,n)为搜索图;
⑥根据不同的匹配方向选取误差阈值E0,当E(i,j)>E0时停止该点的计算,继续下一点的计算。
本发明采用Adaboost训练强分类器的训练流程,将弱分类器提升为强分类器,极大提高了分类器的分类性能。提出的基于Haar-like特征和Adaboost的人脸检测算法能够有效地处理大多数的人脸检测问题,能够在一定角度和距离内较为准确定位人脸的位置。在人眼定位的过程中,本发明采用几何分析和模板匹配相结合的方法可以极大程度的提高检测效率及正确率。
附图说明
图1人眼检测定位系统结构图
图2Adaboost算法训练示意图
图3人脸识别过程
图4模板匹配过程
图5视频人眼定位,其中(a)为脸的位置,(b)为眼睛的确切位置
具体实施方式
首先利用Adaboost算法找到人脸区域,并在此基础上合理运用先验知识缩小眼睛的理论位置范围,分别将左右眼睛的位置估计出来。然后进行模板匹配,通过上面的工作,己经初步检测到了人脸区域,并确定了人眼的大概位置,通过计算人眼平均模板和待检测图像之间的相关系数,通过相关程度来最终确定该候选区域是否为人眼区域。当相关系数大于预先设定好的阈值判断该区域为人眼区域,框出此区域,否则便不是人眼的位置。具体过程如下:
1、首先用Haar特征的位置信息,对训练样本进行统计就可以得到对应的特征参数。一个弱分类器hj(x)包括一个类Haar特征的特征值fj,一个分类阈值θj和一个分类方向pj(通常为+1或者-1),它的形式为
h j ( x ) = 1 ( p j f j ( x ) < p j &theta; j ) 0 ( o t h e r w i s e )
其中,对于每一个特征,选择阈值θj和方向符号pj的算法为:
(1)计算每一个样本对于特征j的特征值;
(2)对所有特征值进行排序;
(3)Fors=0...N-1(N为总样本数)
令pj=1,将s左边所有负片的权值和右边所有正片的权值求和作为错误率,
令pj=-1,将s左边所有正片和右边所有负片的权值求和作为错误率,
选择错误率最小的特征值和方向符号作为弱分类器的阈值和方向符号。
2、然后利用Adaboost算法训练强分类器,训练流程如附图2所示。具体描述如下所示:
(1)给定一个训练集(x1,y1)(x2,y2)...(xi,yi)...(xn,yn),xi是输入的训练样本,yi是分类的类别标志。其中xi表示第i个样本,y=0时为负样本,y=1时为正样本,n为训练样本总数;在人眼检测中,0和1分别表示非人眼与人眼。
(2)初始化权重:设Dt(i)为第t次循环中第i个样本的误差权重,对于负样本,p为负样本个数;对于正样本,q为正样本个数;
(3)对于t=1,2,3...T,进行以下迭代训练,选取当轮中的最佳弱分类器,该算法中,迭代T次即代表选取T个最佳弱分类器;
1)归一化权重: &omega; t ( i ) = D t ( i ) &Sigma; i = 1 n D t ( i ) ;
2)对每个Haar特征计算弱分类器hj的的误检率:
3)选出误检率最低的分类器,设为最佳弱分类器ht
4)重新调整权重其中且ei=0时表示xi被正确地分类,ei=1表示xi被错误地分类。
(4)经迭代T次之后,产生了T个最佳弱分类器h1(x),h2(x)…ht(x),按照下式加权组成强分类器: H ( X ) = 1 ( &Sigma; t = 1 T &alpha; t h t ( x ) &GreaterEqual; 1 2 &Sigma; t = 1 T &alpha; t ) 0 ( o t h e r s ) , 其中, &alpha; t = l o g 1 &beta; t = l o g 1 - &epsiv; t &epsiv; t .
3、通过Adaboost算法,我们可以通过一定的特征得到弱分类器,以此训练得到强分类器,再利用分类器进行人脸检测。人脸检测一般性过程如附图3所示。
4、接着充分利用脸部一般性这个特点,若令找到的脸部框的上边缘中心为坐标原点,上边缘为x轴,纵向中心对称线为y轴,则可以将左眼(镜像)的位置缩小为脸部左半边自原点四分之一到二分之一的地方,同理,右眼(镜像)的位置可缩小为脸部右半边自原点四分之一到二分之一的地方,这可以初步确定人眼位置。
5、基于模板匹配的方法的主要思路就是在图像灰度层次上直接比较目标模板和候选图像区域之间的相似性,计算二者之间的相关系数。模板匹配过程如附图4所示。在本发明中,采用另外一种方法来衡量和之间的误差,公式为:
其中,为模板,为搜索图;
根据不同的匹配方向选取一个误差阈值,当时停止该点的计算,继续下一点的计算。
下面对专利提出的算法进行了验证。通过在视频上进行人眼检测证明该算法对近实时人眼检测与跟踪的有效性。通过将本发明提出的分类器方法与OpenCV自带的原始分类器haarcascade_eye_tree_eyeglasses.xml以及改进的分类器haarcascade_eye.xml进行识别率的对比证实本发明提出的方法拥有较高的定位准确性。
1、基于网上随意下载的视频进行人眼定位,实验结果表明本发明的方法具有一定的普遍性,在摄像头实时采集过程中也可以达到相同的效果。结果如附图5所示。
2、OpenCV自带的原始分类器haarcascade_eye_tree_eyeglasses.xml以及改进的分类器haarcascade_eye.xml与本发明中提出的方法进行的识别率对比,每种分类器检测1000帧(从30帧到1043帧,由于遮挡存在,其中包含无效帧13帧,同时,脸允许有30度以内的转向角)
表一识别率对比
从此表格中可以明显看出,本发明中提出的方法拥有较高的定位准确性。
haarcascade_eye_tree_eyeglasses.xml由于用两只眼睛进行整体定位,因而大大增加了漏检率,将很多眼睛部位误认为不含有眼睛,而haarcascade_eye.xml因仅仅依赖于眼睛于分类器,导致识别时容易产生一定的错误,同时,由于训练图片的局限性,导致其对于闭眼的动作时无法定位眼睛的位置。

Claims (2)

1.一种近实时效应的人眼检测与定位方法,首先利用Adaboost算法找到人脸区域,并在此基础上运用先验知识缩小眼睛的位置范围,分别将左右眼睛的位置估计出来;然后进行模板匹配,初步检测到人脸区域,并确定人眼的候选区域,通过计算人眼平均模板和待检测图像之间的相关系数,通过相关程度来最终确定该候选区域是否为人眼区域;当相关系数大于预先设定好的阈值判断该区域为人眼区域,框出此区域,否则便不是人眼的位置。
2.根据权利要求1所述的近实时效应的人眼检测与定位方法,其特征在于,具体过程如下:
①用Haar特征的位置信息,对训练样本进行统计就可以得到对应的特征参数,一个弱分类器hj(x)包括一个类Haar特征的特征值fj,一个分类阈值θj和一个分类方向pj
②利用Adaboost算法训练强分类器,训练流程如下:
(1)给定一个训练集(x1,y1)(x2,y2)...(xi,yi)...(xn,yn),xi是输入的训练样本,yi是分类的类别标志;其中xi表示第i个样本,y=0时为负样本,y=1时为正样本,n为训练样本总数,在人眼检测中,0和1分别表示非人眼与人眼;
(2)初始化权重:设Dt(i)为第t次循环中第i个样本的误差权重,对于负样本,为负样本个数;对于正样本,q为正样本个数;
(3)对于t=1,2,3...T,进行迭代训练,选取当轮中的最佳弱分类器,迭代T次即代表选取T个最佳弱分类器;
③通过Adaboost算法,得到弱分类器,以此训练得到强分类器,再利用分类器进行人脸检测;
④令找到的脸部框的上边缘中心为坐标原点,上边缘为x轴,纵向中心对称线为y轴,则可以将左眼镜像的位置缩小为脸部左半边自原点四分之一到二分之一的地方,同理,右眼镜像的位置缩小为脸部右半边自原点四分之一到二分之一的地方,初步确定人眼位置,称之为候选区域;
⑤基于模板匹配的方法,在图像灰度层次上直接比较目标模板和候选区域之间的相似性,计算二者之间的相关系数,衡量T和Sij之间的误差,公式为:
其中,T(m,n)为模板,Sij(m,n)为搜索图;
⑥根据不同的匹配方向选取误差阈值E0,当E(i,j)>E0时停止该点的计算,继续下一点的计算。
CN201510894511.7A 2015-12-07 2015-12-07 人眼检测与定位方法 Active CN105512630B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510894511.7A CN105512630B (zh) 2015-12-07 2015-12-07 人眼检测与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510894511.7A CN105512630B (zh) 2015-12-07 2015-12-07 人眼检测与定位方法

Publications (2)

Publication Number Publication Date
CN105512630A true CN105512630A (zh) 2016-04-20
CN105512630B CN105512630B (zh) 2019-05-17

Family

ID=55720597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510894511.7A Active CN105512630B (zh) 2015-12-07 2015-12-07 人眼检测与定位方法

Country Status (1)

Country Link
CN (1) CN105512630B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106878614A (zh) * 2017-01-17 2017-06-20 深圳市金立通信设备有限公司 一种拍摄方法及终端
CN107145820A (zh) * 2017-03-16 2017-09-08 杭州岱石科技有限公司 基于hog特征和fast算法的双眼定位方法
CN107992853A (zh) * 2017-12-22 2018-05-04 深圳市友信长丰科技有限公司 人眼检测方法、装置、计算机设备及存储介质
CN108833891A (zh) * 2018-07-26 2018-11-16 宁波视睿迪光电有限公司 3d显示设备及3d显示方法
CN109034051A (zh) * 2018-07-24 2018-12-18 哈尔滨理工大学 人眼定位方法
CN113076801A (zh) * 2021-03-04 2021-07-06 广州铁路职业技术学院(广州铁路机械学校) 一种列车在途状态智能联动检测系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731418A (zh) * 2005-08-19 2006-02-08 清华大学 复杂背景图像中鲁棒的眼睛精确定位方法
US20080063263A1 (en) * 2006-09-08 2008-03-13 Li Zhang Method for outlining and aligning a face in face processing of an image
CN103279752A (zh) * 2013-06-19 2013-09-04 山东大学 一种基于改进Adaboost算法和人脸几何特征的眼睛定位方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731418A (zh) * 2005-08-19 2006-02-08 清华大学 复杂背景图像中鲁棒的眼睛精确定位方法
US20080063263A1 (en) * 2006-09-08 2008-03-13 Li Zhang Method for outlining and aligning a face in face processing of an image
CN103279752A (zh) * 2013-06-19 2013-09-04 山东大学 一种基于改进Adaboost算法和人脸几何特征的眼睛定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡正平 等: "局部Gabor方向投影子空间多模板人眼定位算法", 《四川兵工学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106878614A (zh) * 2017-01-17 2017-06-20 深圳市金立通信设备有限公司 一种拍摄方法及终端
CN107145820A (zh) * 2017-03-16 2017-09-08 杭州岱石科技有限公司 基于hog特征和fast算法的双眼定位方法
CN107992853A (zh) * 2017-12-22 2018-05-04 深圳市友信长丰科技有限公司 人眼检测方法、装置、计算机设备及存储介质
CN109034051A (zh) * 2018-07-24 2018-12-18 哈尔滨理工大学 人眼定位方法
CN108833891A (zh) * 2018-07-26 2018-11-16 宁波视睿迪光电有限公司 3d显示设备及3d显示方法
CN113076801A (zh) * 2021-03-04 2021-07-06 广州铁路职业技术学院(广州铁路机械学校) 一种列车在途状态智能联动检测系统及方法

Also Published As

Publication number Publication date
CN105512630B (zh) 2019-05-17

Similar Documents

Publication Publication Date Title
CN105512630A (zh) 近实时效应的人眼检测与定位方法
CN106096538B (zh) 基于定序神经网络模型的人脸识别方法及装置
CN107886064B (zh) 一种基于卷积神经网络的人脸识别场景适应的方法
CN109902590B (zh) 深度多视图特征距离学习的行人重识别方法
CN103632136B (zh) 人眼定位方法和装置
CN103198303B (zh) 一种基于人脸图像的性别识别方法
US8320643B2 (en) Face authentication device
CN103870811B (zh) 一种用于视频监控的正面人脸快速判别方法
CN107103281A (zh) 基于聚集损失深度度量学习的人脸识别方法
CN106599994B (zh) 一种基于深度回归网络的视线估计方法
CN108563999A (zh) 一种面向低质量视频图像的人物身份识别方法与装置
CN104268539A (zh) 一种高性能的人脸识别方法及系统
CN103632132A (zh) 一种基于肤色分割和模板匹配的人脸检测与识别方法
CN104091169A (zh) 基于多特征融合的行为识别方法
CN105138968A (zh) 人脸认证方法和装置
CN104036278A (zh) 人脸算法标准脸部图像的提取方法
CN106203375A (zh) 一种基于人脸图像中人脸和人眼检测的瞳孔定位方法
CN101853397A (zh) 一种基于人类视觉特性的仿生人脸检测方法
WO2008151471A1 (fr) Procédé de positionnementrobuste et précis de l&#39;oeil dans une image d&#39;arrière-plan compliquée
CN107220598A (zh) 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法
Tang et al. Robust precise eye location by adaboost and svm techniques
CN112966736A (zh) 一种基于多视角匹配与局部特征融合的车辆再识别方法
CN110751005B (zh) 融合深度感知特征和核极限学习机的行人检测方法
CN107315997B (zh) 一种基于快速特征点定位的视线朝向判断方法及系统
CN101561875B (zh) 一种二维人脸图像定位的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant