CN101127076A - 基于级联分类和哈夫圆变换的人眼状态检测方法 - Google Patents
基于级联分类和哈夫圆变换的人眼状态检测方法 Download PDFInfo
- Publication number
- CN101127076A CN101127076A CNA2007100464773A CN200710046477A CN101127076A CN 101127076 A CN101127076 A CN 101127076A CN A2007100464773 A CNA2007100464773 A CN A2007100464773A CN 200710046477 A CN200710046477 A CN 200710046477A CN 101127076 A CN101127076 A CN 101127076A
- Authority
- CN
- China
- Prior art keywords
- human eye
- rectangle
- image
- detection
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种模式识别领域的基于级联分类和哈夫圆变换的人眼状态检测方法,包括以下步骤:采集人脸图像;使用椭圆肤色模型在YCbCr颜色空间肤色分割得到肤色区域位置信息;使用级联人眼分类器在肤色区域位置使用人眼检测窗口遍历的方式检测矩形人眼区域,并使用矩形合并方法合并矩形,得到合并后的人眼矩形链表;对于合并后的人眼矩形链表中的每个矩形人眼区域,依次使用索贝尔算子进行边缘检测和二值化得到二值图像;对于每幅二值图像,依次使用水平投影方法检测人眼状态;如果还不能确定当前状态是闭眼,则使用哈夫圆变换检测方法进一步检测人眼状态。本发明利用肤色分割提升人眼检测速度,跟踪分析人的眼睛状态,适用于注意力检测和疲劳度检测。
Description
技术领域
本发明涉及的是一种模式识别领域的方法,特别是一种基于级联分类和哈夫圆变换的人眼状态检测方法。
背景技术
人眼检测指的是在一幅图像中检测人眼区域,状态检测指的是通过对人眼区域的分析,判断眼睛的睁开和闭合状态。人眼检测在国内外得到了广泛的研究和应用,包括司机驾驶疲劳检测等方面。人眼检测的方法归纳起来包括利用红眼效应定位人眼虹膜位置检测人眼、利用眼睛灰度值较其它地方低的特性检测人眼、利用模板匹配的方法检测人眼等等。但这些方法的不足之处在于,其假设条件是在一幅人脸图像中去检测人眼,而且对检测到的人眼没做状态检测,对于背景较复杂的图像,这些方法的性能和效果不够理想。
经对现有技术的检索发现,中国专利申请号为03147472.1的专利描述了一种基于GaborEye(加博尔眼睛)模型的人眼检测方法,该发明专利涉及一种自动检测人脸图像中人眼中心位置的方法,该方法对摄像头采集的人脸图像采用人脸检测方法检测到人脸,并选取合适的Gabor核函数对人脸进行卷积得到GaborEye模型,再分割出两眼所在的区域。该方法其操作过程较复杂,非实时检测,同时缺乏对眼睛状态的分析判断。
发明内容
本发明针对上述现有技术的不足,提出了一种基于级联分类和哈夫圆变换的人眼状态检测方法,使用椭圆肤色模型对图像进行肤色分割预处理,去除了背景干扰,而且减小了级联人眼分类器的检测范围,提升了检测速度和准确率,并使用级联人眼分类器得到人眼区域,综合使用水平投影和哈夫圆变换检测方法分析眼睛的当前状态。
本发明是通过以下技术方案实现的,本发明包括如下步骤:
步骤一,采集人脸图像;
所述的采集人脸图像,指的是通过摄像头等设备采集RGB颜色空间的人脸图像。
步骤二,对于步骤一采集到的人脸图像,使用椭圆肤色模型在YCbCr颜色空间肤色分割得到肤色区域位置信息,具体如下:
①、将步骤一中采集到的人脸图像中每个像素点的RGB值(R,G,B)转换成(Y,Cb,Cr)值,其中,Y表示亮度信息、Cb表示蓝色的色差信息、Cr表示红色的色差信息。
②、设置椭圆肤色模型的参数;
③、对图像中的每个像素点,进行肤色分割,得到二值肤色图像:
④、在二值肤色图像的四连通肤色区域的边界中,得到肤色区域位置信息。
步骤三,使用训练好的级联人眼分类器在步骤二提取的肤色区域位置使用人眼检测窗口遍历的方式检测矩形人眼区域,得到人眼矩形链表,使用矩形合并方法合并人眼矩形链表中的矩形,直到没有可以合并的矩形为止,得到合并后的人眼矩形链表;
所述的人眼检测窗口遍历的方式,指的是设定初始检测窗口的大小,按照步长大小从肤色区域的左上角开始向右移动,每移动一次,便得到一个检测窗口,如果级联人眼分类器将该检测窗口里的图像分类为人眼,即检测到矩形人眼区域,把该矩形人眼区域加到人眼矩形链表中,否则不做任何操作,当窗口移至图像最右边时,从下一行开始重复同样的操作,直至窗口到达图像最右下方,然后以一定倍率扩大检测窗口,重复同样的检测过程,直至窗口的宽度大于指定的宽度为止。
所述的可以合并的矩形,指的是两个矩形中,如果一个矩形中心包含在另一个矩形之中,则这两个矩形应当合并成一个矩形。
所述的矩形合并方法,是指将两个要合并的矩形的左上角坐标值平均得到新的坐标值,把该坐标值作为合并后的矩形的左上角坐标值,同时将两个矩形的长和宽分别平均得到新的长和宽,并把新的长和宽作为合并后的矩形的长和宽,这样便确定了合并后的矩形的大小和位置,将合并后的矩形加到人眼矩形链表中,并从人眼矩形链表中删除对应的两个要合并的矩形。
步骤四,对于步骤三的合并后的人眼矩形链表中的每个矩形人眼区域,依次使用Sobel(索贝尔)算子进行边缘检测和二值化得到二值图像;
所述边缘检测和二值化,是指对矩形人眼区域,首先利用高斯滤波器滤波,得到平滑后的灰度图像,对灰度图像用Sobel算子,进行边缘检测,得到一幅梯度图像,最后采用阈值法,设定阈值,遍历该梯度图像,将大于或等于阈值的像素点作为边缘点,小于设定阈值的像素点作为背景点,得到二值图像。
所述Sobel算子,包括水平检测算子和垂直检测算子,具体如下:
水平检测算子对水平方向的灰度值变化敏感,垂直检测算子对垂直方向的灰度值变化敏感。
步骤五,对于步骤四得到的每幅二值图像,依次使用水平投影方法检测人眼状态;
所述水平投影方法,是指:累加水平方向上边缘点的数目,得到水平投影向量,在该水平投影向量中,如果存在两个足够大且靠得足够近的高峰,判断该人眼当前状态是闭眼,如果不存在两个足够大且靠得足够近的高峰,则不能确定当前状态为闭眼,那么跳至步骤六。
所述的足够大,指的是水平方向上边缘点的数目累加值大于第一阈值,该第一阈值的大小范围在w×0.2和w×0.35之间,所述的w是二值图像的宽;
所述的足够近,指的是水平投影向量的两个高峰的下标差值小于或等于第二阈值,该第二阈值的大小范围在w×0.15和w×0.25之间,所述的w是二值图像的宽。
步骤六,如果步骤五不能确定当前状态是闭眼,则使用哈夫圆变换检测方法进一步检测人眼状态。
所述哈夫圆变换检测方法,是指:根据不同人眼大小和距离摄像头远近的关系而造成的图像中眼睛的大小变化,选择半径变换范围,使用哈夫圆变换得到圆心位置和对应的半径,哈夫圆变换得到圆心位置和半径之后,统计圆周上边缘点的数目和连续弧的边缘点数目,并保存在数组中,统计数组中超过1/2圆周的连续弧的数目M,统计数组中超过1/3圆周的连续弧的数目N,如果边缘点的数目大于等于20,并且M≥1或N≥2,判断为睁眼,否则判断为闭眼。
所述的连续弧,是指在圆周上间隔不超过2个像素点的相邻边缘点。
与现有技术相比,本发明具有如下有益效果:本发明集成了图像采集、人眼检测以及眼睛状态分析,通过椭圆肤色模型进行肤色分割,有效减小了级联人眼分类器的检测范围,检测速度提升了1倍以上,使误检率降低到原来的一半,准确率提高了20%,利用水平投影和哈夫圆变换检测分析眼睛状态,则进一步分析了可能的眼睛当前状态。本发明实时检测人眼和分析其状态,用于要求注意力高度集中的工作场所,包括司机驾驶、工厂的监控室等等。
附图说明
图1是本发明工作流程示意图;
图2是本发明级联人眼分类器检测流程示意图;
图3是本发明二值图像水平投影示意图。
具体实施方式
下面结合附图对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例包括如下步骤:
步骤一,通过USB摄像头采集RGB颜色空间的人脸图像;
步骤二,对于步骤一采集到的人脸图像,使用椭圆肤色模型在YCbCr颜色空间得到肤色区域位置信息,具体如下:
①将步骤一中采集到的人脸图像中每个像素点的RGB值(R,G,B),通过下式转换成(Y,Cb,Cr)值:
其中,Y表示亮度信息、Cb表示蓝色的色差信息、Cr表示红色的色差信息。
所述的转换,是指将象素中的亮度信息Y、蓝色的色差信息Cb、红色的色差信息Cr分离出来,从而减少外界光照环境对结果的影响。
②设置椭圆肤色模型的参数及其值如下式所示:
Cx=109.38,Cy=152.02,ecx=1.60,ecy=2.41
a=25.29,b=14.03,θ=2.53
a是指椭圆的横轴长度,b是指椭圆的纵轴长度,Cx是指肤色空间原点在YCbCr空间的Cb坐标,Cy指肤色空间原点在YCbCr空间的Cr坐标,θ为两个空间的夹角,ecx为椭圆在肤色空间的X坐标,ecy为椭圆在肤色空间的Y坐标。
③对图像中的每个像素点,进行肤色分割,得到二值肤色图像:
由该像素点在YCbCr空间的值为(Y,Cb,Cr)按下列公式计算该像素点的肤色值:
x=(Cb-Cx)×cosθ+(Cr-Cy)×sinθ
y=(Cb-Cx)×(-sinθ)+(Cr-Cy)×cosθ
如果该肤色值小于1,则该像素点属于肤色区域,设置二值肤色图像中该像素点为肤色点;否则不属于肤色区域,设置二值肤色图像中该像素点为背景点。
④在二值肤色图像中的四连通肤色区域的边界中,得到肤色区域位置信息。
所述的四连通肤色区域,是指从肤色区域内任一像素点出发,通过上、下、左、右四个方向可以到达肤色区域内的任意像素点。
步骤三,使用训练好的级联人眼分类器在步骤二提取的肤色区域位置使用人眼检测窗口遍历的方式检测矩形人眼区域,得到人眼矩形链表,使用矩形合并方法合并人眼矩形链表中的矩形,直到没有可以合并的矩形为止,得到合并后的人眼矩形链表;
所述的训练级联人眼分类器,包括采集训练样本和训练分类器两个过程。
所述的采集训练样本,指的是采集正片样本和采集负片样本。正片指的是人眼样本,正片样本的数量为一千到四千张,采集正片样本指的是通过从包含睁开人眼的图片中裁剪出矩形人眼区域,并经过大小归一化,得到24×24大小的正片样本;负片指的是非人眼样本,负片的数量为正片的3到4倍,采集负片样本指的是从非人脸图像如高分辨率的自然风景图片中截取分割出非人眼图片,并经过大小归一化,得到24×24大小的负片样本。
所述的训练分类器,指的是训练弱分类器、组合弱分类器得到强分类器以及组合强分类器得到级联人眼分类器。所述的训练弱分类器指的是通过计算训练样本的Harr特征值和统计使用该特征值对训练样本进行分类得到的错误率,选取出使训练样本分类错误率最小的Harr特征及阈值的组合;所述的组合弱分类器得到强分类器,指的是将弱分类器根据AdaBoost(Adaptive Boosting,自适应提升)算法组合得到一个强分类器;所述的组合强分类器得到级联人眼分类器,是指在训练过程中根据预先设定的级联人眼分类器正确率阈值(如98.5%),调整强分类器的个数,直至分类正确率达到正确率阈值时停止训练。
所述的级联人眼分类器是由多个强分类器组合而成,只有级联人眼分类器中的所有强分类器将待检测图像分类为人眼时,才表示级联人眼分类器将该检测图像分类为人眼。
如图2所示,所述的人眼检测窗口遍历的方式,指的是设定初始检测窗口的大小,如2*2,按照步长大小为1从肤色区域的左上角开始向右移动,每移动一次,便得到一个检测窗口,如果级联人眼分类器将该检测窗口里的图像分类为人眼,即检测到矩形人眼区域,把该矩形人眼区域加到人眼矩形链表中;否则不做任何操作;当窗口移至图像最右边时,从下一行开始重复同样的操作,直至窗口到达图像最右下方。然后以一定倍率如1.5倍扩大检测窗口,此时窗口由2*2变成3*3,重复同样的检测过程,直至窗口的宽度大于指定的宽度阈值20为止。
所述的可以合并的矩形,指的是两个矩形中,如果一个矩形中心包含在另一个矩形之中,则这两个矩形应当合并成一个矩形。
所述的矩形合并方法,是指将两个要合并的矩形的左上角坐标值平均得到新的坐标值,把该坐标值作为合并后的矩形的左上角坐标值,同时将两个矩形的长和宽分别平均得到新的长和宽,并把新的长和宽作为合并后的矩形的长和宽,这样便确定了合并后的矩形的大小和位置,将合并后的矩形加到人眼矩形链表中,并从人眼矩形链表中删除对应的两个要合并的矩形。
步骤四,对于步骤三的合并后的人眼矩形链表中的每个矩形人眼区域,依次使用Sobel(索贝尔)算子进行边缘检测和二值化得到二值图像;
所述边缘检测和二值化,具体如下:
①使用高斯滤波器对矩形人眼区域进行滤波;
②使用Sobel算子进行边缘检测,得到一幅梯度图像;
所述的Sobel算子,包括水平检测算子和垂直检测算子,具体如下:
水平检测算子对水平方向的灰度值变化敏感;垂直检测算子对垂直方向的灰度值变化敏感。
在利用Sobel边缘检测的过程中,取水平方向和垂直方向中的梯度绝对值最大的作为该像素点的梯度值。
③使用阈值法对梯度图像进行二值化,得到二值图像。
所述的阈值法二值化,指的是选取一个阈值等于128,大于等于128的作为边缘,小于128的作为背景,这样得到的是一幅二值图像。
步骤五,对于步骤四得到的二值图像,使用水平投影方法分析人眼状态。
所述水平投影方法分析人眼状态,具体如下:
①对于步骤四中得到的二值图像,如图3(a)所示,累加水平方向上边缘点的数目,得到水平投影向量,如图3(b)所示;
②如果在水平投影向量中存在两个足够大且靠得足够近的高峰,则判断该人眼图像是一幅闭眼图像,如果不存在两个足够大且靠得足够近的高峰,则不能确定当前状态为闭眼,那么跳至步骤六。
所述的足够大,是指水平方向上边缘点的数目累加值比阈值大12,所述的足够近,是指两个水平投影向量的两个高峰的下标相差比阈值小8。
步骤六,如果步骤五不能确定当前状态是闭眼,则使用哈夫圆变换检测方法进一步分析人眼状态。
所述的哈夫圆变换检测方法,具体如下:
①定义维度为m×n的Accumulator(累积矩阵)并设其初始值为0,其中m是步骤四中二值图像的高,n是步骤四中二值图像的宽;
②根据不同人眼大小和距离摄像头远近的关系而造成的图像中眼睛的大小变化,选择半径范围,半径在最小半径rmin和最大半径rmax之间;
本实施例在320*240的人脸图像中,半径r的范围设置为[5,20]。
③对半径范围中的每个整数值半径,遍历步骤四中的二值图像,忽略所有的背景像素点,而对每个边缘像素点,作哈夫圆变换,得到不同半径对应的圆心坐标;
所述的哈夫圆变换,具体如下:
a、以图像的左上角为原点,建立X-Y坐标系,其中向右为X轴正方向,向下为Y轴正方向,X-Y坐标系中像素点坐标为(x,y),其中x是该像素点的X坐标,y是该像素点的Y坐标,圆心位置的X坐标范围为:最小X坐标lowX=x-r,最大X坐标highX=x+r,如果lowX小于0,则lowX=0;如果highX大于w-1,则highX=w-1,其中w为二值图像的宽;
b、对[lowX,highX]中的每个整数值x′,按如下公式计算y′、y″,得到两个候选圆的圆心位置(x′,y′)和(x′,y″),其中x′指圆心位置的X坐标,y′、y″指的是圆心位置的Y坐标;
c、对y′,如果在[0,h-1]之内,h为二值图像的高,则Accumulator[x′][y′]增1;对y″,如果在[0,h-1]之内,则Accumulator[x′][y″]增1;
d、通过遍历累积矩阵累积矩阵Accumulator搜索到最大累积值的坐标及其值;如果该值大于设定的阈值10,则保存对应的圆心位置和半径。
④通过选取圆周上均匀分布的40个点,统计不同半径下检测到的圆,其圆周上的点属于边缘点的数目,并取最大者及其对应的半径作为最终的圆心和半径结果;
⑤根据检测到的圆心位置和半径,判断眼睛当前状态。
所述的根据检测到的圆心位置和半径,判断眼睛当前状态,具体描述如下:
a、统计圆周上边缘点的数目t;
b、统计连续弧的边缘点数目,并保存在数组Cc中,所谓连续弧,是指在圆周上间隔不超过2个像素点的相邻边缘点;
c、统计数组Cc中超过1/2圆周的连续弧的数目M,统计数组Cc中超过1/3圆周的连续弧的数目N;
d、如果圆周上边缘点的数目t≥20且M≥1或N≥2,判断为睁眼;否则判断为闭眼。
在上述步骤结束后,若判断出闭眼,发出声音警报;如判断出睁眼,用红色x标示眼睛虹膜位置。
本实施例通过椭圆肤色模型进行肤色分割,有效减小了级联人眼分类器的检测范围,检测速度提升了1倍以上,使误检率降低到原来的一半,准确率提高了20%,而利用水平投影和哈夫圆变换检测分析眼睛状态,则进一步检测可能的眼睛当前状态。
Claims (10)
1.一种基于级联分类和哈夫圆变换的人眼状态检测方法,其特征在于,包括以下步骤,
步骤一,采集人脸图像;
步骤二,对于步骤一采集到的人脸图像,使用椭圆肤色模型在YCbCr颜色空间肤色分割得到肤色区域位置信息;
步骤三,使用训练好的级联人眼分类器在步骤二提取的肤色区域位置使用人眼检测窗口遍历的方式检测矩形人眼区域,得到人眼矩形链表,使用矩形合并方法合并人眼矩形链表中的矩形,直到没有可以合并的矩形为止,得到合并后的人眼矩形链表;
步骤四,对于步骤三合并后的人眼矩形链表中的每个矩形人眼区域,依次使用索贝尔算子进行边缘检测和二值化得到二值图像;
步骤五,对于步骤四得到的每幅二值图像,依次使用水平投影方法检测人眼状态;
步骤六,如果步骤五不能确定当前状态是闭眼,则使用哈夫圆变换检测方法进一步检测人眼状态。
2.根据权利要求1所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述得到肤色区域位置信息,包括如下具体步骤:
①、将步骤一中采集到的人脸图像中每个像素点的RGB值(R,G,B),转换成(Y,Cb,Cr)值,其中,Y表示亮度信息、Cb表示蓝色的色差信息、Cr表示红色的色差信息;
②、设置椭圆肤色模型的参数;
③、对图像中的每个像素点,进行肤色分割,得到二值肤色图像;
④、在二值肤色图像的四连通肤色区域的边界中,得到肤色区域位置信息。
3.根据权利要求1所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述的人眼检测窗口遍历的方式,指的是设定初始检测窗口的大小,按照步长大小从肤色区域的左上角开始向右移动,每移动一次,便得到一个检测窗口,如果级联人眼分类器将该检测窗口里的图像分类为人眼,即检测到矩形人眼区域,把该矩形人眼区域加到人眼矩形链表中,否则不做任何操作,当窗口移至图像最右边时,从下一行开始重复同样的操作,直至窗口到达图像最右下方,然后以一定倍率扩大检测窗口,重复同样的检测过程,直至窗口的宽度大于指定的宽度为止。
4.根据权利要求1所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述的可合并的矩形,指的是两个矩形中,如果一个矩形中心包含在另一个矩形之中,则这两个矩形应当合并成一个矩形;
所述的矩形合并方法,是指将两个要合并的矩形的左上角坐标值平均得到新的坐标值,把该坐标值作为合并后的矩形的左上角坐标值,同时将两个矩形的长和宽分别平均得到新的长和宽,并把新的长和宽作为合并后的矩形的长和宽,这样便确定了合并后的矩形的大小和位置,将合并后的矩形加到人眼矩形链表中,并从人眼矩形链表中删除对应的两个要合并的矩形。
5.根据权利要求1所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述边缘检测和二值化,是指对矩形人眼区域,首先利用高斯滤波器滤波,得到平滑后的灰度图像,对灰度图像用索贝尔算子,进行边缘检测,得到一幅梯度图像,最后采用阈值法,设定阈值,遍历该梯度图像,将大于或等于阈值的像素点作为边缘点,小于设定阈值的像素点作为背景点,得到二值图像。
7.根据权利要求1所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述水平投影方法,是指:累加水平方向上边缘点的数目,得到水平投影向量,在该水平投影向量中,如果存在两个足够大且靠得足够近的高峰,判断该人眼当前状态是闭眼,如果不存在两个足够大且靠得足够近的高峰,则不能确定当前状态为闭眼,那么跳至步骤六。
8.根据权利要求7所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述的足够大,指的是水平方向上边缘点的数目累加值大于第一阈值,第一阈值的大小范围在w×0.2和w×0.35之间,所述的w是二值图像的宽;
所述的足够近,指的是水平投影向量的两个高峰的下标差值小于或等于第二阈值,第二阈值的大小范围在w×0.15和w×0.25之间,所述的w是二值图像的宽。
9.根据权利要求1所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述的哈夫圆变换检测方法,是指:根据不同人眼大小和距离摄像头远近的关系而造成的图像中眼睛的大小变化,选择半径变换范围,使用哈夫圆变换得到圆心位置和对应的半径,哈夫圆变换得到圆心位置和半径之后,统计圆周上边缘点的数目和连续弧的边缘点数目,并保存在数组中,统计数组中超过1/2圆周的连续弧的数目M,统计数组中超过1/3圆周的连续弧的数目N,如果边缘点的数目大于等于20,并且M≥1或N≥2,判断为睁眼,否则判断为闭眼。
10.根据权利要求1或9所述的基于级联分类和哈夫圆变换的人眼状态检测方法,其特征是,所述的哈夫圆变换,具体如下:
①以图像的左上角为原点,建立X-Y坐标系,其中向右为X轴正方向,向下为Y轴正方向,X-Y坐标系中像素点坐标为(x,y),其中x是该像素点的X坐标,y是该像素点的Y坐标,圆心位置的X坐标范围为:最小X坐标lowX=x-r,最大X坐标highX=x+r,如果lowX小于0,则lowX=0;如果highX大于w-1,则highX=w-1,其中w为二值图像的宽;
②对[lowX,highX]中的每个整数值x′,按如下公式计算y′、y″,得到两个候选圆的圆心位置(x′,y′)和(x′,y″),其中x′指圆心位置的X坐标,y′、y″指的是圆心位置的Y坐标;
③对y′,如果在[0,h-1]之内,h为二值图像的高,则累积矩阵[x′][y′]增1;对y″,如果在[0,h-1]之内,则累积矩阵[x′][y″]增1;
④通过遍历累积矩阵累积矩阵搜索到最大累积值的坐标及其值,如果该值大于设定的阈值,则保存对应的圆心位置和半径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2007100464773A CN100463000C (zh) | 2007-09-27 | 2007-09-27 | 基于级联分类和哈夫圆变换的人眼状态检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2007100464773A CN100463000C (zh) | 2007-09-27 | 2007-09-27 | 基于级联分类和哈夫圆变换的人眼状态检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101127076A true CN101127076A (zh) | 2008-02-20 |
CN100463000C CN100463000C (zh) | 2009-02-18 |
Family
ID=39095104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2007100464773A Expired - Fee Related CN100463000C (zh) | 2007-09-27 | 2007-09-27 | 基于级联分类和哈夫圆变换的人眼状态检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN100463000C (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102122357A (zh) * | 2011-03-17 | 2011-07-13 | 电子科技大学 | 一种基于人眼睁闭状态的疲劳检测方法 |
WO2011096651A2 (ko) * | 2010-02-05 | 2011-08-11 | 주식회사 에스원 | 얼굴 식별 방법 및 그 장치 |
CN102156885A (zh) * | 2010-02-12 | 2011-08-17 | 中国科学院自动化研究所 | 基于级联式码本生成的图像分类方法 |
CN101727669B (zh) * | 2008-10-27 | 2012-01-11 | 北京大学 | 一种图像细线检测的方法及装置 |
CN102640168A (zh) * | 2009-12-31 | 2012-08-15 | 诺基亚公司 | 用于基于局部二进制模式的面部特征定位的方法和设备 |
CN102799725A (zh) * | 2012-07-10 | 2012-11-28 | 北京航空航天大学 | 一种搬运机器人进行离线码垛时有效码垛区域的确定方法 |
CN103353933A (zh) * | 2010-02-10 | 2013-10-16 | 佳能株式会社 | 图像识别设备及其控制方法 |
CN104424480A (zh) * | 2013-08-29 | 2015-03-18 | 亚德诺半导体集团 | 面部识别 |
CN105072327A (zh) * | 2015-07-15 | 2015-11-18 | 广东欧珀移动通信有限公司 | 一种防闭眼的人像拍摄处理的方法和装置 |
CN105224285A (zh) * | 2014-05-27 | 2016-01-06 | 北京三星通信技术研究有限公司 | 眼睛开闭状态检测装置和方法 |
CN106210522A (zh) * | 2016-07-15 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种图像处理方法、装置及移动终端 |
CN106326823A (zh) * | 2015-07-07 | 2017-01-11 | 北京神州泰岳软件股份有限公司 | 一种获取图片中头像的方法和系统 |
CN106548128A (zh) * | 2016-09-26 | 2017-03-29 | 北京林业大学 | 基于多层级区域选择的人脸图像特征提取方法及装置 |
CN109344711A (zh) * | 2018-08-30 | 2019-02-15 | 中国地质大学(武汉) | 一种基于睡意程度的服务机器人主动服务方法 |
CN110751640A (zh) * | 2019-10-17 | 2020-02-04 | 南京鑫和汇通电子科技有限公司 | 一种基于角点配对的深度图像的四边形检测方法 |
CN107341439B (zh) * | 2017-03-20 | 2020-10-23 | 长沙理工大学 | 一种手指数量识别方法 |
US11756332B2 (en) | 2020-06-30 | 2023-09-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Image recognition method, apparatus, device, and computer storage medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3350296B2 (ja) * | 1995-07-28 | 2002-11-25 | 三菱電機株式会社 | 顔画像処理装置 |
JP3636927B2 (ja) * | 1999-05-18 | 2005-04-06 | 三菱電機株式会社 | 顔画像処理装置 |
JP3695990B2 (ja) * | 1999-05-25 | 2005-09-14 | 三菱電機株式会社 | 顔画像処理装置 |
CN1204531C (zh) * | 2003-07-14 | 2005-06-01 | 中国科学院计算技术研究所 | 基于GaborEye模型的人眼定位方法 |
KR101159847B1 (ko) * | 2005-01-20 | 2012-06-25 | 삼성전자주식회사 | 졸음운전 감지용 얼굴 검출 정규화 장치 및 방법 |
CN1889093A (zh) * | 2005-06-30 | 2007-01-03 | 上海市延安中学 | 一种用于人眼定位和人眼张开闭合的识别方法 |
CN100373400C (zh) * | 2006-03-23 | 2008-03-05 | 上海交通大学 | 基于识别模型的多神经网络结合的睁眼检测方法 |
CN1830389A (zh) * | 2006-04-21 | 2006-09-13 | 太原理工大学 | 疲劳驾驶状态监控装置及方法 |
-
2007
- 2007-09-27 CN CNB2007100464773A patent/CN100463000C/zh not_active Expired - Fee Related
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727669B (zh) * | 2008-10-27 | 2012-01-11 | 北京大学 | 一种图像细线检测的方法及装置 |
CN102640168A (zh) * | 2009-12-31 | 2012-08-15 | 诺基亚公司 | 用于基于局部二进制模式的面部特征定位的方法和设备 |
WO2011096651A2 (ko) * | 2010-02-05 | 2011-08-11 | 주식회사 에스원 | 얼굴 식별 방법 및 그 장치 |
WO2011096651A3 (ko) * | 2010-02-05 | 2011-11-17 | 주식회사 에스원 | 얼굴 식별 방법 및 그 장치 |
US8885943B2 (en) | 2010-02-05 | 2014-11-11 | S1 Corporation | Face detection method and apparatus |
KR101410489B1 (ko) | 2010-02-05 | 2014-07-04 | 주식회사 에스원 | 얼굴 식별 방법 및 그 장치 |
CN103353933A (zh) * | 2010-02-10 | 2013-10-16 | 佳能株式会社 | 图像识别设备及其控制方法 |
CN102156885B (zh) * | 2010-02-12 | 2014-03-26 | 中国科学院自动化研究所 | 基于级联式码本生成的图像分类方法 |
CN102156885A (zh) * | 2010-02-12 | 2011-08-17 | 中国科学院自动化研究所 | 基于级联式码本生成的图像分类方法 |
CN102122357B (zh) * | 2011-03-17 | 2012-09-12 | 电子科技大学 | 一种基于人眼睁闭状态的疲劳检测方法 |
CN102122357A (zh) * | 2011-03-17 | 2011-07-13 | 电子科技大学 | 一种基于人眼睁闭状态的疲劳检测方法 |
CN102799725A (zh) * | 2012-07-10 | 2012-11-28 | 北京航空航天大学 | 一种搬运机器人进行离线码垛时有效码垛区域的确定方法 |
CN102799725B (zh) * | 2012-07-10 | 2014-10-15 | 北京航空航天大学 | 一种搬运机器人进行离线码垛时有效码垛区域的确定方法 |
CN104424480B (zh) * | 2013-08-29 | 2019-01-18 | 亚德诺半导体集团 | 面部识别 |
CN104424480A (zh) * | 2013-08-29 | 2015-03-18 | 亚德诺半导体集团 | 面部识别 |
CN105224285A (zh) * | 2014-05-27 | 2016-01-06 | 北京三星通信技术研究有限公司 | 眼睛开闭状态检测装置和方法 |
CN106326823A (zh) * | 2015-07-07 | 2017-01-11 | 北京神州泰岳软件股份有限公司 | 一种获取图片中头像的方法和系统 |
CN105072327A (zh) * | 2015-07-15 | 2015-11-18 | 广东欧珀移动通信有限公司 | 一种防闭眼的人像拍摄处理的方法和装置 |
CN106210522A (zh) * | 2016-07-15 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种图像处理方法、装置及移动终端 |
CN106548128A (zh) * | 2016-09-26 | 2017-03-29 | 北京林业大学 | 基于多层级区域选择的人脸图像特征提取方法及装置 |
CN107341439B (zh) * | 2017-03-20 | 2020-10-23 | 长沙理工大学 | 一种手指数量识别方法 |
CN109344711A (zh) * | 2018-08-30 | 2019-02-15 | 中国地质大学(武汉) | 一种基于睡意程度的服务机器人主动服务方法 |
CN109344711B (zh) * | 2018-08-30 | 2020-10-30 | 中国地质大学(武汉) | 一种基于睡意程度的服务机器人主动服务方法 |
CN110751640A (zh) * | 2019-10-17 | 2020-02-04 | 南京鑫和汇通电子科技有限公司 | 一种基于角点配对的深度图像的四边形检测方法 |
US11756332B2 (en) | 2020-06-30 | 2023-09-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Image recognition method, apparatus, device, and computer storage medium |
Also Published As
Publication number | Publication date |
---|---|
CN100463000C (zh) | 2009-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100463000C (zh) | 基于级联分类和哈夫圆变换的人眼状态检测方法 | |
CN103886308B (zh) | 一种使用聚合通道特征和软级联分类器的行人检测方法 | |
CN102194108B (zh) | 一种聚类线性鉴别分析特征选择的笑脸表情识别方法 | |
CN102043945B (zh) | 基于车辆实时跟踪和二进指数分类车牌字符识别的方法 | |
CN106682601B (zh) | 一种基于多维信息特征融合的驾驶员违规通话检测方法 | |
CN101561867B (zh) | 一种基于高斯形状特征的人体检测方法 | |
CN101464946B (zh) | 基于头部识别和跟踪特征的检测方法 | |
CN102521565B (zh) | 低分辨率视频的服装识别方法及系统 | |
CN103268468B (zh) | 机动车前排就坐者是否扣带安全带的自动检测方法 | |
CN107103317A (zh) | 基于图像融合和盲反卷积的模糊车牌图像识别算法 | |
CN102184419B (zh) | 基于敏感部位检测的色情图像识别方法 | |
CN102622584B (zh) | 视频监控中蒙面人脸的检测方法 | |
CN102214309B (zh) | 一种基于头肩模型的特定人体识别方法 | |
CN106599870A (zh) | 一种基于自适应加权局部特征融合的人脸识别方法 | |
CN105335743A (zh) | 一种车牌识别方法 | |
CN103955949B (zh) | 基于Mean-shift算法的运动目标检测方法 | |
CN106339657B (zh) | 基于监控视频的秸秆焚烧监测方法、装置 | |
CN101739546A (zh) | 基于图像交叉重建的单样本注册图像人脸识别方法 | |
CN104715244A (zh) | 一种基于肤色分割和机器学习的多视角人脸检测方法 | |
CN103903018A (zh) | 一种复杂场景中对车牌进行定位的方法和系统 | |
CN105447503A (zh) | 基于稀疏表示lbp和hog融合的行人检测方法 | |
Guo et al. | Image-based seat belt detection | |
CN103077378B (zh) | 基于扩展八邻域局部纹理特征的非接触式人脸识别算法和签到系统 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN101923652A (zh) | 一种基于肤色和特征部位联合检测的色情图片识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090218 Termination date: 20120927 |