CN104123543B - 一种基于人脸识别的眼球运动识别方法 - Google Patents
一种基于人脸识别的眼球运动识别方法 Download PDFInfo
- Publication number
- CN104123543B CN104123543B CN201410353616.7A CN201410353616A CN104123543B CN 104123543 B CN104123543 B CN 104123543B CN 201410353616 A CN201410353616 A CN 201410353616A CN 104123543 B CN104123543 B CN 104123543B
- Authority
- CN
- China
- Prior art keywords
- face
- eyeball
- recognition
- eye movement
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明公开了一种基于人脸识别的眼球运动识别方法,包括:眼球检测,对多幅人脸的图像进行边缘检测,定位眼球的初始化特征点,根据初始化特征点计算眼球相对于人脸的位置与比率,得到人脸尺度角度归一化比率;眼球识别,获取一幅待检测的人脸图像,根据人脸尺度角度归一化比率计算人脸图像中眼球的位置;眼球运动识别,识别两幅以上人脸图像中眼球的位置,根据位置的变化识别眼球运动。本发明能够准确定位眼球在人脸上的位置,不仅支持静态人脸上的眼球识别,还能够支持动态视频中的人脸上的眼球识别。
Description
技术领域
本发明涉及人脸识别技术,尤其涉及一种基于人脸识别的眼球运动识别方法。
背景技术
人脸识别是计算机视觉与模式识别领域非常热门的研究课题,在公共安全、通信、虚拟现实、信息检索等方面都有重要应用。在公共安全和信息安全方面,基于人脸识别的五官检测和表情识别,是快速有效的自动身份验证方式。当前,基于生物特征的识别技术主要包括:指纹识别、视网膜识别、虹膜识别、步态识别、静脉识别、人脸识别等。与其他识别方法相比,人脸识别由于具有直接、友好、方便的特点,又不会对使用者造成任何心理障碍,易于为用户所接受。除此之外,通过对人脸识别结果做进一步分析,能得到识别对象的性别、表情、年龄等诸多额外信息,扩展了人脸识别的应用前景,在刑侦破案、证件验证、视频监控、人口控制及表情分析等方面都有实际应用。
但是,现有的眼球识别技术大多是根据图像中眼球与脸部像素之间的差异值来识别眼球的位置,进而识别出眼球的运动。但是由于图像易受拍摄环境的影响,例如强光或阴影等降低了眼球与脸部像素的差异值,使得无法从这些图像中精确地确定眼球的位置。然而对于这类现象,现有技术中大多采用特征提取和分类算法来识别眼球,但是前提都是假定特征点已经被手动标注出来,并且假定被手动标记的特征点定位程度已十分准确,但是实际上手动标记的特征点定位的准确度存在不足,导致其影响了后续算法的准确性,所以目前依靠手动标定的方式必然成为识别系统的瓶颈。另一方面,现有的解决上述问题的方法,如Snake方法、可变型模板法以及弹性图匹配法等都存在处理速度慢、精确度不高和实现复杂度高等方面的问题,其实际的识别效果并不理想。
本发明克服了现有技术中的缺陷,提出了一种基于人脸识别的眼球运动识别方法。本发明眼球运动识别方法基于人脸识别技术,能够准确定位眼球在人脸上的位置,不仅支持静态人脸上的眼球识别,还能够支持动态视频中的人脸上的眼球识别。
发明内容
本发明提出了一种基于人脸识别的眼球运动识别方法,包括如下步骤:
眼球检测,对多幅人脸的图像进行边缘检测,定位眼球的初始化特征点,根据所述初始化特征点计算眼球相对于人脸的位置与比率,得到人脸尺度角度归一化比率;
眼球识别,获取一幅待检测的人脸图像,根据所述人脸尺度角度归一化比率计算所述人脸图像中眼球的位置;
眼球运动识别,识别两幅以上人脸图像中眼球的位置,根据位置的变化识别眼球运动。
本发明提出的所述基于人脸识别的眼球运动识别方法中,基于AMM的特征点定位方法进行眼球检测,其包括如下步骤:
在人脸的图像中搜索眼球的位置;
确定左眼与右眼的眼球中心及其坐标;
根据所述坐标计算人脸的倾斜角度;
计算人脸尺度角度归一化比率。
本发明提出的所述基于人脸识别的眼球运动识别方法中,所述人脸的倾斜角度按如下公式表示:
α=arctan(yre-yle)/(xre-xle);
式中,α表示倾斜角度,xle和yle分别表示左眼眼球中心的横坐标和纵坐标,xre和yre分别表示右眼眼球中心的横坐标和纵坐标。
本发明提出的所述基于人脸识别的眼球运动识别方法中,人脸尺度角度归一化比率按如下公式表示:
s=Wf/Wstd;其中,
式中,s表示归一化比率,Wstd表示标准人脸的双眼距离,Wf表示人脸图像的双眼距离,E1表示左眼眼球中心的坐标,xle和yle分别表示左眼眼球中心的横坐标和纵坐标,E2表示右眼眼球中心的坐标,xre和yre分别表示右眼眼球中心的横坐标和纵坐标。
本发明提出的所述基于人脸识别的眼球运动识别方法中,获取待检测的人脸图像的方法包括如下步骤:
人脸检测,从获取的图像中初步检测并定位人脸区域;
特征选取,提取所述人脸区域的Haar特征集,并基于Adaboost构建用于识别人脸图像的多个矩形特征及其弱分类器;
人脸识别,利用所述Haar特征集训练所述弱分类器得出一个最优弱分类器,重复训练后将多个最优弱分类器线性组合成强分类器,利用所述强分类器从所述获取的图像中识别出待检测的人脸图像;
本发明提出的所述基于人脸识别的眼球运动识别方法中,检测并定位人脸区域之后进一步包括:人脸预处理,对所述人脸区域进行归一化和灰度均衡化处理。
本发明提出的所述基于人脸识别的眼球运动识别方法中,所述Haar特征集是利用积分图像算法提取的。
本发明提出的所述基于人脸识别的眼球运动识别方法中,所述弱分类器的函数表达式为:
式中,x表示输入的当前帧人脸图像,f(xj)表示特征featurej在x上的值,pj取值+1和-1来控制不等式的方向,θj表示阈值。
本发明提出的所述基于人脸识别的眼球运动识别方法中,所述弱分类器的训练过程包括如下步骤:
对于输入所述弱分类器的样本(x1,y1),...,(xn,yn),yi取值1或者0分别表示图像是正例或是反例;
初始化权重值W1,i,
t取值为1;
将权重归一化,
对每个特征j训练一个只使用单一特征的弱分类器hj,分别得到所述弱分类器hj本次分类的误差
选择误差ej最小的弱分类器ht,更新权重:当xi分类正确时:vt=0;当xi分类错误vt=1,βt=et/(1-et);
令t=t+1;
若t<T,则重新将权重归一化;
直至t=T,得到最优弱分类器。
本发明提出的所述基于人脸识别的眼球运动识别方法中,所述强分类器的函数表达式为:
式中,αi=lg(1/βi),αi表示βi的负对数形式,βi表示第i次迭代时hi(x)的权重,hi(x)表示弱分类器的表达式,T表示取得最优分类器的临界值。
本发明的有益效果包括:利用仿射变换来进行人脸匹配,即通过少量特征点来对应标准化人脸图像,尤其是在人脸位置相对变化较为稳定的条件下可只采用两只眼睛作为定位点,并在连续人脸图像序列中实现眼球运动的识别。本发明能够准确定位眼球在人脸上的位置,不仅支持静态人脸上的眼球识别,还能够支持动态视频中的人脸上的眼球识别,在医学、档案管理、人脸动画、人脸建模、视频会议等方面拥有巨大的应用前景。
附图说明
图1是本发明基于人脸识别的眼球运动识别方法的流程图。
图2是基于Haar的待检测人脸区域以及最小人脸尺度区域示意图。
图3是积分图像的示意图。
图4是人脸识别结果的示意图。
图5是眼球运动识别结果的示意图。
具体实施方式
结合以下具体实施例和附图,对本发明作进一步的详细说明。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公知常识,本发明没有特别限制内容。
本发明基于人脸识别的眼球运动识别方法包括如下步骤:
眼球检测,对人脸图像进行边缘检测,定位眼球的特征点,计算人脸尺度角度归一化比率。人脸尺度角度归一化比率是人脸图像中的双眼距离与标准人脸的双眼距离的比值。
眼球识别,由于人眼在人脸图像中形变最小,受光照和表情等外界干扰最少,采用人脸尺度角度归一化比率能人脸图像中快速计算眼球的位置。获取一幅待识别的人脸图像,利用人脸尺度角度归一化比率能人脸图像中快速计算眼球的位置。
眼球运动识别,在两幅以上人脸图像组成的动态图像中,利用人脸尺度角度归一化比率快速地获得每一帧人脸图像中眼球的位置,得到眼球运动的数据。
其中,本具体实施例是通过改进的Adaboost的方法快速获取待检测的人脸图像,其他任何从拍摄的图像中获取人脸图像的方法均包含在本发明的构思之内。通过改进的Adaboost的方法快速获取待检测的人脸图像的方法包括如下步骤:
人脸检测,从获取的图像中初步检测并定位人脸区域;人脸检测之后进一步包括人脸预处理,将检测到的人脸区域的大小进行归一化和矫正、灰度均衡化等。
特征选取,提取人脸区域的Haar特征集,并基于Adaboost构建用于识别人脸图像的多个矩形特征及其弱分类器,从而将现实的图像映射到机器空间中。
人脸识别,利用Haar特征集训练弱分类器得出一个最优弱分类器,重复训练后将多个最优弱分类器线性组合成强分类器,利用强分类器从获取的图像中识别出人脸图像。人脸识别则是一种分类决策过程,即在样本训练集上确定某一判别规则,按这种判别规则对人脸图像进行分类所造成的错误识别率最小。
以下对于从人脸识别过程直至眼球运动识别过程的每一个步骤的具体实施过程作进一步说明。
(人脸识别过程——初步检测并定位人脸区域)
本发明利用视频图像序列中前后相邻帧图像的相关性,利用差分方法对基于Haar特征的人脸检测优化方法,基本思想是利用采集到的样本图像的Haar特征,基于AdaBoost分类算法进行分类器训练,最后将得到的简单分类器组合得到最终的级联分类器。
基于Haar的人脸检测算法和待检测人脸区域以及最小人脸尺度区域。最小人脸尺度区域与待检测人脸区域有很大相关性。
Haar特征的定义是:
式中,ωi∈R为矩形ri的权;ωiRctSum(ri)为ri所围图像的灰度积分;N为组成featurek的区域个数。
其中,N=2,由于Haar特征将对图像多尺度搜索,并且弱分类器会组合而成强分类器,对于单个特征就不必太复杂,保证计算速度;ωi对于这两个区域必须是异号,并且和区域面积成反比;为便于采用积分图像计算,这两个矩形必须有一个包含于另一个之中。
本发明基于Haar特征对这两种区域的分法如图2所示,其特征为:
其中,白区域面积Sw,每个像素灰度值为1,区域加权黑区域面积每个像素灰度值为0,区域加权这种求和的积分操作,能够保证对光照和噪声的不敏感性。
(提取Haar特征集)
本发明利用积分图像算法提取图像的局部Haar特征,采用局部Haar特征是为了计算方便,适用于多种分辨率分析。上述积分图像的计算方法,假设g(i,j)是原始的图像,I(x,y)是积分图像,点(x,y)的数值等于左上角区域的所有像素总和
如图3所示,1点值表示A区域的灰度积分,2点值表示A+B,3点值表示A+C,4点值表示A+B+C+D,那么D区域的积分为D=(4+1)-(2+3)。可见,本发明利用积分图像算法提取图像的局部Haar特征的过程中,只需要计算一次积分图像,对图像上任意区域的积分都可以快速获得,计算任意矩形区域的像素总和更加快捷,满足视频图像序列中人脸检测的实时性要求。
(构建弱分类器)
本发明中采用AdaBoost学习算法来构建人脸特征分类器。AdaBoost算法是一种放大算法,即对弱分类器(即简单的学习算法)进行加权组合,也就是说,利用简单的、数量很少的弱分类器组合成为强分类器。使用AdaBoost方法就是对弱学习器加上一个限定条件——一个弱学习器对应一个矩形特征,在进行放大的过程中,每一次放大,选择一个学习器就是选择一个特征。对每个特征,弱学习器是的每个分类函数的阈值达到最优。本发明中的弱分类器是指Haar特征直接构成的分类器,函数表达式为:
其中,x表示任意输入窗口,f(xj)表示特征featurej在x上的值,pj取值+1和-1控制不等式的方向,θj表示阈值。
(训练弱分类器)
弱分类器包含的信息量少,不能用来直接分类。单一特征无法保证分类达到很低的误差,在第一轮的选择特征的错误率可以在0.1-0.3之间,而后一轮的方法会使误差增大,在0.4-0.5之间。具体学习算法如下,假设特征个数为T:
(1)对样本(x1,y1),...,(xn,yn),yi取值1或者0,表示图像是正例或是反例;
(2)初始化权重值W1,i
(3)t取值为1;
(4)将权重归一化:
(5)对每个特征j,训练一个只使用某一单一特征的分类器hj,得到本次分类的误差为
(6)选择误差ej最小的分类器ht,更新权重:
当xi分类正确时:vt=0。当xi分类错误vt=1,βt=et/(1-et);
(7)令t=t+1;
(8)t<T转向(4);
(9)得到最后的分类器。
这种方法允许分类器设计者不断加入新的弱分类器,直到达到预设的分类精度,此算法训练过程中,每个样本拥有一个初始权值,表示该样本被某个弱分类器选中的概率。如果某个样本被正确分类,构造下一个训练集时,降低其权值,反之增加其权值。
(最优弱分类器线性组合成强分类器)通过此算法每一轮都会选出一个最优弱分类器,这些弱分类器线性组合而成强分类器:
式中,αi=lg(1/βi),αi表示βi的负对数形式,βi表示第i次迭代时hi(x)的权重,hi(x)表示弱分类器的表达式,T表示取得最优分类器的临界值。算法的构造特征最后大概有200个,对于人脸检测的特征包括眼睛、鼻子、嘴巴等五官特征,AdaBoost选择的权重最高的几个特征如下:第一,眼睛区域比鼻子和面颊的矩形区域亮度上更暗(亮度值小于某个阈值)。这个特征是和人脸大小以及位置无关的。第二,眼睛所在区域总是比鼻梁所在的区域亮度更暗。所以,通过选择和学习后的特征分类器,对于目标检测是非常有效的。在获取了上述特征后,再通过对多个人脸样本的统计,对整个脸部进行识别。本实施例中获得的人脸检测结果如图4所示。
(眼球识别过程——眼球检测)
基于由多幅标准人脸图像所组成的数据库,本发明利用Canny算法对标准人脸数据进行边缘检测,实现准确的初始化特征点定位,再利用AAM(ActiveAppearance Model,主观表现模型)特征点定位方法,取得令人满意的效果。
其中,Canny边缘检测算法使得寻找给定条件下最优算子的工作转化为一种泛函优化问题。假设滤波器的有限冲击响应为f(x),x∈[-W,W]',假设要检测边缘的曲线为G(x),并且假设边缘在x=0处,噪声为n(x)。为达到良好的检测效果,需要满足三个条件:
第一,检测结果最优化。利用滤波器对人脸图像中的边缘点进行滤波,提高边缘点的信噪比;计算人脸图像中各个像素点相邻区域的强度变化值,并通过计算梯度幅值获取强度变化值超过预设阈值的像素点;对于强度变化值超过预设阈值却不是边缘点的像素点,计算像素点的梯度幅值闭值来进行检测。通过上述步骤把是边缘但是没有检测出来的边以及不是边缘却被检测为边的概率降到最低。对于这两个概率都随着信噪比提高而单调下降,因此,等价于求f(x)使得检测后的图像在边缘点的信噪比最大化。经过f(x)滤波后,边缘点处的图像信号响应为
而噪声的响应的平方根为
其中,n0是单位长度上噪声振幅的均方。
那么,Canny第一个准则的数学表达式为:
第二,定位准则。设检测出的边缘位置在x0(实际的边缘在x=0),则有:
HG(x)+Hn(x)在x0处取得最大值,所以HG(x0)+Hn(x0)=0;
HG(x)在x=0处取得最大值,所以HG(x0)=0;
于是就有
即
H″G(0)x0=-H'G(x0)
从而
这里,E(x)表示的是x的数学期望。
因为x0越小定位越准确,所以定位准则的数学表达式定义为
那么,即求一个函数f(x),使得下式达到最大值:
第三,在理想情况下,用滤波器对噪声响应的两个峰值间的距离来近似滤波器对一个边缘点响应的长度。因为输出信号中相邻两个极大值的距离是相邻两个零交叉点距离的两倍,而高斯噪声在函数g(x)滤波后输出信号中相邻两个交叉点的距离
其中,
所以,噪声f(x)在滤波后两个相邻极大值点的距离为
式中,W为滤波器f(x)的半宽度。所以在2W长的区域里出现最大值的个数的期望为
可见,只要固定了k,就固定了2W长区域中出现最大值的个数。这是第三个准则。有了这三个准则的数学表达式,寻找最优的滤波器的问题即转化为泛函的约束优化问题。
基于AMM的特征点定位方法,基本思想是利用训练图像和模型参数合成表观模型,通过调整模型参数使得模型和实验图像的纹理差达到最小,其模型表达式如下:
式中,为模型形状平均向量,通过训练样本中所有模型形状的平均得到;为平均纹理向量,也是通过训练样本中所有模型纹理信息的平均得到;Qx和Qg为通过训练样本集得到的描述模型变化的矩阵;c为模型参数,控制模型的形状和纹理的变化,不同的c得到的不同形状和纹理的脸。
对于给定的包含人脸的图像,设人脸图像的高度为h,宽度为w,取左上角点为原点,在左眼[w/7,3h/8],右眼[11w/21,3h/8],窗的大小为[w/3,h/5]的位置开始搜索。找到人眼的坐标(瞳孔位置近似眼睛中心),令其分别为E1(xle,yle),E2(xre,yre),后根据标准正面人脸的左右对称轴与两眼中心连线垂直,因而两眼中心连线的倾斜角度就是人脸的倾斜角度,则人脸的倾斜角为α=arctan(yre-yle)/(xre-xle),令Wstd为标准人脸的双眼距离,则根据s=Wf/Wstd,其中为图像中人眼的距离,可以得到人脸尺度角度归一化的比率。
(眼球识别)
人眼是人脸图像中形变最小,受光照和表情等外界干扰最小的部位,所以本例中采用眼睛的距离作为人脸尺度角度归一化的标准。根据人脸信息的研究,人眼距离约为人脸宽度的1/3,用统计的方法确定标准人脸的高宽比率为1.05。根据上述原理,获取一幅待识别的人脸图像后,根据人脸图像的像素点坐标与人脸尺度角度归一化使用Haar模板匹配后即可定位每一幅人脸图像中的眼球位置,如图5所示。
本发明可将上述待检测的人脸添加到数据库中,用于进一步完善人脸尺度角度归一化比率,使得人脸尺度角度归一化计算出精度更高的眼球位置。
(眼球运动识别)
本发明眼球运动识别方法可运用于医学、档案管理、人脸动画、人脸建模、视频会议等方面。通过对视频图像中多幅人脸图像构成的动态图像进行逐一检测,从中识别出多个人眼位置的数据来进一步识别人体眼球运动。以对检测自闭症儿童的眼部活动为例。
首先选定视频采集与处理设备。选用高清(分辨率为720p)摄像机,连接到具备高清视频图像采集卡的第一台计算机上,第一台计算机上具有图像分析功能,并搭载有根据本发明眼球运动识别方法所开发的软件程序;将高清摄像机以合适的角度和位置安装在第二台计算机上,使其能够恰好拍摄到自闭症儿童的脸部正面。
采用事先设计的专门用于评价自闭症谱系障碍儿童对颜色敏感度的图像材料,在第二台计算机上播放,同时,由高清摄像机拍摄被试儿童的正脸画面,并以视频形式输入到第一台计算机中,由软件进行处理,记录每一帧画面中眼球的位置,眼球的位置以坐标系中的点来表示。
用于监控自闭症谱系障碍儿童对颜色敏感度的指标包括注视时间和注视点数,注视时间是指被试从第一次注视到目标兴趣区域到离开目标兴趣区域期间所有注视点的持续时间总和;注视点数是指从刺激材料开始呈现时,被试在目标兴趣区域内所有的注视点的个数综合。通过眼球运动识别方法得到全部关于眼球位置的坐标点后,对其进行统计分析和差异性检验,即可得到相应的结论。由于本发明以无接触的方式进行眼球识别,因此不会对被试者造成心理排斥。
本发明的保护内容不局限于以上实施例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。
Claims (8)
1.一种基于人脸识别的眼球运动识别方法,其特征在于,包括如下步骤:
眼球检测,对多幅人脸的图像进行边缘检测,定位眼球的初始化特征点,基于AMM的特征点定位方法进行眼球检测,在人脸的图像中搜索眼球的位置,确定左眼与右眼的眼球中心及其坐标,根据所述坐标计算人脸的倾斜角度,计算人脸尺度角度归一化比率,所述人脸尺度角度归一化比率是人脸图像中的双眼距离与标准人脸的双眼距离的比值;
眼球识别,获取一幅待检测的人脸图像,根据所述人脸尺度角度归一化比率计算所述人脸图像中眼球的位置;
眼球运动识别,识别两幅以上人脸图像中眼球的位置,根据位置的变化识别眼球运动。
2.如权利要求1所述的基于人脸识别的眼球运动识别方法,其特征在于,所述人脸的倾斜角度按如下公式表示:
α=arctan(yre-yle)/(xre-xle);
式中,α表示倾斜角度,xle和yle分别表示左眼眼球中心的横坐标和纵坐标,xre和yre分别表示右眼眼球中心的横坐标和纵坐标。
3.如权利要求1所述的基于人脸识别的眼球运动识别方法,其特征在于,人脸尺度角度归一化比率按如下公式表示:
s=Wf/Wstd;其中,
式中,s表示归一化比率,Wstd表示标准人脸的双眼距离,Wf表示人脸图像的双眼距离,E1表示左眼眼球中心的坐标,xle和yle分别表示左眼眼球中心的横坐标和纵坐标,E2表示右眼眼球中心的坐标,xre和yre分别表示右眼眼球中心的横坐标和纵坐标。
4.如权利要求1所述的基于人脸识别的眼球运动识别方法,其特征在于,获取待检测的人脸图像的方法包括如下步骤:
人脸检测,从获取的图像中初步检测并定位人脸区域;
特征选取,提取所述人脸区域的Haar特征集,并基于Adaboost构建用于识别人脸图像的多个矩形特征及其弱分类器;
人脸识别,利用所述Haar特征集训练所述弱分类器得出一个最优弱分类器,重复训练后将多个最优弱分类器线性组合成强分类器,利用所述强分类器从所述获取的图像中识别出待检测的人脸图像。
5.如权利要求4所述的基于人脸识别的眼球运动识别方法,其特征在于,检测并定位人脸区域之后进一步包括:人脸预处理,对所述人脸区域进行归一化和灰度均衡化处理。
6.如权利要求4所述的基于人脸识别的眼球运动识别方法,其特征在于,所述Haar特征集是利用积分图像算法提取的。
7.如权利要求4所述的基于人脸识别的眼球运动识别方法,其特征在于,所述弱分类器的函数表达式为:
式中,x表示输入的当前帧人脸图像,f(xj)表示特征featurej在x上的值,pj取值+1和-1来控制不等式的方向,θj表示阈值。
8.如权利要求4所述的基于人脸识别的眼球运动识别方法,其特征在于,所述强分类器的函数表达式为:
式中,αi=lg(1/βi),αi表示βi的负对数形式,βi表示第i次迭代时hi(x)的权重,hi(x)表示弱分类器的表达式,T表示取得最优分类器的临界值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410353616.7A CN104123543B (zh) | 2014-07-23 | 2014-07-23 | 一种基于人脸识别的眼球运动识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410353616.7A CN104123543B (zh) | 2014-07-23 | 2014-07-23 | 一种基于人脸识别的眼球运动识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104123543A CN104123543A (zh) | 2014-10-29 |
CN104123543B true CN104123543B (zh) | 2018-11-27 |
Family
ID=51768948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410353616.7A Active CN104123543B (zh) | 2014-07-23 | 2014-07-23 | 一种基于人脸识别的眼球运动识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104123543B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933419B (zh) | 2015-06-30 | 2019-05-21 | 小米科技有限责任公司 | 获取虹膜图像的方法、装置及红膜识别设备 |
CN104966070B (zh) * | 2015-06-30 | 2018-04-10 | 北京汉王智远科技有限公司 | 基于人脸识别的活体检测方法和装置 |
CN105184277B (zh) * | 2015-09-29 | 2020-02-21 | 杨晴虹 | 活体人脸识别方法以及装置 |
CN107290957A (zh) * | 2016-03-31 | 2017-10-24 | 深圳光启合众科技有限公司 | 智能设备及其优化方法和装备 |
CN106990839B (zh) * | 2017-03-21 | 2020-06-05 | 张文庆 | 一种眼球识别多媒体播放器及其实现方法 |
CN107249126A (zh) * | 2017-07-28 | 2017-10-13 | 华中科技大学 | 一种适用于自由视点三维视频的人眼注视方向跟踪方法 |
CN107679448B (zh) * | 2017-08-17 | 2018-09-25 | 平安科技(深圳)有限公司 | 眼球动作分析方法、装置及存储介质 |
CN107633206B (zh) | 2017-08-17 | 2018-09-11 | 平安科技(深圳)有限公司 | 眼球动作捕捉方法、装置及存储介质 |
CN107997933B (zh) * | 2017-11-27 | 2020-05-29 | 南京大学 | 一种具有实时评估功能的儿童视功能训练康复系统 |
CN108875524B (zh) * | 2018-01-02 | 2021-03-02 | 北京旷视科技有限公司 | 视线估计方法、装置、系统和存储介质 |
CN108960093A (zh) * | 2018-06-21 | 2018-12-07 | 阿里体育有限公司 | 脸部转动角度的识别方法及设备 |
CN109002796B (zh) * | 2018-07-16 | 2020-08-04 | 阿里巴巴集团控股有限公司 | 一种图像采集方法、装置和系统以及电子设备 |
CN109086727B (zh) * | 2018-08-10 | 2021-04-30 | 北京奇艺世纪科技有限公司 | 一种确定人体头部的运动角度的方法、装置及电子设备 |
CN109190582B (zh) * | 2018-09-18 | 2022-02-08 | 河南理工大学 | 一种微表情识别的新方法 |
CN109308721B (zh) * | 2018-10-31 | 2020-10-30 | 东软集团股份有限公司 | 图像关键点的定位方法、装置、存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5835616A (en) * | 1994-02-18 | 1998-11-10 | University Of Central Florida | Face detection using templates |
US6927694B1 (en) * | 2001-08-20 | 2005-08-09 | Research Foundation Of The University Of Central Florida | Algorithm for monitoring head/eye motion for driver alertness with one camera |
CN101216882A (zh) * | 2007-12-28 | 2008-07-09 | 北京中星微电子有限公司 | 一种人脸眼角与嘴角定位与跟踪的方法及装置 |
CN101902577A (zh) * | 2008-11-28 | 2010-12-01 | 卡西欧计算机株式会社 | 图像处理装置、图像处理方法 |
CN102609684A (zh) * | 2012-01-16 | 2012-07-25 | 宁波江丰生物信息技术有限公司 | 人体姿势检测方法及装置 |
CN103235931A (zh) * | 2013-03-29 | 2013-08-07 | 天津大学 | 一种人眼疲劳检测方法 |
CN103632136A (zh) * | 2013-11-11 | 2014-03-12 | 北京天诚盛业科技有限公司 | 人眼定位方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840509B (zh) * | 2010-04-30 | 2013-01-02 | 深圳华昌视数字移动电视有限公司 | 人眼观察视角的测量方法及装置 |
CN103279752B (zh) * | 2013-06-19 | 2016-05-11 | 山东大学 | 一种基于改进Adaboost算法和人脸几何特征的眼睛定位方法 |
-
2014
- 2014-07-23 CN CN201410353616.7A patent/CN104123543B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5835616A (en) * | 1994-02-18 | 1998-11-10 | University Of Central Florida | Face detection using templates |
US6927694B1 (en) * | 2001-08-20 | 2005-08-09 | Research Foundation Of The University Of Central Florida | Algorithm for monitoring head/eye motion for driver alertness with one camera |
CN101216882A (zh) * | 2007-12-28 | 2008-07-09 | 北京中星微电子有限公司 | 一种人脸眼角与嘴角定位与跟踪的方法及装置 |
CN101902577A (zh) * | 2008-11-28 | 2010-12-01 | 卡西欧计算机株式会社 | 图像处理装置、图像处理方法 |
CN102609684A (zh) * | 2012-01-16 | 2012-07-25 | 宁波江丰生物信息技术有限公司 | 人体姿势检测方法及装置 |
CN103235931A (zh) * | 2013-03-29 | 2013-08-07 | 天津大学 | 一种人眼疲劳检测方法 |
CN103632136A (zh) * | 2013-11-11 | 2014-03-12 | 北京天诚盛业科技有限公司 | 人眼定位方法和装置 |
Non-Patent Citations (1)
Title |
---|
基于人眼定位技术的疲劳驾驶检测方法;李立凌;《中国优秀硕士学位论文全文数据库》;20130715;第I138-903页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104123543A (zh) | 2014-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
WO2020151489A1 (zh) | 基于面部识别的活体检测的方法、电子设备和存储介质 | |
CN104143086B (zh) | 人像比对在移动终端操作系统上的应用方法 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN105243386B (zh) | 人脸活体判断方法以及系统 | |
CN104036278B (zh) | 人脸算法标准脸部图像的提取方法 | |
CN105955465A (zh) | 一种桌面便携式视线跟踪方法及装置 | |
CN104966070B (zh) | 基于人脸识别的活体检测方法和装置 | |
CN108549886A (zh) | 一种人脸活体检测方法及装置 | |
CN106682578B (zh) | 基于眨眼检测的弱光人脸识别方法 | |
CN106570489A (zh) | 活体判别方法和装置、身份认证方法和装置 | |
CN106056064A (zh) | 一种人脸识别方法及人脸识别装置 | |
CN107480586B (zh) | 基于人脸特征点位移的生物识别照片仿冒攻击检测方法 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN109409298A (zh) | 一种基于视频处理的视线追踪方法 | |
CN106203375A (zh) | 一种基于人脸图像中人脸和人眼检测的瞳孔定位方法 | |
CN111222380B (zh) | 一种活体检测方法、装置、及其识别模型训练方法 | |
CN106650574A (zh) | 基于PCANet的人脸识别方法 | |
CN109858375A (zh) | 活体人脸检测方法、终端及计算机可读存储介质 | |
CN109255319A (zh) | 针对静态照片的人脸识别支付信息防伪方法 | |
Monwar et al. | Pain recognition using artificial neural network | |
Hebbale et al. | Real time COVID-19 facemask detection using deep learning | |
CN112907810A (zh) | 一种基于嵌入式gpu的人脸识别测温校园门禁系统 | |
CN109359577A (zh) | 一种基于机器学习的复杂背景下人数检测系统 | |
CN110929570B (zh) | 虹膜快速定位装置及其定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 201611 Shanghai Songjiang District Chedun town car No. 180 Jia Building 2 5A Patentee after: SHANGHAI TIGER REHABILITATION THERAPY SCIENCE AND TECHNOLOGY CO., LTD. Address before: 201611 Shanghai city Songjiang District students Pioneering Park No. 228 Patentee before: Tai Ge Electronics (Shanghai) Co., Ltd. |