CN113011393B - 基于改进混合投影函数的人眼定位方法 - Google Patents

基于改进混合投影函数的人眼定位方法 Download PDF

Info

Publication number
CN113011393B
CN113011393B CN202110449449.6A CN202110449449A CN113011393B CN 113011393 B CN113011393 B CN 113011393B CN 202110449449 A CN202110449449 A CN 202110449449A CN 113011393 B CN113011393 B CN 113011393B
Authority
CN
China
Prior art keywords
projection
projection function
variance
function
integral projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110449449.6A
Other languages
English (en)
Other versions
CN113011393A (zh
Inventor
周睿
周斌
张强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xihua University
Civil Aviation Flight University of China
Original Assignee
Xihua University
Civil Aviation Flight University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xihua University, Civil Aviation Flight University of China filed Critical Xihua University
Priority to CN202110449449.6A priority Critical patent/CN113011393B/zh
Publication of CN113011393A publication Critical patent/CN113011393A/zh
Application granted granted Critical
Publication of CN113011393B publication Critical patent/CN113011393B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及基于改进混合投影函数的人眼定位方法,包括以下步骤:对人脸图像分别进行强度积分投影、方差积分投影、梯度差分投影,以得出人眼关键区域的中心位置;根据强度积分投影、方差积分投影、梯度差分投影的先验信息,构建混合投影函数,使用所述投影函数对人眼进行定位;所述先验信息包括强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF。本发明从分析人眼在面部的关键特征出发,充分考虑函数算法的运算量,结合强度积分、方差积分、梯度差分等因素对人眼定位的影响,提出了一种基于改进混合投影函数的人眼定位方法,实现了对人眼的精准定位。

Description

基于改进混合投影函数的人眼定位方法
技术领域
本发明涉及人眼定位技术领域,特别涉及一种基于改进混合投影函数的人眼定位方法。
背景技术
人脸识别是近年来模式识别、机器视觉和认知科学领域的研究热点,在安全验证、身份识别、系统监控、疲劳检测以及人机交互等领域具有广阔的应用前景。目前,人脸识别算法主要分为基于几何特征和基于模板匹配两种类型,这两种类型的人脸识别算法都需要首先检测是否是否包含人脸,以及人脸在图像中的位置。眼睛作为最为重要的面部特征之一,眼睛之间的距离相对恒定,能够较为准确和可靠地体现面部信息。因此,通过人脸定位进行人脸检测和识别成为许多算法的关键步骤。
目前,国内外的学者针对人眼定位方法展开了大量的研究工作。Monzo D利用瞳孔呈现圆形特征的特点,提出利用Hough变换方法进行人眼检测,该方法需要对图像进行大量的预处理工作,算法计算量大;Wu提出利用眼部区域的灰度特征和两只眼睛的几何关系较为固定的信息,在面部确定候选眼睛区域的算法,该算法仅能实现对眼睛的粗定位;Reinders根据眼睛集合结构的先验信息建立概率模型,从概率分布的角度解释神经网络的输出信息,从而确定眼睛的位置,该算法仅能确定眼睛的大概位置,不能精确地定位眼睛中心;Viola P提出利用Adaboost的学习算法对人眼进行定位,算法实现过程中训练样本的选择和丰富程度对分类结果有很大影响,同时该算法需要较长的训练时间。因此,为了提高人眼定位的效率和性能,需要对人眼精确定位的算法进行研究。
通常,为了便于分析图像特征、减少运算量,可以利用投影函数对数字图像的特征进行分析,因此投影分析方法成为一种有效提取和分析人眼图像特征的方法。Kanade使用强度积分投影函数对人脸图像进行分析,进而获取眼部的相关信息,但该方法仅考虑了强度对人眼定位的影响;Feng提出使用方差投影函数对人眼进行定位,该方法仅考虑了方差对人眼定位的影响;Geng提出一种基于强度和方差的混合投影方法对人眼进行定位,该方法同时考虑方差和强度投影对人眼定位的影响,并利用方差和强度投影构造线性混合投影函数,但是两者的权重在构造的混合投影函数中基本相同;Zhang提出利用强度积分和微分相结合的方法实现对人眼的定位,该方法利用强度积分和微分构造投影函数,但未考虑图像方差变化对人眼定位的影响。
发明内容
本发明的目的在于提高人眼检测的准确率,提供一种基于改进混合投影函数的人眼定位方法。
为了实现上述发明目的,本发明实施例提供了以下技术方案:
基于改进混合投影函数的人眼定位方法,包括以下步骤:
对人脸图像分别进行强度积分投影、方差积分投影、梯度差分投影,以得出人眼关键区域的中心位置;
根据强度积分投影、方差积分投影、梯度差分投影的先验信息,构建混合投影函数,使用所述投影函数对人眼进行定位;所述先验信息包括强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF。
在上述方案中,结合强度积分、方差积分、梯度差分等因素对人眼定位的影响,从分析人眼在面部的关键特征出发,充分考虑函数算法的运算量,实现对人眼更加精准的定位。
更进一步地,所述对人脸图像进行强度积分投影的步骤,包括:
使用I(x,y)表示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的强度积分投影函数分别表示为IPFv(x)和IPFh(y),则:
Figure GDA0003568017220000031
在垂直方向和水平方向上的平均强度积分投影函数分别表示为Mv(x)和Mh(y),则:
Figure GDA0003568017220000032
在上述方案中,通常人脸图像中眼部区域的图像灰度值累加会远远小于面部其他区域,利用这一特点可以将基于灰度的强度积分投影方法应用在人眼定位系统中。
更进一步地,所述对人脸图像进行方差积分投影的步骤,包括:
使用I(x,y)示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的方差积分投影函数分别表示为
Figure GDA0003568017220000033
Figure GDA0003568017220000034
则:
Figure GDA0003568017220000035
在上述方案中,由于眼球区域所在行或列的图像灰度值通常会低于该图像行或列的平均值,即可以使用方差积分投影函数来表达眼部区域图像灰度发生变化的情形。
更进一步地,所述对人脸图像进行梯度差分投影的步骤,包括:
使用I(x,y)示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的梯度差分投影函数分别表示为DPFv(x)和DPFh(y),则:
Figure GDA0003568017220000041
在上述方案中,人脸图像中除了眼部区域的灰度值通常远小于周围区域,且该区域变化会大于面部其他的区域的行或列的全局特征外,在水平和垂直方向,经过皮肤、瞳孔等区域后,灰度梯度变化比较大。因此,对人脸数字图像进行梯度差分计算时,在眼部区域会呈现显著突变的特征。
更进一步地,所述根据强度积分投影、方差积分投影、梯度差分投影的先验信息,构建混合投影函数,使用所述投影函数对人眼进行定位的步骤,包括:
根据强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF,构建混合投影函数IHPF:
Figure GDA0003568017220000042
其中m≥n。
在上述方案中,从分析人眼在面部的关键特征出发,充分考虑函数算法的运算量,结合强度积分、方差积分、梯度差分等因素对人眼定位的影响,提出了一种基于改进混合投影函数的人眼定位方法,实现了对人眼的精准定位。
所述混合投影函数IHPF计算得到的左、右眼的位置分别为xl、xr,设d为人脸尺寸的水平宽度的一半,则:
xl-xr≥d。
在上述方案中,为了提高人眼位置的准确率,可以在计算混合投影函数IHPF时加入xl-xr≥d的约束。
更进一步地,所述对人脸图像分别进行强度积分投影、梯度投影、方差投影的步骤之前,还包括:
对光电探测装置采集的人脸图像进行预处理,以除去外界噪声影响。
更进一步地,所述对光电探测装置采集的人脸图像进行预处理,以除去外界噪声影响的步骤,包括:
使用中值滤波的空域处理法、均值滤波的空域处理法、全变差法或小波变换法对光电探测装置的成像系统的噪声进行抑制;
基于直方图均衡利用重新映射灰度的方法,使人脸图像的直方图服从均匀分布,以达到图像增强的目的。
与现有技术相比,本发明的有益效果:
本发明从分析人眼在面部的关键特征出发,充分考虑函数算法的运算量,结合强度积分、方差积分、梯度差分等因素对人眼定位的影响,提出了一种基于改进混合投影函数的人眼定位方法,实现了对人眼的精准定位。该结果表明,本发明能够更加精确的实现人眼定位,具有较强的适应性和准确度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明人眼定位方法流程图;
图2为本发明对人脸图像进行预处理的流程图;
图3为本实施例人眼关键区域仿真示意图;
图4为本实施例使用三种投影函数对人眼仿真图进行分析的结果示意图;
图5为本实施例人脸图像中眼睛和面部的几何关系及两眼之间的距离;
图6为本实施例Yale-A人脸数据库中部分图像的示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性,或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
实施例1:
本发明通过下述技术方案实现,如图1所示,基于改进混合投影函数的人眼定位方法,包括以下步骤:
步骤S1:对光电探测装置采集的人脸图像进行预处理,以除去外界噪声影响。
光电探测装置在采集人脸图像时,会受到光子噪声、读出噪声、背景暗点评以及外部环境背景杂光干扰等因素的影响,获取到的人脸图像通常会受到各种噪声的影响,从而影响人眼定位算法的精度。因此,在对包含人眼的人脸图像进行精确定位之前,需要对图像进行预处理。
在人脸成像系统中,影响图像质量的噪声主要包括搞死噪声和椒盐噪声等脉冲噪声,该类型的噪声以随机分布的亮、暗点形式出现在图像中。为了消除噪声的影响,使用中值滤波、均值滤波的空域处理方法,或者全变差法、小波变换法等方法对成像系统的噪声进行抑制。
其中,中值滤波作为一种非线性的滤波方法,在抑制脉冲噪声的同时,能够较为有效地保持图像的边缘信息,同时该方法具有算法简单、运算量小等优点,因此,可用在人脸成像系统中。
此外,由于外部环境照明因素的原因,人脸成像系统图像往往存在对比度交叉的情况。为了改善人脸图像效果,强调特定细节信息和特征,需要使用图像增强算法。基于直方图均衡利用重新映射灰度的方法,使得人脸图像的直方图服从均匀分布,达到图像增强的目的。
因此,为了抑制图像噪声及环境照明等因素的影响,在对包含人眼的人脸图像进行精确定位之前,需要经过如图2所示的图像预处理。
步骤S2:对人脸图像分别进行强度积分投影、方差积分投影、梯度差分投影,以得出人眼关键区域的中心位置。
在人脸图像中,通常眼部区域的图像灰度值累加会远远小于面部其他区域,利用这一特点可以将基于灰度的强度积分投影方法应用在人眼定位系统中。假设I(x,y)表示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的强度积分投影函数分别表示为IPFv(x)和IPFh(y),则:
Figure GDA0003568017220000081
在垂直方向和水平方向上的平均强度积分投影函数分别表示为Mv(x)和Mh(y),则:
Figure GDA0003568017220000082
同时,由于眼球区域所在行或列的图像灰度值通常会低于该图像行或列的平均值,即可以使用方差积分投影函数来表达眼部区域图像灰度发生变化的情形。假设I(x,y)示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的方差积分投影函数分别表示为
Figure GDA0003568017220000083
Figure GDA0003568017220000084
则:
Figure GDA0003568017220000085
此外,在人脸图像中除了眼部区域的灰度值通常远小于周围区域,且该区域变化会大于面部其他的区域的行或列的全局特征外,在水平和垂直方向,经过皮肤、瞳孔等区域后,灰度梯度变化比较大。因此,对人脸数字图像进行梯度差分计算时,在眼部区域会呈现显著突变的特征。假设I(x,y)示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的梯度差分投影函数分别表示为DPFv(x)和DPFh(y),则:
Figure GDA0003568017220000086
由于人眼区域的灰度值相对于其周围区域的灰度值较低,因此可以近似的建立如图3所示的人眼关键区域仿真示意图。同时,利用上述三种投影函数对图3的人眼仿真图进行分析,其结果如图4所示。
从图4中可以看出,在人眼关键窗口,其强度积分投影、方差积分投影、梯度差分投影都能准确地反映出人眼关键区域的中心位置。同时,越接近人眼关键区域的中心位置,其归一化的强度积分投影函数值越小,而归一化的方差积分投影函数值、梯度差分投影函数值越大。
步骤S3:根据强度积分投影、方差积分投影、梯度差分投影的先验信息,构建混合投影函数,使用所述投影函数对人眼进行定位;所述先验信息包括强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF。
由于强度积分投影、方差积分投影、梯度差分投影的计算过程比较直接、简便,可以用来对人眼进行定位,但是受到头发、眉毛、面部表情、光线变化、系统噪声等因素的影响,上述方法单独使用时难以满足人眼精确定位的要求。
根据前述分析可以看出,强度积分投影函数值越小,其对应的位置位于人眼中心位置的概率越大;方差积分投影函数值越小,其对应的位置位于人眼中心位置的概率越大;梯度差分投影函数值越大,其对应的位置位于人眼位置的概率越大。同时,强度积分投影、方差积分投影、梯度差分投影三者对人眼中心精确定位的概率逐渐增大。
因此,可以利用先验信息强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF构建改进的混合投影函数IHPF:
Figure GDA0003568017220000091
其中m≥n,m和n为指数项。
人脸图像中眼睛和面部的几何关系及两眼之间的距离可以如图5所示,为了提高人眼位置的准确率,可以在计算混合投影函数IHPF时加入xl-xr≥d的约束,其中xl、xr分别为所述混合投影函数IHPF计算得到的左、右眼的位置,d为人脸尺寸的水平宽度的一半。
为了客观评价人眼精确定位的准确性,本方案采用相对误差度量标准对本方案提出的方法进行验证,度量方法通过计算人眼测量位置与标定人眼位置之间的相对误差来衡量本方案的混合投影函数IHPF是否得到了准确的人眼位置信息。
假设Cl和Cr分别为左、右眼的标定位置,Ml和Ml分别为左、右眼的测量位置,Dlr表示左、右眼的标定位置之间的距离,其值约为人眼宽度的两倍,dl和dl分别为左、右眼测量位置与标定位置之间的误差,即:
dl=|Ml-Cl|,dr=|Mr-Cr|
由此,可以定义测量位置与标定位置之间的相对误差如下式所示:
Figure GDA0003568017220000101
如果Er<0.25,即dl或dl的值约小于人眼宽度的一半时,认为人眼定位的检测结果是正确的,否则是错误的。那么,对于由N副人脸图像构成的数据库而言,其检测正确率可以定义为下式所示,其中Er,i表示第i副人脸图像的相对误差:
Figure GDA0003568017220000102
最后,利用耶鲁大学计算视觉与控制中心创建的人脸数据库Yale-A对本发明提出的方法进行验证。Yale-A人脸数据库包含15位志愿者的165张分辨率为137*147pixel的灰度图像,该图像数据库中包含不同性别的人脸图像,同时还包含不同光照、不同表情和姿态的情况,如图6所示为人脸数据库中部分图像的示意图。
利用Yale-A数据库进行验证时,将本发明提出的所述混合投影函数IHPF与强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF进行对比,结果如表1所示,从表1中可以看出,利用混合投影函数IHPF进行人眼定位时,其检测准确率约为93.2%,明显优于IPF、VPF、DPF的检测结果,表明本发明在检测准确率方面有了显著的提高。
Figure GDA0003568017220000111
表2
综上所述,本发明从分析人眼在面部的关键特征出发,充分考虑函数算法的运算量,结合强度积分、方差积分、梯度差分等因素对人眼定位的影响,提出了一种基于改进混合投影函数的人眼定位方法,实现了对人眼的精准定位。该结果表明,本发明能够更加精确的实现人眼定位,具有较强的适应性和准确度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (7)

1.基于改进混合投影函数的人眼定位方法,其特征在于:包括以下步骤:
对人脸图像分别进行强度积分投影、方差积分投影、梯度差分投影,以得出人眼关键区域的中心位置;
根据强度积分投影、方差积分投影、梯度差分投影的先验信息,构建混合投影函数,使用所述投影函数对人眼进行定位;所述先验信息包括强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF;
所述根据强度积分投影、方差积分投影、梯度差分投影的先验信息,构建混合投影函数,使用所述投影函数对人眼进行定位的步骤,包括:
根据强度积分投影函数IPF、方差积分投影函数VPF、梯度差分投影函数DPF,构建混合投影函数IHPF:
Figure FDA0003568017210000011
其中m≥n。
2.根据权利要求1所述的基于改进混合投影函数的人眼定位方法,其特征在于:所述对人脸图像进行强度积分投影的步骤,包括:
使用I(x,y)表示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的强度积分投影函数分别表示为IPFv(x)和IPFh(y),则:
Figure FDA0003568017210000012
在垂直方向和水平方向上的平均强度积分投影函数分别表示为Mv(x)和Mh(y),则:
Figure FDA0003568017210000021
3.根据权利要求1所述的基于改进混合投影函数的人眼定位方法,其特征在于:所述对人脸图像进行方差积分投影的步骤,包括:
使用I(x,y)示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的方差积分投影函数分别表示为
Figure FDA0003568017210000022
Figure FDA0003568017210000023
则:
Figure FDA0003568017210000024
4.根据权利要求1所述的基于改进混合投影函数的人眼定位方法,其特征在于:所述对人脸图像进行梯度差分投影的步骤,包括:
使用I(x,y)示图像在点(x,y)处的灰度值,在区间[x1,x2]和[y1,y2]内的灰度在垂直方向和水平方向上的梯度差分投影函数分别表示为DPFv(x)和DPFh(y),则:
Figure FDA0003568017210000025
5.根据权利要求1所述的基于改进混合投影函数的人眼定位方法,其特征在于:所述混合投影函数IHPF计算得到的左、右眼的位置分别为xl、xr,设d为人脸尺寸的水平宽度的一半,则:
xl-xr≥d。
6.根据权利要求1所述的基于改进混合投影函数的人眼定位方法,其特征在于:所述对人脸图像分别进行强度积分投影、梯度投影、方差投影的步骤之前,还包括:
对光电探测装置采集的人脸图像进行预处理,以除去外界噪声影响。
7.根据权利要求6所述的基于改进混合投影函数的人眼定位方法,其特征在于:所述对光电探测装置采集的人脸图像进行预处理,以除去外界噪声影响的步骤,包括:
使用中值滤波的空域处理法、均值滤波的空域处理法、全变差法或小波变换法对光电探测装置的成像系统的噪声进行抑制;
基于直方图均衡利用重新映射灰度的方法,使人脸图像的直方图服从均匀分布,以达到图像增强的目的。
CN202110449449.6A 2021-04-25 2021-04-25 基于改进混合投影函数的人眼定位方法 Active CN113011393B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110449449.6A CN113011393B (zh) 2021-04-25 2021-04-25 基于改进混合投影函数的人眼定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110449449.6A CN113011393B (zh) 2021-04-25 2021-04-25 基于改进混合投影函数的人眼定位方法

Publications (2)

Publication Number Publication Date
CN113011393A CN113011393A (zh) 2021-06-22
CN113011393B true CN113011393B (zh) 2022-06-03

Family

ID=76389258

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110449449.6A Active CN113011393B (zh) 2021-04-25 2021-04-25 基于改进混合投影函数的人眼定位方法

Country Status (1)

Country Link
CN (1) CN113011393B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930278A (zh) * 2012-10-16 2013-02-13 天津大学 一种人眼视线估计方法及其装置
CN108256387A (zh) * 2016-12-29 2018-07-06 广州映博智能科技有限公司 一种基于灰度投影积分的眼睛区域定位方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7788008B2 (en) * 1995-06-07 2010-08-31 Automotive Technologies International, Inc. Eye monitoring system and method for vehicular occupants
CN101339669A (zh) * 2008-07-29 2009-01-07 上海师范大学 基于正侧面影像的三维人脸建模方法
CN101739548B (zh) * 2009-02-11 2012-07-25 北京智安邦科技有限公司 人眼检测方法及系统
CN102184543B (zh) * 2011-05-16 2013-03-27 苏州两江科技有限公司 一种人脸眼睛定位和距离测算的方法
CN103605968A (zh) * 2013-11-27 2014-02-26 南京大学 基于混合投影的瞳孔定位方法
CN104050448B (zh) * 2014-06-11 2017-10-17 青岛海信电器股份有限公司 一种人眼定位、人眼区域定位方法及装置
CN104063700B (zh) * 2014-07-04 2017-08-18 武汉工程大学 自然光照正面人脸图像中的眼睛中心点定位的方法
CN105930762A (zh) * 2015-12-02 2016-09-07 中国银联股份有限公司 一种眼球跟踪的方法及装置
US11250258B2 (en) * 2019-09-18 2022-02-15 Citrix Systems, Inc. Systems and methods for preventing information dissemination from an image of a pupil
CN111860423B (zh) * 2020-07-30 2024-04-30 江南大学 一种改进的积分投影法的人眼定位方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930278A (zh) * 2012-10-16 2013-02-13 天津大学 一种人眼视线估计方法及其装置
CN108256387A (zh) * 2016-12-29 2018-07-06 广州映博智能科技有限公司 一种基于灰度投影积分的眼睛区域定位方法

Also Published As

Publication number Publication date
CN113011393A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
CN106778586B (zh) 离线手写签名鉴别方法及系统
CN103632136B (zh) 人眼定位方法和装置
US8015132B2 (en) System and method for object detection and classification with multiple threshold adaptive boosting
CN104123543B (zh) 一种基于人脸识别的眼球运动识别方法
CN101339603A (zh) 一种从视频流中选取到了质量合格的虹膜图像的方法
CN106599785B (zh) 人体3d特征身份信息库的建立方法及设备
Ng et al. Hybrid ageing patterns for face age estimation
EP3680794A1 (en) Device and method for user authentication on basis of iris recognition
CN101201893A (zh) 一种基于灰度信息的虹膜识别预处理方法
CN111222380B (zh) 一种活体检测方法、装置、及其识别模型训练方法
CN109409298A (zh) 一种基于视频处理的视线追踪方法
Busey et al. Characterizing human expertise using computational metrics of feature diagnosticity in a pattern matching task
Jung et al. An eye detection method robust to eyeglasses for mobile iris recognition
CN110021019A (zh) 一种aga临床图像的ai辅助毛发的粗细分布分析方法
CN106778491B (zh) 人脸3d特征信息的获取方法及设备
CN112907635B (zh) 基于几何分析提取眼部异常运动特征的方法
CN111275754B (zh) 一种基于深度学习的脸部痘印比例计算方法
CN108288040A (zh) 基于面部轮廓的多参数人脸识别系统
CN113011393B (zh) 基于改进混合投影函数的人眼定位方法
CN107977622A (zh) 基于瞳孔特征的眼睛状态检测方法
CN113327236B (zh) 新型冠状病毒抗体快速检测试剂的识别方法及系统
CN113129374B (zh) 用激光点云人脸识别辅助读写姿态判断的方法和装置
Méndez-Llanes et al. On the use of local fixations and quality measures for deep face recognition
Zhou et al. Eye localization based on face alignment
CN117351537B (zh) 一种基于深度学习的猕猴脸部智能识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant