CN107909055A - 眼睛状态检测方法 - Google Patents
眼睛状态检测方法 Download PDFInfo
- Publication number
- CN107909055A CN107909055A CN201711237798.1A CN201711237798A CN107909055A CN 107909055 A CN107909055 A CN 107909055A CN 201711237798 A CN201711237798 A CN 201711237798A CN 107909055 A CN107909055 A CN 107909055A
- Authority
- CN
- China
- Prior art keywords
- eyes
- eyebrow
- facial image
- relative distance
- average value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 17
- 210000004709 eyebrow Anatomy 0.000 claims abstract description 58
- 230000001815 facial effect Effects 0.000 claims abstract description 54
- 210000000744 eyelid Anatomy 0.000 claims description 68
- 238000000034 method Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000007812 deficiency Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000001938 protoplast Anatomy 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种眼睛状态检测方法,包括:获取人脸图像;分别识别所述人脸图像中眉毛和眼睛的区域图像;根据所述眉毛和眼睛的距离检测眼睛状态。本发明提供的眼睛状态检测方法,不需要选择有效的特征和大量的样本进行训练,计算复杂性低,减少了大量重复性较强的数据计算,从而使得算法速度较快。
Description
技术领域
本发明涉及图像识别领域,特别涉及一种眼睛状态检测方法。
背景技术
图像识别技术,是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。随着计算机技术与信息技术的发展,图像识别技术获得了越来越广泛的应用。例如医疗诊断中各种医学图片的分析与识别、天气预报中的卫星云图识别、遥感图片识别、指纹识别、脸谱识别等,图像识别技术越来越多地渗透到我们的日常生活中。
人脸识别为图像识别的一种,得到了广泛的研究与应用。眼睛作为人脸中最重要的五官之一,可以得到性别、表情、年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。眼睛状态的识别应用领域也较为广泛,可以判断疲劳状态,利用眼部特征的高辨识度,也可以用于身份识别和图像检索。
现有的眼睛状态检测基于学习的方法把眼睛状态的检测当做一种分类问题来处理,通过提取特征,利用分类器进行学习,根据学习结果实现眼睛状态的检测。这类方法需要选择有效的特征,并选择大量的样本进行训练,计算复杂,影响运算效率。
发明内容
因此,为解决现有技术存在的技术缺陷和不足,本发明提出一种眼睛状态检测方法。
具体地,本发明一个实施例提出的一种基于序列图像的超分辨率重建方法,包括:
获取人脸图像;
分别识别所述人脸图像中眉毛和眼睛的区域图像;
根据所述区域图像中眉毛和眼睛的距离检测眼睛状态。
在本发明的一个实施例中,获取人脸图像后,还包括:
对所述人脸图像进行灰度化处理;
对经灰度化处理后的所述人脸图像进行中值滤波处理;
对经中值滤波处理后的人脸图像进行直方图均衡化处理。
在本发明的一个实施例中,分别识别所述人脸图像中眉毛和眼睛的区域图像,包括:
对所述人脸图像采用投影法,粗定位所述眉毛和所述眼睛在所述人脸图像中所在的第一区域;
对所述第一区域采用模板匹配法,精确定位所述眉毛和所述眼睛在所述人脸图像中所在的第二区域以完成对所述区域图像的识别。
在本发明的一个实施例中,根据所述区域图像中眉毛和眼睛的距离检测眼睛状态,包括:
计算所述眉毛到所述眼睛的上眼皮边缘的第一相对距离;
计算所述眉毛到所述眼睛的下眼皮边缘的第二相对距离;
计算所述眼睛的上眼皮边缘和下眼皮边缘的绝对距离;
根据所述第一相对距离、所述第二相对距离及所述绝对距离检测眼睛状态。
在本发明的一个实施例中,计算所述眉毛到所述眼睛的上眼皮边缘的第一相对距离,包括:
在所述眉毛区域中的任取X个点,求出X个点的眉毛坐标平均值;
在所述眼睛区域的上眼皮边缘选取N个点,分别计N个点的上眼皮坐标平均值;
根据所述眉毛坐标平均值和所述上眼皮坐标平均值确定所述第一相对距离。
在本发明的一个实施例中,计算所述眉毛到所述眼睛的下眼皮边缘的第二相对距离,包括:
在所述眼睛区域的下眼皮边缘选取N个点,分别计N个点的下眼皮坐标平均值;
根据所述眉毛坐标平均值和所述下眼皮坐标平均值确定所述第二相对距离。
在本发明的一个实施例中,计算所述眼睛的上眼皮边缘和下眼皮边缘的绝对距离,包括:
在所述上眼皮边缘和下眼皮边缘各取M个点,分别计算所述上眼皮边缘的M个点的第一平均值和所述下眼皮边缘的M个点的第二平均值;
根据所述第一平均值和所述第二平均值计算所述绝对距离。
在本发明的一个实施例中,根据所述第一相对距离、所述第二相对距离及所述绝对距离检测眼睛状态,包括:
根据所述第一相对距离、所述第二相对距离及所述绝对距离进行误差补偿,确定眼睛状态公式,通过计算所述眼睛状态公式判断眼睛状态。
在本发明的一个实施例中,所述眼睛状态公式为:
其中,T1为所述第二相对距离,T2为所述绝对距离,T3为所述第一相对距离,OFFSET1和OFFSET2为采集所述人脸图像的误差补偿。
在本发明的一个实施例中,所述误差补偿通过人工手动设定。
基于此,本发明具备如下优点:
本发明提出了的眼睛状态检测方法,能够较好的降低运算复杂度,提高实时性,并且可靠性高,具有广泛的应用前景。
通过以下参考附图的详细说明,本发明的其它方面和特征变得明显。但是应当知道,该附图仅仅为解释的目的设计,而不是作为本发明的范围的限定,这是因为其应当参考附加的权利要求。还应当知道,除非另外指出,不必要依比例绘制附图,它们仅仅力图概念地说明此处描述的结构和流程。
附图说明
下面将结合附图,对本发明的具体实施方式进行详细的说明。
图1为本发明实施例提供的一种眼睛状态检测方法的流程图;
图2为本发明实施例提供的一种人脸图像中眉毛和眼睛的区域图像识别示意图;
图3为本发明实施例提供的一种人脸图像中眉毛和眼睛的坐标采样点示意图;
图4为本发明实施例提供的一种人脸图像中眉毛和眼睛的拟合图示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
实施例一
请参见图1,图1为本发明实施例提供的一种眼睛状态检测方法的示意图。该方法包括如下步骤:
步骤1、获取人脸图像;
步骤2、分别识别所述人脸图像中眉毛和眼睛的区域图像;
步骤3、根据所述区域图像中眉毛和眼睛的距离检测眼睛状态。
其中,在步骤1之后,还可以包括:
对所述人脸图像进行灰度化处理;
对经灰度化处理后的所述人脸图像进行中值滤波处理;
对经中值滤波处理后的人脸图像进行直方图均衡化处理。
其中,对于步骤2,可以包括:
对所述人脸图像采用投影法,粗定位所述眉毛和所述眼睛在所述人脸图像中所在的第一区域;
对所述第一区域采用模板匹配法,精确定位所述眉毛和所述眼睛在所述人脸图像中所在的第二区域以完成对所述区域图像的识别。
其中,对于步骤3,可以包括:
计算所述眉毛到所述眼睛的上眼皮边缘的第一相对距离;
计算所述眉毛到所述眼睛的下眼皮边缘的第二相对距离;
计算所述眼睛的上眼皮边缘和下眼皮边缘的绝对距离;
根据所述第一相对距离、所述第二相对距离及所述绝对距离检测眼睛状态。
其中,对于步骤3中计算所述眉毛到所述眼睛的上眼皮边缘的第一相对距离,可以包括:
在所述眉毛区域中的任取X个点,求出X个点的眉毛坐标平均值;
在所述眼睛区域的上眼皮边缘选取N个点,分别计N个点的上眼皮坐标平均值;
根据所述眉毛坐标平均值和所述上眼皮坐标平均值确定所述第一相对距离。
其中,对于步骤3中计算所述眉毛到所述眼睛的下眼皮边缘的第二相对距离,可以包括:
在所述眼睛区域的下眼皮边缘选取N个点,分别计N个点的下眼皮坐标平均值;
根据所述眉毛坐标平均值和所述下眼皮坐标平均值确定所述第二相对距离。
其中,对于步骤3中计算所述眼睛的上眼皮边缘和下眼皮边缘的绝对距离,可以包括:
在所述上眼皮边缘和下眼皮边缘各取M个点,分别计算所述上眼皮边缘的M个点的第一平均值和所述下眼皮边缘的M个点的第二平均值;
根据所述第一平均值和所述第二平均值计算所述绝对距离。
其中,对于步骤3中根据所述第一相对距离、所述第二相对距离及所述绝对距离检测眼睛状态,可以包括:
根据所述第一相对距离、所述第二相对距离及所述绝对距离进行误差补偿,确定眼睛状态公式,通过计算所述眼睛状态公式判断眼睛状态。
进一步地,所述眼睛状态公式为:
其中,T1为所述第二相对距离,T2为所述绝对距离,T3为所述第一相对距离,OFFSET1和OFFSET2为采集所述人脸图像的误差补偿。
进一步地,所述误差补偿通过人工手动设定。
实施例二
在上述实施例的基础上,本实施例对眼睛状态检测方法进一步说明。
该方法包括:
步骤1、获取人脸图像;
步骤2、对人脸图像进行预处理;
21)对人脸图像进行灰度化处理
图像灰度化就是使彩色的RGB分量值相等的过程。由于RGB的取值范围是0~255,所以灰度的级别为256级,即灰度图像能表现256种颜色。
将人脸图像灰度化处理后进行灰度拉伸,即用映射的方法,把原来压缩的直方图分开一些,也就是灰度拉伸,得到更加清晰的人脸图像。
22)对人脸图像进行中值滤波
中值滤波法是一种非线性的图像平滑方法,将一个滑动窗口内的各像素灰度排序,用其中值代替窗口中心像素原来的灰度,若窗口中有偶数个像素,则取两个中间值的平均。
23)对人脸图像进行直方图均衡化
设f(i,j),g(i,j)(i=1,2…M;j=1,2…N),分别为原人脸图像和处理后的人脸图像,人脸图像的灰度化范围为[0,255],直方图均衡化方法具体如下:
(231)求原图[f(i,j)]M×N的灰度直方图,设用256维的向量hf表示;
(232)由hf求原人脸图像的灰度分布概率,记作pf,则
其中,NF=M×N(M,N分别为图像的长和宽)为图像的总像素个数;
(233)计算人脸图像各个灰度值的累计分布概率,记作pa,则有
其中,令pa(0)=0。
(231)进行直方图均衡化计算,的到处理后图像的像素值为:
g(i,j)=255·pa(k) (3)
24)对人脸图像进行二值化
采用的是最大类间方差阈值分割法对人脸图像二值化。
步骤3、确定人脸图像中眼睛和眉毛的特征,定位眼睛和眉毛的区域;
请参见图2,图2为本发明实施例提供的一种人脸图像中眉毛和眼睛的区域图像识别示意图。
采用投影法将人脸图像缩小到只有眉毛和眼睛的小区域,粗定位眉毛和眼睛的区域。
对眉毛和眼睛的区域图像进行去噪和增强处理。从垂直方向分布,眼睛在眉毛的下面,从上至下搜索,可以定位出眉毛的区域。
采用模板匹配法精确定位眼睛的区域。
传统的模板匹配法,在整幅图像中进行匹配不但运算量大而且干扰因素多。本发明中因为已粗略定位出眼睛的区域,并且已经没有了鼻、嘴等器官的影响,所以对图像连续作水平和垂直投影取其交点即定位为人眼位置,提高准确率。
步骤4-步骤6请参见图3,图3为本发明实施例提供的一种人脸图像中眉毛和眼睛的坐标采样点示意图。
步骤4、计算第一相对距离
在眉毛区域中任取X个点,求出X个点的眉毛坐标平均值;
在眼睛区域的上眼皮边缘选取N个点,分别计N个点的上眼皮坐标平均值;
根将眉毛坐标平均值减去上眼皮坐标平均值得到第一相对距离。
步骤5、计算第二相对距离
在眼睛区域的下眼皮边缘选取N个点,分别计N个点的下眼皮坐标平均值;
将眉毛坐标平均值减去下眼皮坐标平均值得到第二相对距离。
步骤6、计算绝对距离
在上眼皮边缘和下眼皮边缘各取M个点;
分别计算上眼皮边缘的M个点的第一平均值和下眼皮边缘的M个点的第二平均值;
将第一平均值减去第二平均值得到绝对距离。
步骤7、判断眼睛状态
眼睛状态公式如下所示:
其中,T1为第二相对距离,T2为绝对距离,T3为第一相对距离,OFFSET1和OFFSET2为采集人脸图像的误差补偿,误差补偿由于机器的不同,需要人工手动设定。
将步骤4-6中得到的第一相对距离、第二相对距离、绝对距离以及预先设定的误差补偿代入眼睛状态公式中求出θ的值。
当θ越小,越接近于0,说明眼睛越闭合,理想情况下,θ的理论最小值为0;
反之θ越大,越接近于1,说明眼睛越睁开。
由于个体差异,眼睛睁开的θ值因人而异,因此,可以根据不同的个体,预先设置阈值,将θ与阈值比对来检测。
实施例3
在上述实施例的基础上,本实施例对眼睛状态检测方法另外举例说明。
如图2所示,通过上述实施例方法识别人脸图像中的眉毛和眼睛的区域图像。
如图3所示,图3为本发明实施例提供的一种人脸图像中眉毛和眼睛的坐标采样点示意图。以图像底部为垂直0点,对于上眼皮、下眼皮和眉毛个采样N个点(上眼皮、下眼皮和眉毛的采样点个数可以相同,也可以不同)。
如图4所示,将图3中的采样点拟合为曲线。计算每条曲线的均值D1,D2,D3。
根据公式:
其中OFFSET1和OFFSET2为图像的误差补偿,该误差补偿由于机器不同,需人工手动设定。
当θ越接近1,说明眼睛越闭合,
反之眼睛越睁开,
由于个体差异,眼睛睁开的θ值因人而异,因此,可以根据不同的个体,预先设置阈值,将θ与阈值比对来检测。
综上所述,本文中应用了具体个例对本发明基于眼睛状态检测方法进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制,本发明的保护范围应以所附的权利要求为准。
Claims (10)
1.一种眼睛状态检测方法,其特征在于,包括:
获取人脸图像;
分别识别所述人脸图像中眉毛和眼睛的区域图像;
根据所述区域图像中眉毛和眼睛的距离检测眼睛状态。
2.根据权利要求1所述的方法,其特征在于,获取人脸图像后,还包括:
对所述人脸图像进行灰度化处理;
对经灰度化处理后的所述人脸图像进行中值滤波处理;
对经中值滤波处理后的人脸图像进行直方图均衡化处理。
3.根据权利要求1所述的方法,其特征在于,分别识别所述人脸图像中眉毛和眼睛的区域图像,包括:
对所述人脸图像采用投影法,粗定位所述眉毛和所述眼睛在所述人脸图像中所在的第一区域;
对所述第一区域采用模板匹配法,精确定位所述眉毛和所述眼睛在所述人脸图像中所在的第二区域以完成对所述区域图像的识别。
4.根据权利要求1所述的方法,其特征在于,根据所述区域图像中眉毛和眼睛的距离检测眼睛状态,包括:
计算所述眉毛到所述眼睛的上眼皮边缘的第一相对距离;
计算所述眉毛到所述眼睛的下眼皮边缘的第二相对距离;
计算所述眼睛的上眼皮边缘和下眼皮边缘的绝对距离;
根据所述第一相对距离、所述第二相对距离及所述绝对距离检测眼睛状态。
5.根据权利要求4所述的方法,其特征在于,计算所述眉毛到所述眼睛的上眼皮边缘的第一相对距离,包括:
在所述眉毛区域中的任取X个点,求出X个点的眉毛坐标平均值;
在所述眼睛区域的上眼皮边缘选取N个点,分别计N个点的上眼皮坐标平均值;
根据所述眉毛坐标平均值和所述上眼皮坐标平均值确定所述第一相对距离。
6.根据权利要求5所述的方法,其特征在于,计算所述眉毛到所述眼睛的下眼皮边缘的第二相对距离,包括:
在所述眼睛区域的下眼皮边缘选取N个点,分别计N个点的下眼皮坐标平均值;
根据所述眉毛坐标平均值和所述下眼皮坐标平均值确定所述第二相对距离。
7.根据权利要求5所述的方法,其特征在于,计算所述眼睛的上眼皮边缘和下眼皮边缘的绝对距离,包括:
在所述上眼皮边缘和下眼皮边缘各取M个点,分别计算所述上眼皮边缘的M个点的第一平均值和所述下眼皮边缘的M个点的第二平均值;
根据所述第一平均值和所述第二平均值计算所述绝对距离。
8.根据权利要求4所述的方法,其特征在于,根据所述第一相对距离、所述第二相对距离及所述绝对距离检测眼睛状态,包括:
根据所述第一相对距离、所述第二相对距离及所述绝对距离进行误差补偿,确定眼睛状态公式,通过计算所述眼睛状态公式判断眼睛状态。
9.根据权利要求8所述的方法,其特征在于,所述眼睛状态公式为:
<mrow>
<mi>&theta;</mi>
<mo>=</mo>
<mrow>
<mo>|</mo>
<mfrac>
<mrow>
<msub>
<mi>T</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>T</mi>
<mn>3</mn>
</msub>
<mo>+</mo>
<msub>
<mi>OFFSET</mi>
<mn>1</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>T</mi>
<mn>2</mn>
</msub>
<mo>+</mo>
<msub>
<mi>T</mi>
<mn>3</mn>
</msub>
<mo>+</mo>
<msub>
<mi>OFFSET</mi>
<mn>2</mn>
</msub>
</mrow>
</mfrac>
<mo>|</mo>
</mrow>
</mrow>
其中,T1为所述第二相对距离,T2为所述绝对距离,T3为所述第一相对距离,OFFSET1和OFFSET2为采集所述人脸图像的误差补偿。
10.根据权利要求9所述的方法,其特征在于,所述误差补偿通过人工手动设定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711237798.1A CN107909055A (zh) | 2017-11-30 | 2017-11-30 | 眼睛状态检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711237798.1A CN107909055A (zh) | 2017-11-30 | 2017-11-30 | 眼睛状态检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107909055A true CN107909055A (zh) | 2018-04-13 |
Family
ID=61848221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711237798.1A Withdrawn CN107909055A (zh) | 2017-11-30 | 2017-11-30 | 眼睛状态检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107909055A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109271875A (zh) * | 2018-08-24 | 2019-01-25 | 中国人民解放军火箭军工程大学 | 一种基于眉部和眼部关键点信息的疲劳检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6611613B1 (en) * | 1999-12-07 | 2003-08-26 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting speaking person's eyes and face |
CN101059836A (zh) * | 2007-06-01 | 2007-10-24 | 华南理工大学 | 一种人眼定位及人眼状态识别方法 |
CN101281598A (zh) * | 2008-05-23 | 2008-10-08 | 清华大学 | 基于多部件多特征融合的人脸识别方法 |
CN104408878A (zh) * | 2014-11-05 | 2015-03-11 | 唐郁文 | 一种车队疲劳驾驶预警监控系统及方法 |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
-
2017
- 2017-11-30 CN CN201711237798.1A patent/CN107909055A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6611613B1 (en) * | 1999-12-07 | 2003-08-26 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting speaking person's eyes and face |
CN101059836A (zh) * | 2007-06-01 | 2007-10-24 | 华南理工大学 | 一种人眼定位及人眼状态识别方法 |
CN101281598A (zh) * | 2008-05-23 | 2008-10-08 | 清华大学 | 基于多部件多特征融合的人脸识别方法 |
CN104408878A (zh) * | 2014-11-05 | 2015-03-11 | 唐郁文 | 一种车队疲劳驾驶预警监控系统及方法 |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109271875A (zh) * | 2018-08-24 | 2019-01-25 | 中国人民解放军火箭军工程大学 | 一种基于眉部和眼部关键点信息的疲劳检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104091147B (zh) | 一种近红外眼睛定位及眼睛状态识别方法 | |
CN105913093B (zh) | 一种用于文字识别处理的模板匹配方法 | |
JP4997252B2 (ja) | 画像内の照明域を識別する方法 | |
WO2021228088A1 (zh) | 一种雾霾图像的雾浓度识别方法 | |
CN110378196A (zh) | 一种结合激光点云数据的道路视觉检测方法 | |
CN108549886A (zh) | 一种人脸活体检测方法及装置 | |
CN107341790B (zh) | 一种环境洁净度检测的图像处理方法 | |
WO2020103417A1 (zh) | 一种bmi评测方法、装置及计算机可读存储介质 | |
CN101763507B (zh) | 人脸识别方法及人脸识别系统 | |
CN108564085B (zh) | 一种自动读取指针式仪表读数的方法 | |
CN110097034A (zh) | 一种智能人脸健康程度的识别与评估方法 | |
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
CN108647625A (zh) | 一种表情识别方法及装置 | |
CN108734108B (zh) | 一种基于ssd网络的裂纹舌识别方法 | |
CN106529559A (zh) | 一种指针式圆形多仪表盘实时读数识别方法 | |
CN108985210A (zh) | 一种基于人眼几何特征的视线追踪方法及系统 | |
CN101615292B (zh) | 基于灰度信息的人眼精确定位方法 | |
CN112862744B (zh) | 一种基于超声图像的电容内部缺陷智能检测方法 | |
CN102974551A (zh) | 一种基于机器视觉的多晶硅太阳能检测分选的方法 | |
CN110533648A (zh) | 一种黑头识别处理方法及系统 | |
CN107679469A (zh) | 一种基于深度学习的非极大值抑制方法 | |
CN111291701A (zh) | 一种基于图像梯度和椭圆拟合算法的视线追踪方法 | |
CN108416304B (zh) | 一种利用上下文信息的三分类人脸检测方法 | |
Porto et al. | Automatic cephalometric landmarks detection on frontal faces: An approach based on supervised learning techniques | |
KR101343623B1 (ko) | 적응적 피부색 검출 방법, 그리고 이를 이용한 얼굴 검출 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180413 |
|
WW01 | Invention patent application withdrawn after publication |