CN106778676A - 一种基于人脸识别及图像处理的注意力评估方法 - Google Patents

一种基于人脸识别及图像处理的注意力评估方法 Download PDF

Info

Publication number
CN106778676A
CN106778676A CN201611268247.7A CN201611268247A CN106778676A CN 106778676 A CN106778676 A CN 106778676A CN 201611268247 A CN201611268247 A CN 201611268247A CN 106778676 A CN106778676 A CN 106778676A
Authority
CN
China
Prior art keywords
region
mouth
pixel
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611268247.7A
Other languages
English (en)
Other versions
CN106778676B (zh
Inventor
张伟
王军
王一军
樊晓孟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201611268247.7A priority Critical patent/CN106778676B/zh
Publication of CN106778676A publication Critical patent/CN106778676A/zh
Application granted granted Critical
Publication of CN106778676B publication Critical patent/CN106778676B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Abstract

本发明公开了一种人脸识别及图像处理的注意力评估方法。通过PC摄像头采集学员在学习过程中的面部图像数据,并加以分析得到面部区域的五官位置并计算头部和面部偏转角度。使用头部和面部偏转角度计算学习效率指标,并通过该指标判断学习状态。本发明的特点在于:使用了最直观的图像数据来判断用户的学习状态,因此具有较高的准确性。

Description

一种基于人脸识别及图像处理的注意力评估方法
技术领域
本发明涉及一种基于人脸识别及图像处理的注意力评估方法。
背景技术
目前在线教育在国内外应用都已经变得越来越广泛,各种各样的学习网站也是层出不穷,学员可以随时访问网站进行远程学习,具有实时性高等优点。但是如何有效的检验学员的学习效果和评估学习绩效成为一个值得探讨的问题。目前常用的手段主要是通过在线作业以及在线考试来实现,但这种手段注重学习结果却忽视了学习过程的评估。学员在学习过程中的分神,开小差情况很难被现有的检测手段所发现从而降低了评估的准确性。
发明内容
为了克服目前在线教育无法监测学习过程中学员学习注意力是否集中的技术问题,本发明提供一种能够实现在线学习效率评估,提高在线学习绩效评估的准确性的基于人脸识别及图像处理的注意力评估方法。
为了实现上述技术目的,本发明的技术方案是,
一种基于人脸识别及图像处理的注意力评估方法,包含如下步骤:
a)首先使用肤色检测规则对图像进行处理,过滤掉非肤色区域;
b)对图像进行腐蚀和膨胀操作,去除掉图像中的噪声区域,并过滤掉过小的肤色区域,将处于图像相对中心位置的肤色区域定义为人脸区域;
c)对人脸区域进行二值化处理,从而将肤色区域转变为白色,五官区域转变为黑色;
d)接着将人脸区域分为上下两个部分,分别用来获取双眼的位置和嘴部的位置;
e)根据获得的双眼和嘴部的位置,进一步使用计算图像梯度的方法获得鼻子的位置;
f)根据获得的眼睛、鼻子和嘴巴坐标位置,计算出脸部和头部的偏转系数,根据这两个偏转系数计算最终的集中度指标判断学习者状态:集中或者不集中。
所述的方法,所述的步骤a)中,通过RGB,YCbCr以及HSV三个颜色空间的相应规则进行像素筛选以得到肤色区域,筛选公式如下:
(R>95)AND(G>40)AND(B>20)AND(max{R,G,B}-min{R,G,B}>15)AND(|R-G|>15)AND(R>G)AND(R>B)
上式中的R、G、B分别代表红、绿、蓝三个颜色通道;
Cr≤1.5862×Cb+20AND Cr≥0.3448×Cb+76.2069AND Cr≥-4.5652×Cb+234.5652AND Cr≤-1.15×Cb+301.75AND Cr≤-2.2857×Cb+432.85
上式中的Cb、Cr分别代表蓝色色度分量和红色色度分量;
H<25OR H>230
上式中的H为色调值。
所述的方法,所述的步骤b)中,过滤掉过小的肤色区域,是将占图像总像素比例不大于0.1的肤色区域过滤掉。
所述的方法,所述的步骤c)中,进行二值化处理的步骤为,将图像的每一个像素的灰度值与预设的阈值作比较,如果灰度值大于阈值则转化为白色,小于或等于则转化为黑色。
上式中x、y分别表示的是图像中某一个像素点的横、纵坐标,src(x,y)表示的是该像素点当前的灰度值,thresh表示的是阈值,dst(x,y)表示的是该像素点将要设置的灰度值。
所述的方法,所述的步骤d)中,将人脸区域分为上下两个部分,是以人脸区域的高度为H,上半部分的高度范围是从H*0.102到H*0.488,下半部分的高度范围是从H*0.530到H*0.909。
所述的方法,所述的步骤d)中,获取双眼位置的步骤为,首先对上半部分人脸区域进行逐行扫描,如果遇到黑色像素组成的区域,则计算该区域的面积大小并记录下该区域的位置,待扫描完毕之后,对已经获得的区域进行过滤,这些区域需要满足如下条件:
1)区域的像素个数与上半部分人脸区域像素个数的比值为0.0032到0.167之间;
2)区域的高度与整个图像区域的高度的比值需要在0.64以下;
3)区域的宽度与整个图像区域的宽度的比值需要在0.5以下;
最终,最符合条件的两个区域会被认定为双眼区域。
所述的方法,所述的步骤d)中,获取嘴部位置的步骤为,首先对下半部分人脸区域进行逐行扫描,如果遇到黑色像素组成的区域,则计算该区域的面积大小并记录下该区域的位置,待扫描完毕之后,对已经获得的区域进行过滤,这些区域需要满足如下条件:
1)区域的高度与下半部分人脸区域高度的比值要在0.092以下;
2)区域的宽度与下半部分人脸区域宽度的比值要在0.33到0.72之间。
最终,该区域内相对最长的一个区域将被认定为嘴部,同时该区域的中心位置坐标被认定为嘴部坐标。
所述的方法,所述的步骤e)中,获取鼻子坐标的步骤为,首先依据已经获取到的双眼和嘴部的位置,以双眼和嘴部所围成的区域为界,从原始的RGB彩色图像中提取出一块矩形区域作为用来进一步处理的区域,将该区域转换为灰度图片,然后计算这个区域内每一个像素的水平和垂直方向的梯度,方法为计算改坐标点的灰度值在x和y两个方向上的偏导数,公式如下:
上式中x、y分别表示该像素点的横纵坐标;
接着根据水平和垂直方向的梯度的偏导数计算梯度的幅度,公式如下:
上式中x、y分别表示该像素点的横纵坐标;
接下来找出所有的像素中梯度幅度的最大值Gmax,然后对该区域内的像素点做一个过滤:
1)梯度幅度大于或等于Gmax/2;
2)灰度值小于90;
过滤掉不符合要求的像素点,得到鼻孔的像素点,再计算这些像素点的平均中心位置,将中心位置认为是鼻子的中心位置。
所述的方法,所述的步骤e)中,以双眼和嘴部所围成的区域为界,从原始的RGB彩色图像中提取出一块矩形区域作为用来进一步处理的区域,是将矩形区域的左上顶点的横坐标设为为左眼横坐标与嘴部横坐标的较小值,纵坐标为左眼纵坐标与右眼纵坐标的较小值,矩形区域右下顶点的横坐标为右眼横坐标与嘴部横坐标的较大值,纵坐标为嘴部的纵坐标。
所述的方法,所述的步骤f)的具体步骤如下:
1)根据双眼的位置计算出双眼之间连线的中心E,将E与嘴部的中心点M相连,然后计算EM这条直线的偏转角度,公式如下:
OH=90-tan-1K(EM)
上式中,K(EM)表示的是双眼之间连线的中心E与嘴部的中心点M相连的直线的斜率;
2)接下来先计算鼻子的中心点N到脸部的垂直中线的距离NC,然后计算NC与脸部区域宽度的比值,公式如下:
上式中NC表示的是鼻子的中心点N到脸部的垂直中线的距离NC,W表示的是抽取出的脸部图片的宽度;
3)然后将求得的OH与OF两个系数代入公式计算集中度指标,公式如下:
Dis=1.286*OH+1.048*OF-0.0963
上式中,OH表示的计算出的头部偏转系数,OF表示的是计算出的脸部偏转系数;
将求得的集中度指标Dis与一个阈值0.3203相比较,如果Dis大于改值则认为是非集中状态,否则是集中状态。
本发明的技术效果在于:
1.本发明将人脸识别技术与远程学习监控相结合,从摄像头获取直观的图像信息并进行图像分析,监控过程贯穿在学习者的学习过程中,具有很强的抗干扰性和反欺骗性;
2.本发明所使用的监控方法,不仅可以用于远程学习监控,还可以用于其他场合比如在线考试监考或者安全驾驶监控,具有较好的通用性;
3.本发明的软件层面使用的是免费开源图形库OpenCV,硬件层面使用的是简单USB摄像头,因此具有良好的经济性,可以很方便地进行推广。
附图说明
图1是本发明的流程示意图。
图2是肤色检测后的结果。
图3是抽取出来的面部图像。
图4是对图像进行二值化后的结果。
图5是检测眼部坐标的结果。
图6是检测嘴部坐标的结果。
图7是检测鼻孔坐标的结果。
图8是计算头部和脸部偏移系数的示意图。
图9是最终的检测结果示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,本实施例包括如下步骤:
步骤1:首先使用肤色检测规则对图像进行处理,过滤掉非肤色区域;通过RGB,YCbCr以及HSV三个颜色空间的相应规则进行像素筛选以得到图片中的肤色区域。其筛选公式如下:
(R>95)AND(G>40)AND(B>20)AND(max{R,G,B}-min{R,G,B}>15)AND(|R-G|>15)AND(R>G)AND(R>B)
上式中的R、G、B分别代表红、绿、蓝三个颜色通道;
Cr≤1.5862×Cb+20AND Cr≥0.3448×Cb+76.2069AND Cr≥-4.5652×Cb+234.5652AND Cr≤-1.15×Cb+301.75AND Cr≤-2.2857×Cb+432.85
上式中的Cb、Cr分别代表蓝色色度分量和红色色度分量;
H<25OR H>230
上式中的H为色调值。
肤色检测的结果如图2所示。
步骤2:对图像进行腐蚀和膨胀操作,去除掉图像中的噪声区域。并过滤掉一些过小的肤色区域,即将占图像总像素比例不大于0.1的肤色区域过滤掉。将处于屏幕相对中心位置的肤色区域定义为人脸区域;步骤3:对面部图像进行二值化处理,从而将肤色区域转变为白色,五官区域转变为黑色;具体过程是将图像的每一个像素的灰度值与一个阈值作比较。如果灰度值大于阈值则转化为白色,小于或等于则转化为黑色。二值化的效果如图4所示:
步骤4:接着将面部图像分为上下两个部分,分别用来获取双眼的位置和嘴部的位置;本步骤中,使用经过试验验证的高度范围进行上下两个部分的划分。假设面部的高度为H,上半部分的高度范围是从H*0.102到H*0.488。下半部分的高度范围是从H*0.530到H*0.909。
步骤5:在上半部分,系统会扫描出每一个由黑色像素组成且联通的对象,并根据他们的相对位置和尺寸大小筛选出最符合眼睛特征的对象;首先对上半部分人脸区域进行逐行扫描,如果遇到黑色像素组成的区域,则计算该区域的面积大小并记录下该区域的位置,待扫描完毕之后,对已经获得的区域进行过滤,这些区域需要满足如下条件:
a)区域的像素个数与上半部分人脸区域像素个数的比值为0.0032到0.167之间;
b)区域的高度与整个图像区域的高度的比值需要在0.64以下;
c)区域的宽度与整个图像区域的宽度的比值需要在0.5以下。
最终,最符合条件的两个区域会被认定为双眼区域,如图5所示。
步骤6:在下半部分,系统会扫描出每一个由黑色像素组成且联通的对象,并尝试定位一个相对最为细长并为条状的对象,其特征符合嘴唇的外型特征;首先对图像进行逐行扫描,如果遇到黑色像素组成的区域,则计算该区域的面积大小并记录下该区域的位置。待扫描完毕之后,对已经获得的区域进行过滤,这些区域需要满足如下条件:
a)区域的高度与下半部分人脸区域高度的比值要在0.092以下;
b)区域的宽度与下半部分人脸区域宽度的比值要在0.33到0.72之间。
最终,该区域内相对最长的一个区域将被认定为嘴部,同时该区域的中心位置坐标被认定为嘴部坐标,如图6所示。
步骤7:根据已获得的双眼和嘴部的位置,进一步使用计算图像梯度的方法获得鼻子的位置;首先依据已经获取到的双眼和嘴部的位置,以双眼和嘴部所围成的区域为界,从原始的RGB彩色图像中提取出一块矩形区域作为用来进一步处理的区域,其中该矩形区域是将矩形区域的左上顶点的横坐标设为为左眼横坐标与嘴部横坐标的较小值,纵坐标为左眼纵坐标与右眼纵坐标的较小值,矩形区域右下顶点的横坐标为右眼横坐标与嘴部横坐标的较大值,纵坐标为嘴部的纵坐标。
将该区域转换为灰度图片,然后计算这个区域内每一个像素的水平和垂直方向的梯度,方法为计算改坐标点的灰度值在x和y两个方向上的偏导数,公式如下:
上式中x、y分别表示该像素点的横纵坐标;
接着根据水平和垂直方向的梯度的偏导数计算梯度的幅度,公式如下:
上式中x、y分别表示该像素点的横纵坐标;
接下来找出所有的像素中梯度幅度的最大值Gmax,然后对该区域内的像素点做一个过滤:
a)梯度幅度大于或等于Gmax/2;
b)灰度值小于90。
这样可以得到大致的鼻孔的像素点,再计算这些像素点的平均中心位置,将中心位置认为是鼻子的中心位置,如图7所示。
步骤8:根据获得的眼睛、鼻子和嘴巴坐标位置,计算出脸部和头部的偏转系数,根据这两个偏转系数计算最终的集中度指标判断学习者状态:集中或者不集中;具体包括如下步骤:
a)根据双眼的位置计算出双眼之间连线的中心E,将E与嘴部的中心点M相连,然后计算EM这条直线的偏转角度,公式如下:
OH=90-tan-1K(EM)
b)接下来先计算鼻子的中心点N到脸部的垂直中线的距离NC,然后计算NC与脸部区域宽度的比值,公式如下:
c)然后将求得的OH与OF两个系数带入公式计算集中度指标,公式如下:
Dis=1.286*OH+1.048*OF-0.0963
d)将求得的集中度指标Dis与一个阈值0.3203相比较,如果Dis大于改值则认为是非集中状态,否则是集中状态,如图8所示。
为了进一步评估学习者在整个学习过程中的学习绩效,可以采用如下步骤:
步骤9:计算单位时间内学习者处于集中状态的比例,计算学习绩效指标;在学习者学习的过程中,每三秒从摄像头截取一张图片。最后计算学习者在学习时间内处于集中状态的图片的比例,并将该比例RC作为评判学习绩效的标准,最终结果如图9所示:
a)RC>=0.8:优;
b)0.6<=RC<0.8:良;
c)0.4<=RC<0.6:合格;
d)RC<0.4:不合格。

Claims (10)

1.一种基于人脸识别及图像处理的注意力评估方法,其特征在于,包含如下步骤:
a)首先使用肤色检测规则对图像进行处理,过滤掉非肤色区域;
b)对图像进行腐蚀和膨胀操作,去除掉图像中的噪声区域,并过滤掉过小的肤色区域,将处于图像相对中心位置的肤色区域定义为人脸区域;
c)对人脸区域进行二值化处理,从而将肤色区域转变为白色,五官区域转变为黑色;
d)接着将人脸区域分为上下两个部分,分别用来获取双眼的位置和嘴部的位置;
e)根据获得的双眼和嘴部的位置,进一步使用计算图像梯度的方法获得鼻子的位置;
f)根据获得的眼睛、鼻子和嘴巴坐标位置,计算出脸部和头部的偏转系数,根据这两个偏转系数计算最终的集中度指标判断学习者状态:集中或者不集中。
2.根据权利要求1所述的方法,其特征在于,所述的步骤a)中,通过RGB,YCbCr以及HSV三个颜色空间的相应规则进行像素筛选以得到肤色区域,筛选公式如下:
(R>95)AND(G>40)AND(B>20)AND(max{R,G,B}-min{R,G,B}>15)AND(|R-G|>15)AND(R>G)AND(R>B)
上式中的R、G、B分别代表红、绿、蓝三个颜色通道;
Cr≤1.5862×Cb+20AND Cr≥0.3448×Cb+76.2069AND Cr≥-4.5652×Cb+234.5652AND Cr≤-1.15×Cb+301.75AND Cr≤-2.2857×Cb+432.85
上式中的Cb、Cr分别代表蓝色色度分量和红色色度分量;
H<25OR H>230
上式中的H为色调值。
3.根据权利要求1所述的方法,其特征在于,所述的步骤b)中,过滤掉过小的肤色区域,是将占图像总像素比例不大于0.1的肤色区域过滤掉。
4.根据权利要求1所述的方法,其特征在于,所述的步骤c)中,进行二值化处理的步骤为,将图像的每一个像素的灰度值与预设的阈值作比较,如果灰度值大于阈值则转化为白色,小于或等于则转化为黑色。
d s t ( x , y ) = max V a l , i f s r c ( x , y ) > t h r e s h 0 , o t h e r w i s e
上式中x、y分别表示的是图像中某一个像素点的横、纵坐标,src(x,y)表示的是该像素点当前的灰度值,thresh表示的是阈值,dst(x,y)表示的是该像素点将要设置的灰度值。
5.根据权利要求1所述的方法,其特征在于,所述的步骤d)中,将人脸区域分为上下两个部分,是以人脸区域的高度为H,上半部分的高度范围是从H*0.102到H*0.488,下半部分的高度范围是从H*0.530到H*0.909。
6.根据权利要求1所述的方法,其特征在于,所述的步骤d)中,获取双眼位置的步骤为,首先对上半部分人脸区域进行逐行扫描,如果遇到黑色像素组成的区域,则计算该区域的面积大小并记录下该区域的位置,待扫描完毕之后,对已经获得的区域进行过滤,这些区域需要满足如下条件:
1)区域的像素个数与上半部分人脸区域像素个数的比值为0.0032到0.167之间;
2)区域的高度与整个图像区域的高度的比值需要在0.64以下;
3)区域的宽度与整个图像区域的宽度的比值需要在0.5以下;
最终,最符合条件的两个区域会被认定为双眼区域。
7.根据权利要求1所述的方法,其特征在于,所述的步骤d)中,获取嘴部位置的步骤为,首先对下半部分人脸区域进行逐行扫描,如果遇到黑色像素组成的区域,则计算该区域的面积大小并记录下该区域的位置,待扫描完毕之后,对已经获得的区域进行过滤,这些区域需要满足如下条件:
1)区域的高度与下半部分人脸区域高度的比值要在0.092以下;
2)区域的宽度与下半部分人脸区域宽度的比值要在0.33到0.72之间。
最终,该区域内相对最长的一个区域将被认定为嘴部,同时该区域的中心位置坐标被认定为嘴部坐标。
8.根据权利要求1所述的方法,其特征在于,所述的步骤e)中,获取鼻子坐标的步骤为,首先依据已经获取到的双眼和嘴部的位置,以双眼和嘴部所围成的区域为界,从原始的RGB彩色图像中提取出一块矩形区域作为用来进一步处理的区域,将该区域转换为灰度图片,然后计算这个区域内每一个像素的水平和垂直方向的梯度,方法为计算改坐标点的灰度值在x和y两个方向上的偏导数,公式如下:
&part; f &part; x = &lsqb; f ( x + 1 , y ) - f ( x - 1 , y ) &rsqb; / 2
&part; f &part; y = &lsqb; f ( x , y + 1 ) - f ( x , y - 1 ) &rsqb; / 2
上式中x、y分别表示该像素点的横纵坐标;
接着根据水平和垂直方向的梯度的偏导数计算梯度的幅度,公式如下:
m a g ( x , y ) = ( &part; f &part; x ) 2 + ( &part; f &part; y ) 2
上式中x、y分别表示该像素点的横纵坐标;
接下来找出所有的像素中梯度幅度的最大值Gmax,然后对该区域内的像素点做一个过滤:
1)梯度幅度大于或等于Gmax/2;
2)灰度值小于90;
过滤掉不符合要求的像素点,得到鼻孔的像素点,再计算这些像素点的平均中心位置,将中心位置认为是鼻子的中心位置。
9.根据权利要求7所述的方法,其特征在于,所述的步骤e)中,以双眼和嘴部所围成的区域为界,从原始的RGB彩色图像中提取出一块矩形区域作为用来进一步处理的区域,是将矩形区域的左上顶点的横坐标设为为左眼横坐标与嘴部横坐标的较小值,纵坐标为左眼纵坐标与右眼纵坐标的较小值,矩形区域右下顶点的横坐标为右眼横坐标与嘴部横坐标的较大值,纵坐标为嘴部的纵坐标。
10.根据权利要求1所述的方法,其特征在于,所述的步骤f)的具体步骤如下:
1)根据双眼的位置计算出双眼之间连线的中心E,将E与嘴部的中心点M相连,然后计算EM这条直线的偏转角度,公式如下:
OH=90-tan-1K(EM)
上式中,K(EM)表示的是双眼之间连线的中心E与嘴部的中心点M相连的直线的斜率;
2)接下来先计算鼻子的中心点N到脸部的垂直中线的距离NC,然后计算NC与脸部区域宽度的比值,公式如下:
O F = N C W * 2
上式中NC表示的是鼻子的中心点N到脸部的垂直中线的距离NC,W表示的是抽取出的脸部图片的宽度;
3)然后将求得的OH与OF两个系数代入公式计算集中度指标,公式如下:
Dis=1.286*OH+1.048*OF-0.0963
上式中,OH表示的计算出的头部偏转系数,OF表示的是计算出的脸部偏转系数;
将求得的集中度指标Dis与一个阈值0.3203相比较,如果Dis大于改值则认为是非集中状态,否则是集中状态。
CN201611268247.7A 2016-12-31 2016-12-31 一种基于人脸识别及图像处理的注意力评估方法 Expired - Fee Related CN106778676B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611268247.7A CN106778676B (zh) 2016-12-31 2016-12-31 一种基于人脸识别及图像处理的注意力评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611268247.7A CN106778676B (zh) 2016-12-31 2016-12-31 一种基于人脸识别及图像处理的注意力评估方法

Publications (2)

Publication Number Publication Date
CN106778676A true CN106778676A (zh) 2017-05-31
CN106778676B CN106778676B (zh) 2020-02-18

Family

ID=58952550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611268247.7A Expired - Fee Related CN106778676B (zh) 2016-12-31 2016-12-31 一种基于人脸识别及图像处理的注意力评估方法

Country Status (1)

Country Link
CN (1) CN106778676B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304779A (zh) * 2017-12-28 2018-07-20 合肥壹佰教育科技有限公司 一种学生教育管理的智能化调控方法
CN108875521A (zh) * 2017-12-20 2018-11-23 北京旷视科技有限公司 人脸检测方法、装置、系统和存储介质
CN108960093A (zh) * 2018-06-21 2018-12-07 阿里体育有限公司 脸部转动角度的识别方法及设备
CN109255343A (zh) * 2017-10-26 2019-01-22 郭丽 一种人脸识别设备
CN109583351A (zh) * 2018-11-22 2019-04-05 广州市保伦电子有限公司 基于视频分析的课堂学生注意力获取方法、装置及介质
CN109948463A (zh) * 2019-02-28 2019-06-28 公安部第三研究所 基于色彩和数学模型实现脸部和唇部识别功能的方法
CN110188640A (zh) * 2019-05-20 2019-08-30 北京百度网讯科技有限公司 人脸识别方法、装置、服务器和计算机可读介质
CN110516649A (zh) * 2019-09-02 2019-11-29 南京微小宝信息技术有限公司 基于人脸识别的校友认证方法及系统
CN110874585A (zh) * 2019-11-28 2020-03-10 西安云海信息技术有限责任公司 一种基于注意力区域的窥视类作弊行为识别方法
CN111178117A (zh) * 2018-11-09 2020-05-19 浙江宇视科技有限公司 数据处理方法及装置
CN111414838A (zh) * 2020-03-16 2020-07-14 北京文香信息技术有限公司 一种注意力检测方法、装置、系统、终端及存储介质
CN111460931A (zh) * 2020-03-17 2020-07-28 华南理工大学 基于颜色通道差值图特征的人脸欺骗检测方法及系统
CN112883759A (zh) * 2019-11-29 2021-06-01 杭州海康威视数字技术股份有限公司 一种生物特征部位图像噪声的检测方法
CN113221798A (zh) * 2021-05-24 2021-08-06 南京伯索网络科技有限公司 一种基于网络课堂学员积极度评价系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1959702A (zh) * 2006-10-10 2007-05-09 南京搜拍信息技术有限公司 人脸识别系统中的人脸特征点定位方法
CN102184401A (zh) * 2011-04-29 2011-09-14 苏州两江科技有限公司 一种人脸特征提取方法
CN103366618A (zh) * 2013-07-18 2013-10-23 梁亚楠 基于人工智能与虚拟现实用于汉语学习培训的场景设备
CN105938603A (zh) * 2016-04-20 2016-09-14 长沙慧联智能科技有限公司 一种基于机器视觉的人员感兴趣程度检测系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1959702A (zh) * 2006-10-10 2007-05-09 南京搜拍信息技术有限公司 人脸识别系统中的人脸特征点定位方法
CN102184401A (zh) * 2011-04-29 2011-09-14 苏州两江科技有限公司 一种人脸特征提取方法
CN103366618A (zh) * 2013-07-18 2013-10-23 梁亚楠 基于人工智能与虚拟现实用于汉语学习培训的场景设备
CN105938603A (zh) * 2016-04-20 2016-09-14 长沙慧联智能科技有限公司 一种基于机器视觉的人员感兴趣程度检测系统及方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANAGHA S. DHAVALIKAR 等: "Face Detection and Facial Expression Recognition System", 《2014 INTERNATIONAL CONFERENCE ON ELECTRONICS AND COMMUNICATION SYSTEM》 *
MOHAMED ABDOU BERBAR 等: "Novel Colors Correction Approaches for Natural Scenes and Skin Detection Techniques", 《INTERNATIONAL JOURNAL OF VIDEO & IMAGE PROCESSING AND NETWORK SECURITY IJVIPNS-IJENS》 *
NUSIRWAN ANWAR BIN ABDUL RAHMAN 等: "Rgb-h-cbcr skin colour model for human face detection", 《AMERICAN SOCIETY FOR ENGINEERING EDUCATION (ASEE)ZONE CONFERENCE PROCEEDINGS》 *
宋小韦 等: "一种基于人脸识别的E-Learning系统的设计", 《新余学院学报》 *
郑天阳: "模式识别技术关于注意力判定的方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255343A (zh) * 2017-10-26 2019-01-22 郭丽 一种人脸识别设备
CN109255343B (zh) * 2017-10-26 2021-06-15 深圳市中兵康佳科技有限公司 一种人脸识别设备
CN108875521A (zh) * 2017-12-20 2018-11-23 北京旷视科技有限公司 人脸检测方法、装置、系统和存储介质
CN108304779A (zh) * 2017-12-28 2018-07-20 合肥壹佰教育科技有限公司 一种学生教育管理的智能化调控方法
CN108960093A (zh) * 2018-06-21 2018-12-07 阿里体育有限公司 脸部转动角度的识别方法及设备
CN111178117A (zh) * 2018-11-09 2020-05-19 浙江宇视科技有限公司 数据处理方法及装置
CN111178117B (zh) * 2018-11-09 2023-09-22 浙江宇视科技有限公司 数据处理方法及装置
CN109583351A (zh) * 2018-11-22 2019-04-05 广州市保伦电子有限公司 基于视频分析的课堂学生注意力获取方法、装置及介质
CN109948463B (zh) * 2019-02-28 2021-02-12 公安部第三研究所 基于色彩和数学模型实现脸部和唇部识别功能的方法
CN109948463A (zh) * 2019-02-28 2019-06-28 公安部第三研究所 基于色彩和数学模型实现脸部和唇部识别功能的方法
CN110188640A (zh) * 2019-05-20 2019-08-30 北京百度网讯科技有限公司 人脸识别方法、装置、服务器和计算机可读介质
CN110188640B (zh) * 2019-05-20 2022-02-25 北京百度网讯科技有限公司 人脸识别方法、装置、服务器和计算机可读介质
CN110516649A (zh) * 2019-09-02 2019-11-29 南京微小宝信息技术有限公司 基于人脸识别的校友认证方法及系统
CN110516649B (zh) * 2019-09-02 2023-08-22 南京微小宝信息技术有限公司 基于人脸识别的校友认证方法及系统
CN110874585A (zh) * 2019-11-28 2020-03-10 西安云海信息技术有限责任公司 一种基于注意力区域的窥视类作弊行为识别方法
CN110874585B (zh) * 2019-11-28 2023-04-18 西安云海信息技术有限责任公司 一种基于注意力区域的窥视类作弊行为识别方法
CN112883759B (zh) * 2019-11-29 2023-09-26 杭州海康威视数字技术股份有限公司 一种生物特征部位图像噪声的检测方法
CN112883759A (zh) * 2019-11-29 2021-06-01 杭州海康威视数字技术股份有限公司 一种生物特征部位图像噪声的检测方法
CN111414838A (zh) * 2020-03-16 2020-07-14 北京文香信息技术有限公司 一种注意力检测方法、装置、系统、终端及存储介质
CN111460931B (zh) * 2020-03-17 2023-01-31 华南理工大学 基于颜色通道差值图特征的人脸欺骗检测方法及系统
CN111460931A (zh) * 2020-03-17 2020-07-28 华南理工大学 基于颜色通道差值图特征的人脸欺骗检测方法及系统
CN113221798A (zh) * 2021-05-24 2021-08-06 南京伯索网络科技有限公司 一种基于网络课堂学员积极度评价系统

Also Published As

Publication number Publication date
CN106778676B (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
CN106778676A (zh) 一种基于人脸识别及图像处理的注意力评估方法
CN110837784B (zh) 一种基于人体头部特征的考场偷窥作弊检测系统
CN106295551A (zh) 一种基于视频分析的人员安全帽佩戴情况实时检测方法
CN100463000C (zh) 基于级联分类和哈夫圆变换的人眼状态检测方法
CN102663354B (zh) 人脸标定方法和系统
CN100354875C (zh) 基于人脸检测的红眼去除方法
CN110097034A (zh) 一种智能人脸健康程度的识别与评估方法
CN107220624A (zh) 一种基于Adaboost算法的人脸检测方法
CN104021550B (zh) 一种人脸三庭五眼自动定位及比例确定方法
CN106845328B (zh) 一种基于双摄像头的智能人脸识别方法及系统
CN101593352A (zh) 基于面部朝向和视觉焦点的驾驶安全监测系统
CN108491784A (zh) 面向大型直播场景的单人特写实时识别与自动截图方法
CN110263609A (zh) 一种安全帽佩戴情况的自动识别方法
CN108021893A (zh) 一种用于判断学生上课专注度的算法
CN105139404A (zh) 一种可检测拍摄质量的证照相机及拍摄质量检测方法
CN107798318A (zh) 一种机器人识别面部快乐微表情的方法及其装置
CN107066952A (zh) 一种车道线检测方法
CN102930534A (zh) 人体背部穴位自动定位方法
CN103218615B (zh) 人脸判定方法
CN108133216A (zh) 基于机器视觉的可实现小数点读取的数码管读数识别方法
CN109543518A (zh) 一种基于积分投影的人脸器官精确识别方法
CN106599880A (zh) 一种面向无人监考的同人判别方法
JP4146751B2 (ja) 顔識別装置、顔識別方法及び顔識別プログラム
CN105447450A (zh) 虹膜识别中判断左右虹膜的方法和装置
CN108446639A (zh) 低功耗增强现实设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200218

Termination date: 20201231