CN103324284A - 基于人脸和眼部检测的鼠标控制方法 - Google Patents
基于人脸和眼部检测的鼠标控制方法 Download PDFInfo
- Publication number
- CN103324284A CN103324284A CN2013101963219A CN201310196321A CN103324284A CN 103324284 A CN103324284 A CN 103324284A CN 2013101963219 A CN2013101963219 A CN 2013101963219A CN 201310196321 A CN201310196321 A CN 201310196321A CN 103324284 A CN103324284 A CN 103324284A
- Authority
- CN
- China
- Prior art keywords
- face
- eye
- operator
- people
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
本发明涉及一种基于人脸和眼部检测的鼠标控制方法。其特征在于,提供一种用低成本的普通摄像头能实现的通过对操作者脸部进行检测与跟踪,同时结合操作者眼部动作来实现的鼠标控制方法。具体步骤为:1.视频信号预处理,采集摄像头视频信号,并对信号进行预处理;2.人脸的检测,基于肤色和Haar特征对操作者的脸部进行检测;3.人脸的运动跟踪,记录操作者脸部的运动轨迹和坐标位置;4.眼部的定位,在人脸中检测定位出操作者两个眼睛的位置;5.眼部动作的检测,检测操作者的眼部动作;6.鼠标控制,控制鼠标的移动,控制鼠标左右按键的点击动作。本发明通过图像处理和计算机视觉的技术,检测操作者的脸部位置,跟踪脸部的运动,并检测操作者的眼部动作,从而实现对鼠标的控制。使用低成本的普通摄像头,为肢体残障人士或者手部受限制的计算机用户提供了一种方便的人机交互方式。
Description
技术领域
本发明属于图像处理和人机交互的鼠标控制领域,尤其涉及一种基于人脸和眼部检测的鼠标控制方法。
背景技术
基于人脸和眼部检测的控制系统是信息无障碍的一种应用,目的在于不需要通过肢体运动或者帮助肢体行动存在障碍的人士控制电脑。随着技术的发展,将应用在更宽广的领域。比如在生活中,能应用到自动驾驶上;在军事方面,可以实现飞机导弹操作控制等等。总的来说,基于视觉的人脸和眼部检测控制系统有着极其广阔的发展前景。
就目前而言,在基于人脸和眼部检测的控制技术方面,人脸和人眼作为交互装置最直接的用处就是代替鼠标作为一种指点装置。
眼部跟踪技术的装置有强迫式与非强迫式、穿戴式与非穿戴式、接触式与非接触式之分。其精度从0.1°到2°不等,制造成本也有巨大差异。有关视觉输入的人机界面研究主要涉及两个方面:一是人眼跟踪原理和技术的研究;二是使用这种交互方式后,人机界面的设计技术和原理的研究。
视线跟踪技术还处在起步阶段,目前德国研究人员已经开发出眼控电脑软件系统,而Tobii已经问世,成为眼动技术的世界领先者。视线跟踪技术主要是解决眼睛运动特性的检测问题,目前主要的检测方法有眼电图法、接触镜法,角膜反射法,红外光电反射法,红外电视法等。
(1)眼电图法:通常情况下由于人的视网膜代谢水平所以人眼球后部的视网膜与前部的角膜之间会产生电压,大小在数十毫伏左右,该电压的正极是角膜区,负极是视网膜。眼电图法的依据就是眼球转动时眼球周围电势的大小变化,具体做法就是将两对由氯化银制作的皮肤表面电极分别置于左右眼的上下两侧,当人眼球转动是引起的眼球变化方向产生的微弱电信号,经放大后由这两个皮肤表面电极输出,通过检测该电势的变化就可得到眼球的位置信息。从以上描述可以看出这种方法的优点是成本低,缺点是误差较大,并且对人的干扰也大。
(2)接触镜法:该方法也需要在眼睛的角膜或者巩膜上黏贴反射镜,再根据眼球运动时反射镜对固定光束的反射方向获得眼动信息。该方法和眼电图法很相似,所以它的优点也是成本低,容易实现,缺点是对人的干扰太大。
(3)角膜反射法:该方法属于非接触式方法,它通过检测外物在人眼角膜表面形成的虚像获得眼动信息。角膜反射方法的最大缺点是精度很低,几乎不能实际应用。
(4)红外电视法:红外电视法是利用眼睛各部分对红外光线的反射特性不同实现的。具体做法是用红外线照射人眼,同时用对红外敏感的摄像头捕获眼部图像,将捕获的电视摄像管的像转换成电视视频信号,再经过信号处理就能得到垂直和水平方向的二维眼球位置信号,然后根据该信号就可以估算人眼视线方向。该方法的优点是使用简单,对人无干扰并且也无限制,缺点是测量设备较贵,但总体来说它是目前眼动测量方法中最为实用的一种。
(5)红外光电反射法:该方法同样是红外线照射眼部,再在眼部附近安装两只红外光敏管,使虹膜与巩膜的边缘处的左右两部分反射的红外光分别为这两只光敏管所接收。当眼球向右运动时,虹膜转向右边,右边的光敏管所接收的红外线就会减少;而左边的巩膜反射部分增加,导致左边的光敏管所接收的红外线就会增加,利用这个差分信号就能无接触地测出眼动。该方法的缺点是误差大。
在实时人眼跟踪与眨眼检测方面,因为眼睛作为人脸的重要特征,在人眼检测和识别中发挥着重要作用。眼睛的定位也是视线跟踪、眼睛状态分析以及虹膜识别的首要工作。许多学者对人眼的跟踪和状态识别进行了探索,这个方向也是近来研究的热点之一。
总之,以上方法无法使用低成本的普通摄像头检测人脸和眼部,准确高效地实现鼠标控制。
发明内容
本发明的目的是提供一种用低成本的普通摄像头能实现的通过对操作者脸部进行检测与跟踪,同时结合操作者眼部动作来实现的鼠标控制方法。
为了达到上述目的,本发明的技术方案提供了一种基于人脸和眼部检测的鼠标控制方法,其步骤为:
1.视频信号预处理
采集摄像头视频信号,并对信号进行预处理,包括噪声滤除处理,色彩空间的转换等等;
2.人脸的检测
在前一步视频画面经过处理之后,基于肤色和Haar特征对操作者的脸部进行检测;
3.人脸的运动跟踪
对操作者的脸部在画面之中的运动进行跟踪,记录运动轨迹和坐标位置;
4.眼部的定位
当正确检测到人脸之后,在人脸中检测定位出操作者两个眼睛的位置;
5.眼部动作的检测
检测操作者的眼部动作,分别有左眼闭、右眼闭、眨眼等动作;
6.鼠标控制
根据操作者的脸部在画面之中的运动轨迹,控制鼠标的移动;结合操作者的眼部动作,控制鼠标左右按键的点击动作。
本发明通过图像处理和计算机视觉的技术,检测操作者的脸部位置,跟踪脸部的运动,并检测操作者的眼部动作,从而实现对鼠标的控制。使用低成本的普通摄像头,为肢体残障人士或者手部受限制的计算机用户提供了一种方便的人机交互方式。
附图说明
图1是基于人脸和眼部检测的鼠标控制方法流程图
图2是对脸部的检测和眼部的定位
图3是对眼部的动作检测
具体实施方式
本发明使用普通的摄像头采集包含有操作者脸部的视频信号,通过图像处理和计算机视觉的技术,处理视频画面,基于肤色和Haar特征检测出人脸,然后用MeanShift算法跟踪人脸的运动,控制鼠标的运动,再根据操作者眼部的动作,控制鼠标的按键,从而在一个低成本硬件平台的基础上实现一种方便的人机交互方式。
1.视频信号预处理
如图1所示,首先是对摄像头采集到的视频信号预处理。
在视频图像处理中,图像传感器带来的噪声为主要噪声来源。一般将其划分为三部分:电子噪声——用高斯白噪声模拟、光电子噪声——用泊松分布的光电噪声模型模拟、感光颗粒噪声——用高斯白噪声模拟。因此在图像处理之前,应该将其去除,以便得到良好的处理效果。
空间域图像f(x,y)经过傅立叶变换转换到频域处理,原图像被转换为F(u,v)。然后,函数H(u,v)对频域图像F(u,v)进行处理,将其变换为G(u,v)。处理后的结果再经过傅立叶反变换得到空间域图像g(x,y)。这个过程就是频域的滤波处理,其中,H(u,v)是滤波函数。F(u,v)和G(u,v)分别是f(x,y)和g(x,y)的傅立叶变换形式,它们之间有如下卷积关系:
用二维零均值离散高斯函数作平滑滤波器,这种函数的表达式为:
高斯平滑滤波器在各个方向上的平滑程度是相同的,高斯滤波器用像素邻域的加权均值来代替该点的像素值,而每一邻域像素点权值是随该点与中心点的距离单调增减的。图像要有良好的平滑效果σ参数既不能太小,也不能σ参数过大让图像细节模糊。σ参数选择要适当,经过实际比较5×5高斯滤波效果最佳。
颜色是物体表面的一种视觉特性,每种物体都有其特有的颜色特征。颜色是图像内容组成的基本要素,是人识别图像的主要感知特征之一。相对于其他特征,颜色特征非常稳定,对于旋转、平移、尺度变化,甚至各种形变不敏感,表现出相当强的鲁棒性,而且颜色特征计算简单。
由色调、饱和度、亮度三要素构成的颜色模型,被称作为HSV(Hue,Saturation,Value)模型或HSI(Hue,Saturatson,Intensity)模型。色调H表示色彩信息,即所处的光谱颜色的位置。将RGB彩色图像转换到HSV空间。
2.人脸的检测
在HSI空间中,基于预先设定的肤色信息,粗略地检测视频画面中操作者的皮肤区域,缩小人脸的搜索范围。
采用Haar特征描述人脸,使用AdaBoost算法从大量的Haar特征中挑选出一小部分构建出强分类器。依据Haar特征的分类器的训练结果,建立一个包含人脸模型的XML文件,使用Haar目标检测算法,从视频画面中检测出操作者的脸部。
3.人脸的运动跟踪
采用均值漂移(Mean Shift)方法,基于人脸的颜色信息,跟踪操作者脸部区域的运动。
脸部区域的中心位置由y0移动到新的位置y1:
4.眼部的定位
在框出的人脸区域算出眼睛寻找区域,在此区域分别获取左眼和右眼的图像。
使用Canny算法中的卷积算子
在人脸区域检测出边缘,然后使用Hough变换检测圆,在人脸区域内部,定位出左眼和右眼。
5.眼部动作的检测
检测操作者的眼部动作,分别有左眼闭、右眼闭、眨眼等动作。如果把一个眼睛区域分成上下两个部分,当眨眼的时候上下两个部分的灰度值分布会有显著的差异。计算上下区域的平均流明强度。当上下区域的平均强度随着时间打点,可以做出不同人眼视频序列的检测结果。
6.鼠标控制
通过校准可以得到人眼注视电脑屏幕中心及四个顶点眼球中心位置的坐标,设这些坐标为中(x0,y0),上(x0,y1),下(x0,y2),左(x1,y0),右(x2,y0)。设电脑屏幕的分辨率1920×1080,则眼球中心的坐标与电脑坐标的比例系数为:
设眼部的实时坐标为(xi,yi),则实时的视场区域中心坐标(x,y)为:
(x,y)=(αi(xi-x0),βi(yi,y0))
当xi<x0时αi=α1;当xi>x0时αi=α2。当yi<y0时βi=β1;当yi>y0时βi=β2。最后对(x,y)取整。当识别失败时,无输入。此时(xi,yi)=(x0,y0)。
Claims (1)
1.一种基于人脸和眼部检测的鼠标控制方法,其特征在于,步骤为:
a)视频信号预处理
用二维零均值离散高斯函数作平滑滤波器,这种函数的表达式为:
高斯平滑滤波器在各个方向上的平滑程度是相同的,高斯滤波器用像素邻域的加权均值来代替该点的像素值,而每一邻域像素点权值是随该点与中心点的距离单调增减的;
色调H表示色彩信息,即所处的光谱颜色的位置;将RGB彩色图像转换到HSV空间;
b)人脸的检测
在HSI空间中,基于预先设定的肤色信息,粗略地检测视频画面中操作者的皮肤区域,缩小人脸的搜索范围;
采用Haar特征描述人脸,使用AdaBoost算法从大量的Haar特征中挑选出一小部分构建出强分类器;依据Haar特征的分类器的训练结果,建立一个包含人脸模型的XML文件,使用Haar目标检测算法,从视频画面中检测出操作者的脸部;
c)人脸的运动跟踪
采用均值漂移(Mean Shift)方法,基于人脸的颜色信息,跟踪操作者脸部区域的运动;
脸部区域的中心位置由y0移动到新的位置y1:
d)眼部的定位
在框出的人脸区域算出眼睛寻找区域,在此区域分别获取左眼和右眼的图像;使用Canny算法中的卷积算子在人脸区域检测出边缘,然后使用Hough变换检测圆,在人脸区域内部,定位出左眼和右眼;
e)眼部动作的检测
检测操作者的眼部动作,分别有左眼闭、右眼闭、眨眼等动作;如果把一个眼睛区域分成上下两个部分,当眨眼的时候上下两个部分的灰度值分布会有显著的差异;计算上下区域的平均流明强度;当上下区域的平均强度随着时间打点,可以做出同人眼视频序列的检测结果;
f)鼠标控制
通过校准可以得到人眼注视电脑屏幕中心及四个顶点眼球中心位置的坐标,实时跟踪人脸的运动,控制鼠标移动;根据人眼状态的检测结果,控制鼠标按键动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013101963219A CN103324284A (zh) | 2013-05-24 | 2013-05-24 | 基于人脸和眼部检测的鼠标控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013101963219A CN103324284A (zh) | 2013-05-24 | 2013-05-24 | 基于人脸和眼部检测的鼠标控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103324284A true CN103324284A (zh) | 2013-09-25 |
Family
ID=49193083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013101963219A Pending CN103324284A (zh) | 2013-05-24 | 2013-05-24 | 基于人脸和眼部检测的鼠标控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103324284A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103455805A (zh) * | 2013-09-27 | 2013-12-18 | 厦门大学 | 一种新的人脸特征描述方法 |
CN104007826A (zh) * | 2014-06-17 | 2014-08-27 | 合一网络技术(北京)有限公司 | 基于脸部动作识别技术的视频控制方法和系统 |
CN104484038A (zh) * | 2014-12-16 | 2015-04-01 | 广东欧珀移动通信有限公司 | 智能设备的控制方法及装置 |
CN104571508A (zh) * | 2014-12-29 | 2015-04-29 | 北京元心科技有限公司 | 操作移动终端显示的数据的方法 |
CN106125941A (zh) * | 2016-08-12 | 2016-11-16 | 东南大学 | 多设备切换控制装置及多设备控制系统 |
CN106780561A (zh) * | 2016-12-30 | 2017-05-31 | 南京理工大学 | 一种用于视觉跟踪的具有光照鲁棒性的色空间构建方法 |
CN107045387A (zh) * | 2017-01-19 | 2017-08-15 | 博康智能信息技术有限公司 | 基于视觉系统的移动终端操控实现方法及装置 |
CN107563346A (zh) * | 2017-09-20 | 2018-01-09 | 南京栎树交通互联科技有限公司 | 一种基于人眼图像处理实现驾驶员疲劳判别的方法 |
CN107844734A (zh) * | 2016-09-19 | 2018-03-27 | 杭州海康威视数字技术股份有限公司 | 监控目标确定方法及装置、视频监控方法及装置 |
CN108958488A (zh) * | 2018-07-20 | 2018-12-07 | 汪若海 | 一种人脸指令识别方法 |
CN110263657A (zh) * | 2019-05-24 | 2019-09-20 | 亿信科技发展有限公司 | 一种人眼追踪方法、装置、系统、设备和存储介质 |
CN110275628A (zh) * | 2019-06-26 | 2019-09-24 | 西南民族大学 | 一种基于机器视觉的机电式全自动鼠标操作装置 |
CN110837784A (zh) * | 2019-10-23 | 2020-02-25 | 中山大学 | 一种基于人体头部特征的考场偷窥作弊检测系统 |
CN113885699A (zh) * | 2021-09-03 | 2022-01-04 | 南京信息工程大学 | 一种眼标控制方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0735509A1 (en) * | 1995-03-31 | 1996-10-02 | Hitachi Europe Limited | Image processing for facial feature extraction |
-
2013
- 2013-05-24 CN CN2013101963219A patent/CN103324284A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0735509A1 (en) * | 1995-03-31 | 1996-10-02 | Hitachi Europe Limited | Image processing for facial feature extraction |
Non-Patent Citations (3)
Title |
---|
孙卓: "实时人眼跟踪与眨眼检测", 《硕士学位论文》 * |
李昆: "基于sift特征和均值漂移的目标跟踪研究", 《硕士学位论文》 * |
董秀成: "基于单目摄像头的人机交互系统研究与实现", 《硕士学位论文》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103455805A (zh) * | 2013-09-27 | 2013-12-18 | 厦门大学 | 一种新的人脸特征描述方法 |
CN103455805B (zh) * | 2013-09-27 | 2017-11-17 | 厦门大学 | 一种新的人脸特征描述方法 |
CN104007826A (zh) * | 2014-06-17 | 2014-08-27 | 合一网络技术(北京)有限公司 | 基于脸部动作识别技术的视频控制方法和系统 |
CN104484038A (zh) * | 2014-12-16 | 2015-04-01 | 广东欧珀移动通信有限公司 | 智能设备的控制方法及装置 |
CN104571508A (zh) * | 2014-12-29 | 2015-04-29 | 北京元心科技有限公司 | 操作移动终端显示的数据的方法 |
CN106125941A (zh) * | 2016-08-12 | 2016-11-16 | 东南大学 | 多设备切换控制装置及多设备控制系统 |
CN106125941B (zh) * | 2016-08-12 | 2023-03-10 | 东南大学 | 多设备切换控制装置及多设备控制系统 |
CN107844734A (zh) * | 2016-09-19 | 2018-03-27 | 杭州海康威视数字技术股份有限公司 | 监控目标确定方法及装置、视频监控方法及装置 |
CN107844734B (zh) * | 2016-09-19 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 监控目标确定方法及装置、视频监控方法及装置 |
CN106780561A (zh) * | 2016-12-30 | 2017-05-31 | 南京理工大学 | 一种用于视觉跟踪的具有光照鲁棒性的色空间构建方法 |
CN106780561B (zh) * | 2016-12-30 | 2020-04-17 | 南京理工大学 | 一种用于视觉跟踪的具有光照鲁棒性的色空间构建方法 |
CN107045387A (zh) * | 2017-01-19 | 2017-08-15 | 博康智能信息技术有限公司 | 基于视觉系统的移动终端操控实现方法及装置 |
CN107563346A (zh) * | 2017-09-20 | 2018-01-09 | 南京栎树交通互联科技有限公司 | 一种基于人眼图像处理实现驾驶员疲劳判别的方法 |
CN108958488A (zh) * | 2018-07-20 | 2018-12-07 | 汪若海 | 一种人脸指令识别方法 |
CN110263657A (zh) * | 2019-05-24 | 2019-09-20 | 亿信科技发展有限公司 | 一种人眼追踪方法、装置、系统、设备和存储介质 |
CN110263657B (zh) * | 2019-05-24 | 2023-04-18 | 亿信科技发展有限公司 | 一种人眼追踪方法、装置、系统、设备和存储介质 |
CN110275628A (zh) * | 2019-06-26 | 2019-09-24 | 西南民族大学 | 一种基于机器视觉的机电式全自动鼠标操作装置 |
CN110837784A (zh) * | 2019-10-23 | 2020-02-25 | 中山大学 | 一种基于人体头部特征的考场偷窥作弊检测系统 |
CN110837784B (zh) * | 2019-10-23 | 2023-06-20 | 中山大学 | 一种基于人体头部特征的考场偷窥作弊检测系统 |
CN113885699A (zh) * | 2021-09-03 | 2022-01-04 | 南京信息工程大学 | 一种眼标控制方法 |
CN113885699B (zh) * | 2021-09-03 | 2023-12-01 | 南京信息工程大学 | 一种眼标控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103324284A (zh) | 基于人脸和眼部检测的鼠标控制方法 | |
CN102749991B (zh) | 一种适用于人机交互的非接触式自由空间视线跟踪方法 | |
Huang et al. | Screenglint: Practical, in-situ gaze estimation on smartphones | |
Torricelli et al. | A neural-based remote eye gaze tracker under natural head motion | |
US20030169907A1 (en) | Facial image processing system | |
CN102402680A (zh) | 人机交互系统中手部、指示点定位方法和手势确定方法 | |
CN103455147B (zh) | 一种光标控制方法 | |
CN103076876A (zh) | 基于视线跟踪与语音识别的字符输入装置和方法 | |
JP2011115460A (ja) | 視線制御装置、視線制御方法、及びそのプログラム | |
CN109634407B (zh) | 一种基于多模人机传感信息同步采集与融合的控制方法 | |
Arar et al. | Towards convenient calibration for cross-ratio based gaze estimation | |
Khilari | Iris tracking and blink detection for human-computer interaction using a low resolution webcam | |
Khan et al. | A new 3D eyeball tracking system to enhance the usability of page scrolling | |
Nitschke | Image-based eye pose and reflection analysis for advanced interaction techniques and scene understanding | |
Karamchandani et al. | Development of a low-cost, portable, tablet-based eye tracking system for children with impairments | |
Parmar et al. | Facial-feature based Human-Computer Interface for disabled people | |
Parte et al. | A survey on eye tracking and detection | |
Lin et al. | Identification of eye movements from non-frontal face images for eye-controlled systems | |
Xu et al. | Real time detection of eye corners and iris center from images acquired by usual camera | |
Manresa-Yee et al. | Towards hands-free interfaces based on real-time robust facial gesture recognition | |
Pangestu et al. | Electric Wheelchair Control Mechanism Using Eye-mark Key Point Detection. | |
Cao et al. | Gaze tracking on any surface with your phone | |
Xiong et al. | Helmet-mounted eye control system for pupil recognition and position | |
Bäck | Neural network gaze tracking using web camera | |
Bilal et al. | Design a Real-Time Eye Tracker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130925 |