CN106990839B - 一种眼球识别多媒体播放器及其实现方法 - Google Patents

一种眼球识别多媒体播放器及其实现方法 Download PDF

Info

Publication number
CN106990839B
CN106990839B CN201710170304.6A CN201710170304A CN106990839B CN 106990839 B CN106990839 B CN 106990839B CN 201710170304 A CN201710170304 A CN 201710170304A CN 106990839 B CN106990839 B CN 106990839B
Authority
CN
China
Prior art keywords
image
eye
edge
iris
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710170304.6A
Other languages
English (en)
Other versions
CN106990839A (zh
Inventor
张文庆
李鉴修
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201710170304.6A priority Critical patent/CN106990839B/zh
Publication of CN106990839A publication Critical patent/CN106990839A/zh
Application granted granted Critical
Publication of CN106990839B publication Critical patent/CN106990839B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种眼球识别多媒体播放器及其实现方法,包括显示器、半透镜、摄像头,所述显示器与半透镜相结合,半透镜贴有单向透视反光薄膜,显示器通过USB接口连接摄像头,实现方法是生成能够使用的LBP正脸识别分类器和Haar左右眼识别分类器,利用LBP正脸识别分类器和Haar左右眼识别分类器来实现多媒体播放器的眼球识别功能,具有以下优点:基于人脸检测、眼球识别以及唇形识别,通过摄像头获取人体图像,利用分类器先后获得人脸、人眼位置,经过滤波处理,二值化图像,边缘检测等处理方法获得眼眶、虹膜位置信息,根据特征匹配达到动作检测的目的,进而产生动作信号由UI反馈给使用者。

Description

一种眼球识别多媒体播放器及其实现方法
技术领域
本发明涉及一种眼球识别多媒体播放器及其实现方法,属于电子技术领域。
背景技术
眼球追踪技术最热门的载体是手机,三星品牌和LG品牌都推出了搭载有眼球追踪技术的产品。比如,三星上一代旗舰机三星Galaxy SIII就可以通过检测用户眼睛状态来控制锁屏时间,只要检测到用户正盯着手机屏幕,即使用户没有进行任何操作,屏幕也不会关闭,而三星Galaxy SIII 的发布,则将这一功能进一步延伸为可通过眼球来控制页面上下滚动。
另一方面,2013年一家瑞典公司Tobii计划推出一款电脑外设设备,Rex,它可以让旧电脑也能接入眼球追踪,只要把它放置在屏幕顶部,再通过USB接口接入,用户就能利用视线来控制电脑完成像操控IE页面滚动、使用Windows8地图应用等部分操作。
除了电脑和手机,汽车也是人们最早接触到眼球追踪技术的地方,通用和丰田都已经在这方面有了不小的投入。它能实时模拟驾驶员的视野,提醒驾驶员视线盲区可能存在的危险;当驾驶员眼皮下垂(犯困)或眨眼次数减少(走神)等,它还会发出声音提醒。
虽然眼睛动作识别已经开始商用,但是可以发现眼睛动作应用都停留在基础,没有更深入的挖掘眼部信息。
视觉跟踪技术自1986 年开始立项研究,目前国内的相关理论和技术也有了长足的发展,中国科学院、浙江大学、武汉大学等高校和研究所在目标跟踪、运动行人的检测识别方面取得了一定的成果。但是在眼球追踪这方面也仅仅局限于眼睛检测,未对眼球动作识别方面做出具有价值的讨论。
虽然利用虹膜识别的方法实现眼球追踪技术已经较为成熟,但准确率不高,速度较慢。利用已有的LBP算法进行PCA特征降维、SVM分类识别,虽然速度较快但准确度欠缺,然而利用Haar算法实现Haar-like特征、AdaBoost算法精确度高但速度较慢。
发明内容
本发明要解决的技术问题是提供一种提高准确度的计量方法,实现基于人脸检测、眼球识别以及唇形识别,通过摄像头获取人体图像,利用分类器先后获得人脸、人眼位置,经过滤波处理,二值化图像,边缘检测等处理方法获得眼眶、虹膜位置信息,根据特征匹配达到动作检测的目的,进而产生动作信号由UI反馈给使用者的发明目的。
为解决以上问题,本发明采用以下技术方案:一种眼球识别多媒体播放器,包括显示器、半透镜、摄像头,所述显示器与半透镜相结合,采用木质结构固定半透镜紧贴在显示器前方,半透镜贴有单向透视反光薄膜,显示器通过USB接口连接摄像头。
一种眼球识别多媒体播放器的实现方法,所述实现方法是利用开源的人脸、人眼库,运用LBP算法、Haar算法进行机器学习,生成能够使用的LBP正脸识别分类器和Haar左右眼识别分类器,利用LBP正脸识别分类器和Haar左右眼识别分类器来实现多媒体播放器的眼球识别功能。
进一步,所述实现方法包括以下步骤:
步骤S2,输入由摄像头获得的分辨率600*800的RGB人脸图像;
步骤S3,计算输入图像的灰度图,将输入的RGB图像转换为灰度图像,提取输入图像矩阵中的绿色通道像素信息作为灰度图像GrayImg的初始值;
步骤S4,检测灰度图像宽度为320,灰度图像的放缩比例为800/灰度图像宽度, 灰度图像高度为600/灰度图像的放缩比例,将灰度图像GrayImg按比例进行缩放,缩放后的灰度图像的分辨率为240*320;
步骤S5,将灰度图像GrayImg进行直方图均匀化处理,获得预处理的人脸图像Preprocessed Image,需要对图像进行双边滤波。
进一步,所述实现方法还包括以下步骤:
步骤S6,设置检测参数:最小特征尺度minfeatureSize=Size(30,30)、检测范围因子searchScaleFactor=1.1f、最小临近因子minneighbors=4、检测方式标识位fiag=CASCADE_FIND_BIGGEST_OBJECT︱CASCADE_DO_ROUGH_SEARCH,使得检测检测结果为所检测到目标中最大的;加载提前训练好的LBP人脸检测器,在预处理过后的图像中获取到目标人脸Target Face的位置信息(x,y,width,height);
步骤S8,对目标人脸Target Face按照计算比例进行坐标逆向变换,计算变化过后的x、y坐标及width、height,在原始图中将人脸图像储存在新的内存区域中;
步骤S9,根据坐标变换后得到的目标人脸信息Target Face,在原输入图像中提取人脸信息储存为人脸图像Face Image。
进一步,所述实现方法还包括以下步骤:
步骤S10,提取输入图像矩阵中的绿色通道像素信息作为人脸图像Face Image的灰度图像初始值,将人脸图像Face Image的灰度图像进行直方图均匀化处理,计算人脸图像Face Image的灰度图获得预处理的人脸图像preprocessed Face;
步骤S11,初始化参数EYE_SX = 0.16;EYE_SY = 0.26;EYE_SW = 0.30;EYE_SH =0.28,即初始化人眼位置估计比例:X、Y坐标、宽度、高度,在预处理的人脸图像preprocessed Face计算人眼位置:X、Y坐标、宽度、高度leftx、topy、widthx、heighty、rightx,从预处理的人脸图像preprocessed Face中提取左眼和右眼的预估计图像;
步骤S12,利用训练好的Haar人眼检测器分别对左眼和右眼中预估图像来检测右眼和左眼,得到人眼具体的位置大小信息。
进一步,所述实现方法还包括以下步骤:
步骤S14,初始化LXmoveLen、LYmoveLen、RXmoveLen、RYmoveLen,即初始化人眼位置修正尺度:左右眼X、Y坐标移动尺度,对步骤S11中变换后的坐标进行逆向变换,计算左眼、右眼在原图中的x、y坐标和宽度、高度;
步骤S15,根据步骤S14所得信息在原图中获取准确的左眼、右眼的图像,对左眼、右眼图像进行缩放成80*100像素图像;
步骤S16,对左眼、右眼的图像进行双边滤波并转化为灰度图像,并用Canny算子对灰度图进行边缘检测,完成后进入步骤S17。
进一步,所述实现方法还包括以下步骤:
步骤S17,初始化眼眶边缘itc1,使眼眶边缘itc1成为眼眶边缘集合中的第一个边缘,眼眶边缘集合是由眼眶边缘线上的点的坐标组成的集合;
步骤S18,对眼眶边缘itc1进行矩形拟合,得到能够包含边缘信息的最小矩阵,得到矩阵的x,y坐标和width,height信息;
步骤S19,计算出拟合最小矩阵的中心坐标,判断矩形是否满足眼眶的预估计位置,若是满足则将眼眶边缘itc1添加到Eye Edge集合。
进一步,所述实现方法还包括以下步骤:
步骤S21,判断眼眶边缘itc1是否为眼眶边缘集合中最后一条未检测的边缘;
步骤S22,赋值眼眶边缘itc1,令眼眶边缘itc1=眼眶边缘集合中下一条未检测眼眶边缘;
步骤S23, 判断Eye Edge集合是否为空;
步骤S24,对Eye Edge集合拟合最小矩形得到矩形眼眶信息rect;
步骤S25,对左眼、右眼的图像进行双边滤波并转化为灰度图像,设置阀值为24,即即threshold(24,THRESH_BINARY),对图像双边滤波转化过来的灰度图进行二值化运算,设置算子大小为(9,9)对二值化运算之后得到的图像进行形态学闭运算,设置阀值为1对形态学闭运算之后的图像进行二值化运算,进行边缘检测。
进一步,所述实现方法还包括以下步骤:
步骤S26,初始化虹膜边缘itc2,使得虹膜边缘itc2为虹膜边缘集合中的第一个边缘,虹膜边缘集合是由虹膜边缘线上的点的坐标组成的集合;
步骤S27,对虹膜边缘itc2进行圆形拟合,得到能够包含边缘信息的最小圆形,得到圆形的圆心、半径信息;
步骤S28,检测圆形圆心半径是否符合人眼虹膜;
步骤S29,将圆形的圆心和半径添加到List集合,List是自定义的一个列表,专门用来存储圆心和半径。
进一步,所述实现方法还包括以下步骤:
步骤S30,判断虹膜边缘itc2是否为虹膜边缘集合中最后一条未检测边缘;
步骤S31,赋值虹膜边缘itc2,使得虹膜边缘itc2等于虹膜边缘集合中下一条未检测虹膜边缘;
步骤S32,判断列表list是否为空;
步骤S33,从列表list中过滤出最大的虹膜半径及对应的圆心,得到虹膜半径、虹膜中心;
步骤S34,输出眼眶、虹膜半径、虹膜中心;
步骤S35,进行动作匹配、错误信息过滤、误操作过滤;
步骤S36,输出动作信号,完成后进入UI界面。
本发明采用以上技术方案,与现有技术性比,具有以下优点:。
本作品根据特征匹配达到动作检测的目的,进而产生动作信号由UI反馈给使用者。
通过眼球控制,增加控制动作信息,使得UI操作更加丰富。综合利用多种图像处理方法,以及快速动作匹配,使得程序的实时性、准确性大幅度提高。使用可见光摄像头采集人体图像,运用图像识别算法,实现虹膜位置提取,眼皮张合位置信息。将眼球特征信息组成的动作信息进行动态特征匹配,产生信号,在UI界面进行反馈。调节程序整体的高效、准确性、实时性,保证使用者的使用体验。
较于市面上其他产品,取消了红外补光措施,虽然给图像处理部分增加了部分难度,但是去除了红外光长时间照射带来的诸多不良因素。
相比较于现有技术,本作品具备虹膜坐标识别提取准确率达到90%、控制距离达到2米、安全、操作简单等优点。
附图说明
附图1是本发明实施例中多媒体播放器结构的概念图;
附图2是本发明实施例中多媒体播放器程序的运行流程简图;
附图3是本发明实施例中LBP算子基本原理图;
附图4是本发明实施例中LBP算子基本原理图;
附图5是本发明实施例中Haar-like特征描述图;
附图6是本发明实施例中检测虹膜和眼眶的主要操作步骤的流程图;
附图7是本发明实施例中播放器的实现方法流程图。
具体实施方式
实施例,如图1至图7所示,一种眼球识别多媒体播放器,包括显示器与半透镜,将显示器与半透镜相结合,显示器采用一般普通的电脑显示屏,若需要将设备安装在不同环境,则根据不同情况使用不同大小的显示屏。在显示器前方紧贴一面单向透视反光薄膜的半透镜,并采用木质结构固定,封装成一个较为成型的实用模型。也可采用市面上的原子镜,对其进行改装,也可以完成本发明硬件部分的设计。
当显示器工作的时候,可以透过半透镜看到屏幕显示的内容;当显示器没有工作或者未安装屏幕的区域,该播放器可以充当镜子使用。所述播放器还包括OV2710摄像头,显示器通过USB接口连接OV2710摄像头,显示器通过与其连接的OV2710摄像头实时获取画面,通过USB接口传给软件主控端进行处理。
基于Haar特征的Adaboost人脸检测:人脸可以看做是各种器官特征的组合,从而可以根据鼻子,眼镜,嘴巴,眉毛等器官的特征以及相互之间的几何位置关系来检测人脸。基于统计的方法,将人脸看作是一个整体的模式—二维像素矩阵,从统计的观点通过大量图像样本,根据相似度来判断人脸是否存在。
LBP算子:一种用来描述图像局部纹理特征的算子;它具有旋转不变性和灰度不变性等显著的优点。它是首先由T. Ojala, M.Pietikäinen, 和D. Harwood 在1994年提出,用于纹理特征提取。LBP算子在每个像素点都可以得到一个LBP“编码”,那么,对一幅图像(记录的是每个像素点的灰度值)提取其原始的LBP算子之后,得到的原始LBP特征依然是“一幅图片”(记录的是每个像素点的LBP值)。LBP的应用中,如纹理分类、人脸分析等,一般都不将LBP图谱作为特征向量用于分类识别,而是采用LBP特征谱的统计直方图作为特征向量用于分类识别。
所述播放器的实现方法软件端前期准备工作,利用开源的人脸、人眼库,运用LBP、Haar算法进行机器学习,生成能够使用的正脸识别分类器和左右眼识别分类器,能够在软件运行时进行调用。LBP算法具有极佳的速度,但是准确性没有Haar算子优良,但是Haar算子速度较慢,对于实时性要求较高的项目来说,并不适合,因此本发明结合了两种算子,对于准确性要求不高的人脸检测采用LBP算法,而后对于需要精确位置坐标的人眼检测,采用了准确度较高的Haar算子。此方案对于本发明实时采集数据进行运算具有重要的优化作用。
OpenCV作为领域较为成熟的一个图像处理函数库,对于训练用于人脸和人眼检测的分类器有比较成熟。训练需要准备足够的人脸和人眼样本,在开源网站上都能找到,综合对比各方面因素,选用了ORL数据库对于初始化测试比较适合,但它是一个简单的数据库,特征脸已经可以达到97%的识别率,所以使用其他方法很难得到更好的提升。Yale人脸数据库是一个对于初始实验更好的数据库,因为识别问题更复杂。这个数据库包括15个人(14个男性,1个女性),每一个都有11个灰度图像,大小是320*243像素。数据库中有光照变化(中心光照、左侧光照、右侧光照)、表情变化(开心、正常、悲伤、瞌睡、惊讶、眨眼)、眼镜(戴眼镜或者没戴)。
利用获取到的正负样本和OpenCV开源的训练器进行训练,将得到的LBP人脸检测和Haar人眼检测器用于接下来的具体实施。
所述多媒体播放器包括UI反馈模块、摄像头获取图像信息模块、图像处理模块,摄像头获取图像信息模块获取了图像信息后进入图像处理模块,图像处理模块处理完图像后进入UI反馈模块。
所述播放器的实现方法包括以下模块步骤:
第一模块步骤:摄像头输入图像模块;
第二模块步骤:预处理模块,摄像头输入图像模块处理完后进入预处理模块;
第三模块步骤:人脸检测模块,预处理模块处理完成后进入人脸检测模块;
第四模块步骤:动作信号模块,人脸检测模块检测完成后进入动作信号模块;
第五模块步骤:提取虹膜眼眶位置信息模块,动作信号模块处理完成后进入提取虹膜眼眶位置信息模块;
第六模块步骤:人眼检测模块,提取虹膜眼眶位置信息模块处理完成后进入人眼检测模块;
第七模块步骤:排出误操作模块,人眼检测模块检测完成后进入排出误操作模块;
第八模块步骤:功能信号模块,排出误操作模块完成后进入功能信号模块;
第九模块步骤:UI反馈模块,功能信号模块完成后进入UI反馈模块。
所述播放器的实现方法包括以下具体步骤:
步骤S1,程序开始运行,完成后进入步骤S2;
步骤S2,输入由摄像头获得的分辨率600*800的RGB人脸图像,完成后进入步骤S3;
步骤S3,计算输入图像的灰度图,将输入的RGB图像转换为灰度图像,提取输入图像矩阵中的绿色通道像素信息作为灰度图像GrayImg的初始值,完成后进入步骤S4;
步骤S4,检测灰度图像宽度为320,灰度图像的放缩比例为800/灰度图像宽度, 灰度图像高度为600/灰度图像的放缩比例,将灰度图像GrayImg按比例进行缩放,缩放后的灰度图像的分辨率为240*320;由于人脸检测很耗时间,所以需要尽可能缩小原始图像,但是有需要保证检测的质量,如果图像太小,像素信息丢失过多,无法得到预期结果。经过多次测试验证,240*320比例左右的图像具有较好的测试质量,完成后进入步骤S5;
步骤S5,将灰度图像GrayImg进行直方图均匀化处理,获得预处理的人脸图像Preprocessed Image,需要对图像进行双边滤波,过滤掉图像中的噪点,减少杂质对于接下来检测的干扰,对于图像进行直方图归一化,保证个像素点的像素值能够落在0~255值域范围内,并进行归一化处理,以减少光线对于参数设置的影响,否则由于环境光线的多样化,图像的像素值将会落在不同的值域内,对于接下来的处理将会带来许多不便的影响,归一化将更利于对像素值进行统一处理,完成后进入步骤S6;
步骤S6,为了让人脸检测效率达到最大值,设置检测参数:最小特征尺度minfeatureSize=Size(30,30)、检测范围因子searchScaleFactor=1.1f、最小临近因子minneighbors=4、检测方式标识位fiag= CASCADE_FIND_BIGGEST_OBJECT | CASCADE_DO_ROUGH_SEARCH,使得检测检测结果为所检测到目标中最大的;加载提前训练好的LBP人脸检测器,在预处理过后的图像中获取到目标人脸Target Face的位置信息(x,y,width,height),完成后进入步骤S7;
步骤S7,判断是否检测到目标人脸Target Face,若是则进入步骤S8,否则返回执行步骤S2;
步骤S8,对目标人脸Target Face按照计算比例进行坐标逆向变换,防止坐标溢出超过范围,需要对坐标进行值域限制,计算变化过后的x、y坐标及width、height,在原始图中将人脸图像储存在新的内存区域中,完成后进入步骤S9;
步骤S9,根据坐标变换后得到的目标人脸信息Target Face,在原输入图像中提取人脸信息储存为人脸图像Face Image,完成后进入步骤S10;
步骤S10,提取输入图像矩阵中的绿色通道像素信息作为人脸图像Face Image的灰度图像初始值,将人脸图像Face Image的灰度图像进行直方图均匀化处理,计算人脸图像Face Image的灰度图获得预处理的人脸图像preprocessed Face,完成后进入步骤S11;
步骤S11,初始化参数EYE_SX = 0.16;EYE_SY = 0.26;EYE_SW = 0.30;EYE_SH =0.28,即初始化人眼位置估计比例:X、Y坐标、宽度、高度,在预处理的人脸图像preprocessed Face计算人眼位置:X、Y坐标、宽度、高度leftx、topy、widthx、heighty、rightx,从预处理的人脸图像preprocessed Face中提取左眼和右眼的预估计图像,为了提高程序人眼检测效率,根据普通人的人眼在脸上的位置,预估计左右眼出现的位置范围,提取粗略的左右眼图像,减少检测数据量,极大提高检测效率,完成后进入步骤S12;
步骤S12,利用训练好的Haar人眼检测器分别对左眼和右眼中预估图像来检测右眼和左眼,得到人眼具体的位置大小信息,完成后进入步骤S13;
步骤S13,左眼和右眼是否被检测出来,若是则进入步骤S14,否则返回执行步骤S2;
步骤S14,初始化LXmoveLen、LYmoveLen、RXmoveLen、RYmoveLen,即初始化人眼位置修正尺度:左右眼X、Y坐标移动尺度,对步骤S11中变换后的坐标进行逆向变换,计算左眼、右眼在原图中的x、y坐标和宽度、高度,由于将原始图像进行了放缩,人眼在240*320像素的图像中已经远低于检测效率的最高值,因此,需要进行坐标变换,完成后进入步骤S15;
步骤S15,根据步骤S14所得信息在原图中获取准确的左眼、右眼的图像,对左眼、右眼图像进行缩放成80*100像素图像,完成后进入步骤S16;
步骤S16,对左眼、右眼的图像进行双边滤波并转化为灰度图像,并用Canny算子对灰度图进行边缘检测,完成后进入步骤S17;
步骤S17,初始化眼眶边缘itc1,使眼眶边缘itc1成为眼眶边缘集合中的第一个边缘,眼眶边缘集合是由眼眶边缘线上的点的坐标组成的集合,完成后进入步骤S18;
步骤S18,对眼眶边缘itc1进行矩形拟合,得到能够包含边缘信息的最小矩阵,得到矩阵的x,y坐标和width,height信息,完成后进入步骤S19;
步骤S19,计算出拟合最小矩阵的中心坐标,判断矩形是否满足眼眶的预估计位置,若是满足则进入步骤S20,否则进入步骤S21;
步骤S20,将眼眶边缘itc1添加到Eye Edge集合,完成后进入步骤S21;
步骤S21,判断眼眶边缘itc1是否为眼眶边缘集合中最后一条未检测的边缘,若是则进入步骤S23,否则进入步骤S22;
步骤S22,赋值眼眶边缘itc1,令眼眶边缘itc1=眼眶边缘集合中下一条未检测眼眶边缘,完成进入步骤S18;
步骤S23, 判断Eye Edge集合是否为空,若是则返回执行步骤S2,否则进入步骤S24;
步骤S24,对Eye Edge集合拟合最小矩形得到矩形眼眶信息rect,完成后进入步骤S25;
步骤S25,对左眼、右眼的图像进行双边滤波并转化为灰度图像,设置阀值为24,即即threshold(24,THRESH_BINARY),对图像双边滤波转化过来的灰度图进行二值化运算,设置算子大小为(9,9)对二值化运算之后得到的图像进行形态学闭运算,设置阀值为1对形态学闭运算之后的图像进行二值化运算,进行边缘检测,完成后进入步骤S26;
步骤S26,初始化虹膜边缘itc2,使得虹膜边缘itc2为虹膜边缘集合中的第一个边缘,虹膜边缘集合是由虹膜边缘线上的点的坐标组成的集合,完成后进入步骤S27;
步骤S27,对虹膜边缘itc2进行圆形拟合,得到能够包含边缘信息的最小圆形,得到圆形的圆心、半径信息,完成后进入步骤S28;
步骤S28,检测圆形圆心半径是否符合人眼虹膜,若是符合则进入步骤S29,否则进入步骤S30;
步骤S29,将圆形的圆心和半径添加到List集合,List是自定义的一个列表,专门用来存储圆心和半径,完成后进入步骤S30;
步骤S30,判断虹膜边缘itc2是否为虹膜边缘集合中最后一条未检测边缘,若是则进入步骤S32,否则进入步骤S31;
步骤S31,赋值虹膜边缘itc2,使得虹膜边缘itc2等于虹膜边缘集合中下一条未检测虹膜边缘 ,完成进入步骤S27;
步骤S32,判断列表list是否为空,若是则返回执行步骤S2,否则进入步骤S33;
步骤S33,从列表list中过滤出最大的虹膜半径及对应的圆心,得到虹膜半径、虹膜中心,完成后进入步骤S34;
步骤S34,输出眼眶、虹膜半径、虹膜中心,完成后进入步骤S35;
步骤S35,检测之后,将得到的虹膜和眼眶的位置大小信息传给程序进行接下来的处理,即动作匹配、错误信息过滤、误操作过滤,完成后进入步骤S36;
进行动作匹配:
进行动作匹配,将人眼图像区域按照数字九键,将2定义为上,5、8定义为中,1、4、7定义为左,3、6、9定义为右,如此按照一定比例将整个图像分为四个区域,根据虹膜圆心位置确定不同的人眼动作;
根据人眼眼眶的距离来判断是否眨眼,当距离小于一定的阈值,则判定为眨眼一次,为了防止出现误操作,将三帧画面信息中出现至少两次眨眼的情况,视为一次眨眼信号;
进行错误信息过滤:
对于得到的虹膜和眼眶的位置大小信息进行分析,若超出正常的情况,则认定为检测出错,并舍弃当前帧的信息,根据虹膜的半径检测大小反馈控制虹膜检测时设置的阈值,以达到自主调节控制优化光线带来的误差;
进行误操作过滤:
当人眼虹膜处于不同位置并且眨眼过后,视为触发第一次动作信号,在接下来的0.5s中,任何信号都视为无效信号,0.5s过后的2s内需要触发第二次相同的动作信号,成功触发则视为一次动作,否则判定为误操作,并舍弃目前储存的第一次信号;
步骤S36,输出动作信号,完成后进入UI界面,本发明的UI界面分为功能区域和调试区域,功能区域具有实时定位、天气预报、视频音乐播放、网页新闻浏览的功能,调试区域可以看到用户的人眼图像,各类位置坐标信息,以及触发的信号记录。
用户可以通过人眼不同的动作进行操作,当人眼向左/右/上/中间看时,眨眼可以分别触发光标左/右移、取消、确定等功能信号。程序根据不同的功能信号在UI上面反映出不同的操作,
最终实现的操作流程如下:没有用户时,多媒体镜子上显示当前时间,识别到有人进入目标范围内时,显示欢迎界面,并打开地图定位和天气预报功能。用户通过眨眼进入菜单,左右眨眼移动光标,眨眼确定,选定不同的功能使用,眼睛向上看返回。当人离开后,页面重新回到时间显示页面。
实时定位和天气预报调用了高德API接口获取数据,并在Qt设计界面上用WebView展现给用户。视频音乐播放和网页浏览采用Qt软件开发库中的multimedia widgets和webkit widgets实现。
综合利用Haar、LBP算法的优点,高效率实现人脸识别、人眼识别。通过多种原创图像处理方法获取虹膜、眼眶信息,进行动态的人眼动作匹配。通过分析机器检测结果,可进行负反馈,自主学习调节识别算法参数,优化光线带来的误差。在光线不佳的情况下,自主进行物理补光。提供PC主控端程序,可在设备安装后,远距离进行信息更新。内置视频、音乐、网页等多种媒体传播方式,增加了作品的应用价值。为特殊人群和多种应用场合提供了释放双手的交互方式,为残疾人提供了更为便利的操控方式,并为了理发店镜面提供了合理的利用方式,极大地增加了理发店的商业利用价值。
从而给用户提供一种新型的智能交互设备,可应用于多种场合给人们提供更加丰富的生活。
以上所述为本发明最佳实施方式的举例,其中未详细述及的部分均为本领域普通技术人员的公知常识。本发明的保护范围以权利要求的内容为准,任何基于本发明的技术启示而进行的等效变换,也在本发明的保护范围之内。

Claims (1)

1.一种眼球识别多媒体播放器的实现方法,其特征在于:所述眼球识别多媒体播放器,包括显示器、半透镜、摄像头,所述显示器与半透镜相结合,采用木质结构固定半透镜紧贴在显示器前方,半透镜贴有单向透视反光薄膜,显示器通过USB接口连接摄像头;
所述实现方法是利用开源的人脸、人眼库,运用LBP算法、Haar算法进行机器学习,生成能够使用的LBP正脸识别分类器和Haar左右眼识别分类器,利用LBP正脸识别分类器和Haar左右眼识别分类器来实现多媒体播放器的眼球识别功能;
所述播放器的实现方法包括以下具体步骤:
步骤S2,输入由摄像头获得的分辨率600*800的RGB人脸图像;
步骤S3,计算输入图像的灰度图,将输入的RGB图像转换为灰度图像,提取输入图像矩阵中的绿色通道像素信息作为灰度图像GrayImg的初始值;
步骤S4,检测灰度图像宽度为320,灰度图像的放缩比例为800/灰度图像宽度, 灰度图像高度为600/灰度图像的放缩比例,将灰度图像GrayImg按比例进行缩放,缩放后的灰度图像的分辨率为240*320;
步骤S5,将灰度图像GrayImg进行直方图均匀化处理,获得预处理的人脸图像Preprocessed Image,需要对图像进行双边滤波;
步骤S6,设置检测参数:最小特征尺度minfeatureSize=Size(30,30)、检测范围因子searchScaleFactor=1.1f、最小临近因子minneighbors=4、检测方式标识位fiag=CASCADE_FIND_BIGGEST_OBJECT︱CASCADE_DO_ROUGH_SEARCH,使得检测结果为所检测到目标中最大的;加载提前训练好的LBP人脸检测器,步骤S2-S5预处理过后的图像中获取到目标人脸Target Face的位置信息(x,y,width,height);
步骤S8,对目标人脸Target Face按照计算比例进行坐标逆向变换,计算变化过后的x、y坐标及width、height,在原始图中将人脸图像储存在新的内存区域中;
步骤S9,根据坐标变换后得到的目标人脸信息Target Face,在原输入图像中提取人脸信息储存为人脸图像Face Image;
步骤S10,提取输入图像矩阵中的绿色通道像素信息作为人脸图像Face Image的灰度图像初始值,将人脸图像Face Image的灰度图像进行直方图均匀化处理,计算人脸图像Face Image的灰度图获得预处理的人脸图像preprocessed Face;
步骤S11,初始化参数EYE_SX = 0.16;EYE_SY = 0.26;EYE_SW = 0.30;EYE_SH =0.28,即初始化人眼位置估计比例:X、Y坐标、宽度、高度,在预处理的人脸图像preprocessed Face计算人眼位置:X、Y坐标、宽度、高度、leftx、topy、widthx、heighty、rightx,从预处理的人脸图像preprocessed Face中提取左眼和右眼的预估计图像;
步骤S12,利用训练好的Haar人眼检测器分别对左眼和右眼中预估图像来检测右眼和左眼,得到人眼具体的位置大小信息;
步骤S14,初始化LXmoveLen、LYmoveLen、RXmoveLen、RYmoveLen,即初始化人眼位置修正尺度:左右眼X、Y坐标移动尺度,对步骤S11中变换后的坐标进行逆向变换,计算左眼、右眼在原图中的x、y坐标和宽度、高度;
步骤S15,根据步骤S14所得信息在原图中获取准确的左眼、右眼的图像,对左眼、右眼图像进行缩放成80*100像素图像;
步骤S16,对左眼、右眼的图像进行双边滤波并转化为灰度图像,并用Canny算子对灰度图进行边缘检测;
步骤S17,初始化眼眶边缘itc1,使眼眶边缘itc1成为眼眶边缘集合中的第一个边缘,眼眶边缘集合是由眼眶边缘线上的点的坐标组成的集合;
步骤S18,对眼眶边缘itc1进行矩形拟合,得到能够包含边缘信息的最小矩阵,得到矩阵的x,y坐标和width,height信息;
步骤S19,计算出拟合最小矩阵的中心坐标,判断矩形是否满足眼眶的预估计位置,若是满足则将眼眶边缘itc1添加到Eye Edge集合;
步骤S20,将眼眶边缘itc1添加到Eye Edge集合;
步骤S21,判断眼眶边缘itc1是否为眼眶边缘集合中最后一条未检测的边缘;
步骤S22,赋值眼眶边缘itc1,令眼眶边缘itc1=眼眶边缘集合中下一条未检测眼眶边缘;
步骤S23, 判断Eye Edge集合是否为空;
步骤S24,对Eye Edge集合拟合最小矩形得到矩形眼眶信息rect;
步骤S25,对左眼、右眼的图像进行双边滤波并转化为灰度图像,设置阀值为24,即threshold(24,THRESH_BINARY),对图像双边滤波转化过来的灰度图进行二值化运算,设置算子大小为(9,9)对二值化运算之后得到的图像进行形态学闭运算,设置阀值为1对形态学闭运算之后的图像进行二值化运算,进行边缘检测;
步骤S26,初始化虹膜边缘itc2,使得虹膜边缘itc2为虹膜边缘集合中的第一个边缘,虹膜边缘集合是由虹膜边缘线上的点的坐标组成的集合;
步骤S27,对虹膜边缘itc2进行圆形拟合,得到能够包含边缘信息的最小圆形,得到圆形的圆心、半径信息;
步骤S28,检测圆形圆心半径是否符合人眼虹膜;
步骤S29,将圆形的圆心和半径添加到List集合,List是自定义的一个列表,专门用来存储圆心和半径;
步骤S30,判断虹膜边缘itc2是否为虹膜边缘集合中最后一条未检测边缘;
步骤S31,赋值虹膜边缘itc2,使得虹膜边缘itc2等于虹膜边缘集合中下一条未检测虹膜边缘;
步骤S32,判断列表list是否为空;
步骤S33,从列表list中过滤出最大的虹膜半径及对应的圆心,得到虹膜半径、虹膜中心;
步骤S34,输出眼眶、虹膜半径、虹膜中心;
步骤S35,进行动作匹配、错误信息过滤、误操作过滤;
步骤S36,输出动作信号,完成后进入UI界面。
CN201710170304.6A 2017-03-21 2017-03-21 一种眼球识别多媒体播放器及其实现方法 Active CN106990839B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710170304.6A CN106990839B (zh) 2017-03-21 2017-03-21 一种眼球识别多媒体播放器及其实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710170304.6A CN106990839B (zh) 2017-03-21 2017-03-21 一种眼球识别多媒体播放器及其实现方法

Publications (2)

Publication Number Publication Date
CN106990839A CN106990839A (zh) 2017-07-28
CN106990839B true CN106990839B (zh) 2020-06-05

Family

ID=59413286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710170304.6A Active CN106990839B (zh) 2017-03-21 2017-03-21 一种眼球识别多媒体播放器及其实现方法

Country Status (1)

Country Link
CN (1) CN106990839B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399009A (zh) * 2018-02-11 2018-08-14 易视腾科技股份有限公司 利用人机交互手势唤醒智能设备的方法及装置
CN109142393A (zh) * 2018-09-03 2019-01-04 佛亚智能装备(苏州)有限公司 一种缺陷分类方法、装置及系统
CN109803450A (zh) * 2018-12-12 2019-05-24 平安科技(深圳)有限公司 无线设备与电脑连接方法、电子装置及存储介质
CN109725721B (zh) * 2018-12-29 2022-03-11 上海易维视科技股份有限公司 用于裸眼3d显示系统的人眼定位方法及系统
CN112825115A (zh) * 2019-11-20 2021-05-21 北京眼神智能科技有限公司 基于单目图像的眼镜检测方法、装置、存储介质及设备
CN111738989B (zh) * 2020-06-02 2023-10-24 北京全域医疗技术集团有限公司 一种器官勾画方法及装置
CN113780034A (zh) * 2020-06-09 2021-12-10 上海聚虹光电科技有限公司 基于虹膜识别的眼部追焦方法
CN114889526B (zh) * 2022-04-13 2024-05-07 广州优创电子有限公司 一种内置左右显示屏的车载智能电子外后视镜

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013168173A1 (en) * 2012-05-11 2013-11-14 Umoove Services Ltd. Gaze-based automatic scrolling
CN105677024A (zh) * 2015-12-31 2016-06-15 北京元心科技有限公司 一种眼动检测跟踪方法、装置及其用途
CN106020461A (zh) * 2016-05-13 2016-10-12 陈盛胜 基于眼球追踪技术的视频交互方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2643569Y (zh) * 2003-09-17 2004-09-22 何修明 移动电话的构造
CN100452081C (zh) * 2007-06-01 2009-01-14 华南理工大学 一种人眼定位及人眼状态识别方法
US10282563B2 (en) * 2009-02-06 2019-05-07 Tobii Ab Video-based privacy supporting system
CN101813976A (zh) * 2010-03-09 2010-08-25 华南理工大学 基于soc的视线跟踪人机交互方法及装置
US9766698B2 (en) * 2011-05-05 2017-09-19 Nokia Technologies Oy Methods and apparatuses for defining the active channel in a stereoscopic view by using eye tracking
CN102662470B (zh) * 2012-04-01 2016-02-10 西华大学 一种实现眼部操作的方法及系统
CN103268479A (zh) * 2013-05-29 2013-08-28 电子科技大学 全天候疲劳驾驶检测方法
CN103425970A (zh) * 2013-08-29 2013-12-04 大连理工大学 一种基于头部姿态的人机交互方法
JP6329635B2 (ja) * 2014-02-25 2018-05-23 アイベリファイ インコーポレイテッド 視線追跡
CN104123543B (zh) * 2014-07-23 2018-11-27 泰亿格电子(上海)有限公司 一种基于人脸识别的眼球运动识别方法
CN105141938B (zh) * 2015-08-18 2017-12-01 深圳先进技术研究院 视线定位装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013168173A1 (en) * 2012-05-11 2013-11-14 Umoove Services Ltd. Gaze-based automatic scrolling
CN105677024A (zh) * 2015-12-31 2016-06-15 北京元心科技有限公司 一种眼动检测跟踪方法、装置及其用途
CN106020461A (zh) * 2016-05-13 2016-10-12 陈盛胜 基于眼球追踪技术的视频交互方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Analysis of Eye-tracking Experiments Perfomed on a Tobii T60";C.Weigle;《Electronic Imaging》;20080430;全文 *
"Verification of an Experimental Platform Integrating a Tobii Eyetracking System with the HiFi Game Engine";C.Sennersten;《Technical Report》;20070430;全文 *

Also Published As

Publication number Publication date
CN106990839A (zh) 2017-07-28

Similar Documents

Publication Publication Date Title
CN106990839B (zh) 一种眼球识别多媒体播放器及其实现方法
US10924676B2 (en) Real-time visual effects for a live camera view
JP6997309B2 (ja) 深層ニューラルネットワークを用いた画像処理システム及び処理方法
US10354362B2 (en) Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network
US9131150B1 (en) Automatic exposure control and illumination for head tracking
US9224060B1 (en) Object tracking using depth information
WO2020078017A1 (zh) 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
CN107209849B (zh) 眼睛跟踪
Crowley et al. Vision for man machine interaction
CA2774974C (en) Real time hand tracking, pose classification, and interface control
US20110304541A1 (en) Method and system for detecting gestures
WO2021196389A1 (zh) 面部动作单元识别方法、装置、电子设备及存储介质
US20220237812A1 (en) Item display method, apparatus, and device, and storage medium
US9436870B1 (en) Automatic camera selection for head tracking using exposure control
WO2021047587A1 (zh) 手势识别方法、电子设备、计算机可读存储介质和芯片
CN108197534A (zh) 一种人头部姿态检测方法、电子设备及存储介质
CN111898407A (zh) 一种基于人脸动作识别的人机交互操作系统
Li et al. Treat samples differently: Object tracking with semi-supervised online covboost
CN114821753B (zh) 一种基于视觉图像信息的眼动交互系统
Sharma et al. Air-swipe gesture recognition using OpenCV in Android devices
CN112965602A (zh) 一种基于手势的人机交互方法及设备
Vidhate et al. Virtual paint application by hand gesture recognition system
Abdallah et al. An overview of gesture recognition
CN115951783A (zh) 一种基于手势识别的计算机人机交互方法
Zhou Eye-Blink Detection under Low-Light Conditions Based on Zero-DCE

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant