CN105589551A - 一种用于移动设备人机交互的眼动跟踪方法 - Google Patents

一种用于移动设备人机交互的眼动跟踪方法 Download PDF

Info

Publication number
CN105589551A
CN105589551A CN201410567233.XA CN201410567233A CN105589551A CN 105589551 A CN105589551 A CN 105589551A CN 201410567233 A CN201410567233 A CN 201410567233A CN 105589551 A CN105589551 A CN 105589551A
Authority
CN
China
Prior art keywords
eye
pupil
eye movement
interactive application
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410567233.XA
Other languages
English (en)
Inventor
褚秀清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201410567233.XA priority Critical patent/CN105589551A/zh
Publication of CN105589551A publication Critical patent/CN105589551A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

一种用于移动设备人机交互的眼动跟踪方法,该系统舒适度适中,并具有较高精度和鲁棒性、较高可行性和有效性。包括眼动图像处理层、眼动特征检测层、眼动数据计算层和眼动交互应用层;所述眼动图像处理层包括图像获取、图像预处理:滤波/二值化;所述眼动特征检测层包括瞳孔检测、瞳孔定位、瞳孔边缘拟合、普洱钦斑检测、模板匹配;所述眼动数据计算层包括注视点坐标、瞳孔-角膜反射向量、注视点标定、其他数据、瞳孔直径;所述眼动交互应用层包括感兴趣区选取/切换、具体交互应用。

Description

一种用于移动设备人机交互的眼动跟踪方法
技术领域
本发明属于设施农业自动灌溉领域,具体地涉及一种用于移动设备人机交互的眼动跟踪方法。
背景技术
眼动跟踪(eyetracking),又称视线追踪,用于测量用户注视点或视线方向。一方面,眼动跟踪可对用户视觉行为和认知活动进行分析,例如心理学
中的认知实验、用户界面可用性评估;另一方面,也可以作为一种替代鼠标和键盘的新型输入技术,例如眼控打字系统、眼动驱动的自适应用户界面系统。但这些应用都基于实验室内固定式眼动跟踪系统展开,无法在真实环境(非实验室的移动环境)中支持眼动跟踪数据的分析及相关的人机交互应用。例如在一个会议场景中,用户配备移动式眼动交互系统,当2个用户互相注视对方时系统会自动交换他们的名片信息。
目前,主流的眼动跟踪方法基于数字眼动视频对眼球图像进行处理,从而获取用户当前的视线方向或注视点(视线与屏幕的交点),主要包括瞳孔-角膜反射法(pupilcentercorneareflection,PCCR)、角膜反射矩阵法、椭圆法线法。其中,PCCR应用最广,它采用红外光源照射角膜,由于角膜和虹膜对红外光的反射率不同,因此可以获得清晰的瞳孔图像。红外光源照射角膜产生的反光斑点也称为普洱钦斑,而瞳孔中心点和普洱钦斑中心点构成的向量会随着眼球的运动而变化,所以利用该向量建立映射模型就可以计算出用户视线方向。PCCR中的视线映射模型包括二维映射和三维映射2种。前者只需要单相机(或摄像头),硬件配置简单,且仅提取眼球图像的平面特征参数,计算简便,但计算精度相对较低;后者虽然计算精度较高,但至少需要双相机、双光源,硬件配置要求高,且需要相机标定、光源标定和位置标定,计算过程复杂。如果能进一步提高二维映射模型的精度和鲁棒性,将会有更大的实用价值和推广意义。为此,研究人员对传统的基于二维映射模型的PCCR进行了改进。例如,利用单片机控制内外环红外光源的交替亮灭,分别产生亮瞳和暗瞳图像,然后通过差分方法得到瞳孔图像,进而使用一种瞳孔边缘滤波算法和三通道伪彩色图检测瞳孔,解决了红外条件下瞳孔定位误差较大等问题。但这类方法仍存在不足:1)为了分别获取亮瞳和暗瞳的差分图像,系统对红外光源的控制过程复杂,并造成红外光源部件结构复杂、体积较大,只能设计成桌面固定式眼动系统;2)对普洱钦斑的检测算法比较简单,没有考虑在实际应用中普洱钦斑经常会产生形变、丢失等情况,导致算法鲁棒性较低。可见,已有研究还存在数据采样精度较低、设备体积和质量较大等问题,难以支持移动交互应用。
传统眼动跟踪设备构造复杂、体积和重量大,通常只能以桌面固定方式使用,无法支持普适计算环境下的移动式交互。
发明内容
本发明就是针对移动交互应用提出与之相适应的眼动跟踪方法,即一种用于移动设备人机交互的眼动跟踪方法;该系统舒适度适中,并具有较高精度和鲁棒性、较高可行性和有效性。
为实现本发明的上述目的,本发明采用如下技术方案。
本发明一种用于移动设备人机交互的眼动跟踪方法,包括眼动图像处理层、眼动特征检测层、眼动数据计算层和眼动交互应用层;所述眼动图像处理层包括图像获取、图像预处理:滤波/二值化;所述眼动特征检测层包括瞳孔检测、瞳孔定位、瞳孔边缘拟合、普洱钦斑检测、模板匹配;所述眼动数据计算层包括注视点坐标、瞳孔-角膜反射向量、注视点标定、其他数据、瞳孔直径;所述眼动交互应用层包括感兴趣区选取/切换、具体交互应用。
作为本发明的一种优选方案,所述眼动图像处理层使用红外摄像装置获取眼球图像,并进行图像预处理,为后续的眼动特征检测提供基础。
作为本发明的另一种优选方案,所述眼动特征检测层对瞳孔的中心和普洱钦斑的大小、位置等特征进行检测。
作为本发明的另一种优选方案,所述眼动数据计算层包括建立瞳孔-角膜反射向量,进而通过该向量映射、求解注视点在屏幕上的坐标,还可以计算瞳孔直径等其他眼动数据。
作为本发明的另一种优选方案,所述眼动交互应用层进一步分析和处理眼动数据,采用其驱动交互应用。
本发明的有益效果是。
本发明提出一种面向移动式交互的眼动跟踪方法,包括眼动图像处理、眼动特征检测、眼动数据计算和眼动交互应用4个层次。首先对眼球红外图像进行滤波、二值化处理,进而基于瞳孔-角膜反射法,结合二次定位和改进的椭圆拟合方法检测瞳孔,设计缩放因子驱动的模板匹配法检测普洱钦斑;在此基础上,计算注视点坐标等眼动数据;最后设计与开发了一个基于单个红外摄像头的头戴式眼动跟踪原型系统。实际用户测试结果表明,该系统舒适度适中,并具有较高精度和鲁棒性,从而验证了本发明在移动式交互中的可行性和有效性。
附图说明
图1是本发明一种用于移动设备人机交互的眼动跟踪方法的框架图。
具体实施方式
如图1所示,为本发明一种用于移动设备人机交互的眼动跟踪方法的框架图;包括眼动图像处理层、眼动特征检测层、眼动数据计算层和眼动交互应用层;所述眼动图像处理层包括图像获取、图像预处理:滤波/二值化;所述眼动特征检测层包括瞳孔检测、瞳孔定位、瞳孔边缘拟合、普洱钦斑检测、模板匹配;所述眼动数据计算层包括注视点坐标、瞳孔-角膜反射向量、注视点标定、其他数据、瞳孔直径;所述眼动交互应用层包括感兴趣区选取/切换、具体交互应用。
本发明所述眼动图像处理层使用红外摄像装置获取眼球图像,并进行图像预处理,为后续的眼动特征检测提供基础;所述眼动特征检测层对瞳孔的中心和普洱钦斑的大小、位置等特征进行检测;所述眼动数据计算层包括建立瞳孔-角膜反射向量,进而通过该向量映射、求解注视点在屏幕上的坐标,还可以计算瞳孔直径等其他眼动数据;所述眼动交互应用层进一步分析和处理眼动数据,采用其驱动交互应用。
所述眼动图像处理通过红外相机获取用户眼球图像之后,需要进行滤波、二值化等图像预处理,为后续瞳孔和普洱钦斑的检测提供基础。所述瞳孔检测
采用粗定位和精确定位相结合的思路定位瞳孔中心,进而提高瞳孔检测的效率和精度。所述瞳孔粗定位就是要大致确定出瞳孔中心点的位置和瞳孔半径,为进一步精确计算瞳孔中心坐标提供基础。
本发明采用多个红外发光管(如6个)形成多个独立的普洱钦斑,这样即使有部分普洱钦斑受到较大影响,也还能检测到其他普洱钦斑,与只生成单个普洱钦斑的方法相比具有更高的鲁棒性。本发明采取模板匹配法检测普洱钦斑,通常,由于普洱钦斑与瞳孔中心点的距离不会太远,故可设置一个以瞳孔中心为圆心、2~3倍瞳孔半径为半径的圆,将其外接矩形区域作为图像处理的主要区域,不仅能提高图像处理速度,还能避免眼睑等皮肤高光部分的干扰。

Claims (5)

1.一种用于移动设备人机交互的眼动跟踪方法,包括眼动图像处理层、眼动特征检测层、眼动数据计算层和眼动交互应用层;其特征在于:所述眼动图像处理层包括图像获取、图像预处理:滤波/二值化;所述眼动特征检测层包括瞳孔检测、瞳孔定位、瞳孔边缘拟合、普洱钦斑检测、模板匹配;所述眼动数据计算层包括注视点坐标、瞳孔-角膜反射向量、注视点标定、其他数据、瞳孔直径;所述眼动交互应用层包括感兴趣区选取/切换、具体交互应用。
2.根据权利要求1所述的一种用于移动设备人机交互的眼动跟踪方法,其特征在于:所述眼动图像处理层使用红外摄像装置获取眼球图像,并进行图像预处理。
3.根据权利要求1所述的一种用于移动设备人机交互的眼动跟踪方法,其特征在于:所述眼动特征检测层对瞳孔的中心和普洱钦斑的大小、位置等特征进行检测。
4.根据权利要求1所述的一种用于移动设备人机交互的眼动跟踪方法,其特征在于:所述动数据计算层包括建立瞳孔-角膜反射向量。
5.根据权利要求1所述的一种用于移动设备人机交互的眼动跟踪方法,其特征在于:所述眼动交互应用层进一步分析和处理眼动数据,采用其驱动交互应用。
CN201410567233.XA 2014-10-22 2014-10-22 一种用于移动设备人机交互的眼动跟踪方法 Pending CN105589551A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410567233.XA CN105589551A (zh) 2014-10-22 2014-10-22 一种用于移动设备人机交互的眼动跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410567233.XA CN105589551A (zh) 2014-10-22 2014-10-22 一种用于移动设备人机交互的眼动跟踪方法

Publications (1)

Publication Number Publication Date
CN105589551A true CN105589551A (zh) 2016-05-18

Family

ID=55929196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410567233.XA Pending CN105589551A (zh) 2014-10-22 2014-10-22 一种用于移动设备人机交互的眼动跟踪方法

Country Status (1)

Country Link
CN (1) CN105589551A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127149A (zh) * 2016-06-22 2016-11-16 南京大学 一种基于眼动数据的流程图笔划成组的方法和装置
CN106406535A (zh) * 2016-09-29 2017-02-15 深圳天珑无线科技有限公司 一种移动设备操作方法、装置及移动设备
CN106774929A (zh) * 2016-12-30 2017-05-31 维沃移动通信有限公司 一种虚拟现实终端的显示处理方法和虚拟现实终端
CN107515474A (zh) * 2017-09-22 2017-12-26 宁波维真显示科技股份有限公司 自动立体显示方法、装置及立体显示设备
WO2018184245A1 (zh) * 2017-04-08 2018-10-11 闲客智能(深圳)科技有限公司 一种眼动判断方法及装置
CN109146851A (zh) * 2018-07-30 2019-01-04 南京慧视医疗科技有限公司 一种诊断前庭系统疾病的眼震信号特征提取和追踪算法
CN109189222A (zh) * 2018-08-28 2019-01-11 广东工业大学 一种基于检测瞳孔直径变化的人机交互方法及装置
CN109240510A (zh) * 2018-10-30 2019-01-18 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
CN110245607A (zh) * 2019-06-13 2019-09-17 Oppo广东移动通信有限公司 眼球追踪方法及相关产品
CN110858096A (zh) * 2018-08-23 2020-03-03 中瑞福宁机器人(沈阳)有限公司 以语义识别为主并辅之以其它方式的机器人人机交互方法
CN111012301A (zh) * 2019-12-19 2020-04-17 北京理工大学 一种头戴式目视精确瞄准系统
CN114511655A (zh) * 2022-02-16 2022-05-17 深圳市恒必达电子科技有限公司 一种带气味复现的vr/ar体感装置和气味形成系统
CN115546884A (zh) * 2022-12-01 2022-12-30 广州视景医疗软件有限公司 一种眼球震颤识别方法、装置及设备

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127149B (zh) * 2016-06-22 2019-07-05 南京大学 一种基于眼动数据的流程图笔划成组的方法和装置
CN106127149A (zh) * 2016-06-22 2016-11-16 南京大学 一种基于眼动数据的流程图笔划成组的方法和装置
CN106406535A (zh) * 2016-09-29 2017-02-15 深圳天珑无线科技有限公司 一种移动设备操作方法、装置及移动设备
CN106406535B (zh) * 2016-09-29 2019-09-24 天聚地合(苏州)数据股份有限公司 一种移动设备操作方法、装置及移动设备
CN106774929A (zh) * 2016-12-30 2017-05-31 维沃移动通信有限公司 一种虚拟现实终端的显示处理方法和虚拟现实终端
CN106774929B (zh) * 2016-12-30 2020-04-03 维沃移动通信有限公司 一种虚拟现实终端的显示处理方法和虚拟现实终端
WO2018184245A1 (zh) * 2017-04-08 2018-10-11 闲客智能(深圳)科技有限公司 一种眼动判断方法及装置
CN107515474A (zh) * 2017-09-22 2017-12-26 宁波维真显示科技股份有限公司 自动立体显示方法、装置及立体显示设备
CN109146851A (zh) * 2018-07-30 2019-01-04 南京慧视医疗科技有限公司 一种诊断前庭系统疾病的眼震信号特征提取和追踪算法
CN110858096A (zh) * 2018-08-23 2020-03-03 中瑞福宁机器人(沈阳)有限公司 以语义识别为主并辅之以其它方式的机器人人机交互方法
CN109189222A (zh) * 2018-08-28 2019-01-11 广东工业大学 一种基于检测瞳孔直径变化的人机交互方法及装置
CN109240510A (zh) * 2018-10-30 2019-01-18 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
WO2020087919A1 (zh) * 2018-10-30 2020-05-07 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
CN109240510B (zh) * 2018-10-30 2023-12-26 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
CN110245607A (zh) * 2019-06-13 2019-09-17 Oppo广东移动通信有限公司 眼球追踪方法及相关产品
CN110245607B (zh) * 2019-06-13 2021-09-14 Oppo广东移动通信有限公司 眼球追踪方法及相关产品
CN111012301A (zh) * 2019-12-19 2020-04-17 北京理工大学 一种头戴式目视精确瞄准系统
CN111012301B (zh) * 2019-12-19 2021-04-13 北京理工大学 一种头戴式目视精确瞄准系统
CN114511655A (zh) * 2022-02-16 2022-05-17 深圳市恒必达电子科技有限公司 一种带气味复现的vr/ar体感装置和气味形成系统
CN115546884A (zh) * 2022-12-01 2022-12-30 广州视景医疗软件有限公司 一种眼球震颤识别方法、装置及设备
CN115546884B (zh) * 2022-12-01 2023-03-14 广州视景医疗软件有限公司 一种眼球震颤识别方法、装置及设备

Similar Documents

Publication Publication Date Title
CN105589551A (zh) 一种用于移动设备人机交互的眼动跟踪方法
US11475650B2 (en) Environmentally adaptive extended reality display system
CN114341779B (zh) 用于基于神经肌肉控制执行输入的系统、方法和界面
US20220229534A1 (en) Coordinating cursor movement between a physical surface and a virtual surface
Kar et al. A review and analysis of eye-gaze estimation systems, algorithms and performance evaluation methods in consumer platforms
CN102749991B (zh) 一种适用于人机交互的非接触式自由空间视线跟踪方法
CN104113680A (zh) 视线跟踪系统及方法
CN105141938B (zh) 视线定位装置
CN103838378A (zh) 一种基于瞳孔识别定位的头戴式眼睛操控系统
CN102830797A (zh) 一种基于视线判断的人机交互方法及系统
CN107831900B (zh) 一种眼控鼠标的人机交互方法及系统
US20140313308A1 (en) Apparatus and method for tracking gaze based on camera array
CN103336581A (zh) 基于人体眼动特征设计的人机交互方法及系统
Bozomitu et al. Development of an eye tracking-based human-computer interface for real-time applications
WO2022170223A1 (en) User interactions in extended reality
CN104749777A (zh) 可穿戴智能设备的互动方法
KR20140126630A (ko) 이동 단말기를 이용한 사용자 응시점 추적 방법 및 그 장치
CN108052901B (zh) 一种基于双目的手势识别智能无人机远程操控方法
CN106325480A (zh) 基于视线追踪的鼠标控制设备及其方法
Lemahieu et al. Low cost eye tracking for human-machine interfacing
Huang et al. Real-time precise human-computer interaction system based on gaze estimation and tracking
Lin et al. Identification of eye movements from non-frontal face images for eye-controlled systems
Li et al. Continuous dynamic gesture spotting algorithm based on Dempster–Shafer Theory in the augmented reality human computer interaction
Eidam et al. Towards regaining mobility through virtual presence for patients with locked-in syndrome
CN109960892A (zh) 一种基于眼动信号的cad指令生成方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160518

WD01 Invention patent application deemed withdrawn after publication