CN101576771B - 基于非均匀样本插值的眼动仪定标方法 - Google Patents
基于非均匀样本插值的眼动仪定标方法 Download PDFInfo
- Publication number
- CN101576771B CN101576771B CN2009100197413A CN200910019741A CN101576771B CN 101576771 B CN101576771 B CN 101576771B CN 2009100197413 A CN2009100197413 A CN 2009100197413A CN 200910019741 A CN200910019741 A CN 200910019741A CN 101576771 B CN101576771 B CN 101576771B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- point
- screen
- points
- test point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于非均匀样本插值的眼动仪定标方法。首先选取注视屏幕上不同行、不同列的多个点作为定标点,记录其屏幕上的真实坐标,利用椭圆拟合的方法提取出眼睛瞳孔中心坐标,将瞳孔中心坐标和屏幕真实坐标一一对应作为参考插值点。然后注视屏幕上任意一点作为测试点,按照非均匀样本插值的思想,计算出测试点在屏幕上的真实坐标,实现视线跟踪。本发明避免了现有技术考虑眼球物理模型和眼睛成像的非线性特性等难点,通过非均匀样本插值的思想,实现瞳孔中心和注视点的准确定位,具有简单、高效、鲁棒性强、准确度高等优点。
Description
技术领域
本发明涉及一种基于非均匀样本插值定标的眼动仪方法,属于视频、多媒体信号处理技术领域。
背景技术
由于人类生活水平的提高,各种高科技家电设备也日渐普及。现有虚拟实境系统、头配显示器或其他观赏、浏览设备也应用而生。目前,头配系统设计者常期望能够获得有关使用者的眼球活动行为的材料,以作为整个系统架构改进的参考。而这些材料,也同时是研究医学、心理学、生理学、传播学等专家学者所急于探讨的题材。眼动仪作为一种人机交互系统,已成为国内外有关学者关注与研究的课题,近年来,随着红外技术和微电子技术的飞速发展,测量眼睛运动的方法也日趋成熟,其应用已深入到军事、商业、日常生活等领域。同时,眼动仪也能够帮助重度瘫痪但视觉良好的病人,通过眼球活动行为及时地表达他们的感受与需求。
眼睛图像和屏幕真实注视点之间的定标技术是眼动仪中的关键技术。定标技术直接影响到眼动仪的精度。因此,如何找到更好的定标方法也就成为眼动仪研究的难点和重点。现在已有的定标方法有三种:(1)线性定标方法,该方法没有考虑眼睛成像的非线性特点,把眼睛图像的运动和屏幕注视点轨迹看成一种线性的映射关系,精度较低;(2)极坐标方法,该方法是在极坐标系中,通过分别计算角度和弧度来定位屏幕注视点,但精度仍没有明显提高;(3)拟合方法,该方法通过已知的定标点,拟合出眼睛图像和屏幕注视点之间的多项式映射关系,但拟合出的多项式也不能很好的反应出整个屏幕的对应关系,具有一定的局限性。
发明内容
针对现有眼动仪存在的精度低的问题,本发明提供一种精度高的基于非均匀样本插值的眼动仪定标方法,该方法利用已有的定标点,通过非均匀样本插值的思想,计算出测试点的屏幕注视坐标,能够大大提高眼动仪的精度。
本发明的基于非均匀样本插值的眼动仪定标方法,是通过瞳孔中心提取和非均匀样本插值定标两个过程来实现的,具体步骤如下:
(1)瞳孔中心提取
首先在电脑整个屏幕上选取不同行、不同列的多个点作为定标点,点数根据屏幕大小和要求精度来确定,对于17寸屏幕,要求精度在1°以内,选用17-19个点,记录定标点在屏幕上的坐标,再随意选取任意个点数作为测试点,用来验证算法的精度,在红外光源的照射下,采集眼睛的瞳孔运动轨迹视频,每个注视点的间隔时间为4秒,将采集好的视频经过色度变换、canny算子的边缘提取、积分投影后,采用椭圆拟合的算法,提取出每个注视点的瞳孔中心坐标;
(2)非均匀样本插值定标
由于行列坐标不相关,因此分别计算测试点的行列坐标,计算测试点的列坐标过程如下:在样本点中搜索,找到列坐标最靠近测试点的3个样本点,分别计算出测试点和最近的3个样本点之间的列坐标的差值L1、L2、L3,所述样本点是已知屏幕坐标位置的点,测试点则是根据算法和样本点将要推测屏幕坐标的点,按照非均匀样本插值,距离需要插值的点越远的点,对插值的数值影响越小,则设:
d1=1/L1
d2=1/L2
d3=1/L3
设y1、y2、y3分别为最近邻3个样本点的屏幕注视点列坐标,则测试点1的列坐标大小为:
y=d1/(d1+d2+d3)×y1+d2/(d1+d2+d3)×y2+d3/(d1+d2+d3)×y3;
同理,能够计算出测试点的行坐标。
本发明避免了考虑眼球物理模型和瞳孔中心和注视点的非线性关系等难点,而是通过非均匀样本插值,实现瞳孔中心和注视点的准确定位,具有简单、高效、鲁棒性强、准确度高等优点。
附图说明
图1是本发明的原理示意图。
图2是瞳孔中心运动轨迹图。
图3是实例中的采集点和测试点图。
图4是采集视频图像。
图5是瞳孔边缘提取。
图6是瞳孔中心定位图。
图7是视频中的瞳孔定位结果。
图8是同一个注视点的抖动现象。
图9是测试点的列坐标误差比较图。
图10是测试点的行坐标误差比较图。
图11是测试点坐标显示结果图。
具体实施方式
实施例
本发明的硬件设备有一个高倍摄像头和两个红外光源,本发明的具体实现步骤如图1所示。首先在电脑整个屏幕上选取19个点作为定标点,如图3,屏幕中心点和向下弯的这条折线上的19个点,分别为不同行、不同列的点,行列间隔大小为2cm。任意选取7个测试点,屏幕左上部2个点,右下部5个点,用来验证算法的精度。如图2所示,样本点1~19为定标点的瞳孔中心,测试点1~7为测试点的瞳孔中心。
在红外光源的照射下,采集眼睛的瞳孔运动轨迹视频。采集视频时,人眼与屏幕的距离为50cm,光源距离人眼大约40cm,光源分别位于摄像头两侧35cm处;视频采集的速率为25帧/秒;分辨率为767*574;每个注视点的注视时间为4s,也就是每个注视点采集100帧图像;总帧数为2300帧;视频卡型号为OK_C20黑白视频采集卡,采集的视频图像如图3。
由于采集的视频是彩色帧,先将RGB格式转化为YUV格式,选用YUV格式中的Y分量进行处理。将视频中的每帧图像经过色度变换、canny算子的边缘提取、积分投影后,采用椭圆拟合的算法,提取出每帧图像的瞳孔中心坐标。如图4~7。每个注视点采集100帧图像,由于眼睛在注视点同一点时存在抖动现象,如图8,采用中值滤波的方法去除抖动,最终确定每个注视点的瞳孔中心坐标。将样本点的瞳孔中心坐标和屏幕真实的注视点坐标一一对应起来。
由于注视点行列坐标不相关,分别计算测试点的行列坐标。以列为例,首先在样本点中搜索,找到列坐标最接近的三个样本点,然后按照非均匀样本插值,根据已知的样本点插值出测试点的列坐标。同理,计算出测试点的行坐标。
如图9、图10和图11,为真实注视点和本发明的定标算法得到的注视点之间的误差比较。其中图10中,绿色点为真实注视点位置,蓝色点为计算出的注视点位置。列坐标误差如下表:
列坐标误差(以屏幕中心为(0 0)点,向右、下为正方向建立坐标系)
真实列坐标 | -13.0000 | -9.0000 | 1.0000 | 5.0000 | -3.0000 | 9.0000 | 13.0000 |
插值行坐标 | -12.9584 | -8.3896 | 1.1762 | 5.0016 | -2.9421 | 10.5389 | 12.7657 |
误差 | -0.0416 | -0.6104 | -0.1762 | -0.0016 | -0.0579 | -1.5389 | 0.2343 |
行坐标误差如下表:
行坐标误差(以屏幕中心为(0 0)点,向右、下为正方向建立坐标系)
真实行坐标 | -9.5000 | -5.0000 | -1.0000 | 3.0000 | 7.0000 | -5.0000 | 9.5000 |
插值行坐标 | -7.5916 | -3.9221 | -0.2548 | 3.1783 | 7.3582 | -4.8205 | 9.0770 |
误差 | -1.9084 | -1.0779 | -0.7452 | -0.1783 | -0.3582 | -0.1795 | 0.4230 |
从上面的实例中可以看出,本发明的非均匀样本插值定标方法,能更准确地实现眼动仪的视线跟踪,而且避免了考虑眼球物理模型和瞳孔中心和注视点的非线性关系等难点,本发明的定标方法简单、高效、准确度高。
Claims (1)
1.一种基于非均匀样本插值的眼动仪定标方法,是通过瞳孔中心提取和非均匀样本插值定标两个过程来实现的,具体步骤如下:
(1)瞳孔中心提取
首先在电脑整个屏幕上选取不同行、不同列的多个点作为定标点,点数根据屏幕大小和要求精度来确定,记录定标点在屏幕上的坐标,再随意选取任意个点数作为测试点,用来验证算法的精度,在红外光源的照射下,采集眼睛的瞳孔运动轨迹视频,每个注视点的间隔时间为4秒,将采集好的视频经过色度变换、canny算子的边缘提取、积分投影后,采用椭圆拟合的算法,提取出每个注视点的瞳孔中心坐标;
(2)非均匀样本插值定标
由于行列坐标不相关,因此分别计算测试点的行列坐标,计算测试点的列坐标过程如下:在样本点中搜索,找到列坐标最靠近测试点的3个样本点,分别计算出测试点和最近的3个样本点之间的列坐标的差值L1、L2、L3,所述样本点是已知屏幕坐标位置的点,测试点则是根据算法和样本点将要推测屏幕坐标的点,按照非均匀样本插值,距离需要插值的点越远的点,对插值的数值影响越小,则设:
d1=1/L1
d2=1/L2
d3=1/L3
设y1、y2、y3分别为最近邻3个样本点的屏幕注视点列坐标,则测试点的列坐标大小为:
y=d1/(d1+d2+d3)×y1+d2/(d1+d2+d3)×y2+d3/(d1+d2+d3)×y3;
同理,能够计算出测试点的行坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100197413A CN101576771B (zh) | 2009-03-24 | 2009-03-24 | 基于非均匀样本插值的眼动仪定标方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100197413A CN101576771B (zh) | 2009-03-24 | 2009-03-24 | 基于非均匀样本插值的眼动仪定标方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101576771A CN101576771A (zh) | 2009-11-11 |
CN101576771B true CN101576771B (zh) | 2010-12-01 |
Family
ID=41271716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100197413A Expired - Fee Related CN101576771B (zh) | 2009-03-24 | 2009-03-24 | 基于非均匀样本插值的眼动仪定标方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101576771B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916338B (zh) * | 2010-09-08 | 2012-05-23 | 浙江大学 | 一种自适应的视点平滑滤波数据处理方法 |
CN102129554B (zh) * | 2011-03-18 | 2013-01-16 | 山东大学 | 一种基于视线跟踪的密码输入控制方法 |
CN102520796B (zh) * | 2011-12-08 | 2014-10-08 | 华南理工大学 | 一种基于逐步回归分析映射模型的视线跟踪方法 |
CN102749991B (zh) * | 2012-04-12 | 2016-04-27 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
CN102930252B (zh) * | 2012-10-26 | 2016-05-11 | 广东百泰科技有限公司 | 一种基于神经网络头部运动补偿的视线跟踪方法 |
JP5911655B1 (ja) * | 2014-07-22 | 2016-04-27 | オリンパス株式会社 | 医療システム |
CN110032271B (zh) | 2018-01-12 | 2020-07-24 | 京东方科技集团股份有限公司 | 对比度调节装置及其方法、虚拟现实设备及存储介质 |
CN108491072B (zh) * | 2018-03-05 | 2020-01-21 | 京东方科技集团股份有限公司 | 一种虚拟现实交互方法及装置 |
CN108498068A (zh) * | 2018-04-18 | 2018-09-07 | 北京中启睿宝教育科技有限公司 | 一种基于眼动特征的儿童共同注意分析方法 |
CN108805606B (zh) * | 2018-04-28 | 2022-01-18 | 北京鸿途信达科技股份有限公司 | 互联网广告装置及方法 |
CN110934599A (zh) * | 2019-12-20 | 2020-03-31 | 东南大学 | 一种自然场景下婴幼儿共同注意评估方法及系统 |
CN111311494B (zh) * | 2020-02-13 | 2023-04-18 | Oppo广东移动通信有限公司 | 眼球跟踪定位精度确定方法及相关产品 |
CN111580667B (zh) * | 2020-05-11 | 2023-07-14 | Oppo广东移动通信有限公司 | 注视点显示方法及相关装置 |
CN111625090A (zh) * | 2020-05-13 | 2020-09-04 | 闽江学院 | 一种大范围眼动跟踪和视线估计算法综合测试平台 |
CN114077465A (zh) * | 2020-08-10 | 2022-02-22 | Oppo广东移动通信有限公司 | Ui界面渲染方法、装置、电子设备及存储介质 |
CN112257050B (zh) * | 2020-10-26 | 2022-10-28 | 北京鹰瞳科技发展股份有限公司 | 基于注视动作的身份认证方法及设备 |
CN112578905B (zh) * | 2020-11-17 | 2021-12-14 | 北京津发科技股份有限公司 | 一种针对移动终端的人机交互测试方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
CN101311882A (zh) * | 2007-05-23 | 2008-11-26 | 华为技术有限公司 | 视线跟踪人机交互方法及装置 |
-
2009
- 2009-03-24 CN CN2009100197413A patent/CN101576771B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
CN101311882A (zh) * | 2007-05-23 | 2008-11-26 | 华为技术有限公司 | 视线跟踪人机交互方法及装置 |
Non-Patent Citations (2)
Title |
---|
宋海涛等.眼动跟踪系统中的检测装置.计算机与数字工程.2007,第35卷(第3期),全文. * |
程成等.一种眼动跟踪实时线性预测算法的研究和实现.第四届和谐人机环境联合学术会议论文集.2008,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN101576771A (zh) | 2009-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101576771B (zh) | 基于非均匀样本插值的眼动仪定标方法 | |
CN109284737A (zh) | 一种用于智慧教室的学生行为分析和识别系统 | |
CN110032271B (zh) | 对比度调节装置及其方法、虚拟现实设备及存储介质 | |
CN103838378B (zh) | 一种基于瞳孔识别定位的头戴式眼睛操控系统 | |
CN104200480B (zh) | 一种应用于智能终端的图像模糊度评价方法及系统 | |
CN107392120B (zh) | 一种基于视线估计的注意力智能监督方法 | |
CN110197169A (zh) | 一种非接触式的学习状态监测系统及学习状态检测方法 | |
CN110599540A (zh) | 多视点相机下的实时三维人体体型与姿态重建方法及装置 | |
CN103729981A (zh) | 一种儿童坐姿监控智能终端 | |
CN205610834U (zh) | 立体显示系统 | |
CN102622916A (zh) | 人体穴位投影演示方法及装置 | |
CN106537217B (zh) | 宽视野深度成像 | |
CN104700405B (zh) | 一种前景检测方法和系统 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN104978077B (zh) | 一种交互方法及系统 | |
CN103729620B (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
CN110059611A (zh) | 一种智能化教室空余座位识别方法 | |
CN109815913B (zh) | 基于眼动信息的视觉增强感知系统及其方法 | |
CN102932638A (zh) | 基于计算机建模的3d视频监控方法 | |
CN111897433A (zh) | 一种集成成像显示系统中实现动态手势识别与控制方法 | |
CN112184807B (zh) | 一种高尔夫球落地式检测方法、系统及存储介质 | |
CN106023214B (zh) | 基于中央凹视梯度结构相似性的图像质量评价方法及系统 | |
CN106991706A (zh) | 一种拍摄校准方法及系统 | |
CN111399634B (zh) | 一种手势引导物体识别的方法及装置 | |
CN109308472A (zh) | 一种基于虹膜投影匹配函数的三维视线估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20101201 Termination date: 20130324 |