CN201307266Y - 双目视线跟踪装置 - Google Patents
双目视线跟踪装置 Download PDFInfo
- Publication number
- CN201307266Y CN201307266Y CNU2008201271640U CN200820127164U CN201307266Y CN 201307266 Y CN201307266 Y CN 201307266Y CN U2008201271640 U CNU2008201271640 U CN U2008201271640U CN 200820127164 U CN200820127164 U CN 200820127164U CN 201307266 Y CN201307266 Y CN 201307266Y
- Authority
- CN
- China
- Prior art keywords
- people
- coordinate system
- face
- sightline
- computer display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本实用新型涉及一种人机交互装置,特别是一种基于双目摄像机的双目视线跟踪装置。该装置包括计算机显示器屏幕,用于显示跟踪结果;一块观察大屏幕,置于显示器屏幕后方,标示有观察点,用于分析视线方向的精确度;两台摄像机,用于采集人脸及人眼图像,装于计算机显示器屏幕上方左右两侧;一个摄像机标定单元,用于获得摄像机内外参数,从而计算机图像中推知三维信息,或者从三维信息计算出目标在图像中的坐标;一个人脸方位计算单元,用于获得人脸在世界坐标系下坐标;一个视线方向计算单元,用于获得视线在世界坐标系下坐标,并将结果传给计算机显示器屏幕。本实用新型可用于准确跟踪人的视线变化以及视线定位。
Description
技术领域
本实用新型涉及一种人机交互装置,特别是一种基于双目摄像机双目视线跟踪装置。
背景技术
人与计算机交互是研究人与计算机及其相互作用的技术,其研究目的在于利用所有可能的信息通道进行人机交流,提高交互的自然性和高效性。目前人与计算机交互由于一直受到基于键盘、鼠标的窄带宽输入界面的限制,使用户到计算机的通讯带宽停滞不前,人机交互中输入与输出效率变得越来越不平衡,由此激发了基于视线跟踪、语音识别、手势输入、感觉反馈等新的交互技术的多通道界面的研究,其中视线追踪技术倍受该研究领域的重视。在人与计算机的交互中,视觉通常作为人接收信息的感觉通道。例如,当用户使用鼠标来选择屏幕上感兴趣的目标时,视线随注意点聚焦到该目标上,然后检查光标与该目标的空间差距,再反馈到大脑并经大脑指挥手去移动鼠标器,直至视觉判断光标已位于目标之上,做出按键动作。如果计算机能“自动”将光标置于用户所感兴趣的目标之上,就会省去上述交互过程中的大部分步骤,从而把手解放出来,大大降低认知负荷。若想利用视觉通道向计算机输入信息,首先须了解用户在屏幕上所注视的区域、感兴趣的屏幕元素等,这些信息可以通过视线跟踪技术获得。视线跟踪的目的是根据眼睛的特征和位置以及其他一些脸部线索来决定用户注视的方向,把它作为一种可选的或互补的计算机输入通道,为人机交互研究提供一种分析工具。
视线预示了人眼看物体的位置以及关注的东西。这是传递人感兴趣物体信息的一个有效方法。准确地测定人的视线方向,不仅可以用于研究人眼的运动规律,而且对于研究人脑的生理功能或进行心理分析都具有相当意义。因此,各种视线追踪系统被发明并广泛应用于医学治疗、心理学研究、交通智能和人机互动技术等方面。
视线跟踪技术按其所借助的媒介分为以硬件为基础和以软件为基础两种:(1)以硬件为基础的视线跟踪,其基本工作原理是利用图像处理技术,使用能锁定眼睛的特殊摄像机,通过摄入从人的眼角膜和瞳孔反射的红外线连续地记录视线变化,从而达到记录分析视线追踪过程的目的。视线跟踪装置有强迫式与非强迫式、穿戴式与非穿戴式、接触式与非接触式之分,其精度从0.1°至2°。以硬件为基础的方法需要用户戴上特制的头盔、特殊的隐形眼镜,或者使用头部固定支架、置于用户头顶的摄像机等,对用户的干扰很大。(2)以软件为基础的视线跟踪。近年来,人们为克服视线跟踪装置对人的干扰作用,提出了用软件实现的对用户无干扰的视线跟踪方法。其基本工作原理是先利用摄像机获取人眼或脸部图像,然后用软件实现图像中人脸和人眼的定位与跟踪,从而估算出用户注视的位置。
考虑到长期照射红外线对人眼产生的有害影响,以及用户使用的便捷性,本文介绍了一种非强迫式的基于双目摄像机和瞳孔检测的视线追踪装置。在不固定头部或不带头盔的条件下,首先利用双摄像机标定技术计算出摄像机的内外参数,如:焦距、位置等信息,以此来确立图像中的被测点与世界坐标系下被测点的位置关系,然后利用双摄像机对被测对象观察不同注视点时的人脸进行成像,通过图像处理得到人脸各个特征点,如:瞳孔、眼角、嘴角,根据这些特征点及摄像机参数,计算出人脸朝向的方向以及人眼注视的方向,从而计算出注视点的位置。
发明内容
有鉴于此,本发明的主要目的在于提供一种可用于准确跟踪人的视线变化以及视线定位的双目视线跟踪装置。
本实用新型可用于准确跟踪人的视线变化以及视线定位。
为达到上述目的,本发明的技术方案是这样实现的:
一种双目视线跟踪装置,包括:
计算机显示器屏幕,用于显示跟踪结果;
一块观察大屏幕,置于显示器后方,上面标示观察点,用于分析视线方向的精确度;
两台摄像机,用于采集人脸及人眼图像,装于计算机显示器屏幕上方左右两侧;
一个摄像机标定单元,用于获得摄像机内外参数,从而计算机图像中推知三维信息,或者从三维信息计算出目标在图像中的坐标;
一个人脸方位计算单元,用于获得人脸在世界坐标系下坐标;
一个视线方向计算单元,用于获得视线在世界坐标系下坐标,并将结果传给计算机显示器屏幕。
摄像机标定单元采用带有一阶径向畸变的针孔模型。
人脸方位计算单元通过对人脸特征点的检测获得人脸在世界坐标系下坐标。
人脸特征点包括:瞳孔、眼角和嘴角。
瞳孔包括左瞳孔和右瞳孔;所述眼角包括左眼角和右眼角;嘴角包括左嘴角和右嘴角。
视线方向计算单元通过瞳孔检测确定视线方向。
人脸方位计算单元用于计算人脸朝向。
视线方向计算单元,根据人脸朝向的方向及人眼注视的方向,计算出注视点的位置。
双目视线跟踪装置,其特征在于所述计算机显示器屏幕用于接收用户注视。
本实用新型的有益效果是,本装置可避免照射红外线对人眼产生的有害影响,用于准确跟踪人的视线变化以及视线定位,可准确定位人眼注视位置,用户使用便捷。
附图说明
图1为本实用新型的双目视线跟踪装置架构;
图2为带有一阶径向畸变的针孔模型;
图3为人脸各特征点及人脸坐标系结构图;
图4为视线方向的计算;
图5为实际观察点与系统估算点的位置。
具体实施方式
下面结合附图及具体实施例对本发明再作进一步详细的说明。
如图1所示为本实用新型的双目视线跟踪平台系统架构。
计算机显示器屏幕104,用于显示跟踪结果;
一块观察大屏幕105,置于显示器屏幕104后方,标示有观察点,用于分析视线方向的精确度;
两台摄像机103,用于采集人脸102图像,装于计算机显示器屏幕104上方左右两侧。
一个摄像机标定单元106,用于获得摄像机内外参数,从而计算机图像中推知三维信息,或者从三维信息计算出目标在图像中的坐标;
一个人脸方位计算单元107,用于获得人脸在世界坐标系下坐标;
一个视线方向计算单元108,用于获得视线在世界坐标系下坐标,并将结果传给计算机显示器屏幕。
本装置中的两个摄像机103采用的是两个OK系列CCD摄像机及其图像采集卡,标定板101的制作可以采用在计算机显示器屏幕104上画上黑白间隔的表格,黑白正方形块的边长为1厘米。两个摄像机103分别固定安装在计算机显示器屏幕104上方的左右两侧,并保证同时能采集到人脸102部位。人脸102距离摄像机50厘米。计算机显示器屏幕104后方放置一块观察大屏幕105,距离人脸1米,上面标上黑圆圈表示观察点,用于分析视线方向的精确度。
摄像机标定单元106:
摄像机标定的主要目的在于获得摄像机内外参数,从而可以从计算机图像中推知三维信息,或者从三维信息计算出目标在图像中的坐标。由于摄像机光学系统的加工误差和装配误差,摄像机像面上的实际成像与理想成像之间存在光学畸变误差,故采用带有一阶径向畸变的针孔模型,如附图2带有一阶径向畸变的针孔模型所示,图中四个坐标系分别为:
计算机图像坐标系Ouv:原点O位于CCD图像平面的左上角,u和v分别表示像素位于数组的列数和行数。
图像坐标系oxy:原点,即主点o,定义在摄像机光轴与图像平面的交点,x,y轴分别与u,v轴平行。Pu(xu,yu)表示针孔模型下P点的理想图像坐标,Pd(xd,yd)是由透镜径向畸变引起的偏离Pu(xu,yu)的实际图像坐标。
摄像机坐标系ocxcyczc:原点oc定义在摄像机的光心,xc,yc轴分别平行于x,y轴,zc轴与光轴重合。oco为摄像机的有效焦距f,(xc,yc,zc)表示物点P在摄像机坐标系下的三维坐标。
世界坐标系OwYwZw:根据具体环境来定。(Xw,Yw,Zw)表示物点P在世界坐标系下的三维坐标。
故从世界坐标系到计算机图像坐标系的变换可以分为如下四步:
第一步,世界坐标系与摄像机坐标系的变换,可以用旋转矩阵R和平移向量T来描述: 其中
第二步,针孔模型下的理想透视投影变换,即从摄像机坐标系到图像坐标系的变换:
第三步,理想图像坐标系与实际图像坐标系的转换。考虑一阶径向畸变,建立畸变模型为 其中rd 2=xd 2+yd 2,k1为一阶径向畸变系数。
第四步,实际图像坐标系到计算机图像坐标系的转换:
其中(cx,cy)为主点o的像素坐标即主点坐标,(dx,dy)分别为图像平面上x,y方向上单位像素间的距离。
要确定计算机图像坐标与世界坐标的关系,必须首先求出摄像机的内外参数。内参数包括:f,k1,dx,dy,cx,cy;外参数包括:旋转矩阵和平移矩阵一共有6个独立参数,其中旋转矩阵R有三个独立参数,其他6个参数都可以由这三个参数求出来,平移矩阵有三个独立参数tx,ty,tz。
根据以上四步中的四个公式,计算机图像坐标系坐标(u,v)与世界坐标系坐标(Xw,Yw,Zw)的关系只能联立两个方程,由计算机图像点的坐标计算出世界坐标系地点坐标,必须采用两个摄像机,根据世界坐标系下的一个点P(XW,YW,ZW)对应着两个计算机图像坐标系下的坐标M(u1,v1)、N(u2,v2)利用上述公式即可求解出点P坐标。
人脸方位计算单元107:
对人脸特征点瞳孔、眼角和嘴角的检测与跟踪采用的是多线索的人脸特征检测与跟踪算法。如图3所示,左摄像机采集的图像中找到了人脸特征点分别为左眼的内眼角A1302、右眼的内眼角B1305、左眼瞳孔C1L301、右眼瞳孔C1R306、左嘴角D1L303、右嘴角D1R304;右摄像机采集的图像中找到了对应的特征点A2、B2、C2L、C2R、D2L、D2R,根据第四步中的公式,可以得到世界坐标系下各个特征点的世界坐标A、B、CL、CR、DL、DR。以上特征点可以近似看成在同一个平面上,因此以经过点A、B的直线为XF坐标,经过左右嘴角的中心点OD且与直线ALLBRR垂直相交的直线OFOD为YF坐标,经过点OF且垂直XFOFYF坐标平面的直线LF为ZF坐标轴,建立人脸平面坐标系OFXFYFZF307,ZF轴方向即人脸朝向的方向。
视线方向计算单元108:
人的眼球可以近似为一个圆,而视线是一条以眼球中心点为出发点,经过瞳孔中心的射线。当瞳孔在眼球表面上移动时,视线的方向就跟着变化。如图4所示,平面ABCD为人脸坐标系上的XFOFYF平面,由于人眼直视时瞳孔的中心近似地位于XFOFYF平面上,假设其就在该平面上,图中的点OEF即为直视时瞳孔的中心。人眼的视线方向与人脸的朝向方向是一致的,即直线OEOOEF始终和ZF轴平行,点OEO为眼球的中心。某一时刻瞳孔的中心为点PE,在XFOFYF平面的投影为PEF,则射线OEOPE即为此刻的视线方向。
通过前面计算出的瞳孔中心在世界坐标系下的坐标,建立的人脸平面坐标系OFXFYFZF,在该坐标系下可以求出瞳孔中心OEF、PE在人脸平面坐标系下的投影点坐标,即OEF(XO,YO,0)、PEF(XF,YF,0),眼球的半径为R,则眼球中心的坐标为(XO,YO,-R),瞳孔中心PE的坐标为 则视线方程为:
对于一般的成年人,眼球的半径R近似等于12毫米。要更精确地知道眼球的半径,只需知道一个已知注视点的世界坐标系坐标,把它转换成人脸平面坐标系下的坐标,带入上式,即可求得。
该式表示的是在人脸坐标系下的视线方程,为了确定注视点的位置,必须把它转换成世界坐标系下的视线方程。世界坐标系与人脸平面坐标系的转换关系可用如下公式表示:
其中A为3×3的旋转矩阵,T为3×1的平移矩阵。
那么,人脸平面坐标系下的眼球中心OEF和当前瞳孔中心PE就可以由该式转换成世界坐标系下的坐标,设分别为OEW(XOW,YOW,ZOW)、PEW(XPW,YPW,zPW),则在世界坐标系下的视线方程为:
视线方向计算单元将跟踪结果传送回计算机显示器屏幕104。
双目视线跟踪装置执行过程:
对装置进行初始化。初始化工作主要有三步:
第一步,双摄像机103拍摄多幅标定板101在不同位置时的图像,测量各个方格顶点的世界坐标系坐标,通过图像处理计算出各方格顶点的图像坐标系坐标,从而计算出摄像机103的参数。
第二步,拍摄多幅人眼直视时的人脸102图像,计算每幅图像瞳孔中心在人脸坐标系下的位置,取平均值作为直视时瞳孔中心在人脸坐标系下的坐标。
第三步,拍摄多幅不同注视点情况下的人脸102图像并记下注视点的世界坐标系坐标,计算出每个注视点下的眼球半径,取平均值作为眼球半径。
完成初始化工作后,在摄像机103的位置不发生改变的情况下,令被测对象注视每个标定点,并拍摄下对应的人脸102图像,利用图像处理技术和摄像机参数通过计算出系统估算的注视点坐标501。为了测试该算法的精确度,让人脸102以不同的角度去注视同一个观察点。取其中四个观察点的实验数据,实验结果显示在计算机显示器屏幕104如图5所示。
观察点所在的平面距离人脸为1米,附图5中,圆圈为实际注视点502的世界坐标系坐标,十字叉为系统估算点501坐标,单位为厘米。从附图5中可以看出系统估算点501与实际注视点502基本一致。统计各个系统估算点501与实际观察注视点502的距离偏差Δd以及各个注视点距眼球中心距离D,算出视线方向偏差角度Δθ=Δd/D。实验结果表明,平均的视线偏差角度为8.37°。
可见,应用上面描述的双目视线跟踪装置,克服了传统装置的缺陷,可准确跟踪人的视线变化以及视线定位,并且由于其鲁棒性好,方便易于携带,安装简易,更为简单、自然、高效,因此,可广泛应用于在人机交互。
以上所述,仅为本发明的较佳实施例而已,并非用来限定本发明的保护范围。
Claims (1)
1、一种双目视线跟踪装置,其特征在于包括:
计算机显示器屏幕,一块观察大屏幕,两台摄像机,一个摄像机标定单元,一个人脸方位计算单元和一个视线方向计算单元;
摄像机装于计算机显示屏幕上方左右两侧,采集人脸及人眼图像,将图像送入摄像机标定单元,获得摄像机内外参数,从图像中推知三维信息,或者从三维信息计算出目标在图像中的坐标,将结果送入人脸方位计算单元,计算获得人脸在世界坐标系下坐标,结果传入视线方向计算单元,获得视线在世界坐标系下坐标,摄像机标定单元,人脸方位计算单元和视线方向计算单元相互配合,得出结果,并将结果传给计算机显示器屏幕,显示跟踪结果,摄像机标定单元置于显示器屏幕后方,标示有观察点,得出视线方向精确度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNU2008201271640U CN201307266Y (zh) | 2008-06-25 | 2008-06-25 | 双目视线跟踪装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNU2008201271640U CN201307266Y (zh) | 2008-06-25 | 2008-06-25 | 双目视线跟踪装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN201307266Y true CN201307266Y (zh) | 2009-09-09 |
Family
ID=41099734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNU2008201271640U Expired - Fee Related CN201307266Y (zh) | 2008-06-25 | 2008-06-25 | 双目视线跟踪装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN201307266Y (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101815174A (zh) * | 2010-01-11 | 2010-08-25 | 北京中星微电子有限公司 | 摄像控制方法及控制装置 |
CN102043952A (zh) * | 2010-12-31 | 2011-05-04 | 山东大学 | 一种基于双光源的视线跟踪方法 |
CN102622081A (zh) * | 2011-01-30 | 2012-08-01 | 北京新岸线网络技术有限公司 | 一种实现体感交互的方法和系统 |
CN103383596A (zh) * | 2012-05-02 | 2013-11-06 | Lg电子株式会社 | 移动终端及其控制方法 |
WO2014075418A1 (zh) * | 2012-11-13 | 2014-05-22 | 华为技术有限公司 | 一种人机交互方法及装置 |
CN103871045A (zh) * | 2012-12-11 | 2014-06-18 | 现代自动车株式会社 | 显示系统和方法 |
CN104253944A (zh) * | 2014-09-11 | 2014-12-31 | 陈飞 | 基于目光连接的声音命令下达装置和方法 |
CN104685541A (zh) * | 2012-09-17 | 2015-06-03 | 感官运动仪器创新传感器有限公司 | 用于确定三维对象上注视点的方法和装置 |
CN105686835A (zh) * | 2016-01-18 | 2016-06-22 | 张江杰 | 一种目光可视化的装置 |
CN106250839A (zh) * | 2016-07-27 | 2016-12-21 | 徐鹤菲 | 一种虹膜图像透视校正方法、装置和移动终端 |
CN106295600A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 驾驶员状态实时检测方法和装置 |
CN106327492A (zh) * | 2016-08-23 | 2017-01-11 | 北京光年无限科技有限公司 | 一种面向智能机器人的注意力数据处理方法及装置 |
CN107193383A (zh) * | 2017-06-13 | 2017-09-22 | 华南师范大学 | 一种基于人脸朝向约束的二级视线追踪方法 |
JP2019055182A (ja) * | 2017-09-13 | 2019-04-11 | バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. | タッチパッドユーザインタフェースとしての患者の顔 |
CN109840486A (zh) * | 2019-01-23 | 2019-06-04 | 深圳先进技术研究院 | 专注度的检测方法、计算机存储介质和计算机设备 |
CN110826367A (zh) * | 2018-08-10 | 2020-02-21 | 北京魔门塔科技有限公司 | 一种用于数据分析的人脸图像采集系统 |
CN111200781A (zh) * | 2018-11-19 | 2020-05-26 | 林桦 | 基于计算机视觉及无线电测向定位的防拍照方法及系统 |
CN111625090A (zh) * | 2020-05-13 | 2020-09-04 | 闽江学院 | 一种大范围眼动跟踪和视线估计算法综合测试平台 |
CN111739359A (zh) * | 2020-06-30 | 2020-10-02 | 上海乂学教育科技有限公司 | 增强现实的课件生成系统 |
CN114022946A (zh) * | 2022-01-06 | 2022-02-08 | 深圳佑驾创新科技有限公司 | 一种基于双目摄像头的视线测量方法和装置 |
CN112534487B (zh) * | 2018-08-09 | 2024-03-08 | 索尼半导体解决方案公司 | 信息处理设备、移动体、信息处理方法和程序 |
-
2008
- 2008-06-25 CN CNU2008201271640U patent/CN201307266Y/zh not_active Expired - Fee Related
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101815174B (zh) * | 2010-01-11 | 2015-03-04 | 北京中星微电子有限公司 | 摄像控制方法及控制装置 |
CN101815174A (zh) * | 2010-01-11 | 2010-08-25 | 北京中星微电子有限公司 | 摄像控制方法及控制装置 |
CN102043952A (zh) * | 2010-12-31 | 2011-05-04 | 山东大学 | 一种基于双光源的视线跟踪方法 |
CN102043952B (zh) * | 2010-12-31 | 2012-09-19 | 山东大学 | 一种基于双光源的视线跟踪方法 |
CN102622081A (zh) * | 2011-01-30 | 2012-08-01 | 北京新岸线网络技术有限公司 | 一种实现体感交互的方法和系统 |
CN102622081B (zh) * | 2011-01-30 | 2016-06-08 | 北京新岸线移动多媒体技术有限公司 | 一种实现体感交互的方法和系统 |
CN103383596A (zh) * | 2012-05-02 | 2013-11-06 | Lg电子株式会社 | 移动终端及其控制方法 |
CN104685541A (zh) * | 2012-09-17 | 2015-06-03 | 感官运动仪器创新传感器有限公司 | 用于确定三维对象上注视点的方法和装置 |
WO2014075418A1 (zh) * | 2012-11-13 | 2014-05-22 | 华为技术有限公司 | 一种人机交互方法及装置 |
US9740281B2 (en) | 2012-11-13 | 2017-08-22 | Huawei Technologies Co., Ltd. | Human-machine interaction method and apparatus |
CN103871045A (zh) * | 2012-12-11 | 2014-06-18 | 现代自动车株式会社 | 显示系统和方法 |
CN103871045B (zh) * | 2012-12-11 | 2018-09-04 | 现代自动车株式会社 | 显示系统和方法 |
CN104253944A (zh) * | 2014-09-11 | 2014-12-31 | 陈飞 | 基于目光连接的声音命令下达装置和方法 |
CN104253944B (zh) * | 2014-09-11 | 2018-05-01 | 陈飞 | 基于目光连接的声音命令下达装置和方法 |
CN105686835A (zh) * | 2016-01-18 | 2016-06-22 | 张江杰 | 一种目光可视化的装置 |
CN106250839A (zh) * | 2016-07-27 | 2016-12-21 | 徐鹤菲 | 一种虹膜图像透视校正方法、装置和移动终端 |
CN106295600A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 驾驶员状态实时检测方法和装置 |
CN106327492A (zh) * | 2016-08-23 | 2017-01-11 | 北京光年无限科技有限公司 | 一种面向智能机器人的注意力数据处理方法及装置 |
CN106327492B (zh) * | 2016-08-23 | 2019-09-13 | 北京光年无限科技有限公司 | 一种面向智能机器人的注意力数据处理方法及装置 |
CN107193383B (zh) * | 2017-06-13 | 2020-04-07 | 华南师范大学 | 一种基于人脸朝向约束的二级视线追踪方法 |
CN107193383A (zh) * | 2017-06-13 | 2017-09-22 | 华南师范大学 | 一种基于人脸朝向约束的二级视线追踪方法 |
JP7330677B2 (ja) | 2017-09-13 | 2023-08-22 | バイオセンス・ウエブスター・(イスラエル)・リミテッド | タッチパッドユーザインタフェースとしての患者の顔 |
JP2019055182A (ja) * | 2017-09-13 | 2019-04-11 | バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. | タッチパッドユーザインタフェースとしての患者の顔 |
CN112534487B (zh) * | 2018-08-09 | 2024-03-08 | 索尼半导体解决方案公司 | 信息处理设备、移动体、信息处理方法和程序 |
CN110826367A (zh) * | 2018-08-10 | 2020-02-21 | 北京魔门塔科技有限公司 | 一种用于数据分析的人脸图像采集系统 |
CN111200781A (zh) * | 2018-11-19 | 2020-05-26 | 林桦 | 基于计算机视觉及无线电测向定位的防拍照方法及系统 |
CN111200781B (zh) * | 2018-11-19 | 2021-09-14 | 林桦 | 基于计算机视觉及无线电测向定位的防拍照方法及系统 |
CN109840486A (zh) * | 2019-01-23 | 2019-06-04 | 深圳先进技术研究院 | 专注度的检测方法、计算机存储介质和计算机设备 |
CN111625090A (zh) * | 2020-05-13 | 2020-09-04 | 闽江学院 | 一种大范围眼动跟踪和视线估计算法综合测试平台 |
CN111739359A (zh) * | 2020-06-30 | 2020-10-02 | 上海乂学教育科技有限公司 | 增强现实的课件生成系统 |
CN114022946A (zh) * | 2022-01-06 | 2022-02-08 | 深圳佑驾创新科技有限公司 | 一种基于双目摄像头的视线测量方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN201307266Y (zh) | 双目视线跟踪装置 | |
Plopski et al. | Corneal-imaging calibration for optical see-through head-mounted displays | |
CN107193383B (zh) | 一种基于人脸朝向约束的二级视线追踪方法 | |
Hennessey et al. | Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions | |
CN109492514A (zh) | 一种单相机采集人眼视线方向的方法及系统 | |
CN106056092A (zh) | 基于虹膜与瞳孔的用于头戴式设备的视线估计方法 | |
CN104615978B (zh) | 视线方向跟踪方法及装置 | |
US11181978B2 (en) | System and method for gaze estimation | |
CN102125422A (zh) | 视线追踪系统中基于瞳孔-角膜反射的视线估计方法 | |
CN102456137B (zh) | 基于近红外反射点特性的视线跟踪预处理方法 | |
Zhang et al. | Eye gaze estimation from the elliptical features of one iris | |
US20220207919A1 (en) | Methods, devices and systems for determining eye parameters | |
CN112578564B (zh) | 一种虚拟现实显示设备及显示方法 | |
CN105809654A (zh) | 目标对象跟踪方法、装置和立体显示设备及方法 | |
CN104732191A (zh) | 利用交比不变性实现虚拟显示屏视线追踪的装置及其方法 | |
CN106095106A (zh) | 虚拟现实终端及其显示光心距的调整方法及装置 | |
CN109308472B (zh) | 一种基于虹膜投影匹配函数的三维视线估计方法 | |
Su et al. | Cross-validated locally polynomial modeling for 2-D/3-D gaze tracking with head-worn devices | |
Liu et al. | 3D model-based gaze tracking via iris features with a single camera and a single light source | |
CN104679222B (zh) | 基于人机交互的医疗办公系统、医疗信息共享系统及方法 | |
CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
JP2020140630A (ja) | 注視点推定システム、注視点推定方法、注視点推定プログラム、及び、これが記録された情報記録媒体 | |
Cao et al. | Gaze tracking on any surface with your phone | |
CN107765840A (zh) | 一种基于双目测量的泛头戴式设备的视线追踪方法设备 | |
WO2023231674A1 (zh) | 液晶光栅的驱动方法及显示装置、其显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090909 Termination date: 20120625 |