CN102508551B - 一种目光捕捉方法和采用目光捕捉的人机交互方法 - Google Patents
一种目光捕捉方法和采用目光捕捉的人机交互方法 Download PDFInfo
- Publication number
- CN102508551B CN102508551B CN201110370221.4A CN201110370221A CN102508551B CN 102508551 B CN102508551 B CN 102508551B CN 201110370221 A CN201110370221 A CN 201110370221A CN 102508551 B CN102508551 B CN 102508551B
- Authority
- CN
- China
- Prior art keywords
- eye
- regions
- territory
- rectangular sub
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例提供一种目光捕捉方法和采用目光捕捉的人机交互方法,该方法包括:A.从图像捕捉设备捕捉的画面中识别出最大的一张人脸的左眼瞳仁在左眼眼眶内的横向偏移程度、右眼瞳仁在右眼眼眶内的横向偏移程度,并通过几何计算,得出双眼瞳仁在眼眶内横向偏移程度的平均值;B.识别鼻子的横向转动程度;C.将双眼瞳仁在眼眶内横向偏移程度的平均值按比例排除鼻子的横向转动程度,得到人眼的注视点位置。本发明的方案能够显著降低实现的成本。
Description
技术领域
本发明属于人机交互技术领域,尤其涉及一种目光捕捉方法和采用目光捕捉的人机交互方法。
背景技术
现代计算机系统实现人机交互的方式主要借助麦克风、键盘、跟踪球、鼠标、触摸板、触笔、摇杆、手柄、数字手写板、手写屏、多点触摸屏、微软Kinect体感器等交互设备,上述这些方式通常需要人进行较为麻烦的操作,有的还需要人提前进行训练才能熟练掌握。
为了克服上述问题,现有技术中提出了一种眼动跟踪技术,该技术分为接触式和非接触式两类,其中接触式方式需要头戴微型摄像头设备,用来获取两眼瞳孔(或角膜)的中视点,非接触式是在PC机前安装两个微型摄像头,适合残疾人操作计算机使用。这些技术已经开始服务于医学、军事和教育等各个方面,尤其是可以利用到网络应用中。
但是基于目前的眼动跟踪技术在价格、精度和方便性等因素之间做出权衡是一件困难的事情。例如,视线跟踪的精度与对用户的限制和干扰是一对尖锐的矛盾。另外,视线跟踪设备的成本(人民币一万元~三十万元不等)也令普通的用户无法承受。
发明内容
有鉴于此,本发明的目的在于提供一种目光捕捉方法和采用目光捕捉的人机交互方法,能够显著降低实现的成本(人民币60元~800元不等)。
为实现上述目的,本发明提供一种目光捕捉方法,包括:
A.从图像捕捉设备捕捉的画面中识别出最大的一张人脸的左眼瞳仁在左眼眼眶内的横向偏移程度、右眼瞳仁在右眼眼眶内的横向偏移程度,并通过几何计算,得出双眼瞳仁在眼眶内横向偏移程度的平均值;
B.识别鼻子的横向转动程度;
C.将双眼瞳仁在眼眶内横向偏移程度的平均值按比例排除鼻子的横向转动程度,得到人眼的注视点位置。
优选地,所述识别左眼瞳仁在左眼眼眶内的横向偏移程度、右眼瞳仁在右眼眼眶内的横向偏移程度具体实现为:
通过人脸识别算法从图像捕捉设备捕捉的画面中识别出最大的一张人脸所在的矩形子区域;
通过人眼识别算法从所述人脸所在的矩形子区域中识别出双眼所在的矩形子区域;
在所述双眼所在的矩形子区域中识别出左眼眼眶所在的矩形子区域和右眼眼眶所在的矩形子区域;
在所述左眼眼眶所在的子区域中识别出左眼瞳仁的矩形子区域、以及右眼瞳仁的矩形子区域;
通过左眼瞳仁的矩形子区域的位置和左眼眼眶的矩形子区域的位置,计算左眼瞳仁在左眼眼眶内的横向偏移程度,通过右眼瞳仁的矩形子区域的位置和右眼眼眶的矩形子区域的位置,计算右眼瞳仁在右眼眼眶内的横向偏移程度。
优选地,还包括:在通过几何计算,得出双眼瞳仁在眼眶内横向偏移程度的平均值之后,将双眼瞳仁在眼眶内横向偏移程度的平均值规整到±20的区间内。
优选地,所述识别鼻子的横向转动程度具体实现为:
在人脸所在的矩形子区域内,针对左眼眼眶的矩形子区域外侧的第一区域、和右眼眼眶的矩形子区域外侧的第二区域分别进行自适应肉色检测,计算第一区域检测通过的像素数量占整个人脸的矩形子区域的像素数量的比例,计算第二区域检测通过的像素数量占整个人脸的矩形子区域的像素数量的比例,根据两个比例的差确定鼻子的横向转动程度。
优选地,所述根据两个比例的差确定鼻子的横向转动程度具体实现为:
将所述两个比例的差规整到±20的区间内,从而得到鼻子的横向转动程度。
优选地,在预定周期内循环N次执行步骤A至步骤C,对获取的人眼注视点位置取平均,得到该预定周期内的人眼注视点位置。
优选地,该方法还包括:
如果预定时间内连续两次人脸的矩形子区域的位置超过一定幅度的左右或者上下摇摆,则分别判断产生摇头和点头动作。
优选地,还包括:在判定产生摇头或者摆头动作后,记录动作产生的时间。
另一方面,本发明还提供一种采用目光捕捉的人机交互方法,包括:
采用如上述的目光捕捉的方法得到的人眼的注视点位置;
将所述人眼的注视点位置发送至上层应用程序。
另一方面,本发明还提供一种采用目光捕捉的人机交互方法,包括:
采用如上述的目光捕捉的方法判断产生摇头或点头动作;
将产生摇头或点头的动作信息发送至上层应用程序。
本发明提供的方案可以获得人眼在注视哪个区域,对这个区域的划分可以不用特别精确,这使得实现本发明的方法不需要特别专业、价格昂贵的设备,因此显著降低了实现的成本:从人民币一万元~三十万元不等节省到人民币60元~800元不等。此外,本发明提供的方案还有效地克服了人脸横向转动对于识别人眼注视点位置带来的误差。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种目光捕捉方法的流程图;
图2是本发明一个实施例提供的目光捕捉方法的流程图;
图3是利用图2中的方法进行识别的过程示意图;
图4是利用图2中的方法对向左转动的人脸进行识别的过程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明提供的一种目光捕捉方法的流程图,该方法包括:
步骤S101:从图像捕捉设备捕捉的画面中识别出最大的一张人脸的左眼通孔在右眼眼眶内的横向偏移程度、右眼瞳仁在右眼眼眶内的横向偏移程度,并通过几何计算,得出双眼瞳仁在眼眶内的横向偏移程度的平均值。
步骤S102:识别鼻子的横向转动程度;
步骤S103:将双眼瞳仁在眼眶内横向偏移程度的平均值按比例排除鼻子的横向转动程度,得到人眼的注视点位置。
本发明实施例提供的方法中首先获得了双眼瞳仁在眼眶内横向偏移程度的平均值,同时还排除了鼻子的横向转动程度,这样可以消除人脸横向转动对人眼注视点的识别结果的影响,例如当目光始终对着某一区域,但是当人脸左右横向转动时,双眼瞳仁在眼眶内的横向偏移程度的平均值也将变化,所以本发明的方法通过鼻子的横向转动程度消除人脸转动因素的影响,确定更为准确客观的人眼注视位置。
以下以一个具体的例子详细说明本发明的具体实现。
图2为该具体实现方式中的目光捕捉方法的流程图,图3为利用图2中的方法对画面中的目光进行捕捉的示意图。请同时参见图2和图3,本实施例中的目光捕捉方法包括如下步骤:
步骤S201:从图像捕捉设备捕捉的当前画面中通过人脸识别算法识别出最大的一张人脸所在的矩形子区域位置31;
在实际中可以使用OpenCV库来实现上述人脸识别的目的,优选地还要忽略高度太小和宽度太小的人脸。
步骤S202:通过人眼识别算法,在步骤S201识别出的人脸矩形子区域的基础上,识别出双眼所在的矩形子区域32。
可以在人脸矩形子区域31的靠中四分之一范围内识别双眼,优选地应该忽略宽度过窄和过宽、高度过大或过小的双眼。
步骤S203:在双眼所在的矩形子区域32内,识别出左眼眼眶所在的矩形子区域33L和右眼眼眶所在的矩形子区域33R。
根据人脸在眼睛所在高度的水平方向上,以下五部分的宽度比——左眼眼眶外侧∶左眼眼眶∶两眼眼眶中间∶右眼眼眶∶右眼眼眶外侧——约为1∶1∶1∶1∶1,可以得到左眼眼眶和右眼眼眶的大致有效范围。
然后可以分别在左眼眼眶和右眼眼眶的大致有效范围内使用轮廓提取技术获取左眼眼眶和右眼眼眶所在的矩形子区域位置。
步骤S204:在左眼眼框所在的矩形子区域33L内识别出左眼瞳仁的矩形子区域34L,在右眼眼眶所在的矩形子区域33R内识别出右眼瞳仁的矩形子区域34R。
可以使用图像形态学闭运算操作和轮廓提取技术获取左眼瞳仁的矩形子区域和右眼瞳仁的矩形子区域,优选地还应该忽略宽度过小或者过大、高度过小的瞳仁。
步骤S205:通过左眼瞳仁的矩形子区域34L的位置和左眼眼眶的矩形子区域33L的位置,计算左眼瞳仁在左眼眼眶内的横向偏移程度;通过右眼瞳仁的矩形子区域34R的位置和右眼眼眶的矩形子区域33R的位置,计算右眼瞳仁在右眼眼眶内的横向偏移位置。
步骤S206:通过几何计算,得出双眼瞳仁在眼眶内的横向偏移程度的平均值。
即,通过几何平均的方式,计算步骤S205中的左眼瞳仁和右眼瞳仁的横向偏移程度的平均值,作为双眼瞳仁在眼眶内的横向偏移程度的平均值。
为了方便后续数据处理,优选地,可以将上述步骤S206中得到的横向偏移程度的平均值规整到±20的区间内。
步骤S207:在人脸所在的矩形子区域21内,针对左眼眼眶的矩形子区域外侧的第一区域35L、和右眼眼眶的矩形子区域外侧的第二区域35R分别进行自适应肉色检测,计算第一区域35L检测通过的像素数量占整个35L矩形子区域像素数量的比例,计算第二区域35R检测通过的像素数量占整个35R矩形子区域的像素数量的比例,根据这两个比例的差确定鼻子的横向转动程度。
在人脸横向转动时所捕捉的画面中,靠近镜头一侧的脸部区域成像将放大,远离镜头一侧的脸部区域成像将缩小。以下结合附图4以人脸向左转向为例进行说明,如图4所示,当人脸向左转向时,脸部右侧靠近镜头,而脸部左侧远离镜头,这样一是因为近大远小的透视成像效果,二是因为脸部转动导致脸部左侧区域在成像面上的投影将比右侧区域在成像面上的投影明显缩小,致使在画面中左侧脸部的像素数量大于右侧脸部的像素数量,而脸部的像素可以通过自适应肉色检测技术进行识别。
图4中也示出了通过上述步骤获得的各个矩形子区域(图4中与图3中附图标记相同的区域的含义相同,这里不再赘述),在执行步骤S207时,基于上文论述的原因,针对左眼眼眶的矩形子区域外侧的第一区域35L的进行自适应肉色检测得到的像素数量较少,而针对右眼眼眶的矩形子区域外侧的第二区域35R进行自适应肉色检测得到的像素数量较多,所以第一区域35L检测通过的像素数量占整个35L矩形子区域像素数量的比例将少于第二区域35R检测通过的像素数量占整个35R矩形子区域像素数量的比例。由此可以得出鼻子向左转动的结论,即人脸向左转动的结论。而通过这两个比例的差的绝对值可以确定鼻子的转动程度。当然,也可以定义两个比例的差的含义就是第一区域对应的比例减去第二区域对应的比例的差,或者定义为第二区域对应的比例减去第一区域对应的比例的差,这样这个差就有了正负和大小信息,通过正负信息可以得知鼻子的转动方向,通过大小信息可以得知鼻子的转动程度。
此外需要说明的是,之所以利用两个比例的差,而不是利用两个比例中的任何一个比例来确定鼻子的横向转动程度,是因为当人脸横向转动时,通过目前的人脸识别技术,通过步骤S201框出的人脸的矩形子区域31在远离镜头的脸部一侧的区域将框出更多的非人脸区域,这一点可以通过图4中框出的人脸矩形子区域31看出。因此在人脸横向转动过程中,由于人脸的矩形子区域的大小存在上述误差,导致最终得到的第一区域35L对应的比例和第二区域35R对应的比例本身并不太准,但是通过二者之差可以基本上消除上述误差。
为了方便后续数据处理,优选地,可以将步骤S207中得到的两个比例的差规整到±20的区间内,从而得到鼻子的横向转动程度。
步骤S208:将步骤S206中获得的双眼瞳仁在眼眶内横向偏移程度的平均值按比例排除步骤S207中获得的鼻子的横向转动程度,得到人眼的注视点位置。
需要说明的是,这里进行排除的比例可以是1∶1,也可以是1∶1.5等相差不大的数值范围内的比例,这是因为本发明并不要求对人眼的注视点位置的数值空间进行非常精确的划分,所以只需要粗略判定人眼是否注视某几块区域即可,并不需要达到判定人眼具体在看哪几个文字程度的精细度。
图2示出的各个步骤仅仅描述了对一帧图像进行处理的过程,而实际应用中,仅仅通过一个时刻捕捉的一帧画面断定人眼的注视点位置往往会带来误差,为了克服这种误差,可以对一段时间重复执行上述步骤,具体地,在预定周期内,循环N次执行步骤S201-步骤S208,即在预定周期内,对捕捉的N帧画面重复执行步骤S201-步骤S208,从而得到这N帧画面的人眼注视点位置,并将这些人眼注视点取平均,优选地在上述取平均之前可以排除相邻差别过大的数据,从而得到一段时间内的注视点位置平均值。为了方便数据处理,还可以将这里得到的一段时间内的注视点位置平均值规整到±40之间。
当基于上述思想在预定周期内循环N次执行步骤S201-步骤S208之后,还可以针对相邻两次循环识别出的人脸的矩形子区域的位置是否超过一定程度的左右摇摆,如果超过则累计次数,当在该预定周期内,相邻两次循环的人脸的矩形子区域的位置超过一定幅度的左右摇摆的次数超过两次时,可以判定产生摇头动作。
也可以针对相邻循环识别出的人脸的矩形子区域的位置是否超过一定程度的上下摇摆,如果超过则累计次数,当在预定周期内,相邻两次循环的人脸的矩形子区域的位置超过一定幅度的上下摇摆的次数超过两次时,可以判定产生点头动作。
当判定产生点头或摇头动作后,可以记录动作产生的时间。
此外,本发明另一个实施例还提供一种采用目光捕捉的人机交互方法,该方法包括利用上述各个实施例提供的目光捕捉方法得到的人眼的注视点位置,并将所获得的人眼的注视点位置发送至上层应用程序。
另外,还可以对产生摇头或点头的动作信息发送至上层应用程度。
在将上述人机交互方法应用到不同的应用领域中后,上层应用程序可以根据注视点位置进行各种类型的后续操作。
例如将本发明的方案应用到智能节电显示屏时,上层应用程序可以通过接收到的人眼注视点位置判断使用者是否长时间没有看该显示屏,如果是,则自动进入节电模式。
将本发明的方案应用到点菜系统中时,上层应用程序当检测到顾客刚刚观看点菜屏幕时,控制显示能够提供的各种菜的图片和价格,当顾客看到某个想点的菜时,会不由自主地盯着相应图片一段时间,上层应用程序当判定出顾客已经盯着某个菜一段时间后,就可以自动针对这个菜下单。此外还可以采用将菜的图片进行轮询显示,如果判定出用户点头,则可以针对这个图片对应的菜进行下单。如果用户摇头或者未作目光停留则继续显示下一图片。
此外,本发明的技术方案还能应用到很多领域,这里不再赘述。
综上可见,本发明提供的方案可以获得人眼在注视哪个区域,对这个区域的划分可以不用特别精确,这使得实现本发明的方法不需要特别专业、价格昂贵的设备,因此显著降低了实现的成本:从人民币一万元~三十万元不等节省到人民币60元~800元不等。此外,本发明提供的方案还有效地克服了人脸横向转动对于识别人眼注视点位置带来的误差。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种目光捕捉方法,其特征在于,包括:
A.从图像捕捉设备捕捉的画面中识别出最大的一张人脸的左眼瞳仁在左眼眼眶内的横向偏移程度、右眼瞳仁在右眼眼眶内的横向偏移程度,并通过几何计算,得出双眼瞳仁在眼眶内横向偏移程度的平均值;
所述识别左眼瞳仁在左眼眼眶内的横向偏移程度、右眼瞳仁在右眼眼眶内的横向偏移程度具体实现为:
通过人脸识别算法从图像捕捉设备捕捉的画面中识别出最大的一张人脸所在的矩形子区域;
通过人眼识别算法从所述人脸所在的矩形子区域中识别出双眼所在的矩形子区域;
在所述双眼所在的矩形子区域中识别出左眼眼眶所在的矩形子区域和右眼眼眶所在的矩形子区域;
在所述左眼眼眶所在的子区域中识别出左眼瞳仁的矩形子区域、以及右眼瞳仁的矩形子区域;
通过左眼瞳仁的矩形子区域的位置和左眼眼眶的矩形子区域的位置,计算左眼瞳仁在左眼眼眶内的横向偏移程度,通过右眼瞳仁的矩形子区域的位置和右眼眼眶的矩形子区域的位置,计算右眼瞳仁在右眼眼眶内的横向偏移程度;
B.识别鼻子的横向转动程度;
C.将双眼瞳仁在眼眶内横向偏移程度的平均值按比例排除鼻子的横向转动程度,得到人眼的注视点位置。
2.根据权利要求1所述的方法,其特征在于,还包括:在通过几何计算,得出双眼瞳仁在眼眶内横向偏移程度的平均值之后,将双眼瞳仁在眼眶内横向偏移程度的平均值规整到±20的区间内。
3.根据权利要求1或2所述的方法,其特征在于,所述识别鼻子的横向转动程度具体实现为:
在人脸所在的矩形子区域内,针对左眼眼眶的矩形子区域外侧的第一区域、和右眼眼眶的矩形子区域外侧的第二区域分别进行自适应肉色检测,计算第一区域检测通过的像素数量占整个人脸的矩形子区域的像素数量的比例,计算第二区域检测通过的像素数量占整个人脸的矩形子区域的像素数量的比例,根据两个比例的差确定鼻子的横向转动程度。
4.根据权利要求3所述的方法,其特征在于,所述根据两个比例的差确定鼻子的横向转动程度具体实现为:
将所述两个比例的差规整到±20的区间内,从而得到鼻子的横向转动程度。
5.根据权利要求1或2所述的方法,其特征在于,在预定周期内循环N次执行步骤A至步骤C,对获取的人眼注视点位置取平均,得到该预定周期内的人眼注视点位置。
6.根据权利要求1或2所述的方法,其特征在于,该方法还包括:
如果预定时间内连续两次人脸的矩形子区域的位置超过一定幅度的左右或者上下摇摆,则分别判断产生摇头和点头动作。
7.根据权利要求6所述的方法,其特征在于,还包括:在判定产生摇头或者摆头动作后,记录动作产生的时间。
8.一种采用目光捕捉的人机交互方法,其特征在于,包括:
采用如权利要求1至7中任意一项所述的目光捕捉的方法得到的人眼的注视点位置;
将所述人眼的注视点位置发送至上层应用程序。
9.一种采用目光捕捉的人机交互方法,其特征在于,包括:
采用如权利要求6或7所述的目光捕捉的方法判断产生摇头或点头动作;
将产生摇头或点头的动作信息发送至上层应用程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110370221.4A CN102508551B (zh) | 2011-11-18 | 2011-11-18 | 一种目光捕捉方法和采用目光捕捉的人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110370221.4A CN102508551B (zh) | 2011-11-18 | 2011-11-18 | 一种目光捕捉方法和采用目光捕捉的人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102508551A CN102508551A (zh) | 2012-06-20 |
CN102508551B true CN102508551B (zh) | 2014-06-18 |
Family
ID=46220651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110370221.4A Active CN102508551B (zh) | 2011-11-18 | 2011-11-18 | 一种目光捕捉方法和采用目光捕捉的人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102508551B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9894260B2 (en) | 2015-11-17 | 2018-02-13 | Xiaomi Inc. | Method and device for controlling intelligent equipment |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014048936A (ja) * | 2012-08-31 | 2014-03-17 | Omron Corp | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
CN102999164B (zh) * | 2012-11-30 | 2016-08-03 | 广东欧珀移动通信有限公司 | 一种电子书翻页控制方法及智能终端 |
CN103839055B (zh) * | 2014-03-19 | 2017-08-29 | 中国科学技术大学 | 一种驾驶员视线方向的检测方法 |
TWI570638B (zh) * | 2015-07-29 | 2017-02-11 | 財團法人資訊工業策進會 | 凝視分析方法與裝置 |
KR102706397B1 (ko) * | 2016-08-31 | 2024-09-12 | 엘지디스플레이 주식회사 | 개인 몰입형 표시장치 및 이의 구동방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101326546A (zh) * | 2005-12-27 | 2008-12-17 | 松下电器产业株式会社 | 图像处理装置 |
CN101419664A (zh) * | 2007-10-25 | 2009-04-29 | 株式会社日立制作所 | 视线方向计测方法和视线方向计测装置 |
-
2011
- 2011-11-18 CN CN201110370221.4A patent/CN102508551B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101326546A (zh) * | 2005-12-27 | 2008-12-17 | 松下电器产业株式会社 | 图像处理装置 |
CN101419664A (zh) * | 2007-10-25 | 2009-04-29 | 株式会社日立制作所 | 视线方向计测方法和视线方向计测装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9894260B2 (en) | 2015-11-17 | 2018-02-13 | Xiaomi Inc. | Method and device for controlling intelligent equipment |
Also Published As
Publication number | Publication date |
---|---|
CN102508551A (zh) | 2012-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102508551B (zh) | 一种目光捕捉方法和采用目光捕捉的人机交互方法 | |
KR101868597B1 (ko) | 올바른 기기사용자세 유도 장치 및 방법 | |
CN105640489B (zh) | 隐形镜片系统 | |
EP3123283B1 (en) | Eye gaze tracking based upon adaptive homography mapping | |
EP3608755B1 (en) | Electronic apparatus operated by head movement and operation method thereof | |
US9693684B2 (en) | Systems and methods of eye tracking calibration | |
CN109343700B (zh) | 眼动控制校准数据获取方法和装置 | |
US9529428B1 (en) | Using head movement to adjust focus on content of a display | |
CN102880290B (zh) | 一种显示控制方法、装置及终端 | |
WO2015148149A1 (en) | Eye gaze tracking using binocular fixation constraints | |
CN103677270A (zh) | 一种基于眼动跟踪的人机交互方法 | |
CN109948435A (zh) | 坐姿提醒方法及装置 | |
CN111444789B (zh) | 一种基于视频感应技术的近视预防方法及其系统 | |
CN103415882A (zh) | 视频显示装置 | |
WO2010142455A2 (en) | Method for determining the position of an object in an image, for determining an attitude of a persons face and method for controlling an input device based on the detection of attitude or eye gaze | |
CN110148092A (zh) | 基于机器视觉的青少年坐姿及情绪状态的分析方法 | |
CN109240497A (zh) | 一种在虚拟现实场景中的眼动追踪自动校准方法 | |
US11640201B2 (en) | Virtual reality-based eyeball tracking method and system | |
CN113903078A (zh) | 人眼注视检测方法、控制方法及相关设备 | |
EP2261772A1 (en) | Method for controlling an input device based on the detection of attitude or eye gaze | |
US20170112381A1 (en) | Heart rate sensing using camera-based handheld device | |
JP2016111612A (ja) | コンテンツ表示装置 | |
CN111582003A (zh) | 一种视线跟踪学生教室预防近视系统 | |
Yang et al. | vGaze: Implicit saliency-aware calibration for continuous gaze tracking on mobile devices | |
CN102725713A (zh) | 操作输入设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |