CN105278659A - 基于视线追踪技术的目标定位方法和装置 - Google Patents

基于视线追踪技术的目标定位方法和装置 Download PDF

Info

Publication number
CN105278659A
CN105278659A CN201410271463.1A CN201410271463A CN105278659A CN 105278659 A CN105278659 A CN 105278659A CN 201410271463 A CN201410271463 A CN 201410271463A CN 105278659 A CN105278659 A CN 105278659A
Authority
CN
China
Prior art keywords
coordinate
interactive interface
distance
sight line
current gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410271463.1A
Other languages
English (en)
Other versions
CN105278659B (zh
Inventor
周蔚文
何菁钦
刘森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN201410271463.1A priority Critical patent/CN105278659B/zh
Publication of CN105278659A publication Critical patent/CN105278659A/zh
Application granted granted Critical
Publication of CN105278659B publication Critical patent/CN105278659B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于视线追踪技术的目标定位方法和装置,涉及电子信息技术领域。本发明实施例根据视线追踪技术捕获的注视点的精度变化规律,对移向交互界面边缘区域的视线坐标位置在视线移动方向上进行偏移补偿,以提高边缘区域注视点的测量精度,可以更有效地对边缘区域交互目标进行定位,使得人机交互更加自然和谐。

Description

基于视线追踪技术的目标定位方法和装置
技术领域
本发明涉及电子信息技术领域,特别涉及一种基于视线追踪技术的目标定位方法和装置。
背景技术
随着视线追踪技术日趋完善,视线追踪交互技术作为一种新型交互模式越来越多被各类电子产品所采用。
目前视线追踪技术主要通过“瞳孔-角膜反射方法”实现,利用眼动过程中普尔钦斑理论上保持不变的特征,实时定位眼睛图像上的瞳孔位置,计算角膜反射向量,估算得到用户的视线方向。然而在实际应用中,当视线位置向屏幕边缘移动时,会伴随着一定的头部运动等干扰,造成视线追踪系统在屏幕中心位置的测量精度最高,并随着视线相对屏幕中心点的偏离测量精度下降。
当采用视线追踪系统捕获的注视点信号替代鼠标驱动光标进行交互操作时,其交互准确性必然随着交互目标的空间位置偏离屏幕中心区域受到一定程度的影响,影响人机交互。
发明内容
本发明实施例所要解决的一个技术问题是:解决视线追踪定位技术在屏幕边缘精度降低影响人机交互的问题。
根据本发明实施例的一个方面,提出一种基于视线追踪技术的目标定位方法,包括:采集用户在交互界面中的视线坐标序列;根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域;响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
在一个实施例中,根据用户已有的视线坐标序列判断视线移动方向包括:根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。
在一个实施例中,根据用户已有的视线坐标序列判断该视线移动方向是否指向交互界面的边缘区域包括:
计算当前视线坐标到交互界面中心点的距离;
计算前一视线坐标到交互界面中心点的距离;
比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
在一个实施例中,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿包括:
XB’=XB+△X,
YB’=YB+△Y,
△X=(XB-XA)×K,
△Y=(YB-YA)×K,
其中,XB和YB分别表示当前视线坐标B的横坐标和纵坐标,XB’和YB’分别表示补偿后的当前视线坐标B’的横坐标和纵坐标,△X表示横坐标方向上的偏移量,△Y表示纵坐标方向上的偏移量,XA和YA分别表示前一视线坐标A的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
在一个实施例中,补偿系数K的值通过以下公式确定:
K=|B-A|×K1+|B-O|×K2
其中,|B-A|表示当前视线坐标B到前一视线坐标A的距离,|B-O|表示当前视线坐标到交互界面中心点的距离,K1和K2表示偏移系数,取值范围为0~1。
在一个实施例中,根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移系数K1和K2的值。
根据本发明实施例的再一个方面,提出一种基于视线追踪技术的目标定位装置,包括:视标采集模块,用于采集用户在交互界面中的视线坐标序列;视线判断模块,用于根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域;偏移补偿模块,用于响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
在一个实施例中,视线判断模块包括:视线移动方向判断单元,用于根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。
在一个实施例中,视线判断模块包括:边缘区域判断单元,用于计算当前视线坐标到交互界面中心点的距离;计算前一视线坐标到交互界面中心点的距离;比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
在一个实施例中,偏移补偿模块,具体用于:
XB’=XB+△X,
YB’=YB+△Y,
△X=(XB-XA)×K,
△Y=(YB-YA)×K,
其中,XB和YB分别表示当前视线坐标B的横坐标和纵坐标,XB’和YB’分别表示补偿后的当前视线坐标B’的横坐标和纵坐标,△X表示横坐标方向上的偏移量,△Y表示纵坐标方向上的偏移量,XA和YA分别表示前一视线坐标A的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
在一个实施例中,偏移补偿模块中的补偿系数K的值通过以下公式确定:
K=|B-A|×K1+|B-O|×K2
其中,|B-A|表示当前视线坐标B到前一视线坐标A的距离,|B-O|表示当前视线坐标到交互界面中心点的距离,K1和K2表示偏移系数,取值范围为0~1。
在一个实施例中,可以根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移补偿模块中的偏移系数K1和K2的值。
本发明实施例根据视线追踪技术捕获的注视点的精度变化规律,对移向交互界面边缘区域的视线坐标位置在视线移动方向上进行偏移补偿,以提高边缘区域注视点的测量精度,可以更有效地对边缘区域交互目标进行定位,使得人机交互更加自然和谐。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于视线追踪技术的目标定位方法一个实施例的流程示意图。
图2为本发明基于视线追踪技术的目标定位原理示意图。
图3为本发明基于视线追踪技术的目标定位装置一个实施例的结构示意图。
图4为本发明基于视线追踪技术的目标定位装置一个实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
针对目前视线追踪定位技术在交互界面边缘区域精度降低影响人机交互的问题,发明人经研究发现:当视线转向交互界面的边缘区域时,视线追踪技术反馈的视线坐标位置相对于实际视线焦点向交互界面的中央偏离。根据发明人发现的视线追踪技术捕获的注视点的精度变化规律,本发明提出对移向交互界面边缘区域的视线坐标位置在视线移动方向上进行偏移补偿,以提高边缘区域注视点的测量精度,可以更有效地对边缘区域交互目标进行定位,使得人机交互更加自然和谐。
图1为本发明基于视线追踪技术的目标定位方法一个实施例的流程示意图。如图1所示,本实施例的方法包括以下步骤:
步骤S101,采集用户在交互界面中的视线坐标序列;其中,交互界面例如可以是人机交互的屏幕。
步骤S102,根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域。
步骤S103,响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
在一个实施例中,步骤S101中可以利用眼动仪采集视线坐标等眼动数据;还可以利用眼动跟踪技术,通过边缘检测方法在人脸图像中识别眼部区域,并在眼部区域中定位出眼球区域,然后根据各帧图像中定位出的眼球区域建立眼部运动轨迹,可以将眼部初始位置与交互界面中的预设位置相对应,然后根据眼部运动轨迹就可以确定出用户在交互界面中不同时刻对应的视线坐标。本领域技术人员可以理解,还可以采用其他方法来获取视线坐标,对于获取视线坐标的具体方法本发明不做限定。
图2为本发明基于视线追踪技术的目标定位原理示意图。如图2所示,O点为交互界面中心点,A点和B点是采集的用户视线坐标,B点是采集的当前视线坐标,A点是采集的前一视线坐标,A点指向B点的方向是视线移动方向,当视线移动方向指向交互界面的边缘区域时,对B点在视线移动方向上进行偏移补偿,B’点表示补偿后的当前视线坐标(或者说“实际反馈点”)。
在一个实施例中,步骤S102中的“根据用户已有的视线坐标序列判断视线移动方向”可以采用以下方法实现:根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。以图2为例,视线移动方向为A点指向B点的方向。
在一个实施例中,步骤S102中的“根据用户已有的视线坐标序列判断视线移动方向是否指向交互界面的边缘区域”可以采用以下方法实现:
计算当前视线坐标到交互界面中心点的距离;
计算前一视线坐标到交互界面中心点的距离;
比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
以图2为例,如果|B-O|>|A-O|,则认为视线移动方向是指向交互界面的边缘区域。其中,|B-O|表示当前视线坐标到交互界面中心点的距离,|A-O|表示前一视线坐标到交互界面中心点的距离。
在一个实施例中,步骤S103可以采用以下方法进行偏移补偿:
XB’=XB+△X,
YB’=YB+△Y,
△X=(XB-XA)×K,
△Y=(YB-YA)×K,
其中,XB’和YB’分别表示补偿后的当前视线坐标B’的横坐标和纵坐标,XB和YB分别表示当前视线坐标B的横坐标和纵坐标,△X表示横坐标方向上的偏移量,△Y表示纵坐标方向上的偏移量,XA和YA分别表示前一视线坐标A的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
在一个实施例中,补偿系数K的值通过以下公式确定:
K=|B-A|×K1+|B-O|×K2
其中,|B-A|表示当前视线坐标B到前一视线坐标A的距离,|B-O|表示当前视线坐标到交互界面中心点的距离,K1和K2表示偏移系数,取值范围为0~1。
在一个实施例中,可以根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移系数K1和K2的值。例如,对于分辨率越高的眼动仪,K1和K2实际参数取值将越小;当用户双眼距离显示屏幕距离越远,K1和K2实际参数取值将越大。
图3为本发明基于视线追踪技术的目标定位装置一个实施例的结构示意图。如图3所示,本实施例的装置包括:
视标采集模块301,用于采集用户在交互界面中的视线坐标序列;
视线判断模块302,用于根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域;
偏移补偿模块303,用于响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
在一个实施例中,视标采集模块301,具体用于利用眼动仪采集用户在交互界面中的视线坐标序列。
在一个实施例中,视标采集模块301,具体用于利用眼动跟踪技术,通过边缘检测方法在人脸图像中识别眼部区域,并在眼部区域中定位出眼球区域,然后根据各帧图像中定位出的眼球区域建立眼部运动轨迹,可以将眼部初始位置与交互界面中的预设位置相对应,然后根据眼部运动轨迹就可以确定出用户在交互界面中不同时刻对应的视线坐标。
本领域技术人员可以理解,还可以采用其他方法来获取视线坐标,对于获取视线坐标的具体方法本发明不做限定。
图4为本发明基于视线追踪技术的目标定位装置再一个实施例的结构示意图。如图4所示,视线判断模块302包括:视线移动方向判断单元4021和边缘区域判断单元4022;
视线移动方向判断单元4021,用于根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。
边缘区域判断单元4022,用于计算当前视线坐标到交互界面中心点的距离;计算前一视线坐标到交互界面中心点的距离;比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
在一个实施例中,偏移补偿模块303,具体用于:
XB’=XB+△X,
YB’=YB+△Y,
△X=(XB-XA)×K,
△Y=(YB-YA)×K,
其中,XB和YB分别表示当前视线坐标B的横坐标和纵坐标,XB’和YB’分别表示补偿后的当前视线坐标B’的横坐标和纵坐标,△X表示横坐标方向上的偏移量,△Y表示纵坐标方向上的偏移量,XA和YA分别表示前一视线坐标A的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
在一个实施例中,补偿系数K的值通过以下公式确定:
K=|B-A|×K1+|B-O|×K2
其中,|B-A|表示当前视线坐标B到前一视线坐标A的距离,|B-O|表示当前视线坐标到交互界面中心点的距离,K1和K2表示偏移系数,取值范围为0~1。
在一个实施例中,可以根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移系数K1和K2的值。
本发明实施例根据视线追踪技术捕获的注视点的精度变化规律,对移向交互界面边缘区域的视线坐标位置在视线移动方向上进行偏移补偿,以提高边缘区域注视点的测量精度,可以更有效地对边缘区域交互目标进行定位,使得人机交互更加自然和谐。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种基于视线追踪技术的目标定位方法,包括:
采集用户在交互界面中的视线坐标序列;
根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域;
响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
2.根据权利要求1所述的方法,其特征在于,所述根据用户已有的视线坐标序列判断视线移动方向包括:
根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。
3.根据权利要求1或2所述的方法,其特征在于,所述根据用户已有的视线坐标序列判断该视线移动方向是否指向交互界面的边缘区域包括:
计算当前视线坐标到交互界面中心点的距离;
计算前一视线坐标到交互界面中心点的距离;
比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
4.根据权利要求1所述的方法,其特征在于,所述通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿包括:
XB’=XB+△X,
YB’=YB+△Y,
△X=(XB-XA)×K,
△Y=(YB-YA)×K,
其中,XB和YB分别表示当前视线坐标B的横坐标和纵坐标,XB’和YB’分别表示补偿后的当前视线坐标B’的横坐标和纵坐标,△X表示横坐标方向上的偏移量,△Y表示纵坐标方向上的偏移量,XA和YA分别表示前一视线坐标A的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
5.根据权利要求4所述的方法,其特征在于,补偿系数K的值通过以下公式确定:
K=|B-A|×K1+|B-O|×K2
其中,|B-A|表示当前视线坐标B到前一视线坐标A的距离,|B-O|表示当前视线坐标到交互界面中心点的距离,K1和K2表示偏移系数,取值范围为0~1。
6.根据权利要求5所述的方法,其特征在于,根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移系数K1和K2的值。
7.一种基于视线追踪技术的目标定位装置,包括:
视标采集模块,用于采集用户在交互界面中的视线坐标序列;
视线判断模块,用于根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域;
偏移补偿模块,用于响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
8.根据权利要求7所述的装置,其特征在于,所述视线判断模块包括:
视线移动方向判断单元,用于根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。
9.根据权利要求7或8所述的装置,其特征在于,所述视线判断模块包括:
边缘区域判断单元,用于计算当前视线坐标到交互界面中心点的距离;计算前一视线坐标到交互界面中心点的距离;比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
10.根据权利要求7所述的装置,其特征在于,所述偏移补偿模块,具体用于:
XB’=XB+△X,
YB’=YB+△Y,
△X=(XB-XA)×K,
△Y=(YB-YA)×K,
其中,XB和YB分别表示当前视线坐标B的横坐标和纵坐标,XB’和YB’分别表示补偿后的当前视线坐标B’的横坐标和纵坐标,△X表示横坐标方向上的偏移量,△Y表示纵坐标方向上的偏移量,XA和YA分别表示前一视线坐标A的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
11.根据权利要求10所述的装置,其特征在于,补偿系数K的值通过以下公式确定:
K=|B-A|×K1+|B-O|×K2
其中,|B-A|表示当前视线坐标B到前一视线坐标A的距离,|B-O|表示当前视线坐标到交互界面中心点的距离,K1和K2表示偏移系数,取值范围为0~1。
12.根据权利要求11所述的装置,其特征在于,根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移系数K1和K2的值。
CN201410271463.1A 2014-06-18 2014-06-18 基于视线追踪技术的目标定位方法和装置 Active CN105278659B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410271463.1A CN105278659B (zh) 2014-06-18 2014-06-18 基于视线追踪技术的目标定位方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410271463.1A CN105278659B (zh) 2014-06-18 2014-06-18 基于视线追踪技术的目标定位方法和装置

Publications (2)

Publication Number Publication Date
CN105278659A true CN105278659A (zh) 2016-01-27
CN105278659B CN105278659B (zh) 2018-09-14

Family

ID=55147824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410271463.1A Active CN105278659B (zh) 2014-06-18 2014-06-18 基于视线追踪技术的目标定位方法和装置

Country Status (1)

Country Link
CN (1) CN105278659B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123099A (zh) * 2017-04-27 2017-09-01 广东华中科技大学工业技术研究院 人机界面数据采集方法
CN108992035A (zh) * 2018-06-08 2018-12-14 云南大学 一种眼动追踪中注视点位置偏移的补偿方法
CN109426425A (zh) * 2017-09-05 2019-03-05 富士施乐株式会社 信息处理装置、图像形成装置以及存储介质
CN110780742A (zh) * 2019-10-31 2020-02-11 Oppo广东移动通信有限公司 眼球追踪处理方法及相关装置
CN111459271A (zh) * 2020-03-27 2020-07-28 Oppo广东移动通信有限公司 注视偏移误差确定方法及装置
CN114706484A (zh) * 2022-04-18 2022-07-05 Oppo广东移动通信有限公司 视线坐标确定方法及装置、计算机可读介质和电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
CN102708358A (zh) * 2012-04-18 2012-10-03 北京十分科技有限公司 一种阅读轨迹识别的方法
CN102708843A (zh) * 2012-05-15 2012-10-03 中兴通讯股份有限公司 一种终端图像处理方法及终端
CN102930252A (zh) * 2012-10-26 2013-02-13 广东百泰科技有限公司 一种基于神经网络头部运动补偿的视线跟踪方法
CN103366381A (zh) * 2013-08-06 2013-10-23 山东大学 基于空间位置的视线跟踪校正方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708358A (zh) * 2012-04-18 2012-10-03 北京十分科技有限公司 一种阅读轨迹识别的方法
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
CN102708843A (zh) * 2012-05-15 2012-10-03 中兴通讯股份有限公司 一种终端图像处理方法及终端
CN102930252A (zh) * 2012-10-26 2013-02-13 广东百泰科技有限公司 一种基于神经网络头部运动补偿的视线跟踪方法
CN103366381A (zh) * 2013-08-06 2013-10-23 山东大学 基于空间位置的视线跟踪校正方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123099A (zh) * 2017-04-27 2017-09-01 广东华中科技大学工业技术研究院 人机界面数据采集方法
CN107123099B (zh) * 2017-04-27 2020-02-14 广东华中科技大学工业技术研究院 人机界面数据采集方法
CN109426425A (zh) * 2017-09-05 2019-03-05 富士施乐株式会社 信息处理装置、图像形成装置以及存储介质
CN109426425B (zh) * 2017-09-05 2023-09-22 富士胶片商业创新有限公司 信息处理装置、图像形成装置以及存储介质
CN108992035A (zh) * 2018-06-08 2018-12-14 云南大学 一种眼动追踪中注视点位置偏移的补偿方法
CN110780742A (zh) * 2019-10-31 2020-02-11 Oppo广东移动通信有限公司 眼球追踪处理方法及相关装置
CN110780742B (zh) * 2019-10-31 2021-11-02 Oppo广东移动通信有限公司 眼球追踪处理方法及相关装置
CN111459271A (zh) * 2020-03-27 2020-07-28 Oppo广东移动通信有限公司 注视偏移误差确定方法及装置
CN111459271B (zh) * 2020-03-27 2024-03-08 Oppo广东移动通信有限公司 注视偏移误差确定方法及装置
CN114706484A (zh) * 2022-04-18 2022-07-05 Oppo广东移动通信有限公司 视线坐标确定方法及装置、计算机可读介质和电子设备

Also Published As

Publication number Publication date
CN105278659B (zh) 2018-09-14

Similar Documents

Publication Publication Date Title
CN105278659A (zh) 基于视线追踪技术的目标定位方法和装置
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US9782069B2 (en) Correcting systematic calibration errors in eye tracking data
CN102662476B (zh) 一种视线估计方法
US9904054B2 (en) Headset with strain gauge expression recognition system
KR102212209B1 (ko) 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
CN109558012A (zh) 一种眼球追踪方法及装置
CA2910552C (en) System and method for probabilistic object tracking over time
US9001006B2 (en) Optical-see-through head mounted display system and interactive operation
US20150185835A1 (en) Eye tracking method and apparatus
KR20140040176A (ko) 트랙패드 입력 디바이스를 사용하여 디스플레이 상의 커서를 제어하는 시스템 및 방법
CN103870796A (zh) 一种人眼视线估计的方法与装置
CN104113680A (zh) 视线跟踪系统及方法
KR20130102918A (ko) 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스
CN109961523B (zh) 虚拟目标的更新方法、装置、系统、设备及存储介质
JP2014170374A (ja) 光学式シースルー型hmdを用いたarシステム
CN110658916A (zh) 目标跟踪方法和系统
US11789528B1 (en) On-the-fly calibration for improved on-device eye tracking
US20200265598A1 (en) SYSTEMS AND METHODS FOR HANDLING MULTIPLE SIMULTANEOUS LOCALIZATION AND MAPPING (SLAM) SOURCES AND ALGORITHMS IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS
Batista Narcizo et al. Depth compensation model for gaze estimation in sport analysis
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
KR20210128467A (ko) 시각 작업에 대한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법
US20150153834A1 (en) Motion input apparatus and motion input method
Kondo et al. Analysis of Human Pointing Behavior in Vision-based Pointing Interface System-difference of two typical pointing styles
Yu et al. Gaze tracking system for teleoperation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant