CN103885583A - 对眼动追踪器进行硬件校准的装置和方法 - Google Patents

对眼动追踪器进行硬件校准的装置和方法 Download PDF

Info

Publication number
CN103885583A
CN103885583A CN201310718794.0A CN201310718794A CN103885583A CN 103885583 A CN103885583 A CN 103885583A CN 201310718794 A CN201310718794 A CN 201310718794A CN 103885583 A CN103885583 A CN 103885583A
Authority
CN
China
Prior art keywords
viewing area
sight line
user
processing unit
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310718794.0A
Other languages
English (en)
Other versions
CN103885583B (zh
Inventor
安德斯·卡普兰
G·特罗伊利
J·埃尔韦舍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tobii Technology AB
Original Assignee
Tobii Technology AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tobii Technology AB filed Critical Tobii Technology AB
Priority to CN201810602157.XA priority Critical patent/CN109002161B/zh
Publication of CN103885583A publication Critical patent/CN103885583A/zh
Application granted granted Critical
Publication of CN103885583B publication Critical patent/CN103885583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Abstract

本发明涉及对眼动追踪器进行硬件校准的装置和方法,视线追踪设备通过在显示单元上的显示区域上呈现至少一个图形引导目标而被校准,图形引导目标指示反映视线追踪设备可如何被定位在显示单元的框架的第一侧的至少一个区别特征。通过用户命令沿与框架的第一侧平行的第一方向在显示区域上移动图形引导目标。根据至少一个图形引导目标在显示区域上的当前位置为视线追踪设备分配指示框架的第一侧上实际位置的值。根据分配的值和显示区域的已知尺寸来计算偏移值。偏移值表示视线追踪设备的定义明确的点与第一侧的定义明确的点之间沿第一方向的距离。响应用户输入确认命令来确定并存储偏移值、宽度尺寸和高度尺寸以供确定用户在显示区域上的视线点使用。

Description

对眼动追踪器进行硬件校准的装置和方法
技术领域
本发明总体上涉及一种用于被配置为给定的眼动和/或视线追踪器的硬件的解决方案,所述硬件可用于任意显示单元。本发明尤其涉及一种根据权利要求1的前序的数据处理单元以及一种根据权利要求7的前序的方法。本发明还涉及一种根据权利要求13的计算机程序产品以及一种根据权利要求14的计算机可读介质。
背景技术
到目前为止,至少在普通计算机用户领域中,用于追踪用户眼动以及/或者确定用户在计算机屏幕上的视线位置的设备相对而言并不常见。迄今为止,大部分用户都是科学家或者残疾人(即,要么是将大量的精力投入到构建这种类型的计算机接口的人,要么是在经过针对此任务特别训练的专业人员的帮助下的人)。因而,用于将外围眼动以及/或者视线追踪设备关联到已有屏幕上的相对复杂的安装以及硬件校准过程是能够接受的。
然而,如果普通计算机用户将能够对他的/她的计算机显示单元视线追踪设备进行升级,那么安装和硬件校准过程必须充分简化。否则,这种眼动/视线追踪技术将无法拥有大众市场。
发明内容
本发明的目的在于解决以上问题,并由此提供了一种简单并且直观的解决方案,以相对显示单元对视线追踪设备进行硬件校准。
根据本发明的一方面,通过首先描述的数据处理单元来实现目标,其中,该数据单元包括数据输出接口和用户输入接口。所述数据输出接口配置为产生用于在显示单元的显示区域上呈现至少一个图形引导目标的控制数据。所述至少一个图形引导目标指示所述视线追踪设备的至少一个区别特征,所述至少一个区别特征反映所述视线追踪设备可如何被定位在所述显示单元的框架的第一侧处。所述用户输入接口配置为接收至少一个用户输入移动命令和用户输入确认命令。所述数据处理单元配置为产生控制数据,以便所述至少一个图形引导目标中的至少一个响应于所述至少一个用户输入移动命令沿与所述框架的所述第一侧平行的第一方向在所述显示区域上移动。所述数据处理单元配置为根据所述至少一个图形引导目标在所述显示区域上的当前位置来为所述视线追踪设备分配一位置值,所述位置值指示在所述框架的所述第一侧上的实际位置。进一步地,所述数据处理单元配置为根据所分配的位置值以及显示区域的已知尺寸(例如,像素大小或者显示宽度/高度以及图像分辨率)来计算偏移值。所述偏移值表示所述视线追踪设备的定义明确的点与所述第一侧的定义明确的点(即,中点)之间沿所述第一方向的距离。所述数据处理单元还配置为确定反映所述显示区域的物理延伸范围的宽度尺寸和高度尺寸;以及响应于用户输入确认命令来存储所述偏移值、所述宽度尺寸以及所述高度尺寸,以供确定用户在所述显示区域上的视线点时使用。
本数据处理单元是很有优势的,因为它提供了简单并且相当人性化的方式来获得任意种类的显示单元的眼动追踪设备的可靠并且精确的硬件校准。
根据本发明的此方面的一优选实施例,数据处理单元包括数据输入接口,所述数据输入接口配置为从与数据处理单元通信连接的数据存储器中接收以下数据:分辨率参数、反映显示区域的每个像素的大小的值以及显示区域的宽度尺寸和/或高度尺寸。因此,此数据被存储在内部存储器、数据库或者相应的能够通过诸如互联网之类的网络进行访问的外部资源中。
根据本发明的此方面的另一优选实施例,所述至少一个图形引导目标指示至少两个区别特征,所述至少两个区别特征指明视线追踪设备沿着显示单元的第一侧方向的部分(比如说,设备的全长)的物理延伸范围。这里的所述至少一个用户输入移动命令包括至少一个用以将所述至少一个图形引导目标的位置调整到所述沿着第一侧方向的部分的物理延伸范围处(即,这使得图形引导目标的位置与视线追踪设备的定位相匹配)的命令。因此,举例来说,视线追踪设备的屏幕上的图像能够放大/缩小,或者以其它方式转换来与当前视线追踪设备的宽度和定位来匹配。对于大多数用户来说,这自然是非常简单并且直观的与提出的校准系统交互的方法。
优选地,如果提前不知道显示区域的宽度尺寸,则数据处理单元进一步配置为根据分辨率参数以及从显示区域上的所述图形引导目标获得的距离尺寸来计算宽度尺寸。也就是说,已知视线追踪设备的所述沿着第一侧方向的部分的物理延伸范围,并由此可以用作测量显示区域上的距离的标尺。进一步根据此距离和分辨率参数能够以非常直接的方式确定显示区域的整体宽度。
根据本发明的此方面的另一优选实施例,规定分辨率参数包含反映了显示区域的纵横比的数据。而且,规定显示区域的像素是方形的,则数据处理单元配置为根据显示区域的宽度尺寸和分辨率参数来计算显示区域的高度尺寸。因此,能够很精确地知道显示区域的二维物理延伸范围。
根据本发明的另一方面,通过首先描述的方法实现了目标,其中,在显示单元的显示区域上呈现至少一个图形引导目标。所述至少一个图形引导目标指示所述视线追踪设备的至少一个区别特征,所述区别特征反映所述视线追踪设备可如何被定位在所述显示单元的框架的第一侧处。响应于所述至少一个用户输入移动命令来沿与所述框架的所述第一侧平行的第一方向在所述显示区域上移动所述至少一个图形引导目标中的至少一个。根据所述至少一个图形引导目标在所述显示区域上的当前位置来为所述视线追踪设备分配一位置值,所述位置值指示在所述框架的所述第一侧上的实际位置。根据所分配的位置值以及显示区域的已知尺寸来计算偏移值。所述偏移值表示所述视线追踪设备的定义明确的点与所述第一侧的定义明确的点之间沿所述第一方向的距离。确定反映所述显示区域的物理延伸范围的宽度尺寸和高度尺寸。响应于用户输入确认命令来存储所述偏移值、所述宽度尺寸以及所述高度尺寸,以供确定所述显示区域上的用户的视线点时使用。通过参照对提出的装置进行阐述,此方法以及参照的实施例的优点是很明显的。
根据本发明的进一步的方面,通过一种计算机程序产品实现了本发明的目标,所述计算机程序产品能够加载到计算机的存储器中,并且包括用于当在所述计算机上运行所述计算机程序产品时实现上述方法的软件。
根据本发明的另一方面,通过一种计算机可读介质实现了本发明的目标,所述计算机可读介质上录制程序,当所述程序被加载到计算机中时所述程序控制计算机执行上述方法。
在以下说明以及从属权力要求中将展现本发明的进一步的优点、有益特征和应用。
附图说明
在此将参照实施例对本发明做进一步的说明,所述实施例作为示例被公开并且参照以下附图。
图1示出了显示单元的第一视图,根据本发明的一个实施例,视线追踪设备安装在所述显示单元上;
图2示出的侧视图示出了图1的视线追踪器设备如何被附连到显示单元上;以及
图3和4以流程图的方式示出了根据本发明的一般方法。
具体实施方式
首先,我们参照图1,图1示出了显示单元110的第一视图,根据本发明的一个实施例,视线追踪设备120安装在显示单元110上。图2示出了图1中的视线追踪设备120的侧视图,示出了该设备如何被附连到显示单元110上。
根据本发明,数据处理单元130用于相对特定显示单元110对视线追踪设备120进行硬件校准。本发明假定,当提出的过程开始时,视线追踪设备120已经被附连到显示单元110的框架110F上。典型地,将视线追踪设备120安装在框架110F的一侧(假定在此为下侧)的大约中点处是较好的。然而,在技术上,可以将视线追踪设备120布置在显示单元110上的任意可替换的位置处或者布置在所述显示单元110附近的任意可替换的位置处,只要视线追踪设备120在此位置保持固定。取决于视线追踪设备120的工作角度范围以及与显示单元110的用户之间的预计距离,视线追踪设备120的极度偏心的定位可能会引起很多困难,或者甚至会导致无法确定用户在显示单元110的显示区域110A上的视线位置。
视线追踪设备120与附连组件220(例如,所述附连组件包括搭扣连接器、夹具或甚至胶带)相关联,所述附连组件220被配置为将视线追踪设备120保持于框架110F的固定位置。附连组件220的结构还使其确保视线追踪设备120与显示区域110A之间的固定的位置关系X-OFF、Y-OFF以及角度关系θ。因此,一旦视线追踪设备120被附连到框架110F上,则可以假定视线追踪设备120到显示区域110A的相对位置X-OFF、Y-OFF以及角度θ保持不变。此外,假定与显示区域110A的角度θ以及偏移距离Y-OFF为已知并且由附连组件220的设计给定。
数据处理单元130包括数据输出接口131和用户输入接口132。
数据输出接口131被配置为产生控制数据G-Ctrl,所述控制数据G-Ctrl用于在显示单元110的显示区域110A上呈现至少一个图形引导目标G1、G2和/或G3。图形引导目标G1、G2和/或G3分别指示出视线追踪设备120的相应的区别特征,这些特征反映视线追踪设备120可如何被定位在显示单元110的框架110F的第一侧110X上。例如,第一区别特征121可以由视线追踪设备120的左侧边缘来表示并且第二区别特征122可以由视线追踪设备120的右侧边缘来表示。替代性的,或者作为补充,第三区别特征123可以通过视线追踪设备120的其它定义明确的点给定(例如,视线追踪设备120一侧的标记,该标记进而又可以指定视线追踪设备120的中点)。
用户输入接口132被配置为:接收至少一个用户输入移动命令MC以及用户输入确认命令CC(例如,所述命令由键盘、鼠标和/或语音识别接口产生)。借此,用户输入移动命令MC分别对图形引导目标G1和G2在显示区域110A上的定位x1和x2进行控制。提出的过程基本上如下所述。在显示区域110A上呈现至少一个图形引导目标G1、G2和/或G3。例如,第一和第二图形引导目标G1和G2可以由相应的直线来给定,该直线终止于显示区域110A的与显示单元110的框架110F的第一边110X邻接的一侧,视线追踪设备120安装在所述第一边110X处。之后,通过用户输入移动命令MC,用户对图形引导目标G1和/或G2的各自的位置x1和/或x2进行控制直到这些位置分别与第一和第二区别特征121和122相匹配。类似地,用户可以控制第三图形引导目标G3(以箭头的形式给出)以匹配第三区别特征,以便于第三图形引导目标G3到达显示区域110A的边110X上的位置Px。
当控制图形引导目标G1、G2和/或G3使其到达要求位置(即,分别与相关的区别特征121、122以及/或者123匹配)时,用户通过经由用户输入接口132输入相应的用户输入确认命令CC来确认这些位置(例如,使用键盘、鼠标以及/或者发出声音命令来输入所述确认命令)。因此,对一系列值进行存储,当确定用户在显示区域110A上的视线点的时候这些值可以作为参照。
为了实现这一点,数据处理单元130被配置为:产生控制数据G-Ctrl以使得图形引导目标G1、G2和/或G3响应于用户输入移动命令MC而在显示区域110A上沿与框架110F的第一侧110X平行的第一方向移动(所述第一方向即,在图1中所示的示例中向左/右)。数据处理单元130被进一步配置为:分配一位置值(文中用Px表示),所述位置值基于图形引导目标G1、G2和/或G3在显示区域110A上的当前位置来指示视线追踪设备120在框架110F的第一侧110X上的实际位置。
由于能够提前知道视线追踪设备120的物理尺寸,可以假定表示这些尺寸的值被存储在数据处理单元130中,或者数据处理单元130可通过其他手段来存取表示这些尺寸的值。此外,数据处理单元130被配置为:计算偏移值X-OFF,所述偏移值X-OFF表示视线追踪设备的明确定义的点与第一侧110X的定义明确的点110C(比如说,第一侧110X的中点)之间沿所述第一方向的距离。优选地,为了使得过程更加简便,视线追踪设备120的定义明确的点由区别特征123指明。替代性地,定义明确的点可以由视线追踪设备120上的任意其它区别特征(例如,一个或者两个边缘121或122)来给定。
根据所分配的位置值Px以及显示区域110A的已知尺寸来计算偏移值X-OFF。显示区域110A的已知尺寸可以由反映显示区域110A的每个像素的大小的值来给定。替代性地,显示区域110A的已知尺寸可以由显示区域110A的宽度尺寸X和显示单元110的分辨率参数NR来表示,或者由显示区域110A的高度尺寸Y和显示单元110的分辨率参数NR来表示。
换句话说,位置值Px反映了定义明确的点110C与区别特征123之间的像素列数;并且所述已知尺寸直接或者间接地指明了显示区域110A上的每个像素的物理宽度。因此,数据处理单元130能够推导出偏移值X-OFF的物理距离(比如说,以微米表示)。
数据处理单元130被进一步配置为:当确定用户在显示区域110A上的视线点时,存储偏移值X-OFF以及宽度尺寸X和高度尺寸Y以作为参照使用。换言之,在已知偏移值X-OFF的情况下,视线追踪设备120能够在与所述第一方向平行的维度中确定用户在显示区域110A上的视线点。通过获知宽度尺寸X,视线追踪设备120能够确定视线点是否位于显示区域110A上。类似地,已知沿垂直于第一方向的方向的偏移值Y-OFF(由附连组件220给定)并且通过获知高度尺寸Y,视线追踪设备120能够确定视线点是否位于显示区域110A上。
根据本发明,偏移值X-OFF可以随着至少一个图形引导目标G1、G2和/或G3的任何位置的变化所导致的不同的位置值Px被分配而被再次计算,也可以与偏移值X-OFF的储存相关联,即,响应于用户输入确认命令CC(例如,通过敲击输入键来产生)以及显示区域110A上的至少一个图形引导目标G1、G2以及/或者G3的当前位置。
根据本发明的一优选实施例,图形引导目标G1以及G2分别指示两个不同的区别特征121和122,所述区别特征121和122共同指明视线追踪设备120的沿着第一侧110X方向(即,沿第一方向)的部分的物理延伸范围。视线追踪设备120的该部分可以由设备120的整个长度或者其任意子部分来表示。
在此,用户输入移动命令MC表示第一命令和第二命令,所述第一命令用于将第一图形引导目标G1的位置调整到匹配第一区别特征121的位置,所述第二命令用于将第二图形引导目标G2调整到匹配第二区别特征122的位置。假定第一和第二区别特征121和122之间沿着第一侧110X的物理距离为数据处理单元130已知的值。
如上所述,数据处理单元130还能够存取显示区域110A的已知尺寸。反过来说,该尺寸可以由反映显示区域110A的每个像素的大小、显示区域110A的宽度尺寸X以及分辨率参数NR的值来给定,或者由反映显示区域110A的每个像素的大小、显示区域110A的高度尺寸Y以及分辨率参数NR的值来给定。在用户通过输入合适的输入确认命令CC确认了图形引导目标G1以及G2的位置分别与区分特征121和122匹配之后,进一步假定数据处理单元130已知第一和第二区别特征121和122之间的像素列数。
优选地,如果并未提前获知显示区域110A的宽度尺寸X,数据处理单元130被进一步配置为:根据分辨率参数NR以及两个图像引导目标G1和G2各自在显示区域110A上的位置x1和x2间的距离尺寸来计算所述宽度尺寸X。换句话说,如上所述,视线追踪设备120的与位置x1和x2之间沿着第一侧的距离相对应的部分的物理延伸范围是已知的。因此,此尺寸能够被用作测量显示区域110A上的距离的标尺。进一步基于此距离和分辨率参数NR能够确定显示区域的整个宽度X。在计算偏移值X-OFF时,位置x1与x2之间沿着第一侧的距离也可以被用作显示区域110A的已知尺寸。
规定分辨率参数NR包含反应显示区域110A的纵横比的数据,数据处理单元130进一步优选地被配置为:根据宽度尺寸X和分辨率参数NR来计算高度尺寸Y。这种情况下,所述分辨率参数NR也可被称为原始分辨率,所述原始分辨率表示为一对分别指示第一方向X以及方向Y(所述方向Y垂直于所述第一方向X)上的像素的数量的值,举例而言,对于4:3的纵横比有例如:640×480、1024×768、1280×960或1600×1200;或替代性地,纵横比为例如1280×1024。
因此,对于视线追踪设备120记录的视线位置而言,能够推导出所述视线位置在显示区域110A上的XY像素坐标(当然,倘若视线位置位于显示区域110A以内)。
根据本发明的一优选实施例,数据处理单元130具有数据输入接口133,数据输入接口133被配置为从数据存储器中接收分辨率参数NR,所述数据存储器与数据处理单元130通信连接。因此,能够从包括了数据处理单元130的计算机内部或者从外部数据库中(比如说,可以通过诸如互联网之类的网络来访问所述外部数据库)检索分辨率参数NR。能够以相应的方式将宽度尺寸X和/或高度尺寸Y和/或反映显示区域110A上每个像素的大小的值接收到在数据处理单元130中。
优选地,数据处理设备130包括存储器单元140或者与存储器单元140通信连接,所述存储器单元140存储有计算机程序产品PP,所述计算机程序产品PP包括用于在数据处理设备130上运行计算机程序产品PP时控制数据处理单元130执行上述动作的软件。
为了概括本发明的内容,我们将参照图3中的流程图对根据本发明的一般方法进行说明。
在第一步骤310中,在连接到数据处理单元130上的显示单元110的显示区域110A上呈现至少一个图形引导目标G1、G2和/或G3;优选地,安装在显示单元110上的视线追踪设备120用于控制数据处理单元130,或者所述视线追踪设备120通过其它方式被配置为与数据处理单元130交互。所述至少一个图形引导目标G1、G2和/或G3指示视线追踪设备120的一个或者多个区别特征,所述区别特征还进而反映视线追踪设备120可如何被定位在显示单元110的框架110F的第一侧110X处。
之后,步骤320检测是否接收到用户输入移动命令MC;并且如果接收到,过程继续进入步骤340。否则,过程循环回到步骤310。与步骤320并行的步骤330计算偏移值X-OFF,所述偏移值X-OFF表示眼动追踪设备120的定义明确的点与显示区域110A的第一侧110X的定义明确的点110C之间的距离,所述显示区域110A基于显示区域110A上的至少一个图形引导目标G1、G2和/或G3的当前位置。如上所述,该计算自然要求已知显示区域110A的物理尺寸。通过从数据存储器中读取宽度尺寸X和高度尺寸Y的值或者根据测量的距离x2-x1以及分辨率参数NR来计算宽度尺寸X和高度尺寸Y的值,步骤330还分别确定了显示区域110A的宽度尺寸X和高度尺寸Y。正如上文所提到的,当计算偏移值X-OFF时,这些参数可以用作显示区域110A的已知尺寸。
随后来到步骤350,步骤350检测是否接收到用户输入确认命令CC,并且在确认接收后继续步骤360。
步骤340响应于用户输入移动命令MC向至少一个引导目标G1、G2和/或G3中的一个或者多个分配新的位置。此后,过程循环回到步骤310以在新的位置处呈现所述至少一个引导目标G1、G2和/或G3。
步骤360存储偏移值X-OFF以及宽度尺寸X和高度尺寸Y以在确定用户在显示区域110A上的视线点时作为数据处理设备130的参照。此后,过程结束。
或者响应于用户确认命令CC以及至少一个图形引导目标G1、G2和/或G3在显示区域110A上的当前位置来分配位置值Px;或者,当至少一个图形引导目标G1、G2和/或G3的位置随时间变化时,位置值Px可以被再次分配。
图4包括另一流程图,所述流程图也示出了根据本发明的一般方法;然而,在此流程图中计算步骤330和步骤350之间的顺序发生变化,在所述步骤中350检测是否接收到确认命令。图4中说明的过程略微优于图3中的过程,因为在图4中,只在确认偏移值X-OFF以及宽度尺寸X和高度尺寸Y实际上待被存储以便之后使用时才对它们的值进行计算。但是,在图4中,所有的方块都指定了与上述中参照图3说明的方块相同的步骤。
参照以上的图3和4说明的所有的处理步骤,以及所述处理步骤的任何子序列,都能够利用已编程的计算机装置来控制。此外,尽管以上参照附图说明的本发明的实施例包括计算机装置以及在计算机装置中执行的过程,但是本发明还可以拓展到计算机程序(尤其是在载体之上或者载体之中并且适用于将本发明应用于实践的计算机程序)。所述程序可以是源代码、目标代码、源代码与目标代码中间的代码(例如,部分编译形式的代码)、或者任何适用于实现根据本发明的过程的其他形式。所述程序可以是操作系统的一部分或者是独立的应用程序。所述载体可以是能够携带所述程序的任何实体或者设备。例如,载体可以包括FLASH(闪存)存储器、ROM(只读存储器)之类的存储介质,例如,DVD(数字通用光盘)、CD(光盘)或者半导体ROM、EPROM(可擦除编程只读存储器)、EEPROM(电可擦除编程只读存储器)或者诸如磁盘或硬盘之类的磁记录介质。进一步地,载体可以是可传递诸如电信号或者光信号的载体,所述电或者光信号可以由电缆或者光缆亦或由广播或者其它工具来传递。当程序由缆线或者其他设备或方式直接传递的信号实现时,所述载体可以由这样的缆线或者设备或工具组成。或者,所述载体可以是集成有程序的集成电路,所述集成电路适用于执行相关过程或者被用于相关过程的执行中。
在本申请中使用的术语“包括”用于列举存在所陈述的特征、数值、步骤或者组件。然而,该术语并不排除存在或者添加一个或者多个额外的特征、数值、步骤或者组件,或者上述的组合。
本发明并不局限于图中所说明的实施例,而是可以在权利要求书的范围内自由地变化。

Claims (14)

1.一种数据处理单元(130),所述数据处理单元(130)被配置为相对显示单元(110)对视线追踪设备(120)进行硬件校准,其特征在于,所述数据处理单元(130)包括:
数据输出接口(131),被配置为产生用于在所述显示单元(110)的显示区域(110A)上呈现至少一个图形引导目标(G1、G2、G3)的控制数据(G-Ctrl),所述至少一个图形引导目标(G1、G2、G3)指示所述视线追踪设备的至少一个区别特征(121、122;123),所述至少一个区别特征(121、122;123)反映所述视线追踪设备(120)可如何被定位(x1、x2)在所述显示单元(110)的框架(110F)的第一侧(110X)处;以及
用户输入接口(132),被配置为接收至少一个用户输入移动命令(MC)和用户输入确认命令(CC),并且
所述数据处理单元(130)被配置为:
产生控制数据(G-Ctrl)以便所述至少一个图形引导目标(G1、G2、G3)中的至少一个响应于所述至少一个用户输入移动命令(MC)沿与所述框架(110F)的所述第一侧(110X)平行的第一方向在所述显示区域(110A)上移动;
根据所述至少一个图形引导目标(G1、G2、G3)在所述显示区域(110A)上的当前位置,来为所述视线追踪设备(120)分配一位置值(Px),所述位置值(Px)指示在所述框架(110F)的所述第一侧(110X)上的实际位置;
根据所分配的位置值(Px)以及所述显示区域(110A)的已知尺寸来计算偏移值(X-OFF),所述偏移值表示所述视线追踪设备(120)的定义明确的点(123)与所述第一侧(110X)的定义明确的点(110C)之间沿所述第一方向的距离;
确定反映所述显示区域(110A)的物理延伸范围的宽度尺寸(X)和高度尺寸(Y);以及
响应于用户输入确认命令(CC)来存储所述偏移值(X-OFF)、所述宽度尺寸(X)以及所述高度尺寸(Y),以供确定用户在所述显示区域(110A)上的视线点时使用。
2.根据权利要求1所述的数据处理单元(130),包括数据输入接口(133),所述数据输入接口(133)被配置为从与所述数据处理单元(130)通信连接的数据存储器中接收分辨率参数(NR)。
3.根据权利要求1或2所述的数据处理单元(130),包括一数据输入接口(133),所述数据输入接口(133)被配置为从与所述数据处理单元(130)通信连接的数据存储器中接收以下数值中的至少一个:反映所述显示区域(110A)的每个像素的大小的值、所述宽度尺寸(X)以及所述高度尺寸(Y)。
4.根据权利要求1或2所述的数据处理单元(130),其中,所述至少一个图形引导目标(G1、G2、G3)指示至少两个区别特征(121、122;123),所述至少两个区别特征(121、122;123)指明所述视线追踪设备(120)沿着所述第一侧(110X)方向的部分的物理延伸范围,并且所述至少一个用户输入移动命令(MC)包括至少一个用以将所述至少一个图形引导目标(G1、G2、G3)中的至少一个的位置调整到沿着所述第一侧(110X)方向的所述部分的物理延伸范围处的命令。
5.根据权利要求4所述的数据处理单元(130),其中,所述数据处理单元(130)被进一步配置为:
根据所述分辨率参数(NR)以及从两个所述图形引导目标(G1、G2)各自在所述显示区域(110A)上的位置(x1;x2)获得的距离尺寸来计算所述宽度尺寸(X)。
6.根据权利要求5所述的数据处理单元(130),其中,所述分辨率参数(NR)包括反映所述显示区域(110A)的纵横比的数据,并且所述数据处理单元(130)被进一步配置为:
根据所述宽度尺寸(X)和所述分辨率参数(NR)来计算所述高度尺寸(Y)。
7.一种相对显示单元(110)对视线追踪设备(120)进行硬件校准的方法,其特征在于:
在显示单元(110)的显示区域(110A)上呈现至少一个图形引导目标(G1、G2、G3),所述至少一个图形引导目标(G1、G2、G3)指示所述视线追踪设备(120)的至少一个区别特征(121、122;123),所述至少一个区别特征(121、122;123)反映所述视线追踪设备(120)可如何被定位(x1、x2)在所述显示单元(110)的框架(110F)的第一侧(110X)处;
响应于至少一个用户输入移动命令(MC)来沿与所述框架(110F)的所述第一侧(110X)平行的第一方向在所述显示区域(110A)上移动所述至少一个图形引导目标(G1、G2、G3)中的至少一个;
根据所述至少一个图形引导目标(G1、G2、G3)在所述显示区域(110A)上的当前位置,来为所述视线追踪设备(120)分配一位置值(Px),所述位置值(Px)指示在所述框架(110F)的所述第一侧(110X)上的实际位置;
根据所分配的位置值(Px)以及显示区域(110A)的已知尺寸来计算偏移值(X-OFF),所述偏移值(X-OFF))表示所述视线追踪设备(120)的定义明确的点(123)与所述第一侧(110X)的定义明确的点(110C)之间沿所述第一方向的距离;
确定反映所述显示区域(110A)的物理延伸范围的宽度尺寸(X)和高度尺寸(Y);以及
响应于用户输入确认命令(CC)来存储所述偏移值(X-OFF)、所述宽度尺寸(X)以及所述高度尺寸(Y),以供确定用户在所述显示区域(110A)上的视线点时使用。
8.根据权利要求7所述的方法,包括通过数据输入接口来接收分辨率参数(NR)。
9.根据权利要求7或8所述的方法,包括通过数据输入接口来接收以下数值中的至少一个:反映所述显示区域(110A)的每个像素的大小的值、所述宽度尺寸(X)以及所述高度尺寸(Y)。
10.根据权利要求7或8所述的方法,其中,所述至少一个图形引导目标(G1、G2、G3)指示至少两个区别特征(121、122;123),所述至少两个区别特征(121、122;123)指明所述视线追踪设备(120)沿着所述第一侧(110X)方向的部分的物理延伸范围,并且所述方法包括:
接收至少一个用户输入移动命令(MC)以将所述至少一个图形引导目标(G1、G2、G3)中的至少一个的位置调整到沿着所述第一侧(110X)方向的所述部分的物理延伸范围处。
11.根据权利要求10所述的方法,进一步包括:
根据所述分辨率参数(NR)以及从两个所述图形引导目标(G1、G2)各自在所述显示区域(110A)上的位置(x1;x2)获得的距离尺寸来计算所述宽度尺寸(X)。
12.根据权利要求11所述的方法,其中,所述分辨率参数(NR)包括反映所述显示区域(110A)的纵横比的数据,并且所述方法进一步包括:
根据所述宽度尺寸(X)和所述分辨率参数(NR)来计算所述高度尺寸(Y)。
13.一种能够加载到计算机的存储器(140)中的计算机程序产品(PP),包括用于在所述计算机上运行所述计算机程序产品时对权利要求7-12中的任一项所述的步骤进行控制的软件。
14.一种计算机可读介质(140),所述计算机可读介质(140)上录制程序,所述程序使得对权利要求7-12中的任一项所述的步骤进行计算机控制。
CN201310718794.0A 2012-12-21 2013-12-23 对眼动追踪器进行硬件校准的装置和方法 Active CN103885583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810602157.XA CN109002161B (zh) 2012-12-21 2013-12-23 对眼动追踪器进行硬件校准的装置和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/723,647 US9147248B2 (en) 2012-12-21 2012-12-21 Hardware calibration of eye tracker
US13/723,647 2012-12-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201810602157.XA Division CN109002161B (zh) 2012-12-21 2013-12-23 对眼动追踪器进行硬件校准的装置和方法

Publications (2)

Publication Number Publication Date
CN103885583A true CN103885583A (zh) 2014-06-25
CN103885583B CN103885583B (zh) 2018-07-10

Family

ID=49584581

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810602157.XA Active CN109002161B (zh) 2012-12-21 2013-12-23 对眼动追踪器进行硬件校准的装置和方法
CN201310718794.0A Active CN103885583B (zh) 2012-12-21 2013-12-23 对眼动追踪器进行硬件校准的装置和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201810602157.XA Active CN109002161B (zh) 2012-12-21 2013-12-23 对眼动追踪器进行硬件校准的装置和方法

Country Status (6)

Country Link
US (1) US9147248B2 (zh)
EP (1) EP2746900B1 (zh)
CN (2) CN109002161B (zh)
CA (1) CA2830719C (zh)
ES (1) ES2745251T3 (zh)
SG (1) SG2013079090A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105078404A (zh) * 2015-09-02 2015-11-25 北京津发科技股份有限公司 基于激光算法的全自动眼动追踪测距定标仪及其使用方法
CN105361851A (zh) * 2014-08-29 2016-03-02 阿尔卑斯电气株式会社 视线检测装置
CN107407977A (zh) * 2015-03-05 2017-11-28 索尼公司 信息处理设备、控制方法及程序
CN109240497A (zh) * 2018-08-28 2019-01-18 北京航空航天大学青岛研究院 一种在虚拟现实场景中的眼动追踪自动校准方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10488919B2 (en) 2012-01-04 2019-11-26 Tobii Ab System for gaze interaction
US10540008B2 (en) * 2012-01-04 2020-01-21 Tobii Ab System for gaze interaction
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
CN107111355B (zh) * 2014-11-03 2021-03-12 宝马股份公司 用于校准眼睛跟踪系统的方法和系统
DE102016210288A1 (de) 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
CN110969116B (zh) * 2019-11-28 2023-06-23 Oppo广东移动通信有限公司 注视点位置确定方法及相关装置
CN113467605B (zh) * 2020-03-31 2024-04-02 托比股份公司 用于对可视化数据进行预处理的方法、计算机程序产品和处理电路系统
US11232594B1 (en) * 2020-10-23 2022-01-25 Tobii Ab Iterative point indexing
US11503998B1 (en) 2021-05-05 2022-11-22 Innodem Neurosciences Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001033988A1 (en) * 1999-11-05 2001-05-17 International Gluv Corporation Online screen calibration and measuring method
US20040061831A1 (en) * 2002-09-27 2004-04-01 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US20060214911A1 (en) * 2005-03-23 2006-09-28 Eastman Kodak Company Pointing device for large field of view displays
CN101379456A (zh) * 2006-02-01 2009-03-04 托比伊科技公司 在计算机系统中图形反馈的产生
US7506270B1 (en) * 2000-08-14 2009-03-17 Microsoft Corporation Methods and arrangements for selective placement of movable objects within a graphical user interface

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993014454A1 (en) * 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
EP1979802A4 (en) * 2006-02-01 2013-01-09 Tobii Technology Ab CREATING GRAPHIC FEEDBACK IN A COMPUTER SYSTEM
CN201207703Y (zh) * 2008-04-28 2009-03-11 安防科技(中国)有限公司 监控系统和视线跟踪设备
CN101754715B (zh) * 2008-05-20 2012-07-25 松下电器产业株式会社 视线检测装置、摄像装置以及视线检测方法
CN101702055B (zh) * 2009-11-18 2011-09-07 大连海事大学 跟踪助视器望远镜瞄点的校准方法
CN101866215B (zh) * 2010-04-20 2013-10-16 复旦大学 在视频监控中采用视线跟踪的人机交互装置和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001033988A1 (en) * 1999-11-05 2001-05-17 International Gluv Corporation Online screen calibration and measuring method
US7506270B1 (en) * 2000-08-14 2009-03-17 Microsoft Corporation Methods and arrangements for selective placement of movable objects within a graphical user interface
US20040061831A1 (en) * 2002-09-27 2004-04-01 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US20060214911A1 (en) * 2005-03-23 2006-09-28 Eastman Kodak Company Pointing device for large field of view displays
CN101379456A (zh) * 2006-02-01 2009-03-04 托比伊科技公司 在计算机系统中图形反馈的产生

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105361851A (zh) * 2014-08-29 2016-03-02 阿尔卑斯电气株式会社 视线检测装置
CN107407977A (zh) * 2015-03-05 2017-11-28 索尼公司 信息处理设备、控制方法及程序
CN107407977B (zh) * 2015-03-05 2020-12-08 索尼公司 信息处理设备、控制方法及程序
CN105078404A (zh) * 2015-09-02 2015-11-25 北京津发科技股份有限公司 基于激光算法的全自动眼动追踪测距定标仪及其使用方法
CN109240497A (zh) * 2018-08-28 2019-01-18 北京航空航天大学青岛研究院 一种在虚拟现实场景中的眼动追踪自动校准方法
CN109240497B (zh) * 2018-08-28 2021-07-13 北京航空航天大学青岛研究院 一种在虚拟现实场景中的眼动追踪自动校准方法

Also Published As

Publication number Publication date
EP2746900A2 (en) 2014-06-25
ES2745251T3 (es) 2020-02-28
EP2746900A3 (en) 2017-04-05
CN109002161B (zh) 2021-12-31
CA2830719A1 (en) 2014-06-21
US20140180619A1 (en) 2014-06-26
US9147248B2 (en) 2015-09-29
CA2830719C (en) 2021-08-31
SG2013079090A (en) 2014-07-30
EP2746900B1 (en) 2019-08-07
CN109002161A (zh) 2018-12-14
CN103885583B (zh) 2018-07-10

Similar Documents

Publication Publication Date Title
CN103885583A (zh) 对眼动追踪器进行硬件校准的装置和方法
US10206058B2 (en) Determining location via current and previous wireless signal attributes
CN109521403B (zh) 多线激光雷达的参数标定方法及装置、设备及可读介质
US20160300389A1 (en) Correlated immersive virtual simulation for indoor navigation
US9291698B2 (en) Wireless communication device, wireless communication method, and computer program product
US11042992B2 (en) Method and system for detecting peripheral device displacement
CN103765870A (zh) 图像处理装置、包括图像处理装置的投影仪和投影仪系统、图像处理方法
JP2005528622A (ja) 位置決め技法のための確率モデル
Cai et al. Robust hybrid approach of vision-based tracking and radio-based identification and localization for 3D tracking of multiple construction workers
CN111801591A (zh) 一种用于校准光强度的系统及方法
WO2018185363A1 (en) Machine vision system
KR101511995B1 (ko) 제스처 정보를 이용하여 서비스에 대한 사용자간 관계를 설정하는 방법 및 시스템
US9037131B2 (en) Efficient generation of radio coverage map of access points in an indoor environment
González‐Jorge et al. Application of Kinect gaming sensor in forensic science
KR20190142095A (ko) 모바일 단말을 이용한 실내 조명 관리 방법, 장치 및 컴퓨터-판독가능 기록매체
CN113034603A (zh) 用于确定标定参数的方法和装置
US10145679B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
US8500281B2 (en) Apparatus for irradiating beam at user's eye gaze point and operation method thereof
CN113034562B (zh) 用于优化深度信息的方法和装置
He et al. Error correction of depth images for multiview time-of-flight vision sensors
CN112304214A (zh) 基于摄影测量的工装检测方法和工装检测系统
KR102109374B1 (ko) 위치 추정 장치 및 방법
US20200384650A1 (en) Calibration detecting apparatus, method, and program
Wan et al. Non-line-of-sight beacon identification for sensor localization
Wang et al. A robust and accurate camera pose determination method based on geometric optimization search using Internet of Things

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
CB02 Change of applicant information

Address after: Sweden Danderyd

Applicant after: Tobey Co.

Address before: Sweden Danderyd

Applicant before: Tobii Technology AB

COR Change of bibliographic data
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant