CN110377158B - 基于变化视场范围的眼球追踪的校准方法及电子设备 - Google Patents

基于变化视场范围的眼球追踪的校准方法及电子设备 Download PDF

Info

Publication number
CN110377158B
CN110377158B CN201910661416.0A CN201910661416A CN110377158B CN 110377158 B CN110377158 B CN 110377158B CN 201910661416 A CN201910661416 A CN 201910661416A CN 110377158 B CN110377158 B CN 110377158B
Authority
CN
China
Prior art keywords
user
field
position information
range
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910661416.0A
Other languages
English (en)
Other versions
CN110377158A (zh
Inventor
杨飞
黄通兵
王云飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing 7Invensun Technology Co Ltd
Original Assignee
Beijing 7Invensun Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing 7Invensun Technology Co Ltd filed Critical Beijing 7Invensun Technology Co Ltd
Priority to CN201910661416.0A priority Critical patent/CN110377158B/zh
Publication of CN110377158A publication Critical patent/CN110377158A/zh
Application granted granted Critical
Publication of CN110377158B publication Critical patent/CN110377158B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种基于变化视场范围的眼球追踪的校准方法及电子设备,所述眼球追踪的校准方法包括:获取用户的位置信息;其中,用户的位置信息为用户眼睛的当前位置信息;根据用户的位置信息,计算得到用户的视场范围;根据用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。由于本申请的眼球追踪的校准方法中可通过用户的位置信息,计算出用户的视场范围,使得校准点的位置随着用户的视场范围的变化而变化,保证校准点的位置可以实时靠近视场范围的边缘且不超出视场范围,提高了眼球追踪的准确度。

Description

基于变化视场范围的眼球追踪的校准方法及电子设备
技术领域
本发明涉及眼球追踪技术领域,尤其涉及一种基于变化视场范围的眼球追踪的校准方法及电子设备。
背景技术
眼球追踪技术主要是研究眼球运动信息的获取、建模和模拟的技术,可以应用到虚拟现实(Virtual Reality,VR)设备、增强现实(Augmented Reality,AR)设备、混合现实(Mix reality,MR)设备等用于联系虚拟场景和现实场景的电子设备中。并且,现有的VR设备、AR设备、MR设备等电子设备中,用户可通过调节眼睛到目镜之间的距离改变用户的视场范围。视场范围指的是用户通过电子设备的目镜能看到的范围。
目前,VR设备、AR设备、MR设备等电子设备,通过眼球追踪技术可在眼球追踪的校准范围内精确地获取用户的眼球运动信息,例如获取用户的注视点信息。但是,当用户改变眼睛到目镜之间的距离距离时,用户的视场范围也会发生改变,使得原有的眼球追踪校准范围不能够适用于新的视场范围,可能会出现原有的眼球追踪的校准范围无法跟随用户的视场范围的变化而变化。
然而,在眼球追踪的校准范围未覆盖到的区域中,利用眼球追踪技术获取的用户眼球运动信息是不准确,甚至无法获取到用户的眼球运动信息,导致VR设备、AR设备、MR设备等电子设备的眼球追踪准确度降低。
发明内容
基于上述现有技术的不足,本申请提出了一种基于变化视场范围的眼球追踪的校准方法及电子设备,以实现眼球追踪校准范围跟随用户的视场范围的调整而调整。
为了实现上述目的,现提出的方案如下:
本发明第一方面公开了一种基于变化视场范围的眼球追踪的校准方法,包括:
获取用户的位置信息;
根据所述用户的位置信息,计算得到所述用户的视场范围;
根据所述用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。
可选地,在上述基于变化视场范围的眼球追踪的校准方法中,所述用户的位置信息为所述用户眼睛的当前位置信息。
可选地,在上述基于变化视场范围的眼球追踪的校准方法中,所述根据所述用户的位置信息,计算得到所述用户的视场范围,包括:
根据所述用户眼睛的当前位置信息和电子设备目镜的位置信息,计算得到所述用户的视场范围。
可选地,在上述基于变化视场范围的眼球追踪的校准方法中,所述根据所述用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内,包括:
在用户的视场范围内将多个边缘校准点调整至所述用户的视场范围的边缘,使依据所述多个边缘校准点形成的眼球追踪校准范围和所述用户的视场范围为正相关关系。
可选地,在上述基于变化视场范围的眼球追踪的校准方法中,所述获取用户眼睛的当前位置信息,包括:
采集用户的图像信息;其中,所述用户的图像信息至少包括所述用户的眼图信息;
根据所述用户的图像信息,计算得到所述用户眼睛的当前位置信息。
可选地,在上述基于变化视场范围的眼球追踪的校准方法中,所述获取用户眼睛的当前位置信息,包括:
根据用户的瞳孔光斑,建立所述用户的眼睛的3D模型;
根据所述用户的眼睛的3D模型,计算得到所述用户眼睛的当前位置信息。
可选地,在上述基于变化视场范围的眼球追踪的校准方法中,所述用户的视场范围为所述用户通过目镜能看到的目标区域的范围,所述目标区域是所述用户当前观看的区域。
本发明第二方面公开了一种电子设备,其特征在于,包括:
获取单元,用于获取用户的位置信息;
计算单元,用于根据所述用户的位置信息,计算得到所述用户的视场范围;
调整单元,用于根据所述用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。
可选地,在上述电子设备中,所述用户的位置信息为所述用户眼睛的当前位置信息。
可选地,在上述电子设备中,所述计算单元,包括:
第一计算子单元,用于根据所述用户眼睛的当前位置信息和电子设备目镜的位置信息,计算得到所述用户的视场范围。
可选地,在上述电子设备中,所述调整单元,包括:
调整子单元,用于在用户的视线范围内将多个边缘校准点调整至所述用户的视场范围的边缘,使依据所述多个边缘校准点形成的眼球追踪校准范围和所述用户的视场范围为正相关关系。
可选地,在上述电子设备中,所述获取单元,包括:
采集单元,用于采集用户的图像信息;其中,所述用户的图像信息至少包括所述用户的眼图信息;
第二计算子单元,用于根据所述用户的图像信息,计算得到所述用户眼睛的当前位置信息。
可选地,在上述电子设备中,所述获取单元,包括:
建模单元,用于根据用户的瞳孔光斑,建立所述用户的眼睛的3D模型;
第三计算子单元,用于根据所述用户的眼睛的3D模型,计算得到所述用户眼睛的当前位置信息。
可选地,在上述电子设备中,所述用户的视场范围为所述用户通过目镜能看到的目标区域的范围,所述目标区域是所述用户当前观看的区域。
从上述的技术方案可以看出,本申请提供的基于变化视场范围的眼球追踪的校准方法中,通过获取用户的位置信息,根据用户的位置信息,计算得到用户的视场范围。并根据用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。由于本申请的基于变化视场范围的眼球追踪的校准方法中可通过用户的位置信息,计算出用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。因此可使得校准点的位置随着用户的视场范围的变化而变化,保证校准点的位置可以实时靠近视场范围的边缘且不超出视场范围,提高了眼球追踪的准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例公开的一种基于变化视场范围的眼球追踪的校准方法的流程示意图;
图2为本发明实施例公开的一种获取眼睛位置信息的方法的流程示意图;
图3为本发明实施例公开的另一种获取眼睛位置信息的方法的流程示意图;
图4为本发明实施例公开的计算用户的视场范围的方法的流程示意图;
图5为用户的眼睛与目镜之间的距离与视场范围的关系示意图;
图6为本发明实施例公开的视场范围与眼球追踪边缘校准点的位置关系示意图;
图7为本发明实施例公开的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例公开了一种基于变化视场范围的眼球追踪的校准方法,应用于电子设备,其中,电子设备为一种VR设备、AR设备、以及MR设备等用于联系虚拟场景和现实场景的电子设备。并且,电子设备中具有眼球追踪功能,可通过眼球追踪技术获取用户的眼球运动信息,以实现与用户的交互。另外,电子设备中至少包括目镜,用户通过目镜可以看到虚拟、现实环境。
具体地,本实施例中,如图1所示,所述眼球追踪的校准方法包括以下步骤:
S101、获取用户的位置信息。
其中,用户的位置信息可以是用户的眼睛的当前位置信息,也可以是用户的眼睛相对于电子设备的目镜的位置信息。眼睛位置信息指的是眼球部分的位置信息,可以是角膜顶点的位置信息,也可以是瞳孔的位置信息,还可以是眼球中心的位置信息等等。用户眼睛的当前位置信息指的是用户要使用电子设备时的眼睛的位置信息。可选地,可以用x轴的坐标信息、y轴的坐标信息以及z轴坐标信息中的一个或多个来表示用户眼睛的位置信息,还可以用向量、极坐标等方式来表示眼睛的位置信息。需要说明的是,眼睛的位置信息指的是眼睛的全局坐标信息,用于指示眼睛在全局坐标系下的位置,全局坐标系的原点可以定为任意一个点。
通过用户的位置信息,可以得到用户的眼睛与电子设备的目镜之间的当前距离。用户的眼睛与电子设备的目镜之间的当前距离可以是用户的眼球部分的某一个点到电子设备的目镜中的某一个点的距离。具体的点可在电子设备中进行设定。
用户的位置信息决定了用户通过电子设备的目镜能看到的目标屏幕的范围,目标屏幕是用户当前观看的屏幕,即位置信息决定了用户的视场范围。其中,目标屏幕可以是电子设备本身携带的显示屏,也可以是手机、电脑屏幕、投影屏等等。
还需要说明的是,执行步骤S101时获取的位置信息是当前用户的位置信息,即用户要使用电子设备时的位置信息。用户的位置信息可通过用户调整电子设备的结构而改变,即电子设备中的目镜的位置可受用户调节,当电子设备的目镜位置改变以后,用户相对于目镜的位置信息就发生了改变。用户的位置信息也可以通过用户自身移动而改变。因此用户的位置信息不是一个定值,而是一个可由用户重新设定的数值。进而由位置信息决定的视场范围也是可变化的。当用户调整自身位置信息或者调整电子设备的结构时,改变了用户的位置信息时,则电子设备需要再次执行步骤S101,获取新的用户的位置信息。
可选地,参阅图2,在本申请一具体实施例中,当用户的位置信息为用户眼睛的当前位置信息时,执行步骤S101的一种实施方式,包括:
S201、采集用户的图像信息,其中,用户的图像信息至少包括用户的眼图信息。
其中,电子设备采集的用户的图像信息为用户在将要使用电子设备时采集的图像信息,即为用户当前的图像信息。具体的,电子设备对用户的图像信息进行采集,例如,可通过电子设备中的图像传感器拍摄用户的图像。其中,用户的图像信息中至少包括用户的眼图信息,使得电子设备可以从用户的图像信息中提取或拟合出用户的眼图信息,或者也可以直接采集用户的眼图信息。
S202、根据用户的图像信息,计算得到用户眼睛的当前位置信息。
电子设备获取用户的图像信息后,根据用户的图像信息中的眼图信息建立用户眼睛的3D模型,其中,用户眼睛的3D模型指的是用户眼球的3D模型。再根据用户眼球的3D模型,可以计算得到用户眼睛的当前位置信息。
其中,用户的眼睛的3D模型,可以根据从用户的当前眼部图像中提取的多个特征建立,所述多个特征包括用户的当前瞳孔位置,当前瞳孔形状等。
可选地,参阅图3,在本申请一具体实施例中,当用户的位置信息为用户眼睛的当前位置信息时,执行步骤S101的另一种实施方式,包括:
S301、根据用户的瞳孔光斑,建立用户的眼睛的3D模型。
其中,瞳孔光斑指的是用户眼睛的角膜反射形成的光斑。电子设备根据用户当前的瞳孔光斑,建立用户的眼睛的3D模型。其中,用户当前的瞳孔光斑指的是用户在将要使用电子设备时刻的瞳孔光斑,可以采用近红外光源照明发出的光在近似球体的眼球角膜上形成高亮的参考光斑,根据形成的光斑,电子设备可建立用户眼球的3D模型。
S302、根据用户的眼睛的3D模型,计算得到用户眼睛的当前位置信息。
根据眼球的3D模型,电子设备可以计算得到用户眼睛的当前位置信息。
还需要说明的是,执行步骤S101时,还可以根据距离传感器得到Z轴坐标信息,或者根据结构光摄像头得到Z轴坐标信息,又或者根据结构光传感器结合图像处理技术得到x、y、z坐标。获得眼睛位置坐标的实施方式包括但不仅限于上述实施例中提到的部分。
前述获取用户的当前眼睛位置信息的方法,可以认为是基于瞳孔角膜反射法的眼球追踪技术进行的方法。本领域技术人员应当理解,本实施例提供的方法,也可以适用于,基于其他技术获取用户的当前眼睛位置信息的设备,下面给出几种可用于获取用户的当前眼睛位置信息的技术作为参考。
一方面,上述获取用户的当前眼睛位置信息的设备,可以是微机电系统(Micro-Electro-Mechanical System,MEMS),MEMS中包括红外扫描反射镜、红外光源、红外接收器;另一方面,可以在用户的眼部区域设置电容传感器,利用眼球与电容传感器的电容极板之间的电容值来检测眼球运动,进而确定出用户的当前眼睛位置信息;再一方面,获取用户的当前眼睛位置信息的设备也可以是肌电流检测器,肌电流检测器与放置在用户的鼻梁、额头、耳朵和耳垂处的电极连接,利用电极采集这些部位的肌电流信号,通过检测的肌电流信号模式来检测眼球运动,进而确定出用户的当前眼睛位置信息。
S102、根据用户的位置信息,计算得到用户的视场范围。
其中,用户的视场范围为用户通过目镜能看到的目标屏幕的范围,目标屏幕是用户当前观看的屏幕。由于电子设备可以内部采集到电子设备目镜的位置信息,因此只需根据用户的位置信息,再结合电子设备的目镜的位置信息,即可得到用户的眼睛与目镜的距离,进而根据上述距离计算得到用户的视场范围。
可选地,参阅图4,在本申请一具体实施例中,若步骤S101获得的用户的位置信息为用户的眼睛位置信息,则执行步骤S102的一种实施方式,包括:
S401、根据用户眼睛的当前位置信息和电子设备目镜的位置信息,计算得到用户的视场范围。
其中,头戴式设备(包括上述VR设备和AR设备)包括与用户的左眼和右眼分别对应的左右两个目镜时,当前位置信息可以是左眼与左侧的目镜的距离,也可以是右眼与右侧的目镜的距离,还可以是前述两个距离的平均值。
从步骤S101得到用户当前眼睛位置信息后,电子设备中具有计算功能的单元可结合电子设备自身的结构以及光的路径,预先获得电子设备中的目镜的位置信息,再结合用户的眼睛当前位置信息即可计算得到用户的眼睛与目镜之间的距离。
用户的眼睛与目镜之间的距离决定了用户的视场范围,距离越小,则用户的视场范围越大,距离越大,则用户的视场范围就越小。具体地,参阅图5,距离501小于距离503,由图5可以看出当距离越小的情况下,用户的眼睛与目镜形成的夹角越大,当距离越大的情况下,用户的眼睛与目镜形成的夹角越小,因此距离501对应的视场范围502要大于距离503所对应的视场范围504。由于用户的眼睛与目镜之间的距离可由用户改变电子设备的结构来改变,因此用户的视场范围也会随着用户的眼睛与目镜之间的距离的改变而改变。当步骤S101获得新的用户的位置信息或者目镜的位置信息发生变化时,就会形成新用户的眼睛与目镜之间的距离,步骤S102则需要计算出新的用户的视场范围。
还需要说明的是,目标屏幕可以是手机、平板电脑、投影屏幕等等,也可以是电子设备自身携带的显示屏。参阅图6,用户通过电子设备的目镜能看到目标屏幕的范围是一个椭圆形或圆形的区域601,用户的眼球运动信息只能落在视场范围内的区域601,而无法落到视场范围以外的区域。其中,眼球运动信息可以是用户的注视信息。参阅图6,当用户的位置信息改变时,则步骤S102计算出的用户的视场范围也由原来的视场范围601变成新的视场范围602。
S103、根据用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。
其中,根据用户的视场范围,指的是在用户的视场范围内。调整校准点的位置,指的是将多个边缘校准点调整至所述用户的视场范围的边缘。边缘校准点指的是眼球追踪校准范围内最外侧的校准点。边缘校准点的位置随着用户的视场范围的改变而进行相适应的调整,即边缘校准点形成的眼球追踪校准范围随着用户的视场范围的扩大而扩大,随着视场范围的缩小而缩小。用户在校准过程中,校准点在用户的视场范围内进行显示,所以边缘校准点与用户的视场范围边缘越接近,则眼球追踪的准确度就越高。具体可根据电子设备不同的应用场合而定,若电子设备本身不需要很高的精度,可以使得眼球追踪校准范围略小于用户的视场范围,且随着视场范围的变化而相适应的改变。
可选地,参阅图6,在本申请一具体实施例中,执行S103的一种实施方式,包括:
在用户的视场范围内将电子设备的多个边缘校准点603调整至用户的视场范围601的边缘,使依据多个边缘校准点603形成的眼球追踪校准范围和用户的视场范围601为正相关关系。
其中,使依据多个边缘校准点603形成的眼球追踪校准范围和用户的视场范围601为正相关关系,指的是依据多个边缘校准点603形成的眼球追踪校准范围随着用户视场范围601扩大而扩大,随着用户视场范围601的缩小而缩小。
具体的,参阅图6,步骤S102计算得到视场范围601,则电子设备将多个眼球追踪边缘校准点603调整至视场范围601的边缘处,可选地,将多个眼球追踪边缘校准点603均匀放置在视场范围601的边缘。将眼球追踪边缘校准点调整至视场范围601的边缘后,用户的视线移至其中一个眼球追踪边缘校准点603,使得电子设备获取到用户的注视信息,完成对这一个眼球追踪边缘校准点603的校准,而其他的眼球追踪边缘校准点603的校准方法也相同。用户完成对多个眼球追踪边缘校准点603的校准后,使得由多个眼球追踪边缘校准点603确定的眼球追踪校准范围和用户的视场范围601为正相关关系。
参阅图6,若用户的位置信息发生改变,形成了新的视场范围602时,则需将电子设备的多个眼球追踪边缘校准点604调整至视场范围602的边缘处,形成新的眼球追踪校准范围,使得依据多个眼球追踪边缘校准点604形成的眼球追踪校准范围和新的用户的视场范围602为正相关关系。
电子设备在眼球追踪校准范围内可以精确地获取用户的眼球运动信息,例如用户的注视信息等,在眼球追踪校准范围的边缘或者以外的区域,不能获取眼球的运动信息,或者获取的眼球运动信息并不准确。而用户的眼球运动信息又只存在于用户的视场范围内,因此可以使用户的眼球追踪校准范围和用户的视场范围为正相关关系,这样在用户的视场范围内能够精确地获取到用户的眼球运动信息。
还需要说明的是,多个眼球追踪边缘校准点的位置不一定调整在用户的视场范围的边缘,若应用场景对电子设备的眼球追踪功能的精确度要求不高,也可以使得眼球追踪边缘校准点与视场范围的边缘存在一点距离,使得眼球追踪校准范围小于视场范围。但眼球追踪边缘校准点不能够放置在视场范围之外的位置,这样会使得用户的视线无法落在眼球追踪边缘校准点上,导致不能完成校准。
本申请提供的基于变化视场范围的眼球追踪的校准方法中,通过获取用户的位置信息,根据用户的位置信息,计算得到用户的视场范围。并根据用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。由于本申请的基于变化视场范围的眼球追踪的校准方法中可通过用户的位置信息,计算出用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。因此可使得校准点的位置随着用户的视场范围的变化而变化,保证校准点的位置可以实时靠近视场范围的边缘且不超出视场范围,提高了眼球追踪的准确度。
基于上述本申请实施例公开的基于变化视场范围的眼球追踪的校准方法,本申请实施例还对应公开了一种电子设备,所述电子设备是一种用于联系虚拟场景和现实场景的电子设备,参阅图7,电子设备主要包括:获取单元701、计算单元702以及调整单元703。
获取单元701,用于获取用户的位置信息。
可选地,在本申请一具体实施例中,用户的位置信息为所述用户眼睛的当前位置信息。
可选地,在本申请一具体实施例中,获取单元701包括:采集单元和第二计算子单元。
采集单元,用于采集用户的图像信息,其中,用户的图像信息至少包括用户的眼图信息。
第二计算子单元,用于根据用户的图像信息,计算得到用户眼睛的当前位置信息。
可选地,在本申请一具体实施例中,获取单元701包括:建模单元和第三计算子单元。
建模单元,用于根据用户的瞳孔光斑,建立用户的眼睛的3D模型。
第三计算子单元,用于根据用户的眼睛的3D模型,计算得到用户眼睛的当前位置信息。
计算单元702,用于根据用户的位置信息,计算得到用户的视场范围。
可选地,在本申请一具体实施例中,用户的位置信息为用户眼睛的当前位置信息。
可选地,计算单元702包括:
第一计算子单元,用于根据用户眼睛的当前位置信息和电子设备目镜的位置信息,计算得到用户的视场范围。
可选地,在本申请一具体实施例中,用户的视场范围为用户通过目镜能看到的目标屏幕的范围,目标屏幕是用户当前观看的屏幕。
调整单元703,用于根据用户的视场范围,调整校准点的位置,使校准点布置在用户的视场范围内。
可选地,在本申请一具体实施例中,调整单元703,包括:
调整子单元,用于在用户的视场范围内将电子设备的多个边缘校准点调整至用户的视场范围的边缘,使依据多个边缘校准点形成的眼球追踪校准范围和所述用户的视场范围为正相关关系。
上述本发明实施例公开的电子设备中的各个单元具体的原理和执行过程,与上述本发明实施例公开的基于变化视场范围的眼球追踪的校准方法相同,可参见上述本发明实施例公开的基于变化视场范围的眼球追踪的校准方法中相应的部分,这里不再进行赘述。
本申请提供的电子设备中,通过获取单元701获取用户的位置信息,计算单元702根据用户的位置信息,计算得到用户的视场范围。调整单元703根据用户的视场范围,对校准点的位置进行调整,使校准点布置在用户的视场范围内。由于本申请的电子设备可通过获取单元701获取用户的位置信息,通过计算单元702计算出用户的视场范围,调整单元703调整校准点的位置,使校准点布置在用户的视场范围内。因此可使得校准点的位置随着用户的视场范围的变化而变化,保证校准点的位置可以实时靠近视场范围的边缘且不超出视场范围,提高了眼球追踪的准确度。
专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (6)

1.一种基于变化视场范围的眼球追踪的校准方法,其特征在于,包括:
获取用户的位置信息;所述用户的位置信息为所述用户眼睛的当前位置信息;
根据所述用户眼睛的当前位置信息和电子设备目镜的位置信息,计算得到所述用户的视场范围;所述用户的视场范围为所述用户通过目镜能看到的目标区域的范围,所述目标区域是所述用户当前观看的区域;
在用户的视场范围内将多个边缘校准点调整至所述用户的视场范围的边缘,使依据所述多个边缘校准点形成的眼球追踪校准范围和所述用户的视场范围为正相关关系。
2.根据权利要求1所述的方法,其特征在于,所述获取用户眼睛的当前位置信息,包括:
采集用户的图像信息;其中,所述用户的图像信息至少包括所述用户的眼图信息;
根据所述用户的图像信息,计算得到所述用户眼睛的当前位置信息。
3.根据权利要求1所述的方法,其特征在于,所述获取用户眼睛的当前位置信息,包括:
根据用户的瞳孔光斑,建立所述用户的眼睛的3D模型;
根据所述用户的眼睛的3D模型,计算得到所述用户眼睛的当前位置信息。
4.一种电子设备,其特征在于,包括:
获取单元,用于获取用户的位置信息;所述用户的位置信息为所述用户眼睛的当前位置信息;
计算单元,所述计算单元包括第一计算子单元,用于根据所述用户眼睛的当前位置信息和电子设备目镜的位置信息,计算得到所述用户的视场范围;所述用户的视场范围为所述用户通过目镜能看到的目标区域的范围,所述目标区域是所述用户当前观看的区域;
调整单元,所述调整单元包括调整子单元,用于在用户的视场范围内将多个边缘校准点调整至所述用户的视场范围的边缘,使依据所述多个边缘校准点形成的眼球追踪校准范围和所述用户的视场范围为正相关关系。
5.根据权利要求4所述的电子设备,其特征在于,所述获取单元,包括:
采集单元,用于采集用户的图像信息;其中,所述用户的图像信息至少包括所述用户的眼图信息;
第二计算子单元,用于根据所述用户的图像信息,计算得到所述用户眼睛的当前位置信息。
6.根据权利要求4所述的电子设备,其特征在于,所述获取单元,包括:
建模单元,用于根据用户的瞳孔光斑,建立所述用户的眼睛的3D模型;
第三计算子单元,用于根据所述用户的眼睛的3D模型,计算得到所述用户眼睛的当前位置信息。
CN201910661416.0A 2019-07-22 2019-07-22 基于变化视场范围的眼球追踪的校准方法及电子设备 Active CN110377158B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910661416.0A CN110377158B (zh) 2019-07-22 2019-07-22 基于变化视场范围的眼球追踪的校准方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910661416.0A CN110377158B (zh) 2019-07-22 2019-07-22 基于变化视场范围的眼球追踪的校准方法及电子设备

Publications (2)

Publication Number Publication Date
CN110377158A CN110377158A (zh) 2019-10-25
CN110377158B true CN110377158B (zh) 2023-03-31

Family

ID=68254652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910661416.0A Active CN110377158B (zh) 2019-07-22 2019-07-22 基于变化视场范围的眼球追踪的校准方法及电子设备

Country Status (1)

Country Link
CN (1) CN110377158B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111904768B (zh) * 2020-08-27 2023-01-03 上海联影医疗科技股份有限公司 医疗设备扫描孔径内图像显示方法和医疗设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594374B1 (en) * 2011-03-30 2013-11-26 Amazon Technologies, Inc. Secure device unlock with gaze calibration
WO2013183110A1 (ja) * 2012-06-04 2013-12-12 株式会社Pfu 情報処理装置、方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102749991B (zh) * 2012-04-12 2016-04-27 广东百泰科技有限公司 一种适用于人机交互的非接触式自由空间视线跟踪方法
CN103838378B (zh) * 2014-03-13 2017-05-31 广东石油化工学院 一种基于瞳孔识别定位的头戴式眼睛操控系统
US9785233B2 (en) * 2014-04-11 2017-10-10 Facebook, Inc. Systems and methods of eye tracking calibration
TWI617948B (zh) * 2015-07-24 2018-03-11 由田新技股份有限公司 用於眼部追蹤的校正模組及其方法及電腦可讀取紀錄媒體
JP2017129898A (ja) * 2016-01-18 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN107003744B (zh) * 2016-12-01 2019-05-10 深圳前海达闼云端智能科技有限公司 视点确定方法、装置和电子设备
CN109885169B (zh) * 2019-02-25 2020-04-24 清华大学 基于三维眼球模型的眼球参数标定和视线方向跟踪方法
CN109965838A (zh) * 2019-04-08 2019-07-05 广东唯仁医疗科技有限公司 一种基于光学相干法追踪眼球运动的装置及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594374B1 (en) * 2011-03-30 2013-11-26 Amazon Technologies, Inc. Secure device unlock with gaze calibration
WO2013183110A1 (ja) * 2012-06-04 2013-12-12 株式会社Pfu 情報処理装置、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
苏海明 ; 侯振杰 ; 梁久祯 ; 许艳 ; 李兴 ; .使用人眼几何特征的视线追踪方法.中国图象图形学报.2019,(第06期),正文. *

Also Published As

Publication number Publication date
CN110377158A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
US10650533B2 (en) Apparatus and method for estimating eye gaze location
CN109558012B (zh) 一种眼球追踪方法及装置
KR100949743B1 (ko) 고글 형태를 갖는 착용형 시선 추적 장치 및 방법
CN104866105B (zh) 头显设备的眼动和头动交互方法
US20190333480A1 (en) Improved Accuracy of Displayed Virtual Data with Optical Head Mount Displays for Mixed Reality
US10247813B2 (en) Positioning method and positioning system
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
US10360450B2 (en) Image capturing and positioning method, image capturing and positioning device
WO2016115873A1 (zh) 双目ar头戴显示设备及其信息显示方法
KR20160022921A (ko) 모바일 디바이스 착용 시의 머리 움직임 추적
WO2013175701A1 (ja) 映像解析装置、映像解析方法、および注視点表示システム
WO2015035822A1 (en) Pickup of objects in three-dimensional display
WO2015043273A1 (en) Imaging to facilitate object gaze
CN114391117A (zh) 眼睛跟踪延迟增强
CN103654709A (zh) 视线检测设备、视线检测方法及用于其的程序
CN112666705A (zh) 一种眼动追踪设备及眼动追踪方法
WO2020157746A1 (en) Eye tracking device and a method thereof
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
Lander et al. hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation
CN112987910B (zh) 眼球追踪设备的测试方法、装置、设备及存储介质
KR101739768B1 (ko) 스테레오 카메라와 협각 카메라를 이용한 원거리 시선 추적 시스템
CN110377158B (zh) 基于变化视场范围的眼球追踪的校准方法及电子设备
CN110895433A (zh) 用于增强现实中用户交互的方法和装置
Nitschke et al. I see what you see: point of gaze estimation from corneal images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant