CN109143581A - 一种头戴式显示设备及其眼球追踪方法 - Google Patents
一种头戴式显示设备及其眼球追踪方法 Download PDFInfo
- Publication number
- CN109143581A CN109143581A CN201810988274.4A CN201810988274A CN109143581A CN 109143581 A CN109143581 A CN 109143581A CN 201810988274 A CN201810988274 A CN 201810988274A CN 109143581 A CN109143581 A CN 109143581A
- Authority
- CN
- China
- Prior art keywords
- user
- image information
- head
- eyeball
- display apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Abstract
本发明实施例公开了一种头戴式显示设备及其眼球追踪方法,通过在显示屏的阵列基板上设置采集用户眼球图像信息的第一像素单元,使得头戴式显示设备的显示屏集成了用户眼球图像信息采集功能,处理器在采集到用户眼球图像信息后,根据该眼球图像信息获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息,从而使得头戴式显示设备集成了眼球追踪功能,该功能的实现不需要具有眼球追踪功能的配件辅助实现。
Description
技术领域
本发明实施例涉及头戴式显示设备技术领域,尤其涉及一种头戴式显示设备及其眼球追踪方法。
背景技术
VR(Virtual Reality,虚拟现实)设备随着万物互联时代的到来,逐渐成为电子设备发展的方向。虚拟现实是指通过使用三维图像技术重现真实环境的具体环境或场景。
现有的头戴式显示设备大多具有眼球追踪的功能,然而,其在实现眼球追踪功能时,大多仍然需要借助配件设备的辅助来实现,这变相导致了具有眼球追踪功能的头戴式显示设备的成本较高,不利于头戴式显示设备的推广应用。
发明内容
本发明提供一种头戴式显示设备及其眼球追踪方法,以解决现有的具有眼球追踪功能的头戴式显示设备需要配件设备辅助实现的问题。
第一方面,本发明实施例提供了一种头戴式显示设备,所述头戴式显示设备包括显示屏和处理器,所述显示屏与所述处理器相连,所述显示屏的阵列基板上设置有第一像素单元;
所述第一像素单元采集用户眼球图像信息,所述处理器根据所述用户眼球图像信息获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息。
第二方面,本发明实施例还提供了一种头戴式显示设备的眼球追踪方法,包括:
通过所述第一像素单元获取用户眼球图像信息;
从所述眼球图像信息中确定用户的虹膜中心在第一预设坐标系中的第一虹膜中心坐标;
在预设的第一虹膜中心坐标与注视点位置信息第一映射关系中查询获得所述虹膜中心坐标匹配的注视点位置信息。
本发明实施例提供的一种头戴式显示设备及其眼球追踪方法,通过在显示屏的阵列基板上设置采集用户眼球图像信息的第一像素单元,使得头戴式显示设备的显示屏集成了用户眼球图像信息采集功能,处理器在采集到用户眼球图像信息后,根据该眼球图像信息获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息,从而使得头戴式显示设备集成了眼球追踪功能,该功能的实现不需要具有眼球追踪功能的配件辅助实现。
附图说明
图1为本发明实施例一的一种头戴式显示设备的结构示意图;
图2是本发明实施例的一种阵列基板上用来显示图像的像素单元和第一像素单元的分布示意图;
图3是本发明实施例一的另一种头戴式显示设备的结构示意图;
图4是本发明实施例的另一种阵列基板上像素单元的分布示意图;
图5是本发明实施例二的一种头戴式显示设备的眼球追踪方法的步骤流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一的一种头戴式显示设备的结构示意图,该头戴式显示设备10可以包括显示屏11和处理器12,所述显示屏11与所述处理器12相连,所述显示屏11的阵列基板上设置有第一像素单元13。
所述第一像素单元13采集用户眼球图像信息,所述处理器12根据所述用户眼球图像信息获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息。
具体的,用于采集用户眼球图像信息的设置在阵列基板上的第一像素单元的位置与现有的阵列基板上用来显示图像的像素单元的位置关系(即两者是如何排列的)是不作限制的,其个数可以为一个,也可以是多个,作为一种示例,参照图2示出的本发明实施例的一种阵列基板上用来显示图像的像素单元和第一像素单元的分布示意图,第一像素单元13和用来显示图像的像素单元14混合布置,每一个第一像素单元13设置于相邻的两个用来显示图像的像素单元14之间。
当然,图2中第一像素单元13和用来显示图像的像素单元14的的排列方式不限于此,本领域技术人员可以根据其需要,更改像素单元的排列方式。
本发明实施例通过将第一像素单元13设置在现有的用来显示图像的像素单元14之间的方式,使得现有的头戴式显示设备的显示屏集成了采集用户眼球图像信息的功能,且能够不增加现有显示屏的阵列基板的面积的情况下,实现更多的功能。在本方案中,头戴式显示设备根据具体的应用方式可以有不同的呈现方式,例如作为VR显示设备呈现。
不仅如此,本发明实施例的头戴式显示设备的显示屏在集成用户眼球图像信息采集功能后,处理器12可以根据用户眼球图像信息获取用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息。具体是如何获取的,作为一种示例,可以采用瞳孔角膜向量反射法。
具体的,用户眼睛在显示屏上的注视点位置可以看作是人眼球中心和人眼虹膜中心的连线与显示屏平面之间的交点,当人的头部静止不动时,人眼眼球中心的位置是不变的,这时唯一在动的就是虹膜中心,映射到眼图中,可以认为虹膜中心在眼图中的坐标和注视点在显示屏平面上的位置是一一对应的。注视点估计方法就是基于这一点,在开始确定人眼的注视点位置之前,先让用户注视几个校准点,获取对应时刻眼图中的虹膜中心坐标,计算得到注视点和虹膜中心坐标之间的对应关系,之后,可以利用这个映射关系,实现注视点的标定。
可以认为虹膜中心坐标和注视点坐标之间满足二阶多项式关系:
X0=f(xe,ye)=a0+a1xe+a2ye+a3xeye+a4xe2+a5ye2
Y0=f(xe,ye)=b0+b1xe+b2ye+b3xeye+b4xe2+b5ye2
其中(X0,Y0)表示注视点坐标,(xe,ye)表示相应时刻虹膜中心在眼图中的坐标。校准开始后,用户需要保持头部静止,然后按照提示依次注视这几个校正点,计算机会实时记录记录人眼注视点坐标和相应时刻图片中的虹膜中心坐标,然后利用最小二乘法计算参数a0a1a2a3a4a5b0b1b2b2b3b4b5的取值,从而得到映射函数。
需要说明的是,上述映射函数的确定过程是在人头部保持不变的情况下的过程,但这种过程是适合头戴式显示设备实现眼球追踪过程的,这是因为当用户佩戴头戴式显示设备时,基本佩戴完成后,每次用户的眼睛与显示屏的位置都是相对比较固定的位置。当然,具体在实现过程中,映射函数的确定过程仍然可以考虑人头部相对于显示屏变化的情况,可以用户多佩戴几次头戴式显示设备,得到用户眼球相对显示屏在不同位置下的映射函数,然后经过插值算法即可获得用户头部在任意位置下的映射函数。
当得到映射函数后,第一像素单元在实时采集用户眼球图像信息,经过图像处理,可以从眼球图像信息中获取用户眼球中心坐标和虹膜中心坐标,两者的连线即为用户眼球的视线,并根据虹膜中心坐标在映射函数中查询获得注视点位置信息。
当然,上述通过瞳孔角膜向量反射法获得用户眼睛在所述显示屏上的注视点位置信息的方法仅作为一种示例,本领域技术人员还可以利用现有技术中的其他眼球追踪方法,例如,基于3D眼球模型的视觉跟踪技术,本发明实施例在此则不作赘述。
综上所述,本发明实施例提供的一种头戴式显示设备,通过在显示屏的阵列基板上设置采集用户眼球图像信息的第一像素单元,使得头戴式显示设备的显示屏集成了用户眼球图像信息采集功能,处理器在采集到用户眼球图像信息后,根据该眼球图像信息获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息,从而使得头戴式显示设备集成了眼球追踪功能,该功能的实现不需要具有眼球追踪功能的配件辅助实现。
在本发明的一种优选实施例中,用户眼球图像信息包括用户眼球的可见光段图像信息和/或红外段图像信息。
具体的,在该优选方案中,第一像素单元采集的用户眼球图像信息既可以为用户眼球的可见光段图像信息,在此种情况下,显示屏显示图像时的可见光可以作为光源,用户眼球反射该光源后,第一像素单元获取可见光段图像信息;第一像素单元采集的用户眼球图像信息也可以为红外段图像信息,在此种情况下,第一像素单元采集的是用于眼球自发发射的红外线,即第一像素单元可以采集用户眼球的红外段图像,无论哪种情形,第一像素单元都能够采集用户眼球图像信息,且不需要外界提供光源的辅助。
当然,在本发明的另一个实施例中,参照图3示出的本发明实施例一的另一种头戴式显示设备的结构示意图,所述头戴式显示设备10还可以包括红外光源15,所述红外光源15与所述处理器12相连,所述处理器12控制所述红外光源15向用户眼球发射红外光;
所述第一像素单元13还采集用户眼球反射所述红外光的第一红外图像,所述处理器12还根据所述第一红外图像获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息。
在该实施例中,头戴式显示设备还额外设置了红外光源(红外光源为一个或多个),该红外光源向用户眼球发射红外光,第一像素单元采集眼球的第一红外图像信息(该第一红外图像信息即为用户眼球在红外光源的作用下所呈现的红外图像),处理器根据该第一红外图像信息获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息,这种额外设置红外光源的目的是为了使得采集的第一红外图像信息更为可控,提高眼球追踪技术的识别精度和准确率。
在具体实施本方案中的头戴式显示设备时,所述显示屏和所述处理器可以选择集成为一体布局。一体布局的头戴式显示设备具备更好的设备整体性,用户在使用时需要同时佩戴显示屏和处理器,这种布局设计便于用户携带头戴式显示设备,设备运行对外部环境的要求更低。
在具体实施本方案中的头戴式显示设备时,所述显示屏和所述处理器还可以选择分离式布局。分离式布局的头戴式显示设备可以有效降低用户的使用负担,将处理器独立放置,不用用户佩戴。更进一步的,处理器可以是每个头戴式显示设备单独对应交由用户自行放置,也可以是多个显示屏共用一个处理器,一个处理器同时处理多个显示屏所需的数据,使其实现独立运行,这一方式能进一步降低用户的设备成本。
如果采用分离式布局,显示屏和处理可以通过有线方式,例如通用串行总线的方式进行数据相连,所述显示屏和所述处理器也可以通过无线方式进行数据相连,例如蓝牙、WIFI等,采用无线方式。
在本发明的一种优选实施例中,处理器12还根据所述第一红外图像信息获得用户的虹膜图像信息。
具体的,在该实施例中,当第一像素单元采集到用于眼球的第一红外图像信息后,处理器还可以基于此获得用于的虹膜图像信息,在获得虹膜图像信息基础上集成虹膜识别功能,提高头戴式显示设备的使用安全性,其中,具体虹膜识别的过程可以利用现有技术中的虹膜识别的方法,作为一种示例,虹膜识别的过程可以包括如下步骤:
1.图像预处理:对获取到的虹膜图像信息进行如下处理,使其满足提取虹膜特征的需求。
虹膜定位:确定内圆、外圆和二次曲线在图像中的位置。其中,内圆为虹膜与瞳孔的边界,外圆为虹膜与巩膜的边界,二次曲线为虹膜与上下眼皮的边界。
虹膜图像归一化:将图像中的虹膜大小,调整到识别系统设置的固定尺寸。
图像增强:针对归一化后的图像,进行亮度、对比度和平滑度等处理,提高图像中虹膜信息的识别率。
2.特征提取:采用特定的算法从虹膜图像中提取出虹膜识别所需的特征点,并对其进行编码。
3.特征匹配:将特征提取得到的特征编码与数据库中的虹膜图像特征编码逐一匹配,判断是否为相同虹膜,从而达到身份识别的目的。
需要说明的是,处理器利用采集到的第一红外图像信息既完成眼球追踪功能的同时,还完成虹膜识别的过程,可能在某些情况下,不同波长的红外线生成的第一红外图像信息并不能同时很好地满足眼球追踪和虹膜识别的要求,因此,在某些情况下,需要单独设置与第一像素单元不同的第二像素单元,即参照图4示出的本发明实施例的另一种阵列基板上像素单元的分布示意图,所述阵列基板上还设置有第二像素单元16,所述第二像素单元16采集用户眼球的第二红外图像信息,所述处理器还根据所述第二红外图像信息获得用户的虹膜图像信息。
具体的,第二像素单元16、第一像素单元13和用来显示图像的像素单元14的排列方式并不作限制,图4中每一个第一像素单元13设置于相邻的两个用来显示图像的像素单元14之间、每一个第二像素单元16设置于相邻的四个用来显示图像的像素单元14之间排列方式仅作为一种示例,本领域技术人员可以根据实际情况自行设计。
实施例二
在实施例一中对头戴式显示设备的具体组成部件作了较为详细的介绍,在本实施例二中,在实施例一的基础上,对头戴式显示设备实现眼球追踪的方法进行简要说明,图5为本发明实施例二的一种头戴式显示设备的眼球追踪方法的步骤流程图,利用本实施例可以实现头戴式显示设备的眼球追踪,该方法具体可以由头戴式显示设备的处理器来执行,该眼球追踪方法可以包括如下步骤:
步骤201、通过所述第一像素单元获取用户眼球图像信息。
在本发明实施例中,头戴式显示设备的处理器可以通过第一像素单元获取用户眼球图像信息。
步骤202、从所述眼球图像信息中确定用户的虹膜中心在第一预设坐标系中的第一虹膜中心坐标。
步骤203、在预设的第一虹膜中心坐标与注视点位置信息第一映射关系中查询获得所述虹膜中心坐标匹配的注视点位置信息。
在本发明实施例中,获得眼球图像信息后,经过图像处理,可以获得虹膜中心在第一预设坐标系中的第一虹膜中心坐标,其中第一预设坐标系是在建立第一虹膜中心坐标与注视点位置信息第一映射关系(即实施例一中的映射函数)时设置的坐标系。
在确定虹膜中心坐标后,可以在预先建立的第一映射关系中查询获得所述虹膜中心坐标匹配的注视点位置信息,此时就完成了用户眼球的追踪过程。
需要说明的是,在步骤201-203的过程中,用户眼球图像信息既可以为用户眼球的可见光段图像信息,也可以为红外段图像信息,无论哪种情形,第一像素单元都能够采集用户眼球图像信息,且不需要外界提供光源的辅助。
在本发明的一种优选实施例中,眼球追踪方法还可以包括如下步骤:
步骤204、控制所述红外光源向用户眼球发射红外光。
步骤205、通过所述第一像素单元获取用户眼球的第一红外图像信息;
步骤206、从所述第一红外图像信息中确定用户的虹膜中心在第二预设坐标系中的第二虹膜中心坐标;
步骤207、在预设的第二虹膜中心坐标与注视点位置信息第二映射关系中查询获得所述第二虹膜中心坐标匹配的注视点位置信息。
具体的,步骤204-207的实现过程与步骤201-203的实现原理相似,其不同之处在于,当利用步骤204-207的步骤实现眼球追踪时,需要外界红外光源的辅助,这种额外设置红外光源的目的是为了使得采集的第一红外图像信息更为可控,提高眼球追踪技术的识别精度和准确率,具体过程参照实施例一,本发明实施例在此不作赘述。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种头戴式显示设备,其特征在于,所述头戴式显示设备包括显示屏和处理器,所述显示屏与所述处理器相连,所述显示屏的阵列基板上设置有第一像素单元;
所述第一像素单元采集用户眼球图像信息,所述处理器根据所述用户眼球图像信息获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息。
2.根据权利要求1所述的头戴式显示设备,其特征在于,所述用户眼球图像信息包括用户眼球的可见光段图像信息和/或红外段图像信息。
3.根据权利要求1所述的头戴式显示设备,其特征在于,所述头戴式显示设备包括红外光源,所述红外光源与所述处理器相连,所述处理器控制所述红外光源向用户眼球发射红外光;
所述第一像素单元还采集用户眼球的第一红外图像,所述处理器还根据所述第一红外图像获得用户眼睛的视线信息和用户眼睛在所述显示屏上的注视点位置信息。
4.根据权利要求3所述的头戴式显示设备,其特征在于,所述处理器还根据所述第一红外图像信息获得用户的虹膜图像信息。
5.根据权利要求3所述的头戴式显示设备,其特征在于,所述阵列基板上还设置有第二像素单元,所述第二像素单元采集用户眼球的第二红外图像信息,所述处理器还根据所述第二红外图像信息获得用户的虹膜图像信息。
6.根据权利要求1所述的头戴式显示设备,其特征在于,所述显示屏和所述处理器集成为一体布局。
7.根据权利要求1所述的头戴式显示设备,其特征在于,所述显示屏和所述处理器分离式布局。
8.根据权利要求7所述的头戴式显示设备,其特征在于,所述显示屏和所述处理器通过无线方式进行数据相连。
9.一种权利要求1-8任一项所述的头戴式显示设备的眼球追踪方法,其特征在于,包括:
通过所述第一像素单元获取用户眼球图像信息;
从所述眼球图像信息中确定用户的虹膜中心在第一预设坐标系中的第一虹膜中心坐标;
在预设的第一虹膜中心坐标与注视点位置信息第一映射关系中查询获得所述虹膜中心坐标匹配的注视点位置信息。
10.根据权利要求9所述的眼球追踪方法,其特征在于,还包括:
控制所述红外光源向用户眼球发射红外光;
通过所述第一像素单元获取用户眼球的第一红外图像信息;
从所述第一红外图像信息中确定用户的虹膜中心在第二预设坐标系中的第二虹膜中心坐标;
在预设的第二虹膜中心坐标与注视点位置信息第二映射关系中查询获得所述第二虹膜中心坐标匹配的注视点位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810988274.4A CN109143581A (zh) | 2018-08-28 | 2018-08-28 | 一种头戴式显示设备及其眼球追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810988274.4A CN109143581A (zh) | 2018-08-28 | 2018-08-28 | 一种头戴式显示设备及其眼球追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109143581A true CN109143581A (zh) | 2019-01-04 |
Family
ID=64828656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810988274.4A Pending CN109143581A (zh) | 2018-08-28 | 2018-08-28 | 一种头戴式显示设备及其眼球追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109143581A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109634431A (zh) * | 2019-01-22 | 2019-04-16 | 像航(上海)科技有限公司 | 无介质浮空投影视觉追踪互动系统 |
CN109875495A (zh) * | 2019-03-05 | 2019-06-14 | 四川大学 | 一种基于显示设备的非接触式全自动反馈视野计 |
CN111128068A (zh) * | 2019-11-28 | 2020-05-08 | 上海天马有机发光显示技术有限公司 | 一种显示装置和显示面板的驱动显示方法 |
CN111399658A (zh) * | 2020-04-24 | 2020-07-10 | Oppo广东移动通信有限公司 | 眼球注视点的校准方法、装置、电子设备及存储介质 |
CN111580270A (zh) * | 2020-06-08 | 2020-08-25 | 昆山梦显电子科技有限公司 | 基于眼球追踪技术的显示面板及其制备方法、显示装置 |
CN111610853A (zh) * | 2019-02-22 | 2020-09-01 | 宏达国际电子股份有限公司 | 头戴式显示装置以及眼球追踪游标的显示方法 |
CN112101065A (zh) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | 一种基于激光器的眼球追踪方法以及终端设备 |
CN112149453A (zh) * | 2019-06-26 | 2020-12-29 | 北京七鑫易维科技有限公司 | 眼球追踪的校准方法、装置及系统 |
CN113359292A (zh) * | 2021-06-30 | 2021-09-07 | 京东方科技集团股份有限公司 | 一种显示模组及其制作方法、头戴式显示设备 |
CN114136209A (zh) * | 2021-11-24 | 2022-03-04 | 京东方科技集团股份有限公司 | 一种眼球位置定位电路、方法、基板及虚拟现实穿戴设备 |
CN114167610A (zh) * | 2021-11-24 | 2022-03-11 | 上海实迅网络科技有限公司 | 一种基于ar的数字博物馆展示系统 |
WO2022199580A1 (zh) * | 2021-03-26 | 2022-09-29 | 华为技术有限公司 | 电子设备及其控制方法 |
EP4187360A4 (en) * | 2020-09-03 | 2024-01-17 | Samsung Electronics Co Ltd | ELECTRONIC DEVICE AND METHOD FOR ACQUIRING GAZE INFORMATION OF A USER |
-
2018
- 2018-08-28 CN CN201810988274.4A patent/CN109143581A/zh active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109634431B (zh) * | 2019-01-22 | 2024-04-26 | 像航(上海)科技有限公司 | 无介质浮空投影视觉追踪互动系统 |
CN109634431A (zh) * | 2019-01-22 | 2019-04-16 | 像航(上海)科技有限公司 | 无介质浮空投影视觉追踪互动系统 |
CN111610853A (zh) * | 2019-02-22 | 2020-09-01 | 宏达国际电子股份有限公司 | 头戴式显示装置以及眼球追踪游标的显示方法 |
CN111610853B (zh) * | 2019-02-22 | 2023-03-14 | 宏达国际电子股份有限公司 | 头戴式显示装置以及眼球追踪游标的显示方法 |
CN109875495A (zh) * | 2019-03-05 | 2019-06-14 | 四川大学 | 一种基于显示设备的非接触式全自动反馈视野计 |
CN112101065A (zh) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | 一种基于激光器的眼球追踪方法以及终端设备 |
CN112149453A (zh) * | 2019-06-26 | 2020-12-29 | 北京七鑫易维科技有限公司 | 眼球追踪的校准方法、装置及系统 |
CN111128068B (zh) * | 2019-11-28 | 2022-10-21 | 武汉天马微电子有限公司 | 一种显示装置和显示面板的驱动显示方法 |
CN111128068A (zh) * | 2019-11-28 | 2020-05-08 | 上海天马有机发光显示技术有限公司 | 一种显示装置和显示面板的驱动显示方法 |
CN111399658A (zh) * | 2020-04-24 | 2020-07-10 | Oppo广东移动通信有限公司 | 眼球注视点的校准方法、装置、电子设备及存储介质 |
CN111399658B (zh) * | 2020-04-24 | 2022-03-15 | Oppo广东移动通信有限公司 | 眼球注视点的校准方法、装置、电子设备及存储介质 |
CN111580270A (zh) * | 2020-06-08 | 2020-08-25 | 昆山梦显电子科技有限公司 | 基于眼球追踪技术的显示面板及其制备方法、显示装置 |
EP4187360A4 (en) * | 2020-09-03 | 2024-01-17 | Samsung Electronics Co Ltd | ELECTRONIC DEVICE AND METHOD FOR ACQUIRING GAZE INFORMATION OF A USER |
WO2022199580A1 (zh) * | 2021-03-26 | 2022-09-29 | 华为技术有限公司 | 电子设备及其控制方法 |
CN113359292A (zh) * | 2021-06-30 | 2021-09-07 | 京东方科技集团股份有限公司 | 一种显示模组及其制作方法、头戴式显示设备 |
CN113359292B (zh) * | 2021-06-30 | 2022-08-30 | 京东方科技集团股份有限公司 | 一种显示模组及其制作方法、头戴式显示设备 |
CN114136209B (zh) * | 2021-11-24 | 2023-11-24 | 京东方科技集团股份有限公司 | 一种眼球位置定位电路、方法、基板及虚拟现实穿戴设备 |
CN114167610A (zh) * | 2021-11-24 | 2022-03-11 | 上海实迅网络科技有限公司 | 一种基于ar的数字博物馆展示系统 |
CN114136209A (zh) * | 2021-11-24 | 2022-03-04 | 京东方科技集团股份有限公司 | 一种眼球位置定位电路、方法、基板及虚拟现实穿戴设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109143581A (zh) | 一种头戴式显示设备及其眼球追踪方法 | |
JP6693507B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
Hennessey et al. | Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions | |
JP5728009B2 (ja) | 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路 | |
CN104603673B (zh) | 头戴式系统以及使用头戴式系统计算和渲染数字图像流的方法 | |
US11200646B2 (en) | Compensation for deformation in head mounted display systems | |
WO2017161660A1 (zh) | 增强现实设备、系统、图像处理方法及装置 | |
CN111007939B (zh) | 一种基于深度感知的虚拟现实系统空间定位方法 | |
KR20130107981A (ko) | 시선 추적 장치 및 방법 | |
US11156830B2 (en) | Co-located pose estimation in a shared artificial reality environment | |
CN108828779A (zh) | 一种头戴式显示设备 | |
JP2019215688A (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
CN109144250A (zh) | 一种位置调节的方法、装置、设备及存储介质 | |
CN111291746A (zh) | 影像处理系统及影像处理方法 | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
Singh | Near-field depth perception in optical see-though augmented reality | |
CN112926523A (zh) | 基于虚拟现实的眼球追踪方法、系统 | |
US10255676B2 (en) | Methods and systems for simulating the effects of vision defects | |
KR101331055B1 (ko) | 시각 주의 분석에 근거한 시각 보조 시스템 및 상기 시각 주의 분석을 이용한 시각 보조 방법 | |
US11200713B2 (en) | Systems and methods for enhancing vision | |
JP2018088604A (ja) | 画像表示装置、画像表示方法、システム | |
KR102443956B1 (ko) | 확장현실 기반의 침술 시스템 및 그 방법 | |
EP2521007A1 (en) | Method for object 3D position identification based on multiple image analysis applying to gaze tracking | |
JP6705929B2 (ja) | 表示制御装置及び表示制御方法 | |
KR101459215B1 (ko) | 입체 영상 변환 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190104 |
|
RJ01 | Rejection of invention patent application after publication |