CN112950688A - 注视深度的确定方法、装置、ar设备及存储介质 - Google Patents
注视深度的确定方法、装置、ar设备及存储介质 Download PDFInfo
- Publication number
- CN112950688A CN112950688A CN201911176845.5A CN201911176845A CN112950688A CN 112950688 A CN112950688 A CN 112950688A CN 201911176845 A CN201911176845 A CN 201911176845A CN 112950688 A CN112950688 A CN 112950688A
- Authority
- CN
- China
- Prior art keywords
- user
- dimensional model
- position information
- gazing
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
本发明实施例公开了一种注视深度的确定方法、装置、AR设备及存储介质。包括:构建用户所处真实环境的三维模型并获取用户在所述三维模型的位置信息;获取用户眼睛的注视方向;根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息;根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度。本发明实施例提供的注视深度的确定方法,将眼动追踪技术及同步定位与建图技术相结合来确定用户的注视深度,可以提高注视深度的准确性,降低误差,提升用户的体验效果。
Description
技术领域
本发明实施例涉及增强现实技术领域,尤其涉及一种注视深度的确定方法、装置、AR设备及存储介质。
背景技术
增强现实(Augmented Reality)技术是一种将虚拟信息与真实世界巧妙融合的技术,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
在现有的AR技术中,缺乏准确获取用户注视深度信息的手段,导致AR设备只能将虚拟图像投影在固定的平面上,使得仿真的虚拟信息和现实中的环境信息融合度不高,不仅会影响用户体验,还极易导致视觉辐辏调节冲突,使用户出现眩晕感。
发明内容
本发明提供一种注视深度的确定方法、装置、AR设备及存储介质,以提升AR设备获取注视深度的准确性,优化用户体验。
第一方面,本发明实施例提供了一种注视深度的确定方法,包括:
构建用户所处真实环境的三维模型并获取用户在所述三维模型的位置信息;
获取用户眼睛的注视方向;
根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息,所述注视点位置信息表征用户的注视点在所述三维模型中的位置信息;
根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度。
进一步地,构建用户所处的真实环境的三维模型,包括:
通过三维传感器扫描用户所处的真实环境;
根据扫描结果按照三维建图技术构建真实环境的三维模型。
进一步地,根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息,包括:
根据所述注视方向及用户在所述三维模型的位置信息确定视线与所述三维模型中物体的交点;
根据视线与所述三维模型中物体的交点确定注视点在所述三维模型中的位置信息。
进一步地,根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度,包括:
根据所述注视点位置信息和用户在所述三维模型的位置信息计算注视点与用户的实际距离;
根据所述实际距离确定注视深度。
进一步地,在根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度之后,还包括:
根据所述注视深度确定焦平面;
控制光学元件将虚拟图像投影至所述焦平面上。
进一步地,在根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度之后,还包括:
根据所述注视深度确定虚拟平面;所述虚拟平面为与视线垂直且与用户眼部的垂直距离为所述注视深度的平面;
控制光学元件将虚拟图像投影至所述虚拟平面上。
第二方面,本发明实施例还提供了一种注视深度的确定装置,包括:
三维模型构建及定位模块,用于构建用户所处真实环境的三维模型并获取用户在所述三维模型的位置信息;
注视方向获取模块,用于获取用户眼睛的注视方向;
注视点位置信息确定模块,用于根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息,所述注视点位置信息表征用户的注视点在所述三维模型中的位置信息;
注视深度确定模块,用于根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度。
进一步地,所述三维模型构建及定位模块,还用于:
通过三维传感器扫描用户所处的真实环境;
根据扫描结果按照三维建图技术构建真实环境的三维模型。
第三方面,本发明实施例还提供了一种AR设备,包括:三维建图单元、眼球追踪单元和注视深度确定单元;
所述三维建图单元用于构建用户所处真实环境的三维模型并获取用户在所述三维模型的位置信息;所述眼球追踪单元用于获取用户眼睛的注视方向;所述注视深度确定单元用于根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息;并根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度。
进一步地,还包括:投影单元,用于:根据所述注视深度确定焦平面;控制光学元件将虚拟图像投影至所述焦平面上。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所述的注视深度的确定方法。
本发明实施例,首先构建用户所处真实环境的三维模型并获取用户在三维模型的位置信息,然后获取用户眼睛的注视方向,再然后根据注视方向及用户在三维模型的位置信息确定注视点位置信息,最后根据注视点位置信息和用户在三维模型的位置信息确定注视深度。本发明实施例提供的注视深度的确定方法,将眼动追踪技术及同步定位与建图技术相结合来确定用户的注视深度,可以提高注视深度的准确性,降低误差,增强用户体验。
附图说明
图1是本发明实施例一中的一种注视深度的确定方法的流程图;
图2是本发明实施例一中的确定注视点在三维模型中的位置信息的示例图;
图3是本发明实施例一中的确定注视深度的示例图;
图4是本发明实施例二中的一种注视深度的确定装置的结构示意图;
图5是本发明实施例三中的一种AR设备的结构示意图;
图6是本发明实施例四中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种注视深度的确定方法的流程图,本实施例可适用于确定用户注视深度的情况,该方法可以由注视深度的确定装置来执行,该装置可由硬件和/或软件组成,并一般可集成在具有注视深度的确定功能的设备中,该设备可以是服务器、移动终端或服务器集群等电子设备。如图1所示,该方法具体包括如下步骤:
步骤110,构建用户所处真实环境的三维模型并获取用户在三维模型的位置信息。
其中,真实环境的三维模型可以是模拟所述真实环境构建的虚拟模型。用户在三维模型中的位置信息可以理解为用户在佩戴AR可穿戴式增强现实(Augmented Reality,AR)设备后,AR设备在三维模型中的三维坐标信息,即由AR设备的三维坐标表征用户在三维模型中的位置信息。本实施例中,用户佩戴AR设备后,AR设备采用三维建图技术对用户所处的真实环境构建三维模型,并获取用户在三维模型中的位置信息。
可选的,构建用户所处的真实环境的三维模型的过程可以是:通过三维传感器扫描用户所处的真实环境;根据扫描结果按照三维建图技术构建真实环境的三维模型。
其中,三维建图技术可以是同步定位与建图(simultaneous localization andmapping,SLAM)技术或者基于视觉的同步定位与建图(visual simultaneouslocalization and mapping,VSLAM)技术。具体的,三维传感器通过扫描用户所处的真实环境,获得周围环境的环境信息(包括深度信息及图像信息),然后通过传感器获取的当前和历史信息,推测出自身的位置信息,最后根据环境信息和自身的位置信息构建所处真实环境的三维模型。
步骤120,获取用户眼睛的注视方向。
其中,注视方向可以采用眼动追踪技术获取,注视方向可以理解为眼睛的视线方向。眼动追踪也可以称为视线追踪,是通过测量眼睛运动情况来估计眼睛的视线方向和/或注视点的技术。其中,视线方向可以理解为一个三维矢量。
本实施例中,眼动追踪传感器包括红外相机和近红外光源。对眼球进行追踪可以采用光学记录法实现。光学记录法的原理是,利用红外相机记录被测试者的眼睛运动情况,即获取能够反映眼睛运动的眼部图像,从获取到的眼部图像中提取眼部特征用于建立视线的估计模型。其中,眼部特征可以包括:瞳孔位置、瞳孔形状、虹膜位置、虹膜形状、眼皮位置、眼角位置、光斑位置(或者普尔钦斑)等。光学记录法包括瞳孔-角膜反射法。瞳孔-角膜反射法的原理是,近红外光源照向眼睛,由红外相机对眼部进行拍摄,同时拍摄到光源在角膜上的反射点即光斑,由此获取到带有光斑的眼部图像。
随着眼球的转动,瞳孔中心与光斑在图像中的位置坐标的相对位置关系随之发生变化。采集到多张带有光斑的眼部图像都可以反映瞳孔光斑位置变化,根据所述瞳孔光斑位置进行视线方向的估计,从而获得用户的注视方向。
另外需要注意的,眼动追踪传感器还可以是微机电系统(Micro-Electro-Mechanical System,MEMS),例如包括MEMS红外扫描反射镜、红外光源、红外接收器。
在其他另一个实施例中,眼动追踪传感器还可以是电容传感器,其通过眼球与电容极板之间的电容值来检测眼球运动。
在其他又一个实施例中,眼动追踪传感器还可以是肌电流检测器,例如通过在鼻梁、额头、耳朵或耳垂处放置电极,通过检测的肌电流信号模式来检测眼球运动。
步骤130,根据注视方向及用户在三维模型的位置信息确定注视点位置信息。
其中,注视点位置信息表征用户的注视点在所述三维模型中的位置信。由于用户的眼睛无法透视,视线与三维模型中物体的交点即为用户在真实环境中的注视点。可选的,根据注视方向及用户在三维模型的位置信息确定注视点位置信息的方式可以是:根据注视方向及用户在三维模型的位置信息确定视线与三维模型中物体的交点;根据视线与三维模型中物体的交点确定注视点在三维模型中的位置信息。
具体的,根据眼动追踪技术获取到注视方向对应的三维矢量后,在三维模型中,以用户在三维模型的位置信息为起点,视线沿着三维矢量对应的方向延伸,直至与三维模型中的物体相交,获得注视方向对应的视线与三维模型中物体的交点。最后确定该交点在三维模型的坐标,即为注视点在三维模型中的位置信息。示例性的,图2是本实施中确定注视点在三维模型中的位置信息的示例图。如图2所示,用户佩戴AR设备后,SLAM技术可以构建真实环境的三维模型及定位用户的位置信息,眼动追踪技术可以获得注视方向对应的三维矢量,根据注视方向矢量和用户的位置信息可以确定视线与三维模型中物体的交点,根据该交点获得注视点在三维模型中的位置信息。
步骤140,根据注视点位置信息和用户在三维模型的位置信息确定注视深度。
其中,注视点位置信息和用户在三维模型的位置信息由三维坐标表征。其中用户在三维模型的位置信息可以理解为用户的双眼连线中点在三维模型的位置坐标,或者任意一只眼睛在三维模型的位置坐标;具体的,根据注视点位置信息和用户在三维模型的位置信息确定注视深度的过程可以是:根据注视点位置信息和用户在三维模型的位置信息计算注视点与用户的实际距离;根据实际距离确定注视深度。
本实施例中,注视点和用户的实际距离通过计算注视点位置信息的三维坐标与用户在三维模型的位置信息的三维坐标之间的距离。示例性的,假设注视点位置信息的三维坐标为(a1,b1,c1),用户在三维模型的位置信息的三维坐标为(a2,b2,c2),那么注视点和用户的实际距离的计算公式为在获得注视点与用户的实际距离后,将该实际距离确定为注视深度。
图3是本实施例中的确定注视深度的示例图,如图3所述,用户与注视点(台灯)间的实际距离为5m,则确定当前的注视深度为5m。
本实施例的技术方案,首先构建用户所处真实环境的三维模型并获取用户在三维模型的位置信息,然后获取用户眼睛的注视方向,再然后根据注视方向对应的视线与三维模型中物体的交点以及用户在三维模型的位置信息确定注视点位置信息,最后根据注视点位置信息和用户在三维模型的位置信息确定注视深度。本发明实施例提供的注视深度的确定方法,将眼动追踪技术及同步定位与建图技术相结合来确定用户的注视深度,可以提高注视深度的准确性,降低误差。
可选的,在根据注视点位置信息和用户在三维模型的位置信息确定注视深度之后,还包括如下步骤:根据注视深度确定焦平面;控制光学元件将虚拟图像投影至焦平面上。
其中,焦平面可以是注视深度相同的曲面或球面,即焦平面上的点与用户眼睛的距离相等。具体的,在确定焦平面后,获取需要投影的虚拟图像,并控制虚拟图像投影至焦平面上。本实施例中,将虚拟图像投影至焦平面上,可以解决用户佩戴AR眼镜产生的视觉辐辏调节冲突。
可选的,在根据注视点位置信息和用户在三维模型的位置信息确定注视深度之后,还包括如下步骤:根据注视深度确定虚拟平面;控制光学元件将虚拟图像投影至虚拟平面上。
其中,虚拟平面为与视线垂直且与用户眼部的垂直距离为注视深度的平面。具体的,在确定虚拟平面后,获取需要投影的虚拟图像,并控制虚拟图像投影至虚拟平面上。本实施例中,将虚拟图像投影至由注视深度确定的虚拟平面上,可以解决用户佩戴AR眼镜产生的视觉辐辏调节冲突。
实施例二
图4为本发明实施例二提供的一种注视深度的确定装置的结构示意图。如图4所示,该装置包括:三维模型构建及定位模块210,注视方向获取模块220,注视点位置信息确定模块230和注视深度确定模块240。
三维模型构建及定位模块210,用于构建用户所处真实环境的三维模型并获取用户在三维模型的位置信息;
注视方向获取模块220,用于获取用户眼睛的注视方向;
注视点位置信息确定模块230,用于根据注视方向及用户在三维模型的位置信息确定注视点位置信息,所述注视点位置信息表征用户的注视点在所述三维模型中的位置信息;
注视深度确定模块240,用于根据注视点位置信息和用户在三维模型的位置信息确定注视深度。
可选的,三维模型构建及定位模块210,还用于:
通过三维传感器扫描用户所处的真实环境;
根据扫描结果按照三维建图技术构建真实环境的三维模型。
可选的,注视点位置信息确定模块230,还用于:
根据注视方向及用户在三维模型的位置信息确定视线与三维模型中物体的交点;
根据视线与三维模型中物体的交点确定注视点在三维模型中的位置信息。
可选的,注视深度确定模块240,还用于:
根据注视点位置信息和用户在三维模型的位置信息计算注视点与用户的实际距离;
根据实际距离确定注视深度。
可选的,还包括:第一虚拟图像投影模块,用于:
根据注视深度确定焦平面;
控制光学元件将虚拟图像投影至焦平面上。
可选的,还包括:第二拟图像投影模块,用于:
根据所述注视深度确定虚拟平面;所述虚拟平面为与视线垂直且与用户眼部的垂直距离为所述注视深度的平面;
控制光学元件将虚拟图像投影至所述虚拟平面上。
上述装置可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
实施例三
图5为本发明实施例三提供的一种AR设备的结构示意图,该设备包括:三维建图单元510、眼球追踪单元520和注视深度确定单元530;
三维建图单元510用于构建用户所处真实环境的三维模型并获取用户在三维模型的位置信息;眼球追踪单元520用于获取用户眼睛的注视方向;注视深度确定530单元用于根据注视方向及用户在三维模型的位置信息确定注视点位置信息;并根据注视点位置信息和用户在三维模型的位置信息确定注视深度。
可选的,该AR设备还包括:投影单元,用于:根据注视深度确定焦平面;控制光学元件将虚拟图像投影至焦平面上。
本实施例提供的AR设备可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
实施例四
图6为本发明实施例四提供的一种计算机设备的结构示意图。图6示出了适于用来实现本发明实施方式的计算机设备312的框图。图6显示的计算机设备312仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。设备312是典型的注视深度的确定功能的计算设备。
如图6所示,计算机设备312以通用计算设备的形式表现。计算机设备312的组件可以包括但不限于:一个或者多个处理器316,存储装置328,连接不同系统组件(包括存储装置328和处理器316)的总线318。
总线318表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备312典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备312访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置328可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)330和/或高速缓存存储器332。计算机设备312可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统334可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线318相连。存储装置328可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块326的程序336,可以存储在例如存储装置328中,这样的程序模块326包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块326通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备312也可以与一个或多个外部设备314(例如键盘、指向设备、摄像头、显示器324等)通信,还可与一个或多个使得用户能与该计算机设备312交互的设备通信,和/或与使得该计算机设备312能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口322进行。并且,计算机设备312还可以通过网络适配器320与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器320通过总线318与计算机设备312的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备312使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays ofIndependent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器316通过运行存储在存储装置328中的程序,从而执行各种功能应用以及数据处理,例如实现本发明上述实施例所提供的注视深度的确定方法。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的注视深度的确定方法。
当然,本发明实施例所提供的一种计算机可读存储介质,其上存储的计算机程序不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的注视深度的确定方法中的相关操作。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言——诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (11)
1.一种注视深度的确定方法,其特征在于,包括:
构建用户所处真实环境的三维模型并获取用户在所述三维模型的位置信息;
获取用户眼睛的注视方向;
根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息,所述注视点位置信息表征用户的注视点在所述三维模型中的位置信息;
根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度。
2.根据权利要求1所述的方法,其特征在于,构建用户所处的真实环境的三维模型,包括:
通过三维传感器扫描用户所处的真实环境;
根据扫描结果按照三维建图技术构建真实环境的三维模型。
3.根据权利要求1所述的方法,其特征在于,根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息,包括:
根据所述注视方向及用户在所述三维模型的位置信息确定视线与所述三维模型中物体的交点;
根据所述视线与所述三维模型中物体的交点确定注视点在所述三维模型中的位置信息。
4.根据权利要求1所述的方法,其特征在于,根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度,包括:
根据所述注视点位置信息和用户在所述三维模型的位置信息计算注视点与用户的实际距离;
根据所述实际距离确定注视深度。
5.根据权利要求1-4任一所述的方法,其特征在于,在根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度之后,还包括:
根据所述注视深度确定焦平面;所述焦平面为由注视深度相同的点组成的面;
控制光学元件将虚拟图像投影至所述焦平面上。
6.根据权利要求1-4任一所述的方法,其特征在于,在根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度之后,还包括:
根据所述注视深度确定虚拟平面;所述虚拟平面为与视线垂直且与用户眼部的垂直距离为所述注视深度的平面;
控制光学元件将虚拟图像投影至所述虚拟平面上。
7.一种注视深度的确定装置,其特征在于,包括:
三维模型构建及定位模块,用于构建用户所处真实环境的三维模型并获取用户在所述三维模型的位置信息;
注视方向获取模块,用于获取用户眼睛的注视方向;
注视点位置信息确定模块,用于根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息,所述注视点位置信息表征用户的注视点在所述三维模型中的位置信息;
注视深度确定模块,用于根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度。
8.根据权利要求7所述的装置,其特征在于,所述三维模型构建及定位模块,还用于:
通过三维传感器扫描用户所处的真实环境;
根据扫描结果按照三维建图技术构建真实环境的三维模型。
9.一种AR设备,其特征在于,包括:三维建图单元、眼球追踪单元和注视深度确定单元;
所述三维建图单元用于构建用户所处真实环境的三维模型并获取用户在所述三维模型的位置信息;所述眼球追踪单元用于获取用户眼睛的注视方向;所述注视深度确定单元用于根据所述注视方向及用户在所述三维模型的位置信息确定注视点位置信息;并根据所述注视点位置信息和用户在所述三维模型的位置信息确定注视深度。
10.根据权利要求9所述的设备,其特征在于,还包括:投影单元,用于:根据所述注视深度确定焦平面;控制光学元件将虚拟图像投影至所述焦平面上。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的注视深度的确定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911176845.5A CN112950688A (zh) | 2019-11-26 | 2019-11-26 | 注视深度的确定方法、装置、ar设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911176845.5A CN112950688A (zh) | 2019-11-26 | 2019-11-26 | 注视深度的确定方法、装置、ar设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112950688A true CN112950688A (zh) | 2021-06-11 |
Family
ID=76225212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911176845.5A Pending CN112950688A (zh) | 2019-11-26 | 2019-11-26 | 注视深度的确定方法、装置、ar设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112950688A (zh) |
-
2019
- 2019-11-26 CN CN201911176845.5A patent/CN112950688A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110647237B (zh) | 在人工现实环境中基于手势的内容共享 | |
CN110187855B (zh) | 近眼显示设备的避免全息影像阻挡视线的智能调节方法 | |
CN106575039B (zh) | 具有确定用户眼镜特性的眼睛跟踪设备的平视显示器 | |
JP2022000640A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2020034919A (ja) | 構造化光を用いた視線追跡 | |
US11127380B2 (en) | Content stabilization for head-mounted displays | |
WO2023011339A1 (zh) | 视线方向追踪方法和装置 | |
US9696798B2 (en) | Eye gaze direction indicator | |
CN112102389A (zh) | 确定实物至少一部分的3d重构件的空间坐标的方法和系统 | |
KR102073460B1 (ko) | 렌즈 시스템을 통한 드리프트 프리 눈 추적을 제공하는 머리 장착형 눈 추적 디바이스 및 방법 | |
US11662589B2 (en) | Geometry modeling of eyewear devices with flexible frames | |
KR20170100641A (ko) | 실세계 객체들의 가상 표현들 | |
KR20160022921A (ko) | 모바일 디바이스 착용 시의 머리 움직임 추적 | |
KR101788452B1 (ko) | 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법 | |
JP7168953B2 (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
US20210026445A1 (en) | Systems and methods for gaze tracking | |
WO2019125700A1 (en) | System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping | |
Plopski et al. | Automated spatial calibration of HMD systems with unconstrained eye-cameras | |
CN113272765A (zh) | Ar/vr环境中用户注意力的视觉指示器 | |
US20200341284A1 (en) | Information processing apparatus, information processing method, and recording medium | |
CN113227942A (zh) | Ar/vr环境中用户注意力的音频指示器 | |
CN114360043B (zh) | 模型参数标定方法、视线追踪方法、装置、介质及设备 | |
CN110895433B (zh) | 用于增强现实中用户交互的方法和装置 | |
Yang et al. | Wearable eye-tracking system for synchronized multimodal data acquisition | |
CN112099622B (zh) | 一种视线追踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |