CN117666776A - 头戴式虚拟现实设备 - Google Patents
头戴式虚拟现实设备 Download PDFInfo
- Publication number
- CN117666776A CN117666776A CN202211091839.1A CN202211091839A CN117666776A CN 117666776 A CN117666776 A CN 117666776A CN 202211091839 A CN202211091839 A CN 202211091839A CN 117666776 A CN117666776 A CN 117666776A
- Authority
- CN
- China
- Prior art keywords
- head
- virtual reality
- user
- reality device
- assembly
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004424 eye movement Effects 0.000 claims abstract description 97
- 210000001508 eye Anatomy 0.000 claims abstract description 93
- 230000003287 optical effect Effects 0.000 claims abstract description 44
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 31
- 239000011521 glass Substances 0.000 claims description 24
- 230000000712 assembly Effects 0.000 claims description 23
- 238000000429 assembly Methods 0.000 claims description 23
- 210000004709 eyebrow Anatomy 0.000 claims description 7
- 210000001747 pupil Anatomy 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 8
- 238000004088 simulation Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
Abstract
本公开提供一种头戴式虚拟现实设备,该头戴式虚拟现实设备包括眼动识别组件和处理器,眼动识别组件包括光源组件和第一相机;光源组件包括光源和衍射光学元件,衍射光学元件具有多个出光孔,多个出光孔形成第一图案,光源组件配置为,在头戴式虚拟现实设备使用时,光源组件发出的光在用户的一个眼球上形成第一反射图案;第一相机配置为在头戴式虚拟现实设备使用时,第一相机拍摄用户的第一眼部图片,第一眼部图片包括至少部分第一反射图案;处理器配置为获取第一相机拍摄的第一眼部图片,根据第一眼部图片确定用户对应的瞳孔中央点的位置坐标。该头戴式虚拟现实设备增加了眼动识别标定时的标定精度。
Description
技术领域
本公开实施例涉及虚拟现实技术领域,尤其涉及一种头戴式虚拟现实设备。
背景技术
随着虚拟现实(virtual reality,简称为VR)技术的发展以及头戴式虚拟现实设备民用化程度的不断提高,人们可以佩戴头戴式虚拟现实设备体验虚拟场景,享受沉浸式体验,极大的丰富了人们的生活内容和生活品质。
头戴式虚拟现实设备是利用仿真技术与计算机图形学、人机接口技术、多媒体技术、传感技术、网络技术等多种技术集合的产品,是借助计算机及最新传感器技术创造的一种崭新的人机交互手段。在相关技术中,头戴式虚拟现实设备包括眼球追踪装置,以使得头戴式虚拟现实设备能够根据用户的眼球位置确定用户的视线方向和瞳孔间距。
然而,上述眼球跟踪装置,存在标定复杂度高,标定精度低的问题。
发明内容
本公开实施例提供一种头戴式虚拟现实设备,用以解决多个红外发射二极管与红外线相机配合实现头戴式虚拟现实设备的眼动识别的方案存在标定复杂度高,标定精度低的技术问题。
本公开实施例为解决上述技术问题提供如下技术方案:
本公开实施例提供了一种头戴式虚拟现实设备,包括眼动识别组件和处理器,所述眼动识别组件包括光源组件和第一相机;
所述光源组件包括光源和衍射光学元件,所述衍射光学元件具有多个出光孔,多个所述出光孔形成第一图案,所述光源组件配置为,在所述头戴式虚拟现实设备使用时,所述光源组件发出的光在用户的一个眼球上形成第一反射图案;
所述第一相机配置为在所述头戴式虚拟现实设备使用时,所述第一相机拍摄用户的第一眼部图片,所述第一眼部图片包括至少部分所述第一反射图案;
所述处理器配置为获取所述第一相机拍摄的所述第一眼部图片,根据所述第一眼部图片确定用户对应的瞳孔中央点的位置坐标。
本公开实施例的有益效果:本公开实施例提供的头戴式虚拟现实设备包括眼动识别组件和处理器,眼动识别组件用于头戴式虚拟现实设备的眼动识别,眼动识别组件包括光源组件和第一相机,光源组件包括一个光源和将该光源分散为多条光线的衍射光学元件,一个光源和一个衍射光学元件配合发射光线以在用户眼球上形成第一反射图案,相较于通过多个红外发射二极管与红外线相机配合实现头戴式虚拟现实设备的眼动识别的方案,本公开实施例提供的眼动识别方案中一只眼睛对应一个光源和一个衍射光学元件,减少了用于眼动识别的发光元器件的数量,减小了发光元器件在电路板上占用的面积,进而使得用于安装发光元器件的电路板的尺寸减小,由此解决了多个红外发射二极管的设置造成的电路板外露的问题,并且用于眼动识别的发光元器件的数量减小,能够便于发光元器件的组装,减小发光元器件的组装误差,增加头戴式虚拟现实设备中眼动识别标定时的标定精度;再者,相对于多个红外发射二极管之间发出的光线存在相互干扰,影响眼动识别的精确度的问题,本公开实施例提供的光源组件,通过衍射光学元件将该光源分散为多条光线,每条光线的发散度小,减小了多条光线之间的相互干扰,提高了眼动识别的精确度。
在一种可能的实施方式中,还包括两个镜筒组件,两个所述镜筒组件分别与用户的两只眼睛相对应,且在所述头戴式虚拟现实设备使用时,两个所述镜筒组件向用户展现虚拟景象;
一个所述镜筒组件对应一个所述眼动识别组件,在相对应的所述镜筒组件和所述眼动识别组件中,所述光源组件和所述第一相机均设置于所述镜筒组件的下部。
在一种可能的实施方式中,还包括壳体,两个所述镜筒组件设置于所述壳体内,所述壳体的第一侧与所述镜筒组件之间设置有用于容纳用户佩戴眼镜的第一空间,所述壳体的第一侧为所述头戴式虚拟现实设备佩戴于用户眼部时,所述壳体朝向用户眼部的一侧;
两个所述第一相机分别位于所述第一空间沿第一方向的两端的下部,且设置在所述壳体上,所述第一方向为两个所述镜筒组件的中心连线的方向。
在一种可能的实施方式中,在相对应的所述镜筒组件和所述眼动识别组件中,所述光源组件位于所述镜筒组件的中心轴的正下部,且设置在所述壳体上。
在一种可能的实施方式中,两个眼动识别组件分别与用户的两只眼睛相对应;
所述处理器根据两个所述眼动识别组件分别拍摄的对应的眼睛的第一眼部图片,分别获取用户两只眼睛的瞳孔中央点的位置坐标;
所述处理器根据用户两只眼睛的瞳孔中央点的位置坐标,获取瞳孔间距。
在一种可能的实施方式中,所述光源为垂直腔面发射激光器。
在一种可能的实施方式中,所述垂直腔面发射激光器和所述衍射光学元件均具有出光面;
所述垂直腔面发射激光器的出光面的长宽分别为1mm和1mm;
所述衍射光学元件的出光面的长宽分别为3.5mm和3.5mm,多个所述出光孔设置于所述衍射光学元件的出光面上。
在一种可能的实施方式中,所述光源组件还包括外壳体,所述垂直腔面发射激光器和所述衍射光学元件设置于所述外壳体内;
所述外壳体具有第一开口,所述衍射光学元件的出光面设置于所述第一开口,且衍射光学元件的出光面的周向边缘与所述第一开口的周向边缘贴合;
位于所述第一开口端的所述外壳体的长宽分别为3.6mm和3.6mm。
在一种可能的实施方式中,多个所述出光孔围合形成圆形图案。
在一种可能的实施方式中,所述光源组件的视场角为40°-50°,所述光源组件出射的光照射到用户的眼球时的距离为25mm-27mm。
在一种可能的实施方式中,所述垂直腔面发射激光器的工作电流小于5mA。
在一种可能的实施方式中,所述衍射光学元件的衍射效率小于80%。
在一种可能的实施方式中,所述眼动识别组件还包括第二相机,在相对应的所述镜筒组件和所述眼动识别组件中,所述第二相机设置于所述镜筒组件的上部,且位于靠近另一个所述镜筒组件的一侧;
所述第二相机配置为在所述头戴式虚拟现实设备使用时,所述第二相机拍摄用户的第二眼部图片,所述第二眼部图片包括与所述第二相机对应侧的用户眉毛所在的区域。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1为本公开实施例头戴式虚拟现实设备的示意图;
图2为本公开实施例衍射光学元件的出光面的示意图;
图3为光源组件的示意图;
图4为光源组件在用户的眼球上形成第一反射图案的示意图;
图5为第一相机位于第一位置时的光线图;
图6为第一相机位于第二位置时的光线图;
图7为第一相机位于第三位置时的光线图;
图8为用户佩戴本公开实施例提供的头戴式虚拟现实设备的主视图;
图9为用户佩戴本公开实施例提供的头戴式虚拟现实设备的侧视图;
图10为IR LED模组出射的光线与注视方向呈小夹角的人眼光斑仿真图;
图11为IR LED模组出射的光线与注视方向呈大夹角的人眼光斑仿真图。
附图标记说明:
100、眼动识别组件;
110、光源组件;120、第一相机;
111、光源;112、衍射光学元件;113、外壳体;
1121、出光孔;
200、镜筒组件;
310、显示屏;320、镜筒;330、凸透镜;
300、第二相机;
400、第一反射图案;
500、眼镜;
510、镜框;
600、壳体。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
正如背景技术中所述,在相关技术中,头戴式虚拟现实设备的眼球追踪装置能够根据用户的眼球位置确定用户的视线方向和瞳孔间距,然而,相关技术中的眼球跟踪装置,存在标定复杂度高,标定精度低的问题。经发明人研究发现,如果头戴式虚拟现实设备的眼球追踪装置包括红外线相机和多个红外发射二极管,多个红外发射二极管与红外线相机配合实现头戴式虚拟现实设备的眼动识别功能,以使得头戴式虚拟现实设备能够根据用户的瞳孔间距调节其自身的IPD值。多个红外发射二极管设置于一个柔性电路板(FlexiblePrinted Circuit,简称为FPC),由于受头戴式虚拟现实设备内部的安装空间的限制,使得设置有多个红外发射二极管的柔性电路板无法避免柔性电路板外露的问题,进而使得用户在使用头戴式虚拟现实设备时,容易发生静电干扰,造成头戴式虚拟现实设备的功能受损。再一方面,红外发射二极管的数量越多,其在组装时整体的误差就越大,从而影响头戴式虚拟现实设备的眼动识别的标定精度。
有鉴于此,本公开实施例通过重新设置光源组件,以减少用于眼动识别的发光元器件的数量,来减小发光元器件在电路板上占用的面积,进而使得用于安装发光元器件的电路板的尺寸减小,由此解决了多个红外发射二极管的设置造成的电路板外露的问题,并且用于眼动识别的发光元器件的数量减小,能够便于发光元器件的组装,减小发光元器件的组装误差,增加头戴式虚拟现实设备中眼动识别标定时的标定精度。
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开的一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
图1为本公开实施例头戴式虚拟现实设备的示意图;图2为本公开实施例衍射光学元件的出光面的示意图;图3为光源组件的示意图;图4为光源组件在用户的眼球上形成第一反射图案的示意图;图5为第一相机位于第一位置时的光线图;图6为第一相机位于第二位置时的光线图;图7为第一相机位于第三位置时的光线图;图8为用户佩戴本公开实施例提供的头戴式虚拟现实设备的主视图;图9为用户佩戴本公开实施例提供的头戴式虚拟现实设备的侧视图;图10为IR LED模组出射的光线与注视方向呈小夹角的人眼光斑仿真图,图11为IR LED模组出射的光线与注视方向呈大夹角的人眼光斑仿真图。
如图1所示,本实施例提供的头戴式虚拟现实设备包括眼动识别组件100和处理器。眼动识别组件100包括光源组件110和第一相机120。如图2、图3和图4所示,光源组件110包括光源111和衍射光学元件112,衍射光学元件112具有多个出光孔1121,多个出光孔1121形成第一图案,示例性的,第一图案为由多个出光孔1121围合形成的圆形图案,也就是说,多个出光孔1121环绕一个中心点设置,且各个出光孔1121的中心到该中心点的距离相同。
光源组件110配置为在头戴式虚拟现实设备使用时,光源组件110发出的光在用户的一个眼球上形成第一反射图案400,第一反射图案400为光源111出射的光照射到衍射光学元件112,经过衍射光学元件112的多个出光孔1121出射到用户的眼球,并在用户的眼球上形成的反射光斑。也就是说,第一反射图案400为光源组件110出射的光线出射到用户的眼球上,并在用户的眼球上形成反射光斑,该反射光斑与多个出光孔1121配合形成的第一图案相对应。
示例性的,光源组件110在用户的眼球上形成的第一反射图案400如图4所示。
在本实施例中,第一相机120与处理器通信连接,第一相机120配置为在头戴式虚拟现实设备使用时,第一相机120拍摄用户的第一眼部图片,第一眼部图片包括至少部分第一反射图案400。处理器配置为获取第一相机120拍摄的第一眼部图片,根据第一眼部图片确定用户对应的瞳孔中央点的位置坐标。也就是说,本公开实施例提供的头戴式虚拟现实设备具有眼动识别功能。
在相关技术中,头戴式虚拟现实设备通过多个红外发射二极管与红外线相机配合实现头戴式虚拟现实设备的眼动识别功能,以使得头戴式虚拟现实设备能够根据用户的瞳孔间距调节其自身的IPD值,也就是说,红外发射二极管为用于眼动识别的发光元器件,多个发光元器件设置于一个柔性电路板上时会占用较大的空间,然而由于受头戴式虚拟现实设备内部的安装空间的限制,使得设置有多个发光元器件的柔性电路板无法避免柔性电路板外露的问题,进而使得用户在使用头戴式虚拟现实设备时,容易发生静电干扰,造成头戴式虚拟现实设备的功能受损,并且发光元器件的数量越多,其在组装时整体的误差就越大,从而影响头戴式虚拟现实设备的眼动识别的标定精度。本公开实施例提供的头戴式虚拟现实设备中,用于实现眼动识别功能的发光元器件为一个光源111和一个衍射光学元件112,光源111出射的光经衍射光学元件112分散为多条光线,多条光线入射至用户的眼球,以在用户的眼球上形成第一反射图案400。因此,相较于通过多个红外发射二极管与红外线相机配合实现头戴式虚拟现实设备的眼动识别的方案,本公开实施例提供的头戴式虚拟现实设备减少了用于眼动识别的发光元器件的数量,减小了发光元器件在电路板上占用的面积,进而使得用于安装发光元器件的电路板的尺寸减小,由此解决了多个红外发射二极管的设置造成的电路板外露的问题,并且用于眼动识别的发光元器件的数量减小,能够便于发光元器件的组装,减小发光元器件的组装误差,增加头戴式虚拟现实设备中眼动识别标定时的标定精度。再者,相对于多个红外发射二极管之间发出的光线存在相互干扰,影响眼动识别的精确度的问题,本公开实施例提供的光源组件110,通过衍射光学元件112将该光源111分散为多条光线,每条光线的发散度小,减小了多条光线之间的相互干扰,提高了眼动识别的精确度。
在本实施例中,头戴式虚拟现实设备还包括两个镜筒组件200,两个镜筒组件200分别与用户的两只眼睛相对应,且在头戴式虚拟现实设备使用时,两个镜筒组件200向用户展现虚拟景象。也就是说,其中一个镜筒组件200与用户的左眼相对应,以向用户的左眼展现虚拟镜像,另一个镜筒组件200与用户的右眼相对应,以向用户的右眼展现虚拟镜像。在本实施例中,一个镜筒组件200对应一个眼动识别组件100,在相对应的镜筒组件200和眼动识别组件100中,光源组件110和第一相机120均设置于镜筒组件200的下部。
在本公开的一些实施例中,两个眼动识别组件100分别与用户的两只眼睛相对应,处理器根据两个眼动识别组件100分别拍摄的对应的眼睛的第一眼部图片,分别获取用户两只眼睛的瞳孔中央点的位置坐标,然后处理器根据用户两只眼睛的瞳孔中央点的位置坐标,获取瞳孔间距。也就是说,本公开实施例提供的头戴式虚拟现实设备具有眼动识别功能,本公开实施例提供的头戴式虚拟现实设备通过分析用户的眼动情况,来获取用户的瞳孔间距,进而根据用户的瞳孔间距调节其自身的IPD值。
可选的,两个镜筒组件200分别为第一镜筒组件和第二镜筒组件,对应第一镜筒组件的眼动识别组件100为第一眼动识别组件,对应第二眼动识别组件的眼动识别组件100为第二眼动识别组件,第一眼动识别组件设置于第一镜筒组件的下部,第二眼动识别组件设置于第二镜筒组件的下部,且第一眼动识别组件和第二眼动识别组件相对于第一平面镜像设置,此设置能够使得第一眼动识别组件的第一相机120拍摄第一眼部图片的角度与第二眼动识别组件的第一相机120拍摄第一眼部图片的角度相同,利于处理器分析结果的准确性,即能够使得眼动识别的精确度更高,测算的IPD值更精准。
如图8和图9所示,镜筒组件200包括镜筒320以及沿镜筒320的轴向设置于镜筒320两侧的显示屏310和凸透镜330,其中,显示屏310设置于镜筒320背离用户眼睛的一侧,凸透镜330设置于镜筒320朝向用户眼睛的一侧。
如图8所示,头戴式虚拟现实设备还包括壳体600,两个镜筒组件200设置于壳体600内,壳体600的第一侧与镜筒组件200之间设置有用于容纳用户佩戴眼镜500的第一空间,壳体600的第一侧为头戴式虚拟现实设备佩戴于用户眼部时,壳体600朝向用户眼部的一侧。也就是说,本公开实施例提供的头戴式虚拟现实设备能够适配于带眼镜500的用户,提高佩戴眼镜500的用户的体验感。
值得说明的是,用户佩戴的眼镜500可以为近视眼镜500,也可以为远视眼镜500,还可以为老花镜。
可选的,第一相机120为眼部追踪(Eye-Tracking,简称为ET)相机。
为了避免用户佩戴的眼镜500的边缘遮挡第一相机120拍摄光源组件110在用户的眼球上形成的第一反射图案400,即避免第一相机120拍摄第一眼部图片时,用户佩戴的眼镜500的边缘遮挡光源组件110在用户的眼球上形成的反射光斑,两个眼动识别组件100的第一相机120分别位于第一空间沿第一方向的两端的下部,且设置在壳体600上,第一方向为两个镜筒组件200的中心连线的方向。即如图1和图7所示,在头戴式虚拟现实设备佩戴于用户眼部时,在第一眼动识别组件与用户的左眼相对应,第一眼动识别组件的第一相机120位于用户眼镜500镜框510的左侧边缘的下部,且设置在壳体600上,此设置能够使得第一相机120拍摄光源组件110在用户的眼球上形成的反射光斑时,用户佩戴的眼镜500的边缘不会遮挡住光源组件110在用户的眼球上形成的反射光斑,提高头戴式虚拟现实设备眼动识别的精确度。
示例性的,如图5所示,如果第一相机120设置于用户佩戴的眼镜500的左镜片的左下部,第一相机120拍摄第一眼部图片时,用户佩戴的眼镜500的边缘会遮挡光源组件110在用户的眼球上形成的反射光斑,造成用户佩戴的眼镜500的边缘干扰第一相机120的拍摄第一反射图案400。同样,如图6所示,如果第一相机120设置于用户佩戴的眼镜500的左镜片的右下部,即位于用户鼻梁的左下部,第一相机120拍摄第一眼部图片时,用户佩戴的眼镜500的边缘也会遮挡光源组件110在用户的眼球上形成的反射光斑,造成用户佩戴的眼镜500的边缘干扰第一相机120的拍摄第一反射图案400。
值得说明的是,图5为第一相机120位于第一位置时的光线图,图6为第一相机120位于第二位置时的光线图,图7为第一相机120位于第三位置时的光线图,其中,第一位置为在头戴式虚拟现实设备佩戴于用户眼部时,用户眼镜500左镜片的左下部,且位于壳体600边缘的位置,第二位置为在头戴式虚拟现实设备佩戴于用户眼部时,用户眼镜500左镜片的右下部,且位于壳体600边缘的位置,第三位置为在头戴式虚拟现实设备佩戴于用户眼部时,用户眼镜500镜框510的左侧边缘的下部,且位于壳体600边缘的位置。
在本公开的实施例中,如图1和图8所示,在相对应的镜筒组件200和眼动识别组件100中,光源组件110位于镜筒组件200的中心轴的正下部,且设置在壳体600上。也就是说,如图1和图8所示,第一眼动识别组件的光源组件110设置于第一镜筒组件的下部,且位于第一镜筒组件的中心轴的正下部。相应的,基于第一眼动识别组件和第二眼动识别组件相对于第一平面镜像设置,第二眼动识别组件的光源组件110设置于第二镜筒组件的下部,且位于第二镜筒组件的中心轴的正下部。此设置能够使得光源组件110在用户眼球上形成的各反射光斑的尺寸和亮度的一致性最高,这利于眼动识别的精确度的提高。
如图10和图11所示,图10为IR LED模组出射的光线与注视方向呈小夹角的人眼光斑仿真图,图11为IR LED模组出射的光线与注视方向呈大夹角的人眼光斑仿真图,其中,IRLED模组包括五个IR LED,五个IR LED照射在人眼球上并在人眼球上形成五个光斑,注视方向为人眼正视前方的方向,图10和图11为相机拍摄在人眼球上形成的五个光斑的仿真图。由图10和图11可见,IR LED模组出射的光线与注视方向的呈小夹角和IR LED模组出射的光线与注视方向呈大夹角相比,IR LED模组出射的光线与注视方向的呈小夹角时,相机拍摄在人眼球上形成的五个光斑的尺寸和亮度的一致性较好。同理,可推测,本公开实施例中,光源组件110设置在其发射的光线与人眼注视方向呈小夹角的位置时,其在用户眼球上形成的各反射光斑的尺寸和亮度的一致性较好,而当第一眼动识别组件的光源组件110设置于第一镜筒组件的下部,且位于第一镜筒组件的中心轴的正下部时,光源组件110设置在其发射的光线与人眼注视方向的夹角相对于其他位置小,故第一眼动识别组件的光源组件110设置于第一镜筒组件的下部,且位于第一镜筒组件的中心轴的正下部时,光源组件110在用户眼球上形成的各反射光斑的尺寸和亮度的一致性较好。
基于用户左眼睛的瞳孔中心点位置和右眼睛的瞳孔中心点位置是依据处理器通过其获取的第一眼动识别组件拍摄的第一眼部图片,以及第二眼动识别组件拍摄的第一眼部图片,结合其预先设计的眼动识别算法来计算获取的,第一眼动识别组件的第一相机120位于第一空间沿第一方向的一端的下部,以及第一眼动识别组件的光源组件110设置于第一镜筒组件的下部,且位于第一镜筒组件的中心轴的正下部的设置能够保证第一相机120拍摄的第一反射图案400不被用户佩戴的眼镜500的边缘遮挡,并且光源组件110在用户眼球上形成的各反射光斑的尺寸和亮度的一致性最高,两者配合能够极大的提高眼动识别的精确度。
值得说明的是,本公开实施例中的眼动识别算法与相关技术中多个红外发射二极管与红外线相机配合实现头戴式虚拟现实设备的眼动识别的方案中眼动识别算法相同,在此不再赘述。
在本公开的一些实施例中,光源111为垂直腔面发射激光器,垂直腔面发射激光器能够发射出稳定、持续的高质量激光,其通过衍射光学元件112分散成多条光线以在用户眼球上形成第一反射图案400,垂直腔面发射激光器与衍射光学元件112配合即可替代相关技术中多个红外发射二极管,发光元器件的数量少,且光线之间的相互干扰性低,利于眼动识别精确度的提高。
可选的,垂直腔面发射激光器的工作电流小于5mA,衍射光学元件112的衍射效率小于80%,此设置在能够满足光源组件110发射光线的前提下,能够满足人眼安全的需求。
在本公开的一些实施例中,垂直腔面发射激光器和衍射光学元件112均具有出光面,垂直腔面发射激光器的出光面的长宽分别为1mm和1mm,衍射光学元件112的出光面的长宽分别为3.5mm和3.5mm,多个出光孔1121设置于衍射光学元件112的出光面上。
如图3所示,为了便于垂直腔面发射激光器和衍射光学元件112的组装,光源组件110还包括外壳体113,垂直腔面发射激光器和衍射光学元件112设置于外壳体113内,外壳体113具有第一开口,衍射光学元件112的出光面设置于第一开口,且衍射光学元件112的出光面的周向边缘与第一开口的周向边缘贴合,位于第一开口端的外壳体113的长宽分别为3.6mm和3.6mm,此设置能够尽可能的减小光源组件110的体积,避免光源组件110在头戴式虚拟现实设备内占用过大的空间,影响头戴式虚拟现实设备的性能,并且衍射光学元件112的出光面设置于第一开口,且衍射光学元件112的出光面的周向边缘与第一开口的周向边缘贴合的设置方式,能够避免壳体600对衍射光学元件112出射光线的影响。
可选的,光源组件110的视场角为40°-50°,光源组件110出射的光照射到用户的眼球时的距离为25mm-27mm,此设置能够满足头戴式虚拟现实设备的出瞳距为15mm-18mm,投射区域为直径为10mm-12mm的圆形区域的需求。
在本公开的一些实施例中,眼动识别组件100还包括第二相机300,在相对应的镜筒组件200和眼动识别组件100中,第二相机300设置于镜筒组件200的上部,且位于靠近另一个镜筒组件200的一侧;第二相机300配置为,在头戴式虚拟现实设备使用时,第二相机300拍摄用户的第二眼部图片,第二眼部图片包括与第二相机300对应侧的用户眉毛所在的区域。
在眼动识别组件100对应镜筒组件200设置两个时,对应用户左眼的眼动识别组件100的第二相机300用于拍摄用户左眼部的第二眼部图片,该第二眼部图片包括用户的左侧眉毛,对应用户右眼的眼动识别组件100的第二相机300用于拍摄用户右眼部的第二眼部图片,该第二眼部图片包括用户的右侧眉毛。基于人体面部表情可以通过嘴巴和眉毛反应出,故两个第二相机300的设置能够拍摄用户脸部画面,实现表情追踪功能,另一方面,两个第二相机300的设置还可以拍摄用户眼睛画面提供3D重建功能。
可选的,在两个第二相机300中,第一眼动识别组件的第二相机300设置于第一镜筒组件的上部,且靠近第二镜筒组件的一侧,两个第二相机300相对于第一平面镜像设置。此位置能够更加全面的拍摄到用户的眉毛信息以及眼部信息。
其中,“上”、“下”等的用语,是用于描述各个结构在附图中的相对位置关系,仅为便于叙述的明了,而非用以限定本公开可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本公开可实施的范畴。
需要说明的是:在本公开中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
此外,在本公开中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本公开中的具体含义。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
最后应说明的是:以上各实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述各实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的范围。
Claims (13)
1.一种头戴式虚拟现实设备,其特征在于,包括眼动识别组件和处理器,所述眼动识别组件包括光源组件和第一相机;
所述光源组件包括光源和衍射光学元件,所述衍射光学元件具有多个出光孔,多个所述出光孔形成第一图案,所述光源组件配置为,在所述头戴式虚拟现实设备使用时,所述光源组件发出的光在用户的一个眼球上形成第一反射图案;
所述第一相机配置为在所述头戴式虚拟现实设备使用时,所述第一相机拍摄用户的第一眼部图片,所述第一眼部图片包括至少部分所述第一反射图案;
所述处理器配置为获取所述第一相机拍摄的所述第一眼部图片,根据所述第一眼部图片确定用户对应的瞳孔中央点的位置坐标。
2.根据权利要求1所述的头戴式虚拟现实设备,其特征在于,还包括两个镜筒组件,两个所述镜筒组件分别与用户的两只眼睛相对应,且在所述头戴式虚拟现实设备使用时,两个所述镜筒组件向用户展现虚拟景象;
一个所述镜筒组件对应一个所述眼动识别组件,在相对应的所述镜筒组件和所述眼动识别组件中,所述光源组件和所述第一相机均设置于所述镜筒组件的下部。
3.根据权利要求2所述的头戴式虚拟现实设备,其特征在于,还包括壳体,两个所述镜筒组件设置于所述壳体内,所述壳体的第一侧与所述镜筒组件之间设置有用于容纳用户佩戴眼镜的第一空间,所述壳体的第一侧为所述头戴式虚拟现实设备佩戴于用户眼部时,所述壳体朝向用户眼部的一侧;
两个所述第一相机分别位于所述第一空间沿第一方向的两端的下部,且设置在所述壳体上,所述第一方向为两个所述镜筒组件的中心连线的方向。
4.根据权利要求3所述的头戴式虚拟现实设备,其特征在于,在相对应的所述镜筒组件和所述眼动识别组件中,所述光源组件位于所述镜筒组件的中心轴的正下部,且设置在所述壳体上。
5.根据权利要求2所述的头戴式虚拟现实设备,其特征在于,两个眼动识别组件分别与用户的两只眼睛相对应;
所述处理器根据两个所述眼动识别组件分别拍摄的对应的眼睛的第一眼部图片,分别获取用户两只眼睛的瞳孔中央点的位置坐标;
所述处理器根据用户两只眼睛的瞳孔中央点的位置坐标,获取瞳孔间距。
6.根据权利要求1-5任一项所述的头戴式虚拟现实设备,其特征在于,所述光源为垂直腔面发射激光器。
7.根据权利要求6所述的头戴式虚拟现实设备,其特征在于,所述垂直腔面发射激光器和所述衍射光学元件均具有出光面;
所述垂直腔面发射激光器的出光面的长宽分别为1mm和1mm;
所述衍射光学元件的出光面的长宽分别为3.5mm和3.5mm,多个所述出光孔设置于所述衍射光学元件的出光面上。
8.根据权利要求7所述的头戴式虚拟现实设备,其特征在于,所述光源组件还包括外壳体,所述垂直腔面发射激光器和所述衍射光学元件设置于所述外壳体内;
所述外壳体具有第一开口,所述衍射光学元件的出光面设置于所述第一开口,且衍射光学元件的出光面的周向边缘与所述第一开口的周向边缘贴合;
位于所述第一开口端的所述外壳体的长宽分别为3.6mm和3.6mm。
9.根据权利要求6所述的头戴式虚拟现实设备,其特征在于,多个所述出光孔围合形成圆形图案。
10.根据权利要求9所述的头戴式虚拟现实设备,其特征在于,所述光源组件的视场角为40°-50°,所述光源组件出射的光照射到用户的眼球时的距离为25mm-27mm。
11.根据权利要求6所述的头戴式虚拟现实设备,其特征在于,所述垂直腔面发射激光器的工作电流小于5mA。
12.根据权利要求11所述的头戴式虚拟现实设备,其特征在于,所述衍射光学元件的衍射效率小于80%。
13.根据权利要求2所述的头戴式虚拟现实设备,其特征在于,所述眼动识别组件还包括第二相机,在相对应的所述镜筒组件和所述眼动识别组件中,所述第二相机设置于所述镜筒组件的上部,且位于靠近另一个所述镜筒组件的一侧;
所述第二相机配置为在所述头戴式虚拟现实设备使用时,所述第二相机拍摄用户的第二眼部图片,所述第二眼部图片包括与所述第二相机对应侧的用户眉毛所在的区域。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211091839.1A CN117666776A (zh) | 2022-09-07 | 2022-09-07 | 头戴式虚拟现实设备 |
US18/463,203 US20240078707A1 (en) | 2022-09-07 | 2023-09-07 | Head-mounted virtual reality device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211091839.1A CN117666776A (zh) | 2022-09-07 | 2022-09-07 | 头戴式虚拟现实设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117666776A true CN117666776A (zh) | 2024-03-08 |
Family
ID=90061035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211091839.1A Pending CN117666776A (zh) | 2022-09-07 | 2022-09-07 | 头戴式虚拟现实设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240078707A1 (zh) |
CN (1) | CN117666776A (zh) |
-
2022
- 2022-09-07 CN CN202211091839.1A patent/CN117666776A/zh active Pending
-
2023
- 2023-09-07 US US18/463,203 patent/US20240078707A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240078707A1 (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11054902B2 (en) | Eye glint imaging in see-through computer display systems | |
US11900554B2 (en) | Modification of peripheral content in world-locked see-through computer display systems | |
US11622426B2 (en) | See-through computer display systems | |
US11415856B2 (en) | Electrochromic systems for head-worn computer systems | |
US9846308B2 (en) | Haptic systems for head-worn computers | |
US9658458B2 (en) | See-through computer display systems | |
JP6106684B2 (ja) | 高分解能視線検出のためのシステムおよび方法 | |
US20170343814A1 (en) | Solid optics with increased field of view | |
CN116368448A (zh) | 驱动近眼显示器中光源的方法 | |
JP2023518421A (ja) | 網膜結像および追跡のためのシステムおよび方法 | |
US20170329138A1 (en) | Eye imaging systems for head-worn computers | |
WO2016133886A1 (en) | See-through computer display systems | |
US11669163B2 (en) | Eye glint imaging in see-through computer display systems | |
CN117666776A (zh) | 头戴式虚拟现实设备 | |
CN220553042U (zh) | 一种眼动追踪系统和眼镜 | |
WO2024051476A1 (zh) | 头戴式虚拟现实设备 | |
CN220232107U (zh) | 一种眼动追踪系统和眼镜 | |
US20240069347A1 (en) | System and method using eye tracking illumination | |
US20210244273A1 (en) | Eye-tracking fundus illumination system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |