CN109613706B - 针对智能头戴设备的调整方法、设备及存储介质 - Google Patents

针对智能头戴设备的调整方法、设备及存储介质 Download PDF

Info

Publication number
CN109613706B
CN109613706B CN201910082379.8A CN201910082379A CN109613706B CN 109613706 B CN109613706 B CN 109613706B CN 201910082379 A CN201910082379 A CN 201910082379A CN 109613706 B CN109613706 B CN 109613706B
Authority
CN
China
Prior art keywords
real
eyes
lens
infrared light
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910082379.8A
Other languages
English (en)
Other versions
CN109613706A (zh
Inventor
陆原介
李茜
张�浩
陈丽莉
韩鹏
雷雨
何惠东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201910082379.8A priority Critical patent/CN109613706B/zh
Publication of CN109613706A publication Critical patent/CN109613706A/zh
Priority to US16/751,226 priority patent/US11243608B2/en
Application granted granted Critical
Publication of CN109613706B publication Critical patent/CN109613706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0087Phased arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请实施例提供了一种针对智能头戴设备的调整方法、设备及存储介质,智能头戴设备包括红外收发模组、透镜和透镜调节装置,红外收发模组包括红外光源阵列和红外探测器,该方法包括:控制红外光源阵列发射阵列红外光扫描目标面部区域;通过红外探测器接收从目标面部区域上反射回的阵列红外光所形成的光学信号;根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值;控制透镜调节装置将透镜和瞳孔之间的像距调整到与瞳距的实时检测值相匹配。该方法可实现设备透镜和用户瞳孔之间的像距调整到与瞳距的实时检测值相匹配,提高虚拟现实用户的舒适度和沉浸感。

Description

针对智能头戴设备的调整方法、设备及存储介质
技术领域
本申请涉及智能设备技术领域,具体而言,本申请涉及一种针对智能头戴设备的调整方法、设备及存储介质。
背景技术
VR(Virtual Reality,虚拟现实)是多种技术的综合,包括实时三维计算机图形技术,广角立体显示技术,对观察者头、眼和手的跟踪技术,以及触觉/力觉反馈、立体声、网络传输、语音输入输出技术等。智能头戴设备是一种利用头戴式显示器将用户的对外界的视觉、听觉封闭,引导用户产生一种身在虚拟环境中的感觉。
智能头戴设备由于距离用户的眼睛很近,因而现有的智能头戴设备存在光学参数与用户眼睛不匹配,容易导致用户产生视觉疲劳、甚至身体不适的缺陷。
发明内容
本申请针对现有的方式的缺点,提出一种针对智能头戴设备的调整方法、设备及计算机可读存储介质,用以解决现有的智能头戴设备存在光学参数与用户眼睛不匹配,容易导致让用户产生视觉疲劳、甚至身体不适的缺陷的问题。
第一方面,提供了一种针对智能头戴设备的调整方法,智能头戴设备包括红外收发模组、透镜和透镜调节装置,红外收发模组包括红外光源阵列和红外探测器,该方法包括:
控制红外光源阵列发射阵列红外光扫描目标面部区域;
通过红外探测器接收从目标面部区域上反射回的阵列红外光所形成的光学信号;
根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值;
控制透镜调节装置将透镜和瞳孔之间的像距调整到与瞳距的实时检测值相匹配。
第二方面,提供了一种智能头戴设备,该设备包括:红外收发模组、透镜、屏幕、处理器和透镜调节装置,红外收发模组包括红外光源阵列和红外探测器,透镜调节装置包括驱动器、透镜固定中框和移动导轨,
红外光源阵列和红外探测器电连接至处理器,处理器与透镜调节装置电连接;
驱动器,与透镜固定中框和屏幕分别传动连接,与处理器电连接;
透镜固定中框和屏幕都以可移动的方式连接在移动导轨上,透镜固定在透镜固定中框上;
所述红外光源阵列,用于发射阵列红外光扫描目标面部区域;
所述红外探测器,用于接收从目标面部区域上反射回的阵列红外光所形成的光学信号;
所述处理器,用于根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值,还用于根据瞳距的实时检测值,控制透镜调节装置中的驱动器驱动透镜固定中框沿移动导轨移动,将透镜和瞳孔之间的像距调整到与瞳距的实时检测值相匹配。
第三方面,本申请提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被用于执行本申请第一方面的针对智能头戴设备的调整方法。
本申请实施例提供的技术方案,至少具有如下有益效果:
1)获得瞳距的实时检测值,从而实现设备透镜和用户瞳孔之间的像距调整到与瞳距的实时检测值相匹配,提高虚拟现实用户的舒适度和沉浸感。
2)在不使用摄像机的高分辨率传感器的前提下,实现面部区域的所有子区域光强度的探测,测量到面部区域的所有子区域的深度信息,获得面部区域的深度信息,实现面部区域的三维重建。
本申请附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种针对智能头戴设备的调整方法的流程示意图;
图2为本申请实施例提供的根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值的方法的一种流程示意图;
图3为本申请实施例提供的控制透镜调节装置将透镜和瞳孔之间的像距调整到与瞳距的实时检测值相匹配的方法的一种流程示意图;
图4为本申请实施例提供的一种智能头戴设备的结构示意图;
图5为本申请实施例提供的一种智能头戴设备的结构示意图;
图6为本申请实施例提供的另一种智能头戴设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本申请的发明人注意到,智能头戴设备通常预设有一个用户双眼的观测位置,并针对该预设的观测位置,配套预设有(智能头戴设备中的)透镜与该观测位置之间的像距、以及透镜与(智能头戴设备中的)屏幕之间的物距。
本申请的发明人经过研究发现,不同的用户佩戴同一智能头戴设备时,用户的双眼的位置通常与预设的观测位置存在偏差;例如,下述至少一种偏差:用户的双眼相比于观测位置更加靠近或远离透镜(即前后偏差)、用户的双眼相比于观测位置在水平面内偏转了一定的角度(即偏航角度偏差)、用户的双眼相比于观测位置在竖直面内偏转了一定的角度(即俯仰角度偏差)等。此外,即使是同一用户在每次佩戴同一智能头戴设备时,也或多或少存在上述偏差。
上述这些偏差的存在,导致智能头戴设备每次面对的往往是用户瞳距的不同的实时值,然而现有的智能头戴设备并不检测用户瞳距的实时值,无法得到用户瞳距的实时检测值,也不根据用户瞳距的实时检测值调整智能头戴设备的光学参数(例如像距或物距等),容易导致用户每次佩戴现有的智能头戴设备时,现有的智能头戴设备的光学参数(例如像距)无法与用户眼睛(指用户瞳距的实时值)匹配,容易导致用户产生视觉疲劳,甚至造成用户感到眩晕等身体不适。
本申请提供的针对智能头戴设备的调整方法、智能头戴设备和计算机可读存储介质,旨在解决现有技术的如上技术问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
实施例一
本申请实施例中提供了一种针对智能头戴设备的调整方法,智能头戴设备包括红外收发模组、透镜和透镜调节装置,红外收发模组包括红外光源阵列和红外探测器,该方法的流程示意图如图1所示,该方法包括:
S100,控制红外光源阵列发射阵列红外光扫描目标面部区域。
S200,通过红外探测器接收从目标面部区域上反射回的阵列红外光所形成的光学信号。
S300,根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值。
S400,控制透镜调节装置将透镜和瞳孔之间的像距调整到与瞳距的实时检测值相匹配。
本申请实施例中,控制红外光源阵列发射阵列红外光扫描目标面部区域;通过红外探测器接收从目标面部区域上反射回的阵列红外光所形成的光学信号;根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值;控制透镜调节装置将透镜和瞳孔之间的像距调整到与瞳距的实时检测值相匹配。如此,能够获得瞳距的实时检测值,从而实现设备透镜和用户瞳孔之间的像距调整到与瞳距的实时检测值相匹配,提高虚拟现实用户的舒适度和沉浸感。
可选地,本申请的针对智能头戴设备的调整方法可以由智能头戴设备中的处理器执行实现。
可选地,智能头戴设备还包括屏幕,本申请实施例的针对智能头戴设备的像距调整方法还包括:处理器根据瞳距的实时检测值,控制透镜调节装置将透镜和屏幕之间的物距调整到与瞳距的实时检测值相匹配。
需要说明的是,透镜调节装置调节透镜和用户瞳孔之间的像距,同时透镜和屏幕之间的物距也跟随像距的变化而进行变化,从而使调节后的像距和物距与瞳距的实时检测值相匹配。
可选地,控制红外光源阵列发射阵列红外光扫描目标面部区域,包括:对红外光源阵列中若干相干红外光的相位进行分别调节;控制红外光源阵列发射若干相位调节后的相干红外光扫描目标面部区域,目标面部区域包括眼睛和眼睛附近的区域,眼睛包括眼角、瞳孔和眼尾。
可选地,通过红外探测器接收从目标面部区域上反射回的阵列红外光所形成的光学信号,包括:红外探测器接收从目标面部区域上反射回的若干相位调节后的相干红外光所形成的不同的反射位置的光学信号,反射位置为眼角位置、瞳孔位置、眼尾位置中任意一种,光学信号包括光强度。
需要说明的是,光具有波粒二象性,并且在宏观下波动性明显。光可以发生干涉,不同的光束在空间中发生叠加,从而在空间中形成光强的加强区和减弱区,例如杨氏双缝实验中明暗相间的条纹。多光束干涉的效果将更进一步,多束光的叠加可以使得空间中大部分区域的光强度叠加后为零,而特定的区域光强则会被增强,从而实现特定小区域的光照;红外收发模组包括红外光源阵列,红外光源阵列包括若干个红外相干子光源,每个子光源可以发出相干红外光,并且每个子光源的相干红外光的相位可以分别调整,通过调整每个子光源发射的相干红外光的相位,可以使干涉光束只照亮用户面部某一小片区域,可选地,预设的面部区域包括眼睛和眼睛附近的区域,眼睛包括眼角、瞳孔和眼尾。眼角是指人体眼部的上眼皮与下眼皮结合处的夹角,眼尾是眼梢,指小眼角。
可选地,I(r)=I1+I2+2*square(I1*I2)cos(θ1-θ2),由上述公式可知,可以通过改变θ1、θ2的相位关系来改变cos(θ1-θ2)的值,其值在正负一之间变化。因此2*square(I1*I2)cos(θ1-θ2)会与前面I1、I2的和进行叠加。I(r)是两束光叠加后在r点处的光强度,I1,I2分别是两束光(第一束光和第二束光)的光强,θ1,θ2分别是两束光的相位。
根据相位的变化,光强可能被加强也可能被削弱。多光束的情况相当于存在n束光,分别为1,2,……,n,两束光叠加后的光强再叠加第三束光,以此类推,这里I(r)为Ia(r):
Ia(r)=I1+I2+2*square(I1*I2)cos(θ1-θ2);
Ib(r)=I3+Ia+2*square(I3*Ia)cos(θ3-θa);
Ic(r)=I4+Ib+2*square(I4*Ib)cos(θ4-θb);
……
Ix(r)=In+I(x-1)+2*square(In*I(x-1))cos(θn-θ(x-1))。
Ix(r)即为n束光叠加后的综合光强度。因此可以分别修改各束光的相位,以此控制综合光强度。通过调整相位关系,可以使红外探测器视场内只有一个亮斑,即视场内只有一个位置上的综合光强度远远高于其它位置的综合光强度,该亮斑就是要进行探测的亮斑。
下面举例简单介绍红外光源阵列的陈列相干红外光的扫描方式:
在红外探测器视野内建立二位直角坐标系,以左上角为原点(0,0),向右和向下为别定位x轴和y轴的正方向。通过控制相位θ,使光斑按照坐标方式来扫描面部所在的平面。可选地,从原点(0,0)开始扫描,依次遍历每一行:(0,0)到(0,m),之后遍历(1,0)到(1,m),(2,0)到(2,m),以此类推。最终把整个坐标平面遍历,完成面部扫描。m表示每行的像素数量。
智能头戴设备的产品形态包括移动端头显、外接头戴式设备和VR一体机;移动端头显是VR眼镜盒子,放入手机即可观看;外接头戴式设备也称为PC(Personal Computer,个人计算机)端头显,需要将其连接电脑才能进行观看;VR一体机具有独立CPU(CentralProcessing Unit,中央处理器)、输入和输出显示功能,完全摆脱外置设备。
实施例二
基于前述实施例一相同的发明构思,本实施例通过具体示例对上述实施例一的技术方案进行说明。
本申请实施例中,红外收发模组包括红外探测器,红外探测器为红外传感器,红外传感器接收从眼睛和眼睛附近的区域上反射回的若干相干红外光所形成的不同的反射位置的光学信号。
可选地,红外探测器在预设时间T内,红外探测器行扫描目标面部区域,每个时间间隔t接收到目标面部区域中的一个位置反射的一个光学信号,预设时间T有N个时间间隔t,因此,在预设时间T内共接收N个不同位置反射的N个光学信号。
参见图2,图2为本申请实施例中,根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值的方法的一种流程示意图。
可选地,如图2所示,S200中通过红外探测器接收从目标面部区域上反射回的阵列红外光所形成的光学信号的方法具体包括下述步骤:
S210,处理器根据目标面部区域的二维信息和光强度,确定出目标面部区域的深度信息。
具体的,目标面部区域的二维信息为二维地图,由处理器提供,可以通过摄像头或输入得到;在二维信息的X,Y值已知的条件下,结合光学信号包括的光强度,处理器经过计算,生成深度信息Z值;X,Y,Z为实数。
S220,根据目标面部区域的二维信息和目标面部区域的深度信息,确定出光学信号对应的反射位置的三维位置信息。
具体的,处理器根据光学信号对应的目标面部区域的二维信息的X,Y值和面部区域的深度信息Z值,处理器进行三维重建,得到该光学信号对应的反射位置的的三维位置信息。
S230,根据多个不同的反射位置的三维位置信息,对眼睛和眼睛附近的区域进行实时三维重建,得到眼睛和眼睛附近的区域的实时三维位置信息。
具体的,处理器得到N个不同的反射位置的三维位置信息后,根据N个不同的反射位置的三维位置信息,对眼睛和眼睛附近的区域进行实时三维重建,得到眼睛和眼睛附近的区域的实时三维位置信息;N为实数。
S240,根据眼睛和眼睛附近的区域的实时三维位置信息,确定出瞳距的实时检测值。
可选地,将实时三维位置信息与预设的眼睛和眼睛附近的区域的原始三维位置信息进行对比,确定出瞳距的实时检测值。
具体的,处理器得到眼睛和眼睛附近的区域的实时三维位置信息后,根据眼睛和眼睛附近的区域的实时三维位置信息,得到用户的右眼瞳孔中心点的实时位置和左眼瞳孔中心点的实时位置,将眼睛和眼睛附近的区域的实时三维位置信息与预设的眼睛和眼睛附近的区域的原始三维位置信息进行对比,经过计算,得到右眼瞳孔中心点的实时位置和左眼瞳孔中心点的实时位置之间的距离,将该距离作为瞳距的实时检测值。
参见图3,图3为本申请实施例中,控制透镜调节装置将透镜和瞳孔之间的像距调整到与瞳距的实时检测值相匹配的方法的一种流程示意图。
可选地,如图3所示,S300中根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值的方法具体包括下述步骤:
S310,处理器根据瞳距的实时检测值,发送调节指令至透镜调节装置。
具体的,处理器根据瞳距的实时检测值,发送调节指令控制透镜调节装置对像距进行调节,调节指令包括光学参数;像距是透镜和瞳孔之间的距离。
S320,透镜调节装置根据调节指令,将透镜和瞳孔之间的距离调整到与瞳距的实时检测值相匹配。
具体的,透镜调节装置根据调节指令中包括的光学参数,将像距调整到与瞳距的实时检测值相匹配。
需要说明的是,将与瞳距的实时检测值相匹配的像距作为标准值存储起来,当其他用户体验时,再对该标准值进行调整。
实施例三
基于相同的发明构思,本申请实施例还提供了一种智能头戴设备,智能头戴设备的结构示意图如图4和图5所示,智能头戴设备,包括红外收发模组501、透镜502、屏幕503、处理器504和透镜调节装置,红外收发模组501包括红外光源阵列5011和红外探测器5012,透镜调节装置包括驱动器、透镜固定中框5052和移动导轨5053,
红外光源阵列5011和红外探测器5012电连接至处理器504,处理器504与透镜调节装置电连接;
驱动器,与透镜固定中框5052和屏幕503分别传动连接,与处理器504电连接;
透镜固定中框5052和屏幕503都以可移动的方式连接在移动导轨5053上,透镜502固定在透镜固定中框5052上;
红外光源阵列5011,用于发射阵列红外光扫描目标面部区域;
红外探测器5012,用于接收从目标面部区域上反射回的阵列红外光所形成的光学信号;
所述处理器504,用于根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值,还用于根据瞳距的实时检测值,控制透镜调节装置中的驱动器驱动透镜固定中框5052沿移动导轨5053移动,将透镜502和瞳孔之间的像距调整到与瞳距的实时检测值相匹配。
本申请实施例中,红外光源阵列5011发射阵列红外光扫描目标面部区域;红外探测器5012接收从目标面部区域上反射回的阵列红外光所形成的光学信号;所述处理器504,用于根据接收的光学信号,确定出目标面部区域的瞳距的实时检测值,还用于根据瞳距的实时检测值,控制透镜调节装置中的驱动器驱动透镜固定中框5052沿移动导轨5053移动,将透镜502和瞳孔之间的像距调整到与瞳距的实时检测值相匹配。如此,能够获得瞳距的实时检测值,从而实现设备透镜502和用户瞳孔之间的像距调整到与瞳距的实时检测值相匹配,提高虚拟现实用户的舒适度和沉浸感。
可选地,屏幕503是LCD(Liquid Crystal Display)液晶显示器。
可选地,红外收发模组501包括红外光源阵列5011和红外探测器5012,红外光源阵列5011包括若干个红外相干子光源,如图5所示。
可选地,驱动器包括滑轮5061和电机5062,驱动器通过电机5062驱动滑轮5061,使透镜固定中框5052沿移动导轨5053移动。
可选地,处理器504,还用于根据瞳距的实时检测值,控制透镜调节装置中的驱动器驱动屏幕503沿移动导轨5053移动,将透镜502和屏幕503之间的物距调整到与瞳距的实时检测值相匹配。
需要说明的是,透镜调节装置调节透镜502和用户瞳孔之间的像距,同时透镜502和屏幕503之间的物距也跟随像距的变化而进行变化,从而使调节后的像距和物距与瞳距的实时检测值相匹配。
可选地,红外光源阵列5011,包括以阵列方式排列的若干子红外发光源,还用于发射若干相位调节后的相干红外光扫描目标面部区域,所述目标面部区域包括眼睛和眼睛附近的区域,所述眼睛包括眼角、瞳孔和眼尾。
可选地,红外探测器5012,与红外光源阵列5011相邻设置,红外探测器5012还用于接收从目标面部区域上反射回的若干相位调节后的相干红外光所形成的不同的反射位置的光学信号,反射位置为眼角位置、瞳孔位置、眼尾位置中任意一种,光学信号包括光强度。
具体的,红外收发模组501包括红外探测器5012,红外探测器5012为红外传感器,红外传感器接收从眼睛和眼睛附近的区域上反射回的若干相干红外光所形成的不同的反射位置的光学信号。
可选地,红外探测器5012在预设时间T内,红外探测器5012,用于行扫描目标面部区域,每个时间间隔t接收到目标面部区域中的一个位置反射的一个光学信号,预设时间T有N个时间间隔t,因此,在预设时间T内共接收N个不同位置反射的N个光学信号。
需要说明的是,红外光源阵列5011的多个子光源发射的相干红外光,扫描目标面部区域,由于多个相干红外光的干涉,形成亮点,该亮点的光学信号包括多个相干红外光叠加的光强度。可选地,处理器504,用于根据目标面部区域的二维信息和光强度,确定出目标面部区域的深度信息。
可选地,处理器504,用于根据目标面部区域的二维信息和目标面部区域的深度信息,确定出光学信号对应的反射位置的三维位置信息。
可选地,处理器504,用于根据多个不同的反射位置的三维位置信息,对眼睛和眼睛附近的区域进行实时三维重建,得到眼睛和眼睛附近的区域的实时三维位置信息。
可选地,处理器504,用于根据眼睛和眼睛附近的区域的实时三维位置信息,确定出瞳距的实时检测值。具体的,处理器504,用于得到眼睛和眼睛附近的区域的实时三维位置信息后,经过计算,确定用户从右眼瞳孔中心点到左眼瞳孔中点之间的距离,即瞳距的实时检测值。
可选地,处理器504,用于将实时三维位置信息与预设的眼睛和眼睛附近的区域的原始三维位置信息进行对比,确定出瞳距的实时检测值。
可选地,处理器504,用于根据瞳距的实时检测值,发送调节指令至透镜调节装置。
具体的,处理器504,用于根据瞳距的实时检测值,发送调节指令控制透镜调节装置对像距进行调节,调节指令包括光学参数;像距是透镜和瞳孔之间的距离。
可选地,透镜调节装置,用于根据调节指令,将透镜502和瞳孔之间的距离调整到与瞳距的实时检测值相匹配。
具体的,透镜调节装置根据调节指令中包括的光学参数,将像距调整到与瞳距的实时检测值相匹配。
可选地,智能头戴设备是VR一体机60,VR一体机60包括红外收发模组501,如图6所示。
基于相同的发明构思,本申请实施例还提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序用于被处理器执行时实现本申请实施例一至二中任意一个实施例或任意一种针对智能头戴设备的像距调整方法的步骤。
本申请实施例提供的计算机可读存储介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-Only Memory,只读存储器)、RAM(RandomAccess Memory,随即存储器)、EPROM(Erasable Programmable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically Erasable Programmable Read-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,可读存储介质包括由设备(例如,计算机)以能够读的形式存储或传输信息的任何介质。
应用本申请实施例,至少具有如下有益效果:
1)获得瞳距的实时检测值,从而实现设备透镜和用户瞳孔之间的像距调整到与瞳距的实时检测值相匹配,提高虚拟现实用户的舒适度和沉浸感。
2)在不使用摄像机的高分辨率传感器的前提下,实现面部区域的所有子区域光强度的探测,测量到面部区域的所有子区域的深度信息,获得面部区域的深度信息,实现面部区域的三维重建。
本技术领域技术人员可以理解,可以用计算机程序指令来实现这些结构图和/或框图和/或流图中的每个框以及这些结构图和/或框图和/或流图中的框的组合。本技术领域技术人员可以理解,可以将这些计算机程序指令提供给通用计算机、专业计算机或其他可编程数据处理方法的处理器来实现,从而通过计算机或其他可编程数据处理方法的处理器来执行本申请公开的结构图和/或框图和/或流图的框或多个框中指定的方案。
本技术领域技术人员可以理解,本申请中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本申请中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本申请中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种针对智能头戴设备的调整方法,其特征在于,所述智能头戴设备包括红外收发模组、透镜和透镜调节装置,所述红外收发模组包括红外光源阵列和红外探测器,所述方法包括:
控制所述红外光源阵列发射阵列红外光扫描目标面部区域;
通过所述红外探测器接收从所述目标面部区域上反射回的阵列红外光所形成的光学信号;
根据接收的所述光学信号,确定出所述目标面部区域的瞳距的实时检测值,包括:根据所述目标面部区域的二维信息和光强度,确定出所述目标面部区域的深度信息;根据所述目标面部区域的二维信息和所述目标面部区域的深度信息,确定出所述光学信号对应的反射位置的三维位置信息;根据多个不同的反射位置的三维位置信息,对眼睛和所述眼睛附近的区域进行实时三维重建,得到所述眼睛和所述眼睛附近的区域的实时三维位置信息;根据所述眼睛和所述眼睛附近的区域的实时三维位置信息,确定出瞳距的实时检测值;
控制所述透镜调节装置将所述透镜和瞳孔之间的像距调整到与所述瞳距的实时检测值相匹配。
2.根据权利要求1所述的方法,其特征在于,所述智能头戴设备还包括屏幕,所述方法还包括:
控制所述透镜调节装置将所述透镜和所述屏幕之间的物距调整到与所述瞳距的实时检测值相匹配。
3.根据权利要求1或2所述的方法,其特征在于,所述控制红外光源阵列发射阵列红外光扫描目标面部区域,包括:
对所述红外光源阵列中若干相干红外光的相位进行分别调节;
控制所述红外光源阵列发射若干相位调节后的相干红外光扫描目标面部区域,所述目标面部区域包括眼睛和眼睛附近的区域,所述眼睛包括眼角、瞳孔和眼尾。
4.根据权利要求3所述的方法,其特征在于,所述通过红外探测器接收从所述目标面部区域上反射回的阵列红外光所形成的光学信号,包括:
所述红外探测器接收从所述目标面部区域上反射回的若干相位调节后的相干红外光所形成的不同的反射位置的光学信号,所述反射位置为眼角位置、瞳孔位置、眼尾位置中任意一种,所述光学信号包括光强度。
5.根据权利要求1所述的方法,其特征在于,根据所述眼睛和所述眼睛附近的区域的实时三维位置信息,确定出瞳距的实时检测值,包括:
将所述实时三维位置信息与预设的所述眼睛和所述眼睛附近的区域的原始三维位置信息进行对比,确定出瞳距的实时检测值。
6.一种智能头戴设备,其特征在于,包括:红外收发模组、透镜、屏幕、处理器和透镜调节装置,所述红外收发模组包括红外光源阵列和红外探测器,所述透镜调节装置包括驱动器、透镜固定中框和移动导轨,
所述红外光源阵列和所述红外探测器电连接至所述处理器,所述处理器与所述透镜调节装置电连接;
所述驱动器,与所述透镜固定中框和所述屏幕分别传动连接,与所述处理器电连接;
所述透镜固定中框和所述屏幕都以可移动的方式连接在所述移动导轨上,所述透镜固定在所述透镜固定中框上;
所述红外光源阵列,用于发射阵列红外光扫描目标面部区域;
所述红外探测器,用于接收从所述目标面部区域上反射回的阵列红外光所形成的光学信号;
所述处理器,用于根据接收的所述光学信号,确定出所述目标面部区域的瞳距的实时检测值,包括:根据所述目标面部区域的二维信息和光强度,确定出所述目标面部区域的深度信息;根据所述目标面部区域的二维信息和所述目标面部区域的深度信息,确定出所述光学信号对应的反射位置的三维位置信息;根据多个不同的反射位置的三维位置信息,对眼睛和所述眼睛附近的区域进行实时三维重建,得到所述眼睛和所述眼睛附近的区域的实时三维位置信息;根据所述眼睛和所述眼睛附近的区域的实时三维位置信息,确定出瞳距的实时检测值;所述处理器还用于根据所述瞳距的实时检测值,控制所述透镜调节装置中的驱动器驱动所述透镜固定中框沿所述移动导轨移动,将所述透镜和瞳孔之间的像距调整到与所述瞳距的实时检测值相匹配。
7.根据权利要求6所述的设备,其特征在于,所述处理器,还用于根据所述瞳距的实时检测值,控制所述透镜调节装置中的驱动器驱动所述屏幕沿所述移动导轨移动,将所述透镜和所述屏幕之间的物距调整到与所述瞳距的实时检测值相匹配。
8.根据权利要求6所述的设备,其特征在于,所述红外光源阵列,包括以阵列方式排列的若干子红外发光源,还用于发射若干相位调节后的相干红外光扫描目标面部区域,所述目标面部区域包括眼睛和眼睛附近的区域,所述眼睛包括眼角、瞳孔和眼尾。
9.根据权利要求8所述的设备,其特征在于,所述红外探测器,与所述红外光源阵列相邻设置,还用于接收从所述目标面部区域上反射回的若干相位调节后的相干红外光所形成的不同的反射位置的光学信号,所述反射位置为眼角位置、瞳孔位置、眼尾位置中任意一种,所述光学信号包括光强度。
10.一种计算机可读存储介质,其特征在于,存储计算机程序,所述计算机程序被用于执行权利要求1-5中任一项所述的方法。
CN201910082379.8A 2019-01-28 2019-01-28 针对智能头戴设备的调整方法、设备及存储介质 Active CN109613706B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910082379.8A CN109613706B (zh) 2019-01-28 2019-01-28 针对智能头戴设备的调整方法、设备及存储介质
US16/751,226 US11243608B2 (en) 2019-01-28 2020-01-24 Control method for head-mounted visual apparatus, head-mounted visual apparatus and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910082379.8A CN109613706B (zh) 2019-01-28 2019-01-28 针对智能头戴设备的调整方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN109613706A CN109613706A (zh) 2019-04-12
CN109613706B true CN109613706B (zh) 2021-05-07

Family

ID=66020966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910082379.8A Active CN109613706B (zh) 2019-01-28 2019-01-28 针对智能头戴设备的调整方法、设备及存储介质

Country Status (2)

Country Link
US (1) US11243608B2 (zh)
CN (1) CN109613706B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866672B (zh) * 2020-12-30 2022-08-26 深圳卡乐星球数字娱乐有限公司 一种用于沉浸式文化娱乐的增强现实系统及方法
DE102022202622A1 (de) 2022-03-17 2023-09-21 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zu einer Bestimmung eines Augenabstands in einer Datenbrille und Datenbrille
CN115665398B (zh) * 2022-11-15 2023-03-21 龙旗电子(惠州)有限公司 基于虚拟现实技术的图像调整方法、装置、设备及介质
CN116068567B (zh) * 2023-04-07 2023-06-13 天津宜科自动化股份有限公司 一种基于激光三角测距传感器的测距系统
CN116636808B (zh) * 2023-06-28 2023-10-31 交通运输部公路科学研究所 一种智能座舱驾驶员视觉健康度分析方法与装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3873892B2 (ja) * 2003-01-22 2007-01-31 コニカミノルタホールディングス株式会社 映像表示装置
CN105445188A (zh) * 2015-11-18 2016-03-30 中北大学 一种基于弹光调制的高速光学层析扫描装置及方法
KR102658303B1 (ko) * 2016-02-18 2024-04-18 애플 인크. 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
US10679052B2 (en) * 2017-03-13 2020-06-09 Htc Corporation Head mounted display device, object tracking apparatus and method for tracking object thereof
CN206906702U (zh) * 2017-05-15 2018-01-19 潍坊歌尔电子有限公司 一种头戴显示器
JP7388349B2 (ja) * 2018-03-29 2023-11-29 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN108616703A (zh) * 2018-04-23 2018-10-02 Oppo广东移动通信有限公司 电子装置及其控制方法、计算机设备和可读存储介质
US10607353B2 (en) * 2018-08-30 2020-03-31 Facebook Technologies, Llc Structured light depth sensing
US11022835B2 (en) * 2018-12-15 2021-06-01 Facebook Technologies, Llc Optical system using segmented phase profile liquid crystal lenses

Also Published As

Publication number Publication date
US20200241636A1 (en) 2020-07-30
CN109613706A (zh) 2019-04-12
US11243608B2 (en) 2022-02-08

Similar Documents

Publication Publication Date Title
CN109613706B (zh) 针对智能头戴设备的调整方法、设备及存储介质
US11662585B2 (en) Virtual/augmented reality system having reverse angle diffraction grating
US20240151975A1 (en) Microlens collimator for scanning optical fiber in virtual/augmented reality system
US11815655B2 (en) Augmented reality device for adjusting focus region according to direction of user's view and operating method of the same
JP7482163B2 (ja) 拡張現実ディスプレイシステム
US10192361B2 (en) Head-mounted display device and computer program
EP3109825B1 (en) Marker, method of detecting position and pose of marker, and computer program
CA2905506C (en) Display system and method
US8514148B2 (en) Head mount display
US10424117B2 (en) Controlling a display of a head-mounted display device
US6545650B1 (en) Apparatus for three-dimensionally displaying object and method of doing the same
US11188149B2 (en) Image display device using retinal scanning display unit and method thereof
US9648309B2 (en) Controllable lenticular lenslets
US20160210780A1 (en) Applying real world scale to virtual content
EP3321885A1 (en) Computer program and head-mounted display device
CN104094197A (zh) 利用投影仪的注视追踪
KR20140059213A (ko) 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이
US11063407B1 (en) Addressable vertical cavity surface emitting laser array for generating structured light patterns
CN108628087B (zh) 一种投影装置及空间成像方法
US20180373024A1 (en) Image projection device
KR20140067575A (ko) 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치
JP2018090170A (ja) ヘッドアップディスプレイシステム
KR20220170336A (ko) 가변 초점 렌즈를 포함하는 증강 현실 디바이스 및 그 동작 방법
JP2006123102A (ja) 眼球制御装置、眼球制御方法および眼球制御プログラム
JP4460384B2 (ja) レーザプロジェクタ

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant