CN109856802B - 瞳距调节方法、装置和虚拟显示设备 - Google Patents
瞳距调节方法、装置和虚拟显示设备 Download PDFInfo
- Publication number
- CN109856802B CN109856802B CN201910309272.2A CN201910309272A CN109856802B CN 109856802 B CN109856802 B CN 109856802B CN 201910309272 A CN201910309272 A CN 201910309272A CN 109856802 B CN109856802 B CN 109856802B
- Authority
- CN
- China
- Prior art keywords
- groups
- positions
- lens
- human eyes
- adjustment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明涉及一种瞳距调节方法、装置和虚拟显示设备。所述瞳距调节方法,包括:在接收到瞳距调节的控制指令后,根据采集的人眼图像确定用户的两只人眼各自的参考位置;根据参考位置、采集的两组透镜组各自的焦点位置以及两个屏幕各自的可见区域的位置,获取两只人眼各自的目标位置;根据两只人眼各自的目标位置与两组透镜组各自的焦点位置,获取两组透镜组各自的焦点位置的调节量;根据两组透镜组各自的焦点位置的调节量调节两组透镜组各自的焦点位置,以使调节后的两组透镜组各自的焦点位置分别与两只人眼各自的目标位置对齐。根据本发明实施例,可以避免手动反复调节,提高瞳距调节的效率,获得更加精确的人眼位置,提高瞳距调节的精确度。
Description
技术领域
本发明涉及显示技术领域,尤其涉及一种瞳距调节方法、装置和虚拟显示设备。
背景技术
VR(Virtual Reality,虚拟现实)设备的属性决定了其对画面显示的高要求,为使用户在体验过程中能够更加沉浸在虚拟世界中,使得VR设备对画面的要求就显得尤为突出。在使用过程中,如果用户双眼之间的瞳距和VR设备本身的瞳距(两组透镜中心之间的距离)不一致,往往会导致用户观看的图像不够清晰,体验效果差的同时也会导致用户眩晕。
相关技术中,VR设备的瞳距调节都是通过手动机械调节,往往需要多次反复调节,繁琐的系统给结构给瞳距调节造成巨大的负担,同时调节的数据也不准确。
发明内容
本发明提供一种瞳距调节方法、装置和虚拟显示设备,以解决相关技术中的不足。
根据本发明实施例的第一方面,提供一种瞳距调节方法,应用于虚拟现实设备;虚拟现实设备包括两组透镜组以及两个屏幕,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对;所述瞳距调节方法,包括:
在接收到瞳距调节的控制指令后,根据采集的人眼图像确定用户的两只人眼各自的参考位置;
根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置;
根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量;
根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。
在一个实施例中,根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置之前,还包括:
当检测到所述两组透镜组中任意一个的焦点位置改变时,更新焦点位置改变的透镜组的焦点位置。
在一个实施例中,所述根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,包括:
针对每一组透镜组,获取第一竖直分量与第二竖直分量之间的偏差;第一竖直分量为对应的所述人眼的目标位置的竖直分量;第二竖直分量为所述透镜组的焦点位置的竖直分量;
获取所述透镜组的焦点位置的调节量的第三竖直分量;
根据第三竖直分量,并将所述偏差作为抗扰量,对所述第二竖直分量进行抗扰动调节。
在一个实施例中,所述根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置,包括:
针对每一只人眼,获取所述参考位置在第一水平方向上的第一水平分量;所述第一水平方向为一个屏幕的中点指向另一个屏幕的中点的方向;
获取对应的所述透镜组的焦点位置在第一水平方向上的第二水平分量以及对应的所述屏幕的可见区域的位置在水平方向上的第三水平分量;
将所述第一水平分量作为初始条件,并根据第二水平分量以及所述第三水平分量,进行自适应动态规划,获得所述目标位置的水平分量。
在一个实施例中,所述根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量,包括:
针对每一组透镜组,根据所述人眼图像确定对应人眼的近视度数;
根据所述近视度数确定透镜组的焦点与所述人眼在第二水平方向上的目标距离;第二水平方向为所述两个屏幕之间的中点指向所述两组透镜组之间中点的方向;
根据所述透镜组的焦点位置与对应的人眼的目标位置确定透镜组的焦点与所述人眼在第二水平方向上的当前距离;
根据所述当前距离与所述目标距离确定所述调节量在所述第二水平方向上的第五水平分量。
在一个实施例中,所述两只人眼各自的参考位置为在预设的空间三维坐标系中所述两只人眼各自的参考坐标;空间三维坐标系的原点为两个屏幕之间的中点,X轴的正向为由所述两个屏幕之间的中点指向所述两组透镜组之间中点的方向,Y轴的正向为一个屏幕的中心指向另一个屏幕的中心的方向;
所述两组透镜组各自的焦点位置为在所述空间三维坐标系中所述两组透镜组各自的焦点坐标,所述两个屏幕各自的可见区域的位置为在所述空间三维坐标系中所述两个屏幕各自的可见区域的坐标;所述两只人眼各自的目标位置为在所述空间三维坐标系中所述两只人眼各自的目标坐标。
在一个实施例中,所述根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置之前,还包括:
根据所述人眼图像确定用户的身份标识;
所述根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置之后,还包括:
将所述身份标识与调节后的所述两组透镜组各自的焦点位置关联保存。
在一个实施例中,所述控制指令为调节开关的开启信号。
根据本发明实施例的第二方面,提供一种瞳距调节装置,应用于虚拟现实设备;虚拟现实设备包括两组透镜组以及两个屏幕,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对;所述瞳距调节装置,包括:
确定模块,用于在接收到瞳距调节的控制指令后,根据采集的人眼图像确定用户的两只人眼各自的参考位置;
第一获取模块,用于根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置;
第二获取模块,用于根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量;
调节模块,用于根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。
根据本发明实施例的第三方面,提供一种虚拟显示设备,包括:两组透镜组、两个屏幕以及上述的瞳距调节装置,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对。
根据上述实施例可知,通过根据采集的人眼图像确定用户的两只人眼各自的参考位置,并根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置,这样可以得到更加精确的人眼位置。然后,根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量,并根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。这样,不但可以避免手动反复调节,提高瞳距调节的效率,还可以得到更加精确的人眼位置,进而提高瞳距调节的精确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据本发明实施例示出的一种瞳距调节方法的流程图;
图2是根据本发明实施例示出的一种虚拟现实设备的结构示意图;
图3是根据本发明实施例示出的一种虚拟现实设备的结构框图;
图4是根据本发明实施例示出的另一种瞳距调节方法的流程图;
图5是根据本发明实施例示出的另一种瞳距调节方法的流程图;
图6是根据本发明实施例示出的另一种瞳距调节方法的流程图;
图7是根据本发明实施例示出的一种瞳距调节装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据本发明实施例示出的一种瞳距调节方法。该瞳距调节方法可应用于如图2所示的虚拟现实设备。如图2所示,该虚拟现实设备可包括两组透镜组21、22以及两个屏幕23、24,一个屏幕23的位置与一组透镜组21的位置相对,另一个屏幕24的位置与另一组透镜组22的位置相对。在介绍本发明实施例中的瞳距调节方法之前,先介绍以下本发明实施例中的虚拟现实设备:
如图2所示,虚拟现实设备还包括电机25、电机26、电机27以及电机28。其中,电机25用于驱动透镜组21沿空间三维坐标系的Y轴运动,电机27用于驱动透镜组22沿空间三维坐标系的Y轴运动,电机26用于驱动透镜组21沿空间三维坐标系的Z轴运动,电机28用于驱动透镜组22沿空间三维坐标系的Z轴运动。其中,上述的空间三维坐标系的原点可为两个屏幕23、24之间的中点,X轴的正向可为由所述两个屏幕23、24之间的中点指向所述两组透镜组21、22之间中点的方向,Y轴的正向为屏幕23的中心指向屏幕24的中心的方向。需要说明的是,上述的空间三维坐标系只是一个示例,在实际应用时,X、Y、Z轴的方向可不限于此。
当用户戴上虚拟现实设备后,人眼E1与透镜组21位置相对,人眼E2与透镜组22位置相对。虚拟现实设备上可设有调节开关。当调节开关被打开时,可发送开启信号,以启动瞳距调节功能。
如图3所示,虚拟现实设备还包括摄像头模组31、瞳距传感器32、处理器33、电机控制器34以及电机驱动器35。其中,摄像头模组31、瞳距传感器32分别与处理器33通信连接,处理器33还与电机控制器34连接,电机控制器34与电机驱动器35连接,电机驱动器35与电机25、电机26、电机27以及电机28连接。摄像头模组31可通过USB(Universal Serial Bus,通用串行总线)或I2C(双向二线制同步串行总线)连接,但不限于此。瞳距传感器32可通过I2C或SPI(Serial Peripheral Interface,串行外设接口)连接,但不限于此。电机控制器34可以是简单的微处理器或者2000系列的DSP(数字信号处理器),电机驱动器35可以是简单的逆变电路,功耗较小。
如图3所示,摄像头模组31可包括摄像头311、MCU(微处理器)312以及存储器313。摄像头311可用于拍摄人眼图像,例如,人眼图像可包括左眼图像与右眼图像,但不限于此。左眼图像例如可以是对人眼E1拍摄的图像,右眼图像例如可以是对人眼E2拍摄的图像。MCU可以对拍摄的人眼图像进行处理,得到用户的两只人眼各自的参考位置,并存储在存储器313中。例如,MCU可以对左眼图像进行处理,得到多个离散的坐标点,这多个离散的坐标点即可作为人眼E1的参考位置。其中,摄像头311可以是红外摄像头,这样,在黑夜的环境下也能够准确的检测到人眼的位置信息,功耗低,但不限于此。瞳距传感器32可检测透镜组21、22各自的焦点位置。
如图3所示,处理器33可以是计算机(PC)的处理器,也可以是应用处理器(AP)。处理器33可包括中央处理单元331与Flash(闪存)332。中央处理单元331可根据上述的两只人眼各自的参考位置、所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置进行数据处理,获取所述两只人眼E1、E2各自的目标位置,并存储在Flash中。中央处理单元331还可以根据所述两只人眼E1、E2各自的目标位置与所述两组透镜组21、22各自的焦点位置进行数据处理,获取所述两组透镜组21、22各自的焦点位置的调节量。但不限于此,例如,也可以是电机控制器34根据上述的两只人眼各自的参考位置、所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置进行数据处理,获取所述两只人眼E1、E2各自的目标位置。
电机控制器34可根据中央处理单元331计算得到的两组透镜组21、22各自的焦点位置的调节量进行优化处理,并将处理后的数据发送给电机驱动器35,以供电机驱动器35根据接收的数据控制电机25~28,调节所述两组透镜组21、22各自的焦点位置,以使调节后的所述两组透镜组21、22各自的焦点位置分别与所述两只人眼E1、E2各自的目标位置对齐,使人眼能够处于最舒适的位置。
以上对虚拟现实设备进行了简要的介绍,下面对本发明实施例中的瞳距调节方法进行详细介绍。
如图1所示,本发明实施例中的瞳距调节方法,可包括以下步骤101~104:
在步骤101中,在接收到瞳距调节的控制指令后,根据采集的人眼图像确定用户的两只人眼各自的参考位置。
在一个实施例中,当处理器33接收到瞳距调节的控制指令后可以控制摄像头模组31与瞳距传感器32工作。在一个实施例中,虚拟现实设备上可设有调节开关。当处理器33接收到调节开关发送的开启信号后,可视为接收到了瞳距调节的控制指令。其中,调节开关可以是机械开关,也可以是虚拟开关。瞳距调节的控制指令还可以是语音指令。只要可以触发虚拟现实设备进行瞳距调节的指令均可视为瞳距调节的控制指令。
需要说明的是,透镜组21、与透镜组22的焦点位置的调节方法类似,为避免赘述,下面仅以调节透镜组21的焦点位置为例进行详细说明。
在一个实施例中,摄像头311将采集的左眼图像发送给MCU进行图像处理,得到人眼E1的参考位置,并存储在存储器313中。具体地,所述两只人眼各自的参考位置可以为在上述空间三维坐标系中所述两只人眼各自的参考坐标。
MCU对左眼图像进行处理得到人眼E1的离散位置,具体可以是在上述的坐标系中的离散的坐标点。
在步骤102中,根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置。
在一个实施例中,瞳距传感器32可以采集透镜组21、22的焦点位置,具体可以是在上述的坐标系中的透镜组21、22的焦点坐标。两个屏幕23、24各自的可见区域的位置可以是在上述的坐标系中的两个屏幕各自的可见区域的坐标。所述两只人眼E1、E2各自的目标位置为在所述坐标系中所述两只人眼各自的目标坐标。利用坐标点表示位置并进行计算,可以使计算结果更准确,进而可以提高调节效率。
在一个实施例中,瞳距传感器32可以检测两组透镜组21、22中任意一个的焦点位置是否改变,当检测到两组透镜组21、22中任意一个的焦点位置改变时,更新焦点位置改变的透镜组的焦点位置。例如,当检测到透镜组21的焦点位置改变时,更新透镜组21的焦点位置。这样,可以避免瞳距调节过调节或欠调节,提高调节效率。
在一个实施例中,中央处理单元331可以根据人眼E1的参考位置、透镜组21的焦点位置、以及屏幕23的可见区域的位置进行数据处理,得到人眼E1的目标位置。具体地,中央处理单元331可以根据人眼E1的参考位置、透镜组21的焦点位置、以及屏幕23的可见区域的位置三者的坐标方程,并可以应用自适应动态规划调节器进行计算,得到一组最优解,以确定人眼E1的目标位置。其中,人眼E1的目标位置可以不是根据左眼图像得到的离散的位置的中心位置,当然,也可以是根据左眼图像得到的离散的位置的中心位置。这样,计算得到的人眼的位置更精确。
在步骤103中,根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量。
在一个实施例中,中央处理单元331可以根据人眼E1的目标位置与透镜组21的焦点位置计算得到透镜组21的焦点位置的调节量。中央处理单元331可以根据人眼E2的目标位置与透镜组22的焦点位置计算得到透镜组22的焦点位置的调节量。例如,当透镜组21的焦点位置为(x1,y1,z1)、透镜组22的焦点位置为(x2,y2,z2)、人眼E1的目标位置为(x3,y3,z3)以及人眼E2的目标位置为(x4,y4,z4)时,中央处理单元331可以根据(x1,y1,z1)与(x3,y3,z3)确定透镜组21的焦点位置的调节量,可以根据(x2,y2,z2)与(x4,y4,z4)确定透镜组22的焦点位置的调节量。
在步骤104中,根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。
在一个实施例中,电机控制器可以根据透镜组21的焦点位置的调节量调节透镜组21的焦点位置,以使调节后的所述透镜组21的焦点位置与人E1的目标位置对齐,电机控制器可以根据透镜组22的焦点位置的调节量调节透镜组22的焦点位置,以使调节后的所述透镜组22的焦点位置与人E2的目标位置对齐。具体地,例如,中央处理单元331可以根据(x1,y1,z1)与(x3,y3,z3)确定透镜组21的焦点位置在Y轴方向上的调节量,例如,为(y3-y1),电机控制器34可以根据(y3-y1)并通过电机驱动器35驱动电机25移动,使透镜组21的焦点位置在Y轴上的分量为y3。在Z轴方向的调节与在Y轴方向上的调节类似,这样,可以使调节后的所述透镜组21的焦点位置与人E1的目标位置对齐。
本实施例中,通过根据采集的人眼图像确定用户的两只人眼各自的参考位置,并根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置,这样可以得到更加精确的人眼位置。然后,根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量,并根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。这样,不但可以避免手动反复调节,提高瞳距调节的效率,还可以得到更加精确的人眼位置,进而提高瞳距调节的精确度。
而且,在本实施例中,两组透镜组各自的焦点位置的调节可以相互独立,减小了瞳距调节的难度,有利于提高调节效率。
如图4所示,本发明实施例还提供一种瞳距调节方法。本实施例中,在如图1~3所示实施例的基础上,针对每一组透镜组,步骤104可以包括以下步骤401~403:
在步骤401中,获取所述第一竖直分量与所述第二竖直分量之间的偏差;第一竖直分量为对应的所述人眼的目标位置的竖直分量;第二竖直分量为所述透镜组的焦点位置的竖直分量。
在本实施例中,以透镜组21的焦点位置调节为例进行说明。其中,透镜组21对应人眼E1。
在本实施例中,电机控制器34可以获取透镜组21的焦点位置(x1,y1,z1)的竖直分量z1,得到第二竖直分量,并获取预存的第一竖直分量与所述第二竖直分量之间的偏差,其中该偏差为上下佩戴的偏差。其中,第一竖直分量为人眼E1目标位置(x3,y3,z3)的竖直分量z3。
在步骤402中,获取所述透镜组的焦点位置的调节量的第三竖直分量。
在本实施例中,电机控制器34可以获取透镜组21的焦点位置的调节量的第三竖直分量(z3-z1)。
在步骤403中,根据第三竖直分量,并将所述偏差作为抗扰量,对所述第二竖直分量进行抗扰动调节。
在本实施例中,电机控制器34可以根据上述的第三竖直分量(z3-z1),并将所述偏差作为抗扰量,对所述第二竖直分量z1进行抗扰动调节。在一个实施例中,可以采用自抗扰的方法(ADRC)进行抗扰动调节,但不限于此。这样,能够有效地解决虚拟现实设备在设计上和装配上竖直方向上的误差,减少佩戴上的不舒适感以及眩晕情况。
如图5所示,本发明实施例还提供一种瞳距调节方法。本实施例中,在如图1~3所示实施例的基础上,针对每一只人眼,步骤102可以包括以下步骤501~503:
在步骤501中,获取所述参考位置在第一水平方向上的第一水平分量;所述第一水平方向为一个屏幕的中点指向另一个屏幕的中点的方向。
在本实施例中,以人眼E1为例进行说明,其中,人眼E1对应透镜组21、屏幕23,第一水平方向可以为上述的坐标系中Y轴的方向。
在本实施例中,可以由中央处理单元331获取人眼E1的参考位置在第一水平方向上的第一水平分量。当然,不限于此,也可以由其他具备处理能力的器件,例如,电机控制器34获取上述的第一水平分量。
在步骤502中,获取对应的所述透镜组的焦点位置在第一水平方向上的第二水平分量以及对应的所述屏幕的可见区域的位置在水平方向上的第三水平分量。
在本实施例中,中央处理单元331可以获取透镜组21的焦点位置(x1,y1,z1)在第一水平方向上的第二水平分量y1以及屏幕23的可见区域的位置在水平方向上的第三水平分量。
在步骤503中,将所述第一水平分量作为初始条件,并根据第二水平分量以及所述第三水平分量,进行自适应动态规划,获得所述目标位置的水平分量。
在本实施例中,中央处理单元331可以将所述第一水平分量作为初始条件,并根据第二水平分量y1以及所述第三水平分量,进行自适应动态规划,获得所述目标位置(x3,y3,z3)的水平分量y3。在进行自适应动态规划时,可以通过最优化原理和嵌入原理来进行多段决策,但不限于此。这样,得到的人眼的位置更精确,进而可以使瞳距调节更精确,能够最大限度的减少眼睛的疲劳,能够保护眼睛健康以及减小眩晕感的,增强用户的体验效果,而且,速度快。
如图6所示,本发明实施例还提供一种瞳距调节方法。本实施例中,在如图1~3所示实施例的基础上,针对每一组透镜组,步骤103可以包括以下步骤601~604:
在步骤601中,根据所述人眼图像确定对应人眼的近视度数。
在本实施例中,以透镜组21的焦点位置调节为例进行说明。其中,透镜组21对应人眼E1。
在本实施例中,MCU可以对采集的左眼图像进行图像处理,确定人眼E1的近视度数。
在步骤602中,根据所述近视度数确定透镜组的焦点与所述人眼在第二水平方向上的目标距离;第二水平方向为所述两个屏幕之间的中点指向所述两组透镜组之间中点的方向。
在本实施例中,第二水平方向为上述的坐标系中的X轴方向。中央处理单元331可以根据人眼E1的近视度数确定透镜组21的焦点与所述人眼E1在第二水平方向上的目标距离。其中,当透镜组21的焦点与所述人眼E1在第二水平方向上的距离是目标距离时,人眼E1看到的屏幕23上的图像是清晰的。
在步骤603中,根据所述透镜组的焦点位置与对应的人眼的目标位置确定透镜组的焦点与所述人眼在第二水平方向上的当前距离。
在本实施例中,中央处理单元331可以根据透镜组21的焦点位置(x1,y1,z1)与人眼E1的目标位置(x3,y3,z3)确定透镜组21的焦点与所述人眼E1在第二水平方向上的当前距离(x3-x1)。
在步骤604中,根据所述当前距离与所述目标距离确定所述调节量在所述第二水平方向上的第五水平分量。
在本实施例中,中央处理单元331可以根据上述当前距离(x3-x1)与所述目标距离确定所述调节量在所述第二水平方向上的第五水平分量。例如,当所述目标距离为F时,调节量在所述第二水平方向上的第五水平分量可为F-(x3-x1),但不限于此。这样,可以矫正近视。
本发明实施例还提供一种瞳距调节方法。本实施例中,在如图1~3所示实施例的基础上,在步骤104之前,中央处理单元331还可以根据上述的人眼图像确定用户的身份标识。在在步骤104之后,中央处理单元331还可以将用户的身份标识与调节后的所述两组透镜组各自的焦点位置关联保存。这样,当用户再次戴上虚拟现实设备时,虚拟现实设备可以根据采集的人眼图像以及预存的人眼图像与身份标识之间的对应关系确定用户的身份标识,并根据用户的身份标识以及身份标识与两组透镜组各自的焦点位置的对应关系确定两组透镜组各自的焦点位置,这样,可以提高瞳距调节的效率。
本发明的实施例还提出了一种瞳距调节装置。该瞳距调节装置可应用于虚拟现实设备;该虚拟现实设备包括两组透镜组以及两个屏幕,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对;所述瞳距调节装置,如图7所示,包括:
确定模块71,用于在接收到瞳距调节的控制指令后,根据采集的人眼图像确定用户的两只人眼各自的参考位置;
第一获取模块72,用于根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置;
第二获取模块73,用于根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量;
调节模块74,用于根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。
本实施例中的瞳距调节装置,不但可以避免手动反复调节,提高瞳距调节的效率,还可以得到更加精确的人眼位置,进而提高瞳距调节的精确度。
本发明的实施例还提出了一种虚拟显示设备,包括:两组透镜组、两个屏幕以及上述任一实施例所述的瞳距调节装置,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对。
本实施例中的虚拟显示设备,不但可以避免手动反复调节,提高瞳距调节的效率,还可以得到更加精确的人眼位置,进而提高瞳距调节的精确度。
需要指出的是,在附图中,为了图示的清晰可能夸大了层和区域的尺寸。而且可以理解,当元件或层被称为在另一元件或层“上”时,它可以直接在其他元件上,或者可以存在中间的层。另外,可以理解,当元件或层被称为在另一元件或层“下”时,它可以直接在其他元件下,或者可以存在一个以上的中间的层或元件。另外,还可以理解,当层或元件被称为在两层或两个元件“之间”时,它可以为两层或两个元件之间唯一的层,或还可以存在一个以上的中间层或元件。通篇相似的参考标记指示相似的元件。
在本发明中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (10)
1.一种瞳距调节方法,其特征在于,应用于虚拟现实设备;虚拟现实设备包括两组透镜组以及两个屏幕,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对;所述瞳距调节方法,包括:
在接收到瞳距调节的控制指令后,根据采集的人眼图像确定用户的两只人眼各自的参考位置;
根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置;
根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量;
根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。
2.根据权利要求1所述的瞳距调节方法,其特征在于,根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置之前,还包括:
当检测到所述两组透镜组中任意一个的焦点位置改变时,更新焦点位置改变的透镜组的焦点位置。
3.根据权利要求1所述的瞳距调节方法,其特征在于,所述根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,包括:
针对每一组透镜组,获取第一竖直分量与第二竖直分量之间的偏差;第一竖直分量为对应的所述人眼的目标位置的竖直分量;第二竖直分量为所述透镜组的焦点位置的竖直分量;
获取所述透镜组的焦点位置的调节量的第三竖直分量;
根据第三竖直分量,并将所述偏差作为抗扰量,对所述第二竖直分量进行抗扰动调节。
4.根据权利要求1所述的瞳距调节方法,其特征在于,所述根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置,包括:
针对每一只人眼,获取所述参考位置在第一水平方向上的第一水平分量;所述第一水平方向为一个屏幕的中点指向另一个屏幕的中点的方向;
获取对应的所述透镜组的焦点位置在第一水平方向上的第二水平分量以及对应的所述屏幕的可见区域的位置在水平方向上的第三水平分量;
将所述第一水平分量作为初始条件,并根据第二水平分量以及所述第三水平分量,进行自适应动态规划,获得所述目标位置的水平分量。
5.根据权利要求1所述的瞳距调节方法,其特征在于,所述根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量,包括:
针对每一组透镜组,根据所述人眼图像确定对应人眼的近视度数;
根据所述近视度数确定透镜组的焦点与所述人眼在第二水平方向上的目标距离;第二水平方向为所述两个屏幕之间的中点指向所述两组透镜组之间中点的方向;
根据所述透镜组的焦点位置与对应的人眼的目标位置确定透镜组的焦点与所述人眼在第二水平方向上的当前距离;
根据所述当前距离与所述目标距离确定所述调节量在所述第二水平方向上的第五水平分量。
6.根据权利要求1所述的瞳距调节方法,其特征在于,所述两只人眼各自的参考位置为在预设的空间三维坐标系中所述两只人眼各自的参考坐标;空间三维坐标系的原点为两个屏幕之间的中点,X轴的正向为由所述两个屏幕之间的中点指向所述两组透镜组之间中点的方向,Y轴的正向为一个屏幕的中心指向另一个屏幕的中心的方向;
所述两组透镜组各自的焦点位置为在所述空间三维坐标系中所述两组透镜组各自的焦点坐标,所述两个屏幕各自的可见区域的位置为在所述空间三维坐标系中所述两个屏幕各自的可见区域的坐标;所述两只人眼各自的目标位置为在所述空间三维坐标系中所述两只人眼各自的目标坐标。
7.根据权利要求1所述的瞳距调节方法,其特征在于,所述根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置之前,还包括:
根据所述人眼图像确定用户的身份标识;
所述根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置之后,还包括:
将所述身份标识与调节后的所述两组透镜组各自的焦点位置关联保存。
8.根据权利要求1所述的瞳距调节方法,其特征在于,所述控制指令为调节开关的开启信号。
9.一种瞳距调节装置,其特征在于,应用于虚拟现实设备;虚拟现实设备包括两组透镜组以及两个屏幕,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对;所述瞳距调节装置,包括:
确定模块,用于在接收到瞳距调节的控制指令后,根据采集的人眼图像确定用户的两只人眼各自的参考位置;
第一获取模块,用于根据所述参考位置、采集的所述两组透镜组各自的焦点位置以及所述两个屏幕各自的可见区域的位置,获取所述两只人眼各自的目标位置;
第二获取模块,用于根据所述两只人眼各自的目标位置与所述两组透镜组各自的焦点位置,获取所述两组透镜组各自的焦点位置的调节量;
调节模块,用于根据所述两组透镜组各自的焦点位置的调节量调节所述两组透镜组各自的焦点位置,以使调节后的所述两组透镜组各自的焦点位置分别与所述两只人眼各自的目标位置对齐。
10.一种虚拟显示设备,其特征在于,包括:两组透镜组、两个屏幕以及权利要求9所述的瞳距调节装置,一个屏幕的位置与一组透镜组的位置相对,另一个屏幕的位置与另一组透镜组的位置相对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910309272.2A CN109856802B (zh) | 2019-04-17 | 2019-04-17 | 瞳距调节方法、装置和虚拟显示设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910309272.2A CN109856802B (zh) | 2019-04-17 | 2019-04-17 | 瞳距调节方法、装置和虚拟显示设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109856802A CN109856802A (zh) | 2019-06-07 |
CN109856802B true CN109856802B (zh) | 2021-08-31 |
Family
ID=66889170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910309272.2A Active CN109856802B (zh) | 2019-04-17 | 2019-04-17 | 瞳距调节方法、装置和虚拟显示设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109856802B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111103975B (zh) * | 2019-11-30 | 2022-09-23 | 华为技术有限公司 | 显示方法、电子设备及系统 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3984907B2 (ja) * | 2002-11-29 | 2007-10-03 | キヤノン株式会社 | 画像観察システム |
DE102004010369A1 (de) * | 2004-03-03 | 2005-11-24 | Siemens Ag | Vorrichtung und Verfahren für die stereoskopische Wiedergabe von Bildinformationen auf einem Bildschirm |
CN101474060B (zh) * | 2008-10-14 | 2010-12-08 | 朱家亮 | 远用眼点和近用眼点的瞳距及瞳高测量系统及方法 |
US9025252B2 (en) * | 2011-08-30 | 2015-05-05 | Microsoft Technology Licensing, Llc | Adjustment of a mixed reality display for inter-pupillary distance alignment |
JP5919899B2 (ja) * | 2012-03-08 | 2016-05-18 | セイコーエプソン株式会社 | 虚像表示装置及び虚像表示装置の位置調整方法 |
CN102937745B (zh) * | 2012-11-13 | 2015-04-01 | 京东方科技集团股份有限公司 | 开放式头戴显示装置及其显示方法 |
US10365502B2 (en) * | 2014-08-13 | 2019-07-30 | Patrick C Ho | Prescription lenses for smart eyewear |
CN104822061A (zh) * | 2015-04-30 | 2015-08-05 | 小鸟科技有限公司 | 头戴式3d显示器的瞳距调节方法、系统、以及模块 |
US10241569B2 (en) * | 2015-12-08 | 2019-03-26 | Facebook Technologies, Llc | Focus adjustment method for a virtual reality headset |
EP3409013B1 (en) * | 2016-01-29 | 2022-01-05 | Hewlett-Packard Development Company, L.P. | Viewing device adjustment based on eye accommodation in relation to a display |
CN106445167B (zh) * | 2016-10-20 | 2019-09-20 | 网易(杭州)网络有限公司 | 单眼视界自适配调整方法及装置、头戴式可视设备 |
CN106990847A (zh) * | 2017-04-06 | 2017-07-28 | 小派科技(上海)有限责任公司 | 一种虚拟现实头盔以及调节虚拟现实头盔瞳距的方法 |
CN108732750A (zh) * | 2017-04-24 | 2018-11-02 | 中兴通讯股份有限公司 | 虚拟现实播放设备及其控制方法及计算机可读存储介质 |
CN107368192B (zh) * | 2017-07-18 | 2021-03-02 | 歌尔光学科技有限公司 | Vr眼镜的实景观测方法及vr眼镜 |
CN107396097B (zh) * | 2017-09-01 | 2019-05-10 | 京东方科技集团股份有限公司 | 一种虚拟现实设备的视差测试的方法和装置 |
EP3462382A1 (en) * | 2017-10-02 | 2019-04-03 | Facebook Technologies, LLC | Eye tracking system using dense structured light patterns |
CN107682690A (zh) * | 2017-10-19 | 2018-02-09 | 京东方科技集团股份有限公司 | 自适应视差调节方法和虚拟现实vr显示系统 |
CN207706338U (zh) * | 2017-12-04 | 2018-08-07 | 深圳市冠旭电子股份有限公司 | Vr智能头戴设备和vr图像显示系统 |
CN108267299B (zh) * | 2017-12-22 | 2019-12-20 | 歌尔股份有限公司 | Ar眼镜瞳距测试方法及装置 |
CN108008537A (zh) * | 2017-12-27 | 2018-05-08 | 北京传嘉科技有限公司 | 基于vr眼镜的调节处理方法及vr眼镜 |
CN108205374B (zh) * | 2018-01-02 | 2020-07-28 | 京东方科技集团股份有限公司 | 一种视频眼镜的眼球追踪模组及其方法、视频眼镜 |
CN108303798B (zh) * | 2018-01-15 | 2020-10-09 | 海信视像科技股份有限公司 | 一种虚拟现实头盔、虚拟现实头盔瞳距调整方法及装置 |
CN108663799B (zh) * | 2018-03-30 | 2020-10-09 | 蒋昊涵 | 一种vr图像的显示控制系统及其显示控制方法 |
-
2019
- 2019-04-17 CN CN201910309272.2A patent/CN109856802B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109856802A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106309089B (zh) | Vr视力矫正方法及装置 | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
WO2019176308A1 (ja) | 情報処理装置、情報処理方法、および、プログラム | |
WO2014087044A1 (en) | Provision of an image element on a display worn by a user | |
JP2000354257A (ja) | 画像処理装置、画像処理方法、およびプログラム提供媒体 | |
KR20160094190A (ko) | 시선 추적 장치 및 방법 | |
CN111007939A (zh) | 一种基于深度感知的虚拟现实系统空间定位方法 | |
CN113284258B (zh) | 安全区域的设置方法、装置和虚拟现实设备 | |
CN109856802B (zh) | 瞳距调节方法、装置和虚拟显示设备 | |
CN113840757A (zh) | 一种显示屏调整方法及装置 | |
CN116019693A (zh) | 一种基于vr的立体视训练方法及装置 | |
CN115103094A (zh) | 一种基于注视点的摄像头模组远视角调节方法及系统 | |
CN111190486A (zh) | 一种基于眼睛控制的分区显示方法及装置 | |
JP6649010B2 (ja) | 情報処理装置 | |
US20120218388A1 (en) | Computer-readable storage medium having information processing program stored therein, imaging apparatus, imaging method, and imaging system | |
JP2018507448A (ja) | スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス | |
US11842453B2 (en) | Information processing device, information processing method, and program | |
CN105828021A (zh) | 基于增强现实技术的特种机器人图像采集控制方法及系统 | |
EP4172723B1 (en) | Computer-implemented method for determining a position of a center of rotation of an eye using a mobile device, mobile device and computer program | |
US11988901B2 (en) | Two-eye tracking based on measurements from a pair of electronic contact lenses | |
WO2022004130A1 (ja) | 情報処理装置、情報処理方法、および記憶媒体 | |
CN112819970B (zh) | 一种控制方法、装置及电子设备 | |
CN112578558B (zh) | 用于头戴式装置的、用于更新眼睛追踪模型的方法和系统 | |
JPH089423A (ja) | 遠隔モニタ装置 | |
JP6738308B2 (ja) | 情報処理方法、プログラム、仮想空間配信システム及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |