CN111103975B - 显示方法、电子设备及系统 - Google Patents
显示方法、电子设备及系统 Download PDFInfo
- Publication number
- CN111103975B CN111103975B CN201911208308.4A CN201911208308A CN111103975B CN 111103975 B CN111103975 B CN 111103975B CN 201911208308 A CN201911208308 A CN 201911208308A CN 111103975 B CN111103975 B CN 111103975B
- Authority
- CN
- China
- Prior art keywords
- user
- mounted display
- head mounted
- display screen
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本申请实施例提供了显示方法、电子设备及系统。在该方法中,电子设备可以根据用户基于头戴式显示设备上显示的用户界面输入的用户操作,来获取所述用户的IPD,根据所述用户的IPD校正源图像得到用于在所述头戴式显示设备上显示的目标图像,并将所述目标图像发送给所述头戴式显示设备。实施本申请实施例提供的技术方案,可以使得用户佩戴头戴式显示设备时能够舒适、真实地感受到3D场景。
Description
技术领域
本申请涉及虚拟现实(virtual reality,VR)及终端技术领域,尤其涉及显示方法、电子设备及系统。
背景技术
随着计算机图形技术的发展,VR技术逐渐应用到人们的生活中。VR技术利用计算机模拟产生一个三维(three-dimensional,3D)的虚拟现实场景,并提供在视觉、听觉、触觉或其他感官上的模拟体验,让用户感觉仿佛身历其境。
用户双眼瞳孔中心之间的距离,即瞳距(inter-pupillary distance,IPD),是影响该用户能否舒适、真实地体验头戴式显示设备提供的3D场景的关键。由于不同的用户可能有不同的IPD,同一用户的IPD在不同年龄段也可能发生变化,如何保证用户使用头戴式显示设备时可以舒适、真实地体验3D场景,是业界研究的方向。
发明内容
本申请实施例提供了显示方法、电子设备及系统。该方法可以测量用户的IPD,并根据用户的IPD校正头戴式显示设备上所显示的图像,使得用户佩戴头戴式显示设备时能够舒适、真实地感受到3D场景。
第一方面,本申请实施例提供了一种系统,该系统包括:电子设备和头戴式显示设备,所述电子设备和所述头戴式显示设备连接,所述头戴式显示设备用于佩戴于用户头部。其中,所述电子设备用于将用户界面发送给所述头戴式显示设备;所述头戴式显示设备用于在显示屏上显示所述用户界面;所述电子设备还用于获取所述用户的IPD,所述用户的IPD是根据所述用户基于所述用户界面输入的用户操作获取的;所述电子设备还用于获取源图像,根据所述用户的IPD校正所述源图像得到目标图像,并将所述目标图像发送给所述头戴式显示设备;所述头戴式显示设备还用于在所述显示屏上显示所述目标图像。
通过第一方面的系统,电子设备可以测量用户的IPD,并根据用户的IPD校正头戴式显示设备上所显示的图像,使得用户佩戴头戴式显示设备时能够舒适、真实地感受到3D场景。
结合第一方面,在一些实施例中,所述显示屏包括第一显示屏和第二显示屏,所述头戴式显示设备还包括对应所述第一显示屏的第一光学组件和对应所述第二显示屏的第二光学组件,所述第一显示屏的中心和所述第一光学组件的中心所处的第一直线垂直于第三直线,所述第二显示屏的中心和所述第二光学组件的中心所处的第二直线垂直于所述第三直线;所述第三直线为所述第一光学组件的中心和所述第二光学组件的中心所处的直线;所述用户界面包括第一用户界面和第二用户界面,所述头戴式显示设备具体用于在所述第一显示屏上显示所述第一用户界面、在所述第二显示屏上显示所述第二用户界面;所述目标图像包括第一目标图像和第二目标图像,所述头戴式显示设备具体用于在所述第一显示屏上显示所述第一目标图像、在所述第二显示屏上显示所述第二目标图像。
在上述实施例中,所述第一显示屏和所述第一光学组件对应于用户的左眼,所述第一显示屏发出的光经过所述第一光学组件传播到所述用户的左眼;所述第二显示屏和所述第二光学组件对应于用户的右眼,所述第二显示屏发出的光经过所述第二光学组件传播到所述用户的右眼。
结合第一方面的一些实施例,在一些实施例中,所述头戴式显示设备还用于:获取第一位置和第二位置,所述第一位置和所述第二位置是根据显示所述第一用户界面时的所述用户的动作获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据显示所述第二用户界面时的所述用户的动作获取的;将所述第一位置、所述第二位置、所述第三位置和所述第四位置发送给所述电子设备。所述电子设备还用于:根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量Δi1,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量Δi2,根据所述Δi1和所述Δi2获取所述用户的IPD。这样,所述用户可以通过所述头戴式显示设备来指示上述几个位置,从而使得所述电子设备测量所述用户的IPD。
这里,所述头戴式显示设备显示所述第一用户界面时的所述用户的动作可以是,所述用户的眼睛(例如左眼)的转动动作。所述头戴式显示设备显示所述第二用户界面时的所述用户的动作可以是,所述用户的眼睛(例如右眼)的转动动作。
结合第一方面的一些实施例,在一些实施例中,所述头戴式显示设备还用于:将在显示所述第一用户界面时采集到的所述用户的操作数据,和,在显示所述第二用户界面时采集到的所述用户的操作数据,发送给所述电子设备。所述电子设备还用于:获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述头戴式显示设备显示所述第一用户界面时的所述用户的操作数据获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述头戴式显示设备显示所述第二用户界面时的所述用户的操作数据获取的;根据所述第一位置和所述第二位置确定所述用户的眼睛(例如左眼)相对所述第一直线的偏移量Δi1,根据所述第三位置和所述第四位置确定所述用户的眼睛(例如右眼)相对所述第二直线的偏移量Δi2,根据所述Δi1和所述Δi2获取所述用户的IPD。这样,所述用户可以通过所述头戴式显示设备来指示上述几个位置,从而使得所述电子设备测量所述用户的IPD。
这里,所述头戴式显示设备用于通过在显示所述第一用户界面时采集到的所述用户的操作数据得到所述用户眼球的图像。所述头戴式显示设备还用于通过在显示所述第二用户界面时采集到的所述用户的操作数据得到所述用户眼球的图像。
结合第一方面的一些实施例,在一些实施例中,所述系统还包括输入设备。所述输入设备用于:将在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作,和,在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作,发送给所述电子设备。所述电子设备还用于:获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作获取的;根据所述第一位置和所述第二位置确定所述用户的眼睛(例如左眼)相对所述第一直线的偏移量Δi1,根据所述第三位置和所述第四位置确定所述用户的眼睛(例如右眼)相对所述第二直线的偏移量Δi2,根据所述Δi1和所述Δi2获取所述用户的IPD。这样,所述用户可以通过所述输入设备来指示上述几个位置,从而使得所述电子设备测量所述用户的IPD。
在上述实施例中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛(例如左眼)看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛(例如左眼)看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛(例如右眼)看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛(例如右眼)看向所述第二显示屏的右侧的位置。
结合第一方面的一些实施例,在一些实施例中,所述电子设备具体用于根据以下公式计算所述Δi1:
其中,JO′为所述第一位置到所述第一直线的距离,KO′为所述第二位置到所述第一直线的距离,M为所述第一光学组件的放大倍数,L为所述第一光学组件的直径。当所述Δi1的值为正时,所述用户的眼睛(例如左眼)相对所述第一直线向右偏移;当所述Δi1的值为负时,所述用户的眼睛(例如左眼)相对所述第一直线向左偏移。
结合第一方面的一些实施例,在一些实施例中,所述电子设备具体用于根据和上述公式类似的公式计算所述Δi2。例如,所述电子设备具体用于根据以下公式计算所述Δi2:
其中,jo′为所述第三位置到所述第二直线的距离,ko′为所述第四位置到所述第二直线的距离,m为所述第二光学组件的放大倍数,l为所述第二光学组件的直径。当所述Δi2的值为正时,所述用户的眼睛(例如右眼)相对所述第二直线向右偏移;当所述Δi2的值为负时,所述用户的眼睛(例如右眼)相对所述第二直线向左偏移。
结合第一方面的一些实施例,在一些实施例中,所述电子设备具体用于根据以下公式计算所述用户的瞳距IPD:
IPD=IOD-Δi1+Δi2
其中,所述IOD为所述第一显示屏的中心和所述第二显示屏的中心之间的距离。
结合第一方面的一些实施例,在一些实施例中,所述电子设备具体用于:根据所述用户的IPD,利用所述源图像生成第一图像和第二图像;根据所述第一图像生成第一目标图像,所述第一目标图像的中心为将所述第一图像的中心调整所述Δi1的偏移量;根据所述第二图像生成第二目标图像,所述第二目标图像的中心为将所述第二图像的中心调整所述Δi2的偏移量。这样,所述电子设备可以在所述头戴式显示设备提供游戏场景或其他类似场景时,校正所述头戴式显示设备上所显示的图像,使得用户佩戴所述头戴式显示设备时能够舒适、真实地感受到3D场景。
结合第一方面的一些实施例,在一些实施例中,所述源图像包括:第三图像和第四图像。所述电子设备具体用于:根据所述第三图像生成第一目标图像,所述第一目标图像的中心为将所述第三图像的中心调整所述Δi1的偏移量;根据所述第四图像生成第二目标图像,所述第二目标图像的中心为将所述第四图像的中心调整所述Δi2的偏移量。这样,所述电子设备可以在所述头戴式显示设备提供3D电影场景或其他类似场景时,校正所述头戴式显示设备上所显示的图像,使得用户佩戴所述头戴式显示设备时能够舒适、真实地感受到3D场景。这里,第三图像和第四图像可以是由两个摄像头预先拍摄好的、针对相同物体的具有视差的两幅图像。
第二方面,本申请实施例提供了一种显示方法,应用于电子设备。所述方法包括:所述电子设备将用户界面发送给头戴式显示设备,所述用户界面用于显示在所述头戴式显示设备的显示屏上;所述电子设备获取所述用户的IPD,所述用户的IPD是根据所述用户基于所述用户界面输入的用户操作获取的;所述电子设备获取源图像,根据所述用户的IPD校正所述源图像得到目标图像,并将所述目标图像发送给所述头戴式显示设备;所述目标图像用于显示在所述显示屏上。
可理解的,基于同一发明思想,第二方面的显示方法中所述电子设备执行的各个步骤可参考第一方面的系统中的所述电子设备实现对应功能时所执行的步骤,可参考相关描述。
实施第二方面的显示方法,所述电子设备可以和头戴式显示设备配合为所述用户提供3D场景,使得所述用户佩戴所述头戴式显示设备时能够舒适、真实地感受到所述3D场景。
结合第二方面,在一些实施例中,所述显示屏包括第一显示屏和第二显示屏,所述头戴式显示设备还包括对应所述第一显示屏的第一光学组件和对应所述第二显示屏的第二光学组件,所述第一显示屏的中心和所述第一光学组件的中心所处的第一直线垂直于第三直线,所述第二显示屏的中心和所述第二光学组件的中心所处的第二直线垂直于所述第三直线;所述第三直线为所述第一光学组件的中心和所述第二光学组件的中心所处的直线。所述用户界面包括第一用户界面和第二用户界面,所述第一用户界面用于显示在所述第一显示屏上,所述第二用户界面用于显示在所述第二显示屏上。所述目标图像包括第一目标图像和第二目标图像,所述第一目标图像用于显示在所述第一显示屏上,所述第二目标图像用于显示在所述第二显示屏上。
结合第二方面的一些实施例,在一些实施例中,所述电子设备可以获取第一位置、第二位置、第三位置和第四位置,根据所述第一位置和所述第二位置确定所述用户的眼睛(例如左眼)相对所述第一直线的偏移量Δi1,根据所述第三位置和所述第四位置确定所述用户的眼睛(例如右眼)相对所述第二直线的偏移量Δi2,根据所述Δi1和所述Δi2获取所述用户的IPD。这里,所述第一位置、所述第二位置、所述第三位置和所述第四位置可参考第一方面中的相关描述。所述电子设备可以根据以下几种方式获取到所述第一位置、所述第二位置、所述第三位置和所述第四位置:
第一种方式,所述电子设备接收所述头戴式显示设备发送的第一位置、第二位置、第三位置和第四位置。这里,所述第一位置和所述第二位置是所述头戴式显示设备根据显示所述第一用户界面时的所述用户的动作获取的;所述第三位置和所述第四位置是所述头戴式显示设备根据显示所述第二用户界面时的所述用户的动作获取的。所述头戴式显示设备显示所述第一用户界面或所述第二用户界面时的所述用户的动作,可参考第一方面的相关描述。
第二种方式,所述电子设备接收所述头戴式显示设备在显示所述第一用户界面时采集到的所述用户的操作数据,和,所述头戴式显示设备在显示所述第二用户界面时采集到的所述用户的操作数据;所述电子设备获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述头戴式显示设备显示所述第一用户界面时的所述用户的操作数据获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述头戴式显示设备显示所述第二用户界面时的所述用户的操作数据获取的。所述头戴式显示设备显示所述第一用户界面或所述第二用户界面时的所述用户的操作数据,可参考第一方面中的相关描述。
第三种方式,所述电子设备接收所述输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作,和,所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作;所述电子设备获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作获取的。所述输入设备在所述头戴式显示设备显示所述第一用户界面或所述第二用户界面时检测到的用户操作,可参考第一方面的相关描述。
结合第二方面的一些实施例,在一些实施例中,所述电子设备可以根据以下公式计算所述Δi1:
其中,JO′为所述第一位置到所述第一直线的距离,KO′为所述第二位置到所述第一直线的距离,M为所述第一光学组件的放大倍数,L为所述第一光学组件的直径。当所述Δi1的值为正时,所述用户的眼睛(例如左眼)相对所述第一直线向右偏移;当所述Δi1的值为负时,所述用户的眼睛(例如左眼)相对所述第一直线向左偏移。
结合第二方面的一些实施例,在一些实施例中,所述电子设备可以根据以下公式计算所述Δi2:
其中,jo′为所述第三位置到所述第二直线的距离,ko′为所述第四位置到所述第二直线的距离,m为所述第二光学组件的放大倍数,l为所述第二光学组件的直径。当所述Δi2的值为正时,所述用户的眼睛(例如右眼)相对所述第二直线向右偏移;当所述Δi2的值为负时,所述用户的眼睛(例如右眼)相对所述第二直线向左偏移。
结合第二方面的一些实施例,在一些实施例中,所述电子设备可以根据以下公式计算所述用户的瞳距IPD:
IPD=IOD-Δi1+Δi2
其中,所述IOD为所述第一显示屏的中心和所述第二显示屏的中心之间的距离。
结合第二方面的一些实施例,在一些实施例中,所述电子设备可以通过以下方式来得到目标图像:根据所述用户的IPD,利用所述源图像生成第一图像和第二图像;所述电子设备根据所述第一图像生成第一目标图像,所述第一目标图像的中心为将所述第一图像的中心调整所述Δi1的偏移量;所述电子设备根据所述第二图像生成第二目标图像,所述第二目标图像的中心为将所述第二图像的中心调整所述Δi2的偏移量。这样,所述电子设备可以在所述头戴式显示设备提供游戏场景或其他类似场景时,校正所述头戴式显示设备上所显示的图像,使得用户佩戴所述头戴式显示设备时能够舒适、真实地感受到3D场景。
结合第二方面的一些实施例,在一些实施例中,所述源图像包括:第三图像和第四图像。所述电子设备可以通过以下方式来得到目标图像:所述电子设备根据所述第三图像生成第一目标图像,所述第一目标图像的中心为将所述第三图像的中心调整所述Δi1的偏移量;所述电子设备根据所述第四图像生成第二目标图像,所述第二目标图像的中心为将所述第四图像的中心调整所述Δi2的偏移量。这样,所述电子设备可以在所述头戴式显示设备提供3D电影场景或其他类似场景时,校正所述头戴式显示设备上所显示的图像,使得用户佩戴所述头戴式显示设备时能够舒适、真实地感受到3D场景。这里,第三图像和第四图像可以是由两个摄像头预先拍摄好的、针对相同物体的具有视差的两幅图像。
第三方面,本申请实施例提供了一种显示方法,应用于头戴式显示设备。所述显示方法包括:所述头戴式显示设备在显示屏上显示用户界面;所述头戴式显示设备获取所述用户的IPD,所述用户的IPD是根据所述用户基于所述用户界面输入的用户操作获取的;所述头戴式显示设备获取源图像,根据所述用户的IPD校正所述源图像得到目标图像;在所述显示屏上显示所述目标图像。
实施第三方面的方法,所述头戴式显示设备可以测量用户的IPD并根据所述用户逇IPD独立为所述用户提供3D场景,使得所述用户佩戴所述头戴式显示设备时能够舒适、真实地感受到所述3D场景。
结合第三方面,在一些实施例中,所述显示屏包括第一显示屏和第二显示屏,所述头戴式显示设备还包括对应所述第一显示屏的第一光学组件和对应所述第二显示屏的第二光学组件,所述第一显示屏的中心和所述第一光学组件的中心所处的第一直线垂直于第三直线,所述第二显示屏的中心和所述第二光学组件的中心所处的第二直线垂直于所述第三直线;所述第三直线为所述第一光学组件的中心和所述第二光学组件的中心所处的直线。所述用户界面包括第一用户界面和第二用户界面,所述第一用户界面显示在所述第一显示屏上,所述第二用户界面显示在所述第二显示屏上。所述目标图像包括第一目标图像和第二目标图像,所述第一目标图像显示在所述第一显示屏上,所述第二目标图像显示在所述第二显示屏上。
结合第三方面的一些实施例,在一些实施例中,所述头戴式显示设备可以获取第一位置、第二位置、第三位置和第四位置,根据所述第一位置和所述第二位置确定所述用户的眼睛(例如左眼)相对所述第一直线的偏移量Δi1,根据所述第三位置和所述第四位置确定所述用户的眼睛(例如右眼)相对所述第二直线的偏移量Δi2,根据所述Δi1和所述Δi2获取所述用户的IPD。这里,所述第一位置、所述第二位置、所述第三位置和所述第四位置可参考第一方面中的相关描述。所述头戴式显示设备可以根据以下几种方式获取到所述第一位置、所述第二位置、所述第三位置和所述第四位置:
第一种方式:所述头戴式显示设备根据显示所述第一用户界面时的所述用户的动作获取所述第一位置和所述第二位置;根据显示所述第二用户界面时的所述用户的动作获取所述第三位置和所述第四位置。所述头戴式显示设备显示所述第一用户界面或所述第二用户界面时的所述用户的动作,可参考第一方面的相关描述。
第二种方式:所述头戴式显示设备根据显示所述第一用户界面时采集到的所述用户的操作数据获取所述第一位置和所述第二位置,根据显示所述第二用户界面时采集到的所述用户的操作数据获取所述第三位置和所述第四位置。所述头戴式显示设备显示所述第一用户界面或所述第二用户界面时的所述用户的操作数据,可参考第一方面中的相关描述。
第三种方式:所述头戴式显示设备和输入设备连接,所述头戴式显示设备根据所述输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作获取所述第一位置和所述第二位置,根据所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作获取所述第三位置和所述第四位置。所述输入设备在所述头戴式显示设备显示所述第一用户界面或所述第二用户界面时检测到的用户操作,可参考第一方面的相关描述。
结合第三方面的一些实施例,在一些实施例中,所述头戴式显示设备根据以下公式计算所述Δi1:
其中,JO′为所述第一位置到所述第一直线的距离,KO′为所述第二位置到所述第一直线的距离,M为所述第一光学组件的放大倍数,L为所述第一光学组件的直径;当所述Δi1的值为正时,所述用户的眼睛(例如左眼)相对所述第一直线向右偏移;当所述Δi1的值为负时,所述用户的眼睛(例如左眼)相对所述第一直线向左偏移。
结合第三方面的一些实施例,在一些实施例中,所述头戴式显示设备根据以下公式计算所述Δi2:
其中,jo′为所述第三位置到所述第二直线的距离,ko′为所述第四位置到所述第二直线的距离,m为所述第二光学组件的放大倍数,l为所述第二光学组件的直径。当所述Δi2的值为正时,所述用户的眼睛(例如右眼)相对所述第二直线向右偏移;当所述Δi2的值为负时,所述用户的眼睛(例如右眼)相对所述第二直线向左偏移。
结合第三方面的一些实施例,在一些实施例中,所述头戴式显示设备根据以下公式计算所述用户的瞳距IPD:
IPD=IOD-Δi1+Δi2
其中,所述IOD为所述第一显示屏的中心和所述第二显示屏的中心之间的距离。
结合第三方面的一些实施例,在一些实施例中,所述头戴式显示设备可以根据所述用户的IPD,利用所述源图像生成第一图像和第二图像;根据所述第一图像生成第一目标图像,所述第一目标图像的中心为将所述第一图像的中心调整所述Δi1的偏移量;根据所述第二图像生成第二目标图像,所述第二目标图像的中心为将所述第二图像的中心调整所述Δi2的偏移量。这样,所述头戴式显示设备在提供游戏场景或其他类似场景时,可以校正所显示的图像,使得用户佩戴所述头戴式显示设备时能够舒适、真实地感受到3D场景。
结合第三方面的一些实施例,在一些实施例中,所述源图像包括:第三图像和第四图像。所述头戴式显示设备可以根据所述第三图像生成第一目标图像,所述第一目标图像的中心为将所述第三图像的中心调整所述Δi1的偏移量;根据所述第四图像生成第二目标图像,所述第二目标图像的中心为将所述第四图像的中心调整所述Δi2的偏移量。这样,所述头戴式显示设备在提供3D电影场景或其他类似场景时,可以校正所显示的图像,使得用户佩戴所述头戴式显示设备时能够舒适、真实地感受到3D场景。
第四方面,本申请实施例提供了一种电子设备,所述电子设备包括一个或多个处理器、存储器;该存储器与该一个或多个处理器耦合,该存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令,该一个或多个处理器调用该计算机指令以使得该电子设备执行第二方面或第二方面任意一种实施方式中的显示方法。
第五方面,本申请实施例提供了一种头戴式显示设备,所述头戴式显示设备包括:一个或多个处理器、存储器、显示屏;该存储器与该一个或多个处理器耦合,该存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令,该一个或多个处理器调用该计算机指令以使得该头戴式显示设备执行第三方面或第三方面任意一种实施方式中的显示方法。
结合第五方面,在一些实施例中,所述显示屏包括第一显示屏和第二显示屏,所述头戴式显示设备还包括对应所述第一显示屏的第一光学组件和对应所述第二显示屏的第二光学组件,所述第一显示屏的中心和所述第一光学组件的中心所处的第一直线垂直于第三直线,所述第二显示屏的中心和所述第二光学组件的中心所处的第二直线垂直于所述第三直线;所述第三直线为所述第一光学组件的中心和所述第二光学组件的中心所处的直线。
第六方面,本申请实施例提供了一种芯片,该芯片应用于电子设备。该芯片包括:一个或多个处理器、接口;该接口用于接收代码指令并将该代码指令传输至该处理器,该处理器用于运行该代码指令以使得该电子设备执行如第二方面或第二方面可能的实施方式中的任意一种所提供的显示方法。
第七方面,本申请实施例提供了一种包含指令的计算机程序产品,当上述计算机程序产品在电子设备上运行时,使得上述电子设备执行如第二方面或第二方面可能的实施方式中的任意一种所提供的显示方法。
第八方面,本申请实施例提供一种计算机可读存储介质,包括指令,当上述指令在电子设备上运行时,使得上述电子设备执行如第二方面或第二方面可能的实施方式中的任意一种所提供的显示方法。
第九方面,本申请实施例提供了一种芯片,该芯片应用于头戴式显示设备。该芯片包括:一个或多个处理器、接口;该接口用于接收代码指令并将该代码指令传输至该处理器,该处理器用于运行该代码指令以使得该头戴式显示设备执行如第三面或第三方面可能的实施方式中的任意一种所提供的显示方法。
第十方面,本申请实施例提供了一种包含指令的计算机程序产品,当上述计算机程序产品在头戴式显示设备上运行时,使得上述头戴式显示设备执行如第三面或第三方面可能的实施方式中的任意一种所提供的显示方法。
第十一方面,本申请实施例提供一种计算机可读存储介质,包括指令,当上述指令在头戴式显示设备上运行时,使得上述头戴式显示设备执行如第三面或第三方面可能的实施方式中的任意一种所提供的显示方法。
实施本申请实施例提供的技术方案,可以测量用户的IPD,并根据用户的IPD校正头戴式显示设备上所显示的图像,使得用户佩戴头戴式显示设备时能够舒适、真实地感受到3D场景。
附图说明
图1是本申请实施例提供的用户使用头戴式显示设备体验3D场景的原理示意图;
图2是本申请实施例提供的一种系统的架构示意图;
图3A是本申请实施例提供的电子设备的硬件结构示意图;
图3B是本申请实施例提供的电子设备的软件结构示意图;
图3C是本申请实施例提供的一种头戴式显示设备的结构示意图;
图4A和图4B是本申请实施例提供的用户双眼和头戴式显示设备的光学组件之间的位置关系示意图;
图5A-图5C是本申请实施例中的头戴式显示设备上显示的用户界面;
图6是本申请实施例提供的计算用户的IPD时所使用的几何关系示意图;
图7A是本申请实施例提供的电子设备构造的3D场景以及模拟用户置身于该3D场景中的示意图;
图7B是本申请实施例提供的电子设备构造如图7A所示的3D场景后,根据第一IPD确定的第一图像、第二图像、第一目标图像和第二目标图像;
图7C是本申请实施例提供的提供的电子设备构造如图7A所示的3D场景后,根据第二IPD确定的第一图像、第二图像、第一目标图像和第二目标图像;
图8A是本申请实施例提供的头戴式显示设备显示如图7B所示的第一目标图像及第二目标图像后,用户合成的图像;
图8B是本申请实施例提供的头戴式显示设备显示如图7C所示的第一目标图像及第二目标图像后,用户合成的图像;
图9A是本申请实施例提供的另一种系统的架构示意图;
图9B是本申请实施例提供的另一种头戴式显示设备的硬件结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
参考图1,图1为用户使用头戴式显示设备体验3D场景的原理示意图。
如图1所示,头戴式显示设备可包括:显示屏101、光学组件102、显示屏103、光学组件104。其中,所述显示屏101和所述显示屏103的材质、大小、分辨率等相同。所述光学组件102和所述光学组件104的材质、结构等相同。所述光学组件102和所述光学组件104均由一个或多个透镜组成,该透镜可包括凸透镜、菲涅尔透镜或其他类型的透镜中的一个或多个。
在本申请实施例中,第一显示屏可以为所述显示屏101,第二显示屏可以为所述显示屏103。第一光学组件可以为所述光学组件102,第二光学组件可以为所述光学组件104。以下实施例以所述显示屏101、所述显示屏103、所述光学组件102、所述光学组件104为例进行说明。
所述显示屏101的中心和所述光学组件102的中心所处的第一直线,垂直于,所述光学组件102的中心和所述光学组件104的中心所处的第三直线。所述显示屏101和所述光学组件102对应于用户的左眼。用户佩戴头戴式显示设备时,所述显示屏101上可以显示有图像a1。所述显示屏101显示所述图像a1时发出的光经过所述光学组件102的透射后将在用户左眼前方形成该图像a1的虚像a1’。
所述显示屏103的中心和所述光学组件104的中心所处的第二直线,垂直于,所述光学组件102的中心和所述光学组件104的中心所处的第三直线。所述显示屏103和所述光学组件104对应于用户的右眼。用户佩戴头戴式显示设备时,所述显示屏103可以显示有图像a2。所述显示屏103显示所述图像a2时发出的光经过所述光学组件104的透射后将在用户右眼前方形成该图像a2的虚像a2’。
在本申请实施例中,显示屏的中心可以为该显示屏的对称中心,例如圆形显示屏的圆心,长方形显示屏的对称中心等等。光学组件的中心可以为光学中心,通常情况下光学中心也是光学组件的对称中心。
在本申请实施例中,第四直线可以为所述显示屏101的中心和所述显示屏103的中心所处的直线。
所述图像a1和所述图像a2为针对同一物体例如物体a的具有视差的两幅图像。视差是指从有一定距离的两个点上观察同一个物体时,该物体在视野中位置的差异。所述虚像a1’和所述虚像a2’位于同一平面上,该平面可以被称为虚像面。
在佩戴头戴式显示设备时,用户的左眼会聚焦到所述虚像a1’上,用户的右眼会聚焦到所述虚像a2’上。然后,所述虚像a1’和所述虚像a2’会在用户的大脑中叠加成为一幅完整且具有立体感的图像,该过程被称为辐辏。在辐辏过程中,双眼视线的交汇点会被用户认为是所述图像a1和所述图像a2所描述的物体实际所在的位置。由于辐辏过程,用户可以感受到所述头戴式显示设备提供的3D场景。
基于图1所示的用户体验3D场景的原理,下面介绍所述头戴式显示设备生成所述显示屏101和所述显示屏103上显示的图像的方式。
通常情况下,所述头戴式显示设备会作出以下假定:用户佩戴该头戴式显示设备时,左眼瞳孔中心和所述显示屏101的中心、所述光学组件102的中心位于同一条直线上,右眼瞳孔中心和所述显示屏103的中心、所述光学组件104的中心位于同一条直线上。即,所述头戴式显示设备假定用户的IPD等于所述显示屏101的中心和所述显示屏103的中心之间的距离,也等于所述光学组件102的中心和所述光学组件104的中心之间的距离(inter-optics distance,IOD)。
所述头戴式显示设备会基于该假定,生成所述显示屏101和所述显示屏103上显示的图像。具体的,所述头戴式显示设备会先获取3D场景信息,根据该3D场景信息构造3D场景。该3D场景信息描述了想要让用户感受到的3D场景的一些信息,也就是说,该3D场景信息指示用户处于该3D场景中时能够看到的物体,以及,各个物体和用户之间的相对位置。然后,所述头戴式显示设备可以模拟或者假定IPD等于IOD的用户自然地身处构造的该3D场景中,获取该用户左眼看到的图像,将该图像显示于所述显示屏101上;获取该用户右眼看到的图像,将该图像显示于所述显示屏103上。在一些实施例中,所述头戴式显示设备可以通过两个取像相机来获取所述显示屏101和所述显示屏103上显示的图像。例如,所述头戴式显示设备将两个取像相机放置于构建的3D场景中,并假定IPD等于IOD的用户自然地身处该3D场景中。一个取像相机位于该用户的左眼的位置,用于获取该用户从该位置观看3D场景时所看到的图像,该图像即用户左眼看到的图像。另一个取像相机位于该用户的右眼的位置,用于获取该用户从该位置观看3D场景时所看到的图像,该图像即用户右眼看到的图像。该两个取像相机的间距和假定的用户IPD相同,即等于IOD。取像相机为虚拟概念,而并非实际存在的硬件。
所述头戴式显示设备基于该假定生成图像并将该图像显示在显示屏上后,当IPD等于IOD的用户佩戴该头戴式显示设备时,所述头戴式显示设备可以为用户提供3D场景的真实感、沉浸感,还可以使得用户在观看3D场景中的物体时的辐辏过程自然、舒适,且辐辏后用户实际感受到的3D场景和所述头戴式显示设备构造的3D场景一致。
基于上面介绍的头戴式显示设备生成所述显示屏101和所述显示屏103上显示的图像的方式,下面结合图1描述IPD如何影响用户感受所述头戴式显示设备提供的3D场景。
参考图1,所述头戴式显示设备在所述显示屏101上显示所述图像a1,在所述显示屏103上显示所述图像a2。所述图像a1和所述图像a2的生成方式可参考前文相关描述。
参考图1中的实线眼球,当用户的IPD等于IOD时,该用户左眼往右侧旋转并聚焦到虚像a1',右眼往左侧旋转并聚焦到虚像a2',从而完成辐辏。此时,辐辏对用户来说是自然、舒适且轻松的。并且,图中A1点相对于用户的位置会被用户认为是物体a相对于用户自己的位置。这里,该用户实际感受到的3D场景和所述头戴式显示设备构造的3D场景一致。
参考图1中的虚线眼球,当用户的IPD不等于IOD时,例如用户的IPD大于IOD时,该用户的左眼往右侧旋转并聚焦到虚像a1',该用户的右眼往左侧旋转并聚焦到虚像a2',从而完成辐辏。虚线眼球辐辏时眼球的旋转角度和实线眼球辐辏时眼球的旋转角度不同,因此辐辏过程对用户来说不一定自然、舒适。此外,当用户的IPD不等于IOD时,图中A2点相对于用户的位置会被用户认为是物体a相对于用户自己的位置。因此,用户的IPD不等于IOD会导致该用户感受到的3D场景和所述头戴式显示设备构造的3D场景不一致,出现失真。
为了让用户佩戴所述头戴式显示设备时能够舒适、轻松且自然地辐辏,并且实际感受到的3D场景和所述头戴式显示设备构造的场景一致,本申请实施例提供了一种显示方法。该显示方法中,所述头戴式显示设备上显示的图像是根据用户的IPD确定的,这样可以使得该用户能够舒适、真实地感受到电子设备构建的3D场景。该方法的具体实现可参考后续实施例的相关描述,在此暂不赘述。
为了更加清楚地描述本申请实施例提供的显示方法,下面首先介绍本申请实施例提供的系统及装置。
参考图2,图2示例性示出了本申请实施例提供的一种系统10。该系统10可以利用VR、增强现实(augmented reality,AR)、混合现实(mixed reality,MR)等技术显示图像,使得用户感受到3D场景,为用户提供VR/AR/MR体验。
如图2所示,该系统10可包括:电子设备100、头戴式显示设备200、输入设备300。所述头戴式显示设备200佩戴于用户头部,所述输入设备300由用户手持。可理解的,所述输入设备300是可选设备,也就是说,所述系统10也可以不包括所述输入设备300。
所述电子设备100和所述头戴式显示设备200之间可以通过有线或者无线的方式连接。有线连接可包括通过USB接口、HDMI接口等接口进行通信的有线连接。无线连接可包括通过蓝牙、Wi-Fi直连(如Wi-Fi p2p)、Wi-Fi softAP、Wi-Fi LAN、射频等技术进行通信的无线连接中一项或多项。
所述电子设备100和所述输入设备300之间可以通过蓝牙(bluetooth,BT)、近场通信(near field communication,NFC)、ZigBee等近距离传输技术无线连接并通信,还可以通过USB接口、HDMI接口或自定义接口等来有线连接并通信。
所述电子设备100可以是搭载iOS、Android、Microsoft或者其它操作系统的便携式终端设备,例如手机、平板电脑,还可以是具有触敏表面或触控面板的膝上型计算机(Laptop)、具有触敏表面或触控面板的台式计算机等非便携式终端设备。所述电子设备100可运行应用程序,以生成用于传输给所述头戴式显示设备200显示的图像。该应用程序例如可以是视频应用、游戏应用、桌面应用等等。
所述头戴式显示设备200的可实现形式包括头盔、眼镜、耳机等可以佩戴在用户头部的电子装置。所述头戴式显示设备200用于显示图像,从而向用户呈现3D场景,给用户带来VR/AR/MR体验。该3D场景可包括3D的图像、3D的视频、音频等等。
所述输入设备300的实现形式可以是实体设备,例如实体的手柄、鼠标、键盘、手写笔、手环等等,也可以是虚拟设备,例如所述电子设备100生成并通过所述头戴式显示设备200显示的虚拟键盘等。
当所述输入设备300为实体设备时,所述输入设备300可配置有多种传感器,例如加速度传感器、陀螺仪传感器、磁传感器、压力传感器等。压力传感器可设置于所述输入设备300的确认按键下。确认按键可以是实体按键,也可以是虚拟按键。
所述输入设备300用于采集所述输入设备300的运动数据,和,表示所述输入设备300的确认按键是否被按压的数据。其中,所述运动数据包括所述输入设备300的传感器例如加速度传感器采集所述输入设备300的加速度、陀螺仪传感器采集所述输入设备300的运动速度等。所述表示所述输入设备300的确认按键是否被按压的数据包括设置于所述确认按键下的压力传感器采集到的压力值,所述输入设备300生成的电平等。设置于所述确认按键下的压力传感器采集到的压力值为0,则表示所述输入设备300的确认按键被按压;设置于所述确认按键下的压力传感器采集到的压力值不为0,则表示所述输入设备300的确认按键没有被按压。在一些实施例中,所述输入设备300生成的高电平表示所述输入设备300的确认按键被按压,所述输入设备300生成的低电平表示所述输入设备300的确认按键没有被按压。
所述输入设备300可以将采集到的采集所述输入设备300的运动数据,和,表示所述输入设备300的确认按键是否被按压的数据,发送给所述电子设备100进行分析。所述电子设备100可以根据所述输入设备300采集到的数据,确定所述输入设备300的运动情况以及状态。所述输入设备300的运动情况可包括但不限于:是否移动、移动的方向、移动的速度、移动的距离、移动的轨迹等等。所述输入设备300的状态可包括:所述输入设备300的确认按键是否被按压。所述电子设备100可以根据所述输入设备300的运动情况和/或状态,调整所述头戴式显示设备200上显示的图像和/或启动对应的功能,例如移动该图像中的光标,该光标的移动轨迹由所述输入设备300的运动情况确定,又例如根据所述输入设备300的确认按键被按压的操作启用测量IPD的功能等等。
也就是说,用户可通过在所述输入设备300上输入用户操作,来触发所述电子设备100执行对应的功能。例如,用户可以握持所述输入设备300向左移动3cm时,以使得所述电子设备100将所述头戴式显示设备200上显示的光标向左移动6cm。这样可以使得用户通过对所述输入设备300的操控,来将光标移动到所述头戴式显示设备200中显示屏上的任意位置。又例如,在光标被移动至所述头戴式显示设备200所显示的某个控件上后,用户可以按压所述输入设备300的确认按键,以使得所述电子设备100启用和该控件对应的功能。
在本申请实施例中,所述头戴式显示设备200用于显示图像。用户看到所述头戴式显示设备200显示的图像后,可以通过在所述输入设备300或者所述头戴式显示设备200输入用户操作,来指示自己能够在所述头戴式显示设备200的显示屏上看到的边缘。用户在所述头戴式显示设备200上输入用户操作的方式可参考后续头戴式显示设备200的相关描述,在此暂不赘述。所述头戴式显示设备200或所述输入设备300可以将采集到的数据发送至所述电子设备100,由所述电子设备100根据该数据进行计算,确定用户能够在所述头戴式显示设备200的显示屏上看到的边缘,并根据该边缘计算该用户的IPD。
在获取用户的IPD后,所述电子设备100可以根据该用户的IPD确定用于在所述头戴式显示设备200上显示的图像,并将该图像显示于所述头戴式显示设备200的显示屏上。这样可以使得用户在观看3D场景中的物体时的辐辏过程自然、舒适,且辐辏后用户实际感受到的3D场景和电子设备构造的3D场景一致,提高了用户佩戴的舒适感,避免了场景失真。
这里,用户指示自己能够在所述头戴式显示设备200的显示屏上看到的边缘的方式、所述电子设备100计算用户IPD的方式、所述电子设备100确定所述头戴式显示设备200上显示的图像并将该图像显示于所述头戴式显示设备200上的方式,可参考后续方法实施例的相关描述,在此暂不赘述。
参考图3A,图3A示出了本申请实施例提供的所述电子设备100的结构示意图。
所述电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,传感器模块180,摄像头193,显示屏194。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他头戴式显示设备,例如VR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备100的各种功能应用以及数据处理。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。
气压传感器180C用于测量气压。
磁传感器180D包括霍尔传感器。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。
在本申请实施例中,内部存储器121用于存储一个或多个应用的应用程序,该应用程序包括指令。当该应用程序被处理器110执行时,使得所述电子设备100生成用于呈现给用户的内容。示例性的,该应用可以包括用于管理头戴式显示设备200的应用、游戏应用、会议应用、视频应用、桌面应用或其他应用等等。
在本申请实施例中,处理器110用于根据所述头戴式显示设备200或所述输入设备300采集到的数据,来确定用户能够在所述头戴式显示设备200的显示屏上能够看到的边缘。处理器110还用于根据用户能够在所述头戴式显示设备200的显示屏上能够看到的边缘,来计算用户的IPD。处理器110确定用户能够在所述头戴式显示设备200的显示屏上能够看到的边缘的方式,以及,计算用户的IPD的方式可参考后续实施例的描述。
在本申请实施例中,GPU用于根据从处理器110处获取到的数据(例如应用程序提供的数据)执行数学和几何运算,利用计算机图形技术、计算机仿真技术等来渲染图像,确定用于在头戴式显示设备200上显示的图像。在一些实施例中,GPU可以将校正或预失真添加到图像的渲染过程中,以补偿或校正由头戴式显示设备200的光学组件引起的失真。
在一些实施例中,GPU还用于根据从处理器110获取到的用户的IPD,确定用于在头戴式显示设备200上显示的图像。GPU确定头戴式显示设备200上显示的图像的方式可参考后续实施例的相关描述,在此暂不赘述。
在本申请实施例中,电子设备100可通过移动通信模块150、无线通信模块160或者有线接口将GPU处理后得到的图像发送给头戴式显示设备200。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
图3B是本申请实施例的电子设备100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图3B所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图3B所示,应用程序框架层可以包括窗口管理器(window manager),内容提供器,视图系统,电话管理器,资源管理器,通知管理器、屏幕管理器(display manager、活动管理器(activity manager service)、输入管理器(input manager)等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。在本申请实施例中,窗口管理器、屏幕管理器和活动管理器可合作生成用于在头戴式显示设备200上所显示的图像。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,头戴式显示设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
参考图3C,所述头戴式显示设备200可包括:处理器201、存储器202、通信模块203、传感器系统204、摄像头205、显示装置206、音频装置207。以上各个部件可以耦合连接并相互通信。
可理解的,图3C所示的结构并不构成对头戴式显示设备200的具体限定。在本申请另一些实施例中,头戴式显示设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。例如,头戴式显示设备200还可以包括物理按键如开关键、音量键、各类接口例如用于支持头戴式显示设备200和电子设备100连接的USB接口等等。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器201可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制,使得各个部件执行相应的功能,例如人机交互、运动跟踪/预测、渲染显示、音频处理等。
存储器202存储用于执行本申请实施例提供的显示方法的可执行程序代码,该可执行程序代码包括指令。存储器202可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储头戴式显示设备200使用过程中所创建的数据(比如音频数据等)等。此外,存储器202可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器201通过运行存储在存储器202的指令,和/或存储在设置于处理器中的存储器的指令,执行头戴式显示设备200的各种功能应用以及数据处理。
通信模块203可包括无线通信模块。无线通信模块可以提供应用在头戴式显示设备200上WLAN,BT,GNSS,FM,IR等无线通信的解决方案。无线通信模块可以是集成至少一个通信处理模块的一个或多个器件。通信模块203可支持头戴式显示设备200和电子设备100进行通信。可理解的,在一些实施例中,所述头戴式显示设备200也可不包括通信模块203,本申请实施例对此不作限制。
传感器系统204可包括加速度计、指南针、陀螺仪、磁力计、或用于检测运动的其他传感器等。传感器系统204用于采集对应的数据,例如加速度传感器采集头戴式显示设备200加速度、陀螺仪传感器采集头戴式显示设备200的运动速度等。传感器系统204采集到的数据可以反映佩戴该头戴式显示设备200的用户头部的运动情况。在一些实施例中,传感器系统204可以为设置在头戴式显示设备200内的惯性测量单元(inertial measurementunit,IMU)。在一些实施例中,所述头戴式显示设备200可以将传感器系统获取到的数据发送给所述电子设备100进行分析。所述电子设备100可以根据各个传感器采集到的数据,确定用户头部的运动情况,并根据用户头部的运动情况执行对应的功能,例如启动测量IPD的功能等。也就是说,用户可以可通过在所述头戴式显示设备200上输入头部运动操作,来触发所述电子设备100执行对应的功能。用户头部的运动情况可包括:是否转动、转动的方向等等。
传感器系统204还可以包括光学传感器,用于结合摄像头205来跟踪用户的眼睛位置以及捕获眼球运动数据。该眼球运动数据例如可以用于确定用户的眼间距、每只眼睛相对于头戴式显示设备200的3D位置、每只眼睛的扭转和旋转(即转动、俯仰和摇动)的幅度和注视方向等等。在一个示例中,红外光在所述头戴式显示设备200内发射并从每只眼睛反射,反射光由摄像头205或者光学传感器检测到,检测到的数据被传输给所述电子设备100,以使得所述电子设备100从每只眼睛反射的红外光的变化中分析用户眼睛的位置、瞳孔直径、运动状态等。
摄像头205可以用于捕捉捕获静态图像或视频。该静态图像或视频可以是面向外部的用户周围的图像或视频,也可以是面向内部的图像或视频。摄像头205可以跟踪用户单眼或者双眼的运动。摄像头205包括但不限于传统彩色摄像头(RGB camera)、深度摄像头(RGB depth camera)、动态视觉传感器(dynamic vision sensor,DVS)相机等。深度摄像头可以获取被拍摄对象的深度信息。在一些实施例中,摄像头205可用于捕捉用户眼睛的图像,并将图像发送给所述电子设备100进行分析。所述电子设备100可以根据摄像头205采集到的图像,确定用户眼睛的状态,并根据用户眼睛所处的状态执行对应的功能。也就是说,用户可通过在所述头戴式显示设备200上输入眼睛运动操作,来触发所述电子设备100执行对应的功能。用户眼睛的状态可包括:是否转动、转动的方向、是否长时间未转动、看向外界的角度等等。
所述头戴式显示设备200通过GPU,显示装置206,以及应用处理器等来呈现或者显示图像。
GPU为图像处理的微处理器,连接显示装置206和应用处理器。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示装置206可包括:一个或多个显示屏、一个或多个光学组件。该一个或多个显示屏包括所述显示屏101和所述显示屏103。该一个或多个光学组件包括所述光学组件102和所述光学组件104。这里,所述显示屏101、所述显示屏103、所述光学组件102和所述光学组件104的结构以及它们之间的位置关系可参考图1中的相关描述。后续方法实施例中,为了描述方便,所述头戴式显示设备200的显示装置206中各个器件的标号沿用图1中的标号,即头戴式显示设备200包括显示屏101、显示屏103、光学组件102和光学组件104。
在本申请实施例中,头戴式显示设备200中的显示屏,例如所述显示屏101、所述显示屏103,用于接收电子设备100的GPU处理后的数据或内容(例如经过渲染后的图像),并将其显示出来。在这种情况下,所述头戴式显示设备200可以为计算能力有限的VR眼镜等终端设备,需要和所述头戴式显示设备200配合为用户呈现3D场景,给用户提供VR/AR/MR体验。
所述显示屏101和显示屏103上显示的图像具有视差,从而模拟双眼视觉,可以使得用户感受到该图像对应物体的深度,从而产生真实的3D感。
显示屏,例如所述显示屏101、所述显示屏103,可包括显示面板,显示面板可以用于显示图像,从而为用户呈现立体的虚拟场景。显示面板可以采用液晶显示装置LCD,OLED,AMOLED,FLED,Miniled,MicroLed,Micro-oLed,QLED等。
光学组件,例如所述光学组件102、所述光学组件104,用于将来自显示屏的光引导至出射光瞳以供用户感知。在一些实施方式中,光学组件中的一个或多个光学元件(例如透镜)可具有一个或多个涂层,诸如,抗反射涂层。光学组件对图像光的放大允许显示屏在物理上更小、更轻、消耗更少的功率。另外,图像光的放大可以增加显示屏显示的内容的视野。例如,光学组件可以使得显示屏所显示的内容的视野为用户的全部视野。
光学组件还可用于校正一个或多个光学误差。光学误差的示例包括:桶形失真、枕形失真、纵向色差、横向色差、球面像差、彗形像差、场曲率、散光等。在一些实施方式中,提供给显示屏显示的内容被预先失真,由光学组件在从显示屏接收基于内容产生的图像光时校正该失真。
音频装置207用于实现音频的采集以及输出。音频装置207可包括但不限于:麦克风、扬声器、耳机等等。
基于上述图2实施例描述的系统10、图3A及图3B实施例描述的电子设备100及图3C实施例描述的头戴式显示设备200,下面以所述电子设备100和所述头戴式显示设备200配合提供3D场景为例,详细描述本申请实施例提供的显示方法。
在该显示方法中,所述电子设备100可以在用户佩戴所述头戴式显示设备200时,确定该用户的IPD,根据该用户的IPD确定用于在所述头戴式显示设备200上显示的图像,并将该图像显示在所述头戴式显示设备200上。该显示方法在所述头戴式显示设备200上显示图像时,考虑到了用户的IPD,这使得用户在观看3D场景中的物体时的辐辏过程自然、舒适,且辐辏后用户实际感受到的3D场景和电子设备构造的3D场景一致,提高了用户佩戴的舒适感,避免了场景失真。后续实施例将通过下面(一)、(二)、(三)三个部分来详细描述该显示方法。
(一)所述电子设备100获取用户的IPD
所述电子设备100可通过用户在所述头戴式显示设备的显示屏上能够看到的最左侧边缘和最右侧边缘来计算用户的IPD。因为,在所述头戴式显示设备200中,显示屏、光学组件和镜筒之间的相对位置已经确定,IPD为影响用户在显示屏上能够看到的最左侧边缘和最右侧边缘的主要因素。所以,所述电子设备100可以根据用户在所述头戴式显示设备200的显示屏上能够看到的最左侧边缘和最右侧边缘来获取用户的IPD。
参考图4A,图4A示例性示出了IPD小于IOD的用户佩戴所述头戴式显示设备200时,双眼和所述光学组件102、所述光学组件104之间的位置关系图。
参考图4B,图4B示例性示出了IPD大于IOD的用户佩戴所述头戴式显示设备200时,双眼和所述光学组件102、所述光学组件104之间的位置关系图。
如图4A及图4B所示,可以将用户佩戴所述头戴式显示设备200时,用户左眼相对所述第一直线的偏移量称为Δi1。所述Δi1为带有符号的值。用户左眼和所述第一直线之间的距离等于所述Δi1的绝对值。在本申请的一些实施例中,可以作以下设定:所述Δi1为正值时,表示用户左眼相对所述第一直线向右偏移;所述Δi1为负值时,表示用户左眼相对所述第一直线向左偏移。在其他一些实施例中,也可以作其他设定,本申请实施例对此不作限制。
如图4A及图4B所示,可以将用户所述佩戴头戴式显示设备200时,用户右眼相对所述第二直线的偏移量称为Δi2。所述Δi2为带有符号的值。用户右眼和所述第二直线之间的距离等于所述Δi2的绝对值。在本申请的一些实施例中,可以作以下设定:所述Δi2为正值时,表示用户右眼相对所述第二直线向右偏移;所述Δi2为负值时,表示用户右眼相对所述第二直线向左偏移。在其他一些实施例中,也可以作其他设定,本申请实施例对此不作限制。
由图4A和图4B示出的用户佩戴所述头戴式显示设备200时双眼和所述光学组件102、所述光学组件104之间的位置关系可知,所述电子设备100可以根据公式1来获取用户的IPD。
IPD=IOD-Δi1+Δi2公式1
在公式1中,所述IPD是当前佩戴所述头戴式显示设备200的用户的实际瞳距。
所述IOD是所述光学组件102的中心和所述光学组件104的中心之间的距离。
所述Δi1,和,用户左眼在所述显示屏101上能够看到的最左侧边缘和最右侧边缘相关联,即所述Δi1的值可以由用户左眼在所述显示屏101上能够看到的最左侧边缘和最右侧边缘确定。
所述Δi2,和,用户右眼在所述显示屏103上能够看到的最左侧边缘和最右侧边缘相关联,即所述Δi2的值可以由用户右眼在所述显示屏103上能够看到的最左侧边缘和最右侧边缘确定。
所述电子设备100根据公式1来获取用户的IPD时,需要确定以下3个参数的值:所述IOD、所述Δi1和所述Δi2。下面将详细描述所述电子设备100如何确定该3个参数的值。
(1)所述电子设备100确定所述IOD
所述头戴式显示设备200出厂后,所述IOD即固定。一般情况下,同一型号的头戴式显示设备具有相同的IOD。
在一些实施例中,所述电子设备100可以在预先安装的用于管理所述头戴式显示设备200的应用程序的安装包中获取所述IOD的具体值。
在另一些实施例中,所述电子设备100还可以在连接到所述头戴式显示设备200并获取该头戴式显示设备200的型号后,从互联网获取该头戴式显示设备200的IOD的具体值。
(2)所述电子设备100确定所述Δi1
由于所述Δi1的值影响用户左眼在所述显示屏101上能够看到的最左侧边缘和最右侧边缘,所述电子设备100可以根据用户左眼在所述显示屏101上能够看到的最左侧边缘和最右侧边缘来确定所述Δi1。
后续实施例将通过下面1、2两个部分来详细描述所述电子设备100如何确定所述Δi1。
1、所述电子设备100获取第一位置和第二位置,所述第一位置位于用户的左眼在所述显示屏101上能够看到的最左侧边缘,所述第二位置位于用户的左眼在所述显示屏101上能够看到的最右侧边缘。
在本申请实施例中,所述电子设备100可以通过所述头戴式显示设备200显示用户界面,该用户界面可用于用户指示所述第一位置和所述第二位置。所述电子设备100可以根据用户的指示来获取所述第一位置和所述第二位置。
下面以图5A-图5C所示的用户界面为例,详细介绍所述电子设备100如何获取所述第一位置和所述第二位置。
图5A示例性示出了所述头戴式显示设备200上显示的用户界面51和用户界面52。所述用户界面51和所述用户界面52是由所述电子设备100生成并传输给该头戴式显示设备200的。示例性的,所述用户界面51可以显示在所述显示屏101上,所述用户界面52可以显示在所述显示屏103上。具体实现中,所述电子设备100可以根据预先存储的3D场景信息构造3D场景。该3D场景信息描述了让用户感受到的3D场景的一些信息。也就是说,该3D场景信息指示用户处于该3D场景中时能够看到的物体,以及,各个物体和用户之间的相对位置。然后,所述电子设备100可以模拟或者假定用户自然地身处构造的该3D场景中,获取该用户左眼看到的图像,将该图像显示于所述显示屏101上,从而通过所述显示屏101显示所述用户界面51;获取该用户右眼看到的图像,将该图像显示于所述显示屏103上,从而通过所述显示屏103显示所述用户界面52。
需要注意的是,为了让用户感受到3D场景,所述显示屏101显示的所述用户界面51的图像和所述显示屏103显示的所述用户界面52的图像具有视差。
如图5A所示,所述用户界面51和所述用户界面52中均显示有:提示框501、控件502、控件503、光标504。
所述光标504位于所述用户界面51的某一个位置上。用户可以通过所述输入设备300来调整所述光标504在所述用户界面51中的位置,即用户可以通过所述输入设备300来移动所述光标504。用户通过所述输入设备300来移动所述光标504的具体实现可参考图2所示系统10中的相关描述。所述光标504的实现形式可以包括箭头、圆圈或其他图标。图5A中示出的所述光标504位于所述控件503上。
所述提示框501用于显示提示信息。所述提示信息可以用于提示用户。例如,所述提示信息可以是文本“是否测量瞳距?测量瞳距后可为您呈现更佳的视觉效果!”,用于提示用户测量IPD以及测量IPD后的效果。
所述控件503用于停止启动所述电子设备100的测量IPD的功能。所述电子设备100响应于用户和控件502的交互,不测量用户的IPD。
所述控件503用于启动所述电子设备100的测量IPD的功能。所述电子设备100可以响应于用户和所述控件503的交互,开始测量用户的IPD。
在本申请实施例中,所述电子设备100通过所述头戴式显示设备200显示如图5A所示的所述用户界面51和所述用户界面52后,可以响应于用于启动所述电子设备100的测量IPD的功能的用户操作,启动所述电子设备100的测量IPD的功能。该用于启动所述电子设备100的测量IPD的功能的用户操作由用户根据所述用户界面51和所述用户界面52输入。
在一些实施例中,该用于启动所述电子设备100的测量IPD的功能的用户操作可以是所述输入设备300检测到的:所述输入设备300在发生运动后,所述输入设备300的确认按键被按压的用户操作。基于所述光标504在所述用户界面51和所述用户界面52中的起点,所述输入设备300发生的所述运动使得所述光标504在所述用户界面51和所述用户界面52中移动后的终点,和所述控件503所在位置相同。也就是说,所述输入设备300发生的所述运动结束时所述光标504位于所述控件503上。响应于所述输入设备100发生的所述运动,所述电子设备将所述光标504移动至所述控件503上,所述光标504移动至所述控件503上的移动轨迹由所述输入设备100发生所述运动时的运动轨迹确定。具体实现中,所述输入设备300可以采集到特定数据(例如加速度传感器采集到的加速度、陀螺仪传感器采集到的的运动速度及运动方向),并可以将该特定数据发送给所述电子设备100,该特定数据表明:所述输入设备300在发生所述运动后,所述输入设备300的确认按键被按压。所述电子设备100可以根据该特定数据启动测量IPD的功能。也就是说,用户可以操控所述输入设备300运动以触发所述电子设备100将所述光标504移动至所述控件503上后,然后按压所述输入设备300的确认按键,触发所述电子设备100启动测量IPD的功能。
在一些实施例中,该用于启动所述电子设备100的测量IPD的功能的用户操作可以是所述头戴式显示设备200检测到的:用户的头部往特定方向转动的操作。该特定方向可以是该用户的左方、右方、上方或下方等。具体实现中,所述头戴式显示设备200的所述传感器系统204中的传感器可以采集到特定数据(例如陀螺仪传感器采集到的的运动速度及运动方向),并将该特定数据发送给电子设备100,该特定数据表明:用户的头部往特定方向转动。所述电子设备100可以根据该特定数据启动测量IPD的功能。也就是说,用户可以通过往特定方向转动头部,触发所述电子设备100启动测量IPD的功能。
在一些实施例中,该用于启动所述电子设备100的测量IPD的功能的用户操作可以是所述头戴式显示设备200检测到的语音指令。该语音指令例如可以是“开始测量”。具体实现中,所述头戴式显示设备200的麦克风可以采集用户输入的语音数据,并将该语音数据发送至所述电子设备100,该语音数据表明该语音指令。所述电子设备100可以根据该语音数据启动测量IPD的功能。也就是说,用户可以通过说出语音指令,触发所述电子设备100启动测量IPD的功能。
在一些实施例中,该用于启动所述电子设备100的测量IPD的功能的用户操作可以是所述头戴式显示设备200检测到的:用户的左眼望向所述控件503且在预设时长内未发生转动的用户操作。具体实现中,所述头戴式显示设备200的摄像头可以采集到用户眼球的特定图像,并将该特定图像发送给所述电子设备100,该特定图像表明:用户的左眼望向所述控件503且在预设时长内未发生转动。所述电子设备100可以根据该特定图像启动测量IPD的功能。也就是说,用户可以通过长时间地看向所述控件503,触发所述电子设备100启动测量IPD的功能。
不限于上述实施例示例性列举的方式,在本申请实施例中,用于启动所述电子设备100的测量IPD的功能的用户操作还可以为其他形式。例如用于启动所述电子设备100的测量IPD的功能的用户操作还可以是所述头戴式显示设备200检测到的:用户的左眼望向所述控件503时的两次眨眼操作等等。本申请实施例不再对其他形式的用于启动所述电子设备100的测量IPD的功能的用户操作一一进行列举。
响应于用于启动所述电子设备100的测量IPD的功能的用户操作,所述电子设备100可以启动测量用户IPD的功能,开始测量用户的IPD。
图5B示例性示出了所述头戴式显示设备200上显示的用户界面53和用户界面54。所述用户界面53和所述用户界面54可以是由所述电子设备100启动测量用户IPD的功能时,所述电子设备100生成并传输给所述头戴式显示设备200的,即,所述该用户界面53和所述用户界面54可以是由所述电子设备100响应于用于启动所述电子设备100的测量IPD的功能的用户操作生成并传输给该头戴式显示设备200的。所述电子设备100生成所述用户界面53和所述用户界面54的方式,可参考所述电子设备100生成所述用户界面51和所述用户界面52的方式,这里不再赘述。
如图5B所示,所述用户界面53显示在所述显示屏101上,所述用户界面54显示在所述显示屏103上。所述显示屏103显示所述用户界面54时,可以黑屏(即所述头戴式显示设备200停止所述显示屏103的电源供应),也可以显示黑色的图像。这样可以帮助用户将注意力集中在左眼上。
所述用户界面53中显示有:光标504、图像505、提示框506。其中:
所述光标504位于所述用户界面53中的某一位置上。所述光标504可参考图5A所示的所述用户界面51和所述用户界面52中的光标504,这里不再赘述。
所述提示框506用于显示提示信息。所述提示信息可以用于提示用户。例如所述提示信息可以是文本“请您尽量将左眼往左侧看,将滑块拖动到您能看到的左侧边缘位置并确认”,用于提示用户指示第一位置。在本申请实施例中,第一提示信息可以是所述提示信息。不限于在所述用户界面53中显示的所述提示信息,第一提示信息还可以是所述电子设备100输出的语音或其他类型的提示信息等,本申请实施例对此不作限制。
本申请实施例对所述图像505的内容不做限制。所述图像505例如可以是带有滑块的标尺的图像等,该带有滑块的标尺和所述第三直线平行且经过所述显示屏101的中点,即该带有滑块的标尺和位于所述第四直线上。以下实施例以所述图像505为带有滑块的标尺的图像为例进行说明。
在本申请实施例中,所述电子设备100可以在显示如图5B所示的用户界面后,响应于用于指示所述第一位置的用户操作获取所述第一位置。该用于指示所述第一位置的用户操作由用户根据所述显示屏101上显示的所述用户界面53输入。
在一些实施例中,该用于指示所述第一位置的用户操作可以是所述输入设备300检测到的:所述输入设备300发生第一轨迹的运动后,所述输入设备300的确认按键被按压的同时所述输入设备300发生第二轨迹的运动,之后,所述输入设备300的确认按键被停止按压的操作。其中,基于所述光标504在所述用户界面53上的起点,所述输入设备300发生的所述第一轨迹的运动使得所述光标504在所述用户界面53中移动后的终点和所述滑块的图像所在位置相同;所述输入设备300发生所述第二轨迹的运动后,所述光标504在所述用户界面53中移动后的终点为所述滑块的图像结束移动的位置。
具体实现中,所述输入设备300可以采集到特定数据(例如加速度传感器采集到的加速度、陀螺仪传感器采集到的的运动速度及运动方向),并可以将该特定数据发送给所述电子设备100,该特定数据表明:所述输入设备300发生所述第一轨迹的运动后,所述输入设备300的确认按键被按压的同时所述输入设备300发生第二轨迹的运动,之后该确认按键被停止按压。
响应于该用于指示所述第一位置的用户操作,所述电子设备100移动所述光标504至所述滑块的图像上,然后移动所述光标504和所述滑块的图像,并将所述滑块的图像结束移动的位置确定为所述第一位置。也就是说,用户可以通过操控所述输入设备300做所述第一轨迹的运动以触发所述电子设备100将所述光标504移动至滑块的图像上,之后按压所述输入设备300的确认按键并同时操控所述输入设备300做所述第二轨迹的运动,然后停止按压所述确认按键,来指示所述第一位置。
在一些实施例中,该用于指示所述第一位置的用户操作可以是所述头戴式显示设备200检测到的:用户的左眼在预设时长内未发生转动的用户操作。具体实现中,所述头戴式显示设备200的摄像头可以采集到用户眼球的特定图像,并将该特定图像发送给所述电子设备100,该特定图像表明:用户的左眼在预设时长内未发生转动。所述电子设备100可根据该特定图像,将用户的左眼在预设时长内未发生转动时望向所述显示屏101的位置确定为所述第一位置。也就是说,用户可以通过长时间地看向所述显示屏101中的某个位置,来将该位置指示为所述第一位置。
在一些实施例中,所述头戴式显示设备200也可以在采集到所述特定图像后,将根据该特定图像确定的用户的左眼在预设时长内未发生转动时看向所述显示屏101的位置确定为所述第一位置。之后,所述头戴式显示设备200可以将确定的所述第一位置发送给所述电子设备100,使得所述电子设备100获取所述第一位置。
在本申请实施例中,所述头戴式显示设备200采集到的所述用户眼球的图像用于通过采集所述用户的操作数据得到。
不限于上述实施例示例性列举的形式,在本申请实施例中,所述用于指示所述第一位置的用户操作还可以为其他形式。本申请实施例不再对其他形式的用于指示所述第一位置的用户操作一一进行列举。
所述电子设备100还可以通过和上述图5B-图5C实施例所示的相同的方式来获取所述第二位置。例如,所述电子设备100获取所述第一位置之后,可以将所述头戴式显示设备200显示的所述用户界面53中提示框的提示信息更改为文本“请您尽量将左眼往右侧看,将滑块拖动到您能看到的右侧边缘位置并确认”。之后,所述头戴式显示设备200或输入设备300可以检测到用于指示所述第二位置的用户操作,并将检测到的表征该用于指示所述第二位置的用户操作的特定数据或特定图像发送给所述电子设备100,所述电子设备100可以根据该特定数据或特定图像来获取所述第二位置。该用于指示所述第二位置的用户操作由用户根据所述显示屏101上显示的所述用户界面53输入。该用于指示所述第二位置的用户操作和所述用于指示所述第一位置的用户操作类似,可以参考所述用于指示所述第一位置的用户操作,这里不再详细描述。
在本申请实施例中,第二提示信息可以是在所述用户界面53中显示的用于提示用户指示所述第二位置的提示信息,例如可以为上述文本“请您尽量将左眼往右侧看,将滑块拖动到您能看到的右侧边缘位置并确认”。不限于此,第一提示信息还可以是所述电子设备100输出的语音或其他类型的提示信息等,本申请实施例对此不作限制。
在本申请实施例中,第一用户界面可以是所述显示屏101上显示的用于用户指示所述第一位置和所述第二位置的用户界面。例如,所述第一用户界面可以为如图5B所示的用户界面53。需要注意的是,所述用户界面53仅为示例,所述第一用户界面还可以实现为其他形式,本申请实施例对此不作限制。
本申请实施例对所述电子设备100获取所述第一位置和所述第二位置的时间先后顺序不作限制。在一些实施例中,所述电子设备100可以先根据检测到的所述用于指示所述第一位置的用户操作获取所述第一位置,再根据检测到的所述用于指示所述第二位置的用户操作获取所述第二位置。在另一些实施例中,电子设备100可以先根据检测到的所述用于指示所述第二位置的用户操作获取所述第二位置,再根据检测到的所述用于指示所述第一位置的用户操作获取所述第一位置。
在一些实施例中,所述电子设备100可以在所述头戴式显示设备200首次开机时,输出所述用户界面51和所述用户界面52。这样,所述电子设备100可以在所述头戴式显示设备200首次开机时获取所述第一位置和所述第二位置,从而获取用户的IPD,并根据用户的IPD在所述头戴式显示设备200上显示图像。这样在所述头戴式显示设备200首次开机后,就可以保证用户佩戴所述头戴式显示设备200时能够舒适、轻松且自然地辐辏,并且实际感受到的3D场景和所述电子设备100构造的场景一致。
在一些实施例中,所述电子设备100可以周期性地输出所述用户界面51和所述用户界面52。例如,所述电子设备100可以每月一次或每周一次的频率在所述头戴式显示设备200上显示所述用户界面51和所述用户界面52,从而周期性地获取用户的IPD,并根据用户的IPD在所述头戴式显示设备200上显示图像。这样即使用户的IPD有所变化,也能保证用户佩戴所述头戴式显示设备200时能够舒适、轻松且自然地辐辏,并且实际感受到的3D场景和所述电子设备100构造的场景一致。
在一些实施例中,所述电子设备100可以根据用户需求输出所述用户界面51和所述用户界面52。例如,用户可以在长时间未使用所述头戴式显示设备200后,在所述头戴式显示设备200显示的设置界面中主动触发所述电子设备100输出所述用户界面51和所述用户界面52。
在一些实施例中,所述电子设备100可以在有新用户佩戴该头戴式显示设备200时,输出所述用户界面51和所述用户界面52。具体的,所述电子设备100可以在用户佩戴所述头戴式显示设备200时,识别当前用户是否为新用户。所述电子设备100可以通过生物特征例如虹膜、指纹、声纹、人脸等等来识别用户,生物特征可以由所述头戴式显示设备200或所述电子设备100来采集。这样,所述电子设备100可以确定每一个用户的IPD,并适应于不同用户的IPD在所述头戴式显示设备200上显示图像,保证每个用户佩戴所述头戴式显示设备200时能够舒适、轻松且自然地辐辏,并且实际感受到的3D场景和所述电子设备100构造的场景一致,给每个用户都带来良好的视觉体验。
不限于通过图5A-图5C中所示的输出特殊的所述第一用户界面的方式,在其他一些实施例中,所述电子设备100还可以通过其他方式来获取所述第一位置和所述第二位置。例如,所述头戴式显示设备200可以通过摄像头采集用户使用所述头戴式显示设备200一段时间内(例如一周或一个月内)的眼球图像,并将该图像发送至所述电子设备100,由所述电子设备100根据该图像确定这段时间内用户左眼能够看到的所述显示屏101上的最左侧边缘和最右侧边缘,从而获取所述第一位置和所述第二位置。这样,无需用户特意操作或反馈,所述电子设备100即可确定所述Δi1,从而获取用户的IPD,并根据用户的IPD在所述头戴式显示设备200上显示图像。这种方式对于用户来说更加简单方便,体验更佳。
2、所述电子设备100根据所述第一位置和所述第二位置确定所述Δi1。
所述电子设备100可以根据用户佩戴所述头戴式显示设备200时的几何关系,来计算所述Δi1。下面将详细介绍该几何关系,并推导所述Δi1的计算公式。
参考图6,图6为本申请实施例中所述电子设备100可以获取到的用户佩戴所述头戴式显示设备200时的几何关系示意图。其中:
C’为用户佩戴所述头戴式显示设备200时左眼所在位置。
O’为所述显示屏101的中心。
J为所述第一位置,K为所述第二位置。J、K的确定方式可参考前文第(1)点中的相关描述。
D为所述光学组件102左侧边缘和所述第三直线的交点,E为所述光学组件102的右侧边缘和所述第三直线的交点。
O为虚像面的中心,也是O’在虚像面上对应的成像点,还是所述第一直线和虚像面的交点。A’、B’分别为J、K在虚像面上对应的成像点。
由于A’是所述第一位置的虚像点,A’、D及C’位于同一条直线上。由于B’是所述第二位置的虚像点,B’、E及C’位于同一条直线上。
C为所述第一直线上的一个点。A、B分别为假定用户的左眼位于C点时,该假定的用户左眼对应的第一位置和第二位置在虚像面上的成像点。A、D及C位于同一条直线上,B、E及C位于同一条直线上。
F为经过D作虚像面的垂线后所得到的的垂足。H为经过E作虚像面的垂线后所得到的的垂足。G为经过C’作虚像面的垂线后所得到的的垂足。
C’相对所述第一直线的偏移量为Δi1。
假定所述第一位置位于所述第四直线上(即J点位于第四直线上),则A’、D、F、C’、G位于同一平面上。假定所述第二位置位于所述第四直线上,(即K点位于第四直线上),则B’、E、H、C’、G位于同一平面上。那么从图6所示的几何关系可知,有以下两对相似三角形:
ΔA′DF~ΔA′C′G
ΔB′EH~ΔB′C′G
因此,可以得到以下比例关系:
由于D、E所在的所述第三直线和虚像面平行,DF=EH。因此,可以得到以下关系:
由图6可知,A′F=A′O-L/2,A′G=A′O+Δi1,B′H=B′O-L/2,B′G=B′O-Δi1。其中,L为所述光学组件102的直径。可以得到以下关系:
根据成像原理可知,A′O=M×JO′,B′O=M×KO′。M为所述光学组件102对图像光的放大倍数。因此,可以推导出以下公式2,所述电子设备100可以根据公式2来计算得到所述Δi1:
根据公式2计算出的所述Δi1是具有符号的值。所述Δi1的值为正时,表示用户的左眼相对所述第一直线向右偏移;当所述Δi1的值为负时,表示用户的左眼相对所述第一直线向左偏移。用户的左眼相对所述第一直线的偏移距离为所述Δi1的绝对值。
在本申请的一些实施例中,所述第一位置不在所述第四直线上,或者,所述第二位置不在所述第四直线上时,图6所示的几何关系实际上不成立。在这种情况下,可以假定图6所示的几何关系成立并根据公式2来计算所述Δi1。此时计算出来所述的Δi1和其代表的用户左眼相对所述第一直线的偏移量稍有误差,但可以使得用户可以通过更丰富的形式来指示所述第一位置和所述第二位置。例如,所述电子设备100通过所述头戴式显示设备200的所述显示屏101显示所述用户界面53时,所述用户界面53中的标尺可以和所述第三直线平行且偏离所述显示屏101的中点,用户可以根据该用户界面53来指示所述第一位置和所述第二位置。
所述电子设备100根据公式2来计算所述Δi1时,需要确定以下几个参数的值:M、L、JO′和KO′。下面详细描述所述电子设备100如何确定这几个参数的值。
M为所述光学组件102的放大倍数。部分头戴式显示设备的M值是固定的,为虚像像高和实像像高的比值,在这种情况下,所述电子设备100可以在预先安装的用于管理所述头戴式显示设备200的应用程序的安装包中获取M的值,也可以在获取该头戴式显示设备200的型号后,根据该型号从互联网获取M的值。部分头戴式显示设备的M值是可调的,在这种情况下,所述电子设备100可以先获取该头戴式显示设备的调焦信息(例如滑动变阻器的当前阻值),并根据该调焦信息来计算所述头戴式显示设备200的当前M值。
L为所述光学组件102的直径。头戴式显示设备出厂后,L即固定,且一般情况下同一型号的头戴式显示设备具有相同的L。在一些实施例中,所述电子设备100可以在预先安装的用于管理所述头戴式显示设备200的应用程序的安装包中获取L的值。在另一些实施例中,所述电子设备100还可以在连接到所述头戴式显示设备200并获取该头戴式显示设备200的型号后,根据该型号从互联网获取该头戴式显示设备200的L的值。
JO′为用户佩戴所述头戴式显示设备200时,所述第一位置到所述显示屏101中心的距离。所述电子设备100可以根据所述第一位置计算得到该值。所述第一位置的确定方式可参照上述第1点的相关描述。在一个具体的实施例中,所述电子设备100可计算所述第一位置距离所述显示屏101中心的像素点个数,再用像素点个数乘以每个像素点的大小即可获取JO′的值。
KO′为用户佩戴所述头戴式显示设备200时,所述第二位置到所述显示屏101中心的距离。所述电子设备100可以根据确定的所述第二位置计算得到该值。所述第二位置的确定方式可参照上述第1点的相关描述。在一个具体的实施例中,所述电子设备100可计算所述第二位置距离所述显示屏101中心的像素点个数,再用像素点个数乘以每个像素点的大小即可获取KO′的值。
(3)所述电子设备100确定所述Δi2
由于所述Δi2的值影响用户右眼在所述显示屏103上能够看到的最左侧边缘和最右侧边缘,所述电子设备100可以根据用户右眼在所述显示屏103上能够看到的最左侧边缘和最右侧边缘来确定所述Δi2。
具体的,所述电子设备100可以获取所述第三位置和所述第四位置,所述第三位置位于用户的右眼在所述显示屏103上能够看到的最左侧边缘,所述第四位置位于用户的右眼在所述显示屏103上能够看到的最右侧边缘。
所述电子设备100获取所述第三位置、所述第四位置的方式,和上述第(1)点中所述电子设备100获取所述第一位置、所述第二位置的方式类似,可参考前文相关描述,这里不再赘述。
例如,所述电子设备100可以通过所述头戴式显示设备200显示用于用户指示所述第三位置、所述第四位置的用户界面。具体的,所述电子设备100可以通过所述头戴式显示设备200的所述显示屏101显示如图5B所示的用户界面54,通过所述显示屏103显示如图5B所示的用户界面53。之后,所述电子设备100可以检测到用于指示所述第三位置的用户操作,并响应于该用于指示所述第三位置的用户操作获取所述第三位置;还可以检测到用于指示所述第四位置的用户操作,并响应于该用于指示所述第四位置的用户操作获取所述第四位置。用于指示所述第三位置的用户操作、用于指示所述第四位置的用户操作由用户根据所述显示屏103上显示的用户界面53输入。所述用于指示所述第三位置的用户操作和所述用于指示所述第四位置的用户操作,可参考所述用于指示所述第一位置的用户操作、所述用于指示所述第二位置的用户操作。
在一些实施例中,所述电子设备100通过所述显示屏101显示的用户界面也可以不是用户界面53,本申请实施例对此不作限制。在本申请实施例中,第二用户界面可以是所述电子设备100通过所述显示屏103显示的用于用户指示所述第三位置、所述第四位置的用户界面。
需要注意的是,本申请实施例对所述电子设备100通过所述显示屏101显示所述第一用户界面、通过所述显示屏103显示所述第二用户界面的时间先后不作限制。可以有先后顺序,也可以同时。
需要注意的是,本申请实施例对所述电子设备100确认所述第一位置、所述第二位置、所述第三位置和所述第四位置的时间先后不作限制。可以有先后顺序,也可以同时。
所述电子设备100根据所述第三位置和所述第四位置确定所述Δi2的方式,和上述第(1)点中所述电子设备100根据所述第一位置和所述第二位置确定所述Δi1的方式类似,可参考前文相关描述,这里不再赘述。例如,所述电子设备100可根据和图6类似的几何关系来计算得到所述Δi2。
至此,通过上述第(1)、(2)、(3)点的描述,所述电子设备100可以确定公式1中的三个参数的具体值,并可以根据上述公式1获取用户的IPD。
在一些可选实施例中,用户的左眼和右眼对称,即用户左眼和右眼所在连线的中垂线,也是所述光学组件102中心和所述光学组件104中心所在连线的中垂线。在这种情况下,所述Δi1和所述Δi2大小相等,符号相反,所述电子设备100可以通过以下公式3或公式4来计算用户的IPD:
IPD=IOD-2×Δi1公式3
IPD=IOD+2×Δi2公式4
这样,所述电子设备100在确定所述Δi1或所述Δi2后,即可获取用户的IPD,减少了所述电子设备100的计算过程。此外,也可以减少用户操作,对于用户来说更加简单方便,可以提升用户体验。
(二)所述电子设备100存储用户的IPD
所述电子设备100可以存储一个或多个用户的IPD。这样,在不同的用户佩戴所述头戴式显示设备200时,所述电子设备100均可以根据用户的IPD确定用于在所述头戴式显示设备200上显示的图像,并将该图像显示在所述头戴式显示设备200上,从而使得用户在观看3D场景中的物体时的辐辏过程自然、舒适,且辐辏后用户实际感受到的3D场景和所述电子设备100构造的3D场景一致。
所述电子设备100可以将用户的IPD存储在本地,也可以存储在云端,本申请实施例对此不作限制。
具体实现中,所述电子设备100可以将获取到的用户的IPD和用户标识关联存储。在其他一些实施例中,除了用户的IPD,所述电子设备100还可以将所述Δi1、所述Δi2中的一项或多项和用户标识关联存储。用户标识可包括用户的姓名、昵称、指纹信息、声纹信息、人脸信息等等。
参考表1,表1示出了一种可能的所述电子设备100关联存储的多个用户标识和对应的IPD、Δi1以及Δi2。这里,所述头戴式显示设备200的所述光学组件102的中心和所述光学组件104的中心之间的距离可以为63mm。
用户标识 | IPD | Δi1 | Δi2 |
用户标识1 | IPD=60.97mm | Δi1=1mm | Δi2=-1.03mm |
用户标识2 | IPD=63mm | Δi1=0mm | Δi2=0mm |
用户标识3 | IPD=65.02mm | Δi1=-1.02mm | Δi2=1mm |
表1用户标识和IPD、Δi1以及Δi2的关联存储表
(三)所述电子设备100根据用户的IPD校正源图像以得到目标图像,并将所述目标同图像发送给所述头戴式显示设备200;所述头戴式显示设备200在显示屏上显示所述目标图像
下面通过以下(1)、(2)点详细描述该过程。
(1)所述电子设备100根据用户的IPD校正源图像以得到目标图像。
在本申请实施例中,所述目标图像是所述电子设备100发送给所述头戴式显示设备200,以供所述头戴式显示设备200在显示屏上所显示的图像。所述目标图像包括第一目标图像和第二目标图像;所述第一目标图像显示于所述显示屏101上,所述第二目标图像显示于所述显示屏103上。在一些实施例中,所述第一目标图像的尺寸等于所述显示屏101的尺寸,所述第二目标图像的尺寸等于所述显示屏103的尺寸。
具体的,所述电子设备100先获取源图像,根据用户的IPD校正该源图像,从而得到所述目标图像。通常情况下,所述源图像可以预置在所述电子设备100安装的应用程序的安装包中
先描述在一些场景例如游戏场景下,所述电子设备100如何根据IPD校正源图像以得到所述目标图像。在一些实施例中,所述源图像包含多组数据;一组所述数据对应一个IPD,用于为具有所述一个IPD的用户构建3D场景。该3D场景是电子设备100想要为用户呈现的3D场景。换句话说,所述源图像可以指示用户处于该3D场景中时能够看到的物体,以及,各个物体和用户之间的相对位置。
电子设备100可以先根据用户的IPD,利用所述源图像生成第一图像和第二图像,所述第一图像和所述第二图像为具有所述IPD的用户呈现所述3D场景;所述用户的IPD在所述源图像中对应的一组数据包含在所述多组数据中。换句话说,所述电子设备100根据所述源图像,模拟用户自然地身处该3D场景中,根据该用户的IPD获取该用户左眼看到的图像和右眼看到的图像,将该用户左眼看到的图像作为第一图像,将该用户右眼看到的图像作为第二图像。在一些实施例中,所述电子设备100可以通过两个取像相机来获取用户自然地身处该3D场景中时,该用户左眼看到的图像和右眼看到的图像。所述电子设备100通过取像相机获取该用户左眼看到的图像和右眼看到的图像的原理可参照前文实施例的相关描述,在此不再赘述。
示例性地,参考图7A,图7A示例性示出了所述电子设备100想要为用户呈现的3D场景以及模拟用户置身于该3D场景中的情景。如图7A所示,该3D场景中包括:太阳、山、树以及草。
参考图7B,其示例性示出了所述电子设备100根据第一IPD,利用所述源图像生成的第一图像和第二图像。第一IPD等于IOD。
参考图7C,其示例性示出了所述电子设备100根据第二IPD,利用所述源图像生成的第一图像和第二图像。第二IPD不等于IOD。
由于第一IPD和第二IPD不同,图7B中的第一图像和图7C中的第一图像具有视差,图7B中的第二图像和图7C中的第二图像具有视差。
之后,所述电子设备100根据所述第一图像生成第一目标图像,所述第一目标图像为所述第一图像的部分,所述第一目标图像中包含所述第一图像的中心,并且所述第一目标图像中的所述第一图像的中心相对所述第一目标图像的中心的偏移量为所述Δi1;所述电子设备100根据所述第二图像生成第二目标图像,所述第二目标图像为所述第二图像的部分,所述第二目标图像中包含所述第二图像的中心,并且所述第二目标图像中的所述第二图像的中心相对所述第二目标图像的中心的偏移量为所述Δi2。换句话说,所述第一目标图像的中心为将所述第一图像的中心调整所述Δi1的偏移量,所述第二目标图像的中心为将所述第二图像的中心调整所述Δi2的偏移量。
具体的,当所述Δi1为正值时,所述第一目标图像中的所述第一图像的中心相对所述第一目标图像的中心向右偏移;当所述Δi1为负值时,所述第一目标图像中的所述第一图像的中心相对所述第一目标图像的中心向左偏移;并且,偏移的距离为所述Δi1的绝对值。类似的,当所述Δi2为正值时,所述第二目标图像中的所述第二图像的中心相对所述第二目标图像的中心向右偏移;当所述Δi2为负值时,所述第二目标图像中的所述第二图像的中心相对所述第二目标图像的中心向左偏移;并且,偏移的距离为所述Δi2的绝对值。
示例性地,参考图7B,图7B还示例性示出了所述电子设备100根据图7B所示的第一图像生成的第一目标图像、根据图7B中的第二图像生成的第二目标图像。如图7B所示,所述Δi1和所述Δi2均为0。
示例性地,参考图7C,图7C示例性示出了电子设备根据图7C所示的第一图像生成的第一目标图像、根据图7C中的第二图像生成的第二目标图像。如图所示,所述Δi1和所述Δi2均不为0。
再描述在一些场景例如3D电影场景下,所述电子设备100如何根据IPD确定目标图像。在一些实施例中,所述源图像包括第三图像和第四图像;所述第三图像和所述第四图像用于为所述用户呈现3D场景。这里,所述第三图像和所述第四图像可以是由两个摄像头预先拍摄好的、针对相同物体的具有视差的两幅图像。
具体的,所述电子设备100根据所述第三图像生成第一目标图像,所述第一目标图像为所述第三图像的部分,所述第一目标图像中包含所述第三图像的中心,并且所述第一目标图像中的所述第三图像的中心相对所述第一目标图像的中心的偏移量为所述Δi1;所述电子设备100根据所述第四图像生成第二目标图像,所述第二目标图像为所述第四图像的部分,所述第二目标图像中包含所述第四图像的中心,并且所述第二目标图像中的所述第四图像的中心相对所述第二目标图像的中心的偏移量为所述Δi2。换句话说,所述第一目标图像的中心为将所述第三图像的中心调整所述Δi1的偏移量,所述第二目标图像的中心为将所述第四图像的中心调整所述Δi2的偏移量。
这里,所述电子设备100根据所述第三图像生成所述第一目标图像的方式,可参考图7B以及所述电子设备100根据所述第一图像生成所述第一目标图像的方式;所述电子设备100根据所述第四图像生成所述第二目标图像的方式,可参考图7C以及所述电子设备100根据所述第二图像生成所述第二目标图像的方式,这里不再赘述。
(2)所述电子设备100将所述目标图像发送给所述头戴式显示设备200,所述头戴式显示设备200在所述显示屏上显示所述目标图像。
具体的,所述电子设备100将所述第一目标图像和所述第二目标图像发送给所述头戴式显示设备200,以使得所述头戴式显示设备200在所述显示屏101上显示所述第一目标图像,在所述显示屏103显示所述第二目标图像。
参考图8A,其示出了所述头戴式显示设备200显示如图7B所示的第一目标图像和第二目标图像时,实际IPD等于第一IPD的用户使用该头戴式显示设备200在脑海中合成的图像,即该用户实际感受到的3D场景。此时,实际IPD等于第一IPD的用户实际感受到的3D场景和图7A中所述电子设备100想要为用户呈现的3D场景一致。
参考图8B,其示出了所述头戴式显示设备200显示如图7C所示的第一目标图像和第二目标图像时,实际IPD等于第二IPD的用户使用该头戴式显示设备200在脑海中合成的图像,即该用户实际感受到的3D场景。此时,实际IPD等于第二IPD实际感受到的3D场景和图7A中所述电子设备100先要为用户呈现的3D场景一致。
由图8A及图8B可知,无论用户的实际IPD是多少,实施本申请实施例提供的显示方法,都可以使得用户佩戴所述头戴式显示设备200时好像真实地置身于所述电子设备100想要为用户呈现的3D场景中,可让用户在观看3D场景中的物体时的辐辏过程自然、舒适,且辐辏后用户实际感受到的3D场景和所述电子设备100想要为用户呈现的3D场景一致。
可理解的,在上述图5A-图5C、图6、图7A-图7C、图8A-图8B以及相关描述中,在所述电子设备100和所述头戴式显示设备200配合提供VR场景的情况下,所提及的所述头戴式显示设备200显示的图像,均为所述电子设备100生成后发送给所述头戴式显示设备200显示的。所述电子设备100和所述头戴式显示设备200配合提供VR场景的原理可参考前文图2、图3A-图3B以及图3C实施例的相关描述。
不限于上述实施例举例提及的VR场景,本申请实施例提供的显示方法还可以用于AR/MR等场景下,实施原理可参照前文实施例的相关描述。
不限于上述实施例描述的电子设备和头戴式显示设备配合提供VR/AR/MR场景的情况,本申请实施例提供的显示方法还可应用于头戴式显示设备独立提供VR/AR/MR场景的情况。
参考图9A,图9A示出了本申请实施例提供的另一种系统20。该系统20可以利用VR、AR、MR等技术显示图像,使得用户感受到3D场景,为用户提供VR/AR/MR体验。
如图9A所示,该系统20可包括:头戴式显示设备400、输入设备500。所述头戴式显示设备400佩戴于用户头部,所述输入设备500由用户手持。可理解的,所述输入设备500是可选设备,也就是说,所述系统20也可以不包括所述输入设备500。
所述系统20和所述系统10的不同之处在于,所述系统20中不包括电子设备,且所述系统20中的所述头戴式显示设备400集成了所述电子设备100在上述实施例提供的显示方法中所实现的功能以及相关的硬件装置。
所述头戴式显示设备400和所述输入设备500之间可以通过蓝牙、NFC、ZigBee等近距离传输技术无线连接并通信,还可以通过USB接口、HDMI接口或自定义接口等来有线连接并通信。
所述头戴式显示设备400的可实现形式可参考所述头戴式显示设备200。所述输入设备500的实现形式可参考所述输入设备300。用户可以通过在所述输入设备500上输入用户操作,来触发所述头戴式显示设备400执行对应的功能,具体的实现原理可参考所述系统10中的相关描述。
上述实施例中由所述电子设备100和所述头戴式显示设备400执行的操作均可以由该头戴式显示设备400单独执行。例如,所述头戴式显示设备400可以根据用户的指示获取所述第一位置、所述第二位置、所述第三位置和所述第四位置,还可以根据所述第一位置和所述第二位置计算所述Δi1,根据所述第三位置和所述第四位置计算所述Δi2,根据公式1计算IPD,根据用户的IPD生成所述第一图像和所述第二图像并在显示屏上显示所述第一图像和所述第二图像等等。所述头戴式显示设备400执行本申请实施例的显示方法时的各个步骤的具体实现,可参考上述图5A-图5C、图6、图7A-图7C、图8A-图8B以及相关描述。
图9B示出了本申请实施例提供的所述头戴式设备400的结构示意图。
如图9B所示,所述头戴式显示设备400可包括:处理器401、存储器402、通信模块403、传感器系统404、摄像头405、显示装置406、音频装置407。以上各个部件可以耦合连接并相互通信。
可理解的,图9B所示的结构并不构成对所述头戴式显示设备400的具体限定。在本申请另一些实施例中,所述头戴式显示设备400可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。例如,所述头戴式显示设备400还可以包括物理按键如开关键、音量键、各类接口例如USB接口等等。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器401可以包括一个或多个处理单元,例如:处理器110可以包括AP,调制解调处理器,GPU,ISP,控制器,视频编解码器,DSP,基带处理器,和/或NPU等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制,使得各个部件执行相应的功能,例如人机交互、运动跟踪/预测、渲染显示、音频处理等。
存储器402存储用于执行本申请实施例提供的显示方法的可执行程序代码,该可执行程序代码包括指令。存储器402可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储所述头戴式显示设备400使用过程中所创建的数据(比如音频数据等)等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器401通过运行存储在存储器402的指令,和/或存储在设置于处理器中的存储器的指令,执行所述头戴式显示设备400的各种功能应用以及数据处理。
通信模块403可包括移动通信模块和无线通信模块。其中,移动通信模块可以提供应用在所述头戴式显示设备400上的包括2G/3G/4G/5G等无线通信的解决方案。无线通信模块可以提供应用在所述头戴式显示设备400上的包括WLAN,BT,GNSS,FM,IR等无线通信的解决方案。无线通信模块可以是集成至少一个通信处理模块的一个或多个器件。
传感器系统404可包括加速度计、指南针、陀螺仪、磁力计、或用于检测运动的其他传感器等。传感器系统404用于采集对应的数据,例如加速度传感器采集所述头戴式显示设备400加速度、陀螺仪传感器采集所述头戴式显示设备400的运动速度等。传感器系统404采集到的数据可以反映佩戴该头戴式显示设备400的用户头部的运动情况。在一些实施例中,传感器系统404可以为设置在所述头戴式显示设备400内的惯性测量单元(inertialmeasurement unit,IMU)。在一些实施例中,所述头戴式显示设备400可以将传感器系统获取到的数据发送给处理器401进行分析。处理器401可以根据各个传感器采集到的数据,确定用户头部的运动情况,并根据用户头部的运动情况执行对应的功能,例如启动测量IPD的功能等。也就是说,用户可以可通过在所述头戴式显示设备400上输入头部运动操作,来触发头戴式显示设备400执行对应的功能。用户头部的运动情况可包括:是否转动、转动的方向等等。
传感器系统404还可以包括光学传感器,用于结合摄像头405来跟踪用户的眼睛位置以及捕获眼球运动数据。该眼球运动数据例如可以用于确定用户的眼间距、每只眼睛相对于所述头戴式显示设备400的3D位置、每只眼睛的扭转和旋转(即转动、俯仰和摇动)的幅度和注视方向等等。在一个示例中,红外光在所述头戴式显示设备400内发射并从每只眼睛反射,反射光由摄像头405或者光学传感器检测到,检测到的数据被传输给处理器401,以使得处理器401从每只眼睛反射的红外光的变化中分析用户眼睛的位置、瞳孔直径、运动状态等。
摄像头405可以用于捕捉捕获静态图像或视频。该静态图像或视频可以是面向外部的用户周围的图像或视频,也可以是面向内部的图像或视频。摄像头405可以跟踪用户单眼或者双眼的运动。摄像头405包括但不限于传统彩色摄像头(RGB camera)、深度摄像头(RGBdepth camera)、动态视觉传感器(dynamic vision sensor,DVS)相机等。深度摄像头可以获取被拍摄对象的深度信息。在一些实施例中,摄像头405可用于捕捉用户眼睛的图像,并将图像发送给处理器401进行分析。处理器401可以根据摄像头405采集到的图像,确定用户眼睛的状态,并根据用户眼睛所处的状态执行对应的功能。也就是说,用户可通过在所述头戴式显示设备400上输入眼睛运动操作,来触发所述头戴式显示设备400执行对应的功能。用户眼睛的状态可包括:是否转动、转动的方向、是否长时间未转动、看向外界的角度等等。
所述头戴式显示设备400通过GPU,显示装置406,以及应用处理器等来呈现或者显示图像。
GPU为图像处理的微处理器,连接显示装置406和应用处理器。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。GPU用于根据从处理器401处得到的数据执行数学和几何计算,利用计算机图形技术、计算机仿真技术等来渲染图像,以提供用于在显示装置406上显示的内容。GPU还用于将校正或预失真添加到图像的渲染过程中,以补偿或校正由显示装置406中的光学组件引起的失真。GPU还可以基于来自传感器系统404的数据来调整提供给显示装置406的内容。例如,GPU可以基于用户眼睛的3D位置、瞳距等在提供给显示装置406的内容中添加景深信息。
显示装置406可包括:一个或多个显示屏、一个或多个光学组件。该一个或多个显示屏包括所述显示屏101和所述显示屏103。该一个或多个光学组件包括所述光学组件102和所述光学组件104。这里,所述显示屏101、所述显示屏103、所述光学组件102和所述光学组件104的结构以及它们之间的位置关系可参考图1中的相关描述。后续方法实施例中,为了描述方便,头戴式显示设备200的显示装置206中各个器件的标号沿用图1中的标号,即头戴式显示设备200包括显示屏101、显示屏103、光学组件102和光学组件104。
在本申请实施例中,所述头戴式显示设备400中的显示屏,例如所述显示屏101、所述显示屏103,用于接收所述头戴式显示设备400本身的GPU处理后的数据或内容(例如经过渲染后的图像),并将其显示出来。可理解的,当所述头戴式显示设备400本身具有较为强大的计算功能,可以独立渲染生成图像时。在这种情况下,该头戴式显示设备400可以为计算能力强大的一体机等,无需借助电子设备100即可独立为用户呈现3D场景,给用户提供VR/AR/MR体验。
在本申请实施例中,处理器401可用于根据用户和所述头戴式显示设备400之间的交互来确定该用户的IPD。头戴式显示设备的GPU还可用于根据从处理器210获取到的用户IPD,确定用于在所述头戴式显示设备400上显示的图像,所述头戴式显示设备400可以将GPU确定的图像显示在显示屏上。
所述显示屏101和显示屏103上显示的图像具有视差,从而模拟双眼视觉,可以使得用户感受到该图像对应物体的深度,从而产生真实的3D感。
显示屏,例如显示屏101、显示屏103,可包括显示面板,显示面板可以用于显示图像,从而为用户呈现立体的虚拟场景。显示面板可以采用LCD,OLED,AMOLED,FLED,Miniled,MicroLed,Micro-oLed,QLED等。
光学组件,例如光学组件102、光学组件104,用于将来自显示屏的光引导至出射光瞳以供用户感知。在一些实施方式中,光学组件中的一个或多个光学元件(例如透镜)可具有一个或多个涂层,诸如,抗反射涂层。光学组件对图像光的放大允许显示屏在物理上更小、更轻、消耗更少的功率。另外,图像光的放大可以增加显示屏显示的内容的视野。例如,光学组件可以使得显示屏所显示的内容的视野为用户的全部视野。
光学组件还可用于校正一个或多个光学误差。光学误差的示例包括:桶形失真、枕形失真、纵向色差、横向色差、球面像差、彗形像差、场曲率、散光等。在一些实施方式中,提供给显示屏显示的内容被预先失真,由光学组件在从显示屏接收基于内容产生的图像光时校正该失真。
音频装置407用于实现音频的采集以及输出。音频装置407可包括但不限于:麦克风、扬声器、耳机等等。
本申请的各实施方式可以任意进行组合,以实现不同的技术效果。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid StateDisk)等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。
总之,以上所述仅为本发明技术方案的实施例而已,并非用于限定本发明的保护范围。凡根据本发明的揭露,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (27)
1.一种系统,其特征在于,所述系统包括:电子设备和头戴式显示设备,所述电子设备和所述头戴式显示设备连接,所述头戴式显示设备用于佩戴于用户头部;
所述电子设备用于将用户界面发送给所述头戴式显示设备;所述头戴式显示设备用于在显示屏上显示所述用户界面,所述显示屏包括第一显示屏和第二显示屏;
所述电子设备还用于获取所述用户的IPD,所述用户的IPD是根据所述用户分别基于所述第一显示屏显示的用户界面输入的、用于指示所述用户左眼在所述第一显示屏上看到的最左侧边缘和最右侧边缘的用户操作,和,基于所述第二显示屏上显示的用户界面输入的、用于指示所述用户右眼在所述第二显示屏上看到的最左侧边缘和最右侧边缘的用户操作而获取的;所述电子设备还用于获取源图像,根据所述用户的IPD校正所述源图像得到目标图像,并将所述目标图像发送给所述头戴式显示设备;
所述头戴式显示设备还用于在所述显示屏上显示所述目标图像。
2.根据权利要求1所述的系统,其特征在于,所述头戴式显示设备还包括对应所述第一显示屏的第一光学组件和对应所述第二显示屏的第二光学组件,所述第一显示屏的中心和所述第一光学组件的中心所处的第一直线垂直于第三直线,所述第二显示屏的中心和所述第二光学组件的中心所处的第二直线垂直于所述第三直线;所述第三直线为所述第一光学组件的中心和所述第二光学组件的中心所处的直线;
所述用户界面包括第一用户界面和第二用户界面,所述头戴式显示设备具体用于在所述第一显示屏上显示所述第一用户界面、在所述第二显示屏上显示所述第二用户界面;
所述目标图像包括第一目标图像和第二目标图像,所述头戴式显示设备具体用于在所述第一显示屏上显示所述第一目标图像、在所述第二显示屏上显示所述第二目标图像。
3.根据权利要求2所述的系统,其特征在于,
所述头戴式显示设备还用于:
获取第一位置和第二位置,所述第一位置和所述第二位置是根据显示所述第一用户界面时的所述用户的动作获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据显示所述第二用户界面时的所述用户的动作获取的;将所述第一位置、所述第二位置、所述第三位置和所述第四位置发送给所述电子设备;
所述电子设备还用于:
根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
4.根据权利要求2所述的系统,其特征在于,
所述头戴式显示设备还用于:
将在显示所述第一用户界面时采集到的所述用户的操作数据,和,在显示所述第二用户界面时采集到的所述用户的操作数据,发送给所述电子设备;
所述电子设备还用于:
获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述头戴式显示设备显示所述第一用户界面时的所述用户的操作数据获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述头戴式显示设备显示所述第二用户界面时的所述用户的操作数据获取的;
根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
5.根据权利要求2所述的系统,其特征在于,所述系统还包括输入设备,
所述输入设备用于:
将在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作,和,在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作,发送给所述电子设备;
所述电子设备还用于:
获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作获取的;
根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
7.根据权利要求3-5任一项所述的系统,其特征在于,
所述电子设备具体用于根据以下公式计算所述用户的瞳距IPD:
IPD=IOD-Δi1+Δi2
其中,所述IOD为所述第一显示屏的中心和所述第二显示屏的中心之间的距离,所述Δi1为所述用户的眼睛相对所述第一直线的偏移量,所述Δi2为所述用户的眼睛相对所述第二直线的偏移量。
8.根据权利要求3-5任一项所述的系统,其特征在于,
所述电子设备具体用于:
根据所述用户的IPD,利用所述源图像生成第一图像和第二图像;
根据所述第一图像生成第一目标图像,所述第一目标图像的中心为将所述第一图像的中心调整所述用户的眼睛相对所述第一直线的偏移量;
根据所述第二图像生成第二目标图像,所述第二目标图像的中心为将所述第二图像的中心调整所述用户的眼睛相对所述第二直线的偏移量。
9.根据权利要求3-5任一项所述的系统,其特征在于,所述源图像包括:第三图像和第四图像;
所述电子设备具体用于:
根据所述第三图像生成第一目标图像,所述第一目标图像的中心为将所述第三图像的中心调整所述用户的眼睛相对所述第一直线的偏移量;
根据所述第四图像生成第二目标图像,所述第二目标图像的中心为将所述第四图像的中心调整所述用户的眼睛相对所述第二直线的偏移量。
10.一种显示方法,其特征在于,所述方法包括:
电子设备将用户界面发送给头戴式显示设备,所述用户界面用于显示在所述头戴式显示设备的显示屏上,所述显示屏包括第一显示屏和第二显示屏;
所述电子设备获取所述用户的IPD,所述用户的IPD是根据所述用户分别基于所述第一显示屏显示的用户界面输入的、用于指示所述用户左眼在所述第一显示屏上看到的最左侧边缘和最右侧边缘的用户操作,和,基于所述第二显示屏上显示的用户界面输入的、用于指示所述用户右眼在所述第二显示屏上看到的最左侧边缘和最右侧边缘的用户操作而获取的;
所述电子设备获取源图像,根据所述用户的IPD校正所述源图像得到目标图像,并将所述目标图像发送给所述头戴式显示设备;所述目标图像用于显示在所述显示屏上。
11.根据权利要求10所述的方法,其特征在于,所述头戴式显示设备还包括对应所述第一显示屏的第一光学组件和对应所述第二显示屏的第二光学组件,所述第一显示屏的中心和所述第一光学组件的中心所处的第一直线垂直于第三直线,所述第二显示屏的中心和所述第二光学组件的中心所处的第二直线垂直于所述第三直线;所述第三直线为所述第一光学组件的中心和所述第二光学组件的中心所处的直线;
所述用户界面包括第一用户界面和第二用户界面,所述第一用户界面用于显示在所述第一显示屏上,所述第二用户界面用于显示在所述第二显示屏上;
所述目标图像包括第一目标图像和第二目标图像,所述第一目标图像用于显示在所述第一显示屏上,所述第二目标图像用于显示在所述第二显示屏上。
12.根据权利要求11所述的方法,其特征在于,所述电子设备获取所述用户的IPD,具体包括:
所述电子设备接收所述头戴式显示设备发送的第一位置、第二位置、第三位置和第四位置;
所述电子设备根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
13.根据权利要求11所述的方法,其特征在于,所述电子设备获取所述用户的IPD,具体包括:
所述电子设备接收所述头戴式显示设备在显示所述第一用户界面时采集到的所述用户的操作数据,和,所述头戴式显示设备在显示所述第二用户界面时采集到的所述用户的操作数据;
所述电子设备获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述头戴式显示设备显示所述第一用户界面时的所述用户的操作数据获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述头戴式显示设备显示所述第二用户界面时的所述用户的操作数据获取的;
所述电子设备根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
14.根据权利要求11所述的方法,其特征在于,所述电子设备获取所述用户的IPD,具体包括:
所述电子设备接收输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作,和,所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作;
所述电子设备获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作获取的;
所述电子设备根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
16.根据权利要求12-14任一项所述的方法,其特征在于,所述电子设备根据Δi1和Δi2获取所述用户的IPD,具体包括:
所述电子设备根据以下公式计算所述用户的瞳距IPD:
IPD=IOD-Δi1+Δi2
其中,所述IOD为所述第一显示屏的中心和所述第二显示屏的中心之间的距离,所述Δi1为所述用户的眼睛相对所述第一直线的偏移量,所述Δi2为所述用户的眼睛相对所述第二直线的偏移量。
17.根据权利要求12-14任一项所述的方法,其特征在于,所述电子设备根据所述用户的IPD校正所述源图像得到目标图像,具体包括:
所述电子设备根据所述用户的IPD,利用所述源图像生成第一图像和第二图像;
所述电子设备根据所述第一图像生成第一目标图像,所述第一目标图像的中心为将所述第一图像的中心调整所述用户的眼睛相对所述第一直线的偏移量;
所述电子设备根据所述第二图像生成第二目标图像,所述第二目标图像的中心为将所述第二图像的中心调整所述用户的眼睛相对所述第二直线的偏移量。
18.根据权利要求12-14任一项所述的方法,其特征在于,所述源图像包括:第三图像和第四图像;所述电子设备根据所述用户的IPD校正所述源图像得到目标图像,具体包括:
所述电子设备根据所述第三图像生成第一目标图像,所述第一目标图像的中心为将所述第三图像的中心调整所述用户的眼睛相对所述第一直线的偏移量;
所述电子设备根据所述第四图像生成第二目标图像,所述第二目标图像的中心为将所述第四图像的中心调整所述用户的眼睛相对所述第二直线的偏移量。
19.一种电子设备,其特征在于,所述电子设备包括:一个或多个处理器、存储器;
所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述电子设备执行:
将用户界面发送给头戴式显示设备,所述用户界面用于显示在所述头戴式显示设备的显示屏上,所述显示屏包括第一显示屏和第二显示屏;
获取用户的IPD,所述用户的IPD是根据所述用户分别基于所述第一显示屏显示的用户界面输入的、用于指示所述用户左眼在所述第一显示屏上看到的最左侧边缘和最右侧边缘的用户操作,和,基于所述第二显示屏上显示的用户界面输入的、用于指示所述用户右眼在所述第二显示屏上看到的最左侧边缘和最右侧边缘的用户操作而获取的;
获取源图像,根据所述用户的IPD校正所述源图像得到目标图像,并将所述目标图像发送给所述头戴式显示设备;所述目标图像用于显示在所述显示屏上。
20.根据权利要求19所述的电子设备,其特征在于,所述显示屏包括第一显示屏和第二显示屏,所述头戴式显示设备还包括对应所述第一显示屏的第一光学组件和对应所述第二显示屏的第二光学组件,所述第一显示屏的中心和所述第一光学组件的中心所处的第一直线垂直于第三直线,所述第二显示屏的中心和所述第二光学组件的中心所处的第二直线垂直于所述第三直线;所述第三直线为所述第一光学组件的中心和所述第二光学组件的中心所处的直线;
所述用户界面包括第一用户界面和第二用户界面,所述第一用户界面用于显示在所述第一显示屏上,所述第二用户界面用于显示在所述第二显示屏上;
所述目标图像包括第一目标图像和第二目标图像,所述第一目标图像用于显示在所述第一显示屏上,所述第二目标图像用于显示在所述第二显示屏上。
21.根据权利要求20所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
接收所述头戴式显示设备发送的第一位置、第二位置、第三位置和第四位置;
根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
22.根据权利要求20所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
接收所述头戴式显示设备在显示所述第一用户界面时采集到的所述用户的操作数据,和,所述头戴式显示设备在显示所述第二用户界面时采集到的所述用户的操作数据;
获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述头戴式显示设备显示所述第一用户界面时的所述用户的操作数据获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述头戴式显示设备显示所述第二用户界面时的所述用户的操作数据获取的;
根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
23.根据权利要求20所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
接收输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作,和,所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作;
获取第一位置和第二位置,所述第一位置和所述第二位置是根据所述输入设备在所述头戴式显示设备显示所述第一用户界面时检测到的用户操作获取的;获取第三位置和第四位置,所述第三位置和所述第四位置是根据所述输入设备在所述头戴式显示设备显示所述第二用户界面时检测到的用户操作获取的;
根据所述第一位置和所述第二位置确定所述用户的眼睛相对所述第一直线的偏移量,根据所述第三位置和所述第四位置确定所述用户的眼睛相对所述第二直线的偏移量,获取所述用户的IPD;
其中,所述第一位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的左侧的位置,所述第二位置是所述头戴式显示设备显示所述第一用户界面时所述用户的眼睛看向所述第一显示屏的右侧的位置;所述第三位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的左侧的位置,所述第四位置是所述头戴式显示设备显示所述第二用户界面时所述用户的眼睛看向所述第二显示屏的右侧的位置。
25.根据权利要求21-23任一项所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
根据以下公式计算所述用户的瞳距IPD:
IPD=IOD-Δi1+Δi2
其中,所述IOD为所述第一显示屏的中心和所述第二显示屏的中心之间的距离,所述Δi1为所述用户的眼睛相对所述第一直线的偏移量,所述Δi2为所述用户的眼睛相对所述第二直线的偏移量。
26.根据权利要求21-23任一项所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
根据所述用户的IPD,利用所述源图像生成第一图像和第二图像;
根据所述第一图像生成第一目标图像,所述第一目标图像的中心为将所述第一图像的中心调整所述用户的眼睛相对所述第一直线的偏移量;
根据所述第二图像生成第二目标图像,所述第二目标图像的中心为将所述第二图像的中心调整所述用户的眼睛相对所述第二直线的偏移量。
27.根据权利要求21-23任一项所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
根据第三图像生成第一目标图像,所述第一目标图像的中心为将所述第三图像的中心调整所述用户的眼睛相对所述第一直线的偏移量;
根据第四图像生成第二目标图像,所述第二目标图像的中心为将所述第四图像的中心调整所述用户的眼睛相对所述第二直线的偏移量。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911208308.4A CN111103975B (zh) | 2019-11-30 | 2019-11-30 | 显示方法、电子设备及系统 |
US17/780,409 US20220404631A1 (en) | 2019-11-30 | 2020-11-09 | Display method, electronic device, and system |
EP20892723.6A EP4044000A4 (en) | 2019-11-30 | 2020-11-09 | DISPLAY METHOD, ELECTRONIC DEVICE AND SYSTEM |
PCT/CN2020/127413 WO2021103990A1 (zh) | 2019-11-30 | 2020-11-09 | 显示方法、电子设备及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911208308.4A CN111103975B (zh) | 2019-11-30 | 2019-11-30 | 显示方法、电子设备及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111103975A CN111103975A (zh) | 2020-05-05 |
CN111103975B true CN111103975B (zh) | 2022-09-23 |
Family
ID=70420916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911208308.4A Active CN111103975B (zh) | 2019-11-30 | 2019-11-30 | 显示方法、电子设备及系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220404631A1 (zh) |
EP (1) | EP4044000A4 (zh) |
CN (1) | CN111103975B (zh) |
WO (1) | WO2021103990A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111103975B (zh) * | 2019-11-30 | 2022-09-23 | 华为技术有限公司 | 显示方法、电子设备及系统 |
CN112068326B (zh) * | 2020-09-17 | 2022-08-09 | 京东方科技集团股份有限公司 | 3d显示装置 |
CN112486691A (zh) * | 2020-12-17 | 2021-03-12 | 深圳Tcl新技术有限公司 | 显示设备的控制方法、系统及计算机可读存储介质 |
CN114327032A (zh) * | 2021-02-08 | 2022-04-12 | 海信视像科技股份有限公司 | 一种虚拟现实设备及vr画面显示方法 |
CN114827579A (zh) * | 2022-04-25 | 2022-07-29 | 维沃移动通信有限公司 | 可穿戴设备和显示方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102961119A (zh) * | 2012-11-26 | 2013-03-13 | 黄立贤 | 瞳距仪 |
CN104076513A (zh) * | 2013-03-26 | 2014-10-01 | 精工爱普生株式会社 | 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统 |
CN110162186A (zh) * | 2019-06-19 | 2019-08-23 | Oppo广东移动通信有限公司 | 控制方法、头戴设备和存储介质 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5767820A (en) * | 1995-05-09 | 1998-06-16 | Virtual Research Systems | Head-mounted visual display apparatus |
KR100444981B1 (ko) * | 2000-12-15 | 2004-08-21 | 삼성전자주식회사 | 착용형 디스플레이 시스템 |
KR100406945B1 (ko) * | 2001-02-19 | 2003-11-28 | 삼성전자주식회사 | 착용형 디스플레이 장치 |
HUP0203993A2 (hu) * | 2002-11-19 | 2004-08-30 | László Domján | Binokuláris videoszemüveg optikai rendszere |
JP2004333661A (ja) * | 2003-05-02 | 2004-11-25 | Nippon Hoso Kyokai <Nhk> | 立体画像表示装置、立体画像表示方法および立体画像表示プログラム |
US20070273983A1 (en) * | 2006-05-26 | 2007-11-29 | Hebert Raymond T | Devices, methods, and systems for image viewing |
US8348429B2 (en) * | 2008-03-27 | 2013-01-08 | Doheny Eye Institute | Optical coherence tomography device, method, and system |
US20100149073A1 (en) * | 2008-11-02 | 2010-06-17 | David Chaum | Near to Eye Display System and Appliance |
US8964298B2 (en) * | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US20120212499A1 (en) * | 2010-02-28 | 2012-08-23 | Osterhout Group, Inc. | System and method for display content control during glasses movement |
JP2011205195A (ja) * | 2010-03-24 | 2011-10-13 | Nikon Corp | 画像処理装置、プログラム、画像処理方法、椅子および観賞システム |
AU2012219362B2 (en) * | 2011-02-17 | 2016-05-19 | Welch Allyn, Inc. | Photorefraction ocular screening device and methods |
KR101824501B1 (ko) * | 2011-05-19 | 2018-02-01 | 삼성전자 주식회사 | 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법 |
US20130271575A1 (en) * | 2012-04-11 | 2013-10-17 | Zspace, Inc. | Dynamically Controlling an Imaging Microscopy System |
US9274742B2 (en) * | 2012-10-25 | 2016-03-01 | PixiOnCloud, Inc. | Visual-symbolic control of remote devices having display-based user interfaces |
WO2014108799A2 (en) * | 2013-01-13 | 2014-07-17 | Quan Xiao | Apparatus and methods of real time presenting 3d visual effects with stereopsis more realistically and substract reality with external display(s) |
US9600068B2 (en) * | 2013-03-13 | 2017-03-21 | Sony Interactive Entertainment Inc. | Digital inter-pupillary distance adjustment |
US9313481B2 (en) * | 2014-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Stereoscopic display responsive to focal-point shift |
KR102229890B1 (ko) * | 2014-05-30 | 2021-03-19 | 삼성전자주식회사 | 데이터 처리 방법 및 그 전자 장치 |
US10271042B2 (en) * | 2015-05-29 | 2019-04-23 | Seeing Machines Limited | Calibration of a head mounted eye tracking system |
US10401625B2 (en) * | 2015-12-28 | 2019-09-03 | Facebook Technologies, Llc | Determining interpupillary distance and eye relief of a user wearing a head-mounted display |
CN105469004A (zh) * | 2015-12-31 | 2016-04-06 | 上海小蚁科技有限公司 | 一种显示装置和显示方法 |
US10424295B2 (en) * | 2016-02-03 | 2019-09-24 | Disney Enterprises, Inc. | Calibration of virtual image displays |
JP2019519053A (ja) * | 2016-04-08 | 2019-07-04 | ヴィッツァリオ,インコーポレイテッド | 視覚機能データを獲得し、分析し、生成する、かつデータに基づいてメディアを修正するための方法およびシステム |
US20210282639A1 (en) * | 2016-11-30 | 2021-09-16 | Sony Corporation | Information processing device, information processing method, and program |
CN107506036B (zh) * | 2017-08-23 | 2020-10-09 | 歌尔股份有限公司 | Vr瞳距调节方法和装置 |
CN107682690A (zh) * | 2017-10-19 | 2018-02-09 | 京东方科技集团股份有限公司 | 自适应视差调节方法和虚拟现实vr显示系统 |
CN207706338U (zh) * | 2017-12-04 | 2018-08-07 | 深圳市冠旭电子股份有限公司 | Vr智能头戴设备和vr图像显示系统 |
US10459237B2 (en) * | 2018-02-01 | 2019-10-29 | Dell Products L.P. | System, head mounted device (HMD) and method for adjusting a position of an HMD worn by a user |
CN109856802B (zh) * | 2019-04-17 | 2021-08-31 | 京东方科技集团股份有限公司 | 瞳距调节方法、装置和虚拟显示设备 |
CN111103975B (zh) * | 2019-11-30 | 2022-09-23 | 华为技术有限公司 | 显示方法、电子设备及系统 |
-
2019
- 2019-11-30 CN CN201911208308.4A patent/CN111103975B/zh active Active
-
2020
- 2020-11-09 EP EP20892723.6A patent/EP4044000A4/en active Pending
- 2020-11-09 US US17/780,409 patent/US20220404631A1/en active Pending
- 2020-11-09 WO PCT/CN2020/127413 patent/WO2021103990A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102961119A (zh) * | 2012-11-26 | 2013-03-13 | 黄立贤 | 瞳距仪 |
CN104076513A (zh) * | 2013-03-26 | 2014-10-01 | 精工爱普生株式会社 | 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统 |
CN110162186A (zh) * | 2019-06-19 | 2019-08-23 | Oppo广东移动通信有限公司 | 控制方法、头戴设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP4044000A1 (en) | 2022-08-17 |
US20220404631A1 (en) | 2022-12-22 |
CN111103975A (zh) | 2020-05-05 |
WO2021103990A1 (zh) | 2021-06-03 |
EP4044000A4 (en) | 2022-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111103975B (zh) | 显示方法、电子设备及系统 | |
WO2020192458A1 (zh) | 一种图像处理的方法及头戴式显示设备 | |
US11887261B2 (en) | Simulation object identity recognition method, related apparatus, and system | |
US11297243B2 (en) | Electronic device and method for providing content associated with camera function from electronic device | |
WO2022252924A1 (zh) | 图像传输与显示方法、相关设备及系统 | |
US11798234B2 (en) | Interaction method in virtual reality scenario and apparatus | |
CN112835445B (zh) | 虚拟现实场景中的交互方法、装置及系统 | |
CN116703693A (zh) | 一种图像渲染方法及电子设备 | |
US20230368710A1 (en) | Vr display control method, electronic device, and computer-readable storage medium | |
CN114422935A (zh) | 音频处理方法、终端及计算机可读存储介质 | |
CN112770177B (zh) | 多媒体文件生成方法、多媒体文件发布方法及装置 | |
WO2024027259A1 (zh) | 信号处理方法及装置、设备控制方法及装置 | |
WO2023216930A1 (zh) | 基于穿戴设备的振动反馈方法、系统、穿戴设备和电子设备 | |
WO2022111593A1 (zh) | 一种用户图形界面显示方法及其装置 | |
WO2022017270A1 (zh) | 外表分析的方法和电子设备 | |
CN112565735B (zh) | 一种虚拟现实的测量和显示方法、装置、以及系统 | |
KR20180087643A (ko) | 전자 장치 및 전자 장치 제어 방법 | |
CN114637392A (zh) | 显示方法及电子设备 | |
WO2024046182A1 (zh) | 一种音频播放方法、系统及相关装置 | |
CN117111728B (zh) | 人机交互方法、相关设备及系统 | |
WO2021057420A1 (zh) | 控制界面显示的方法及头戴式显示器 | |
US20240036323A1 (en) | Electronic device and method for adjusting volume using acoustic signal output from external object | |
WO2023185698A1 (zh) | 一种佩戴检测方法及相关装置 | |
EP4369721A1 (en) | Electronic device for providing content in association with external display device and content providing method thereof | |
CN115549715A (zh) | 一种通信方法、相关电子设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |