CN115268073A - 一种虚拟现实显示设备及显示方法 - Google Patents
一种虚拟现实显示设备及显示方法 Download PDFInfo
- Publication number
- CN115268073A CN115268073A CN202210927797.4A CN202210927797A CN115268073A CN 115268073 A CN115268073 A CN 115268073A CN 202210927797 A CN202210927797 A CN 202210927797A CN 115268073 A CN115268073 A CN 115268073A
- Authority
- CN
- China
- Prior art keywords
- target area
- image
- area image
- rendering
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000009877 rendering Methods 0.000 claims abstract description 60
- 238000005192 partition Methods 0.000 claims abstract description 16
- 238000013507 mapping Methods 0.000 claims description 22
- 210000001508 eye Anatomy 0.000 claims description 20
- 210000001747 pupil Anatomy 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 15
- 239000013589 supplement Substances 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Image Generation (AREA)
Abstract
本发明公开了一种虚拟现实显示设备及显示方法,涉及虚拟现实设备技术领域;具体步骤为:获取显示设备待渲染的三维物体的图像;基于当前使用者的视线焦点,将待渲染的三维物体的图像划分为目标区域图像以及非目标区域图像;分别对目标区域图像以及非目标区域图像进行渲染处理;获取渲染处理时长,并根据渲染处理时长与预设屏幕刷新频率选择背光调节处理模式;对渲染处理后的图像分别进行图像反畸变处理以及背光调节,获得显示图像。本发明通过分区处理,在减少资源消耗的同时,还保证了目标区域的渲染效果。
Description
技术领域
本发明涉及虚拟现实设备技术领域,更具体的说是涉及一种虚拟现实显示设备及显示方法。
背景技术
虚拟现实显示设备,简称VR(Virtual Reality,虚拟现实)显示设备,是一种利用显示设备将人对外界的视觉、听觉封闭,引导用户产生一种身在虚拟环境中的感觉。其显示原理是左右眼屏幕分别显示左右眼的图像,模拟人双眼的视觉差,并通过技术手段分别让每只眼睛得到相应的画面,两只眼睛在获取带有差异的画面后在脑海中产生立体感。
在这过程中,需要对图像进行多项处理,如何调配输出图像帧率与屏幕刷新帧率之间的关系是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种虚拟现实显示设备及显示方法,克服了上述缺陷。
为了实现上述目的,本发明提供如下技术方案:
一种虚拟现实显示方法,具体步骤为:
获取显示设备待渲染的三维物体的图像;
基于当前使用者的视线焦点,将待渲染的三维物体的图像划分为目标区域图像以及非目标区域图像;
分别对目标区域图像以及非目标区域图像进行渲染处理;
获取渲染处理时长,并根据渲染处理时长与预设屏幕刷新频率选择背光调节处理模式;
对渲染处理后的图像分别进行图像反畸变处理以及背光调节,获得显示图像。
可选的,目标区域图像的渲染处理的具体步骤为:
获取目标区域图像中各个像素点的位置数据以及颜色数据;
基于各个像素点的位置数据以及颜色数据构建P-C映射表;
获取显示设备的透镜间距、视场角;
基于透镜间距、视场角以及目标区域图像中各个像素点的位置数据获取目标区域图像中各个像素点相对于左右透镜的位置信息;
基于P-C映射表分别为目标区域图像中各个像素点相对于左右透镜的位置信息加载颜色数据,完成目标区域图像的渲染,生成目标区域图像相对于左右眼的二维图像。
可选的,非目标区域图像的渲染处理的具体步骤为:
对非目标区域图像中的像素点以预设差异值进行区域划分;
获取各个区域的位置数据以及颜色数据;
基于各个区域的位置数据以及颜色数据构建P-C映射表;
获取显示设备的透镜间距、视场角;
基于透镜间距、视场角以及非目标区域图像中各个区域的位置数据获取非目标区域图像中各个区域相对于左右透镜的位置信息;
基于P-C映射表分别为非目标区域图像中各个像素点相对于左右透镜的位置信息加载颜色数据,完成非目标区域图像的渲染,生成非目标区域图像相对于左右眼的二维图像。
其优点在于,通过对待渲染的图像进行分区处理,能够在提高处理效率的基础上,保证目标区域的渲染效果。
可选的,图像反畸变处理的具体步骤为:
采集当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值;
根据当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值,计算反畸变参数;
根据反畸变参数对渲染后的图像进行反畸变调节。
可选的,目标区域图像的背光调节的步骤为:
根据反畸变调节后图像中各个像素的灰阶值,确定背光模组中各分区的背光数据;
根据各分区的背光数据获取平均值,基于平均值,调节各分区的像素点的亮度值,并以原分辨率进行显示。
可选的,非目标区域图像的背光调节的步骤为:对非目标区域中的部分数据进行补黑处理,并将其调整为与显示设备分辨率相同的分辨率进行显示。
一种虚拟现实显示设备,包括:
图像获取模块:用于获取显示设备待渲染的三维物体的图像;
目标区域划分模块:基于当前使用者的视线焦点,将待渲染的三维物体的图像划分成目标区域图像以及非目标区域图像;
第一渲染处理模块:对目标区域图像进行像素点渲染;
第二渲染处理模块:对非目标区域图像进行区域渲染;
反畸变处理模块:基于当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值获取畸变参数,对渲染后的图像进行反畸变处理;
第一背光调节模块:对反畸变处理后的目标区域图像进行背光调节,并以原分辨率进行显示;
第二背光调节模块:对非目标区域中的部分数据进行补黑处理,并以显示设备分辨率进行显示。
可选的,第一渲染处理模块包括:
像素点位置数据获取单元:用于获取目标区域图像中各个像素点的位置数据;
像素点颜色数据获取单元:用于获取目标区域图像中各个像素点的颜色数据;
映射表获取单元:根据目标区域图像中各个像素点的位置数据与颜色数据的对应关系,构建P-C映射表;
渲染单元:基于显示设备的透镜间距、视场角以及目标区域图像中各个像素点相对于左右透镜的位置信息,利用P-C映射表,完成图像渲染。
可选的,目标区域划分模块、第一渲染处理模块、第二渲染处理模块、反畸变处理模块、第一背光调节模块、第二背光调节模块均集成于显示面板上。
可选的,还包括背光调节模式选择模块,用于根据渲染时长与预设屏幕刷新频率的关系确定背光调节处理模式。
经由上述的技术方案可知,与现有技术相比,本发明公开了一种虚拟现实显示设备及显示方法,通过对待处理的图像的目标区域与非目标区域进行分区处理,能够降低待处理的图像的处理时间,提高处理速率,为输出图像帧率匹配屏幕刷新帧率提供了保障,且通过分区处理,在减少资源消耗的同时,还保证了目标区域的渲染效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明的方法流程示意图;
图2为本发明的系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种虚拟现实显示设备,其结构如图2所示,包括:
图像获取模块:用于获取显示设备待渲染的三维物体的图像;
目标区域划分模块:基于当前使用者的视线焦点,将待渲染的三维物体的图像划分成目标区域图像以及非目标区域图像;
第一渲染处理模块:对目标区域图像进行像素点渲染;
第二渲染处理模块:对非目标区域图像进行区域渲染;
反畸变处理模块:基于当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值获取畸变参数,对渲染后的图像进行反畸变处理;
第一背光调节模块:对反畸变处理后的目标区域图像进行背光调节,并以原分辨率进行显示;
第二背光调节模块:对非目标区域中的部分数据进行补黑处理,并以显示设备分辨率进行显示。
其中,目标区域划分模块包括:
视线焦点确定单元:根据眼球追踪技术确定用户当前聚焦在虚拟现实图像上的视线焦点;
目标区域确定单元:基于映射关系,确认待渲染的三维物体的图像的目标区域。
其中,第一渲染处理模块包括:
像素点位置数据获取单元:用于获取目标区域图像中各个像素点的位置数据;
像素点颜色数据获取单元:用于获取目标区域图像中各个像素点的颜色数据;
映射表获取单元:根据目标区域图像中各个像素点的位置数据与颜色数据的对应关系,构建P-C映射表;
渲染单元:基于显示设备的透镜间距、视场角以及目标区域图像中各个像素点相对于左右透镜的位置信息,利用P-C映射表,完成图像渲染。
在本实施例中,第二渲染处理模块中仅是将像素点位置数据获取单元和像素点颜色数据获取单元更换为区域位置数据获取单元和区域颜色数据获取单元,其余结构相同。
反畸变处理模块,包括:
反畸变数据获取单元:从显示设备上获取出瞳参数以及光学透镜的参数值;
反畸变数据处理单元:基于出瞳参数及光学透镜的参数值计算反畸变参数;
反畸调节单元,基于反畸变参数对显示设备进行反畸变调节。
本实施例中,将出瞳参考值与光学透镜参数值作为输入参数,输入到反畸变参数模型,将反畸变参数模型的输出桶形Mesh网格作为反畸变参数。
第一背光调节模块,包括:
像素采集模块:采集反畸变调节后目标区域图像中各个像素的灰阶值;
背光数据处理模块:根据反畸变调节后目标区域图像中各个像素的灰阶值,确定背光模组中各分区的背光数据;基于背光模组中各分区的背光数据,获取平均值;
亮度调节模块:基于平均值,调节各分区的像素点的亮度值,并以原分辨率进行显示。
第二背光调节模块,包括:
目标区域图像获取模块:获取目标区域的轮廓;
亮度调节模块:基于目标区域的轮廓,采用交叉的方式在非目标区域图像中进行补黑处理,并将处理后的图像,调整为与显示设备分辨率相同的分辨率进行显示。
在本实施例中目标区域划分模块、第一渲染处理模块、第二渲染处理模块、反畸变处理模块、第一背光调节模块、第二背光调节模块均集成于显示面板上,降低信号传输造成的延迟,便于图像显示的实时性。
在另一实施例中,还包括背光调节模式选择模块:根据渲染时长与预设屏幕刷新频率的关系确定背光调节处理模式。其中,渲染时长与背光调节时长呈反向关联。
本实施例还包括一种虚拟现实显示方法,如图1所示,具体步骤为:
获取显示设备待渲染的三维物体的图像;
基于当前使用者的视线焦点,将待渲染的三维物体的图像划分为目标区域图像以及非目标区域图像;
分别对目标区域图像以及非目标区域图像进行渲染处理;
获取渲染处理时长,并根据渲染处理时长与预设屏幕刷新频率选择背光调节处理模式;
对渲染处理后的图像分别进行图像反畸变处理以及背光调节,获得显示图像。
其中,视线焦点的获取步骤为:
在当前使用者观看虚拟现实图像时,虚拟现实设备中的红外线发射器向当前使用者眼球发射红外光线;
采集经当前使用者眼球反射后的红外光线,计算获取当前用户对应的视线角度;
基于当前用户对应的视线角度及当前用户的瞳距,确定视线焦点。
其中,目标区域图像的渲染处理的具体步骤为:
获取目标区域图像中各个像素点的位置数据以及颜色数据;
基于各个像素点的位置数据以及颜色数据构建P-C映射表;
获取显示设备的透镜间距、视场角;
基于透镜间距、视场角以及目标区域图像中各个像素点的位置数据获取目标区域图像中各个像素点相对于左右透镜的位置信息;
基于P-C映射表分别为目标区域图像中各个像素点相对于左右透镜的位置信息加载颜色数据,完成目标区域图像的渲染,生成目标区域图像相对于左右眼的二维图像。
其中,非目标区域图像的渲染处理的具体步骤为:
对非目标区域图像中的像素点以预设差异值进行区域划分;
获取各个区域的位置数据以及颜色数据;
基于各个区域的位置数据以及颜色数据构建P-C映射表;
获取显示设备的透镜间距、视场角;
基于透镜间距、视场角以及非目标区域图像中各个区域的位置数据获取非目标区域图像中各个区域相对于左右透镜的位置信息;
基于P-C映射表分别为非目标区域图像中各个像素点相对于左右透镜的位置信息加载颜色数据,完成非目标区域图像的渲染,生成非目标区域图像相对于左右眼的二维图像。
图像反畸变处理的具体步骤为:
采集当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值;
根据当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值,计算反畸变参数;
根据反畸变参数对显示设备进行反畸变调节。
其中,反畸变参数的计算步骤为:
建立反畸变参数模型,反畸变参数模型为关于输出桶形Mesh网格、输入出瞳距离参数、输入光学透镜参数的拟合函数;接收来自显示设备的操作界面中预设输入接口输入的出瞳距离参考值,出瞳距离参考值为基于追踪结果获得的出瞳距离,或者为对出瞳距离进行调整后生成的出瞳距离调整值;获取显示设备的光学透镜参数值;将出瞳距离参考值与光学透镜参数值作为输入参数,输入到反畸变参数模型,将反畸变参数模型的输出桶形Mesh网格作为反畸变参数。
目标区域图像的背光调节的步骤为:
根据反畸变调节后图像中各个像素的灰阶值,确定背光模组中各分区的背光数据;
根据各分区的背光数据获取平均值,基于平均值,调节各分区的像素点的亮度值,并以原分辨率进行显示。
非目标区域图像的背光调节的步骤为:对非目标区域中的部分数据进行补黑处理,并将其调整为与显示设备分辨率相同的分辨率进行显示。
在本实施例中,为保证输出图像帧率与屏幕刷新帧率匹配,因此根据渲染处理时长,选择不同处理时长的背光处理模式,以保证输出图像帧率与屏幕刷新帧率匹配。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种虚拟现实显示方法,其特征在于,具体步骤为:
获取显示设备待渲染的三维物体的图像;
基于当前使用者的视线焦点,将待渲染的三维物体的图像划分为目标区域图像以及非目标区域图像;
分别对目标区域图像以及非目标区域图像进行渲染处理;
获取渲染处理时长,并根据渲染处理时长与预设屏幕刷新频率选择背光调节处理模式;
对渲染处理后的图像分别进行图像反畸变处理以及背光调节,获得显示图像。
2.根据权利要求1所述的一种虚拟现实显示方法,其特征在于,目标区域图像的渲染处理的具体步骤为:
获取目标区域图像中各个像素点的位置数据以及颜色数据;
基于各个像素点的位置数据以及颜色数据构建P-C映射表;
获取显示设备的透镜间距、视场角;
基于透镜间距、视场角以及目标区域图像中各个像素点的位置数据获取目标区域图像中各个像素点相对于左右透镜的位置信息;
基于P-C映射表分别为目标区域图像中各个像素点相对于左右透镜的位置信息加载颜色数据,完成目标区域图像的渲染,生成目标区域图像相对于左右眼的二维图像。
3.根据权利要求1所述的一种虚拟现实显示方法,其特征在于,非目标区域图像的渲染处理的具体步骤为:
对非目标区域图像中的像素点以预设差异值进行区域划分;
获取各个区域的位置数据以及颜色数据;
基于各个区域的位置数据以及颜色数据构建P-C映射表;
获取显示设备的透镜间距、视场角;
基于透镜间距、视场角以及非目标区域图像中各个区域的位置数据获取非目标区域图像中各个区域相对于左右透镜的位置信息;
基于P-C映射表分别为非目标区域图像中各个像素点相对于左右透镜的位置信息加载颜色数据,完成非目标区域图像的渲染,生成非目标区域图像相对于左右眼的二维图像。
4.根据权利要求1所述的一种虚拟现实显示方法,其特征在于,图像反畸变处理的具体步骤为:
采集当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值;
根据当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值,计算反畸变参数;
根据反畸变参数对渲染后的图像进行反畸变调节。
5.根据权利要求1所述的一种虚拟现实显示方法,其特征在于,目标区域图像的背光调节的步骤为:
根据反畸变调节后图像中各个像素的灰阶值,确定背光模组中各分区的背光数据;
根据各分区的背光数据获取平均值,基于平均值,调节各分区的像素点的亮度值,并以原分辨率进行显示。
6.根据权利要求1所述的一种虚拟现实显示方法,其特征在于,非目标区域图像的背光调节的步骤为:对非目标区域中的部分数据进行补黑处理,并将其调整为与显示设备分辨率相同的分辨率进行显示。
7.一种虚拟现实显示设备,其特征在于,包括:
图像获取模块:用于获取显示设备待渲染的三维物体的图像;
目标区域划分模块:基于当前使用者的视线焦点,将待渲染的三维物体的图像划分成目标区域图像以及非目标区域图像;
第一渲染处理模块:对目标区域图像进行像素点渲染;
第二渲染处理模块:对非目标区域图像进行区域渲染;
反畸变处理模块:基于当前使用者眼睛的出瞳距离和显示设备的光学透镜的参数值获取畸变参数,对渲染后的图像进行反畸变处理;
第一背光调节模块:对反畸变处理后的目标区域图像进行背光调节,并以原分辨率进行显示;
第二背光调节模块:对非目标区域中的部分数据进行补黑处理,并以显示设备分辨率进行显示。
8.根据权利要求7所述的一种虚拟现实显示设备,其特征在于,第一渲染处理模块包括:
像素点位置数据获取单元:用于获取目标区域图像中各个像素点的位置数据;
像素点颜色数据获取单元:用于获取目标区域图像中各个像素点的颜色数据;
映射表获取单元:根据目标区域图像中各个像素点的位置数据与颜色数据的对应关系,构建P-C映射表;
渲染单元:基于显示设备的透镜间距、视场角以及目标区域图像中各个像素点相对于左右透镜的位置信息,利用P-C映射表,完成图像渲染。
9.根据权利要求7所述的一种虚拟现实显示设备,其特征在于,目标区域划分模块、第一渲染处理模块、第二渲染处理模块、反畸变处理模块、第一背光调节模块、第二背光调节模块均集成于显示面板上。
10.根据权利要求7所述的一种虚拟现实显示设备,其特征在于,还包括背光调节模式选择模块,用于根据渲染时长与预设屏幕刷新频率的关系确定背光调节处理模式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210927797.4A CN115268073A (zh) | 2022-08-03 | 2022-08-03 | 一种虚拟现实显示设备及显示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210927797.4A CN115268073A (zh) | 2022-08-03 | 2022-08-03 | 一种虚拟现实显示设备及显示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115268073A true CN115268073A (zh) | 2022-11-01 |
Family
ID=83749514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210927797.4A Pending CN115268073A (zh) | 2022-08-03 | 2022-08-03 | 一种虚拟现实显示设备及显示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115268073A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104679509A (zh) * | 2015-02-06 | 2015-06-03 | 腾讯科技(深圳)有限公司 | 一种渲染图形的方法和装置 |
CN107657654A (zh) * | 2017-09-21 | 2018-02-02 | 北京小鸟看看科技有限公司 | 一种虚拟现实场景渲染方法、装置和头戴显示设备 |
CN111161685A (zh) * | 2020-02-28 | 2020-05-15 | 京东方科技集团股份有限公司 | 一种虚拟现实显示设备及其控制方法 |
CN111338591A (zh) * | 2020-02-25 | 2020-06-26 | 京东方科技集团股份有限公司 | 一种虚拟现实显示设备及显示方法 |
-
2022
- 2022-08-03 CN CN202210927797.4A patent/CN115268073A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104679509A (zh) * | 2015-02-06 | 2015-06-03 | 腾讯科技(深圳)有限公司 | 一种渲染图形的方法和装置 |
CN107657654A (zh) * | 2017-09-21 | 2018-02-02 | 北京小鸟看看科技有限公司 | 一种虚拟现实场景渲染方法、装置和头戴显示设备 |
CN111338591A (zh) * | 2020-02-25 | 2020-06-26 | 京东方科技集团股份有限公司 | 一种虚拟现实显示设备及显示方法 |
CN111161685A (zh) * | 2020-02-28 | 2020-05-15 | 京东方科技集团股份有限公司 | 一种虚拟现实显示设备及其控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106484116B (zh) | 媒体文件的处理方法和装置 | |
JP6023801B2 (ja) | シミュレーション装置 | |
JP2019079552A (ja) | イメージ形成における及びイメージ形成に関する改良 | |
CN108259883B (zh) | 图像处理方法、头戴式显示器以及可读存储介质 | |
JP6821646B2 (ja) | 動的領域分解能を有する仮想/拡張現実システム | |
US20180374258A1 (en) | Image generating method, device and computer executable non-volatile storage medium | |
EP2230988A1 (en) | Method of simulating blur in digitally processed images | |
WO2019104548A1 (zh) | 图像显示方法、智能眼镜及存储介质 | |
CN109901290B (zh) | 注视区域的确定方法、装置及可穿戴设备 | |
CN108710206A (zh) | 一种应用于vr显示器的防眩晕和视疲劳的方法和装置 | |
US10650507B2 (en) | Image display method and apparatus in VR device, and VR device | |
EP1158338A3 (en) | Method for simulating an ocular optical system and apparatus therefor | |
US20190139246A1 (en) | Information processing method, wearable electronic device, and processing apparatus and system | |
US9088774B2 (en) | Image processing apparatus, image processing method and program | |
US11543655B1 (en) | Rendering for multi-focus display systems | |
CN115268073A (zh) | 一种虚拟现实显示设备及显示方法 | |
CN115914603A (zh) | 图像渲染方法、头戴显示设备和可读存储介质 | |
JP5741353B2 (ja) | 画像処理システム、画像処理方法および画像処理プログラム | |
CN107888900A (zh) | 一种全视差三维显示的投影机器人及该机器人的投影方法 | |
EP4167826A1 (en) | Visual assistance | |
CN114020150A (zh) | 图像显示方法、装置、电子设备及介质 | |
CN103108201A (zh) | 立体图像显示装置及动态深度图像产生方法 | |
CN117998071B (zh) | 眼动追踪光场3d显示方法、装置、电子设备及存储介质 | |
EP3984214B1 (en) | Multifocal display device and method | |
KR101077432B1 (ko) | 3차원 안경 장치, 3차원 영상 디스플레이 시스템 및 그의 구동 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221101 |