CN116400878A - 头戴显示设备的显示方法、装置、电子设备以及存储介质 - Google Patents
头戴显示设备的显示方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN116400878A CN116400878A CN202310673656.9A CN202310673656A CN116400878A CN 116400878 A CN116400878 A CN 116400878A CN 202310673656 A CN202310673656 A CN 202310673656A CN 116400878 A CN116400878 A CN 116400878A
- Authority
- CN
- China
- Prior art keywords
- head
- mounted display
- display device
- rendering
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000009877 rendering Methods 0.000 claims description 139
- 238000004891 communication Methods 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 9
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 11
- 230000008569 process Effects 0.000 description 14
- 238000011161 development Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 208000018747 cerebellar ataxia with neuropathy and bilateral vestibular areflexia syndrome Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0185—Displaying image at variable distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请实施例提供了一种用于头戴显示设备的显示方法、装置、电子设备以及存储介质。所述显示方法用于并行驱动至少两个头戴显示设备,包括:获取至少两个头戴显示设备的传感器数据;基于所获取的传感器数据,确定至少两个头戴显示设备各自的空间分布信息,空间分布信息包括位姿信息和姿态信息中的至少一者;针对至少两个头戴显示设备中的头戴显示设备,在各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,以使所确定的虚拟相机按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像;将待显示图像传输到对应的头戴显示设备进行显示。本申请实施例的方案在保证图像处理效率的情况下实现了多个头戴显示设备的同时显示。
Description
技术领域
本申请实施例涉及计算机技术领域,尤其涉及一种头戴显示设备的显示方法、装置、电子设备以及存储介质。
背景技术
通过将诸如增强现实(Augmented Reality,AR)、虚拟现实(Virtual Reality,VR)、混合现实(Mixed Reality,MR)等头戴显示设备连接到诸如车载设备等电子设备,实现了更丰富且更逼真的多媒体视听体验。
然而,诸如车载设备等电子设备通常仅仅能够实现单个头戴显示设备的数据处理,用户无法将电子设备同时连接到多个头戴显示设备进行显示,用户体验较差。
发明内容
为此,本申请的各个实施例提供了一种用于头戴显示设备的显示方法、装置、电子设备以及存储介质,以解决上述技术问题。
根据本申请实施例的第一方面,提供了一种用于头戴显示设备的显示方法,显示方法用于并行驱动至少两个头戴显示设备,显示方法包括:获取至少两个头戴显示设备的传感器数据;基于所获取的传感器数据,确定至少两个头戴显示设备各自的空间分布信息,其中,空间分布信息包括位姿信息和姿态信息中的至少一者;针对至少两个头戴显示设备中的头戴显示设备,在图像渲染引擎预先构建的各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,以使所确定的虚拟相机按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像;将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示。
根据本申请实施例的第二方面,提供了一种用于头戴显示设备的显示装置,用于并行驱动至少两个头戴显示设备,包括:获取模块,被配置成获取至少两个头戴显示设备的传感器数据;确定模块,被配置成基于所获取的传感器数据,确定至少两个头戴显示设备各自的空间分布信息,其中,空间分布信息包括位姿信息和姿态信息中的至少一者;渲染模块,被配置成针对至少两个头戴显示设备中的头戴显示设备,在图像渲染引擎预先构建的各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,以使所确定的虚拟相机按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像;显示模块,被配置成将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示。
根据本申请实施例的第三方面,提供了一种电子设备,包括:处理器、存储器、至少两个通信接口和通信总线,处理器、存储器和至少两个通信接口通过通信总线完成相互间的通信,每个通信接口用于连接头戴显示设备;存储器用于存放至少一可执行指令,可执行指令使处理器执行根据第一方面的方法对应的操作。
根据本申请实施例的第四方面,提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据第一方面的方法。
在本申请实施例的方案中,通过获取不同的头戴显示设备的传感器数据,独立地确定了不同传感器数据所指示的头戴显示设备空间分布,采用图像渲染引擎对不同头戴显示设备构建了不同的虚拟相机后,进而可以独立地基于不同头戴显示设备的空间分布信息渲染相同的源图像数据,并且将渲染后的源图像数据分别传输到各自的头戴显示设备中显示,实现了不同头戴显示设备对相同的源图像数据的渲染和显示,在保证图像处理效率的情况下实现了多个头戴显示设备的同时显示,提升了用户体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为根据本申请的一些可选的实施例的显示系统的示意性架构图。
图2为根据本申请的另一些可选的实施例的显示方法的步骤流程图。
图3为根据图2实施例的一个示例的渲染处理软件架构的示意性框图。
图4为根据图2实施例的多个头戴显示设备的发现和渲染过程的流程图。
图5为根据本申请的另一些可选的实施例的显示装置的示意性框图。
图6为根据本申请的另一些可选的实施例的电子设备的示意性框图。
具体实施方式
为了使本领域的人员更好地理解本申请实施例中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本申请实施例保护的范围。
下面结合本申请实施例附图进一步说明本申请实施例具体实现。
图1示出了根据本申请的一些可选的实施例的显示系统100。显示系统100包括扩展设备110、至少两个头戴显示设备130以及多媒体数据源。多媒体数据源可以通过诸如车机和手机等终端设备121、互联网122、或存储介质123等提供。
头戴显示设备130可以包括但不限于增强现实(Augmented Reality,AR)眼镜、虚拟现实(Virtual Reality,VR)眼镜、或混合现实(Mixed Reality,MR)眼镜中的至少一者。如图1所示,显示系统100可以包括四个头戴显示设备130,头戴显示设备1、头戴显示设备2、头戴显示设备3和头戴显示设备4。各头戴显示设备130可以是相同类型的头戴显示设备,也可以是不同类型的头戴显示设备。还可以理解的是,显示系统100还可以包括两个、三个或者更多的头戴显示设备,对于该显示系统100中头戴显示设备的数目这里没有唯一的限定。
上述扩展设备110可以是对现有终端设备进行改进的电子设备。上述车载设备也可以是适配于现有终端设备的电子设备,此种情况下,扩展设备110可以作为头戴显示设备与现有终端设备的中间设备。扩展设备110可以通过有线或无线的方式与至少两个头戴显示设备进行连接。作为示例,上述扩展设备110可以为车机、或者对车机进行进一步软件或硬件配置的其他车载设备。例如,扩展设备110可以是独立于车机的其他实体车载设备,可以用作车机的升级设备或补充设备。例如,车载设备可以配合车载信息娱乐系统(CarInfotainment System)工作的补充电子设备,该车载设备可以作为车机和头戴显示设备的中间设备。其中,车载信息娱乐系统可以集成全球定位系统(Global Positioning System,GPS)导航、音频播放、视频播放、蓝牙通话等功能,为驾驶员提供信息、娱乐和通信服务。
诸如车机和手机等终端设备121、互联网122或存储介质123等中的一个或多个多媒体数据源可以为头戴显示设备提供诸如图片、文字、视频等形式的源图像数据。例如,扩展设备110可以通过互联网122下载源图像数据。或者,扩展设备110可以从终端设备121等电子设备中获取源图像数据。或者,扩展设备110也可以从诸如硬盘、闪存等其他存储介质123中获取源图像数据。可以理解的是,对于扩展设备110获取数据源的方式,本申请没有具体的限定。
也就是说,扩展设备110可以采用各种方式获取源图像数据,然后,将源图像数据处理后传输到各头戴显示设备130中进行显示。
在一些可选的实施例中,扩展设备110可以设有用于连接其他电子设备的端口。关于扩展设备110的端口配置,扩展设备110可以采用各种形式的有线接口或无线接口与多媒体数据源或头戴显示设备130进行通信连接。例如,有线接口可以是诸如USB端口、显示端口(Display Port,DP)等设备接口;无线接口可以是诸如WIFI等无线或移动通信接口、诸如蓝牙等近场通信接口。在一个示例中,扩展设备110包括两个以上端口,每个端口能够连接到一个头戴显示设备。
需要说明的是,本申请实施例所提供的用于头戴显示设备的显示方法一般由扩展设备110执行,相应地,用于头戴显示设备的显示装置一般设置于扩展设备110中。
进一步地,图2示出了根据本申请的另一些可选的实施例的用于头戴显示设备的显示方法200。显示方法200可以由电子设备执行用于并行驱动至少两个头戴显示设备,电子设备包括但不限于图1所示的扩展设备。
在一些可选的实施例中,可以在上述电子设备中安装预设的应用程序,以使该应用程序运行时可以执行本申请的显示方法以并行驱动至少两个头戴显示设备进行显示。
具体地,上述显示方法200可以包括:
S210:获取至少两个头戴显示设备的传感器数据。
应理解,可以通过电子设备(例如图1中的扩展设备)与头戴显示设备之间的端口获取头戴显示设备的传感器数据。这里的端口可以是例如USB端口或其他传输端口等,这里没有具体的限定。
传感器数据来自于头戴显示设备上设置的各种传感器,头戴显示设备可以被配置成通过上述端口传输采集的传感器数据。头戴显示设备的各个传感器对于实现高质量的AR图像或VR图像至关重要。这些传感器可以捕获现实世界的信息,帮助眼镜理解用户的环境和行为,或者,将虚拟内容与现实世界进行融合。各个传感器包括但不限于惯性测量单元(Inertial Measurement Unit,IMU)、摄像头、深度传感器等中的至少一者。IMU是一种集成了加速度计、陀螺仪和磁力计的传感器。它能够检测头戴显示设备在三维空间中的移动和旋转方向,从而可以用于实现准确的头部追踪和稳定的虚拟图像显示。可选地,摄像头能够用于捕获现实世界的图像和视频。摄像头可以用于实现环境感知、物体识别、光学追踪等功能。深度传感器可以测量现实世界中物体距离的信息。这些深度传感器通常使用红外或激光技术,例如Time-of-Flight(ToF)或结构光。深度信息可以用于实现精确的物体追踪、碰撞检测和虚拟内容的遮挡效果。
此外,电子设备与头戴显示设备之间的端口可以预先配置这样的端口的驱动程序,该驱动程序可以安装在电子设备上,因此上述电子设备通过驱动程序可以获取传感器数据。在一个示例中,可以通过驱动程序与电子设备的操作系统之间配置发现机制,在头戴显示设备的端口连接到电子设备的端口时,开始该头戴显示设备的传感器数据的获取过程。不失一般性地,驱动程序运行后,响应于监测到至少两个头戴显示设备的被连接状态,可以确定各头戴显示设备的发现事件,然后,在确定出头戴显示设备被发现的情况下,发送头戴显示设备的传感器数据的获取请求。该获取请求可以用于获取相应头戴显示设备指定传感器的传感器数据。
S220:基于所获取的传感器数据,确定至少两个头戴显示设备各自的空间分布信息,其中,空间分布信息包括位姿信息和姿态信息中的至少一者。
应理解,至少两个头戴显示设备中的任一头戴显示设备可以在空间中独立运动。因此,电子设备可以独立地基于每个头戴显示设备的传感器数据计算该头戴显示设备的坐标变动,从而可以得到这个头戴显示设备的空间分布信息。这里,所获取的传感器数据可以包括头戴显示设备检测的旋转参数和/或位置参数。应理解,空间分布信息可以为位姿信息,位姿信息包括位置信息和姿态信息。位姿信息可以理解为6dof(或称6degree offreedom、6自由度)位姿。空间分布信息还可以为姿态信息,或称3dof(3degree offreedom、3自由度)姿态。电子设备可以实时获取头戴显示设备的传感器数据,以便于实时计算头戴显示设备的空间分布信息。
S230:针对至少两个头戴显示设备中的头戴显示设备,在图像渲染引擎预先构建的各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,以使所确定的虚拟相机按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像。
应理解,虚拟相机是图像渲染引擎中的操作对象。对于各并行的头戴显示设备,图像渲染引擎可以预先构建与各头戴显示设备对应的虚拟相机。可选地,图像渲染引擎可以为unity等。因此,电子设备可以基于每个头戴显示设备的端口与虚拟相机之间的映射关系,选择每个头戴显示设备对应的虚拟相机。源图像数据可以为视频帧数据或图像数据,图像渲染引擎可以通过诸如图1所示的多媒体数据源获取解码后的源图像数据。然后,可以将空间分布信息对应的参数配置到虚拟相机对应的属性中来进行源图像数据的渲染。对于不同的头戴显示设备,该方法可以具有针对性且并行地为各头戴显示设备渲染对应的待显示图像。
S240:将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示。
针对各头戴显示设备渲染的待显示图像,可以将其发送到该头戴显示设备,以便于该头戴显示设备可以进行图像显示。可见,本申请公开的方案,对于至少两个头戴显示设备,可以有针对性控制各头戴显示设备的图像并行显示,且各头戴显示设备显示的图像可以与其在空间中的分布位置相适配。
在一些可选的实施例中,在将待显示图像显示到对应的头戴显示设备之前,可以通过图像扭曲(warping)技术,基于当前计算得到的头戴显示设备的空间分布信息对待显示图像进行相应的拉伸或扭曲变换,从而使上屏后待显示图像与该头戴显示设备的当前位姿或姿态更匹配。
在本申请上述实施例的方案中,通过获取不同的头戴显示设备的传感器数据,可以独立地确定不同传感器数据所指示的头戴显示设备空间分布信息,进而能够采用图像渲染引擎对不同头戴显示设备构建了不同的虚拟相机,独立地基于不同头戴显示设备的空间分布信息渲染相同的源图像数据,并且将渲染后的源图像数据分别传输到各自的头戴显示设备中显示,实现了不同头戴显示设备对相同的源图像数据的并行渲染和显示,在保证图像处理效率的情况下实现了多个头戴显示设备的同时显示。
在一些可选的实施例中,可以结合图3详细描述根据图2实施例的一个示例的渲染处理软件架构。执行渲染处理的电子设备中可以安装有预设的头戴显示设备应用程序,头戴显示设备应用程序通常可以是通过图像渲染引擎进行开发和配置得到。例如,头戴显示设备应用程序可以是将图像渲染引擎与适用于头戴显示设备的开发组件(例如,用于头戴显示设备的软件开发工具包(Software Development Kit,SDK))相结合,从而更快捷地适配头戴显示设备的各个功能参数。上述的开发组件可以提供渲染过程中的处理能力,例如,可以获取头戴显示设备的传感器数据及将待显示图像发送对应的头戴显示设备进行显示等。可以理解的是,针对不同的头戴显示设备,头戴显示设备应用程序中可以设置有相应的开发组件。因此,对于至少两个头戴显示设备中的任一头戴显示设备,可以结合图像渲染引擎和与该头戴显示设备对应的开发组件实现图像的渲染和显示。需要说明的是,不同的头戴显示设备可以与电子设备的不同端口连接,在一些可选的实施例中,与不同头戴显示设备对应的开发组件可以与不同头戴显示设备连接的端口对应的开发组件。
图3的渲染处理软件架构可以包括驱动单元320、空间分布信息计算单元330、渲染单元340以及显示单元350。其中,驱动单元320可以用来执行图2的步骤S210;姿态计算单元330可以用来执行图2的步骤S220;渲染单元340可以用来执行图2的步骤S230;显示单元350可以用来执行图2的步骤S240。在一些可选的实施例中,显示单元350还可以对待显示图像进行图像扭曲(warping)处理,并将图像扭曲处理之后的图像显示到头戴显示设备的显示界面。
具体地,渲染单元340可以配置有图像渲染引擎。可选地,图像渲染引擎可以为unity等。驱动单元320和空间分布信息计算单元330可以通过头戴显示设备的开发组件进行配置。通过驱动单元320,安装有头戴显示设备应用程序的电子设备能够可靠地采集到头戴显示设备的诸如IMU传感器的传感器数据,并且对IMU等的传感器数据进行3dof姿态或6dof位姿计算,确定头戴显示设备的当前3dof姿态或6dof位姿。可选地,上述空间分布信息计算单元330还可以是通过独立运行的3dof/6dof算法进行计算,此种情况下,头戴显示设备的开发组件可以直接获取计算出的3dof姿态或6dof位姿。
在一些可选的实施例中,渲染处理软件架构还可以包括解码单元310。相应地,头戴显示设备应用程序可以配置有诸如解码器的解码单元310。该解码单元310可以对从多媒体数据源中获取的诸如视频帧数据的源图像数据进行解码处理,从而可以得到待渲染的源图像数据。
在一些可选的实施例中,驱动单元320进一步可以将各个传感器的传感器数据传输到空间分布信息计算单元330。空间分布信息计算单元330可以基于传感器数据计算诸如3dof姿态或6dof位姿数据的头戴显示设备的空间分布信息。应理解,上述的驱动单元320和空间分布信息计算单元330两者的功能可以通过诸如头戴显示设备的软件开发工具包实现(即,头戴显示设备的开发组件的示例)。
上述图像渲染引擎能够通过解码单元310获得源图像数据,进而图像渲染引擎可以按照空间分布信息计算单元计算得到的3dof姿态或6dof位姿数据渲染源图像数据的各图像帧,并将渲染后的各图像帧确定为待显示图像。然后,显示单元350可以控制渲染后的待显示图像显示到头戴显示设备的显示屏。
在一些可选的实施例中,可以结合图4来描述多个头戴显示设备的发现和渲染过程。图4的发现和渲染过程的执行主体可以是安装有头戴显示设备应用程序的电子设备,显示过程400包括:
S410:判断是否有头戴显示设备的发现事件?如果为否,则可以执行S420,如果为是,则可以执行S430。换言之,可以将电子设备与头戴显示设备连接的端口的驱动程序配置成与电子设备的操作系统相关联,从而对端口进行监测,如果监测到头戴显示设备,则可以将其判定为头戴显示设备的发现事件。
S420:继续等待执行监测。具体地,可以定时地执行多个端口中任一端口的发现事件,也可以轮询地监测多个端口的发现事件。例如,在执行轮询监测时,在当前端口未存在发现事件的情况下,可以开始下一端口的监测。
S430:开始当前头戴显示设备的渲染操作。具体地,响应头戴显示设备的发现事件,可以发送头戴显示设备的传感器数据的获取请求。也就是说,在监测到当前头戴显示设备的发现事件的情况下,基于虚拟相机执行当前头戴显示设备显示图像的渲染操作。
在另一些示例中,可以在图像渲染引擎中预先构建头戴显示设备与渲染图层(例如,layer)的映射关系。在图像渲染引擎中可以独立地对各渲染图层进行运动参数配置和渲染参数配置,从而可以将不同的源图像数据独立地渲染到对应的渲染图层,得到不同头戴显示设备的待显示图像。应理解,各个渲染图层与各个头戴显示设备之间的映射关系也可以是随机指定的,也可以是预先设置的。
不失一般性地,为了按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像,可以从图像渲染引擎预先构建的各个渲染图层中,确定与所确定的虚拟相机对应的渲染图层。然后,按照该头戴显示设备的空间分布信息,控制所确定的虚拟相机的旋转角度,将源图像数据渲染到该渲染图层,得到待显示图像。也就是说,在采用图像渲染引擎进行渲染时,可以基于上述的映射关系,确定当前头戴显示设备对应的当前渲染图层。然后,在当前渲染图像中,确定各个渲染属性值。例如,当前头戴显示设备对应的虚拟相机的旋转角度指示当前头戴显示设备的空间分布信息,可以基于当前头戴显示设备的空间分布信息,确定对应的虚拟相机的旋转角度,而在这个旋转角度下,源图像数据具有对应的渲染属性值,可以在当前渲染图层中,基于符合这个旋转角度的各个渲染属性值,对源图像数据进行渲染,得到待显示图像。因此,对于不同的头戴显示设备,图像渲染引擎可以同时对头戴显示设备对应的渲染图层进行图像渲染,从而可以实现各头戴显示设备并行地显示。由于各个渲染图像能够独立、并行地渲染,因此图像渲染引擎在采用多个渲染图层进行渲染时,提高了图像处理的效率。
在一些可选的实现方式中,图像渲染引擎可以分别为各头戴显示设备构建渲染画布,而非依次叠加的渲染图层。此种情况下,按照头戴显示设备的空间分布信息,可以控制与该头戴显示设备对应的渲染画布相对于虚拟相机移动,并将源图像渲染到该渲染画布上,从而也可以得到待显示图像。
具体而言,上述的渲染属性值表征了源图像数据的外观、光照、纹理和其他视觉效果。各个渲染属性值包括但不限于材质属性、纹理属性、诸如亮度、对比度、饱和度等光照属性、反射或折射属性、透明度属性、环境光属性等。
例如,可以接收渲染请求,解析渲染请求中的各个渲染属性值,然后,将各个渲染属性值在当前渲染图层中配置到源图像数据的各个三维对象或者将各个渲染属性值与各个三维对象关联。不失一般性地,针对任一头戴显示设备而言,将源图像数据渲染到该渲染图层,得到待显示图像,可以包括:响应于接收到针对该渲染图像的渲染请求,获取渲染请求的渲染属性值;基于所获取的渲染属性值,在该渲染图层中对源图像数据进行渲染,得到待显示图像。因此,在将所得到的待显示图像发送到该头戴显示设备进行显示时,可以实现对该头戴显示设备的针对性或个性化的显示调节。上述渲染请求可以是基于用户的终端操作生成的请求。例如,基于用户调节画面显示亮度可以生成相应的渲染请求,该渲染请求中可以包括与显示亮度相关的渲染属性。由此,在电子设备连接到多个头戴显示设备的情况下,各个头戴显示设备能够观看到不同的视觉效果,例如,不同的亮度。
进一步地,作为确定与所确定的虚拟相机对应的渲染图层的一种可实现方式的示例,可以根据至少两个头戴显示设备各自的空间分布信息,确定至少两个头戴显示设备之间的空间位置关系。然后,基于空间位置关系,从图像渲染引擎预先构建的各个渲染图层中,确定与所确定的虚拟相机对应的渲染图层。其中,空间位置关系与各个渲染图层的空间成像参数匹配。也就是说,作为上述映射关系被指定的示例,可以基于头戴显示设备各自的空间分布信息来分配各个渲染图层,即,将各个渲染图层配置成表征空间位置关系所引起的各个渲染属性值的关联关系,从而提高了虚拟渲染空间与物理空间的匹配程度。
在一些示例中,诸如车载设备的电子设备可以配置有至少两个端口。每个端口可以连接到头戴显示设备,对于连接到一端口的头戴显示设备,电子设备可以独立地通过该端口利用与该端口对应的开发组件获取其所连接的头戴显示设备的传感器数据。然后,电子设备可以通过其软件配置,基于头戴显示设备的传感器数据确定这个头戴显示设备的空间分布信息。相应地,在电子设备针对这个头戴显示设备完成源图像数据的渲染之后,可以通过上述端口利用与该端口对应的开发组件将渲染后的待显示图像传输到这个头戴显示设备进行显示。需要的说明的是,上述端口可以是物理端口或逻辑端口,这里对其没有唯一的限定。该示例中端口与开发组件对应设置,可以保证每个端口所获取传感器数据的头戴显示设备和显示待显示图像的头戴显示设备是同一头戴显示设备,避免出现头戴显示设备A使用了头戴显示设备B的空间分布信息,显示头戴显示设备B的待显示图像的问题。
不失一般性地,获取至少两个头戴显示设备的传感器数据,可以包括:分别通过至少两个头戴显示设备各自的端口,获取至少两个头戴显示设备的传感器数据。相应地,将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示,包括:将每个头戴显示设备的待显示图像传输到该头戴显示设备的端口,以在该头戴显示设备中进行显示。
在一些可选的实施例中,在确定与该头戴显示设备对应的虚拟相机时,可以在电子设备从一端口获取到连接的头戴显示设备的传感器数据时,随机地从多个虚拟相机中分配一虚拟相机执行这个头戴显示设备的渲染。并且根据传感器数据中所携带的头戴显示设备的标识来识别这个头戴显示设备,从而实现了各个虚拟相机的灵活分配,在采用多个头戴显示设备时,提高了有限的虚拟相机的分配灵活性。
可替代地,还可以在电子设备的软件配置中预先配置端口与虚拟相机之间的映射关系,从而在电子设备从一端口获取到所连接的头戴显示设备的传感器数据时能够锁定这个端口对应的虚拟相机,进而采用虚拟相机执行后续的渲染过程。从而避免了实时确定头戴显示设备的标识所带来的计算开销,一定程度上简化了渲染过程,使得渲染过程更加流畅。
应理解,可以采用第一预设映射关系指示图像渲染引擎预先构建的各个虚拟相机与各个头戴显示设备的端口之间的对应关系。也就是说,作为确定与该头戴显示设备对应的虚拟相机的一个可实现示例,该示例可以基于第一预设映射关系,确定与该头戴显示设备的端口对应的虚拟相机。
进一步地,在源图像数据被渲染完成之后,需要将待显示图像传输到头戴显示设备。例如,可以通过电子设备与头戴显示设备之间的端口(例如,USB端口)传输待显示图像。作为一个示例,为了更高效且可靠地进行待显示图像的传输,可以采用专用于传输待显示图像的显示端口(例如,Display Port,DP)协议,基于显示端口协议的虚拟显示端口匹配到电子设备与头戴显示设备之间的端口的底层协议(例如,DP over USB-C),实现了高效且便捷的数据传输,电子设备的每个端口以及每个头戴显示设备的端口都可以配置成支持上述端口协议。
在一些可选的实施例中,可以采用第二预设映射关系来指示每个头戴显示设备的端口与虚拟显示端口之间的端口挂载关系。也就是说,通过第二预设映射关系将虚拟显示端口挂载到电子设备与头戴显示设备之间的端口,可以实现待显示图像的高效且可靠的传输,同时软件配置能够驱动电子设备基于端口与头戴显示设备之间的明确对应性并行执行本申请的显示方法,提高了图像处理效率。
不失一般性地,作为将每个头戴显示设备的待显示图像传输到该头戴显示设备的端口的一个可实现的示例,可以首先基于第二预设映射关系来确定每个头戴显示设备的端口对应的虚拟显示端口。然后,基于所确定的虚拟显示端口的端口协议封装该头戴显示设备的待显示图像。而后,将所封装的每个头戴显示设备的待显示图像传输到该头戴显示设备的端口。
进一步地,电子设备可以通过图像渲染引擎中的虚拟相机的旋转实现待显示图像位姿或姿态的保持或变化,从而使待显示图像与头戴显示设备的用户显示界面之间符合预设的相对方位。不失一般性地,在复位操作的情况下,作为按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像的示例,响应于接收到该头戴显示设备的复位操作指令,可以获取该头戴显示设备的复位操作参数。然后,基于复位操作参数和该头戴显示设备的当前空间分布信息,控制该头戴显示设备对应的虚拟相机旋转,来对待显示图像进行复位。其中,复位操作指令可以用于控制待显示图像和头戴显示设备之间的空间位置关系满足预设条件,例如将待显示图像显示在头戴显示设备正前方两米处。复位操作指令可以通过用户眼球移动操作或头部移动操作触发,复位操作指令中可以包括旋转分量和位移分量,将旋转分量和位移分量分别配置到虚拟相机中,即可以实现复位操作。由于采用虚拟相机旋转能够快捷地实现待显示图像与头戴显示设备之间的相对位置,无需调整待显示图像,只需要控制各头戴显示设备对应的虚拟相机的旋转,即可以使得各头戴显示设备对应的待显示图像的空间位置满足预设条件,实现多个头戴显示设备的并行复位,从而提高了复位操作的效率。
作为一些可选的示例,在需要将待显示图像正对头戴显示设备的用户界面的情况下,可以确定虚拟相机中的旋转参数的反旋转参数(例如,旋转参数可以采用旋转矩阵表征,反旋转参数可以采用旋转矩阵的逆矩阵表征)。然后,将反旋转参数应用于虚拟相机,可以实现待显示图像对齐,用户无需调整自身的头部姿势就能实现快捷地复位。
下面将结合图5来描述根据本申请的另一些可选的实施例的用于头戴显示设备的显示装置500。显示装置500对应于图2所示的显示方法,可以适用于诸如车载设备的电子设备以用来并行驱动至少两个头戴显示设备。具体地,图5的显示装置500包括:
获取模块510,获取至少两个头戴显示设备的传感器数据。
确定模块520,基于所获取的传感器数据,确定至少两个头戴显示设备各自的空间分布信息,其中,空间分布信息包括位姿信息和姿态信息中的至少一者。
渲染模块530,针对至少两个头戴显示设备中的头戴显示设备,在图像渲染引擎预先构建的各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,以使所确定的虚拟相机按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像。
显示模块540,将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示。
在本申请实施例的方案中,通过获取不同的头戴显示设备的传感器数据,独立地确定了不同传感器数据所指示的头戴显示设备空间分布信息,进而能够采用图像渲染引擎对不同头戴显示设备构建了不同的虚拟相机,独立地基于不同头戴显示设备的空间分布信息渲染相同的源图像数据,并且将渲染后的源图像数据分别传输到各自的头戴显示设备中显示,实现了不同头戴显示设备对相同的源图像数据的渲染和显示,在保证图像处理效率的情况下实现了多个头戴显示设备的同时显示。
在另一些示例中,渲染模块具体用于:从图像渲染引擎预先构建的各个渲染图层中,确定与所确定的虚拟相机对应的渲染图层;按照该头戴显示设备的空间分布信息,控制所确定的虚拟相机的旋转角度,将源图像数据渲染到该渲染图层,得到待显示图像。
在另一些示例中,渲染模块具体用于:响应于接收到针对该渲染图像的渲染请求,获取渲染请求的渲染属性值;基于所获取的渲染属性值,在该渲染图层中对源图像数据进行渲染,得到待显示图像。
在另一些示例中,渲染模块具体用于:响应于接收到该头戴显示设备的复位操作指令,获取该头戴显示设备的复位操作参数,其中,复位操作指令用于控制待显示图像和头戴显示设备之间的空间位置关系满足预设条件;基于复位操作参数和该头戴显示设备的当前空间分布信息,控制该头戴显示设备对应的虚拟相机旋转,来对待显示图像进行复位。
在另一些示例中,显示装置还包括:监测模块,在获取至少两个头戴显示设备的传感器数据之前,响应于监测到至少两个头戴显示设备的被连接状态,确定各头戴显示设备的发现事件,并且在确定出头戴显示设备被发现的情况下,发送头戴显示设备的传感器数据的获取请求。
在另一些示例中,获取模块具体用于:分别通过至少两个头戴显示设备各自的端口,获取至少两个头戴显示设备的传感器数据。显示模块具体用于:将每个头戴显示设备的待显示图像传输到该头戴显示设备的端口,以在该头戴显示设备中进行显示。
在另一些示例中,渲染模块具体用于:基于第一预设映射关系,确定与该头戴显示设备的端口对应的虚拟相机,其中,第一预设映射关系指示图像渲染引擎预先构建的各个虚拟相机与各个头戴显示设备的端口之间的对应关系。
在另一些示例中,显示模块具体用于:基于第二预设映射关系,确定每个头戴显示设备的端口对应的虚拟显示端口,第二预设映射关系指示每个头戴显示设备的端口与虚拟显示端口之间的端口挂载关系;基于所确定的虚拟显示端口的端口协议封装该头戴显示设备的待显示图像;将所封装的每个头戴显示设备的待显示图像传输到该头戴显示设备的端口。
应理解,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的显示装置及其各个模块的具体工作过程,可以参考前述显示方法实施例中的对应过程描述,在此不再赘述。
参照图6,示出了根据本申请的另一些可选的实施例的一种电子设备的结构示意图,本申请具体实施例并不对电子设备的具体实现做限定。
如图6所示,该电子设备可以包括:用于执行程序610的处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
处理器、通信接口、以及存储器通过通信总线完成相互间的通信。
至少两个通信接口,用于与头戴显示设备或服务器进行通信,例如,每个通信接口连接到一个头戴显示设备。
处理器,用于执行程序,具体可以执行上述方法实施例中的相关步骤。
具体地,程序可以包括程序代码,该程序代码包括计算机操作指令。
处理器可能是CPU,或者是特定集成电路ASIC(Application SpecificIntegrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。智能设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器,用于存放程序。存储器可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序可包括多条计算机指令,程序具体可以通过多条计算机指令使得处理器执行前述多个方法实施例中任一实施例所描述的用于头戴显示设备的显示方法对应的操作。
程序中各步骤的具体实现可以参见上述方法实施例中的相应步骤和单元中对应的描述,并具有相应的有益效果,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
本申请实施例还提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现前述多个方法实施例中任一实施例所描述的方法。该计算机存储介质包括但不限于:只读光盘(Compact Disc Read-Only Memory ,CD-ROM)、随机存储器(RandomAccess Memory,RAM)、软盘、硬盘或磁光盘等。
本申请实施例还提供了一种计算机程序产品,包括计算机指令,该计算机指令指示计算设备执行上述多个方法实施例中的用于头戴显示设备的显示方法对应的操作。
此外,需要说明的是,本申请实施例所涉及到的与用户有关的信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于对模型进行训练的样本数据、用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关规定和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
需要指出,根据实施的需要,可将本申请实施例中描述的各个部件/步骤拆分为更多部件/步骤,也可将两个或多个部件/步骤或者部件/步骤的部分操作组合成新的部件/步骤,以实现本申请实施例的目的。
上述根据本申请实施例的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CD-ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如专用集成电路(Application Specific Integrated Circuit,ASIC)或现场可编辑门阵列(Field Programmable Gate Array,FPGA))的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,随机存储器(Random Access Memory ,RAM)、只读存储器(Read-Only Memory, ROM)、闪存等),当所述软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的方法。此外,当通用计算机访问用于实现在此示出的方法的代码时,代码的执行将通用计算机转换为用于执行在此示出的方法的专用计算机。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请实施例的范围。
以上实施方式仅用于说明本申请实施例,而并非对本申请实施例的限制,有关技术领域的普通技术人员,在不脱离本申请实施例的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本申请实施例的范畴,本申请实施例的专利保护范围应由权利要求限定。
Claims (11)
1.一种用于头戴显示设备的显示方法,所述方法用于并行驱动至少两个头戴显示设备,所述方法包括:
获取所述至少两个头戴显示设备的传感器数据;
基于所获取的传感器数据,确定所述至少两个头戴显示设备各自的空间分布信息,其中,所述空间分布信息包括位姿信息和姿态信息中的至少一者;
针对所述至少两个头戴显示设备中的头戴显示设备,在图像渲染引擎预先构建的各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,以使所确定的虚拟相机按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像;
将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示。
2.根据权利要求1所述的方法,其中,所述按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像,包括:
从所述图像渲染引擎预先构建的各个渲染图层中,确定与所确定的虚拟相机对应的渲染图层;
按照该头戴显示设备的空间分布信息,控制所确定的虚拟相机的旋转角度,将所述源图像数据渲染到该渲染图层,得到待显示图像。
3.根据权利要求2所述的方法,其中,所述将所述源图像数据渲染到该渲染图层,得到待显示图像,包括:
响应于接收到针对该渲染图像的渲染请求,获取所述渲染请求的渲染属性值;
基于所获取的渲染属性值,在该渲染图层中对所述源图像数据进行渲染,得到待显示图像。
4.根据权利要求1所述的方法,其中,所述按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像,包括:
响应于接收到该头戴显示设备的复位操作指令,获取该头戴显示设备的复位操作参数,其中,所述复位操作指令用于控制所述待显示图像和头戴显示设备之间的空间位置关系满足预设条件;
基于所述复位操作参数和该头戴显示设备的当前空间分布信息,控制该头戴显示设备对应的虚拟相机旋转来对所述待显示图像进行复位。
5.根据权利要求1所述的方法,其中,在获取至少两个头戴显示设备的传感器数据之前,所述方法还包括:
响应于监测到至少两个头戴显示设备的被连接状态,确定各所述头戴显示设备的发现事件;
在确定出所述头戴显示设备被发现的情况下,发送所述头戴显示设备的传感器数据的获取请求。
6.根据权利要求1所述的方法,其中,所述获取至少两个头戴显示设备的传感器数据,包括:
分别通过至少两个头戴显示设备各自的端口,获取所述至少两个头戴显示设备的传感器数据;
所述将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示,包括:
将每个头戴显示设备的待显示图像传输到该头戴显示设备的端口,以在该头戴显示设备中进行显示。
7.根据权利要求6所述的方法,其中,所述在图像渲染引擎预先构建的各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,包括:
基于第一预设映射关系,确定与该头戴显示设备的端口对应的虚拟相机,其中,所述第一预设映射关系指示所述图像渲染引擎预先构建的各个虚拟相机与各个头戴显示设备的端口之间的对应关系。
8.根据权利要求6所述的方法,其中,所述将每个头戴显示设备的待显示图像传输到该头戴显示设备的端口,包括:
基于第二预设映射关系,确定每个头戴显示设备的端口对应的虚拟显示端口,所述第二预设映射关系指示每个头戴显示设备的端口与虚拟显示端口之间的端口挂载关系;
基于所确定的虚拟显示端口的端口协议封装该头戴显示设备的待显示图像;
将所封装的每个头戴显示设备的待显示图像传输到该头戴显示设备的端口。
9.一种用于头戴显示设备的显示装置,用于并行驱动至少两个头戴显示设备,包括:
获取模块,被配置成获取所述至少两个头戴显示设备的传感器数据;
确定模块,被配置成基于所获取的传感器数据,确定所述至少两个头戴显示设备各自的空间分布信息,其中,所述空间分布信息包括位姿信息和姿态信息中的至少一者;
渲染模块,被配置成针对所述至少两个头戴显示设备中的头戴显示设备,在图像渲染引擎预先构建的各个虚拟相机中确定与该头戴显示设备对应的虚拟相机,以使所确定的虚拟相机按照该头戴显示设备的空间分布信息对源图像数据进行渲染得到待显示图像;
显示模块,被配置成将各个头戴显示设备的待显示图像传输到对应的头戴显示设备进行显示。
10.一种电子设备,包括:处理器、存储器、至少两个通信接口和通信总线,所述处理器、所述存储器和所述至少两个通信接口通过所述通信总线完成相互间的通信,每个通信接口用于连接头戴显示设备;
所述存储器用于存储至少一可执行指令,所述可执行指令使所述处理器执行根据权利要求1-8中任一项所述的方法以控制头戴显示设备的显示。
11.一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310673656.9A CN116400878B (zh) | 2023-06-07 | 2023-06-07 | 头戴显示设备的显示方法、装置、电子设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310673656.9A CN116400878B (zh) | 2023-06-07 | 2023-06-07 | 头戴显示设备的显示方法、装置、电子设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116400878A true CN116400878A (zh) | 2023-07-07 |
CN116400878B CN116400878B (zh) | 2023-09-08 |
Family
ID=87014612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310673656.9A Active CN116400878B (zh) | 2023-06-07 | 2023-06-07 | 头戴显示设备的显示方法、装置、电子设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116400878B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116755563A (zh) * | 2023-07-14 | 2023-09-15 | 优奈柯恩(北京)科技有限公司 | 用于头戴显示设备的交互控制方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106710002A (zh) * | 2016-12-29 | 2017-05-24 | 深圳迪乐普数码科技有限公司 | 基于观察者视角定位的ar实现方法及其系统 |
CN106792094A (zh) * | 2016-12-23 | 2017-05-31 | 歌尔科技有限公司 | Vr设备播放视频的方法和vr设备 |
US20190012826A1 (en) * | 2017-07-05 | 2019-01-10 | Qualcomm Incorporated | Asynchronous time warp with depth data |
CN110349527A (zh) * | 2019-07-12 | 2019-10-18 | 京东方科技集团股份有限公司 | 虚拟现实显示方法、装置及系统、存储介质 |
CN113223186A (zh) * | 2021-07-07 | 2021-08-06 | 江西科骏实业有限公司 | 实现增强现实的处理方法、设备、产品和装置 |
CN113238656A (zh) * | 2021-05-25 | 2021-08-10 | 北京达佳互联信息技术有限公司 | 三维图像的显示方法、装置、电子设备及存储介质 |
CN115373618A (zh) * | 2022-10-26 | 2022-11-22 | 亿咖通(北京)科技有限公司 | 一种多屏显示方法、装置、车机及存储介质 |
-
2023
- 2023-06-07 CN CN202310673656.9A patent/CN116400878B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106792094A (zh) * | 2016-12-23 | 2017-05-31 | 歌尔科技有限公司 | Vr设备播放视频的方法和vr设备 |
CN106710002A (zh) * | 2016-12-29 | 2017-05-24 | 深圳迪乐普数码科技有限公司 | 基于观察者视角定位的ar实现方法及其系统 |
US20190012826A1 (en) * | 2017-07-05 | 2019-01-10 | Qualcomm Incorporated | Asynchronous time warp with depth data |
CN110349527A (zh) * | 2019-07-12 | 2019-10-18 | 京东方科技集团股份有限公司 | 虚拟现实显示方法、装置及系统、存储介质 |
CN113238656A (zh) * | 2021-05-25 | 2021-08-10 | 北京达佳互联信息技术有限公司 | 三维图像的显示方法、装置、电子设备及存储介质 |
CN113223186A (zh) * | 2021-07-07 | 2021-08-06 | 江西科骏实业有限公司 | 实现增强现实的处理方法、设备、产品和装置 |
CN115373618A (zh) * | 2022-10-26 | 2022-11-22 | 亿咖通(北京)科技有限公司 | 一种多屏显示方法、装置、车机及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116755563A (zh) * | 2023-07-14 | 2023-09-15 | 优奈柯恩(北京)科技有限公司 | 用于头戴显示设备的交互控制方法和装置 |
CN116755563B (zh) * | 2023-07-14 | 2024-05-17 | 优奈柯恩(北京)科技有限公司 | 用于头戴显示设备的交互控制方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116400878B (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8660362B2 (en) | Combined depth filtering and super resolution | |
US9536350B2 (en) | Touch and social cues as inputs into a computer | |
JP2018523326A (ja) | 全球状取込方法 | |
WO2013049756A1 (en) | Personal audio/visual system with holographic objects | |
CN116400878B (zh) | 头戴显示设备的显示方法、装置、电子设备以及存储介质 | |
CN111290580B (zh) | 基于视线追踪的校准方法及相关装置 | |
US20230300464A1 (en) | Direct scale level selection for multilevel feature tracking under motion blur | |
WO2023193482A1 (zh) | 显示方法、装置、电子设备和计算机可读存储介质 | |
US20240176428A1 (en) | Dynamic initialization of 3dof ar tracking system | |
CN115525152A (zh) | 图像处理方法及系统、装置、电子设备和存储介质 | |
US11765457B2 (en) | Dynamic adjustment of exposure and iso to limit motion blur | |
EP4342170A1 (en) | Selective image pyramid computation for motion blur mitigation | |
US20220375041A1 (en) | Selective image pyramid computation for motion blur mitigation in visual-inertial tracking | |
WO2022245648A1 (en) | Dynamic adjustment of exposure and iso related application | |
US20230360267A1 (en) | Intrinsic parameters estimation in visual tracking systems | |
US11683585B2 (en) | Direct scale level selection for multilevel feature tracking under motion blur | |
WO2022246388A1 (en) | Intrinsic parameters estimation in visual tracking systems | |
WO2022000149A1 (zh) | 交互方法及电子设备 | |
US11941184B2 (en) | Dynamic initialization of 3DOF AR tracking system | |
US20230267691A1 (en) | Scene change detection with novel view synthesis | |
US20210383567A1 (en) | Method and system for joint object location and ground plane estimation in computer vision | |
CN117768599A (zh) | 处理图像的方法、装置、系统、电子设备和存储介质 | |
WO2022245649A1 (en) | Augmented reality guided depth estimation | |
KR20240008370A (ko) | 움직이는 객체들의 레이턴시를 최소화하기 위한 늦은 워핑 | |
CN115474178A (zh) | 车载vr设备的无线通信方法、系统、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |