CN109840946A - 虚拟对象显示方法及装置 - Google Patents
虚拟对象显示方法及装置 Download PDFInfo
- Publication number
- CN109840946A CN109840946A CN201710845593.5A CN201710845593A CN109840946A CN 109840946 A CN109840946 A CN 109840946A CN 201710845593 A CN201710845593 A CN 201710845593A CN 109840946 A CN109840946 A CN 109840946A
- Authority
- CN
- China
- Prior art keywords
- virtual objects
- virtual
- display
- dimensional image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种虚拟对象显示方法及装置,属于虚拟现实领域。所述方法包括:对于虚拟现实场景中的每一个虚拟对象,获取所述虚拟对象的显示方式,所述显示方式为二维显示或者三维显示;当所述虚拟对象的显示方式为二维显示时,获取所述虚拟对象的二维图像;渲染所述虚拟对象的二维图像,并在所述虚拟场景中对应所述虚拟对象的位置进行显示。本方案在保证用户的沉浸感的同时,能够减少虚拟现实场景中需要渲染的三维图像,从而减少渲染过程中消耗的运算资源,提高虚拟现实场景中的虚拟对象的渲染效率和显示效果。
Description
技术领域
本发明实施例涉及虚拟现实(Virtual Reality,VR)领域,特别涉及一种虚拟对象显示方法及装置。
背景技术
VR技术是一种颠覆现有的交互方式的虚拟世界仿真技术。其中,对虚拟现实场景中的虚拟对象进行显示是虚拟现实技术的核心之一。
在相关技术中,虚拟现实场景中通常包含若干个虚拟对象,每个虚拟对象对应有两幅三维图像。在虚拟现实场景中显示各个虚拟对象时,VR终端针对用户的左眼渲染并显示虚拟对象对应左眼的三维图像,同时针对用户的右眼渲染并显示虚拟对象对应右眼的三维图像,虚拟对象的不同三维图像分别被用户的左眼和右眼观察到时,能够使用户产生很强的沉浸感。
在相关技术中,VR终端展示虚拟场景时,对虚拟场景中能够被用户观察到的所有虚拟对象的三维图像都进行渲染,导致渲染过程中需要消耗大量的处理资源,影响渲染效率。
发明内容
为了解决相关技术中对虚拟场景中能够被用户观察到的所有虚拟对象的三维图像都进行渲染,导致渲染过程中的需要消耗大量的处理资源,影响渲染效率的问题,本发明实施例提供了一种用于虚拟现实场景中的虚拟对象显示方法及装置。所述技术方案如下:
一方面,提供了一种用于虚拟现实场景中的虚拟对象显示方法,所述方法包括:
对于所述虚拟现实场景中的每一个虚拟对象,获取所述虚拟对象的显示方式,所述显示方式为二维显示或者三维显示;
当所述虚拟对象的显示方式为二维显示时,获取所述虚拟对象的二维图像;
在所述虚拟场景中对应所述虚拟对象的位置渲染并显示所述虚拟对象的二维图像。
另一方面,提供了一种用于虚拟现实场景中的虚拟对象显示装置,所述装置包括:
显示方式获取模块,用于对于所述虚拟现实场景中的每一个虚拟对象,获取所述虚拟对象的显示方式,所述显示方式为二维显示或者三维显示;
图像获取模块,用于当所述虚拟对象的显示方式为二维显示时,获取所述虚拟对象的二维图像;
第一显示模块,用于在所述虚拟场景中对应所述虚拟对象的位置渲染并显示所述虚拟对象的二维图像。
又一方面,提供了一种虚拟现实终端,所述虚拟现实终端包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述第一方面所述的方法。
再一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上述第一方面所述的方法。
在虚拟现实场景的显示过程中,对于虚拟现实场景中的每一个虚拟图像,首先确定该虚拟图像的显示方式(显示方式为二维显示或者三维显示),当该虚拟图像的显示方式为二维显示时,对该虚拟对象的二维图像进行渲染,并在该虚拟对象在虚拟现实场景中的位置处显示渲染的二维图像,在保证用户的沉浸感的同时,能够减少虚拟现实场景中需要渲染的三维图像,从而减少渲染过程中消耗的运算资源,提高虚拟现实场景中的虚拟对象的渲染效率和显示效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例提供的VR系统的结构示意图;
图2是本发明一个实施例提供的虚拟对象显示示意图;
图3是本发明一个实施例提供的用于虚拟现实场景中的虚拟对象显示方法的流程图;
图4是图3所示实施例涉及的一种二维图像拍摄俯视图;
图5A是图3所示实施例涉及的对应用户左眼的二维图像拍摄侧视图;
图5B是图3所示实施例涉及的对应用户右眼的二维图像拍摄侧视图;
图6是图3所示实施例涉及的一种图像显示示意图;
图7和图8是图3所示实施例涉及的两种虚拟现实场景的显示示意图;
图9是本发明一个实施例提供的用于虚拟现实场景中的虚拟对象显示装置的框图;
图10是本发明一个实施例提供的VR终端的结构示意图;
图11是本发明一个实施例提供的计算机设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
请参考图1,其示出了本发明一个实施例提供的VR交互系统的结构示意图。该VR交互系统包括:若干个VR终端100和VR服务器200。
其中,VR终端100包括:头戴式显示器120、虚拟现实主机140和输入设备160。
头戴式显示器120是用于佩戴在用户头部进行图像显示的显示器。头戴式显示器120通常包括佩戴部和显示部,佩戴部包括用于将头戴式显示器120佩戴在用户头部的眼镜腿及弹性带,显示部包括左眼显示屏和右眼显示屏。头戴式显示器120能够在左眼显示屏和右眼显示屏显示不同的图像,从而为用户模拟出三维虚拟环境。
其中,上述头戴式显示器120和虚拟现实主机140可以是相互独立的设备,比如,头戴式显示器120具有显示功能,而计算功能由独立的虚拟现实主机140(比如外部手机或者PC)来实现。或者,在其他实施例中,所述VR终端100也可以实现为VR一体机设备,即用户实现计算功能的虚拟现实主机140集成在头戴式显示器120上,不需要外部手机或者PC主机,开机即可使用。本实施例以VR终端100包括相互独立的头戴式显示器120、虚拟现实主机140和输入设备160为例进行说明。
可选地,头戴式显示器120上设置有运动传感器,用于捕捉用户的头部动作,以使得虚拟现实主机140改变头戴式显示器120中的虚拟头部的显示画面。
头戴式显示器120通过柔性电路板或硬件接口或数据线或无线网络,与虚拟现实主机140电性相连。
虚拟现实主机140用于建模三维虚拟环境、生成三维虚拟环境所对应的三维显示画面、生成三维虚拟环境中的虚拟物体等。当然,虚拟现实主机140也可以建模二维虚拟环境、生成二维虚拟环境所对应的二维显示画面、生成二维虚拟环境中的虚拟物体;或者,虚拟现实主机140可以建模三维虚拟环境、根据用户的视角位置生成该三维虚拟环境所对应的二维显示画面、生成三维虚拟环境中虚拟物体的二维投影画面等,本实施例对此不作限定。
虚拟现实主机140接收输入设备160的输入信号,并根据该输入信号生成头戴式显示器120的显示画面。虚拟现实主机140通常由设置在电路板上的处理器、存储器、图像虚拟现实主机等电子器件实现。可选地,虚拟现实主机140还包括图像采集装置,用于捕捉用户的头部动作,并根据用户的头部动作改变头戴式显示器120中的虚拟头部的显示画面。
虚拟现实主机140通过线缆、蓝牙连接或Wi-Fi(Wireless-Fidelity,无线保真)连接与输入设备160相连。
输入设备160可以是体感手套、体感手柄、遥控器、跑步机、鼠标、键盘、人眼聚焦设备中的至少一种输入外设。
可选地,本实施例中,以输入设备160为需要用户双手操控的设备为例进行说明,比如,输入设备160为体感手套或者体感手柄。
可选地,输入设备160还可以包括其它组件,比如:用于控制各个组件的处理器165、用于与虚拟现实主机140进行通信的通信组件166等,本实施例对此不作限定。
VR服务器200是一台服务器,或者由若干台服务器,或者是一个虚拟化平台,或者是一个云计算服务中心。VR终端100中的虚拟现实主机140与VR服务器200之间通过有线或者无线网络相连。
在虚拟现实场景中,虚拟对象的三维图像由若干个三角形面组成,VR终端中的显示设备(比如头戴式显示器)在显示虚拟对象时,对虚拟对象的三维图像中的每一个三角形面分别进行渲染。其中,虚拟对象的三维图像中的三角形面越多,三维图像就越精细,用户获得的沉浸感也越强。相应的,需要渲染的三角形面也越多,渲染过程中占用的运算资源也越多,渲染效率也就越低,对虚拟现实场景的显示效果的影响也越大。与三维图像相反,一个二维图像中通常只包含少量的三角形面,比如,一个矩形二维图像可以只包含两个三角形面,因此,相对于渲染三维图像来说,渲染二维图像所需要的运算资源很少,相应的,在虚拟现实场景中显示二维图像时,用户获得沉浸感也较低。
在实际应用中,一个虚拟现实场景中可能包含很多个虚拟对象,而并不是所有的虚拟对象都需要进行三维渲染。比如,在同一时刻,用户通常只关注虚拟现实场景中的一个或者部分虚拟图像,而不可能同时关注所有的虚拟对象。因此,在本发明各个实施例所提供的方案中,在对虚拟现实场景中的各个虚拟对象进行显示时,除了虚拟对象的三维图像之外,还可以预先为每个虚拟对象设置二维图像。
请参考图2,其示出了本发明一个实施例提供的虚拟对象显示示意图,如图2所示,在虚拟现实场景的显示过程中,对于虚拟现实场景中的每一个虚拟图像,首先确定该虚拟图像的显示方式(显示方式为二维显示或者三维显示),当该虚拟图像的显示方式为二维显示(比如用户的关注点不在该虚拟图像上)时,对该虚拟对象的二维图像进行渲染,并在该虚拟对象在虚拟现实场景中的位置处显示渲染的二维图像;反之,当该虚拟对象的显示方式为三维显示(比如用户的关注点转移到该虚拟图像上)时,对该虚拟对象的三维图像进行渲染,并在该虚拟对象在虚拟现实场景中的位置处显示渲染的三维图像。
通过上述方法,VR终端在显示虚拟现实场景中的各个虚拟对象时,只需要渲染虚拟现实场景中的部分虚拟对象的三维图像,而对于其它的虚拟对象只需要渲染其二维图像,从而在保证用户的沉浸感的同时,能够减少虚拟现实场景中需要渲染的三维图像,从而减少渲染过程中消耗的运算资源,提高虚拟现实场景中的虚拟对象的渲染效率和显示效果。
请参考图3,其示出了本发明一个实施例提供的用于虚拟现实场景中的虚拟对象显示方法的流程图。本实施例以该用于虚拟现实场景中的虚拟对象显示方法应用于图1所示的VR交互系统中来举例说明。其中,上述方法可以由VR终端来执行。该方法可以包括如下步骤:
步骤301,在显示虚拟现实场景时,对于该虚拟现实场景中的每一个虚拟对象,确定该虚拟对象的显示方式。
其中,虚拟现实场景中的虚拟对象可以是虚拟的人形元素或物体元素,比如一个虚拟人物、一个虚拟箱子或者一棵虚拟的植物等等。
在本发明实施例中,虚拟对象的显示方式可以分为二维显示和三维显示。其中,二维显示是指在虚拟现实场景中渲染并显示虚拟对象的二维图像,三维显示则是指在虚拟现实场景中渲染并显示虚拟对象的三维图像。
在本发明实施例中,在同一个虚拟现实场景中,不同的虚拟对象适用的显示方式可以不同。
在一种可能的实现方式中,虚拟对象适用的显示方式是可变的,即在某一时刻该虚拟对象适用的显示方式为二维显示,而在后续的某个时刻,该虚拟对象适用的显示方式可以转变为三维显示。在这种可能的实现方式中,VR终端在展示虚拟现实场景时,可以针对每一个虚拟对象,分别确定该虚拟对象的显示方式。
比如,VR终端在确定虚拟对象的显示方式时,可以获取虚拟对象的被选中状态,被选中状态为被选中或者未被选中;当虚拟对象的被选中状态为未被选中时,获取虚拟对象适用的显示方式为二维显示;当虚拟对象的被选中状态为被选中时,获取虚拟对象适用的显示方式为三维显示。
在虚拟现实场景中,虚拟对象被选中,可以是指用户通过输入设备发出的虚拟射线指向该虚拟对象,比如,当输入设备具有视线追踪功能时,VR终端可以追踪用户的视线方向,并将虚拟现实场景中,被以用户眼球为起点且指向该视线方向的虚拟射线命中的虚拟对象的显示方式确定为三维显示,并将虚拟现实场景中其它的虚拟对象的显示方式确定为二维显示;或者,当输入设备为手持式设备时,VR终端可以根据手持式设备的当前姿态确定虚拟射线的方向,并根据该虚拟设想的方向确定该虚拟现实场景中,被虚拟道具(比如虚拟手)发出的虚拟射线命中的虚拟对象,将该虚拟射线命中的虚拟对象的显示方式确定为三维显示,并将虚拟现实场景中其它的虚拟对象的显示方式确定为二维显示。或者,在虚拟现实场景中,用户也可以通过其它操作方式选中虚拟对象,比如,用户通过输入设备发出的虚拟射线指向该虚拟对象后,发出锁定选中的操作,此时,被虚拟射线指向的虚拟对象进入被选中的状态,VR终端可以确定该进入被选中的状态的虚拟对象的显示方式为三维显示,而其它未进入被选中的状态的虚拟对象的显示方式为二维显示。
在另一种可能的实现方式中,虚拟对象适用的显示方式可以是固定不变的,比如,开发人员可以预先设置虚拟现实场景中的部分虚拟对象适用的显示方式为三维显示,而其它部分的虚拟对象适用的显示方式为二维显示。比如,开发人员在开发虚拟现实场景时,可以将虚拟现实场景中重要的虚拟对象(比如处于前景部分的虚拟对象)的显示方位设置为三维显示,并将虚拟现实场景中相对不重要的虚拟对象(比如处于背景部分的虚拟对象)的显示方位设置为二维显示,并在虚拟对象对应的数据文件(该数据文件是开发虚拟现实场景对应的应用程序时设置的文件)中设置虚拟对象适用的显示方式标识,该显示方式标识用于指示对应的虚拟对象适用的显示方式,比如,可以设置适用的显示方式标识为1或2,其中1表示虚拟对象适用的显示方式为三维显示,2表示虚拟对象适用的显示方式为二维显示。VR终端在展示虚拟现实场景时,在虚拟现实场景中渲染并显示虚拟对象之前,首先从虚拟对象对应的数据文件中解析获得该虚拟对象适用的显示方式标识,根据该显示方式标识确定虚拟对象适用的显示方式。
步骤302,当该虚拟对象的显示方式为二维显示时,获取该虚拟对象的二维图像。
VR终端在显示虚拟现实场景时,通过与用户的左眼和右眼分别对应的显示屏显示与用户的左眼和右眼分别对应的图像,因此,在本发明实施例中,一个虚拟对象的二维图像包含一组两幅图像,且两幅图像分别对应用户的左眼和右眼。
其中,该虚拟对象的二维图像可以是开发人员通过开发设备预先设置并保存的二维图像。在设置虚拟对象的二维图像时,开发设备可以生成该虚拟对象的三维模型;通过第一单目视觉相机拍摄该三维模型,获得该虚拟对象对应用户左眼的二维图像,该第一单目视觉相机是模拟观察该三维模型时的用户左眼设置的虚拟相机;并通过第二单目视觉相机拍摄该三维模型,获得该虚拟对象对应用户右眼的二维图像,该第二单目视觉相机是模拟观察该三维模型时的用户右眼设置的虚拟相机。
具体的,在上述虚拟现实场景的开发过程中,开发人员可以通过开发设备预先对该虚拟现实场景中的各个虚拟对象的三维图像分别进行渲染并显示,对于以三维图像渲染并显示每一个虚拟对象,开发设备在该虚拟场景中设置两个虚拟的单目视觉相机,且该两个虚拟的单目视觉相机分别对应用户查看该虚拟现实场景时,左眼和右眼的观察位置,且每个单目视觉相机的拍摄参数与对应的眼睛查看虚拟现实场景中该虚拟对象的参数相同。单目视觉相机的参数可以包括视角大小、渲染范围、渲染深度以及渲染方式。其中,视角大小即为单目视觉相机对应的用户眼睛观察虚拟对象时的视角大小,渲染范围为单目视觉相机对应的用户眼睛观察虚拟对象时,虚拟对象在视野中的范围,渲染深度可以为单目视觉相机对应的用户眼睛到虚拟对象的中心点之间的距离,渲染方式可以为投影渲染。
比如,请参考图4、图5A和图5B,其中,图4示出了本发明实施例涉及的一种二维图像拍摄俯视图,图5A示出了本发明实施例涉及的对应用户左眼的二维图像拍摄侧视图,图5B示出了本发明实施例涉及的对应用户右眼的二维图像拍摄侧视图。
如图4所示,虚拟对象41为人形对象,虚拟的单目视觉相机为对应用户左眼的单目视觉相机42以及对应用户右眼的单目视觉相机43,由于用户左眼和右眼的位置不重合,因此,用户的左眼和右眼单独观察虚拟对象为41时,左右眼分别观察虚拟对象41时的视线方向等参数可能不同,因此,在本发明实施例,在设置单目视觉相机42和43时,可以对应用户的左眼设置单目视觉相机42的视角大小(图4中对应为α),并对应用户的右眼设置单目视觉相机43的视角大小(图4中对应为β)。而两个单目视觉相机的渲染范围44和渲染方式相同,其中渲染方式均为投影渲染。
如图5A和图5B所示,虚拟对象51为人形对象,虚拟的单目视觉相机为对应用户左眼的单目视觉相机52以及对应用户右眼的单目视觉相机53。其中,单目视觉相机52的渲染深度(图5中示出为L1)就是单目视觉相机52对应的用户眼睛与人形对象的中心点O之间的距离;单目视觉相机52拍摄到的二维图像52a实际是虚拟对象51在单目视觉相机52处,且与单目视觉相机52的拍摄方向垂直的平面上的二维投影;相应的,单目视觉相机53的渲染深度(图5中示出为L2)就是单目视觉相机53对应的用户眼睛与人形对象的中心点O之间的距离;单目视觉相机53拍摄到的二维图像53a实际是虚拟对象51在单目视觉相机53处,且与单目视觉相机53的拍摄方向垂直的平面上的二维投影。
此外,在通过单目视觉相机拍摄虚拟对象的二维图像时,通常会拍摄到虚拟对象以及虚拟对象周围部分的二维图像,而在后续渲染显示时,虚拟对象周围部分的二维图像会影响虚拟对象的显示效果,因此,在本发明实施例中,开发设备可以将拍摄获得的二维图像中,虚拟对象的周围部分去除,从而获得只包含虚拟对象的二维图像。可选的,在通过单目视觉相机拍摄获得虚拟对象的二维图像后,开发设备确定该虚拟对象对应用户左眼的二维图像以及该虚拟对象对应用户右眼的二维图像中,颜色值与预设的拍摄底色的颜色值相同的像素,并将确定的像素的透明度设置为0。
具体的,开发设备可以将每个单目视觉相机的拍摄底色设置为一个固定值,该固定值可以与该虚拟对象包含的各种颜色值都不同,或者,该固定值也可以是该虚拟对象中,对应的像素数量的占比低于一定的阈值的某种颜色的颜色值。比如,在设置单目视觉相机的拍摄底色时,开发设备可以获取虚拟对象中各个像素对应的颜色值,并从虚拟对象中各个像素对应的颜色值之外确定一个固定的颜色值作为拍摄底色的颜色值;或者,在设置单目视觉相机的拍摄底色时,开发设备可以获取虚拟对象中各个像素对应的颜色值,并将虚拟对象的各个像素对应的颜色值中,对应的像素数量与虚拟对象的总像素数量之间的比值低于预设阈值的颜色值中的一个(比如,可以是对应的像素数量与虚拟对象的总像素数量之间的比值最小的颜色值)确定为拍摄底色的颜色值。
在设置拍摄参数和拍摄底色后,开发设备在获得这两个单目视觉相机分别拍摄的该虚拟对象的二维图像后,对拍摄到的二维图像进行透明测试,即对于拍摄到的二维图像中每一个像素点,当该像素点的颜色值与上述拍摄底色的颜色值(即上述固定值)相同时,将该像素点的透明度设置为0,这样获得的二维图像可以视为只包含该虚拟对象的二维图像。
开发设备通过虚拟的单目视觉相机拍摄获得虚拟对象的二维图像后,将虚拟对象的二维图像添加至虚拟对象对应的数据文件中。并且,一个虚拟对象的二维图像对应的数据文件中,还包含该二维图像的过滤标识,该过滤标识用于指示该二维图像对应用户的左眼或者右眼。具体比如,通过对应用户左眼的单目视觉相机拍摄虚拟对象并经过透明测试处理获得的二维图像,其对应的过滤标识可以为left,指示该二维图像对应用户的左眼;通过对应用户右眼的单目视觉相机拍摄虚拟对象并经过透明测试处理获得的二维图像,其对应的过滤标识可以为right,指示该二维图像对应用户的右眼。
其中,VR终端在获取虚拟对象的二维图像时,可以从虚拟对象对应的数据文件中获取虚拟对象的二维图像。开发设备在获得一个虚拟对象对应的二维图像之后,可以将该虚拟对象对应的二维图像和三维图像一并存放到该虚拟对象的数据文件中,即该虚拟对象的数据文件中同时包含该虚拟对象的二维图像和三维图像。VR终端在获取一个虚拟对象的二维图像时,可以直接从该虚拟对象的数据文件中读取该虚拟对象的二维图像。
在另一种可能的实现方式中,开发人员在开发虚拟现实场景时,可能并未预先通过开发设备拍摄并设置虚拟现实场景中的虚拟对象的二维图像,而仅仅开发虚拟对象的三维图像,此时,上述获得虚拟对象的二维图像的方式也可以由VR终端来执行,即VR终端首次展示上述虚拟现实场景时,可以执行上述获取虚拟对象的二维图像的步骤。对于VR终端拍摄获取虚拟对象的二维图像的步骤,此处不再赘述。
在实际应用中,虚拟现实场景在开发完成后,该虚拟现实场景中各个虚拟对象的数据文件不允许再变动,VR终端仅仅对虚拟现实场景的展示提供硬件支持,当VR终端拍摄获取虚拟对象的二维图像时,VR终端可以将拍摄并获取到的虚拟对象的二维图像独立于虚拟现实场景的开发人员开发的该虚拟对象的数据文件进行存储,比如,VR终端可以根据虚拟对象的标识将该虚拟对象的二维图像存储在该虚拟现实场景的配置文件中,该配置文件是在应用程序安装后,通过单目视觉相机拍摄虚拟对象的三维模型获得虚拟对象的二维图像,并根据获得的二维图像生成的文件。其中,通过单目视觉相机拍摄虚拟对象的三维模型获得虚拟对象的二维图像的步骤,与开发设备获得虚拟对象的二维图像的步骤类似,即VR终端生成该虚拟对象的三维模型;通过第一单目视觉相机拍摄该三维模型,获得该虚拟对象对应用户左眼的二维图像,并通过第二单目视觉相机拍摄该三维模型,获得该虚拟对象对应用户右眼的二维图像;可选的,VR终端在通过单目视觉相机拍摄获得虚拟对象的二维图像后,还确定该虚拟对象对应用户左眼的二维图像以及该虚拟对象对应用户右眼的二维图像中,颜色值与预设的拍摄底色的颜色值相同的像素,并将确定的像素的透明度设置为0。在获取一个虚拟对象的二维图像时,VR终端可以获取该虚拟对象的标识,根据虚拟对象的标识,从该虚拟现实场景对应的应用程序的配置文件中查找该虚拟对象的二维图像。
在另一种可能的实现方式中,VR终端可以在展示虚拟现实场景时,即时生成虚拟对象的二维图像,比如,VR终端在确定出当前展示的虚拟现实场景中某个虚拟对象的显示方式为二维显示时,可以通过单目视觉相机拍摄该虚拟对象的三维模型,以获得该虚拟对象的二维图像。
步骤303,渲染该虚拟对象的二维图像,并在该虚拟现实场景中对应该虚拟对象的位置显示渲染后的该虚拟对象的二维图像。
在上述渲染并显示虚拟对象的二维图像时,VR终端中对应用户左眼的显示器,在该虚拟现实场景中对应该虚拟对象的位置渲染并显示该虚拟对象对应用户左眼的二维图像,相应的,VR终端中对应用户右眼的显示器,在该虚拟现实场景中对应该虚拟对象的位置渲染并显示该虚拟对象对应用户右眼的二维图像。
比如,请参考图6,其示出了本发明实施例涉及的一种图像显示示意图。如图6所示,VR终端60包含两个显示屏,分别为对应用户左眼的显示屏61以及对应用户右眼的显示屏62,对于虚拟现实场景中显示方式为二维显示的虚拟对象,VR终端根据该虚拟对象对应的过滤标识确定对应用户左眼的二维图像63a以及对应用户右眼的二维图像63b,VR终端在显示屏61中渲染并显示二维图像63a,同时在显示屏62中渲染并显示二维图像63b。
步骤304,当该虚拟对象的显示方式为三维显示时,获取该虚拟对象的三维图像,渲染该虚拟对象的三维图像,并在该虚拟现实场景中对应该虚拟对象的位置显示渲染后的该虚拟对象的三维图像。
当VR终端确定该虚拟对象的显示方式为三维显示时,VR终端可以从该虚拟对象对应的数据文件中提取该虚拟对象分别对应用户左眼和右眼的三维图像,并在对应用户左眼的显示屏中渲染显示对应用户左眼的三维图像,同时在对应用户右眼的显示屏中渲染显示对应用户右眼的三维图像。
可选的,若虚拟对象的显示方式可变,且在虚拟现实场景的展示过程中,VR终端在虚拟现实场景中对应虚拟对象的位置显示渲染后的虚拟对象的二维图像之后,当虚拟对象的显示方式由二维显示变为三维显示时,VR终端可以隐藏该虚拟对象的二维图像,并在该虚拟现实场景中对应该虚拟对象的位置渲染该虚拟对象的三维图像并对渲染后的三维图像进行显示。
反之,VR终端在虚拟现实场景中对应虚拟对象的位置显示渲染后的虚拟对象的三维图像之后,当虚拟对象的显示方式由三维显示变为二维显示时,VR终端可以隐藏该虚拟对象的三维图像,并在该虚拟现实场景中对应该虚拟对象的位置渲染该虚拟对象的二维图像并进行显示。
具体的,请参考图7和图8,其示出了本发明实施例涉及的两种虚拟现实场景的显示示意图。如图7和图8所示,虚拟现实场景中包含3个虚拟对象,图像71a和图像71b是对应同一个虚拟对象71的两幅图像,类似的,图像72a和图像72b是对应同一个虚拟对象72的两幅图像,图像73a和图像73b是对应同一个虚拟对象73的两幅图像。
在图7对应的时刻1,用户选中虚拟对象72,此时,VR终端确定虚拟对象72的显示方式为三维显示,而虚拟对象71和73的显示方式为二维显示,则在图7中,VR终端在对应用户左眼的显示屏中显示的图像72a为三维图像,图像71a和图像73a为二维图像;相应的,VR终端在对应用户左眼的显示屏中显示的图像72b为三维图像,图像71b和图像73b为二维图像。
在图8对应的时刻2,用户放弃选中虚拟对象72,转而选中虚拟对象71,此时,VR终端确定虚拟对象72的显示方式由三维显示变为二维显示,且虚拟对象71的显示方式由二维显示变为三维显示,此时,VR终端在两个显示屏中隐藏虚拟对象71的二维图像,并渲染显示虚拟对象71的三维图像,即此时,在左右两个显示屏中显示的图像71a和图像71b为三维图像;相应的,VR终端在两个显示屏中隐藏虚拟对象72的三维图像,并渲染显示虚拟对象72的二维图像,即此时,在左右两个显示屏中显示的图像72a和图像72b为二维图像。
综上所述,本发明实施例提供的方法,在虚拟现实场景的显示过程中,对于虚拟现实场景中的每一个虚拟图像,首先确定该虚拟图像的显示方式(显示方式为二维显示或者三维显示),当该虚拟图像的显示方式为二维显示时,对该虚拟对象的二维图像进行渲染,并在该虚拟对象在虚拟现实场景中的位置处显示渲染的二维图像,在保证用户的沉浸感的同时,能够减少虚拟现实场景中需要渲染的三维图像,从而减少渲染过程中消耗的运算资源,提高虚拟现实场景中的虚拟对象的渲染效率和显示效果。
此外,本发明实施例提供的方法,在确定虚拟现实场景中的虚拟对象当前使用的显示方式时,可以获取虚拟对象的被选中状态,该被选中状态为被选中或者未被选中;当该虚拟对象的被选中状态为未被选中时,获取该虚拟对象的显示方式为二维显示;当该虚拟对象的被选中状态为被选中时,获取该虚拟对象的显示方式为三维显示;由于虚拟对象被选中时,其有很大可能是用户关注的虚拟对象,而虚拟对象未被选中时,用户可能并不关注该虚拟对象,因此,通过上述方案,能够将用户关注的虚拟对象的显示方式确定为三维显示,渲染并显示该虚拟对象的三维图像,同时,将用户不关注的虚拟对象的显示方式确定为二维显示,以达到保证用户的沉浸感的效果。
请参考图9,其示出了本发明一个实施例提供的用于虚拟现实场景中的虚拟对象显示装置的框图。该用于虚拟现实场景中的虚拟对象显示装置可以通过软件、硬件或者两者的结合实现成为VR终端的全部或一部分,该装置包括:显示方式获取模块901、图像获取模块902以及第一显示模块903。
显示方式获取模块901,用于对于所述虚拟现实场景中的每一个虚拟对象,获取所述虚拟对象的显示方式,所述显示方式为二维显示或者三维显示;
图像获取模块902,用于当所述虚拟对象的显示方式为二维显示时,获取所述虚拟对象的二维图像;
第一渲染模块903,用于对所述虚拟对象的二维图像进行渲染;
第一显示模块904,用于在所述虚拟场景中对应所述虚拟对象的位置显示渲染后的所述虚拟对象的二维图像。
可选的,所述显示方式获取模块,包括:
状态获取单元,用于获取所述虚拟对象的被选中状态,所述被选中状态为被选中或者未被选中;
第一获取单元,用于当所述虚拟对象的被选中状态为未被选中时,获取所述虚拟对象的显示方式为二维显示;
第二获取单元,用于当所述虚拟对象的被选中状态为被选中时,获取所述虚拟对象的显示方式为三维显示。
可选的,所述装置还包括:
隐藏模块,用于当所述虚拟对象的显示方式由二维显示变化为三维显示时,隐藏所述虚拟对象的二维图像;
第二渲染模块,用于对所述虚拟对象的三维图像进行渲染;
第二显示模块,用于在所述虚拟场景中对应所述虚拟对象的位置显示渲染后的所述虚拟对象的三维图像。
可选的,所述图像获取模块,包括:
第三获取单元,用于从所述虚拟对象对应的数据文件中获取所述虚拟对象的二维图像,所述数据文件是开发所述虚拟现实场景对应的应用程序时设置的文件。
可选的,所述图像获取模块,包括:
第四获取单元,用于获取所述虚拟对象的标识,根据所述虚拟对象的标识,从所述虚拟现实场景对应的应用程序的配置文件中查找所述虚拟对象的二维图像;所述配置文件是在所述应用程序安装后,通过单目视觉相机拍摄所述虚拟对象的三维模型获得所述虚拟对象的二维图像,并根据获得的所述二维图像生成的文件。
可选的,所述图像获取模块,包括:
第五获取单元,用于通过单目视觉相机拍摄所述虚拟对象的三维模型,获得所述虚拟对象的二维图像。
可选的,所述第五获取单元,具体用于
生成所述虚拟对象的三维模型;
通过第一单目视觉相机拍摄所述三维模型,获得所述虚拟对象对应用户左眼的二维图像,所述第一单目视觉相机是模拟观察所述三维模型时的用户左眼设置的虚拟相机;
通过第二单目视觉相机拍摄所述三维模型,获得所述虚拟对象对应用户右眼的二维图像,所述第二单目视觉相机是模拟观察所述三维模型时的用户右眼设置的虚拟相机。
可选的,所述装置还包括:
像素确定模块,用于确定所述虚拟对象对应用户左眼的二维图像以及所述虚拟对象对应用户右眼的二维图像中,颜色值与预设的拍摄底色的颜色值相同的像素;
透明度设置模块,用于将确定的像素的透明度设置为0。
综上所述,本发明实施例提供的装置,在虚拟现实场景的显示过程中,对于虚拟现实场景中的每一个虚拟图像,首先确定该虚拟图像的显示方式(显示方式为二维显示或者三维显示),当该虚拟图像的显示方式为二维显示时,对该虚拟对象的二维图像进行渲染,并在该虚拟对象在虚拟现实场景中的位置处显示渲染的二维图像,在保证用户的沉浸感的同时,能够减少虚拟现实场景中需要渲染的三维图像,从而减少渲染过程中消耗的运算资源,提高虚拟现实场景中的虚拟对象的渲染效率和显示效果。
此外,本发明实施例提供的装置,在确定虚拟现实场景中的虚拟对象当前使用的显示方式时,可以获取虚拟对象的被选中状态,该被选中状态为被选中或者未被选中;当该虚拟对象的被选中状态为未被选中时,获取该虚拟对象的显示方式为二维显示;当该虚拟对象的被选中状态为被选中时,获取该虚拟对象的显示方式为三维显示;由于虚拟对象被选中时,其有很大可能是用户关注的虚拟对象,而虚拟对象未被选中时,用户可能并不关注该虚拟对象,因此,通过上述方案,能够将用户关注的虚拟对象的显示方式确定为三维显示,渲染并显示该虚拟对象的三维图像,同时,将用户不关注的虚拟对象的显示方式确定为二维显示,以达到保证用户的沉浸感的效果。
请参考图10,其示出了本发明一个实施例提供的VR终端的结构示意图。该VR终端包括:头戴式显示器120、虚拟现实主机140和输入设备160。
头戴式显示器120是用于佩戴在用户头部进行图像显示的显示器。
头戴式显示器120通过柔性电路板或硬件接口与虚拟现实主机140电性相连。
虚拟现实主机140通常集成在头戴式显示器120的内部,或者,虚拟现实主机也可以设置在头戴式显示器120之外。虚拟现实主机140包括处理器142和存储器144。存储器144是用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质,比如RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。存储器144存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器142加载并执行以实现上述图3所示的方法实施例所提供的虚拟对象显示方法的指令。处理器142用于执行存储器144中的该至少一条指令、至少一段程序、代码集或指令集,来实现上述各个方法实施例中,由VR终端执行的全部或部分步骤。
虚拟现实主机140通过线缆、蓝牙连接或Wi-Fi(Wireless-Fidelity,无线保真)连接与输入设备160相连。
输入设备160是体感手套、体感手柄、遥控器、跑步机、鼠标、键盘、人眼聚焦设备等输入外设。
请参考图11,其示出了本发明一个实施例提供的计算机设备的结构示意图,该计算机设备可以实现为开发人员开发虚拟现实场景所使用的开发设备。该计算机设备包括中央处理单元(CPU)1101、包括随机存取存储器(RAM)1102和只读存储器(ROM)1103的系统存储器1104,以及连接系统存储器1104和中央处理单元1101的系统总线1105。所述计算机设备1100还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)1106,和用于存储操作系统1113、应用程序1114和其他程序模块1115的大容量存储设备1107。
所述基本输入/输出系统1106包括有用于显示信息的显示器1108和用于用户输入信息的诸如鼠标、键盘之类的输入设备1109。其中所述显示器1108和输入设备1109都通过连接到系统总线1105的输入输出控制器1110连接到中央处理单元1101。所述基本输入/输出系统1106还可以包括输入输出控制器1110以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1110还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备1107通过连接到系统总线1105的大容量存储控制器(未示出)连接到中央处理单元1101。所述大容量存储设备1107及其相关联的计算机可读介质为计算机设备1100提供非易失性存储。也就是说,所述大容量存储设备1107可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器1104和大容量存储设备1107可以统称为存储器。
根据本发明的各种实施例,所述计算机设备1100还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设备1100可以通过连接在所述系统总线1105上的网络接口单元1111连接到网络1112,或者说,也可以使用网络接口单元1111来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,中央处理器1101通过执行该一个或一个以上程序来实现图3所示实施例中由开发设备执行的全部或部分步骤。
在示例性实施例中,还提供了一种计算机可读存储介质,例如,该计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、该至少一段程序、该代码集或指令集由处理器加载并执行以实现图3所示实施例中由VR终端所执行的全部或者部分步骤。
在示例性实施例中,还提供了一种计算机可读存储介质,例如,该计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、该至少一段程序、该代码集或指令集由处理器加载并执行以实现图3所示实施例中由开发设备所执行的全部或者部分步骤。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (15)
1.一种用于虚拟现实场景中的虚拟对象显示方法,其特征在于,所述方法包括:
对于所述虚拟现实场景中的每一个虚拟对象,获取所述虚拟对象的显示方式,所述显示方式为二维显示或者三维显示;
当所述虚拟对象的显示方式为二维显示时,获取所述虚拟对象的二维图像;
对所述虚拟对象的二维图像进行渲染;
在所述虚拟场景中对应所述虚拟对象的位置显示渲染后的所述虚拟对象的二维图像。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述虚拟场景中对应所述虚拟对象的位置显示渲染后的所述虚拟对象的二维图像之后,当所述虚拟对象的显示方式为三维显示时,隐藏所述虚拟对象的二维图像;
对所述虚拟对象的三维图像进行渲染;
在所述虚拟场景中对应所述虚拟对象的位置显示渲染后的所述虚拟对象的三维图像。
3.根据权利要求1或2所述的方法,其特征在于,所述对于所述虚拟现实场景中的每一个虚拟对象,获取所述虚拟对象的显示方式,包括:
获取所述虚拟对象的被选中状态,所述被选中状态为被选中或者未被选中;
当所述虚拟对象的被选中状态为未被选中时,获取所述虚拟对象的显示方式为二维显示;
当所述虚拟对象的被选中状态为被选中时,获取所述虚拟对象的显示方式为三维显示。
4.根据权利要求1所述的方法,其特征在于,所述获取所述虚拟对象的二维图像,包括:
从所述虚拟对象对应的数据文件中获取所述虚拟对象的二维图像,所述数据文件是开发所述虚拟现实场景对应的应用程序时设置的文件。
5.根据权利要求1所述的方法,其特征在于,所述获取所述虚拟对象的二维图像,包括:
获取所述虚拟对象的标识,根据所述虚拟对象的标识,从所述虚拟现实场景对应的应用程序的配置文件中查找所述虚拟对象的二维图像;所述配置文件是在所述应用程序安装后,通过单目视觉相机拍摄所述虚拟对象的三维模型获得所述虚拟对象的二维图像,并根据获得的所述二维图像生成的文件。
6.根据权利要求1所述的方法,其特征在于,所述获取所述虚拟对象的二维图像,包括:
通过单目视觉相机拍摄所述虚拟对象的三维模型,获得所述虚拟对象的二维图像。
7.根据权利要求5或6所述的方法,其特征在于,所述通过单目视觉相机拍摄所述虚拟对象的三维模型,获得所述虚拟对象的二维图像,包括:
生成所述虚拟对象的三维模型;
通过第一单目视觉相机拍摄所述三维模型,获得所述虚拟对象对应用户左眼的二维图像,所述第一单目视觉相机是模拟观察所述三维模型时的用户左眼设置的虚拟相机;
通过第二单目视觉相机拍摄所述三维模型,获得所述虚拟对象对应用户右眼的二维图像,所述第二单目视觉相机是模拟观察所述三维模型时的用户右眼设置的虚拟相机。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
确定所述虚拟对象对应用户左眼的二维图像以及所述虚拟对象对应用户右眼的二维图像中,颜色值与预设的拍摄底色的颜色值相同的像素;
将确定的像素的透明度设置为0。
9.一种用于虚拟现实场景中的虚拟对象显示装置,其特征在于,所述装置包括:
显示方式获取模块,用于对于所述虚拟现实场景中的每一个虚拟对象,获取所述虚拟对象的显示方式,所述显示方式为二维显示或者三维显示;
图像获取模块,用于当所述虚拟对象的显示方式为二维显示时,获取所述虚拟对象的二维图像;
第一渲染模块,用于对所述虚拟对象的二维图像进行渲染;
第一显示模块,用于在所述虚拟场景中对应所述虚拟对象的位置显示渲染后的所述虚拟对象的二维图像。
10.根据权利要求9所述的装置,其特征在于,所述装置还包括:
隐藏模块,用于当所述虚拟对象的显示方式由二维显示变化为三维显示时,隐藏所述虚拟对象的二维图像;
第二渲染模块,用于对所述虚拟对象的三维图像进行渲染;
第二显示模块,用于在所述虚拟场景中对应所述虚拟对象的位置显示渲染后的所述虚拟对象的三维图像。
11.根据权利要求9或10所述的装置,其特征在于,所述显示方式获取模块,包括:
状态获取单元,用于获取所述虚拟对象的被选中状态,所述被选中状态为被选中或者未被选中;
第一获取单元,用于当所述虚拟对象的被选中状态为未被选中时,获取所述虚拟对象的显示方式为二维显示;
第二获取单元,用于当所述虚拟对象的被选中状态为被选中时,获取所述虚拟对象的显示方式为三维显示。
12.根据权利要求9所述的装置,其特征在于,所述图像获取模块,包括:
第三获取单元,用于从所述虚拟对象对应的数据文件中获取所述虚拟对象的二维图像,所述数据文件是开发所述虚拟现实场景对应的应用程序时设置的文件。
13.根据权利要求9所述的装置,其特征在于,所述图像获取模块,包括:
第四获取单元,用于获取所述虚拟对象的标识,根据所述虚拟对象的标识,从所述虚拟现实场景对应的应用程序的配置文件中查找所述虚拟对象的二维图像;所述配置文件是在所述应用程序安装后,通过单目视觉相机拍摄所述虚拟对象的三维模型获得所述虚拟对象的二维图像,并根据获得的所述二维图像生成的文件。
14.一种虚拟现实终端,其特征在于,所述虚拟现实终端包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至8任一所述的用于虚拟现实场景中的虚拟对象显示方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至8任一所述的用于虚拟现实场景中的虚拟对象显示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710845593.5A CN109840946B (zh) | 2017-09-19 | 2017-09-19 | 虚拟对象显示方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710845593.5A CN109840946B (zh) | 2017-09-19 | 2017-09-19 | 虚拟对象显示方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109840946A true CN109840946A (zh) | 2019-06-04 |
CN109840946B CN109840946B (zh) | 2022-09-23 |
Family
ID=66875837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710845593.5A Active CN109840946B (zh) | 2017-09-19 | 2017-09-19 | 虚拟对象显示方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109840946B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047710A (zh) * | 2019-12-03 | 2020-04-21 | 深圳市未来感知科技有限公司 | 虚拟现实系统及交互设备显示方法和计算机可读存储介质 |
CN112312110A (zh) * | 2019-07-29 | 2021-02-02 | 史克威尔·艾尼克斯有限公司 | 非暂态计算机可读介质、图像处理装置及图像处理方法 |
CN112732088A (zh) * | 2021-01-18 | 2021-04-30 | 海信视像科技股份有限公司 | 一种虚拟现实设备及单目截屏方法 |
CN113611181A (zh) * | 2021-07-09 | 2021-11-05 | 中国舰船研究设计中心 | 一种虚拟仿真场景的立体显示方法及装置 |
CN114286077A (zh) * | 2021-01-08 | 2022-04-05 | 海信视像科技股份有限公司 | 一种虚拟现实设备及vr场景图像显示方法 |
CN115665461A (zh) * | 2022-10-13 | 2023-01-31 | 聚好看科技股份有限公司 | 一种视频录制方法及虚拟现实设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127846A (zh) * | 2016-06-28 | 2016-11-16 | 乐视控股(北京)有限公司 | 虚拟现实终端及其视觉虚拟方法和装置 |
CN106375748A (zh) * | 2016-09-07 | 2017-02-01 | 深圳超多维科技有限公司 | 立体虚拟现实全景视图拼接方法、装置及电子设备 |
CN106485790A (zh) * | 2016-09-30 | 2017-03-08 | 珠海市魅族科技有限公司 | 一种画面显示的方法以及装置 |
CN107071392A (zh) * | 2016-12-23 | 2017-08-18 | 网易(杭州)网络有限公司 | 图像处理方法和装置 |
US20170243324A1 (en) * | 2016-02-22 | 2017-08-24 | Google Inc. | Separate time-warping for a scene and an object for display of virtual reality content |
-
2017
- 2017-09-19 CN CN201710845593.5A patent/CN109840946B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170243324A1 (en) * | 2016-02-22 | 2017-08-24 | Google Inc. | Separate time-warping for a scene and an object for display of virtual reality content |
CN106127846A (zh) * | 2016-06-28 | 2016-11-16 | 乐视控股(北京)有限公司 | 虚拟现实终端及其视觉虚拟方法和装置 |
CN106375748A (zh) * | 2016-09-07 | 2017-02-01 | 深圳超多维科技有限公司 | 立体虚拟现实全景视图拼接方法、装置及电子设备 |
CN106485790A (zh) * | 2016-09-30 | 2017-03-08 | 珠海市魅族科技有限公司 | 一种画面显示的方法以及装置 |
CN107071392A (zh) * | 2016-12-23 | 2017-08-18 | 网易(杭州)网络有限公司 | 图像处理方法和装置 |
Non-Patent Citations (1)
Title |
---|
于彬: "《Android编程基础》", 30 September 2013 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112312110A (zh) * | 2019-07-29 | 2021-02-02 | 史克威尔·艾尼克斯有限公司 | 非暂态计算机可读介质、图像处理装置及图像处理方法 |
CN111047710A (zh) * | 2019-12-03 | 2020-04-21 | 深圳市未来感知科技有限公司 | 虚拟现实系统及交互设备显示方法和计算机可读存储介质 |
CN111047710B (zh) * | 2019-12-03 | 2023-12-26 | 深圳市未来感知科技有限公司 | 虚拟现实系统及交互设备显示方法和计算机可读存储介质 |
CN114286077A (zh) * | 2021-01-08 | 2022-04-05 | 海信视像科技股份有限公司 | 一种虚拟现实设备及vr场景图像显示方法 |
CN114286077B (zh) * | 2021-01-08 | 2024-05-17 | 海信视像科技股份有限公司 | 一种虚拟现实设备及vr场景图像显示方法 |
CN112732088A (zh) * | 2021-01-18 | 2021-04-30 | 海信视像科技股份有限公司 | 一种虚拟现实设备及单目截屏方法 |
CN113611181A (zh) * | 2021-07-09 | 2021-11-05 | 中国舰船研究设计中心 | 一种虚拟仿真场景的立体显示方法及装置 |
CN115665461A (zh) * | 2022-10-13 | 2023-01-31 | 聚好看科技股份有限公司 | 一种视频录制方法及虚拟现实设备 |
CN115665461B (zh) * | 2022-10-13 | 2024-03-22 | 聚好看科技股份有限公司 | 一种视频录制方法及虚拟现实设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109840946B (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109840946A (zh) | 虚拟对象显示方法及装置 | |
Hilfert et al. | Low-cost virtual reality environment for engineering and construction | |
US11074755B2 (en) | Method, device, terminal device and storage medium for realizing augmented reality image | |
WO2018188499A1 (zh) | 图像、视频处理方法和装置、虚拟现实装置和存储介质 | |
US20170186219A1 (en) | Method for 360-degree panoramic display, display module and mobile terminal | |
US11880956B2 (en) | Image processing method and apparatus, and computer storage medium | |
CN109829981A (zh) | 三维场景呈现方法、装置、设备及存储介质 | |
CN109743892B (zh) | 虚拟现实内容的显示方法和装置 | |
CN107820593A (zh) | 一种虚拟现实交互方法、装置及系统 | |
US20120162384A1 (en) | Three-Dimensional Collaboration | |
CN109660783A (zh) | 虚拟现实视差校正 | |
CN108230384A (zh) | 图像深度计算方法、装置、存储介质和电子设备 | |
US11238651B2 (en) | Fast hand meshing for dynamic occlusion | |
CN110568923A (zh) | 基于Unity3D的虚拟现实交互方法、装置、设备及存储介质 | |
CN110168614A (zh) | 用于生成混合现实中的动态虚拟内容的设备和方法 | |
US10955911B2 (en) | Gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
CN109688343A (zh) | 增强现实演播室的实现方法和装置 | |
US11449196B2 (en) | Menu processing method, device and storage medium in virtual scene | |
CN111882674A (zh) | 虚拟对象的调整方法、装置、电子设备及存储介质 | |
CN111667420A (zh) | 图像处理方法及装置 | |
US20210142511A1 (en) | Method of generating 3-dimensional model data | |
CN107609946A (zh) | 一种显示控制方法及计算设备 | |
CN113178017A (zh) | Ar数据展示方法、装置、电子设备及存储介质 | |
CN107133981B (zh) | 图像处理方法和装置 | |
CN108986228A (zh) | 用于虚拟现实中界面显示的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |