CN105117111B - 虚拟现实交互画面的渲染方法和装置 - Google Patents
虚拟现实交互画面的渲染方法和装置 Download PDFInfo
- Publication number
- CN105117111B CN105117111B CN201510612170.XA CN201510612170A CN105117111B CN 105117111 B CN105117111 B CN 105117111B CN 201510612170 A CN201510612170 A CN 201510612170A CN 105117111 B CN105117111 B CN 105117111B
- Authority
- CN
- China
- Prior art keywords
- goal
- sub
- virtual reality
- picture
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提出一种虚拟现实的虚拟现实交互画面的渲染方法,所述方法包括:根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。本公开可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量,从而不需要额外增加硬件成本。
Description
技术领域
本公开涉及通讯领域,尤其涉及虚拟现实交互画面的渲染方法和装置。
背景技术
虚拟现实技术已逐渐成为改进下一代人机交互体验的主要研究方向之一。随着虚拟现实技术的发展,用户对于虚拟现实场景的真实度,以及用户的浸入感受的要求也越来越高,而在提升虚拟现实场景的真实度以及用户的浸入感受时,不但会增加在进行场景渲染时的计算量,而且还会面临网络传输速度上的压力。
发明内容
为克服相关技术中存在的问题,本公开提供一种虚拟现实交互画面的渲染方法和装置。
根据本公开实施例的第一方面,提供一种虚拟现实交互画面的渲染方法,所述方法包括:
根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
可选的,所述方法包括:
接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标之间的空间距离;或
接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标在交互场景中的空间坐标;
基于接收到的所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
可选的,所述根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度包括:
将所述主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配;其中,所述预设的多个距离区间分别对应不同的画面渲染精度;
当所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度。
可选的,所述基于获取到的与所述子目标对应的画面渲染精度对所述子目标的动作数据进行压缩包括:
接收所述子目标的虚拟现实终端上传的所述子目标的动作数据;
根据为所述子目标设置的画面渲染精度对接收到的所述子目标的动作数据进行对应比例的压缩。
根据本公开实施例的第二方面,提供一种虚拟现实交互画面的渲染方法,所述方法包括:
接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
根据接收到的所述子目标的动作数据渲染对应的交互画面。
可选的,所述方法包括:
基于主体目标以及所述子目标在交互场景中的空间坐标计算所述主体目标与所述子目标之间的空间距离;
将计算出的所述主体目标与所述子目标之间的空间距离上传至所述虚拟现实服务端;或
将所述主体目标与所述子目标在交互场景中的空间坐标上传至所述虚拟现实服务端,以使得所述虚拟现实服务端基于所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
根据本公开实施例的第三方面,提供一种虚拟现实交互画面的渲染装置,所述装置包括:
设置模块,被配置为根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
压缩模块,被配置为基于所述设置模块为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
发送模块,被配置为将所述压缩模块压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
可选的,所述装置还包括:
第一接收模块,被配置为接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标之间的空间距离;或
第二接收模块,被配置为接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标在交互场景中的空间坐标;
第一计算模块,被配置为基于所述第二接收模块接收到的所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
可选的,所述设置模块包括:
匹配子模块,被配置为将所述主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配;其中,所述预设的多个距离区间分别对应不同的画面渲染精度;
设置子模块,被配置为在所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度。
可选的,所述压缩模块包括:
接收子模块,被配置为接收所述子目标的虚拟现实终端上传的所述子目标的动作数据;
压缩子模块,被配置为根据所述设置模块为所述子目标设置的画面渲染精度对所述接收子模块接收到的所述子目标的动作数据进行对应比例的压缩。
根据本公开实施例的第四方面,提供一种虚拟现实交互画面的渲染装置,所述装置包括:
第三接收模块,被配置为接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
渲染模块,被配置为根据所述第三接收模块接收到的所述子目标的动作数据渲染对应的交互画面。
可选的,所述装置还包括:
第二计算模块,被配置为基于主体目标以及所述子目标在交互场景中的空间坐标计算所述主体目标与所述子目标之间的空间距离;
第一上传模块,被配置为将所述第二计算模块计算出的所述主体目标与所述子目标之间的空间距离上传至所述虚拟现实服务端;或
第二上传模块,被配置为将所述主体目标与所述子目标在交互场景中的空间坐标上传至所述虚拟现实服务端,以使得所述虚拟现实服务端基于所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
根据本公开实施例的第五方面,提供一种虚拟现实交互画面的渲染装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
根据本公开实施例的第六方面,提供一种虚拟现实交互画面的渲染装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
根据接收到的所述子目标的动作数据渲染对应的交互画面。本公开的实施例提供的技术方案可以包括以下有益效果:
本公开的以上实施例中,通过基于主体目标与子目标之间的空间距离为子目标设置画面渲染精度,并根据为子目标设置的画面渲染精度对该子目标的动作数据进行压缩,从而当虚拟现实终端在根据该子目标的动作数据渲染对应的交互画面时,可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种虚拟现实交互画面的渲染方法的流程示意图;
图2是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染方法的流程示意图;
图3是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染方法的流程示意图;
图4是根据一示例性实施例示出的一种虚拟现实交互画面的渲染装置的示意框图;
图5是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染装置的示意框图;
图6是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染装置的示意框图;
图7是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染装置的示意框图;
图8是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染装置的示意框图;
图9是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染装置的示意框图;
图10是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染装置的示意框图;
图11是根据一示例性实施例示出的另一种虚拟现实交互画面的渲染装置的示意框图;
图12是根据一示例性实施例示出的一种用于所述虚拟现实交互画面的渲染装置的一结构示意图;
图13是根据一示例性实施例示出的一种用于所述虚拟现实交互画面的渲染装置的一结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
随着虚拟现实技术的发展,用户对于虚拟现实场景的真实度,以及用户的浸入感受的要求也越来越高,而在提升虚拟现实场景的真实度以及用户的浸入感受时,虚拟现实终端在进行画面渲染时,可能会面临数据传输量以及计算量上的压力。
在相关技术中中,为了缓解虚拟现实终端数据传输量以及计算量上的压力,通常都是通过提高网络传输速度以及增加虚拟现实终端的硬件配置来实现的,因此不但会增加额外的硬件成本,而且也会存在一定瓶颈上限。可见,如何在虚拟现实交互过程中,降低虚拟现实终端在进行交互画面渲染时的数据传输量和计算量,对于节约虚拟现实终端的硬件成本具有非常重要的意义。
有鉴于此,本公开提出一种虚拟现实交互画面的渲染方法,通过基于主体目标与子目标之间的空间距离为子目标设置画面渲染精度,并根据为子目标设置的画面渲染精度对该子目标的动作数据进行压缩,从而当虚拟现实终端在根据该子目标的动作数据渲染对应的交互画面时,可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量,从而不需要额外增加硬件成本。
如图1所示,图1是根据一示例性实施例示出的一种虚拟现实交互画面的渲染方法,应用于虚拟现实服务端,包括以下步骤:
在步骤101中,根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
在步骤102中,基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
在步骤103中,将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
上述虚拟现实服务端可以包括面向用户提供虚拟现实服务,与用户的虚拟现实终端适配使用的PC终端、服务器或者其它可以面向用户的虚拟现实终端提供虚拟现实服务的专用设备。上述虚拟现实终端可以包括穿戴式的虚拟现实接入终端,例如,该穿戴式的虚拟现实接入终端可以包括虚拟现实眼镜、虚拟现实头盔等。
在实际的使用过程中,用户可以通过将上述虚拟现实终端接入到对应的虚拟现实服务端为来进行虚拟现实交互。例如,当上述虚拟现实终端为虚拟现实头盔时,多个用户可以将该虚拟现实头盔接入到对应的虚拟现实服务器,从而可以面向用户提供虚拟现实的多人联机游戏服务。
上述主体目标,可以是虚拟现实场景中的主视角目标。而上述子目标,则可以是虚拟现实场景中主视角目标所能查看到的其它虚拟目标。例如,对于多用户的虚拟现实场景,主体目标即为该场景中与主视角用户对应的虚拟目标,而主视角用户在虚拟现实场景中能够查看到的其他用户的虚拟目标则为子目标。
在本实施例中,用户在使用虚拟现实终端与其他用户进行虚拟现实交互时,该虚拟现实终端可以实时采集主体目标以及该场景中各子目标的空间坐标,然后基于采集到空间坐标来计算主体目标与各子目标之间的空间距离。
例如,用户在进行虚拟现实交互时,虚拟现实终端可以将主体目标在交互画面中的位置作为焦点,然后根据其他各子目标的空间坐标来分别计算距离,并将计算出的距离在交互画面中进行标记。
当上述虚拟现实终端计算出主体目标与上述各子目标之间的空间距离后,可以将计算出的空间距离上传到对应的虚拟现实服务端。当然,为了减少上述虚拟现实终端的计算量,上述计算主体目标与各子目标的空间距离的计算过程,也可以由虚拟现实服务端来完成。
在示出的另一种实现方式中,上述虚拟现实终端可以将采集到的上述主体目标以及上述各子目标的空间坐标上传给上述虚拟现实服务端,上述服务端在接收到上述虚拟现实终端上传的上述主体目标以及上述各子目标的空间坐标后,可以根据接收到的空间坐标在本地分别计算出上述主体目标与上述各子目标之间的空间距离。
当虚拟现实服务端在接收到上述虚拟现实终端上传的上述主体目标与上述各子目标之间的空间距离,或者虚拟现实服务端在基于接收到的空间坐标在本地计算出上述主体目标与上述各子目标之间的空间距离后,可以基于上述空间距离来为上述各子目标分别设置对应的画面渲染精度,该画面渲染精度可以用于表征渲染交互画面时的精细程度。
其中,上述虚拟现实服务端在为上述各子目标分别设置画面渲染精度时,设置的画面渲染精度可以跟上述空间距离成反比,即对于任一子目标来说,该子目标与上述主体目标之间的空间距离越大,上述虚拟现实服务端为该子目标设置的画面渲染精度则越低,相反,上述空间距离越小,该子目标与上述主体目标之间的空间距离越小,上述虚拟现实服务端为该子目标设置的画面渲染精度则越高。
在本实施例中,上述虚拟现实服务端在为上述各子目标设置画面渲染精度时,可以通过将上述各子目标与主体目标之间的空间距离在预设的距离区间中进行匹配来实现。
上述虚拟现实服务端可以在本地预设多个距离区间,并按照画面渲染精度与空间距离成反比的原则,为每一个距离区间分别对应一个画面渲染精度。其中,上述预设的多个距离区间的具体数量,在本实施例中不进行特别限定,可以根据实际的需求进行设置;例如,当需要对上述各子目标的画面渲染精度进行更精细的划分时,可以设置较多数量的上述距离区间;相反如果仅需要对上述各子目标的画面渲染精度进行粗略的划分,可以设置较少数量的上述距离区间。
当上述虚拟现实服务端在为上述各子目标设置画面渲染精度时,可以将上述各子目标与上述主体目标的空间距离在上述预设的多个距离区间中进行匹配,当子目标与上述主体目标的空间距离匹配上述多个距离区间中的任意一个距离区间时,此时上述虚拟现实服务端则可以将该距离区间所对应的画面渲染精度设置为该子目标的画面渲染精度。
在本实施例中,当上述虚拟现实服务端为上述各子目标分别设置了对应的画面渲染精度后,上述虚拟现实终端可以基于为上述各子目标设置的画面渲染精度对上述各子目标在虚拟现实交互过程中产生的动作数据进行同比例压缩,然后将压缩后的上述各子目标的动作数据发送给上述主体目标的虚拟现实终端。
其中,上述各子目标在虚拟现实交互过程中产生的动作数据,可以由上述各子目标的虚拟现实终端在交互过程中实时的上传给上述虚拟现实服务端,上述虚拟现实服务端在接收到上述动作数据后,则可以基于为上述各子目标设置的画面渲染精度进行压缩处理。
值得说明的是,由于在虚拟现实交互过程中,在进行画面渲染时,通常是基于子目标的动作数据来进行的,因此上述画面渲染精度则可以理解为对子目标的动作数据的压缩比例。上述画面渲染精度越高,则对子目标的动作数据的压缩程度越低,则渲染出的交互画面保留的动作细节则越丰富,相反上述画面渲染精度越低,则对子目标的动作数据的压缩程度越高,则渲染出的交互画面保留的动作细节则越少。
当上述主体目标的虚拟现实终端接收到上述虚拟现实服务端发送的动作数据后,此时上述主体目标的虚拟现实终端可以根据接收到的动作数据为上述各子目标分别渲染对应的交互画面,将接收到的动作数据处理成对应的画面帧,在虚拟现实场景中向上述主体目标(即主视角用户)进行呈现。
由于上述主体目标的虚拟现实终端所接收到的动作数据,已经由上述虚拟现实服务端根据上述各子目标各自的画面渲染精度进行了同比例的压缩,因此上述主体目标的虚拟现实终端接收到的数据传输量明显减少,在进行画面渲染时的计算量也相应的减少,因此通过这种方式可以有效的缓解虚拟现实终端的计算量以及网络传输速度上的压力。
同时,由于在虚拟现实交互的过程中,上述各子目标与主体目标的空间距离可能各不相同,上述虚拟现实服务端为上述各子目标设置的画面渲染精度也各不相同,当子目标与主体目标距离较近时,可以为该子目标设置一个更高的画面渲染精度,当子目标与主体目标距离较远时,可以为该子目标设置一个较低的画面渲染精度。
因此,当上述主体目标的虚拟现实终端在接收到上述虚拟现实服务端发送已经压缩后的上述各子目标的动作数据,在进行交互画面的渲染时,对于不同的子目标则可以采用不同的画面渲染精度。当子目标与主体目标距离较近时,画面渲染的精度更高,保留的动作细节较丰富,当子目标与主体目标距离较远时,画面渲染的精度略低,保留的动作细节也越少。从而最终渲染完成的交互画面中,由于离主体目标较近的子目标的仍然保留了较高的渲染精度,仅仅将离主目标较远的子目标使用较低的渲染精度,对于主视角用户的观感感受上来说,交互画面的真实度并不会明显降低。
可见,通过这种方式,既可以有效的缓解虚拟现实终端的计算量以及网络传输速度上的压力,也不会明显降低交互画面的真实度。当用户期望交互画面具有更高的真实度时,上述服务端也可以为离主体目标更近的子目标设置更高的画面渲染精度,并适当降低离主体目标较远的子目标的画面渲染精度,从而既可以提升交互画面在用户观感上的真实度,又不会明显增加虚拟现实终端的计算量以及网络传输速度上的压力,因此有助于节约硬件成本。
另外,值得说明的是,在实际的交互过程中,上述主体目标与各子目标之间的空间距离会实时的发生变化,因此在实现时,可以引入上述空间距离的实时反馈机制。例如,上述主体目标的虚拟现实终端可以在交互过程中实时的,或者基于一定的周期将上述主体目标与上述各子目标当前的空间距离或者上述主体目标与上述各子目标当前的空间坐标上报给上述虚拟现实服务端,从而可以保证当上述主体目标与上述各子目标之间的空间距离发生变化时,上述虚拟现实服务端可以在本地对为上述各子目标设置的画面渲染精度进行实时更新。对于主体目标与上述各子目标之间的空间距离发生变化,上述虚拟现实服务端对各子目标的画面渲染精度进行更新的这种情况,其具体的实现过程与以上实施例中描述的过程相同,在本实施例中不再重复描述。
在以上实施例中,通过基于主体目标与子目标之间的空间距离为子目标设置画面渲染精度,并根据为子目标设置的画面渲染精度对该子目标的动作数据进行压缩,从而当虚拟现实终端在根据该子目标的动作数据渲染对应的交互画面时,可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量,从而不需要额外增加硬件成本。
如图2所示,图2是根据一示例性实施例示出的一种虚拟现实交互画面的渲染方法,应用与虚拟现实终端,包括以下步骤:
在步骤201中,接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
在步骤202中,根据接收到的所述子目标的动作数据渲染对应的交互画面。
上述虚拟现实服务端可以包括面向用户提供虚拟现实服务,与用户的虚拟现实终端适配使用的PC终端、服务器或者其它可以面向用户的虚拟现实终端提供虚拟现实服务的专用设备。上述虚拟现实终端可以包括穿戴式的虚拟现实接入终端,例如,该穿戴式的虚拟现实接入终端可以包括虚拟现实眼镜、虚拟现实头盔等。
在实际的使用过程中,用户可以通过将上述虚拟现实终端接入到对应的虚拟现实服务端为来进行虚拟现实交互。例如,当上述虚拟现实终端为虚拟现实头盔时,多个用户可以将该虚拟现实头盔接入到对应的虚拟现实服务器,从而可以面向用户提供虚拟现实的多人联机游戏服务。
上述主体目标,可以是虚拟现实场景中的主视角目标。而上述子目标,则可以是虚拟现实场景中主视角目标所能查看到的其它虚拟目标。例如,对于多用户的虚拟现实场景,主体目标即为该场景中与主视角用户对应的虚拟目标,而主视角用户在虚拟现实场景中能够查看到的其他用户的虚拟目标则为子目标。
在本实施例中,用户在使用虚拟现实终端与其他用户进行虚拟现实交互时,该虚拟现实终端可以实时采集主体目标以及该场景中各子目标的空间坐标,然后基于采集到空间坐标来计算主体目标与各子目标之间的空间距离。
例如,用户在进行虚拟现实交互时,虚拟现实终端可以将主体目标在交互画面中的位置作为焦点,然后根据其他各子目标的空间坐标来分别计算距离,并将计算出的距离在交互画面中进行标记。
当上述虚拟现实终端计算出主体目标与上述各子目标之间的空间距离后,可以将计算出的空间距离上传到对应的虚拟现实服务端。当然,为了减少上述虚拟现实终端的计算量,上述计算主体目标与各子目标的空间距离的计算过程,也可以由虚拟现实服务端来完成。
在示出的另一种实现方式中,上述虚拟现实终端可以将采集到的上述主体目标以及上述各子目标的空间坐标上传给上述虚拟现实服务端,上述服务端在接收到上述虚拟现实终端上传的上述主体目标以及上述各子目标的空间坐标后,可以根据接收到的空间坐标在本地分别计算出上述主体目标与上述各子目标之间的空间距离。
当虚拟现实服务端在接收到上述虚拟现实终端上传的上述主体目标与上述各子目标之间的空间距离,或者虚拟现实服务端在基于接收到的空间坐标在本地计算出上述主体目标与上述各子目标之间的空间距离后,可以基于上述空间距离来为上述各子目标分别设置对应的画面渲染精度,该画面渲染精度可以用于表征渲染交互画面时的精细程度。
其中,上述虚拟现实服务端在为上述各子目标分别设置画面渲染精度时,设置的画面渲染精度可以跟上述空间距离成反比,即对于任一子目标来说,该子目标与上述主体目标之间的空间距离越大,上述虚拟现实服务端为该子目标设置的画面渲染精度则越低,相反,上述空间距离越小,该子目标与上述主体目标之间的空间距离越小,上述虚拟现实服务端为该子目标设置的画面渲染精度则越高。
在本实施例中,上述虚拟现实服务端在为上述各子目标设置画面渲染精度时,可以通过将上述各子目标与主体目标之间的空间距离在预设的距离区间中进行匹配来实现。
上述虚拟现实服务端可以在本地预设多个距离区间,并按照画面渲染精度与空间距离成反比的原则,为每一个距离区间分别对应一个画面渲染精度。其中,上述预设的多个距离区间的具体数量,在本实施例中不进行特别限定,可以根据实际的需求进行设置;例如,当需要对上述各子目标的画面渲染精度进行更精细的划分时,可以设置较多数量的上述距离区间;相反如果仅需要对上述各子目标的画面渲染精度进行粗略的划分,可以设置较少数量的上述距离区间。
当上述虚拟现实服务端在为上述各子目标设置画面渲染精度时,可以将上述各子目标与上述主体目标的空间距离在上述预设的多个距离区间中进行匹配,当子目标与上述主体目标的空间距离匹配上述多个距离区间中的任意一个距离区间时,此时上述虚拟现实服务端则可以将该距离区间所对应的画面渲染精度设置为该子目标的画面渲染精度。
在本实施例中,当上述虚拟现实服务端为上述各子目标分别设置了对应的画面渲染精度后,上述虚拟现实终端可以基于为上述各子目标设置的画面渲染精度对上述各子目标在虚拟现实交互过程中产生的动作数据进行同比例压缩,然后将压缩后的上述各子目标的动作数据发送给上述主体目标的虚拟现实终端。
其中,上述各子目标在虚拟现实交互过程中产生的动作数据,可以由上述各子目标的虚拟现实终端在交互过程中实时的上传给上述虚拟现实服务端,上述虚拟现实服务端在接收到上述动作数据后,则可以基于为上述各子目标设置的画面渲染精度进行压缩处理。
值得说明的是,由于在虚拟现实交互过程中,在进行画面渲染时,通常是基于子目标的动作数据来进行的,因此上述画面渲染精度则可以理解为对子目标的动作数据的压缩比例。上述画面渲染精度越高,则对子目标的动作数据的压缩程度越低,则渲染出的交互画面保留的动作细节则越丰富,相反上述画面渲染精度越低,则对子目标的动作数据的压缩程度越高,则渲染出的交互画面保留的动作细节则越少。
当上述主体目标的虚拟现实终端接收到上述虚拟现实服务端发送的动作数据后,此时上述主体目标的虚拟现实终端可以根据接收到的动作数据为上述各子目标分别渲染对应的交互画面,将接收到的动作数据处理成对应的画面帧,在虚拟现实场景中向上述主体目标(即主视角用户)进行呈现。
由于上述主体目标的虚拟现实终端所接收到的动作数据,已经由上述虚拟现实服务端根据上述各子目标各自的画面渲染精度进行了同比例的压缩,因此上述主体目标的虚拟现实终端接收到的数据传输量明显减少,在进行画面渲染时的计算量也相应的减少,因此通过这种方式可以有效的缓解虚拟现实终端的计算量以及网络传输速度上的压力。
同时,由于在虚拟现实交互的过程中,上述各子目标与主体目标的空间距离可能各不相同,上述虚拟现实服务端为上述各子目标设置的画面渲染精度也各不相同,当子目标与主体目标距离较近时,可以为该子目标设置一个更高的画面渲染精度,当子目标与主体目标距离较远时,可以为该子目标设置一个较低的画面渲染精度。
因此,当上述主体目标的虚拟现实终端在接收到上述虚拟现实服务端发送已经压缩后的上述各子目标的动作数据,在进行交互画面的渲染时,对于不同的子目标则可以采用不同的画面渲染精度。当子目标与主体目标距离较近时,画面渲染的精度更高,保留的动作细节较丰富,当子目标与主体目标距离较远时,画面渲染的精度略低,保留的动作细节也越少。从而最终渲染完成的交互画面中,由于离主体目标较近的子目标的仍然保留了较高的渲染精度,仅仅将离主目标较远的子目标使用较低的渲染精度,对于主视角用户的观感感受上来说,交互画面的真实度并不会明显降低。
可见,通过这种方式,既可以有效的缓解虚拟现实终端的计算量以及网络传输速度上的压力,也不会明显降低交互画面的真实度。当用户期望交互画面具有更高的真实度时,上述服务端也可以为离主体目标更近的子目标设置更高的画面渲染精度,并适当降低离主体目标较远的子目标的画面渲染精度,从而既可以提升交互画面在用户观感上的真实度,又不会明显增加虚拟现实终端的计算量以及网络传输速度上的压力,因此有助于节约硬件成本。
另外,值得说明的是,在实际的交互过程中,上述主体目标与各子目标之间的空间距离会实时的发生变化,因此在实现时,可以引入上述空间距离的实时反馈机制。例如,上述主体目标的虚拟现实终端可以在交互过程中实时的,或者基于一定的周期将上述主体目标与上述各子目标当前的空间距离或者上述主体目标与上述各子目标当前的空间坐标上报给上述虚拟现实服务端,从而可以保证当上述主体目标与上述各子目标之间的空间距离发生变化时,上述虚拟现实服务端可以在本地对为上述各子目标设置的画面渲染精度进行实时更新。对于主体目标与上述各子目标之间的空间距离发生变化,上述虚拟现实服务端对各子目标的画面渲染精度进行更新的这种情况,其具体的实现过程与以上实施例中描述的过程相同,在本实施例中不再重复描述。
在以上实施例中,通过基于主体目标与子目标之间的空间距离为子目标设置画面渲染精度,并根据为子目标设置的画面渲染精度对该子目标的动作数据进行压缩,从而当虚拟现实终端在根据该子目标的动作数据渲染对应的交互画面时,可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量,从而不需要额外增加硬件成本。
如图3所示,图3是根据一示例性实施例示出的一种虚拟现实交互画面的渲染方法,包括以下步骤:
在步骤301中,虚拟现实终端将主体目标与子目标在交互场景中的空间坐标上传至虚拟现实服务端;
在步骤302中,虚拟现实服务端基于接收到的所述主体目标与所述子目标的空间坐标计算所述主体目标与所述子目标之间的空间距离;
在步骤303中,虚拟现实服务端将所述主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配;其中,所述预设的多个距离区间分别对应不同的画面渲染精度;
在步骤304中,当所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,虚拟现实服务端将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度;
在步骤305中,虚拟现实服务端接收所述子目标的虚拟现实终端上传的所述子目标的动作数据,并基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行对应比例的压缩;
在步骤306中,虚拟现实服务端将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端;
在步骤307中,虚拟现实终端根据接收到的所述子目标的动作数据渲染对应的交互画面。
上述虚拟现实服务端可以包括面向用户提供虚拟现实服务,与用户的虚拟现实终端适配使用的PC终端、服务器或者其它可以面向用户的虚拟现实终端提供虚拟现实服务的专用设备。上述虚拟现实终端可以包括穿戴式的虚拟现实接入终端,例如,该穿戴式的虚拟现实接入终端可以包括虚拟现实眼镜、虚拟现实头盔等。
在实际的使用过程中,用户可以通过将上述虚拟现实终端接入到对应的虚拟现实服务端为来进行虚拟现实交互。例如,当上述虚拟现实终端为虚拟现实头盔时,多个用户可以将该虚拟现实头盔接入到对应的虚拟现实服务器,从而可以面向用户提供虚拟现实的多人联机游戏服务。
上述主体目标,可以是虚拟现实场景中的主视角目标。而上述子目标,则可以是虚拟现实场景中主视角目标所能查看到的其它虚拟目标。例如,对于多用户的虚拟现实场景,主体目标即为该场景中与主视角用户对应的虚拟目标,而主视角用户在虚拟现实场景中能够查看到的其他用户的虚拟目标则为子目标。
在本实施例中,用户在使用虚拟现实终端与其他用户进行虚拟现实交互时,该虚拟现实终端可以实时采集主体目标以及该场景中各子目标的空间坐标,然后基于采集到空间坐标来计算主体目标与各子目标之间的空间距离。
例如,用户在进行虚拟现实交互时,虚拟现实终端可以将主体目标在交互画面中的位置作为焦点,然后根据其他各子目标的空间坐标来分别计算距离,并将计算出的距离在交互画面中进行标记。
当上述虚拟现实终端计算出主体目标与上述各子目标之间的空间距离后,可以将计算出的空间距离上传到对应的虚拟现实服务端。当然,为了减少上述虚拟现实终端的计算量,上述计算主体目标与各子目标的空间距离的计算过程,也可以由虚拟现实服务端来完成。
在示出的另一种实现方式中,上述虚拟现实终端可以将采集到的上述主体目标以及上述各子目标的空间坐标上传给上述虚拟现实服务端,上述服务端在接收到上述虚拟现实终端上传的上述主体目标以及上述各子目标的空间坐标后,可以根据接收到的空间坐标在本地分别计算出上述主体目标与上述各子目标之间的空间距离。
当虚拟现实服务端在接收到上述虚拟现实终端上传的上述主体目标与上述各子目标之间的空间距离,或者虚拟现实服务端在基于接收到的空间坐标在本地计算出上述主体目标与上述各子目标之间的空间距离后,可以基于上述空间距离来为上述各子目标分别设置对应的画面渲染精度,该画面渲染精度可以用于表征渲染交互画面时的精细程度。
其中,上述虚拟现实服务端在为上述各子目标分别设置画面渲染精度时,设置的画面渲染精度可以跟上述空间距离成反比,即对于任一子目标来说,该子目标与上述主体目标之间的空间距离越大,上述虚拟现实服务端为该子目标设置的画面渲染精度则越低,相反,上述空间距离越小,该子目标与上述主体目标之间的空间距离越小,上述虚拟现实服务端为该子目标设置的画面渲染精度则越高。
在本实施例中,上述虚拟现实服务端在为上述各子目标设置画面渲染精度时,可以通过将上述各子目标与主体目标之间的空间距离在预设的距离区间中进行匹配来实现。
上述虚拟现实服务端可以在本地预设多个距离区间,并按照画面渲染精度与空间距离成反比的原则,为每一个距离区间分别对应一个画面渲染精度。其中,上述预设的多个距离区间的具体数量,在本实施例中不进行特别限定,可以根据实际的需求进行设置;例如,当需要对上述各子目标的画面渲染精度进行更精细的划分时,可以设置较多数量的上述距离区间;相反如果仅需要对上述各子目标的画面渲染精度进行粗略的划分,可以设置较少数量的上述距离区间。
当上述虚拟现实服务端在为上述各子目标设置画面渲染精度时,可以将上述各子目标与上述主体目标的空间距离在上述预设的多个距离区间中进行匹配,当子目标与上述主体目标的空间距离匹配上述多个距离区间中的任意一个距离区间时,此时上述虚拟现实服务端则可以将该距离区间所对应的画面渲染精度设置为该子目标的画面渲染精度。
在本实施例中,当上述虚拟现实服务端为上述各子目标分别设置了对应的画面渲染精度后,上述虚拟现实终端可以基于为上述各子目标设置的画面渲染精度对上述各子目标在虚拟现实交互过程中产生的动作数据进行同比例压缩,然后将压缩后的上述各子目标的动作数据发送给上述主体目标的虚拟现实终端。
其中,上述各子目标在虚拟现实交互过程中产生的动作数据,可以由上述各子目标的虚拟现实终端在交互过程中实时的上传给上述虚拟现实服务端,上述虚拟现实服务端在接收到上述动作数据后,则可以基于为上述各子目标设置的画面渲染精度进行压缩处理。
值得说明的是,由于在虚拟现实交互过程中,在进行画面渲染时,通常是基于子目标的动作数据来进行的,因此上述画面渲染精度则可以理解为对子目标的动作数据的压缩比例。上述画面渲染精度越高,则对子目标的动作数据的压缩程度越低,则渲染出的交互画面保留的动作细节则越丰富,相反上述画面渲染精度越低,则对子目标的动作数据的压缩程度越高,则渲染出的交互画面保留的动作细节则越少。
当上述主体目标的虚拟现实终端接收到上述虚拟现实服务端发送的动作数据后,此时上述主体目标的虚拟现实终端可以根据接收到的动作数据为上述各子目标分别渲染对应的交互画面,将接收到的动作数据处理成对应的画面帧,在虚拟现实场景中向上述主体目标(即主视角用户)进行呈现。
由于上述主体目标的虚拟现实终端所接收到的动作数据,已经由上述虚拟现实服务端根据上述各子目标各自的画面渲染精度进行了同比例的压缩,因此上述主体目标的虚拟现实终端接收到的数据传输量明显减少,在进行画面渲染时的计算量也相应的减少,因此通过这种方式可以有效的缓解虚拟现实终端的计算量以及网络传输速度上的压力。
同时,由于在虚拟现实交互的过程中,上述各子目标与主体目标的空间距离可能各不相同,上述虚拟现实服务端为上述各子目标设置的画面渲染精度也各不相同,当子目标与主体目标距离较近时,可以为该子目标设置一个更高的画面渲染精度,当子目标与主体目标距离较远时,可以为该子目标设置一个较低的画面渲染精度。
因此,当上述主体目标的虚拟现实终端在接收到上述虚拟现实服务端发送已经压缩后的上述各子目标的动作数据,在进行交互画面的渲染时,对于不同的子目标则可以采用不同的画面渲染精度。当子目标与主体目标距离较近时,画面渲染的精度更高,保留的动作细节较丰富,当子目标与主体目标距离较远时,画面渲染的精度略低,保留的动作细节也越少。从而最终渲染完成的交互画面中,由于离主体目标较近的子目标的仍然保留了较高的渲染精度,仅仅将离主目标较远的子目标使用较低的渲染精度,对于主视角用户的观感感受上来说,交互画面的真实度并不会明显降低。
可见,通过这种方式,既可以有效的缓解虚拟现实终端的计算量以及网络传输速度上的压力,也不会明显降低交互画面的真实度。当用户期望交互画面具有更高的真实度时,上述服务端也可以为离主体目标更近的子目标设置更高的画面渲染精度,并适当降低离主体目标较远的子目标的画面渲染精度,从而既可以提升交互画面在用户观感上的真实度,又不会明显增加虚拟现实终端的计算量以及网络传输速度上的压力,因此有助于节约硬件成本。
另外,值得说明的是,在实际的交互过程中,上述主体目标与各子目标之间的空间距离会实时的发生变化,因此在实现时,可以引入上述空间距离的实时反馈机制。例如,上述主体目标的虚拟现实终端可以在交互过程中实时的,或者基于一定的周期将上述主体目标与上述各子目标当前的空间距离或者上述主体目标与上述各子目标当前的空间坐标上报给上述虚拟现实服务端,从而可以保证当上述主体目标与上述各子目标之间的空间距离发生变化时,上述虚拟现实服务端可以在本地对为上述各子目标设置的画面渲染精度进行实时更新。对于主体目标与上述各子目标之间的空间距离发生变化,上述虚拟现实服务端对各子目标的画面渲染精度进行更新的这种情况,其具体的实现过程与以上实施例中描述的过程相同,在本实施例中不再重复描述。
在以上实施例中,通过基于主体目标与子目标之间的空间距离为子目标设置画面渲染精度,并根据为子目标设置的画面渲染精度对该子目标的动作数据进行压缩,从而当虚拟现实终端在根据该子目标的动作数据渲染对应的交互画面时,可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量,从而不需要额外增加硬件成本。
与前述虚拟现实交互画面的渲染方法实施例相对应,本公开还提供了一种虚拟现实交互画面的渲染装置的实施例。
图4是根据一示例性实施例示出的一种虚拟现实交互画面的渲染装置的示意框图。
如图4所示,根据一示例性实施例示出的一种虚拟现实交互画面的渲染装置400,包括:设置模块401、压缩模块402和发送模块403;其中:
所述设置模块401被配置为,根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
所述压缩模块402被配置为,基于所述设置模块401为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
所述发送模块403被配置为,将所述压缩模块402压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
在以上实施例中,通过基于主体目标与子目标之间的空间距离为子目标设置画面渲染精度,并根据为子目标设置的画面渲染精度对该子目标的动作数据进行压缩,从而当虚拟现实终端在根据该子目标的动作数据渲染对应的交互画面时,可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量,从而不需要额外增加硬件成本。
请参见图5,图5是本公开根据一示例性实施例示出的另一种装置的框图,该实施例在前述图4所示实施例的基础上,所述装置400还可以包括第一接收模块404;其中:
所述第一接收模块404被配置为,接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标之间的空间距离。
请参见图6,图6是本公开根据一示例性实施例示出的另一种装置的框图,该实施例在前述图4所示实施例的基础上,所述装置400还可以包括第二接收模块405和第一计算模块406;其中:
所述第二接收模块405被配置为,接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标在交互场景中的空间坐标;
所述第一计算模块406被配置为,基于所述第二接收模块405接收到的所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
需要说明的是,上述图6所示的装置实施例中示出的第二接收模块405和第一计算模块406的结构也可以包含在前述图5的装置实施例中,对此本公开不进行限制。
请参见图7,图7是本公开根据一示例性实施例示出的另一种装置的框图,该实施例在前述图4所示实施例的基础上,所述设置模块401可以包括匹配子模块401A和设置子模块401B;其中:
所述匹配子模块401A被配置为,将所述主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配;其中,所述预设的多个距离区间分别对应不同的画面渲染精度;
所述设置子模块401B被配置为,在所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度。
需要说明的是,上述图7所示的装置实施例中示出的匹配子模块401A和设置子模块401B的结构也可以包含在前述图5-6的装置实施例中,对此本公开不进行限制。
请参见图8,图8是本公开根据一示例性实施例示出的另一种装置的框图,该实施例在前述图4所示实施例的基础上,所述压缩模块402可以包括接收子模块402A和压缩子模块402B;其中:
所述接收子模块402A被配置为,接收所述子目标的虚拟现实终端上传的所述子目标的动作数据;
所述压缩子模块402B被配置为,根据所述设置模块401为所述子目标设置的画面渲染精度对所述接收子模块402A接收到的所述子目标的动作数据进行对应比例的压缩。
需要说明的是,上述图8所示的装置实施例中示出的接收子模块402A和压缩子模块402B的结构也可以包含在前述图5-7的装置实施例中,对此本公开不进行限制。
图9是根据一示例性实施例示出的一种虚拟现实交互画面的渲染装置的示意框图。
如图9所示,根据一示例性实施例示出的一种虚拟现实交互画面的渲染装置900,包括:第三接收模块901和渲染模块902;其中:
所述第三接收模块901被配置为,接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
所述渲染模块902被配置为,根据所述第三接收模块901接收到的所述子目标的动作数据渲染对应的交互画面。
在以上实施例中,通过基于主体目标与子目标之间的空间距离为子目标设置画面渲染精度,并根据为子目标设置的画面渲染精度对该子目标的动作数据进行压缩,从而当虚拟现实终端在根据该子目标的动作数据渲染对应的交互画面时,可以在不影响交互画面真实度的前提下,减少虚拟现实终端在进行画面渲染时的数据传输量和计算量,从而不需要额外增加硬件成本。
请参见图10,图10是本公开根据一示例性实施例示出的另一种装置的框图,该实施例在前述图9所示实施例的基础上,所述装置900还可以包括第二计算模块903和第一上传模块904;其中:
所述第二计算模块903被配置为,基于主体目标以及所述子目标在交互场景中的空间坐标计算所述主体目标与所述子目标之间的空间距离;
所述第一上传模块904被配置为,将所述第二计算模块903计算出的所述主体目标与所述子目标之间的空间距离上传至所述虚拟现实服务端。
请参见图11,图11是本公开根据一示例性实施例示出的另一种装置的框图,该实施例在前述图9所示实施例的基础上,所述装置900还可以包括第二上传模块905;其中:
所述第二上传模块905被配置为,将所述主体目标与所述子目标在交互场景中的空间坐标上传至所述虚拟现实服务端,以使得所述虚拟现实服务端基于所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
需要说明的是,上述图11所示的装置实施例中示出的第二上传模块905的结构也可以包含在前述图10的装置实施例中,对此本公开不进行限制。
上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
相应的,本公开还提供一种虚拟现实交互画面的渲染装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
相应的,本公开还提供一种虚拟现实服务端,所述虚拟现实服务端包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
相应的,本公开还提供一种虚拟现实交互画面的渲染装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
根据接收到的所述子目标的动作数据渲染对应的交互画面。
相应的,本公开还提供一种虚拟现实终端,所述虚拟现实终端包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
根据接收到的所述子目标的动作数据渲染对应的交互画面。
图12是根据一示例性实施例示出的一种虚拟现实交互画面的渲染装置的结构示意图。
如图12所示,根据一示例性实施例示出的一种虚拟现实交互画面的渲染装置1200,该装置1200可以是虚拟现实设备、移动电话,智能设备、计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图12,装置1200可以包括以下一个或多个组件:处理组件1201,存储器1202,电源组件1203,多媒体组件1204,音频组件1205,输入/输出(I/O)的接口1206,传感器组件1207,以及通信组件1208。
处理组件1201通常控制装置1200的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1201可以包括一个或多个处理器1209来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1201可以包括一个或多个模块,便于处理组件1201和其他组件之间的交互。例如,处理部件1201可以包括多媒体模块,以方便多媒体组件1204和处理组件1201之间的交互。
存储器1202被配置为存储各种类型的数据以支持在装置1200的操作。这些数据的示例包括用于在装置1200上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1202可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1203为装置1200的各种组件提供电力。电源组件1203可以包括电源管理系统,一个或多个电源,及其他与为装置1200生成、管理和分配电力相关联的组件。
多媒体组件1204包括在所述装置1200和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1204包括一个前置摄像头和/或后置摄像头。当装置1200处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1205被配置为输出和/或输入音频信号。例如,音频组件1205包括一个麦克风(MIC),当装置1200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1202或经由通信组件1208发送。在一些实施例中,音频组件1205还包括一个扬声器,用于输出音频信号。
I/O接口1202为处理组件1201和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1207包括一个或多个传感器,用于为装置1200提供各个方面的状态评估。例如,传感器组件1207可以检测到装置1200的打开/关闭状态,组件的相对定位,例如所述组件为装置1200的显示器和小键盘,传感器组件1207还可以检测装置1200或装置1200一个组件的位置改变,用户与装置1200接触的存在或不存在,装置1200方位或加速/减速和装置1200的温度变化。传感器组件1207可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1207还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1207还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1208被配置为便于装置1200和其他设备之间有线或无线方式的通信。装置1200可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1208经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1208还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1200可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1202,上述指令可由装置1200的处理器1209执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
其中,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种虚拟现实交互画面的渲染方法,包括:
接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端根据主体目标与所述子目标之间的空间距离设置;
根据接收到的所述子目标的动作数据渲染对应的交互画面。
相应的,本公开还提供一种虚拟现实服务器,所述服务器包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面。
图13是根据一示例性实施例示出的一种用于文件存储装置900的框图。例如,装置1300可以被提供为一存储服务器。
参照图13,装置1300包括处理组件1322,其进一步包括一个或多个处理器,以及由存储器1332所代表的存储器资源,用于存储可由处理部件1322的执行的指令,例如应用程序。存储器1332中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1322被配置为执行指令,以执行上述智能设备的控制方法。
装置1300还可以包括一个电源组件1326被配置为执行装置1300的电源管理,一个有线或无线网络接口1350被配置为将装置1300连接到网络,和一个输入输出(I/O)接口1358。装置1300可以操作基于存储在存储器1332的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (12)
1.一种虚拟现实交互画面的渲染方法,其特征在于,所述方法包括:
根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面;
所述根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度包括:
将所述主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配;其中,所述预设的多个距离区间分别对应不同的画面渲染精度;
当所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度。
2.如权利要求1所述的方法,其特征在于,所述方法包括:
接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标之间的空间距离;或
接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标在交互场景中的空间坐标;
基于接收到的所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
3.如权利要求1所述的方法,其特征在于,所述基于获取到的与所述子目标对应的画面渲染精度对所述子目标的动作数据进行压缩包括:
接收所述子目标的虚拟现实终端上传的所述子目标的动作数据;
根据为所述子目标设置的画面渲染精度对接收到的所述子目标的动作数据进行对应比例的压缩。
4.一种虚拟现实交互画面的渲染方法,其特征在于,所述方法包括:
接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端将主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配,所述预设的多个距离区间分别对应不同的画面渲染精度,当所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度;
根据接收到的所述子目标的动作数据渲染对应的交互画面。
5.如权利要求4所述的方法,其特征在于,所述方法包括:
基于主体目标以及所述子目标在交互场景中的空间坐标计算所述主体目标与所述子目标之间的空间距离;
将计算出的所述主体目标与所述子目标之间的空间距离上传至所述虚拟现实服务端;或
将所述主体目标与所述子目标在交互场景中的空间坐标上传至所述虚拟现实服务端,以使得所述虚拟现实服务端基于所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
6.一种虚拟现实交互画面的渲染装置,其特征在于,所述装置包括:
设置模块,被配置为根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
压缩模块,被配置为基于所述设置模块为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
发送模块,被配置为将所述压缩模块压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面;
所述设置模块包括:
匹配子模块,被配置为将所述主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配;其中,所述预设的多个距离区间分别对应不同的画面渲染精度;
设置子模块,被配置为在所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度。
7.如权利要求6所述的装置,其特征在于,所述装置还包括:
第一接收模块,被配置为接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标之间的空间距离;或
第二接收模块,被配置为接收所述主体目标的虚拟现实终端上传的所述主体目标与所述子目标在交互场景中的空间坐标;
第一计算模块,被配置为基于所述第二接收模块接收到的所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
8.如权利要求6所述的装置,其特征在于,所述压缩模块包括:
接收子模块,被配置为接收所述子目标的虚拟现实终端上传的所述子目标的动作数据;
压缩子模块,被配置为根据所述设置模块为所述子目标设置的画面渲染精度对所述接收子模块接收到的所述子目标的动作数据进行对应比例的压缩。
9.一种虚拟现实交互画面的渲染装置,其特征在于,所述装置包括:
第三接收模块,被配置为接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端将主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配,所述预设的多个距离区间分别对应不同的画面渲染精度,当所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度;
渲染模块,被配置为根据所述第三接收模块接收到的所述子目标的动作数据渲染对应的交互画面。
10.如权利要求9所述的装置,其特征在于,所述装置还包括:
第二计算模块,被配置为基于主体目标以及所述子目标在交互场景中的空间坐标计算所述主体目标与所述子目标之间的空间距离;
第一上传模块,被配置为将所述第二计算模块计算出的所述主体目标与所述子目标之间的空间距离上传至所述虚拟现实服务端;或
第二上传模块,被配置为将所述主体目标与所述子目标在交互场景中的空间坐标上传至所述虚拟现实服务端,以使得所述虚拟现实服务端基于所述空间坐标计算所述主体目标与所述子目标之间的空间距离。
11.一种虚拟现实交互画面的渲染装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度;其中,所述空间距离与所述画面渲染精度成反比;
基于为所述子目标设置的画面渲染精度对所述子目标的动作数据进行压缩;
将压缩后的所述子目标的动作数据发送至所述主体目标的虚拟现实终端,以使得该虚拟现实终端基于压缩后的所述子目标的动作数据渲染对应的交互画面;
所述根据主体目标与子目标之间的空间距离为所述子目标设置画面渲染精度包括:
将所述主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配;其中,所述预设的多个距离区间分别对应不同的画面渲染精度;
当所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度。
12.一种虚拟现实交互画面的渲染装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
接收虚拟现实服务端发送的子目标的动作数据;其中,所述子目标的动作数据由所述虚拟现实服务端基于为所述子目标设置的画面渲染精度进行了压缩;所述画面渲染精度由所述虚拟现实服务端将主体目标与所述子目标之间的空间距离在预设的多个距离区间中进行匹配,所述预设的多个距离区间分别对应不同的画面渲染精度,当所述主体目标与所述子目标之间的空间距离匹配所述预设的多个距离区间中的任一距离区间时,将与该距离区间对应的画面渲染精度设置为所述子目标的画面渲染精度;
根据接收到的所述子目标的动作数据渲染对应的交互画面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510612170.XA CN105117111B (zh) | 2015-09-23 | 2015-09-23 | 虚拟现实交互画面的渲染方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510612170.XA CN105117111B (zh) | 2015-09-23 | 2015-09-23 | 虚拟现实交互画面的渲染方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105117111A CN105117111A (zh) | 2015-12-02 |
CN105117111B true CN105117111B (zh) | 2019-11-15 |
Family
ID=54665118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510612170.XA Active CN105117111B (zh) | 2015-09-23 | 2015-09-23 | 虚拟现实交互画面的渲染方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105117111B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105979360A (zh) * | 2015-12-04 | 2016-09-28 | 乐视致新电子科技(天津)有限公司 | 一种渲染图像的处理方法及装置 |
CN106527707A (zh) * | 2016-10-31 | 2017-03-22 | 北京小米移动软件有限公司 | 设备控制方法、装置及设备 |
JP6873268B2 (ja) * | 2017-03-22 | 2021-05-19 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 仮想現実画像を送信するための方法および装置 |
CN108144298B (zh) * | 2017-12-18 | 2021-06-25 | 福建省天奕网络科技有限公司 | 一种游戏渲染的优化方法及终端 |
CN111915709A (zh) * | 2019-05-10 | 2020-11-10 | 阿里巴巴集团控股有限公司 | 渲染方法及装置 |
CN111047710B (zh) * | 2019-12-03 | 2023-12-26 | 深圳市未来感知科技有限公司 | 虚拟现实系统及交互设备显示方法和计算机可读存储介质 |
CN113012501B (zh) * | 2021-03-18 | 2023-05-16 | 深圳市天天学农网络科技有限公司 | 一种远程教学方法 |
CN117319935A (zh) * | 2023-11-28 | 2023-12-29 | 深圳市碧源达科技有限公司 | 基于蓝牙定位的数据交互方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337079A (zh) * | 2013-07-09 | 2013-10-02 | 广州新节奏智能科技有限公司 | 一种虚拟增强现实的教学方法及装置 |
CN104881128A (zh) * | 2015-06-18 | 2015-09-02 | 北京国承万通信息科技有限公司 | 基于实物在虚拟现实场景中显示目标图像的方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100394448C (zh) * | 2006-05-17 | 2008-06-11 | 浙江大学 | 基于图像传输的三维远程渲染系统及其方法 |
JP2015504616A (ja) * | 2011-09-26 | 2015-02-12 | マイクロソフト コーポレーション | 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正 |
EP2600343A1 (en) * | 2011-12-02 | 2013-06-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for merging geometry - based spatial audio coding streams |
CN104394400B (zh) * | 2014-12-09 | 2015-12-02 | 山东大学 | 基于立体多画显示的隔网对抗性项目虚拟仿真系统及方法 |
-
2015
- 2015-09-23 CN CN201510612170.XA patent/CN105117111B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337079A (zh) * | 2013-07-09 | 2013-10-02 | 广州新节奏智能科技有限公司 | 一种虚拟增强现实的教学方法及装置 |
CN104881128A (zh) * | 2015-06-18 | 2015-09-02 | 北京国承万通信息科技有限公司 | 基于实物在虚拟现实场景中显示目标图像的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105117111A (zh) | 2015-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105117111B (zh) | 虚拟现实交互画面的渲染方法和装置 | |
EP3220651B1 (en) | Live video broadcasting method and device | |
CN105828201B (zh) | 视频处理方法及装置 | |
CN106126420B (zh) | 应用程序调试方法及装置 | |
CN104156915A (zh) | 肤色调整方法和装置 | |
CN104469167B (zh) | 自动对焦方法及装置 | |
CN104156947A (zh) | 图像分割方法、装置及设备 | |
CN105204808B (zh) | 图片的投射方法、装置及终端设备 | |
CN105337800B (zh) | 轮询频率调整方法及装置 | |
CN107656682B (zh) | 移动终端及弯曲角度计算方法 | |
CN105447462A (zh) | 人脸姿态估计方法及装置 | |
CN105469056A (zh) | 人脸图像处理方法及装置 | |
CN103970500A (zh) | 一种图片显示的方法及装置 | |
CN110782532B (zh) | 图像生成方法、生成装置、电子设备及存储介质 | |
CN105516586A (zh) | 图片拍摄方法、装置及系统 | |
CN109840939A (zh) | 三维重建方法、装置、电子设备及存储介质 | |
CN112202962B (zh) | 屏幕亮度调节方法、装置及存储介质 | |
CN112614214A (zh) | 动作捕捉方法、装置、电子设备及存储介质 | |
CN104881342B (zh) | 终端测试方法及装置 | |
CN104539497B (zh) | 网络连接方法及装置 | |
CN107239758B (zh) | 人脸关键点定位的方法及装置 | |
CN106228077B (zh) | 处理图像及显示图像的方法、装置及终端 | |
CN105608469B (zh) | 图像分辨率的确定方法及装置 | |
CN107087254A (zh) | 发包方法、装置和蓝牙低能耗从设备 | |
CN109787890A (zh) | 即时通信方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |