CN108255291B - 虚拟场景数据的传输方法、装置、存储介质及电子装置 - Google Patents
虚拟场景数据的传输方法、装置、存储介质及电子装置 Download PDFInfo
- Publication number
- CN108255291B CN108255291B CN201711270716.3A CN201711270716A CN108255291B CN 108255291 B CN108255291 B CN 108255291B CN 201711270716 A CN201711270716 A CN 201711270716A CN 108255291 B CN108255291 B CN 108255291B
- Authority
- CN
- China
- Prior art keywords
- virtual scene
- terminal
- data
- information
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Abstract
本发明公开了一种虚拟场景数据的传输方法、装置、存储介质及电子装置。其中,该方法包括:接收第一虚拟场景数据,并在终端上显示第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像;获取终端的交互信息;向服务器发送交互信息,并接收服务器发送的第二虚拟场景数据;在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像。本发明解决了相关技术中虚拟场景数据的传输效率较低的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种虚拟场景数据的传输方法、装置、存储介质及电子装置。
背景技术
随着互联网的高速发展,基于传统的实体场景体验已经并不能满足产品推广的要求,而使用网页技术来进行场景互动展现有较好的传播性与体验性,而传统的二维网页已不能满足我们的需求,于是WEB3D技术开始走进我们的视野,而传统的WEB3D技术使用FLASH较多,消耗内存较大,单纯的网页体验效果也无法完美的展现实际场景的效果。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种虚拟场景数据的传输方法、装置、存储介质及电子装置,以至少解决相关技术中虚拟场景数据的传输效率较低的技术问题。
根据本发明实施例的一个方面,提供了一种虚拟场景数据的传输方法,包括:接收第一虚拟场景数据,并在终端上显示所述第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,所述第一虚拟场景数据与第一位置信息具有对应关系,所述第一位置信息用于指示所述终端在所述虚拟场景中的当前位置;获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作;向服务器发送所述交互信息,并接收所述服务器发送的第二虚拟场景数据,其中,所述第二虚拟场景数据是所述服务器基于所述第一虚拟场景数据执行所述交互操作得到的数据;在所述终端上显示所述第二虚拟场景数据指示的所述虚拟场景中的第二部分三维区域图像。
可选地,在操作信息包括旋转信息的情况下,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像包括:在终端上显示第二部分三维区域图像,其中,第二部分三维区域图像是通过将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第二视角,并获取第二视角对应的三维区域图像,将第二视角对应的三维区域图像确定为第二部分三维区域图像得到的。
可选地,在操作信息包括移动信息的情况下,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像包括:在终端上显示第二部分三维区域图像,其中,第二部分三维区域图像是通过获取终端的第二位置信息,其中,第二位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第一目标位置;获取第二位置信息对应的第三部分三维区域图像,将第三部分三维区域图像确定为第二部分三维区域图像得到的。
可选地,在操作信息包括触控信息的情况下,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像包括:在终端上显示第二部分三维区域图像,其中,第二部分三维区域图像是通过在第一虚拟场景数据中添加触控操作对应的触控结果数据得到的。
可选地,在操作信息包括旋转信息和移动信息的情况下,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像包括:在终端上显示第二部分三维区域图像,其中,第二部分三维区域图像是通过获取终端的第三位置信息,其中,第三位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第二目标位置,获取第三位置信息对应的第四部分三维区域图像,将第四部分三维区域图像对应的第三视角沿旋转方向转动旋转角度得到第四视角,并获取第四视角对应的三维区域图像,将第四视角对应的三维区域图像确定为第二部分三维区域图像得到的。
可选地,在操作信息包括旋转信息和触控信息的情况下,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像包括:在终端上显示第二部分三维区域图像,其中,第二部分三维区域图像是通过将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第五视角,并获取第五视角对应的三维区域图像;在第五视角对应的三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
可选地,在操作信息包括移动信息和触控信息的情况下,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像包括:在终端上显示第二部分三维区域图像,其中,第二部分三维区域图像是通过获取终端的第四位置信息,其中,第四位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第三目标位置,获取第四位置信息对应的第五部分三维区域图像,在第五部分三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
可选地,在操作信息包括旋转信息、移动信息和触控信息的情况下,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像包括:在终端上显示第二部分三维区域图像,其中,第二部分三维区域图像是通过获取终端的第五位置信息,其中,第五位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第四目标位置;获取第五位置信息对应的第六部分三维区域图像;将第六部分三维区域图像对应的第六视角沿旋转方向转动旋转角度得到第七视角,并获取第七视角对应的三维区域图像;在第七视角对应的三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
可选地,触控操作对应的触控结果数据包括以下至少之一:显示菜单、关闭菜单、打开界面、关闭界面、切换界面;添加触控操作对应的触控结果数据包括:获取触控操作对应的音频数据,其中,音频数据用于指示在终端上显示执行触控操作的操作结果时播放的音频;绑定触控结果数据和音频数据;添加具有绑定关系的触控结果数据和音频数据。
根据本发明实施例的另一方面,还提供了一种虚拟场景数据的传输方法,包括:获取终端的第一位置信息,其中,所述第一位置信息用于指示所述终端在虚拟场景中的当前位置;向所述终端发送所述第一位置信息所对应的第一虚拟场景数据,其中,所述第一虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第一部分三维区域图像;获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作;基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的所述交互操作,得到第二虚拟场景数据,其中,所述第二虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第二部分三维区域图像;向所述终端发送所述第二虚拟场景数据。
可选地,将目标场景、具有绑定关系的虚拟元素和第三音频数据、具有绑定关系的目标元素和第四音频数据确定为第一虚拟场景数据包括:采集目标场景中的音频信息,其中,音频信息为目标场景中产生的声音的信息;将音频信息、目标场景、具有绑定关系的虚拟元素和第三音频数据、具有绑定关系的目标元素和第四音频数据确定为第一虚拟场景数据。
根据本发明实施例的另一方面,还提供了一种虚拟场景数据的传输装置,包括:第一显示模块,用于接收第一虚拟场景数据,并在终端上显示所述第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,所述第一虚拟场景数据与第一位置信息具有对应关系,所述第一位置信息用于指示所述终端在所述虚拟场景中的当前位置;第一获取模块,用于获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作;第一传输模块,用于向服务器发送所述交互信息,并接收所述服务器发送的第二虚拟场景数据,其中,所述第二虚拟场景数据是所述服务器基于所述第一虚拟场景数据执行所述交互操作得到的数据;第二显示模块,用于在所述终端上显示所述第二虚拟场景数据指示的所述虚拟场景中的第二部分三维区域图像。
根据本发明实施例的另一方面,还提供了一种虚拟场景数据的传输装置,包括:第二获取模块,用于获取终端的第一位置信息,其中,所述第一位置信息用于指示所述终端在虚拟场景中的当前位置;第一发送模块,用于向所述终端发送所述第一位置信息所对应的第一虚拟场景数据,其中,所述第一虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第一部分三维区域图像;第三获取模块,用于获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作;执行模块,用于基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的所述交互操作,得到第二虚拟场景数据,其中,所述第二虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第二部分三维区域图像;第二发送模块,用于向所述终端发送所述第二虚拟场景数据。
根据本发明实施例的另一方面,还提供了一种存储介质,所述存储介质包括存储的程序,其中,所述程序运行时执行上述任一项中所述的方法。
根据本发明实施例的另一方面,还提供了一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器通过所述计算机程序执行上述任一项中所述的方法。
在本发明实施例中,接收第一虚拟场景数据,并在终端上显示第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,第一虚拟场景数据与第一位置信息具有对应关系,第一位置信息用于指示终端在虚拟场景中的当前位置;获取终端的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;向服务器发送交互信息,并接收服务器发送的第二虚拟场景数据,其中,第二虚拟场景数据是服务器基于第一虚拟场景数据执行交互操作得到的数据;在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像。也就是说,在终端上显示终端当前所在位置对应的第一部分三维区域图像时实时获取终端的交互信息,并将交互信息发送给服务器,服务器基于第一虚拟场景数据执行交互信息指示的交互操作,得到第二虚拟场景数据,并将该第二虚拟场景数据返回给终端,由终端显示该第二虚拟场景数据指示的第二部分三维区域图像,从而实时进行虚拟场景数据的传输,为用户动态展示虚拟场景的数据,提高了虚拟场景数据的传输效率,进而克服相关技术中虚拟场景数据的传输效率较低的问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的虚拟场景数据的传输方法的应用环境示意图;
图2是根据本发明实施例的一种可选的虚拟场景数据的传输方法的示意图;
图3是根据本发明实施例的一种可选的虚拟场景数据的传输方法中场景一的示意图;
图4是根据本发明实施例的一种可选的虚拟场景数据的传输方法中场景二的示意图;
图5是根据本发明实施例的一种可选的虚拟场景数据的传输方法中场景三的示意图;
图6是根据本发明实施例的一种可选的虚拟场景数据的传输方法中场景四的示意图;
图7是根据本发明实施例的一种可选的虚拟场景数据的传输方法中场景五的示意图;
图8是根据本发明实施例的一种可选的虚拟场景数据的传输方法中场景六的示意图;
图9是根据本发明实施例的一种可选的虚拟场景数据的传输方法中场景七的示意图;
图10是根据本发明实施例的另一种可选的虚拟场景数据的传输方法的示意图;
图11是根据本发明实施例的一种可选的虚拟场景数据的传输装置的示意图;
图12是根据本发明实施例的另一种可选的虚拟场景数据的传输装置的示意图;
图13是根据本发明实施例的一种可选的虚拟场景数据的传输方法的应用场景示意图;以及
图14是根据本发明实施例的一种可选的电子装置的示意图;
图15是根据本发明实施例的另一种可选的电子装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本发明实施例中,提供了一种上述虚拟场景数据的传输方法的实施例。作为一种可选的实施方式,该虚拟场景数据的传输方法可以但不限于应用于如图1所示的应用环境中,终端102通过网络106与服务器104连接,服务器104,用于获取终端102的第一位置信息,其中,第一位置信息用于指示终端102在虚拟场景中的当前位置;向终端102发送第一位置信息所对应的第一虚拟场景数据,其中,第一虚拟场景数据用于指示在终端102上显示虚拟场景中的第一部分三维区域图像;获取终端102的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;基于第一虚拟场景数据,执行终端102与虚拟场景执行的交互操作,得到第二虚拟场景数据,其中,第二虚拟场景数据用于指示在终端102上显示虚拟场景中的第二部分三维区域图像;向终端102发送第二虚拟场景数据。终端102用于接收服务器104发送的第一虚拟场景数据,并显示第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,获取终端的交互信息,向服务器发送交互信息,并接收服务器发送的第二虚拟场景数据,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像。
在终端上显示终端当前所在位置对应的第一部分三维区域图像时实时获取终端的交互信息,并将交互信息发送给服务器,服务器基于第一虚拟场景数据执行交互信息指示的交互操作,得到第二虚拟场景数据,并将该第二虚拟场景数据返回给终端,由终端显示该第二虚拟场景数据指示的第二部分三维区域图像,从而实时进行虚拟场景数据的传输,为用户动态展示虚拟场景的数据,提高了虚拟场景数据的传输效率,进而克服相关技术中虚拟场景数据的传输效率较低的问题。
可选地,在本实施例中,上述终端可以包括但不限于以下至少之一:手机、平板电脑、VR设备及其他进行虚拟现实操作的硬件设备。上述网络可以包括但不限于以下至少之一:广域网、城域网、局域网。上述只是一种示例,本实施例对此不做任何限定。
根据本发明实施例,提供了一种虚拟场景数据的传输方法,如图2所示,该方法包括:
S202,接收第一虚拟场景数据,并在终端上显示第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,第一虚拟场景数据与第一位置信息具有对应关系,第一位置信息用于指示终端在虚拟场景中的当前位置;
S204,获取终端的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;
S206,向服务器发送交互信息,并接收服务器发送的第二虚拟场景数据,其中,第二虚拟场景数据是服务器基于第一虚拟场景数据执行交互操作得到的数据;
S208,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像。
可选地,在本实施例中,上述虚拟场景数据的传输方法可以但不限于应用于VR体验的场景中。例如,多终端VR远程观看实际展厅的场景,或者,现场VR观看虚拟展厅的场景。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述虚拟场景数据的传输方法可以但不限于应用于上述终端。例如:上述终端可以但不限于包括:手机、平板电脑、头戴式VR设备等等。
可选地,在本实施例中,终端在接收到第一虚拟场景数据,并显示该第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像。该第一部分三维区域图像可以但不限于是该终端在虚拟场景中的当前位置所具有的视角下的三维区域图像。例如:操纵终端的用户在进入虚拟场景后,服务器获取用于指示其所在的当前位置的第一位置信息,根据该第一位置信息确定出该终端所在的当前位置以及该用户所观看的当前视角,再获取该当前位置和当前视角下对应的虚拟场景中的第一部分三维区域图像,发送给终端,并由终端显示在终端屏幕上。
可选地,在本实施例中,上述第一位置信息可以但不限于包括:终端在虚拟场景中的当前位置对应的坐标,终端在当前位置下具有的视角等等。
可选地,在本实施例中,终端与虚拟场景执行的交互操作可以但不限于包括:终端在虚拟场景中移动、终端在所在位置上转动视角、终端对虚拟场景进行触控操作以及它们之间的组合等等。
可选地,在本实施例中,终端对虚拟场景进行的触控操作可以但不限于包括:点击、滑动、触摸、抓取、拖拽等等。
可见,通过上述步骤,在终端上显示终端当前所在位置对应的第一部分三维区域图像时实时获取终端的交互信息,并将交互信息发送给服务器,服务器基于第一虚拟场景数据执行交互信息指示的交互操作,得到第二虚拟场景数据,并将该第二虚拟场景数据返回给终端,由终端显示该第二虚拟场景数据指示的第二部分三维区域图像,从而实时进行虚拟场景数据的传输,为用户动态展示虚拟场景的数据,提高了虚拟场景数据的传输效率,进而克服相关技术中虚拟场景数据的传输效率较低的问题。
作为一种可选的方案,获取终端的交互信息包括:
S1,检测终端的操作信息,其中,操作信息包括以下至少之一:旋转信息,其中,旋转信息用于指示终端在虚拟场景中的当前位置转动的旋转方向和旋转角度;移动信息,其中,移动信息用于指示终端在虚拟场景中移动的移动方向和移动距离;触控信息,其中,触控信息用于指示终端对虚拟场景执行的触控操作;
S2,将检测到的操作信息确定为交互信息。
可选地,在本实施例中,操作信息可以但不限于通过终端的陀螺仪、加速度计等设备对终端的状态进行检测来获取。操作信息可以但不限于包括:旋转信息、移动信息、触控信息以及它们之间的组合。在获取到不同的操作信息的情况下,终端上可以显示以下几种不同的场景效果。
场景一,在操作信息包括旋转信息的情况下,如图3所示,在终端上显示的第二部分三维区域图像可以是通过将第一部分三维区域图像对应的第一视角(图3中虚线所示视角)沿旋转方向转动旋转角度(图3中箭头所示的转动)得到第二视角(图3中实线所示视角),并获取第二视角对应的三维区域图像,将第二视角对应的三维区域图像确定为第二部分三维区域图像得到的。终端上可以实时地展示上述从第一视角转换到第二视角的过程。
场景二,在操作信息包括移动信息的情况下,如图4所示,在终端上显示的第二部分三维区域图像可以但不限于是通过获取终端的第二位置信息,其中,第二位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第一目标位置;获取第二位置信息对应的第三部分三维区域图像,将第三部分三维区域图像确定为第二部分三维区域图像得到的。终端上可以实时地展示上述从当前位置移动到第一目标位置的过程。
场景三,在操作信息包括触控信息(以拖拽菜单操作为例)的情况下,如图5所示,在终端上显示第二部分三维区域图像可以但不限于是通过在第一虚拟场景数据中添加触控操作对应的触控结果数据得到的。终端上可以实时地展示上述触控结果数据添加时具有的动态效果。
场景四,在操作信息包括旋转信息和移动信息的情况下,如图6所示,在终端上显示第二部分三维区域图像可以但不限于是通过获取终端的第三位置信息,其中,第三位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第二目标位置,获取第三位置信息对应的第四部分三维区域图像,将第四部分三维区域图像对应的第三视角沿旋转方向转动旋转角度得到第四视角,并获取第四视角对应的三维区域图像,将第四视角对应的三维区域图像确定为第二部分三维区域图像得到的。终端上可以实时地展示上述从当前位置移动到第二目标位置,并从第二目标位置对应的第三视角转换到第四视角的过程。
场景五,在操作信息包括旋转信息和触控信息的情况下,如图7所示,在终端上显示的第二部分三维区域图像可以但不限于是通过将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第五视角,并获取第五视角对应的三维区域图像;在第五视角对应的三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。终端上可以实时地展示上述从第一视角转换到第五视角,并对第五视角对应的三维区域图像执行触控操作的过程。
场景六,在操作信息包括移动信息和触控信息的情况下,如图8所示,在终端上显示的第二部分三维区域图像可以但不限于是通过获取终端的第四位置信息,其中,第四位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第三目标位置,获取第四位置信息对应的第五部分三维区域图像,在第五部分三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。终端上可以实时地展示上述从当前位置移动到第三目标位置并在第三目标位置对应的三维区域图像中执行触控操作的过程。
场景七,在操作信息包括旋转信息、移动信息和触控信息的情况下,如图9所示,在终端上显示的第二部分三维区域图像可以但不限于是通过获取终端的第五位置信息,其中,第五位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第四目标位置;获取第五位置信息对应的第六部分三维区域图像;将第六部分三维区域图像对应的第六视角沿旋转方向转动旋转角度得到第七视角,并获取第七视角对应的三维区域图像;在第七视角对应的三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。终端上可以实时地展示上述从当前位置移动到第四目标位置,从第六视角转换到第七视角,并在第七视角对应的三维区域图像中执行触控操作的过程。
可选地,在本实施例中,触控操作对应的触控结果数据可以但不限于包括以下至少之一:显示菜单、关闭菜单、打开界面、关闭界面、切换界面。
可选地,在本实施例中,在终端上显示触控结果数据的同时可以播放该触控结果数据对应的音效。例如:可以获取触控操作对应的音频数据,其中,音频数据用于指示在终端上显示执行触控操作的操作结果时播放的音频;绑定触控结果数据和音频数据;添加具有绑定关系的触控结果数据和音频数据。
根据本发明实施例,还提供了另一种虚拟场景数据的传输方法,如图10所示,该方法包括:
S1002,获取终端的第一位置信息,其中,第一位置信息用于指示终端在虚拟场景中的当前位置;
S1004,向终端发送第一位置信息所对应的第一虚拟场景数据,其中,第一虚拟场景数据用于指示在终端上显示虚拟场景中的第一部分三维区域图像;
S1006,获取终端的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;
S1008,基于第一虚拟场景数据,执行终端与虚拟场景执行的交互操作,得到第二虚拟场景数据,其中,第二虚拟场景数据用于指示在终端上显示虚拟场景中的第二部分三维区域图像;
S1010,向终端发送第二虚拟场景数据。
可选地,在本实施例中,上述虚拟场景数据的传输方法可以但不限于应用于VR体验的场景中。例如,多终端VR远程观看实际展厅的场景,或者,现场VR观看虚拟展厅的场景。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述虚拟场景数据的传输方法可以但不限于应用于上述终端。例如:上述终端可以但不限于包括:手机、平板电脑、头戴式VR设备等等。
可选地,在本实施例中,终端在接收到第一虚拟场景数据,并显示该第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像。该第一部分三维区域图像可以但不限于是该终端在虚拟场景中的当前位置所具有的视角下的三维区域图像。例如:操纵终端的用户在进入虚拟场景后,服务器获取用于指示其所在的当前位置的第一位置信息,根据该第一位置信息确定出该终端所在的当前位置以及该用户所观看的当前视角,再获取该当前位置和当前视角下对应的虚拟场景中的第一部分三维区域图像,发送给终端,并由终端显示在终端屏幕上。
可选地,在本实施例中,上述第一位置信息可以但不限于包括:终端在虚拟场景中的当前位置对应的坐标,终端在当前位置下具有的视角等等。
可选地,在本实施例中,终端与虚拟场景执行的交互操作可以但不限于包括:终端在虚拟场景中移动、终端在所在位置上转动视角、终端对虚拟场景进行触控操作以及它们之间的组合等等。
可选地,在本实施例中,终端对虚拟场景进行的触控操作可以但不限于包括:点击、滑动、触摸、抓取、拖拽等等。
可见,通过上述步骤,获取终端在虚拟场景中的当前位置对应的第一位置信息,并向终端发送该第一位置信息对应的第一虚拟数据,以指示中终端显示当前所在位置对应的第一部分三维区域图像,与此同时,实时获取终端的交互信息,并基于第一虚拟场景数据执行该交互信息指示的交互操作,得到第二虚拟场景数据,并将该第二虚拟场景数据返回给终端,由终端显示该第二虚拟场景数据指示的第二部分三维区域图像,从而实时进行虚拟场景数据的传输,为用户动态展示虚拟场景的数据,提高了虚拟场景数据的传输效率,进而克服相关技术中虚拟场景数据的传输效率较低的问题。
作为一种可选的方案,获取终端的交互信息包括:
S1,获取终端发送的交互信息,其中,交互信息包括以下至少之一:旋转信息,其中,旋转信息用于指示终端在虚拟场景中的当前位置转动的旋转方向和旋转角度;移动信息,其中,移动信息用于指示终端在虚拟场景中移动的移动方向和移动距离;触控信息,其中,触控信息用于指示终端对虚拟场景执行的触控操作。
可选地,在本实施例中,操作信息可以但不限于通过终端的陀螺仪、加速度计等设备对终端的状态进行检测来获取。操作信息可以但不限于包括:旋转信息、移动信息、触控信息以及它们之间的组合。在获取到不同的操作信息的情况下,可以但不限于通过以下几种不同的场景效果得到第二虚拟场景数据,并在终端上显示不同的场景效果。
场景一,在操作信息包括旋转信息的情况下,将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第二视角,并获取第二视角对应的三维区域图像;将第二视角对应的三维区域图像确定为第二部分三维区域图像,从而得到第二虚拟场景数据。
场景二,在操作信息包括移动信息的情况下,获取终端的第二位置信息,其中,第二位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第一目标位置;获取第二位置信息对应的第三部分三维区域图像;将第三部分三维区域图像确定为第二部分三维区域图像,从而得到第二虚拟场景数据。
场景三,在操作信息包括触控信息的情况下,在第一虚拟场景数据中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
场景四,在操作信息包括旋转信息和移动信息的情况下,获取终端的第三位置信息,其中,第三位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第二目标位置;获取第三位置信息对应的第四部分三维区域图像;将第四部分三维区域图像对应的第三视角沿旋转方向转动旋转角度得到第四视角,并获取第四视角对应的三维区域图像;将第四视角对应的三维区域图像确定为第二部分三维区域图像,从而得到第二虚拟场景数据。
场景五,在操作信息包括旋转信息和触控信息的情况下,将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第五视角,并获取第五视角对应的三维区域图像;在第五视角对应的三维区域图像中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
场景六,在操作信息包括移动信息和触控信息的情况下,获取终端的第四位置信息,其中,第四位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第三目标位置;获取第四位置信息对应的第五部分三维区域图像;在第五部分三维区域图像中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
场景七,在操作信息包括旋转信息、移动信息和触控信息的情况下,获取终端的第五位置信息,其中,第五位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第四目标位置;获取第五位置信息对应的第六部分三维区域图像;将第六部分三维区域图像对应的第六视角沿旋转方向转动旋转角度得到第七视角,并获取第七视角对应的三维区域图像;在第七视角对应的三维区域图像中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
可选地,在本实施例中,触控操作对应的触控结果数据可以但不限于包括以下至少之一:显示菜单、关闭菜单、打开界面、关闭界面、切换界面。
可选地,在本实施例中,在终端上显示触控结果数据的同时可以播放该触控结果数据对应的音效。例如:获取触控操作对应的音频数据,其中,音频数据用于指示在终端上显示执行触控操作的操作结果时播放的音频;绑定触控结果数据和音频数据;添加具有绑定关系的触控结果数据和音频数据。
作为一种可选的方案,向终端发送第一位置信息所对应的第一虚拟场景数据包括:
S1,从第一数据库中获取第一位置信息对应的目标场景,其中,第一数据库中记录了具有对应关系的第一位置信息和目标场景;
S2,对目标场景进行渲染,得到第一虚拟场景数据;
S3,向终端发送第一虚拟场景数据。
可选地,在本实施例中,服务器可以但不限于通过从第一数据库中获取第一位置信息对应的目标场景并对目标场景进行渲染来得到第一虚拟场景数据。
作为一种可选的方案,对目标场景进行渲染,得到第一虚拟场景数据包括:
S1,在目标场景中添加虚拟元素并获取目标场景中的目标元素,其中,虚拟元素为根据目标场景生成的可操作的元素,目标元素为目标场景中存在的可操作的元素;
S2,获取虚拟元素对应的第三音频数据以及目标元素对应的第四音频数据,其中,第三音频数据为虚拟元素被执行操作时播放的音频,第四音频数据为目标元素被执行操作时播放的音频;
S3,对虚拟元素和第三音频数据进行绑定,并对虚拟元素和第四音频数据进行绑定;
S4,将目标场景、具有绑定关系的虚拟元素和第三音频数据、具有绑定关系的目标元素和第四音频数据确定为第一虚拟场景数据。
可选地,在本实施例中,目标场景中包括可操作的目标元素,通过获取该目标元素并向目标场景中添加虚拟元素来获得虚拟场景以及确定该虚拟场景中哪些元素是可操作的,为场景中可操作的元素绑定音频数据,从而得到第一虚拟场景数据。从而提高与虚拟场景进行交互时用户的体验度。
可选地,在本实施例中,服务器还可以实时采集场景中的音频信息,并将该音频信息添加到第一虚拟场景数据中,在终端上显示虚拟场景的同时播放场景中产生的声音,从而使得用户更加有身临其境的感觉,提高用户的体验度。例如:可以采集目标场景中的音频信息,其中,音频信息为目标场景中产生的声音的信息,将音频信息、目标场景、具有绑定关系的虚拟元素和第三音频数据、具有绑定关系的目标元素和第四音频数据确定为第一虚拟场景数据。
作为一种可选的方案,在从第一数据库中获取第一位置信息对应的目标场景之前,还包括:
S1,通过场景中多个位置上设置的多个摄像机获取场景在多个角度下的多个视频图像数据;
S2,将多个视频图像数据拼接为全景图像;
S3,对全景图像进行分割,得到多个子场景,其中,所述多个子场景包括所述目标场景;
S4,将所述多个子场景与场景中的位置进行绑定,得到多个具有对应关系的场景中的位置与子场景;
S5,将多个具有对应关系的场景中的位置与子场景存储在第一数据库中。
可选地,在本实施例中,可以但不限于通过渲染全景图像的方式构建虚拟场景的三维模型,并对全景图像进行分割,将分割后的全景图像与场景中的位置进行绑定,并记录该绑定关系。使得在向终端传输虚拟场景的场景数据时不必将整个虚拟场景数据传输给终端,只需传输终端当前位置对应的部分三维区域图像即可,从而节约了数据传输占用的带宽,提高了数据传输速度。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
根据本发明实施例,还提供了一种用于实施上述虚拟场景数据的传输方法的虚拟场景数据的传输装置,如图11所示,该装置包括:
1)第一显示模块1102,用于接收第一虚拟场景数据,并在终端上显示第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,第一虚拟场景数据与第一位置信息具有对应关系,第一位置信息用于指示终端在虚拟场景中的当前位置;
2)第一获取模块1104,用于获取终端的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;
3)第一传输模块1106,用于向服务器发送交互信息,并接收服务器发送的第二虚拟场景数据,其中,第二虚拟场景数据是服务器基于第一虚拟场景数据执行交互操作得到的数据;
4)第二显示模块1108,用于在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像。
可选地,在本实施例中,上述虚拟场景数据的传输装置可以但不限于应用于VR体验的场景中。例如,多终端VR远程观看实际展厅的场景,或者,现场VR观看虚拟展厅的场景。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述虚拟场景数据的传输装置可以但不限于应用于上述终端。例如:上述终端可以但不限于包括:手机、平板电脑、头戴式VR设备等等。
可选地,在本实施例中,终端在接收到第一虚拟场景数据,并显示该第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像。该第一部分三维区域图像可以但不限于是该终端在虚拟场景中的当前位置所具有的视角下的三维区域图像。例如:操纵终端的用户在进入虚拟场景后,服务器获取用于指示其所在的当前位置的第一位置信息,根据该第一位置信息确定出该终端所在的当前位置以及该用户所观看的当前视角,再获取该当前位置和当前视角下对应的虚拟场景中的第一部分三维区域图像,发送给终端,并由终端显示在终端屏幕上。
可选地,在本实施例中,上述第一位置信息可以但不限于包括:终端在虚拟场景中的当前位置对应的坐标,终端在当前位置下具有的视角等等。
可选地,在本实施例中,终端与虚拟场景执行的交互操作可以但不限于包括:终端在虚拟场景中移动、终端在所在位置上转动视角、终端对虚拟场景进行触控操作以及它们之间的组合等等。
可选地,在本实施例中,终端对虚拟场景进行的触控操作可以但不限于包括:点击、滑动、触摸、抓取、拖拽等等。
可见,通过上述装置,在终端上显示终端当前所在位置对应的第一部分三维区域图像时实时获取终端的交互信息,并将交互信息发送给服务器,服务器基于第一虚拟场景数据执行交互信息指示的交互操作,得到第二虚拟场景数据,并将该第二虚拟场景数据返回给终端,由终端显示该第二虚拟场景数据指示的第二部分三维区域图像,从而实时进行虚拟场景数据的传输,为用户动态展示虚拟场景的数据,提高了虚拟场景数据的传输效率,进而克服相关技术中虚拟场景数据的传输效率较低的问题。
作为一种可选的方案,第一获取模块包括:
1)检测单元,用于检测终端的操作信息,其中,操作信息包括以下至少之一:旋转信息,其中,旋转信息用于指示终端在虚拟场景中的当前位置转动的旋转方向和旋转角度;移动信息,其中,移动信息用于指示终端在虚拟场景中移动的移动方向和移动距离;触控信息,其中,触控信息用于指示终端对虚拟场景执行的触控操作;
2)确定单元,用于将检测到的操作信息确定为交互信息。
可选地,在本实施例中,操作信息可以但不限于通过终端的陀螺仪、加速度计等设备对终端的状态进行检测来获取。操作信息可以但不限于包括:旋转信息、移动信息、触控信息以及它们之间的组合。在获取到不同的操作信息的情况下,终端上可以显示以下几种不同的场景效果。
场景一,在操作信息包括旋转信息的情况下,如图3所示,在终端上显示的第二部分三维区域图像可以是通过将第一部分三维区域图像对应的第一视角(图3中虚线所示视角)沿旋转方向转动旋转角度(图3中箭头所示的转动)得到第二视角(图3中实线所示视角),并获取第二视角对应的三维区域图像,将第二视角对应的三维区域图像确定为第二部分三维区域图像得到的。终端上可以实时地展示上述从第一视角转换到第二视角的过程。
场景二,在操作信息包括移动信息的情况下,如图4所示,在终端上显示的第二部分三维区域图像可以但不限于是通过获取终端的第二位置信息,其中,第二位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第一目标位置;获取第二位置信息对应的第三部分三维区域图像,将第三部分三维区域图像确定为第二部分三维区域图像得到的。终端上可以实时地展示上述从当前位置移动到第一目标位置的过程。
场景三,在操作信息包括触控信息(以拖拽菜单操作为例)的情况下,如图5所示,在终端上显示第二部分三维区域图像可以但不限于是通过在第一虚拟场景数据中添加触控操作对应的触控结果数据得到的。终端上可以实时地展示上述触控结果数据添加时具有的动态效果。
场景四,在操作信息包括旋转信息和移动信息的情况下,如图6所示,在终端上显示第二部分三维区域图像可以但不限于是通过获取终端的第三位置信息,其中,第三位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第二目标位置,获取第三位置信息对应的第四部分三维区域图像,将第四部分三维区域图像对应的第三视角沿旋转方向转动旋转角度得到第四视角,并获取第四视角对应的三维区域图像,将第四视角对应的三维区域图像确定为第二部分三维区域图像得到的。终端上可以实时地展示上述从当前位置移动到第二目标位置,并从第二目标位置对应的第三视角转换到第四视角的过程。
场景五,在操作信息包括旋转信息和触控信息的情况下,如图7所示,在终端上显示的第二部分三维区域图像可以但不限于是通过将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第五视角,并获取第五视角对应的三维区域图像;在第五视角对应的三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。终端上可以实时地展示上述从第一视角转换到第五视角,并对第五视角对应的三维区域图像执行触控操作的过程。
场景六,在操作信息包括移动信息和触控信息的情况下,如图8所示,在终端上显示的第二部分三维区域图像可以但不限于是通过获取终端的第四位置信息,其中,第四位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第三目标位置,获取第四位置信息对应的第五部分三维区域图像,在第五部分三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。终端上可以实时地展示上述从当前位置移动到第三目标位置并在第三目标位置对应的三维区域图像中执行触控操作的过程。
场景七,在操作信息包括旋转信息、移动信息和触控信息的情况下,如图9所示,在终端上显示的第二部分三维区域图像可以但不限于是通过获取终端的第五位置信息,其中,第五位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第四目标位置;获取第五位置信息对应的第六部分三维区域图像;将第六部分三维区域图像对应的第六视角沿旋转方向转动旋转角度得到第七视角,并获取第七视角对应的三维区域图像;在第七视角对应的三维区域图像中添加触控操作对应的触控结果数据得到的,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。终端上可以实时地展示上述从当前位置移动到第四目标位置,从第六视角转换到第七视角,并在第七视角对应的三维区域图像中执行触控操作的过程。
可选地,在本实施例中,触控操作对应的触控结果数据包括以下至少之一:显示菜单、关闭菜单、打开界面、关闭界面、切换界面。
可选地,在本实施例中,在终端上显示触控结果数据的同时可以播放该触控结果数据对应的音效。例如:获取触控操作对应的音频数据,其中,音频数据用于指示在终端上显示执行触控操作的操作结果时播放的音频;绑定触控结果数据和音频数据;添加具有绑定关系的触控结果数据和音频数据。
根据本发明实施例,还提供了另一种用于实施上述虚拟场景数据的传输方法的虚拟场景数据的传输装置,如图12所示,该装置包括:
1)第二获取模块1202,用于获取终端的第一位置信息,其中,第一位置信息用于指示终端在虚拟场景中的当前位置;
2)第一发送模块1204,用于向终端发送第一位置信息所对应的第一虚拟场景数据,其中,第一虚拟场景数据用于指示在终端上显示虚拟场景中的第一部分三维区域图像;
3)第三获取模块1206,用于获取终端的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;
4)执行模块1208,用于基于第一虚拟场景数据,执行终端与虚拟场景执行的交互操作,得到第二虚拟场景数据,其中,第二虚拟场景数据用于指示在终端上显示虚拟场景中的第二部分三维区域图像;
5)第二发送模块1210,用于向终端发送第二虚拟场景数据。
可选地,在本实施例中,上述虚拟场景数据的传输装置可以但不限于应用于VR体验的场景中。例如,多终端VR远程观看实际展厅的场景,或者,现场VR观看虚拟展厅的场景。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述虚拟场景数据的传输装置可以但不限于应用于上述终端。例如:上述终端可以但不限于包括:手机、平板电脑、头戴式VR设备等等。
可选地,在本实施例中,终端在接收到第一虚拟场景数据,并显示该第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像。该第一部分三维区域图像可以但不限于是该终端在虚拟场景中的当前位置所具有的视角下的三维区域图像。例如:操纵终端的用户在进入虚拟场景后,服务器获取用于指示其所在的当前位置的第一位置信息,根据该第一位置信息确定出该终端所在的当前位置以及该用户所观看的当前视角,再获取该当前位置和当前视角下对应的虚拟场景中的第一部分三维区域图像,发送给终端,并由终端显示在终端屏幕上。
可选地,在本实施例中,上述第一位置信息可以但不限于包括:终端在虚拟场景中的当前位置对应的坐标,终端在当前位置下具有的视角等等。
可选地,在本实施例中,终端与虚拟场景执行的交互操作可以但不限于包括:终端在虚拟场景中移动、终端在所在位置上转动视角、终端对虚拟场景进行触控操作以及它们之间的组合等等。
可选地,在本实施例中,终端对虚拟场景进行的触控操作可以但不限于包括:点击、滑动、触摸、抓取、拖拽等等。
可见,通过上述装置,获取终端在虚拟场景中的当前位置对应的第一位置信息,并向终端发送该第一位置信息对应的第一虚拟数据,以指示中终端显示当前所在位置对应的第一部分三维区域图像,与此同时,实时获取终端的交互信息,并基于第一虚拟场景数据执行该交互信息指示的交互操作,得到第二虚拟场景数据,并将该第二虚拟场景数据返回给终端,由终端显示该第二虚拟场景数据指示的第二部分三维区域图像,从而实时进行虚拟场景数据的传输,为用户动态展示虚拟场景的数据,提高了虚拟场景数据的传输效率,进而克服相关技术中虚拟场景数据的传输效率较低的问题。
作为一种可选的方案,第二获取模块用于:获取终端发送的交互信息,其中,交互信息包括以下至少之一:旋转信息,其中,旋转信息用于指示终端在虚拟场景中的当前位置转动的旋转方向和旋转角度;移动信息,其中,移动信息用于指示终端在虚拟场景中移动的移动方向和移动距离;触控信息,其中,触控信息用于指示终端对虚拟场景执行的触控操作。
可选地,在本实施例中,操作信息可以但不限于通过终端的陀螺仪、加速度计等设备对终端的状态进行检测来获取。操作信息可以但不限于包括:旋转信息、移动信息、触控信息以及它们之间的组合。在获取到不同的操作信息的情况下,可以但不限于通过以下几种不同的场景效果得到第二虚拟场景数据,并在终端上显示不同的场景效果。
场景一,在操作信息包括旋转信息的情况下,将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第二视角,并获取第二视角对应的三维区域图像;将第二视角对应的三维区域图像确定为第二部分三维区域图像,从而得到第二虚拟场景数据。
场景二,在操作信息包括移动信息的情况下,获取终端的第二位置信息,其中,第二位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第一目标位置;获取第二位置信息对应的第三部分三维区域图像;将第三部分三维区域图像确定为第二部分三维区域图像,从而得到第二虚拟场景数据。
场景三,在操作信息包括触控信息的情况下,在第一虚拟场景数据中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
场景四,在操作信息包括旋转信息和移动信息的情况下,获取终端的第三位置信息,其中,第三位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第二目标位置;获取第三位置信息对应的第四部分三维区域图像;将第四部分三维区域图像对应的第三视角沿旋转方向转动旋转角度得到第四视角,并获取第四视角对应的三维区域图像;将第四视角对应的三维区域图像确定为第二部分三维区域图像,从而得到第二虚拟场景数据。
场景五,在操作信息包括旋转信息和触控信息的情况下,将第一部分三维区域图像对应的第一视角沿旋转方向转动旋转角度得到第五视角,并获取第五视角对应的三维区域图像;在第五视角对应的三维区域图像中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
场景六,在操作信息包括移动信息和触控信息的情况下,获取终端的第四位置信息,其中,第四位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第三目标位置;获取第四位置信息对应的第五部分三维区域图像;在第五部分三维区域图像中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
场景七,在操作信息包括旋转信息、移动信息和触控信息的情况下,获取终端的第五位置信息,其中,第五位置信息用于指示终端从当前位置沿移动方向移动移动距离后在虚拟场景中的第四目标位置;获取第五位置信息对应的第六部分三维区域图像;将第六部分三维区域图像对应的第六视角沿旋转方向转动旋转角度得到第七视角,并获取第七视角对应的三维区域图像;在第七视角对应的三维区域图像中添加触控操作对应的触控结果数据,从而得到第二虚拟场景数据,其中,触控结果数据用于指示在终端上显示执行触控操作的操作结果。
可选地,在本实施例中,触控操作对应的触控结果数据包括以下至少之一:显示菜单、关闭菜单、打开界面、关闭界面、切换界面。
可选地,在本实施例中,在终端上显示触控结果数据的同时可以播放该触控结果数据对应的音效。例如:获取触控操作对应的音频数据,其中,音频数据用于指示在终端上显示执行触控操作的操作结果时播放的音频;绑定触控结果数据和音频数据;添加具有绑定关系的触控结果数据和音频数据。
作为一种可选的方案,第一发送模块包括:
1)获取单元,用于从第一数据库中获取第一位置信息对应的目标场景,其中,第一数据库中记录了具有对应关系的第一位置信息和目标场景;
2)渲染单元,用于对目标场景进行渲染,得到第一虚拟场景数据;
3)发送单元,用于向终端发送第一虚拟场景数据。
可选地,在本实施例中,服务器可以但不限于通过从第一数据库中获取第一位置信息对应的目标场景并对目标场景进行渲染来得到第一虚拟场景数据。
作为一种可选的方案,渲染单元包括:
1)添加子单元,用于在目标场景中添加虚拟元素并获取目标场景中的目标元素,其中,虚拟元素为根据目标场景生成的可操作的元素,目标元素为目标场景中存在的可操作的元素;
2)获取子单元,用于获取虚拟元素对应的第三音频数据以及目标元素对应的第四音频数据,其中,第三音频数据为虚拟元素被执行操作时播放的音频,第四音频数据为目标元素被执行操作时播放的音频;
3)绑定子单元,用于对虚拟元素和第三音频数据进行绑定,并对虚拟元素和第四音频数据进行绑定;
4)确定子单元,用于将目标场景、具有绑定关系的虚拟元素和第三音频数据、具有绑定关系的目标元素和第四音频数据确定为第一虚拟场景数据。
可选地,在本实施例中,目标场景中包括可操作的目标元素,通过获取该目标元素并向目标场景中添加虚拟元素来获得虚拟场景以及确定该虚拟场景中哪些元素是可操作的,为场景中可操作的元素绑定音频数据,从而得到第一虚拟场景数据。从而提高与虚拟场景进行交互时用户的体验度。
可选地,在本实施例中,服务器还可以实时采集场景中的音频信息,并将该音频信息添加到第一虚拟场景数据中,在终端上显示虚拟场景的同时播放场景中产生的声音,从而使得用户更加有身临其境的感觉,提高用户的体验度。例如:确定子单元用于:采集目标场景中的音频信息,其中,音频信息为目标场景中产生的声音的信息;将音频信息、目标场景、具有绑定关系的虚拟元素和第三音频数据、具有绑定关系的目标元素和第四音频数据确定为第一虚拟场景数据。
作为一种可选的方案,上述装置还包括:
1)第四获取模块,用于通过场景中多个位置上设置的多个摄像机获取场景在多个角度下的多个视频图像数据;
2)拼接模块,用于将多个视频图像数据拼接为全景图像;
3)分割模块,用于对全景图像进行分割,得到多个子场景,其中,多个子场景包括目标场景;
4)绑定模块,用于将多个子场景与场景中的位置进行绑定,得到多个具有对应关系的场景的位置与子场景;
5)存储模块,用于将多个具有对应关系的场景中的位置与子场景存储在第一数据库中。
可选地,在本实施例中,可以但不限于通过渲染全景图像的方式构建虚拟场景的三维模型,并对全景图像进行分割,将分割后的全景图像与场景中的位置进行绑定,并记录该绑定关系。使得在向终端传输虚拟场景的场景数据时不必将整个虚拟场景数据传输给终端,只需传输终端当前位置对应的部分三维区域图像即可,从而节约了数据传输占用的带宽,提高了数据传输速度。
本发明实施例的应用环境可以但不限于参照上述实施例中的应用环境,本实施例中对此不再赘述。本发明实施例提供了用于实施上述虚拟场景数据的传输方法的一种可选的具体应用示例。
作为一种可选的实施例,上述虚拟场景数据的传输方法可以但不限于应用于如图13所示的对虚拟场景数据进行传输的场景中。在本场景中,以虚拟展厅的数据传输为例,对虚拟场景的数据传输过程进行描述。
在WEB服务器层,本地WEB服务器通过网络服务器与WEB应用程序进行交互,来传输虚拟展厅的数据。本地WEB服务器获取运行WEB应用程序的终端的第一位置信息,其中,第一位置信息用于指示终端在虚拟展厅中的当前位置,通过网络服务器向终端发送第一位置信息所对应的第一虚拟展厅数据,其中,第一虚拟展厅数据用于指示在终端上显示虚拟展厅中的第一部分三维区域图像,获取终端的交互信息,其中,交互信息用于指示终端与虚拟展厅执行的交互操作,基于第一虚拟展厅数据,执行终端与虚拟展厅执行的交互操作,得到第二虚拟展厅数据,其中,第二虚拟展厅数据用于指示在终端上显示虚拟展厅中的第二部分三维区域图像,向终端发送第二虚拟展厅数据以指示终端显示虚拟展厅中的第二部分三维区域图像。在本地WEB服务器侧通过维护动态数据库来实现模型优化及数据通讯,在WEB应用程序侧通过维护终端动态库来对场景进行实时渲染以及数据通讯。
在本地设计系统层,通过服务器管理界面构建虚拟场景的三维模型,以及进行数据的管理。
在用户层,用户可以通过客户终端界面在虚拟展厅中进行虚拟漫游,对虚拟展厅进行交互操作,对虚拟展厅进行远程操纵,以及对虚拟展厅进行监控管理等等。
可选地,在本实施例中,通过使用WEBGL的方式来进行图形的渲染,将3D全景网页渲染与虚拟现实结合将展厅的模型使用3DMAX等建模,并在网页中渲染为正方形的全景图,然后再利用全景图(基于HTML5\JS\THREE.JS)构建成为360度或180度等无缝多角度查看模型,通过鼠标指针的互动效果或者移动终端设备的位置、动作,进行同步的远程虚拟场景的互动,结合移动终端的加速度计、陀螺仪等设备实时检测终端的信息,使用户戴上VR设备便可身临其境的展现VR实体场景效果,同时利用展厅的实时摄像头传输与智能分析必要的图形数据,传输与合并实时的声音信息,并在终端上播放,使用户有身临其境的感觉。
可选地,在本实施例中,通过多角度模型的提取与分析构建,WEBGL的实体模型渲染,结合服务器数据传导实时现场模型,经过简单弱化模糊处理分析,将虚拟展厅数据实时传递到WEB3D网页模型,并接收现场音频效果,可以对音频进行多维度综合去杂质,并由服务器实时通信展现于WEB3D的网页中,使用户戴上VR设备便有一种身临其境实时与现场互动的感觉,其展示效果远远超过平面图的演示效果。
根据本发明实施例的又一个方面,还提供了一种用于实施上述虚拟场景数据的传输方法的电子装置,如图14所示,该电子装置包括:一个或多个(图中仅示出一个)处理器1402、存储器1404、显示器1406、用户接口1408、传输装置1410。其中,存储器1404可用于存储软件程序以及模块,如本发明实施例中的动作提示方法和装置对应的程序指令/模块,处理器1402通过运行存储在存储器1404内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的动作提示方法。存储器1404可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1404可进一步包括相对于处理器1402远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置1410用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1410包括一个网络适配器(NetworkInterface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1410为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,图14所示的结构仅为示意,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌声电脑以及移动互联网设备(MobileInternet Devices,MID)、PAD等终端设备。图14其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图14中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图14所示不同的配置。
根据本发明实施例的又一个方面,还提供了一种用于实施上述引导语的传输方法的电子装置,如图15所示,该电子装置可以包括:一个或多个(图中仅示出一个)处理器1502、存储器1504、传感器1506、编码器1508以及传输装置1510。
其中,存储器1504可用于存储软件程序以及模块,如本发明实施例中的视频图像的播放方法及装置。
对应的程序指令/模块,处理器1502通过运行存储在存储器1504内的软件程序以及模块,从而执行各种功能应用以及数据处理,即图像编码方法。存储器1504可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1504可进一步包括相对于处理器1502远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置1510用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1510包括一个网络适配器(NetworkInterface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1510为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,图15所示的结构仅为示意,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌声电脑以及移动互联网设备(MobileInternet Devices,MID)、PAD等服务器设备。图15其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图15中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图15所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
本发明的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以位于网络中的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
S1,接收第一虚拟场景数据,并在终端上显示第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,第一虚拟场景数据与第一位置信息具有对应关系,第一位置信息用于指示终端在虚拟场景中的当前位置;
S2,获取终端的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;
S3,向服务器发送交互信息,并接收服务器发送的第二虚拟场景数据,其中,第二虚拟场景数据是服务器基于第一虚拟场景数据执行交互操作得到的数据;
S4,在终端上显示第二虚拟场景数据指示的虚拟场景中的第二部分三维区域图像。
本发明的实施例还提供了另一种存储介质。可选地,在本实施例中,上述存储介质可以位于网络中的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
S1,获取终端的第一位置信息,其中,第一位置信息用于指示终端在虚拟场景中的当前位置;
S2,向终端发送第一位置信息所对应的第一虚拟场景数据,其中,第一虚拟场景数据用于指示在终端上显示虚拟场景中的第一部分三维区域图像;
S3,获取终端的交互信息,其中,交互信息用于指示终端与虚拟场景执行的交互操作;
S4,基于第一虚拟场景数据,执行终端与虚拟场景执行的交互操作,得到第二虚拟场景数据,其中,第二虚拟场景数据用于指示在终端上显示虚拟场景中的第二部分三维区域图像;
S5,向终端发送第二虚拟场景数据。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对相关技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (14)
1.一种虚拟场景数据的传输方法,其特征在于,包括:
接收第一虚拟场景数据,并在终端上显示所述第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,所述第一虚拟场景数据是由服务器对目标场景进行渲染操作得到,包括:在所述目标场景中添加虚拟元素并获取所述目标场景中的目标元素,其中,所述虚拟元素为根据所述目标场景生成的可操作的元素,所述目标元素为所述目标场景中存在的可操作的元素;获取所述虚拟元素对应的第三音频数据以及所述目标元素对应的第四音频数据,其中,所述第三音频数据为所述虚拟元素被执行操作时播放的音频,所述第四音频数据为所述目标元素被执行操作时播放的音频;对所述虚拟元素和所述第三音频数据进行绑定,并对所述虚拟元素和所述第四音频数据进行绑定;将所述目标场景、具有绑定关系的所述虚拟元素和所述第三音频数据、具有绑定关系的所述目标元素和所述第四音频数据确定为所述第一虚拟场景数据;其中,所述目标场景为记录在第一数据库中与第一位置信息和当前视角具有对应关系的虚拟场景,其中,所述第一数据库中存储有多个具有对应关系的场景中的位置与子场景,所述子场景由多个视频图像数据拼接得到的全景图像分割得到;所述第一位置信息用于指示所述终端在所述虚拟场景中的当前位置,所述当前视角是所述终端在所述当前位置观看虚拟场景的视角,所述第一部分三维区域图像为第一部分WEB3D网页模型;
获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作,所述交互信息包括:旋转信息,移动信息,所述旋转信息用于指示所述终端在所述虚拟场景中的所述当前位置转动的旋转方向和旋转角度;所述移动信息用于指示所述终端在所述虚拟场景中移动的移动方向和移动距离;
向所述服务器发送所述交互信息,并接收所述服务器发送的第二虚拟场景数据,其中,所述第二虚拟场景数据是所述服务器基于所述第一虚拟场景数据执行所述交互操作得到的数据,其中,所述交互操作包括:在操作信息包括所述旋转信息和所述移动信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:获取所述终端的第三位置信息,其中,所述第三位置信息用于指示所述终端从所述当前位置沿所述移动方向移动所述移动距离后在所述虚拟场景中的第二目标位置;获取所述第三位置信息对应的第四部分三维区域图像;将所述第四部分三维区域图像对应的第三视角沿所述旋转方向转动所述旋转角度得到第四视角,并获取所述第四视角对应的三维区域图像;将所述第四视角对应的三维区域图像确定为所述第二部分三维区域图像,得到所述第二虚拟场景数据;
在所述终端上显示所述第二虚拟场景数据指示的所述虚拟场景中的第二部分三维区域图像,其中,所述第二部分三维区域图像为第二部分WEB3D网页模型。
2.根据权利要求1所述的方法,其特征在于,获取所述终端的所述交互信息包括:
检测所述终端的操作信息,其中,所述操作信息还包括:触控信息,其中,所述触控信息用于指示所述终端对所述虚拟场景执行的触控操作;
将检测到的所述操作信息确定为所述交互信息。
3.一种虚拟场景数据的传输方法,其特征在于,包括:
服务器获取终端的第一位置信息和当前角度,其中,所述第一位置信息用于指示所述终端在虚拟场景中的当前位置,当前视角是所述终端在所述当前位置观看虚拟场景的视角;
由所述服务器对目标场景进行渲染操作得到第一虚拟场景数据,包括:在所述目标场景中添加虚拟元素并获取所述目标场景中的目标元素,其中,所述虚拟元素为根据所述目标场景生成的可操作的元素,所述目标元素为所述目标场景中存在的可操作的元素;获取所述虚拟元素对应的第三音频数据以及所述目标元素对应的第四音频数据,其中,所述第三音频数据为所述虚拟元素被执行操作时播放的音频,所述第四音频数据为所述目标元素被执行操作时播放的音频;对所述虚拟元素和所述第三音频数据进行绑定,并对所述虚拟元素和所述第四音频数据进行绑定;将所述目标场景、具有绑定关系的所述虚拟元素和所述第三音频数据、具有绑定关系的所述目标元素和所述第四音频数据确定为所述第一虚拟场景数据;
所述服务器向所述终端发送所述第一位置信息所对应的第一虚拟场景数据,其中,所述目标场景为记录在第一数据库中与第一位置信息和当前视角具有对应关系的虚拟场景,其中,所述第一数据库中存储有多个具有对应关系的场景中的位置与子场景,所述子场景由多个视频图像数据拼接得到的全景图像分割得到;所述第一虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第一部分三维区域图像,所述第一部分三维区域图像为第一部分WEB3D网页模型;
所述服务器获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作,所述交互信息包括旋转信息,所述旋转信息用于指示所述终端在所述虚拟场景中的所述当前位置转动的旋转方向和旋转角度;移动信息,所述移动信息用于指示所述终端在所述虚拟场景中移动的移动方向和移动距离;
基于所述第一虚拟场景数据,所述服务器执行所述终端与所述虚拟场景执行的所述交互操作,得到第二虚拟场景数据,其中,所述交互操作包括:在操作信息包括所述旋转信息和所述移动信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:获取所述终端的第三位置信息,其中,所述第三位置信息用于指示所述终端从所述当前位置沿所述移动方向移动所述移动距离后在所述虚拟场景中的第二目标位置;获取所述第三位置信息对应的第四部分三维区域图像;将所述第四部分三维区域图像对应的第三视角沿所述旋转方向转动所述旋转角度得到第四视角,并获取所述第四视角对应的三维区域图像;
将所述第四视角对应的三维区域图像确定为所述第二部分三维区域图像,得到所述第二虚拟场景数据;所述第二虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第二部分三维区域图像,所述第二部分三维区域图像为第二部分WEB3D网页模型;
所述服务器向所述终端发送所述第二虚拟场景数据。
4.根据权利要求3所述的方法,其特征在于,所述服务器获取所述终端的所述交互信息包括:
获取所述终端发送的所述交互信息,其中,所述交互信息还包括:触控信息,其中,所述触控信息用于指示所述终端对所述虚拟场景执行的触控操作。
5.根据权利要求4所述的方法,其特征在于,
在所述操作信息包括所述旋转信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:将所述第一部分三维区域图像对应的第一视角沿所述旋转方向转动所述旋转角度得到第二视角,并获取所述第二视角对应的三维区域图像;将所述第二视角对应的三维区域图像确定为所述第二部分三维区域图像,得到所述第二虚拟场景数据;
在所述操作信息包括所述移动信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:获取所述终端的第二位置信息,其中,所述第二位置信息用于指示所述终端从所述当前位置沿所述移动方向移动所述移动距离后在所述虚拟场景中的第一目标位置;获取所述第二位置信息对应的第三部分三维区域图像;将所述第三部分三维区域图像确定为所述第二部分三维区域图像,得到所述第二虚拟场景数据;
在所述操作信息包括所述触控信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:在所述第一虚拟场景数据中添加所述触控操作对应的触控结果数据,得到所述第二虚拟场景数据,其中,所述触控结果数据用于指示在所述终端上显示执行所述触控操作的操作结果。
6.根据权利要求4所述的方法,其特征在于,
在所述操作信息包括所述旋转信息和所述触控信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:将所述第一部分三维区域图像对应的第一视角沿所述旋转方向转动所述旋转角度得到第五视角,并获取所述第五视角对应的三维区域图像;在所述第五视角对应的三维区域图像中添加所述触控操作对应的触控结果数据,得到所述第二虚拟场景数据,其中,所述触控结果数据用于指示在所述终端上显示执行所述触控操作的操作结果;
在所述操作信息包括所述移动信息和所述触控信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:获取所述终端的第四位置信息,其中,所述第四位置信息用于指示所述终端从所述当前位置沿所述移动方向移动所述移动距离后在所述虚拟场景中的第三目标位置;获取所述第四位置信息对应的第五部分三维区域图像;在所述第五部分三维区域图像中添加所述触控操作对应的触控结果数据,得到所述第二虚拟场景数据,其中,所述触控结果数据用于指示在所述终端上显示执行所述触控操作的操作结果。
7.根据权利要求4所述的方法,其特征在于,在所述操作信息包括所述旋转信息、所述移动信息和所述触控信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:
获取所述终端的第五位置信息,其中,所述第五位置信息用于指示所述终端从所述当前位置沿所述移动方向移动所述移动距离后在所述虚拟场景中的第四目标位置;获取所述第五位置信息对应的第六部分三维区域图像;将所述第六部分三维区域图像对应的第六视角沿所述旋转方向转动所述旋转角度得到第七视角,并获取所述第七视角对应的三维区域图像;在所述第七视角对应的三维区域图像中添加所述触控操作对应的触控结果数据,得到所述第二虚拟场景数据,其中,所述触控结果数据用于指示在所述终端上显示执行所述触控操作的操作结果。
8.根据权利要求5至7中任一项所述的方法,其特征在于,
所述触控操作对应的所述触控结果数据包括以下至少之一:显示菜单、关闭菜单、打开界面、关闭界面、切换界面;
添加所述触控操作对应的触控结果数据包括:获取所述触控操作对应的音频数据,其中,所述音频数据用于指示在所述终端上显示执行所述触控操作的操作结果时播放的音频;绑定所述触控结果数据和所述音频数据;添加具有绑定关系的所述触控结果数据和所述音频数据。
9.根据权利要求3所述的方法,其特征在于,所述服务器向所述终端发送所述第一位置信息所对应的所述第一虚拟场景数据包括:
从所述第一数据库中获取所述第一位置信息对应的所述目标场景,其中,所述第一数据库中记录了具有对应关系的所述第一位置信息和所述目标场景;
对所述目标场景进行渲染,得到所述第一虚拟场景数据;
向所述终端发送所述第一虚拟场景数据。
10.根据权利要求9所述的方法,其特征在于,在从第一数据库中获取所述第一位置信息对应的目标场景之前,所述方法还包括:
通过场景中多个位置上设置的多个摄像机获取所述场景在多个角度下的多个视频图像数据;
将所述多个视频图像数据拼接为全景图像;
对所述全景图像进行分割,得到多个所述子场景,其中,所述多个子场景包括所述目标场景;
将所述多个子场景与所述场景中的位置进行绑定,得到多个具有对应关系的所述场景中的位置与所述子场景;
将所述多个具有对应关系的所述场景中的位置与所述子场景存储在所述第一数据库中。
11.一种虚拟场景数据的传输装置,其特征在于,包括:
第一显示模块,用于接收第一虚拟场景数据,并在终端上显示所述第一虚拟场景数据指示的虚拟场景中的第一部分三维区域图像,其中,所述第一虚拟场景数据是由服务器对目标场景进行渲染操作得到,包括:在所述目标场景中添加虚拟元素并获取所述目标场景中的目标元素,其中,所述虚拟元素为根据所述目标场景生成的可操作的元素,所述目标元素为所述目标场景中存在的可操作的元素;获取所述虚拟元素对应的第三音频数据以及所述目标元素对应的第四音频数据,其中,所述第三音频数据为所述虚拟元素被执行操作时播放的音频,所述第四音频数据为所述目标元素被执行操作时播放的音频;对所述虚拟元素和所述第三音频数据进行绑定,并对所述虚拟元素和所述第四音频数据进行绑定;将所述目标场景、具有绑定关系的所述虚拟元素和所述第三音频数据、具有绑定关系的所述目标元素和所述第四音频数据确定为所述第一虚拟场景数据;其中,所述目标场景为记录在第一数据库中与第一位置信息和当前视角具有对应关系的虚拟场景,其中,所述第一数据库中存储有多个具有对应关系的场景中的位置与子场景,所述子场景由多个视频图像数据拼接得到的全景图像分割得到;所述第一位置信息用于指示所述终端在所述虚拟场景中的当前位置,所述当前视角是所述终端在所述当前位置观看虚拟场景的视角,所述第一部分三维区域图像为第一部分WEB3D网页模型;
第一获取模块,用于获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作,所述交互信息包括旋转信息,所述旋转信息用于指示所述终端在所述虚拟场景中的所述当前位置转动的旋转方向和旋转角度;移动信息,所述移动信息用于指示所述终端在所述虚拟场景中移动的移动方向和移动距离;
第一传输模块,用于向所述服务器发送所述交互信息,并接收所述服务器发送的第二虚拟场景数据,其中,所述第二虚拟场景数据是所述服务器基于所述第一虚拟场景数据执行所述交互操作得到的数据,其中,所述交互操作包括:在操作信息包括所述旋转信息和所述移动信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:获取所述终端的第三位置信息,其中,所述第三位置信息用于指示所述终端从所述当前位置沿所述移动方向移动所述移动距离后在所述虚拟场景中的第二目标位置;获取所述第三位置信息对应的第四部分三维区域图像;将所述第四部分三维区域图像对应的第三视角沿所述旋转方向转动所述旋转角度得到第四视角,并获取所述第四视角对应的三维区域图像;将所述第四视角对应的三维区域图像确定为所述第二部分三维区域图像,得到所述第二虚拟场景数据;
第二显示模块,用于在所述终端上显示所述第二虚拟场景数据指示的所述虚拟场景中的第二部分三维区域图像,其中,所述第二部分三维区域图像为第二部分WEB3D网页模型。
12.一种虚拟场景数据的传输装置,其特征在于,包括:
第二获取模块,用于获取终端的第一位置信息和当前视角,其中,所述第一位置信息用于指示所述终端在虚拟场景中的当前位置,所述当前视角是所述终端在所述当前位置观看虚拟场景的视角,还用于由服务器对目标场景进行渲染操作得到第一虚拟场景数据,包括:在所述目标场景中添加虚拟元素并获取所述目标场景中的目标元素,其中,所述虚拟元素为根据所述目标场景生成的可操作的元素,所述目标元素为所述目标场景中存在的可操作的元素;获取所述虚拟元素对应的第三音频数据以及所述目标元素对应的第四音频数据,其中,所述第三音频数据为所述虚拟元素被执行操作时播放的音频,所述第四音频数据为所述目标元素被执行操作时播放的音频;对所述虚拟元素和所述第三音频数据进行绑定,并对所述虚拟元素和所述第四音频数据进行绑定;将所述目标场景、具有绑定关系的所述虚拟元素和所述第三音频数据、具有绑定关系的所述目标元素和所述第四音频数据确定为所述第一虚拟场景数据;
第一发送模块,用于向所述终端发送所述第一位置信息所对应的第一虚拟场景数据,其中,所述目标场景为记录在第一数据库中与第一位置信息和当前视角具有对应关系的虚拟场景,其中,所述第一数据库中存储有多个具有对应关系的场景中的位置与子场景,所述子场景由多个视频图像数据拼接得到的全景图像分割得到;所述第一虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第一部分三维区域图像,所述第一部分三维区域图像为第一部分WEB3D网页模型;
第三获取模块,用于获取所述终端的交互信息,其中,所述交互信息用于指示所述终端与所述虚拟场景执行的交互操作,所述交互信息包括:旋转信息,所述旋转信息用于指示所述终端在所述虚拟场景中的所述当前位置转动的旋转方向和旋转角度;移动信息,所述移动信息用于指示所述终端在所述虚拟场景中移动的移动方向和移动距离;
执行模块,用于基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的所述交互操作,得到第二虚拟场景数据,其中,所述交互操作包括:在操作信息包括所述旋转信息和所述移动信息的情况下,基于所述第一虚拟场景数据,执行所述终端与所述虚拟场景执行的交互操作,得到所述第二虚拟场景数据包括:获取所述终端的第三位置信息,其中,所述第三位置信息用于指示所述终端从所述当前位置沿所述移动方向移动所述移动距离后在所述虚拟场景中的第二目标位置;获取所述第三位置信息对应的第四部分三维区域图像;将所述第四部分三维区域图像对应的第三视角沿所述旋转方向转动所述旋转角度得到第四视角,并获取所述第四视角对应的三维区域图像;将所述第四视角对应的三维区域图像确定为所述第二部分三维区域图像,得到所述第二虚拟场景数据;所述第二虚拟场景数据用于指示在所述终端上显示所述虚拟场景中的第二部分三维区域图像,所述第二部分三维区域图像为第二部分WEB3D网页模型;
第二发送模块,用于向所述终端发送所述第二虚拟场景数据。
13.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时执行上述权利要求1至10任一项中所述的方法。
14.一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序执行上述权利要求1至10任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711270716.3A CN108255291B (zh) | 2017-12-05 | 2017-12-05 | 虚拟场景数据的传输方法、装置、存储介质及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711270716.3A CN108255291B (zh) | 2017-12-05 | 2017-12-05 | 虚拟场景数据的传输方法、装置、存储介质及电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108255291A CN108255291A (zh) | 2018-07-06 |
CN108255291B true CN108255291B (zh) | 2021-09-10 |
Family
ID=62722388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711270716.3A Active CN108255291B (zh) | 2017-12-05 | 2017-12-05 | 虚拟场景数据的传输方法、装置、存储介质及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108255291B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109660508A (zh) * | 2018-10-23 | 2019-04-19 | 平安壹钱包电子商务有限公司 | 数据可视化方法、电子装置、计算机设备及存储介质 |
CN111414225B (zh) * | 2020-04-10 | 2021-08-13 | 北京城市网邻信息技术有限公司 | 三维模型远程展示方法、第一终端、电子设备及存储介质 |
CN112784081A (zh) * | 2021-01-22 | 2021-05-11 | 维沃移动通信(杭州)有限公司 | 一种图像显示方法、装置及电子设备 |
CN113835607B (zh) * | 2021-08-19 | 2024-01-16 | 南京奥拓电子科技有限公司 | 一种显示终端内场景查看方法、装置及存储介质 |
CN113824629A (zh) * | 2021-09-30 | 2021-12-21 | 北京有竹居网络技术有限公司 | 一种房屋展示方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116451A (zh) * | 2013-01-25 | 2013-05-22 | 腾讯科技(深圳)有限公司 | 一种智能终端的虚拟角色交互方法、装置和系统 |
CN103826201A (zh) * | 2014-02-13 | 2014-05-28 | 夷希数码科技(上海)有限公司 | 一种基于地理位置的虚拟交互方法及其系统 |
CN106125903A (zh) * | 2016-04-24 | 2016-11-16 | 林云帆 | 多人交互系统及方法 |
CN107193375A (zh) * | 2017-05-17 | 2017-09-22 | 刘继君 | 一种基于虚拟现实的电力安全生产场景交互系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102495959A (zh) * | 2011-12-05 | 2012-06-13 | 无锡智感星际科技有限公司 | 一种基于位置映射的增强现实平台系统及应用方法 |
KR20170096420A (ko) * | 2016-02-16 | 2017-08-24 | 삼성전자주식회사 | 대화형 3차원 디스플레이 장치 및 방법 |
CN106527713B (zh) * | 2016-11-07 | 2019-11-08 | 金陵科技学院 | Vr的三维数据渲染系统及其方法 |
CN106710002A (zh) * | 2016-12-29 | 2017-05-24 | 深圳迪乐普数码科技有限公司 | 基于观察者视角定位的ar实现方法及其系统 |
CN106843790B (zh) * | 2017-01-25 | 2020-08-04 | 触景无限科技(北京)有限公司 | 一种信息展示系统和方法 |
-
2017
- 2017-12-05 CN CN201711270716.3A patent/CN108255291B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116451A (zh) * | 2013-01-25 | 2013-05-22 | 腾讯科技(深圳)有限公司 | 一种智能终端的虚拟角色交互方法、装置和系统 |
CN103826201A (zh) * | 2014-02-13 | 2014-05-28 | 夷希数码科技(上海)有限公司 | 一种基于地理位置的虚拟交互方法及其系统 |
CN106125903A (zh) * | 2016-04-24 | 2016-11-16 | 林云帆 | 多人交互系统及方法 |
CN107193375A (zh) * | 2017-05-17 | 2017-09-22 | 刘继君 | 一种基于虚拟现实的电力安全生产场景交互系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108255291A (zh) | 2018-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108255291B (zh) | 虚拟场景数据的传输方法、装置、存储介质及电子装置 | |
CN106598229B (zh) | 一种虚拟现实场景的生成方法、设备及虚拟现实系统 | |
CN110865708B (zh) | 虚拟内容载体的交互方法、介质、装置和计算设备 | |
US9345967B2 (en) | Method, device, and system for interacting with a virtual character in smart terminal | |
KR101583286B1 (ko) | 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템 | |
CN111696216B (zh) | 三维增强现实全景融合方法及系统 | |
WO2019214371A1 (zh) | 图像的显示方法、生成方法、装置、存储介质及电子装置 | |
KR101600456B1 (ko) | 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템 | |
CN107295393B (zh) | 媒体播放中的附加媒体展示方法及装置以及计算设备和计算机可读存储介质 | |
CN111324275B (zh) | 显示画面中元素的播报方法及装置 | |
CN114047824A (zh) | 多终端用户在虚拟空间交互的方法 | |
EP3236336A1 (en) | Virtual reality causal summary content | |
CN113965773A (zh) | 直播展示方法和装置、存储介质及电子设备 | |
CN112379815A (zh) | 图像截取方法、装置和存储介质及电子设备 | |
CN109983424B (zh) | 虚拟现实场景中的对象选中方法和装置以及虚拟现实设备 | |
CN110544315A (zh) | 虚拟对象的控制方法及相关设备 | |
CN107770458B (zh) | 一种场景切换的方法及终端设备 | |
KR102314782B1 (ko) | 3차원 증강현실 표시 방법 | |
CN110990106B (zh) | 数据展示方法、装置、计算机设备及存储介质 | |
CN112987924A (zh) | 用于设备交互的方法、装置、设备和存储介质 | |
CN114647303A (zh) | 互动方法、装置及计算机程序产品 | |
KR20170120299A (ko) | 립모션을 이용한 실감형 콘텐츠 서비스 시스템 | |
CN108521552A (zh) | 视频交互方法、计算机设备及存储介质 | |
CN113989442A (zh) | 建筑信息模型构建方法及相关装置 | |
CN114489337A (zh) | 一种ar互动方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |