CN111984114A - 基于虚拟空间的多人交互系统及其多人交互方法 - Google Patents
基于虚拟空间的多人交互系统及其多人交互方法 Download PDFInfo
- Publication number
- CN111984114A CN111984114A CN202010696779.0A CN202010696779A CN111984114A CN 111984114 A CN111984114 A CN 111984114A CN 202010696779 A CN202010696779 A CN 202010696779A CN 111984114 A CN111984114 A CN 111984114A
- Authority
- CN
- China
- Prior art keywords
- virtual
- interactive object
- equipment
- virtual space
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims description 70
- 238000000034 method Methods 0.000 title claims description 44
- 230000002452 interceptive effect Effects 0.000 claims abstract description 171
- 230000008859 change Effects 0.000 claims abstract description 45
- 238000013507 mapping Methods 0.000 claims abstract description 20
- 230000000007 visual effect Effects 0.000 claims abstract description 20
- 230000036544 posture Effects 0.000 claims description 45
- 238000004891 communication Methods 0.000 claims description 42
- 238000012544 monitoring process Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 19
- 206010034719 Personality change Diseases 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 9
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 238000004806 packaging method and process Methods 0.000 claims description 2
- 230000006399 behavior Effects 0.000 abstract description 13
- 230000009471 action Effects 0.000 abstract description 12
- 230000006870 function Effects 0.000 description 10
- 230000009466 transformation Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 230000003238 somatosensory effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种基于虚拟空间的多人交互系统及其多人交互方法,其系统包括服务端设备、客户端设备以及交互物体设备,通过服务端设备获取交互物体设备的姿态变化数据,根据现实空间与虚拟空间之间的坐标映射关系获得交互物体设备对应在虚拟空间中的虚拟坐标信息,根据虚拟坐标信息,在虚拟空间中,由服务端设备基于服务端设备视角同步生成与该交互物体设备对应的第一虚拟立体图像,由客户端设备基于客户端设备视角同步生成与该交互物体设备对应的第二虚拟立体图像。由此,实现了在虚拟空间中,一个用户对交互物体设备执行动作行为时,其他用户能够基于自身的视角角度观察到该用户的动作行为,实现了现实与虚拟相结合的多人互动功能。
Description
技术领域
本申请属于虚拟现实、通信技术领域,尤其涉及一种基于虚拟空间的多人交互系统及其多人交互方法。
背景技术
虚拟现实(Virtual Reality,简称VR)技术是一种基于可计算信息构造沉浸式人机交互环境的信息技术,采用以计算机为核心的现代高科技生成一种多源信息融合的、交互式的三维动态场景以及实现实体行为的仿真系统,通过借助必要的设备即可使用户沉浸在虚拟环境中。
目前,基于虚拟现实的多人交互技术大多通过集成不同VR硬件和不同空间定位设备,让不同地域的人在虚拟环境中实现面对面交流等一些活动,以此来使不同地理位置的人有身临其境交流互动的感觉。然而,此种技术只是将多台VR设备借由云服务器实现异地的内容交互,其各个用户通过VR设备看到的视觉内容是相同且独立的,虽然实现多人互动,却仅仅是实现了内容上的多人互动,用户与用户之间无法看到对方所在位置,也无法判断出对虚拟内容的执行动作行为是谁在进行操作的,会将人的感知隔离开来,无法融为一体,从而导致体感上的隔阂。
发明内容
有鉴于此,本申请实施例提供了一种基于虚拟空间的多人交互系统及其多人交互方法,以及可以使用户的物理行为操作与虚拟图像的操作变化实现叠加且同步,即在虚拟空间中,一个用户在执行动作行为时,其他用户能够基于自身的角度观察到该用户的动作行为,通过结合现实空间及实物,实现了现实与虚拟相结合的多人互动功能,将人的感知融为一体,减少人与人基于虚拟空间互动时存在的体感上的隔阂。
本申请实施例的第一方面提供了一种基于虚拟空间的多人交互系统,所述基于虚拟空间的多人交互系统包括服务端设备、客户端设备以及交互物体设备,所述服务端设备分别与所述客户端设备、所述交互物体设备通过传输控制协议进行通讯连接,其中:
所述服务端设备通过扫描交互物体设备所在的现实空间构建与现实空间具有坐标映射关系的虚拟空间,根据现实空间与虚拟空间之间的坐标映射关系,在所述虚拟空间中生成与所述交互物体设备对应的第一虚拟立体图像,所述第一虚拟立体图像表征交互物体设备在服务器端设备视角下的虚拟立体图像;
所述客户端设备根据所述现实空间与虚拟空间之间的坐标映射关系,在所述虚拟空间中同步生成与所述交互物体设备对应的第二虚拟立体图像,其中,所述第二虚拟立体图像表征交互物体设备在客户端设备视角下的虚拟立体图像;
所述交互物体设备自身在现实空间中的姿态与所述虚拟空间中的第一虚拟立体图像以及第二虚拟立体图像的姿态同步。
结合第一方面,在第一方面的第一种可能实现方式中,所述服务端设备中配置有接口监听元件,所述接口监听元件用于对所述服务端设备的通讯接口进行数据监听并接收来自于交互物体设备或客户端设备的交互数据,其中,所述来自于交互物体设备的交互数据包括交互物体设备的姿态变化数据,所述来自于客户端设备的交互数据包括使用所述客户端设备的用户所执行的手势操作信息。
结合第一方面,在第一方面的第二种可能实现方式中,所述交互物体设备中配置有陀螺仪状态监测元件和零部件插拔状态监测元件,其中,所述陀螺仪状态监测元件用于对所述交互物体设备中的陀螺仪进行运动状态监测,获取所述陀螺仪当前的运动参数数据,并将所述陀螺仪当前的运动参数数据发送至服务端设备;所述零部件插拔状态监测元件通过对所述交互物体设备中的各个零部件进行插拔状态检测,获取所述零部件当前对应的插拔状态数据,并将所述零部件当前对应的插拔状态数据发送至服务端设备。
本申请实施例的第二方面提供了一种基于虚拟空间的多人交互方法,所述基于虚拟空间的多人交互方法包括:
获取交互物体设备的姿态变化数据,其中,所述交互物体设备的姿态变化数据包括所述交互物体设备中陀螺仪的运动参数数据和所述交互物体设备中个零部件的插拔状态变化数据;
根据所述交互物体设备的姿态变化数据生成所述交互物体设备对应在虚拟空间中的虚拟坐标信息,并根据所述虚拟坐标信息在所述虚拟空间中构建基于服务器端设备视角的第一虚拟立体图像;
通过服务端设备的通讯接口将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。
结合第二方面,在第二方面的第一种可能实现方式中,所述获取交互物体设备的姿态变化数据的步骤,包括:
基于服务端设备或客户端设备获取用户对交互物体设备执行手势操作信息,通过对所述手势操作信息进行手势识别处理生成所述交互物体设备的姿态变化数据。
结合第二方面或第二方面的第一种可能实现方式,在第二方面的第二种可能实现方式中,所述通过服务端设备的通讯接口将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像的步骤,还包括:
通过广播的方式将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备。
结合第二方面的第二种可能实现方式中,所述通过广播的方式将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备的步骤之前,还包括:
对所述虚拟坐标信息进行加密和封装处理。
本申请实施例的第三方面提供了一种基于虚拟空间的多人交互装置,其特征在于,所述基于虚拟空间的多人交互装置包括:
获取模块,用于获取交互物体设备的姿态变化数据,其中,所述交互物体设备的姿态变化数据包括所述交互物体设备中陀螺仪的运动参数数据和所述交互物体设备中个零部件的插拔状态变化数据;
处理模块,用于根据所述交互物体设备的姿态变化数据生成所述交互物体设备对应在虚拟空间中的虚拟坐标信息,并根据所述虚拟坐标信息在所述虚拟空间中构建基于服务器端设备视角的第一虚拟立体图像;
发送模块,用于通过服务端设备的通讯接口将所述虚拟坐标信息广播发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。
本申请实施例的第四方面提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第二方面任意一项所述基于虚拟空间的多人交互方法的步骤。
本申请实施例的第五方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第二方面任一项所述基于虚拟空间的多人交互方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:
本申请提供的基于虚拟空间的多人交互系统包括有服务端设备、客户端设备以及交互物体设备,通过服务端设备获取交互物体设备的姿态变化数据,然后根据现实空间与虚拟空间之间的坐标映射关系,获得该交互物体设备对应在虚拟空间中的虚拟坐标信息,进而根据该交互物体设备的虚拟坐标信息,在虚拟空间中,由服务端设备基于服务端设备视角同步生成与该交互物体设备对应的第一虚拟立体图像,由客户端设备基于客户端设备视角同步生成与该交互物体设备对应的第二虚拟立体图像。由此在虚拟空间中,一个用户对交互物体设备执行动作行为时,其他用户能够基于自身的视角角度观察到该用户的动作行为,通过结合现实空间及实物,实现了现实与虚拟相结合的多人互动功能,将人的感知融为一体,减少人与人基于虚拟空间互动时存在的体感上的隔阂。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于虚拟空间的多人交互系统的基本框架示意图;
图2为本申请实施例提供的一种基于虚拟空间的多人交互方法的基本方法流程示意图;
图3为本申请实施例提供的一种基于虚拟空间的多人交互装置的结构示意图;
图4为本申请实施例提供的一种实现基于虚拟空间的多人交互方法的电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
本申请的一些实施例中,请参阅图1,图1为本申请实施例提供的一种及与虚拟空间的多人交互系统的基本框架示意图。详细如下:
本实施例中,基于虚拟空间的多人交互系统包括有服务端设备10、客户端设备20以及交互物体设备30。在本实施例中,服务端设备10分别与客户端设备20、交互物体设备30通过传输控制协议(如TCP协议)进行通讯连接,实现数据交互。其中:
服务端设备10是指作为主控端的MR眼镜设备,服务端设备10启动之后,会扫描交互物体设备30当前所在的现实空间,扫描完毕后,初始化生成一个虚拟空间并将该虚拟空间与现实空间进行坐标映射处理,以此构建出一个与现实空间具有坐标映射关系的虚拟空间。根据现实空间与虚拟空间之间的坐标映射关系,在虚拟空间中生成与交互物体设备30对应的第一虚拟立体图像。其中,第一虚拟立体图像表征交互物体设备30在服务器端设备10视角下的虚拟立体图像。虚拟空间中第一虚拟立体图像在服务端设备10视角下的姿态与现实空间中交互物体设备30在服务端设备10视角下的姿态对应,虚拟空间中第一虚拟立体图像的姿态随现实空间中交互物体设备30的姿态变化而变化。
客户端设备20是指作为参与设备的MR眼镜设备,基于虚拟空间的多人交互系统中可以配置多个客户端设备20与服务端设备10进行通讯连接,以实现多人交互场景。客户端设备20启动之后,同样也会扫描交互物体设备当前所在的现实空间,以获得虚拟空间。获得虚拟空间后,客户端设备20基于传输控制协议(如TCP协议)与服务端设备10进行通讯连接,可以从服务端设备10中获取得到现实空间与虚拟空间之间的坐标映射关系。进而,根据现实空间与虚拟空间之间的坐标映射关系,在虚拟空间中生成与交互物体设备30对应的第二虚拟立体图像。其中,第二虚拟立体图像表征客户端设备20视角下的虚拟立体图像。虚拟空间中第二虚拟立体图像在客户端设备20视角下的姿态与现实空间中交互物体设备30在客户端设备20视角下的姿态对应,虚拟空间中第二虚拟立体图像的姿态同样随现实空间中交互物体设备30的姿态变化而变化。而且在本实施例中,基于传输控制协议(如TCP协议)将服务端设备10与客户端设备20进行通讯连接,第二虚拟立体图像与第一虚拟立体图像的姿态变化同时同步。
交互物体设备30为用户在现实空间中进行物理交互的物体,交互物体设备可以是一种实现物理交互的工具,例如硬盘,可以由用户直接操作来改变其在现实空间中的姿态。交互物体设备30同样基于传输控制协议(如TCP协议)与服务端设备10进行通讯连接,可以将其自身在现实空间中由用户直接操作产生的姿态变换数据传送至服务端设备10,使得服务端设备10根据该姿态变化数据以及现实空间与虚拟空间之间的坐标映射关系对第一虚拟立体图像进行姿态变换处理,并且基于服务端设备10与客户端设备20之间的传输控制协议(如TCP协议)通讯连接,实现客户端设备20同时同步地对第二虚拟立体图像进行姿态变换处理。由此实现交互物体设备30根据其自身在现实空间中的姿态变换数据控制虚拟空间中的第一虚拟立体图像以及第二虚拟立体图像进行姿态变换处理。
在本实施例中,客户端设备和交互物体设备均通过预先获取服务端设备的IP地址和端口号生成对应的配置文件,当客户端设备和交互物体设备启动时会加载该配置文件,进而根据该该配置文件来建立其与服务端设备之间的通讯连接。
上述实施例提供的基于虚拟空间的多人交互系统由服务端设备通过扫描交互物体设备所在的现实空间构建一个与现实空间具有坐标映射关系的虚拟空间,根据现实空间与虚拟空间之间的坐标映射关系,在虚拟空间中生成与交互物体设备对应的第一虚拟立体图像;基于服务端设备10与客户端设备20之间通过传输控制协议(如TCP协议)进行通讯连接,使客户端设备20从服务端设备10中获取得到现实空间与虚拟空间之间的坐标映射关系,并根据现实空间与虚拟空间之间的坐标映射关系,在虚拟空间中生成与交互物体设备30对应的第二虚拟立体图像。当用户在现实空间中对交互物体设备30进行交互操作时,基于交互物体设备30与服务端设备10之间的通讯连接,由交互物体设备30根据其自身在现实空间中的姿态变换数据控制虚拟空间中的第一虚拟立体图像以及第二虚拟立体图像进行姿态变换处理。基于此,可以使用户在现实空间中的物理行为操作与虚拟空间中的虚拟图像的操作变化实现叠加且同步,即在虚拟空间中,一个用户在执行动作行为时,其他用户能够基于自身的角度观察到该用户的动作行为,通过结合现实空间及实物,实现了现实与虚拟相结合的多人互动功能,将人的感知融为一体,减少人与人基于虚拟空间互动时存在的体感上的隔阂。
本申请的一些实施例中,所述服务端设备中配置有接口监听元件,通过该接口监听元件对所述服务端设备的通讯接口进行数据监听并接收来自于交互物体设备或客户端设备的交互数据,其中,来自于交互物体设备的交互数据包括交互物体设备的姿态变化数据;而来自于客户端设备的交互数据包括使用所述客户端设备的用户所执行的手势操作信息。通过接收自于交互物体设备的交互数据可以在虚拟空间中同步现实空间对交互物体设备实物的操作,实现多个用户在同一现实空间下,看到相同图像在不同角度下的增强效果。通过接收来自于客户端设备的交互数据可以支持来自不同客户端设备对应用户的手势互动,实现多人互动。
本申请的一些实施例中,交互物体设备中配置有陀螺仪状态监测元件,通过该陀螺仪状态监测元件可以对交互物体设备中的陀螺仪进行运动状态监测,从而获取得到陀螺仪当前的运动参数数据,并将该陀螺仪当前的运动参数数据发送至服务端设备。交互物体设备中还配置有零部件插拔状态监测元件,通过零部件插拔状态监测元件对交互物体设备中的各个零部件进行插拔状态检测,从而获取得到零部件当前对应的插拔状态数据,并将该零部件当前对应的插拔状态数据发送至服务端设备。通过交互物体设备中配置的陀螺仪状态监测元件/零部件插拔状态监测元件,将获得的零部件插拔状态监测元件/零部件插拔状态监测元件发送至服务端设备,可以使服务端设备实现在虚拟空间中同步对交互物体设备的操作,保持虚拟空间中第一虚拟立体图像呈现的交互物体设备姿态与现实空间中交互物体设备的姿态一致。
本申请的一些实施例中,请参阅图2,图2为本申请实施例提供的一种基于虚拟空间的多人交互方法的基本方法流程示意图。详述如下:
在步骤S101中,获取交互物体设备的姿态变化数据,其中,所述交互物体设备的姿态变化数据包括所述交互物体设备中陀螺仪的运动参数数据和所述交互物体设备中各个零部件的插拔状态变化数据;
本实施例中,交互物体设备的姿态变化数据可以是用户对现实空间中实物的交互物体设备进行操作产生的姿态变化数据。其操作可以包括转动、拆卸和安装零部件等。在本实施例中,基于服务端设备与交互物体设备之间的通讯连接,可以实现将用户对现实空间中实物的交互物体设备进行操作产生的姿态变化数据传送至服务端设备,以使得服务端设备获得该交互物体设备的姿态变化数据。在一些具体实现中,针对于交互物体设备的转动操作,可以通过在交互物体设备中设置陀螺仪,从而由该陀螺仪来检测和获取该交互物体设备转动时所产生的运动参数数据,例如角速度数据,角加速度数据等。在一些具体实现中,针对于交互物体设备的拆卸和安装零部件操作,可以通过在交互物体设备中为各个零部件设置插拔感应传感器,从而由该传感器来检测交互物体设备中个零部件的插拔状态,由此获取各个零部件的插拔状态变化数据。
在步骤S102中,根据所述交互物体设备的姿态变化数据生成所述交互物体设备对应在虚拟空间中的虚拟坐标信息,并根据所述虚拟坐标信息在所述虚拟空间中构建基于服务器端设备视角的第一虚拟立体图像。
本实施例中,获得交互物体设备的姿态变化数据后,针对交互物体设备转动时所产生的角速度、角加速度等运动参数数据,可以通过角速度与角加速度补偿算法计算出交互物体设备的欧拉角,欧拉角是指用来确定定点转动刚体位置的一组独立角参量,包括章动角、进动角和自转角。通过计算得到的欧拉角构建生成该交互物体设备的欧拉角数学矩阵,然后利用该生成欧拉角数学矩阵变换成交互物体设备对应的四维矩阵,根据该四维矩阵可以获得交互物体设备在现实空间中的坐标信息。进而,基于现实空间与虚拟空间之间具有坐标映射关系,根据交互物体设备在现实空间中的坐标信息生成该交互物体设备对应在虚拟空间中的虚拟坐标信息。获得交互物体设备对应在虚拟空间中的虚拟坐标信息后,可以在虚拟空间中构建出基于服务端设备视觉的第一虚拟立体图像。由此,使用服务端设备的用户可以通过服务端设备观察到在其所在角度对应的交互物体设备的虚拟立体图像。使用服务端设备的用户相对于现实空间中交互物体设备的位置及视角角度与该用户在虚拟空间中观看第一虚拟立体图像的位置及视角角度一致。本实施例的一些具体的实现方式中,可以在服务端设备中设置消息缓冲队列,进而,通过消息缓冲队列来存储交互物体设备的姿态变化数据。由此可以使服务端设备按照消息缓冲队列中存储的交互物体设备的姿态变化数据的顺序来生成交互物体设备对应在虚拟空间中的虚拟坐标信息。
在步骤S103中,通过服务端设备的通讯接口将所述虚拟坐标信息广播发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。
本实施例基于虚拟空间的多人交互方法中除了配置服务端设备外,还可以配置一个或多个客户端设备,建立服务端设备与各个客户端设备之间的通讯接口,实现交互物体设备对应在虚拟空间中的虚拟坐标信息连接。由此,多个用户可以通过佩戴服务端设备或客户端设备实现在虚拟空间中进行人与人之间的多人交互。在一些具体实现中,服务端设备和客户端设备为MR眼镜设备。在本实施例中,当服务端设备获得交互物体设备对应在虚拟空间中的虚拟坐标信息后,可以通过将该获得的虚拟坐标信息通过广播的方式传送至每个客户端设备中。当客户端设备接收到该虚拟坐标信息后,可以通过扫描现实空间获得基于该客户端设备的视角角度,进而根据该虚拟坐标信息生成在虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。由此,使用客户端设备的用户可以通过客户端设备观察到在其所在角度对应的交互物体设备的虚拟立体图像。使用客户端设备的用户相对于现实空间中交互物体设备的位置及视角角度与该用户在虚拟空间中观看第二虚拟立体图像的位置及视角角度一致。
上述实施例提供的基于虚拟空间的多人交互方法通过获取交互物体设备的姿态变化数据,然后根据现实空间与虚拟空间之间的坐标映射关系,获得该交互物体设备对应在虚拟空间中的虚拟坐标信息,进而根据该交互物体设备的虚拟坐标信息,在虚拟空间中,由服务端设备基于服务端设备视角同步生成与该交互物体设备对应的第一虚拟立体图像,由客户端设备基于客户端设备视角同步生成与该交互物体设备对应的第二虚拟立体图像。由此在虚拟空间中,一个用户对交互物体设备执行动作行为时,其他用户能够基于自身的视角角度观察到该用户的动作行为,通过结合现实空间及实物,实现了现实与虚拟相结合的多人互动功能,将人的感知融为一体,减少人与人基于虚拟空间互动时存在的体感上的隔阂。
本申请的一些实施例中,交互物体设备的姿态还可以通过使用服务端设备或客户端设备的用户对交互物体设备进行手势操作来改变,即交互物体设备的姿态变化数据可以由用户执行的手势操作产生。在本实施例中,可以基于服务端设备或客户端设备获取用户对交互物体设备执行的手势操作信息,进而通过对用户执行的手势操作信息进行手势识别处理来生成该交互物体设备的姿态变化数据。在一些具体实现中,可以预先制定一些基于手势生成交互物体设备姿态变化数据的生成规则,例如滑动手势,通过手势滑动距离和滑动方向确定对应于交互物体设备的移动距离和移动方向;又例如翻转手势,通过翻转手势的翻转角度确定对应于交互物体设备的翻转角度。由此,基于这些预先制定的生成规则,获得用户执行的手势操作信息后,通过手势识别处理即可生成交互物体设备的姿态变化数据。
本申请的一些实施例中,当具有客户端设备时,可以通过广播的方式将虚拟坐标信息发送至各个客户端设备,使得每个与服务端设备建立了通讯连接的客户端设备都能够接收到来自于服务端设备的虚拟坐标信息。
本申请的一些实施例中,在通过广播的方式将虚拟坐标信息发送至与服务端设备通讯连接的客户端设备之前,还可以先对该虚拟坐标信息进行加密和封装处理。在本实施例中,广播的方式为TCP协议广播,在对虚拟坐标信息进行广播之前,可以通过例如哈希等算法对虚拟坐标信息进行加密处理,当对该虚拟坐标信息进行加密处理后,进一步需要由TCP对于该加密后的虚拟坐标信息进行封装处理,为该加密后的虚拟坐标信息添加包含有源端口和目的端口号信息的TCP头以及添加包含有源地址IP和目的地址IP的IP头。至此,完成对虚拟坐标信息的加密和封装处理。由此,可以保证虚拟坐标信息在传输过程中的安全性以及确保虚拟坐标信息准确地发送至对应的客户端设备中。
可以理解的是,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
在本申请的一些实施例中,请参阅图3,图3为本申请实施例提供的一种基于虚拟空间的多人交互装置的结构示意图,详述如下:
本实施例中,所述基于虚拟空间的多人交互装置包括:获取模块301、处理模块302以及发送模块303。其中,所述获取模块301用于获取交互物体设备的姿态变化数据,其中,所述交互物体设备的姿态变化数据包括所述交互物体设备中陀螺仪的运动参数数据和所述交互物体设备中个零部件的插拔状态变化数据;所述处理模块302用于根据所述交互物体设备的姿态变化数据生成所述交互物体设备对应在虚拟空间中的虚拟坐标信息,并根据所述虚拟坐标信息在所述虚拟空间中构建基于服务器端设备视角的第一虚拟立体图像;所述发送模块303用于通过服务端设备的通讯接口将所述虚拟坐标信息广播发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。
所述基于虚拟空间的多人交互装置,与上述的基于虚拟空间的多人交互方法一一对应,此处不再赘述。
在本申请的一些实施例中,请参阅图4,图4为本申请实施例提供的一种实现基于虚拟空间的多人交互方法的电子设备的示意图。如图4所示,该实施例的电子设备4包括:处理器41、存储器42以及存储在所述存储器42中并可在所述处理器41上运行的计算机程序43,例如基于虚拟空间的多人交互程序。所述处理器41执行所述计算机程序42时实现上述各个基于虚拟空间的多人交互系统实施例中的步骤。或者,所述处理器41执行所述计算机程序43时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序43可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器42中,并由所述处理器41执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序43在所述电子设备4中的执行过程。例如,所述计算机程序43可以被分割成:
获取模块,用于获取交互物体设备的姿态变化数据,其中,所述交互物体设备的姿态变化数据包括所述交互物体设备中陀螺仪的运动参数数据和所述交互物体设备中个零部件的插拔状态变化数据;
处理模块,用于根据所述交互物体设备的姿态变化数据生成所述交互物体设备对应在虚拟空间中的虚拟坐标信息,并根据所述虚拟坐标信息在所述虚拟空间中构建基于服务器端设备视角的第一虚拟立体图像;
发送模块,用于通过服务端设备的通讯接口将所述虚拟坐标信息广播发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。
所述电子设备可包括,但不仅限于,处理器41、存储器42。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器41可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器42可以是所述电子设备4的内部存储单元,例如电子设备4的硬盘或内存。所述存储器42也可以是所述电子设备4的外部存储设备,例如所述电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器42还可以既包括所述电子设备4的内部存储单元也包括外部存储设备。所述存储器42用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器42还可以用于暂时地存储已经输出或者将要输出的数据。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种基于虚拟空间的多人交互系统,其特征在于,包括服务端设备、客户端设备以及交互物体设备,所述服务端设备分别与所述客户端设备、所述交互物体设备通过传输控制协议进行通讯连接,其中:
所述服务端设备通过扫描交互物体设备所在的现实空间构建与现实空间具有坐标映射关系的虚拟空间,根据现实空间与虚拟空间之间的坐标映射关系,在所述虚拟空间中生成与所述交互物体设备对应的第一虚拟立体图像,所述第一虚拟立体图像表征交互物体设备在服务器端设备视角下的虚拟立体图像;
所述客户端设备根据所述现实空间与虚拟空间之间的坐标映射关系,在所述虚拟空间中同步生成与所述交互物体设备对应的第二虚拟立体图像,其中,所述第二虚拟立体图像表征交互物体设备在客户端设备视角下的虚拟立体图像;
所述交互物体设备自身在现实空间中的姿态与所述虚拟空间中的第一虚拟立体图像以及第二虚拟立体图像的姿态同步。
2.根据权利要求1所述的基于虚拟空间的多人交互系统,其特征在于,所述服务端设备中配置有接口监听元件,所述接口监听元件用于对所述服务端设备的通讯接口进行数据监听并接收来自于交互物体设备或客户端设备的交互数据,其中,所述来自于交互物体设备的交互数据包括交互物体设备的姿态变化数据,所述来自于客户端设备的交互数据包括使用所述客户端设备的用户所执行的手势操作信息。
3.根据权利要求1所述的基于虚拟空间的多人交互系统,其特征在于,所述交互物体设备中配置有陀螺仪状态监测元件和零部件插拔状态监测元件,其中,所述陀螺仪状态监测元件用于对所述交互物体设备中的陀螺仪进行运动状态监测,获取所述陀螺仪当前的运动参数数据,并将所述陀螺仪当前的运动参数数据发送至服务端设备;所述零部件插拔状态监测元件通过对所述交互物体设备中的各个零部件进行插拔状态检测,获取所述零部件当前对应的插拔状态数据,并将所述零部件当前对应的插拔状态数据发送至服务端设备。
4.一种基于虚拟空间的多人交互方法,其特征在于,包括:
获取交互物体设备的姿态变化数据,其中,所述交互物体设备的姿态变化数据包括所述交互物体设备中陀螺仪的运动参数数据和所述交互物体设备中个零部件的插拔状态变化数据;
根据所述交互物体设备的姿态变化数据生成所述交互物体设备对应在虚拟空间中的虚拟坐标信息,并根据所述虚拟坐标信息在所述虚拟空间中构建基于服务器端设备视角的第一虚拟立体图像;
通过服务端设备的通讯接口将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。
5.根据权利要求4所述基于虚拟空间的多人交互方法,其特征在于,所述获取交互物体设备的姿态变化数据的步骤,包括:
基于服务端设备或客户端设备获取用户对交互物体设备执行手势操作信息,通过对所述手势操作信息进行手势识别处理生成所述交互物体设备的姿态变化数据。
6.根据权利要求4或5所述基于虚拟空间的多人交互方法,其特征在于,所述通过服务端设备的通讯接口将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像的步骤,还包括:
通过广播的方式将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备。
7.根据权利要求6所述基于虚拟空间的多人交互方法,其特征在于,所述通过广播的方式将所述虚拟坐标信息发送至与所述服务端设备通讯连接的客户端设备的步骤之前,还包括:
对所述虚拟坐标信息进行加密和封装处理。
8.一种基于虚拟空间的多人交互装置,其特征在于,所述基于虚拟空间的多人交互装置包括:
获取模块,用于获取交互物体设备的姿态变化数据,其中,所述交互物体设备的姿态变化数据包括所述交互物体设备中陀螺仪的运动参数数据和所述交互物体设备中个零部件的插拔状态变化数据;
处理模块,用于根据所述交互物体设备的姿态变化数据生成所述交互物体设备对应在虚拟空间中的虚拟坐标信息,并根据所述虚拟坐标信息在所述虚拟空间中构建基于服务器端设备视角的第一虚拟立体图像;
发送模块,用于通过服务端设备的通讯接口将所述虚拟坐标信息广播发送至与所述服务端设备通讯连接的客户端设备,以触发所述客户端设备根据所述虚拟坐标信息在所述虚拟空间中生成基于客户端设备视角的第二虚拟立体图像。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求4至7任一项所述基于虚拟空间的多人交互方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求4至7任一项所述基于虚拟空间的多人交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010696779.0A CN111984114B (zh) | 2020-07-20 | 2020-07-20 | 基于虚拟空间的多人交互系统及其多人交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010696779.0A CN111984114B (zh) | 2020-07-20 | 2020-07-20 | 基于虚拟空间的多人交互系统及其多人交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111984114A true CN111984114A (zh) | 2020-11-24 |
CN111984114B CN111984114B (zh) | 2024-06-18 |
Family
ID=73438697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010696779.0A Active CN111984114B (zh) | 2020-07-20 | 2020-07-20 | 基于虚拟空间的多人交互系统及其多人交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111984114B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112968961A (zh) * | 2021-02-23 | 2021-06-15 | 江西格灵如科科技有限公司 | 基于消息广播机制的多人互动方法、系统和一种服务器 |
CN113923144A (zh) * | 2021-09-18 | 2022-01-11 | 北京奇艺世纪科技有限公司 | 业务的测试系统、方法、电子设备和存储介质 |
CN114650265A (zh) * | 2022-02-16 | 2022-06-21 | 浙江毫微米科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN114866757A (zh) * | 2022-04-22 | 2022-08-05 | 深圳市华星光电半导体显示技术有限公司 | 一种立体显示系统及方法 |
CN115191788A (zh) * | 2022-07-14 | 2022-10-18 | 慕思健康睡眠股份有限公司 | 一种基于智能床垫的体感互动方法及相关产品 |
CN115578541A (zh) * | 2022-09-29 | 2023-01-06 | 北京百度网讯科技有限公司 | 虚拟对象驱动方法及装置、设备、系统、介质和产品 |
CN117152324A (zh) * | 2023-09-04 | 2023-12-01 | 艾迪普科技股份有限公司 | 基于三维播放器的数据驱动方法和装置 |
CN117170504A (zh) * | 2023-11-01 | 2023-12-05 | 南京维赛客网络科技有限公司 | 在虚拟人物交互场景中带人观看的方法、系统及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105096384A (zh) * | 2015-07-22 | 2015-11-25 | 深圳多新哆技术有限责任公司 | 调整虚拟物件位置及姿态角的方法及装置 |
CN205581785U (zh) * | 2016-04-15 | 2016-09-14 | 向京晶 | 一种多人室内虚拟现实互动系统 |
CN106843460A (zh) * | 2016-12-13 | 2017-06-13 | 西北大学 | 基于多摄像头的多目标位置捕获定位系统及方法 |
CN107479699A (zh) * | 2017-07-28 | 2017-12-15 | 深圳市瑞立视多媒体科技有限公司 | 虚拟现实交互方法、装置及系统 |
TWI610565B (zh) * | 2017-04-21 | 2018-01-01 | 國立臺北科技大學 | 立體影像物件互動方法、系統與立體互動影片後製方法 |
CN107767417A (zh) * | 2017-09-11 | 2018-03-06 | 广州慧玥文化传播有限公司 | 基于特征点确定mr头显设备输出的虚拟景象的方法及系统 |
CN107820593A (zh) * | 2017-07-28 | 2018-03-20 | 深圳市瑞立视多媒体科技有限公司 | 一种虚拟现实交互方法、装置及系统 |
CN108011886A (zh) * | 2017-12-13 | 2018-05-08 | 上海曼恒数字技术股份有限公司 | 一种协同控制方法、系统、设备及存储介质 |
WO2019019248A1 (zh) * | 2017-07-28 | 2019-01-31 | 深圳市瑞立视多媒体科技有限公司 | 一种虚拟现实交互方法、装置及系统 |
CN109671118A (zh) * | 2018-11-02 | 2019-04-23 | 北京盈迪曼德科技有限公司 | 一种虚拟现实多人交互方法、装置及系统 |
CN109683706A (zh) * | 2018-12-10 | 2019-04-26 | 中车青岛四方机车车辆股份有限公司 | 一种虚拟现实多人交互的方法及系统 |
CN110520820A (zh) * | 2017-06-06 | 2019-11-29 | 麦克赛尔株式会社 | 混合现实显示系统和混合现实显示终端 |
CN110568923A (zh) * | 2019-07-09 | 2019-12-13 | 深圳市瑞立视多媒体科技有限公司 | 基于Unity3D的虚拟现实交互方法、装置、设备及存储介质 |
CN111083464A (zh) * | 2018-10-18 | 2020-04-28 | 广东虚拟现实科技有限公司 | 虚拟内容的显示投放系统 |
CN111223187A (zh) * | 2018-11-23 | 2020-06-02 | 广东虚拟现实科技有限公司 | 虚拟内容的显示方法、装置及系统 |
-
2020
- 2020-07-20 CN CN202010696779.0A patent/CN111984114B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017012364A1 (zh) * | 2015-07-22 | 2017-01-26 | 深圳多新哆技术有限责任公司 | 调整虚拟物件位置及姿态角的方法及装置 |
CN105096384A (zh) * | 2015-07-22 | 2015-11-25 | 深圳多新哆技术有限责任公司 | 调整虚拟物件位置及姿态角的方法及装置 |
CN205581785U (zh) * | 2016-04-15 | 2016-09-14 | 向京晶 | 一种多人室内虚拟现实互动系统 |
CN106843460A (zh) * | 2016-12-13 | 2017-06-13 | 西北大学 | 基于多摄像头的多目标位置捕获定位系统及方法 |
TWI610565B (zh) * | 2017-04-21 | 2018-01-01 | 國立臺北科技大學 | 立體影像物件互動方法、系統與立體互動影片後製方法 |
CN110520820A (zh) * | 2017-06-06 | 2019-11-29 | 麦克赛尔株式会社 | 混合现实显示系统和混合现实显示终端 |
CN107479699A (zh) * | 2017-07-28 | 2017-12-15 | 深圳市瑞立视多媒体科技有限公司 | 虚拟现实交互方法、装置及系统 |
CN107820593A (zh) * | 2017-07-28 | 2018-03-20 | 深圳市瑞立视多媒体科技有限公司 | 一种虚拟现实交互方法、装置及系统 |
WO2019019248A1 (zh) * | 2017-07-28 | 2019-01-31 | 深圳市瑞立视多媒体科技有限公司 | 一种虚拟现实交互方法、装置及系统 |
CN107767417A (zh) * | 2017-09-11 | 2018-03-06 | 广州慧玥文化传播有限公司 | 基于特征点确定mr头显设备输出的虚拟景象的方法及系统 |
CN108011886A (zh) * | 2017-12-13 | 2018-05-08 | 上海曼恒数字技术股份有限公司 | 一种协同控制方法、系统、设备及存储介质 |
CN111083464A (zh) * | 2018-10-18 | 2020-04-28 | 广东虚拟现实科技有限公司 | 虚拟内容的显示投放系统 |
CN109671118A (zh) * | 2018-11-02 | 2019-04-23 | 北京盈迪曼德科技有限公司 | 一种虚拟现实多人交互方法、装置及系统 |
CN111223187A (zh) * | 2018-11-23 | 2020-06-02 | 广东虚拟现实科技有限公司 | 虚拟内容的显示方法、装置及系统 |
CN109683706A (zh) * | 2018-12-10 | 2019-04-26 | 中车青岛四方机车车辆股份有限公司 | 一种虚拟现实多人交互的方法及系统 |
CN110568923A (zh) * | 2019-07-09 | 2019-12-13 | 深圳市瑞立视多媒体科技有限公司 | 基于Unity3D的虚拟现实交互方法、装置、设备及存储介质 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112968961B (zh) * | 2021-02-23 | 2023-03-10 | 江西格灵如科科技有限公司 | 基于消息广播机制的多人互动方法、系统和一种服务器 |
CN112968961A (zh) * | 2021-02-23 | 2021-06-15 | 江西格灵如科科技有限公司 | 基于消息广播机制的多人互动方法、系统和一种服务器 |
CN113923144A (zh) * | 2021-09-18 | 2022-01-11 | 北京奇艺世纪科技有限公司 | 业务的测试系统、方法、电子设备和存储介质 |
CN113923144B (zh) * | 2021-09-18 | 2023-09-01 | 北京奇艺世纪科技有限公司 | 业务的测试系统、方法、电子设备和存储介质 |
CN114650265A (zh) * | 2022-02-16 | 2022-06-21 | 浙江毫微米科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN114650265B (zh) * | 2022-02-16 | 2024-02-09 | 浙江毫微米科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN114866757A (zh) * | 2022-04-22 | 2022-08-05 | 深圳市华星光电半导体显示技术有限公司 | 一种立体显示系统及方法 |
CN114866757B (zh) * | 2022-04-22 | 2024-03-05 | 深圳市华星光电半导体显示技术有限公司 | 一种立体显示系统及方法 |
CN115191788A (zh) * | 2022-07-14 | 2022-10-18 | 慕思健康睡眠股份有限公司 | 一种基于智能床垫的体感互动方法及相关产品 |
CN115578541A (zh) * | 2022-09-29 | 2023-01-06 | 北京百度网讯科技有限公司 | 虚拟对象驱动方法及装置、设备、系统、介质和产品 |
CN117152324A (zh) * | 2023-09-04 | 2023-12-01 | 艾迪普科技股份有限公司 | 基于三维播放器的数据驱动方法和装置 |
CN117170504A (zh) * | 2023-11-01 | 2023-12-05 | 南京维赛客网络科技有限公司 | 在虚拟人物交互场景中带人观看的方法、系统及存储介质 |
CN117170504B (zh) * | 2023-11-01 | 2024-01-19 | 南京维赛客网络科技有限公司 | 在虚拟人物交互场景中带人观看的方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111984114B (zh) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111984114B (zh) | 基于虚拟空间的多人交互系统及其多人交互方法 | |
KR102375307B1 (ko) | 가상 현실 뷰포트를 공유하기 위한 방법, 장치, 및 시스템 | |
US11782272B2 (en) | Virtual reality interaction method, device and system | |
US10665020B2 (en) | Apparatuses, methods and systems for tethering 3-D virtual elements to digital content | |
US20170237789A1 (en) | Apparatuses, methods and systems for sharing virtual elements | |
US9509974B2 (en) | Method and system for providing three dimensional stereo image | |
EP3855400A1 (en) | Data processing method and device for virtual scene | |
CN109829981B (zh) | 三维场景呈现方法、装置、设备及存储介质 | |
US10726625B2 (en) | Method and system for improving the transmission and processing of data regarding a multi-user virtual environment | |
CN106846497B (zh) | 应用于终端的呈现三维地图的方法和装置 | |
US20170192734A1 (en) | Multi-interface unified displaying system and method based on virtual reality | |
EP2325798A2 (en) | Apparatus and method for inter-operation between virtual reality services | |
CN108702454A (zh) | 选择运载工具捕获的视频的部分以用于显示 | |
CN108430032B (zh) | 一种实现vr/ar设备位置共享的方法及设备 | |
CN110574370B (zh) | 用于处理全向图像的方法和装置 | |
CN108983974B (zh) | Ar场景处理方法、装置、设备和计算机可读存储介质 | |
CN104765636B (zh) | 一种远程桌面图像的合成方法和装置 | |
CN113470112A (zh) | 图像处理方法、装置、存储介质以及终端 | |
US11070713B2 (en) | Network-controlled 3D video capture | |
EP3542877A1 (en) | Optimized content sharing interaction using a mixed reality environment | |
CN110288523B (zh) | 图像生成方法和装置 | |
CN116563740A (zh) | 基于扩展现实的控制方法、装置、电子设备和存储介质 | |
CN115131528A (zh) | 虚拟现实场景确定方法、装置及系统 | |
CN110794966B (zh) | Ar显示系统及方法 | |
CN107168662B (zh) | 一种信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |