CN113395294A - 基于云渲染的大空间多人互动集成系统及其使用方法 - Google Patents

基于云渲染的大空间多人互动集成系统及其使用方法 Download PDF

Info

Publication number
CN113395294A
CN113395294A CN202110792353.XA CN202110792353A CN113395294A CN 113395294 A CN113395294 A CN 113395294A CN 202110792353 A CN202110792353 A CN 202110792353A CN 113395294 A CN113395294 A CN 113395294A
Authority
CN
China
Prior art keywords
capturing
movable
server
positioning
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110792353.XA
Other languages
English (en)
Inventor
张志�
李建华
王红梅
张百涛
侯庆明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Easy Times Digital Technology Co ltd
Original Assignee
Beijing Easy Times Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Easy Times Digital Technology Co ltd filed Critical Beijing Easy Times Digital Technology Co ltd
Priority to CN202110792353.XA priority Critical patent/CN113395294A/zh
Publication of CN113395294A publication Critical patent/CN113395294A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请公开了基于云渲染的大空间多人互动集成系统及其使用方法,该基于云渲染的大空间多人互动集成系统,包括支撑组件、第一动捕系统、第二动捕系统、网关SDK、云渲染服务器和VR终端。本方案,网关SDK用于统一对外接口,开发者可以直接对接网关SDK的统一对外接口,进而避免了不同动捕系统之间的数据,没有进行过标准化处理,使得开发变得复杂,同时,通过云渲染服务器,实现对动作的渲染,避免了现有背包电脑渲染的形式,用户需要背着沉重的背包电脑,方便使用,且增加用户的实用体验。

Description

基于云渲染的大空间多人互动集成系统及其使用方法
技术领域
本申请涉及多人互动技术领域,具体而言,涉及基于云渲染的大空间多人互动集成系统,同时,本申请还涉及基于云渲染的大空间多人互动集成系统的使用方法。
背景技术
随着VR的普及,大众对VR技术有了进一步的了解,VR技术生态也越来越丰富,动作捕捉、眼动追踪、手势识别等技术也逐渐被整合到VR生态中,特别是动作捕捉技术和VR技术的融合收到了广泛的关注。大空间动捕实际上是将动捕和VR技术的融合在大空间中展现,其主要实现了两种功能,一是空间定位技术,将人在现实空间中的位置信息定位到虚拟空间中,让人能感知虚拟空间中自己的位置,二是将人的肢体活动进行6自由度捕捉,然后将这些数据同步到虚拟角色身上,使虚拟角色作出和人一样的动作。
动作捕捉和渲染作为其中的关键,对后续虚拟角色的动作起到至关重要的作用,目前,一般常采用基于背包电脑渲染的大空间动捕系统,但是,采用上述系统时,其工作流程为:玩家身上绑定好动捕定位设备并启动背包电脑中的应用在大空间中体验应用;动捕相机采集到玩家身上的绑定的定位设备的位置信息;将这些信息通过交换机发送到动捕服务器;在背包电脑上的应用程序连接到动捕服务器获取到玩家运动数据并驱动模型作出响应动作。
但是,采用上述的方式,需要背着沉重的背包电脑作为渲染主机,并且带着连线的头戴显示器,既沉重又不方便,另一方面,数据通过相机采集之后通过网线传输到电脑上的服务器软件,之后数据直接交给应用使用,只能同时支持动捕系统,无法用接口同时支持多种动捕的硬件平台。用户在使用时需要去熟悉不同的动捕系统。同时不同的动捕系统数据传输的方式也不一定相同,并且不同系统的动捕数据没有进行过标准化处理,如果需要两种大空间动捕系统,那么就要对接两次不同的动捕系统,使开发变得复杂。
发明内容
本申请的主要目的在于提供基于云渲染的大空间多人互动集成系统及其使用方法,以改善相关技术中,现有的互动系统,不同动捕系统之间的数据,没有进行过标准化处理,使得开发变得复杂,同时,需要背着沉重的背包电脑,使用不便,用户体验差的问题。
为了实现上述目的,第一方面,本申请提供了基于云渲染的大空间多人互动集成系统,包括支撑组件、第一动捕系统、第二动捕系统、网关SDK、云渲染服务器和VR终端。
所述支撑组件包括若干支撑柱和若干支撑架,若干所述支撑架分别安装干若干所述支撑柱的上部。
所述第一动捕系统包括若干用于获取人体动作的第一动捕采集设备、若干对人体动作进行定位的第一动捕定位设备、以及对定位后人体动作数据接收和处理的第一动捕服务器,若干所述第一动捕采集设备安装于所述支撑架的侧部,若干所述第一动捕定位设备固定于人体,所述第一动捕服务器与若干所述第一动捕采集设备信号相连。
所述第二动捕系统包括若干用于获取人体动作的第二动捕采集设备、若干对人体动作进行定位的第二动捕定位设备、以及对定位后人体动作数据接收和处理的第二动捕服务器,若干所述第二动捕采集设备安装于所述支撑架的侧部,若干所述第二动捕定位设备固定于人体,所述第二动捕服务器与若干所述第二动捕采集设备信号相连。
所述第一动捕服务器和所述第二动捕服务器分别与所述网关SDK信号相连,所述网关SDK与所述云渲染服务器信号相连,所述VR终端设置有若干个,若干所述VR终端分别固定于人体。
在本申请的实施例中,所述第一动捕采集设备设置为红外光学相机。
在本申请的实施例中,所述第一动捕定位设备包括连接板、若干连接杆和若干反光球,若干所述连接杆安装于所述连接板的侧部,若干所述反光球分别安装于若干所述连接杆的端部。
在本申请的实施例中,所述第一动捕服务器设置为红外动捕服务器。
在本申请的实施例中,所述第二动捕采集设备设置为定位基站。
在本申请的实施例中,所述第二动捕定位设备设置为追踪器。
在本申请的实施例中,所述第二动捕服务器设置为激光动捕服务器。
在本申请的实施例中,所述VR终端设置为头戴式显示器。
第二方面,本申请另提供了基于云渲染的大空间多人互动集成系统的使用方法,具体包括以下步骤:S1、搭建空间:将若干支撑柱和若干支撑架在场景中搭建好以后,并将若干第一动捕采集设备和若干第二动捕采集设备安装在若干支撑架侧部,搭建一个物理空间;
S2、确定空间坐标:在构建的物理空间中设置一坐标原点,则若干第一动捕采集设备和若干第二动捕采集设备的空间位置确定,即可根据坐标原点获得若干第一动捕采集设备和若干第二动捕采集设备的坐标;
S3、设备穿戴:若干使用者佩戴第一动捕定位设备,另外若干使用者佩戴第二动捕定位设备;
S4、数据获取:使用者在物理空间中走动,通过第一动捕采集设备获得第一动捕定位设备的位置信息,通过第二动捕采集设备获得第二动捕定位设备的位置信息,并根据位置信息解析出操作者的动作信息,并分别将动作信息传输给第一动捕服务器和第二动捕服务器;
S5、统一对外接口:网关SDK与第一动捕服务器和第二动捕服务器对接,采用CS架构,UDP协议,接收到数据后,统一对外接口;
S6、云渲染服务器:从网关SDK获取动作数据后,对获得动作信息进行渲染,获得模型,并将数据推送到应用中,利用IK反向运动学,驱动模型做出相应动作;
S7、展示模型:VR终端从云渲染服务器接收模型动作,并展示驱动模型。
在本申请的实施例中,所述S3中,第一动捕定位设备和第二动捕定位设备穿戴的部位为人体的手部、脚步、头部、胳膊和背部。
与现有技术相比,本申请的有益效果是:
1、该基于云渲染的大空间多人互动集成系统,其支撑组件包括若干支撑柱和若干支撑架,通过若干支撑柱和若干支撑架的配合,实现动捕采集设备的固定,并方便构建物理空间;
2、该基于云渲染的大空间多人互动集成系统,其第一动捕系统包括若干用于获取人体动作的第一动捕采集设备、若干对人体动作进行定位的第一动捕定位设备、以及对定位后人体动作数据接收和处理的第一动捕服务器;第二动捕系统包括若干用于获取人体动作的第二动捕采集设备、若干对人体动作进行定位的第二动捕定位设备、以及对定位后人体动作数据接收和处理的第二动捕服务器,采用两种动捕系统,便于用户根据需求进行选择所需使用的动捕系统,便于使用;
3、该基于云渲染的大空间多人互动集成系统,其网关SDK与第一动捕服务器和第二动捕服务器对接,采用CS架构,UDP协议,接收到数据后,统一对外接口,开发者可以直接对接网关SDK的统一对外接口进行开发,降低开发人员使用的难度;
4、该基于云渲染的大空间多人互动集成系统,其云渲染服务器采用云渲染的方式,实现对动作的渲染,避免了现有背包电脑渲染的形式,用户需要背着沉重的背包电脑,方便使用,且增加用户的使用体验。
附图说明
图1为根据本申请实施例提供的基于云渲染的大空间多人互动集成系统的支撑组件部分结构示意图;
图2为根据本申请实施例提供的基于云渲染的大空间多人互动集成系统的第一动捕定位设备结构示意图;
图3为根据本申请实施例提供的基于云渲染的大空间多人互动集成系统的第二动捕定位设备结构示意图;
图4为根据本申请实施例提供的基于云渲染的大空间多人互动集成系统的系统模块示意框图;
图5为根据本申请实施例提供的基于云渲染的大空间多人互动集成系统的使用方法的流程示意框图。
图中:100、支撑组件;110、支撑柱;120、支撑架;210、第一动捕采集设备;220、第一动捕定位设备;221、连接板;222、连接杆;223、反光球;310、第二动捕采集设备;320、第二动捕定位设备。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
另外,术语“多个”的含义应为两个以及两个以上。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
实施例1
请参阅图1-图4,本申请提供了基于云渲染的大空间多人互动集成系统,包括支撑组件100、第一动捕系统、第二动捕系统、网关SDK、云渲染服务器和若干VR终端。
支撑组件100包括若干支撑柱110和若干支撑架120,若干支撑架120分别通过螺栓安装于若干支撑柱110的上部。
第一动捕系统包括若干用于获取人体动作的第一动捕采集设备210、若干对人体动作进行定位的第一动捕定位设备220、以及对定位后人体动作数据接收和处理的第一动捕服务器,若干第一动捕采集设备210安装于支撑架120的侧部,若干第一动捕定位设备220固定于人体,第一动捕服务器与若干第一动捕采集设备210信号相连。
第二动捕系统包括若干用于获取人体动作的第二动捕采集设备310、若干对人体动作进行定位的第二动捕定位设备320、以及对定位后人体动作数据接收和处理的第二动捕服务器,若干第二动捕采集设备310安装于支撑架120的侧部,若干第二动捕定位设备320固定于人体,第二动捕服务器与若干第二动捕采集设备310信号相连。
第一动捕服务器和第二动捕服务器分别与网关SDK信号相连,需要说明的是,网关SDK还可以连接其它多种形式的动捕系统,网关SDK与云渲染服务器信号相连,若干VR终端分别固定于人体,具体设置时,VR终端设置为头戴式显示器,需要说明的是,头戴式显示器佩戴在头部,且显示器与眼睛部位相对,其本身具有与云渲染服务器通信的通信模块,通信模块可采用5G网络、WiFi和4G网络等,最优选择5G网络进行通信。
在本实施例中,第一动捕采集设备210设置为红外光学相机;第一动捕定位设备220包括连接板221、若干连接杆222和若干反光球223,若干连接杆222安装于连接板221的侧部,若干反光球223分别安装于若干连接杆222的端部;第一动捕服务器设置为红外动捕服务器,需要说明的是,红外光学相机采用MC1300红外光学相机,且其本身带有发出红外光的灯组,连接板221方便与人体连接,反光球223用于反射红外光学相机发出的红外光,进而方便红外光学相机识别反光球的位置,进而确定使用者所处的位置,红外动捕服务器采用成熟的CMTrackerServer红外动捕服务器。
在本实施例中,第二动捕采集设备310设置为定位基站;第二动捕定位设备320设置为追踪器;第二动捕服务器设置为激光动捕服务器,需要说明的是,定位基站采用HTCVIVE PRO 2.0定位基站,追踪器采用HTC Tracker2代追踪器,定位基站和追踪器的配合,可以良好的实现对使用者的定位。
请参阅图5,本申请另提供了基于云渲染的大空间多人互动集成系统的使用方法,具体包括以下步骤:
S1、搭建空间:将若干支撑柱和若干支撑架在场景中搭建好以后,并将若干第一动捕采集设备和若干第二动捕采集设备安装在若干支撑架侧部,搭建一个物理空间;
S2、确定空间坐标:在构建的物理空间中设置一坐标原点,则若干第一动捕采集设备和若干第二动捕采集设备的空间位置确定,即可根据坐标原点获得若干第一动捕采集设备和若干第二动捕采集设备的坐标;
S3、设备穿戴:若干使用者佩戴第一动捕定位设备,另外若干使用者佩戴第二动捕定位设备;
S4、数据获取:使用者在物理空间中走动,通过第一动捕采集设备获得第一动捕定位设备的位置信息,通过第二动捕采集设备获得第二动捕定位设备的位置信息,并根据位置信息解析出操作者的动作信息,并分别将动作信息传输给第一动捕服务器和第二动捕服务器;
S5、统一对外接口:网关SDK与第一动捕服务器和第二动捕服务器对接,采用CS架构,UDP协议,接收到数据后,统一对外接口;
S6、云渲染服务器:从网关SDK获取动作数据后,对获得动作信息进行渲染,获得模型,并将数据推送到应用中,利用IK反向运动学,驱动模型做出相应动作;
S7、展示模型:VR终端从云渲染服务器接收模型动作,并展示驱动模型。
需要说明的是,在数据获取中,对于第一动捕系统,根据三角测量原理,空间中的任意物体,只要保证同时被两部摄像机拍摄到,就可以计算出该点在空间中的位置;对于第二动捕系统,每个定位基站里有一个红外LED阵列,两个转轴互相垂直的激光发射器,一个沿水平方向扫描,一个沿着竖直方向扫描,扫描一圈都需要10ms,20ms为一个循环,在循环开始的时候LED闪光之后同步信号(传感器开始计时),这时候HTC Tracker 2代追踪器会接收到信号并开始计时,然后光敏传感器可以测量出X轴激光和Y轴激光分别到达的时间,这样传感器相对基站的X轴Y轴的角度就可知了,这样就可以确定追踪器在空间中的位置。
综上所述:本申请支撑组件包括若干支撑柱110和若干支撑架120,通过若干支撑柱110和若干支撑架120的配合,实现动捕采集设备的固定,并方便构建物理空间;采用两种动捕系统,便于用户根据需求进行选择所需使用的动捕系统,便于使用;网关SDK与第一动捕服务器和第二动捕服务器对接,采用CS架构,UDP协议,接收到数据后,统一对外接口,开发者可以直接对接网关SDK的统一对外接口进行开发,降低开发人员使用的难度;云渲染服务器采用云渲染的方式,实现对动作的渲染,避免了现有背包电脑渲染的形式,用户需要背着沉重的背包电脑,方便使用,且增加用户的使用体验。
需要说明的是:网关SDK的型号规格需根据该装置的实际规格等进行选型确定,具体选型计算方法采用本领域现有技术,故不再详细赘述。
网关SDK其供电及其原理对本领域技术人员来说是清楚的,在此不予详细说明。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.基于云渲染的大空间多人互动集成系统,其特征在于,包括:
支撑组件(100),所述支撑组件(100)包括若干支撑柱(110)和若干支撑架(120),若干所述支撑架(120)分别安装于若干所述支撑柱(110)的上部;
第一动捕系统,所述第一动捕系统包括若干用于获取人体动作的第一动捕采集设备(210)、若干对人体动作进行定位的第一动捕定位设备(220)、以及对定位后人体动作数据接收和处理的第一动捕服务器,若干所述第一动捕采集设备(210)安装于所述支撑架(120)的侧部,若干所述第一动捕定位设备(220)固定于人体,所述第一动捕服务器与若干所述第一动捕采集设备(210)信号相连;
第二动捕系统,所述第二动捕系统包括若干用于获取人体动作的第二动捕采集设备(310)、若干对人体动作进行定位的第二动捕定位设备(320)、以及对定位后人体动作数据接收和处理的第二动捕服务器,若干所述第二动捕采集设备(310)安装于所述支撑架(120)的侧部,若干所述第二动捕定位设备(320)固定于人体,所述第二动捕服务器与若干所述第二动捕采集设备(310)信号相连;
网关SDK,所述第一动捕服务器和所述第二动捕服务器分别与所述网关SDK信号相连;
云渲染服务器,所述网关SDK与所述云渲染服务器信号相连;
VR终端,所述VR终端设置有若干个,若干所述VR终端分别固定于人体。
2.如权利要求1所述的基于云渲染的大空间多人互动集成系统,其特征在于,所述第一动捕采集设备(210)设置为红外光学相机。
3.如权利要求2所述的基于云渲染的大空间多人互动集成系统,其特征在于,所述第一动捕定位设备(220)包括连接板(221)、若干连接杆(222)和若干反光球(223),若干所述连接杆(222)安装于所述连接板(221)的侧部,若干所述反光球(223)分别安装于若干所述连接杆(222)的端部。
4.如权利要求3所述的基于云渲染的大空间多人互动集成系统,其特征在于,所述第一动捕服务器设置为红外动捕服务器。
5.如权利要求1所述的基于云渲染的大空间多人互动集成系统,其特征在于,所述第二动捕采集设备(310)设置为定位基站。
6.如权利要求6所述的基于云渲染的大空间多人互动集成系统,其特征在于,所述第二动捕定位设备(320)设置为追踪器。
7.如权利要求7所述的基于云渲染的大空间多人互动集成系统,其特征在于,所述第二动捕服务器设置为激光动捕服务器。
8.如权利要求1所述的基于云渲染的大空间多人互动集成系统,其特征在于,所述VR终端设置为头戴式显示器。
9.基于云渲染的大空间多人互动集成系统的使用方法,其特征在于,具体包括以下步骤:
S1、搭建空间:将若干支撑柱和若干支撑架在场景中搭建好以后,并将若干第一动捕采集设备和若干第二动捕采集设备安装在若干支撑架侧部,搭建一个物理空间;
S2、确定空间坐标:在构建的物理空间中设置一坐标原点,则若干第一动捕采集设备和若干第二动捕采集设备的空间位置确定,即可根据坐标原点获得若干第一动捕采集设备和若干第二动捕采集设备的坐标;
S3、设备穿戴:若干使用者佩戴第一动捕定位设备,另外若干使用者佩戴第二动捕定位设备;
S4、数据获取:使用者在物理空间中走动,通过第一动捕采集设备获得第一动捕定位设备的位置信息,通过第二动捕采集设备获得第二动捕定位设备的位置信息,并根据位置信息解析出操作者的动作信息,并分别将动作信息传输给第一动捕服务器和第二动捕服务器;
S5、统一对外接口:网关SDK与第一动捕服务器和第二动捕服务器对接,采用CS架构,UDP协议,接收到数据后,统一对外接口;
S6、云渲染服务器:从网关SDK获取动作数据后,对获得动作信息进行渲染,获得模型,并将数据推送到应用中,利用IK反向运动学,驱动模型做出相应动作;
S7、展示模型:VR终端从云渲染服务器接收模型动作,并展示驱动模型。
10.如权利要求9所述的基于云渲染的大空间多人互动集成系统的使用方法,其特征在于,所述S3中,第一动捕定位设备和第二动捕定位设备穿戴的部位为人体的手部、脚步、头部、胳膊和背部。
CN202110792353.XA 2021-07-15 2021-07-15 基于云渲染的大空间多人互动集成系统及其使用方法 Pending CN113395294A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110792353.XA CN113395294A (zh) 2021-07-15 2021-07-15 基于云渲染的大空间多人互动集成系统及其使用方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110792353.XA CN113395294A (zh) 2021-07-15 2021-07-15 基于云渲染的大空间多人互动集成系统及其使用方法

Publications (1)

Publication Number Publication Date
CN113395294A true CN113395294A (zh) 2021-09-14

Family

ID=77625931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110792353.XA Pending CN113395294A (zh) 2021-07-15 2021-07-15 基于云渲染的大空间多人互动集成系统及其使用方法

Country Status (1)

Country Link
CN (1) CN113395294A (zh)

Similar Documents

Publication Publication Date Title
US9690376B2 (en) Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
CN102221887B (zh) 互动投影系统及方法
CN110650354A (zh) 虚拟动漫角色直播方法、系统、设备及存储介质
US20150245010A1 (en) Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use
CN202150897U (zh) 一种体感控制游戏电视机
CN108885487A (zh) 一种可穿戴式系统的手势控制方法以及可穿戴式系统
CN112188059B (zh) 可穿戴设备、智能引导方法及装置、引导系统
CN105759650A (zh) 一种用于智能机器人系统实时跟踪人脸的方法
CN113419634A (zh) 一种基于显示屏的旅游互动方法
CN115220578A (zh) 一种基于光学动作捕捉的交互式vr系统与方法
CN210090827U (zh) 一种轻便化的ar眼镜实现系统
CN206819290U (zh) 一种虚拟现实多人互动的系统
CN109116987B (zh) 一种基于Kinect手势控制的全息展示系统
US20190339768A1 (en) Virtual reality interaction system and method
CN216313145U (zh) 基于云渲染的大空间多人互动集成系统
CN113395294A (zh) 基于云渲染的大空间多人互动集成系统及其使用方法
CN108459716B (zh) 一种在vr中实现多人协作完成任务的方法
CN101165719A (zh) 一种基于标志点的增强实现工业维修方法及系统
CN202749066U (zh) 一种非接触式物展交互系统
CN202110488U (zh) 一种基于计算机视觉的手势操控系统
CN210109743U (zh) 一种基于动作捕捉的vr互动系统
CN113633962A (zh) 一种大空间多人互动集成系统
CN113342176A (zh) 一种沉浸式旅游互动系统
CN115047979B (zh) 头戴显示设备控制系统及交互方法
CN110806811A (zh) 一种通过mpu生成鼠标控制指令的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination