CN107370831A - 基于mr头显设备的多用户交互实现方法及系统 - Google Patents
基于mr头显设备的多用户交互实现方法及系统 Download PDFInfo
- Publication number
- CN107370831A CN107370831A CN201710780392.1A CN201710780392A CN107370831A CN 107370831 A CN107370831 A CN 107370831A CN 201710780392 A CN201710780392 A CN 201710780392A CN 107370831 A CN107370831 A CN 107370831A
- Authority
- CN
- China
- Prior art keywords
- equipment
- heads
- show
- user
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/52—Network services specially adapted for the location of the user terminal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
Abstract
本发明实施例公开了一种基于MR头显设备的多用户交互实现方法及系统,该方法包括:第一MR头显设备在MR工作模式下将其当前地理位置发送至服务设备;服务设备判断该当前地理位置中是否存在至少一个第二MR头显设备,若是,向第一MR头显设备发送交互指令;第一MR头显设备根据该交互指令建立与该至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。实施本发明实施例能通过将实时景象中的背景替换成虚拟景象的方式准确的识别出处于相同场景中的其它人物,提高了使用MR头显设备的安全性,给用户带来了更逼真更立体更安全的多样化体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,建立与该其它用户的交互连接,丰富了MR头显设备的交互功能。
Description
技术领域
本发明涉及介导现实(Mediated Reality,MR)技术领域,尤其涉及一种基于MR头显设备的多用户交互实现方法及系统。
背景技术
当前,随着电子技术的快速发展,虚拟现实(Virtual Reality,VR)技术的应用也越来越广泛,其中,VR技术最常见的应用体现为其在游戏方面的应用,即丰富的感知能力与3D显示环境使得VR设备成为了理想的视频游戏工具,例如,用户戴上VR设备之后可以通过VR设备显示的3D虚拟景象体验坐过山车时的刺激或者与3D虚拟景象中的虚拟角色进行互动,这样能够使用户身临其境,以增加游戏的乐趣。在实际操作中,同一实体场景中可能存在多个使用相关设备进行体验的用户,如何实现多个相关设备之间的交互,以丰富相关设备的交互功能显得尤为重要。
发明内容
本发明实施例公开了一种基于MR头显设备的多用户交互实现方法及系统,能够实现相同场景中多个MR头显设备的交互,丰富了MR头显设备的交互功能。
本发明实施例第一方面公开了一种基于MR头显设备的多用户交互实现方法,所述方法包括:
第一MR头显设备在MR工作模式下定位其所处的当前地理位置,并将所述当前地理位置发送至服务设备,所述MR工作模式为输出双摄像头捕捉到的实时景象中的实体景象以及与所述实时景象中的背景景象相匹配的虚拟景象的工作模式,与所述实时景象中的背景景象相匹配的虚拟景象是从所述服务设备中获取到的;
所述服务设备接收所述当前地理位置,并判断所述当前地理位置中是否存在至少一个第二MR头显设备,当判断出存在所述至少一个第二MR头显设备时,向所述第一MR头显设备发送交互指令,所述交互指令用于指示所述第一MR头显设备建立与所述至少一个第二MR头显设备的交互连接;
所述第一MR头显设备接收所述交互指令,并根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
作为一种可选的实施方式,在本发明实施例第一方面中,所述方法还包括:
所述第一MR头显设备在所述MR工作模式下向所述服务设备发送所述背景景象;
所述服务设备接收所述背景景象;
在判断出存在所述至少一个第二MR头显设备之后,所述服务设备向所述第一MR头显设备发送交互指令之前,所述方法还包括:
所述服务设备识别所述背景景象中包括的至少三个特征点,并根据所述至少三个特征点确定由所述至少三个特征点组成的目标物理形状,以及判断从每个所述第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与所述目标物理形状相匹配,当判断出相匹配时,触发执行所述向所述第一MR头显设备发送交互指令的操作。
作为一种可选的实施方式,在本发明实施例第一方面中,所述交互指令包括每个所述第二MR头显设备的用户的属性信息;
所述第一MR头显设备接收所述交互指令之后,以及所述第一MR头显设备根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接之前,所述方法还包括:
所述第一MR头显设备输出每个所述第二MR头显设备的用户的属性信息,以供所述第一MR头显设备的用户根据每个所述第二MR头显设备的属性信息从所述至少一个第二MR头显设备中选择需要建立交互连接的目标第二MR头显设备;
所述第一MR头显设备确定所述第一MR头显设备的用户从所述至少一个第二MR头显设备中选择的所述目标第二MR头显设备,并触发执行所述根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作。
作为一种可选的实施方式,在本发明实施例第一方面中,所述方法还包括:
所述第一MR头显设备判断所述实体景象中是否包含佩戴所述目标第二MR头显设备的用户,当判断出所述实体景象中包含佩戴所述目标第二MR头显设备的用户时,控制在所述虚拟景象中出现佩戴所述目标第二MR头显设备的用户的位置处的附近某一位置输出佩戴所述第二MR头显设备的用户的属性信息。
作为一种可选的实施方式,在本发明实施例第一方面中,所述第一MR头显设备在MR工作模式下定位其所处的当前地理位置之前,所述方法还包括:
所述第一MR头显设备检测在MR工作模式下是否存在由所述第一MR头显设备的用户触发的预设体感动作,当检测到在所述MR工作模式下存在所述预设体感动作时,触发执行所述在MR工作模式下定位其所处的当前地理位置的操作,所述预设体感动作用于指示所述第一MR头显设备的用户存在交互需求。
本发明实施例第二方面公开了一种基于MR头显设备的多用户交互实现系统,所述系统包括第一MR头显设备以及服务设备,其中:
所述第一MR头显设备,用于在MR工作模式下定位其所处的当前地理位置,并将所述当前地理位置发送至所述服务设备,所述MR工作模式为输出双摄像头捕捉到的实时景象中的实体景象以及与所述实时景象中的背景景象相匹配的虚拟景象的工作模式,与所述实时景象中的背景景象相匹配的虚拟景象是从所述服务设备中获取到的;
所述服务设备,用于接收所述当前地理位置,并判断所述当前地理位置中是否存在至少一个第二MR头显设备,当判断出存在所述至少一个第二MR头显设备时,向所述第一MR头显设备发送交互指令,所述交互指令用于指示所述第一MR头显设备建立与所述至少一个第二MR头显设备的交互连接;
所述第一MR头显设备,还用于接收所述交互指令,并根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
作为一种可选的实施方式,在本发明实施例第二方面中,所述第一MR头显设备,还用于在所述MR工作模式下向所述服务设备发送所述背景景象;
所述服务设备,还用于接收所述第一MR头显设备发送的所述背景景象;
所述服务设备,还用于在判断出存在所述至少一个第二MR头显设备之后以及向所述第一MR头显设备发送交互指令之前,识别所述背景景象中包括的至少三个特征点,并根据所述至少三个特征点确定由所述至少三个特征点组成的目标物理形状,以及判断从每个所述第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与所述目标物理形状相匹配,当判断出相匹配时,触发执行所述向所述第一MR头显设备发送交互指令的操作。
作为一种可选的实施方式,在本发明实施例第二方面中,所述交互指令包括每个所述第二MR头显设备的用户的属性信息;
所述第一MR头显设备,还用于在接收所述交互指令之后以及根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接之前,输出每个所述第二MR头显设备的用户的属性信息,以供所述第一MR头显设备的用户根据每个所述第二MR头显设备的属性信息从所述至少一个第二MR头显设备中选择需要建立交互连接的目标第二MR头显设备,以及确定所述第一MR头显设备的用户从所述至少一个第二MR头显设备中选择的所述目标第二MR头显设备,并触发执行所述根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作。
作为一种可选的实施方式,在本发明实施例第二方面中,所述第一MR头显设备,还用于判断所述实体景象中是否包含佩戴所述目标第二MR头显设备的用户,当判断出所述实体景象中包含佩戴所述目标第二MR头显设备的用户时,控制在所述虚拟景象中出现佩戴所述目标第二MR头显设备的用户的位置处的附近某一位置输出佩戴所述第二MR头显设备的用户的属性信息。
作为一种可选的实施方式,在本发明实施例第二方面中,所述第一MR头显设备,还用于检测在MR工作模式下是否存在由所述第一MR头显设备的用户触发的预设体感动作,当检测到在所述MR工作模式下存在所述预设体感动作时,触发执行所述在MR工作模式下定位其所处的当前地理位置的操作,所述预设体感动作用于指示所述第一MR头显设备的用户存在交互需求。
与现有技术相比,本发明实施例具备以下有益效果:
本发明实施例中,第一MR头显设备在MR工作模式下定位其所处的当前地理位置,并将定位出的当前地理位置发送至服务设备,其中,该MR工作模式为第一MR头显设备输出其双摄像头捕捉到的实时景象中的实体景象以及与该实时景象中的背景景象相匹配的虚拟景象的工作模式;服务设备接收第一MR头显设备发送的当前地理位置,并判断该当前地理位置中是否存在至少一个第二MR头显设备,当判断出在该当前地理位置中存在至少一个第二MR头显设备时,向第一MR头显设备发送交互指令,该交互指令用于指示第一MR头显设备建立与该至少一个第二MR头显设备的交互连接;第一MR头显设备接收该交互指令,并根据该交互指令建立与该至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。可见,实施本发明实施例能够在MR工作模式下通过双摄像头捕捉实时景象,并将实时景象中的背景替换成虚拟数字空间(即3D虚拟景象)在实体环境中的映射,这种将虚拟数字空间与实体环境(又称物理环境,包括人物和景物)相结合的方式融合了VR和增强现实(AugmentedReality,AR)的功能,能够准确的识别出处于相同场景中的其它人物,提高了用户在使用MR头显设备时的安全性,给用户带来了更逼真更立体更安全的多样化互动体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,能够建立与佩戴MR头显设备的其它用户的交互连接,丰富了MR头显设备的交互功能,保证了多用户交互时的安全性,提高了用户的使用体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种基于MR头显设备的多用户交互实现方法的流程示意图;
图2是本发明实施例公开的另一种基于MR头显设备的多用户交互实现方法的流程示意图;
图3是本发明实施例公开的一种第一MR头显设备的结构示意图;
图4是本发明实施例公开的另一种第一MR头显设备的结构示意图;
图5是本发明实施例公开的一种服务设备的结构示意图;
图6是本发明实施例公开的一种基于MR头显设备的多用户交互实现系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例公开了一种基于MR头显设备的多用户交互实现方法及系统,能够在MR工作模式下通过双摄像头捕捉实时景象,并将实时景象中的背景替换成虚拟数字空间(即3D虚拟景象)在实体环境中的映射,这种将虚拟数字空间与实体环境(又称物理环境,包括人物和景物)相结合的方式融合了VR和增强现实(Augmented Reality,AR)的功能,能够准确的识别出处于相同场景中的其它人物,提高了用户在使用MR头显设备时的安全性,给用户带来了更逼真更立体更安全的多样化互动体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,能够建立与佩戴MR头显设备的其它用户的交互连接,丰富了MR头显设备的交互功能,保证了多用户交互时的安全性,提高了用户的使用体验。以下进行结合附图进行详细描述。
实施例一
请参阅图1,图1是本发明实施例公开的一种基于MR头显设备的多用户交互实现方法的流程示意图。如图1所示,该基于MR头显设备的多用户交互实现方法可以包括以下操作:
101、第一MR头显设备在MR工作模式下定位其所处的当前地理位置,并将该当前地理位置发送至服务设备。
本发明实施例中,第一MR头显设备可以具有至少三种工作模式,如VR工作模式、AR工作模式以及VR+AR的MR工作模式等,第一MR头显设备启动之后,可以输出该至少三种工作模式供用户选择,当检测到用户选择的工作模式为MR工作模式时,第一MR头显设备可以启动MR工作模式,并触发执行步骤101-步骤104。需要说明的是,第一MR头显设备也可以缺省启动MR工作模式,本发明实施例不做限定。
本发明实施例中,第一MR头显设备上可以设置有与定位服务器进行交互的定位接口,且该第一MR头显设备可以通过该定位接口从定位服务器获取到第一MR头显设备所处的当前地理位置。
本发明实施例中,第一MR头显设备具有双摄像头,且该双摄像头用以模拟人眼工作采集视野范围内的实时景象,对采集到的实时景象(或称数字画面)进行实时渲染,叠加部分虚拟景象实现AR工作模式,也可以完全叠加虚拟景象实现VR工作模式,也可以直接实现MR工作模式,本发明实施例不做限定。其中,在MR工作模式下,第一MR头显设备通过双摄像头采集其所处当前地理位置的实时景象,通过预设背景颜色分离采集的实时景象中的背景与前景实体,得到背景景象与实体景象;向服务设备发送包括该背景景象的渲染请求,其中,该渲染请求用于请求获取该背景景象匹配的虚拟景象;接收服务设备针对该渲染请求返回的渲染响应,该渲染响应包括由服务设备确定出的该背景景象匹配的虚拟景象;将实时景象包括的背景景象替换成背景景象匹配的虚拟景象,并输出该虚拟景象以及实体景象。其中,该背景景象的背景颜色与该预设背景颜色相匹配,可选的,该预设背景颜色可以为绿色或蓝色,本发明实施例不做限定。具体的,在实际应用中,可以将电影特效的绿幕(预设背景颜色为绿色)或蓝幕(预设背景颜色为蓝色)应用于背景与前景实体的分离过程,即可以预先将某具体的物理环境的部分或全部布置成绿幕或蓝幕,第一MR头显设备在MR模式下通过识别预设背景颜色的方式将颜色与预设背景颜色相同或相匹配的景象确定为背景景象,并将颜色与预设背景颜色不同或不相匹配的景象确定为前景实体的实体景象。
102、服务设备接收上述当前地理位置,并判断上述当前地理位置中是否存在至少一个第二MR头显设备,当步骤102的判断结果为是时,触发执行步骤103,当步骤102的判断结果为否时,可以结束本次流程。
本发明实施例中,服务设备在为每个MR头显设备提供渲染服务时,每个MR头显设备都可以定位其所处的地理位置并将定位出的地理位置发送至服务设备,以便服务设备根据其接收到的所有地理位置判断上述当前地理位置中是否存在除第一MR头显设备之外的至少一个第二MR头显设备。可选的,该至少一个第二MR头显设备可以具体为处于上述当前地理位置的除第一MR头显设备之外的所有MR头显设备中交互属性为允许交互的MR头显设备,即每个MR头显设备可以根据该MR头显设备的用户的实际情况设置该MR头显设备的交互属性,每个MR头显设备的交互属性用于指示是否允许其它MR头显设备与该MR头显设备建立交互连接。这种直接为第一MR头显设备推荐允许建立交互连接的MR头显设备的方式能够简化第一MR头显设备的交互连接操作,进而有利于减少第一MR头显设备的功耗。
103、服务设备向第一MR头显设备发送交互指令,该交互指令用于指示第一MR头显设备建立与上述至少一个第二MR头显设备的交互连接。
本发明实施例中,该交互指令可以包括该至少一个第二MR头显设备中每个第二MR头显设备的设备标识。
104、第一MR头显设备接收上述交互指令,并根据上述交互指令建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
本发明实施例中,具体的,第一MR头显设备在接收到上述交互指令之后,根据上述交互指令包括的设备标识从上述至少一个第二MR头显设备中确定出目标第二MR头显设备确定为待交互的MR设备,并向该目标第二MR头显设备发送交互连接请求,当接收到目标第二MR头显设备针对该交互连接请求返回的交互连接响应时,确定与目标第二MR头显设备之间的交互连接建立完毕。在实际应用中,该交互连接用于允许第一MR头显设备与目标第二MR头显设备之间进行交互信息的传输,该交互信息可以包括语音信息、文字信息、图片信息以及需要共享的虚拟景象中一种或多种,本发明实施例不做限定。
本发明实施例中,目标第二MR头显设备可以为上述至少一个第二MR头显设备中的所有MR头显设备,也可以为上述至少一个第二MR头显设备中的部分MR头显设备,本发明实施例不做限定。
在一个可选的实施例中,第一MR头显设备在向服务设备发送上述当前地理位置的同时,还可以发送第一MR头显设备的设备标识,以触发服务设备在接收到第一MR设备发送的设备标识之后根据该设备标识判断第一MR头显设备是否为授权MR头显设备,当判断结果为是时,触发服务设备执行上述判断上述当前地理位置中是否存在至少一个第二MR头显设备的操作。这样保证了通过MR头显设备实现多用户交互时的安全性。
可见,实施图1所描述的基于MR头显设备的多用户交互实现方法能够在MR工作模式下通过双摄像头捕捉实时景象,并将实时景象中的背景替换成虚拟数字空间(即3D虚拟景象)在实体环境中的映射,这种将虚拟数字空间与实体环境(又称物理环境,包括人物和景物)相结合的方式融合了VR和增强现实(Augmented Reality,AR)的功能,能够准确的识别出处于相同场景中的其它人物,提高了用户在使用MR头显设备时的安全性,给用户带来了更逼真更立体更安全的多样化互动体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,能够建立与佩戴MR头显设备的其它用户的交互连接,丰富了MR头显设备的交互功能,保证了多用户交互时的安全性,提高了用户的使用体验。
实施例二
请参阅图2,图2是本发明实施例公开的另一种基于MR头显设备的多用户交互实现方法的流程示意图。如图2所示,该基于MR头显设备的多用户交互实现方法可以包括以下操作:
201、第一MR头显设备在MR工作模式下定位其所处的当前地理位置以及从其双摄像头捕捉到的实时景象中分离出背景景象,并将该当前地理位置以及该背景景象发送至服务设备。
202、服务设备接收上述当前地理位置以及上述背景景象,并判断上述当前地理位置中是否存在至少一个第二MR头显设备,当步骤202的判断结果为是时,触发执行步骤203,当步骤202的判断结果为否时,可以结束本次流程。
203、服务设备识别上述背景景象中包括的至少三个特征点,并根据该至少三个特征点确定由该至少三个特征点组成的目标物理形状。
204、服务设备判断从每个第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与上述目标物理形状相匹配,当步骤204的判断结果为是时,触发执行步骤205,当步骤204的判断结果为否时,可以结束本次流程。
205、服务设备向第一MR头显设备发送交互指令,该交互指令用于指示第一MR头显设备建立与上述至少一个第二MR头显设备的交互连接。
206、第一MR头显设备接收上述交互指令,并根据上述交互指令建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
本发明实施例中,针对步骤205-步骤206的描述可以参照实施例一中针对步骤103-步骤104的详细描述,本发明实施例不再赘述。
在一个可选的实施例中,上述交互指令可以包括上述每个第二MR头显设备的用户的属性信息,可选的,每个第二MR头显设备的用户的属性信息可以包括用户等级、用户信用、用户此次体验的时长以及用户在上述当前地理位置处的体验次数中的一种或多种,本发明实施例不做限定。其中,在执行完毕上述接收交互指令之后的操作之后以及在执行上述根据上述交互指令建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作之前,该基于MR头显设备的多用户交互实现方法还可以包括以下操作:
第一MR头显设备输出每个第二MR头显设备的用户的属性信息,以供第一MR头显设备的用户根据每个第二MR头显设备的属性信息从上述至少一个第二MR头显设备中选择需要建立交互连接的目标第二MR头显设备;
第一MR头显设备确定用户从上述至少一个第二MR头显设备中选择的目标第二MR头显设备,并触发执行上述根据上述交互指令建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作。
可见,该可选的实施例能够在确定出多个第二MR头显设备时使第一MR头显设备的用户根据每个第二MR头显设备的用户的属性信息选择合适的第二MR头显设备进行交互互连,更进一步的满足了MR头显设备的用户的互连需求。
在另一个可选的实施例中,该基于MR头显设备的多用户交互实现方法还可以包括以下操作:
第一MR头显设备判断上述实体景象中是否包含佩戴上述目标第二MR头显设备的用户,当判断出上述实体景象中包含佩戴上述目标第二MR头显设备的用户时,控制在上述虚拟景象中出现佩戴上述目标第二MR头显设备的用户的位置处的附近某一位置(如头部上方或肩部上方等)输出佩戴上述第二MR头显设备的用户的属性信息。
可见,该可选的实施例还能够在与目标第二MR头显设备建立交互连接之后,当第一MR头显设备的双摄像头捕捉到佩戴上述目标第二MR头显设备的用户时,显示佩戴上述第二MR头显设备的用户的属性信息,以方便第一MR头显设备的用户更好的与佩戴上述目标第二MR头显设备的用户更好的进行互动,进一步提高了互动体验。
在又一个可选的实施例中,在执行步骤201之前,该基于MR头显设备的多用户交互实现方法还可以包括以下操作:
第一MR头显设备检测在MR工作模式下是否存在由第一MR头显设备的用户触发的预设体感动作(即头部动作),当检测到在该MR工作模式下存在该预设体感动作时,触发执行上述在MR工作模式下定位其所处的当前地理位置的操作,该预设体感动作用于指示第一MR头显设备的用户存在交互需求,如在单位时间内的摇头次数达到预设次数阈值等。这样能够根据MR头显设备的用户的实际需求触发多用户交互的操作,更进一步提高了用户的使用体验。
可见,实施图2所描述的基于MR头显设备的多用户交互实现方法能够在MR工作模式下通过双摄像头捕捉实时景象,并将实时景象中的背景替换成虚拟数字空间(即3D虚拟景象)在实体环境中的映射,这种将虚拟数字空间与实体环境(又称物理环境,包括人物和景物)相结合的方式融合了VR和增强现实(Augmented Reality,AR)的功能,能够准确的识别出处于相同场景中的其它人物,提高了用户在使用MR头显设备时的安全性,给用户带来了更逼真更立体更安全的多样化互动体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,能够建立与佩戴MR头显设备的其它用户的交互连接,丰富了MR头显设备的交互功能,保证了多用户交互时的安全性,提高了用户的使用体验。
实施例三
请参阅图3,图3是本发明实施例公开的一种第一MR头显设备的结构示意图。如图3所示,该第一MR头显设备可以包括:
定位单元301,用于在MR工作模式下定位其所处的当前地理位置,其中,该MR工作模式为输出双摄像头捕捉到的实时景象中的实体景象以及与该实时景象中的背景景象相匹配的虚拟景象的工作模式,与实时景象中的背景景象相匹配的虚拟景象是从服务设备中获取到的。
通信单元302,用于将定位单元301定位得到的上述当前地理位置发送至服务设备,以触发服务设备接收上述当前地理位置,并判断上述当前地理位置中是否存在至少一个第二MR头显设备,当判断出存在至少一个第二MR头显设备时,向上述第一MR头显设备发送交互指令,该交互指令用于指示第一MR头显设备建立与至少一个第二MR头显设备的交互连接。
通信单元302,还用于接收上述服务设备发送的上述交互指令。
交互单元303,用于根据通信单元302接收到的交互指令,建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
在一个可选的实施例中,通信单元302,还用于在上述MR工作模式下向上述服务设备发送上述背景景象,以触发服务设备在判断出存在上述至少一个第二MR头显设备之后,识别上述背景景象中包括的至少三个特征点,并根据该至少三个特征点确定由该至少三个特征点组成的目标物理形状,以及判断从每个第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与该目标物理形状相匹配,当判断出相匹配时,触发执行上述向第一MR头显设备发送交互指令的操作。
在另一个可选的实施例中,上述交互指令可以包括每个第二MR头显设备的用户的属性信息,其中,该第一MR头显设备还可以包括输出单元304以及确定单元305,进一步可选的,还可以包括判断单元306以及控制单元307,此时,该第一MR头显设备的结构可以如图4所示,图4是本发明实施例公开的另一种第一MR头显设备的结构示意图。其中:
输出单元304,用于在通信单元302接收到上述交互指令之后以及在交互单元303根据通信单元302接收到的交互指令,建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接之前,输出每个第二MR头显设备的用户的属性信息,以供第一MR头显设备的用户根据每个第二MR头显设备的属性信息从上述至少一个第二MR头显设备中选择需要建立交互连接的目标第二MR头显设备。
本发明实施例中,输出单元304在输出每个第二MR头显设备的用户的属性信息之后,还可以触发启动确定单元305。
确定单元305,用于确定第一MR头显设备的用户从上述至少一个第二MR头显设备中选择的目标第二MR头显设备,并触发交互单元303执行上述的根据通信单元302接收到的交互指令,建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作。
判断单元306,用于判断上述实体景象中是否包含佩戴上述目标第二MR头显设备的用户。
控制单元307,用于当判断单元306判断出上述实体景象中包含佩戴上述目标第二MR头显设备的用户时,控制在上述虚拟景象中出现佩戴上述目标第二MR头显设备的用户的位置处的附近某一位置输出佩戴上述第二MR头显设备的用户的属性信息。
又进一步可选的,如图4所示,该第一MR头显设备还可以包括检测单元308,其中:
检测单元308,用于在定位单元301在MR工作模式下定位其所处的当前地理位置之前,检测在MR工作模式下是否存在由第一MR头显设备的用户触发的预设体感动作,当检测到在MR工作模式下存在该预设体感动作时,触发定位单元301执行上述的在MR工作模式下定位其所处的当前地理位置的操作,该预设体感动作用于指示第一MR头显设备的用户存在交互需求。
可见,实施图4或图5所描述的第一MR头显设备能够在MR工作模式下通过双摄像头捕捉实时景象,并将实时景象中的背景替换成虚拟数字空间(即3D虚拟景象)在实体环境中的映射,这种将虚拟数字空间与实体环境(又称物理环境,包括人物和景物)相结合的方式融合了VR和增强现实(Augmented Reality,AR)的功能,能够准确的识别出处于相同场景中的其它人物,提高了用户在使用MR头显设备时的安全性,给用户带来了更逼真更立体更安全的多样化互动体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,能够建立与佩戴MR头显设备的其它用户的交互连接,丰富了MR头显设备的交互功能,保证了多用户交互时的安全性,提高了用户的使用体验。
实施例四
请参阅图5,图5是本发明实施例公开的一种服务设备的结构示意图。如图5所示,该服务设备可以包括:
通信单元501,用于接收第一MR头显设备发送当前地理位置,其中,该第一MR头显设备为图3或图4所描述的第一MR头显设备。
判断单元502,用于判断上述当前地理位置中是否存在至少一个第二MR头显设备。
通信单元501,还用于当判断单元502判断出存在至少一个第二MR头显设备时,向上述第一MR头显设备发送交互指令,该交互指令用于指示第一MR头显设备建立与至少一个第二MR头显设备的交互连接。
在一个可选的实施例中,通信单元501,还可以用于接收上述第一MR头显设备发送的背景景象。
在该可选的实施例中,如图5所示,该服务设备还可以包括识别单元503以及确定单元504,其中:
识别单元503,用于在判断单元502判断出存在上述至少一个第二MR头显设备之后以及通信单元501向上述第一MR头显设备发送交互指令之前,识别上述背景景象中包括的至少三个特征点。
确定单元504,用于根据上述至少三个特征点确定由上述至少三个特征点组成的目标物理形状。
判断单元502,还可以用于判断从每个第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与上述目标物理形状相匹配,当判断出相匹配时,触发通信单元501执行上述向上述第一MR头显设备发送交互指令的操作。
可见,实施图5所描述的服务设备能够使第一MR头显设备在MR工作模式下通过双摄像头捕捉实时景象,并将实时景象中的背景替换成虚拟数字空间(即3D虚拟景象)在实体环境中的映射,这种将虚拟数字空间与实体环境(又称物理环境,包括人物和景物)相结合的方式融合了VR和增强现实(Augmented Reality,AR)的功能,能够准确的识别出处于相同场景中的其它人物,提高了用户在使用MR头显设备时的安全性,给用户带来了更逼真更立体更安全的多样化互动体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,能够建立与佩戴MR头显设备的其它用户的交互连接,丰富了MR头显设备的交互功能,保证了多用户交互时的安全性,提高了用户的使用体验。
实施例五
请参阅图6,图6是本发明实施例公开的一种基于MR头显设备的多用户交互实现系统的结构示意图。如图6所示,该基于MR头显设备的多用户交互实现系统可以包括服务设备以及第一MR头显设备,其中:
第一MR头显设备,用于在MR工作模式下定位其所处的当前地理位置,并将当前地理位置发送至服务设备,该MR工作模式为输出双摄像头捕捉到的实时景象中的实体景象以及与该实时景象中的背景景象相匹配的虚拟景象的工作模式,与该实时景象中的背景景象相匹配的虚拟景象是从服务设备中获取到的。
服务设备,用于接收上述当前地理位置,并判断上述当前地理位置中是否存在至少一个第二MR头显设备,当判断出存在至少一个第二MR头显设备时,向上述第一MR头显设备发送交互指令,该交互指令用于指示第一MR头显设备建立与至少一个第二MR头显设备的交互连接。
第一MR头显设备,还用于接收上述交互指令,并根据上述交互指令建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
在一个可选的实施例中,第一MR头显设备,还用于在MR工作模式下向服务设备发送上述背景景象。
服务设备,还用于接收第一MR头显设备发送的背景景象。
服务设备,还用于在判断出存在至少一个第二MR头显设备之后以及向第一MR头显设备发送交互指令之前,识别背景景象中包括的至少三个特征点,并根据至少三个特征点确定由至少三个特征点组成的目标物理形状,以及判断从每个第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与目标物理形状相匹配,当判断出相匹配时,触发执行上述向第一MR头显设备发送交互指令的操作。
在另一个可选的实施例中,上述交互指令包括每个第二MR头显设备的用户的属性信息,其中,第一MR头显设备,还用于在接收上述交互指令之后以及根据上述交互指令建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接之前,输出每个第二MR头显设备的用户的属性信息,以供第一MR头显设备的用户根据每个第二MR头显设备的属性信息从上述至少一个第二MR头显设备中选择需要建立交互连接的目标第二MR头显设备,以及确定第一MR头显设备的用户从上述至少一个第二MR头显设备中选择的目标第二MR头显设备,并触发执行上述根据上述交互指令建立与上述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作。
在又一个可选的实施例中,第一MR头显设备,还用于判断上述实体景象中是否包含佩戴上述目标第二MR头显设备的用户,当判断出上述实体景象中包含佩戴上述目标第二MR头显设备的用户时,控制在上述虚拟景象中出现佩戴上述目标第二MR头显设备的用户的位置处的附近某一位置输出佩戴上述第二MR头显设备的用户的属性信息。
在又一个可选的实施例中,第一MR头显设备,还用于检测在MR工作模式下是否存在由第一MR头显设备的用户触发的预设体感动作,当检测到在MR工作模式下存在预设体感动作时,触发执行上述在MR工作模式下定位其所处的当前地理位置的操作,该预设体感动作用于指示第一MR头显设备的用户存在交互需求。
可见,实施图6所描述的基于MR头显设备的多用户交互实现系统能够使第一MR头显设备在MR工作模式下通过双摄像头捕捉实时景象,并将实时景象中的背景替换成虚拟数字空间(即3D虚拟景象)在实体环境中的映射,这种将虚拟数字空间与实体环境(又称物理环境,包括人物和景物)相结合的方式融合了VR和增强现实(Augmented Reality,AR)的功能,能够准确的识别出处于相同场景中的其它人物,提高了用户在使用MR头显设备时的安全性,给用户带来了更逼真更立体更安全的多样化互动体验,且当在相同场景中存在佩戴MR头显设备的其它用户时,能够建立与佩戴MR头显设备的其它用户的交互连接,丰富了MR头显设备的交互功能,保证了多用户交互时的安全性,提高了用户的使用体验。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的一种基于MR头显设备的多用户交互实现方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于MR头显设备的多用户交互实现方法,其特征在于,所述方法包括:
第一MR头显设备在MR工作模式下定位其所处的当前地理位置,并将所述当前地理位置发送至服务设备,所述MR工作模式为输出双摄像头捕捉到的实时景象中的实体景象以及与所述实时景象中的背景景象相匹配的虚拟景象的工作模式,与所述实时景象中的背景景象相匹配的虚拟景象是从所述服务设备中获取到的;
所述服务设备接收所述当前地理位置,并判断所述当前地理位置中是否存在至少一个第二MR头显设备,当判断出存在所述至少一个第二MR头显设备时,向所述第一MR头显设备发送交互指令,所述交互指令用于指示所述第一MR头显设备建立与所述至少一个第二MR头显设备的交互连接;
所述第一MR头显设备接收所述交互指令,并根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
2.根据权利要求1所述的基于MR头显设备的多用户交互实现方法,其特征在于,所述方法还包括:
所述第一MR头显设备在所述MR工作模式下向所述服务设备发送所述背景景象;
所述服务设备接收所述背景景象;
在判断出存在所述至少一个第二MR头显设备之后,所述服务设备向所述第一MR头显设备发送交互指令之前,所述方法还包括:
所述服务设备识别所述背景景象中包括的至少三个特征点,并根据所述至少三个特征点确定由所述至少三个特征点组成的目标物理形状,以及判断从每个所述第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与所述目标物理形状相匹配,当判断出相匹配时,触发执行所述向所述第一MR头显设备发送交互指令的操作。
3.根据权利要求1或2所述的基于MR头显设备的多用户交互实现方法,其特征在于,所述交互指令包括每个所述第二MR头显设备的用户的属性信息;
所述第一MR头显设备接收所述交互指令之后,以及所述第一MR头显设备根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接之前,所述方法还包括:
所述第一MR头显设备输出每个所述第二MR头显设备的用户的属性信息,以供所述第一MR头显设备的用户根据每个所述第二MR头显设备的属性信息从所述至少一个第二MR头显设备中选择需要建立交互连接的目标第二MR头显设备;
所述第一MR头显设备确定所述第一MR头显设备的用户从所述至少一个第二MR头显设备中选择的所述目标第二MR头显设备,并触发执行所述根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作。
4.根据权利要求1或2所述的基于MR头显设备的多用户交互实现方法,其特征在于,所述方法还包括:
所述第一MR头显设备判断所述实体景象中是否包含佩戴所述目标第二MR头显设备的用户,当判断出所述实体景象中包含佩戴所述目标第二MR头显设备的用户时,控制在所述虚拟景象中出现佩戴所述目标第二MR头显设备的用户的位置处的附近某一位置输出佩戴所述第二MR头显设备的用户的属性信息。
5.根据权利要求1或2所述的基于MR头显设备的多用户交互实现方法,其特征在于,所述第一MR头显设备在MR工作模式下定位其所处的当前地理位置之前,所述方法还包括:
所述第一MR头显设备检测在MR工作模式下是否存在由所述第一MR头显设备的用户触发的预设体感动作,当检测到在所述MR工作模式下存在所述预设体感动作时,触发执行所述在MR工作模式下定位其所处的当前地理位置的操作,所述预设体感动作用于指示所述第一MR头显设备的用户存在交互需求。
6.一种基于MR头显设备的多用户交互实现系统,其特征在于,所述系统包括第一MR头显设备以及服务设备,其中:
所述第一MR头显设备,用于在MR工作模式下定位其所处的当前地理位置,并将所述当前地理位置发送至所述服务设备,所述MR工作模式为输出双摄像头捕捉到的实时景象中的实体景象以及与所述实时景象中的背景景象相匹配的虚拟景象的工作模式,与所述实时景象中的背景景象相匹配的虚拟景象是从所述服务设备中获取到的;
所述服务设备,用于接收所述当前地理位置,并判断所述当前地理位置中是否存在至少一个第二MR头显设备,当判断出存在所述至少一个第二MR头显设备时,向所述第一MR头显设备发送交互指令,所述交互指令用于指示所述第一MR头显设备建立与所述至少一个第二MR头显设备的交互连接;
所述第一MR头显设备,还用于接收所述交互指令,并根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接。
7.根据权利要求6所述的基于MR头显设备的多用户交互实现系统,其特征在于,所述第一MR头显设备,还用于在所述MR工作模式下向所述服务设备发送所述背景景象;
所述服务设备,还用于接收所述第一MR头显设备发送的所述背景景象;
所述服务设备,还用于在判断出存在所述至少一个第二MR头显设备之后以及向所述第一MR头显设备发送交互指令之前,识别所述背景景象中包括的至少三个特征点,并根据所述至少三个特征点确定由所述至少三个特征点组成的目标物理形状,以及判断从每个所述第二MR头显设备采集的实时景象中分离出的背景景象包括的特征点组成的物理性状是否与所述目标物理形状相匹配,当判断出相匹配时,触发执行所述向所述第一MR头显设备发送交互指令的操作。
8.根据权利要求6或7所述的基于MR头显设备的多用户交互实现系统,其特征在于,所述交互指令包括每个所述第二MR头显设备的用户的属性信息;
所述第一MR头显设备,还用于在接收所述交互指令之后以及根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接之前,输出每个所述第二MR头显设备的用户的属性信息,以供所述第一MR头显设备的用户根据每个所述第二MR头显设备的属性信息从所述至少一个第二MR头显设备中选择需要建立交互连接的目标第二MR头显设备,以及确定所述第一MR头显设备的用户从所述至少一个第二MR头显设备中选择的所述目标第二MR头显设备,并触发执行所述根据所述交互指令建立与所述至少一个第二MR头显设备中的目标第二MR头显设备的交互连接的操作。
9.根据权利要求6或7所述的基于MR头显设备的多用户交互实现系统,其特征在于,所述第一MR头显设备,还用于判断所述实体景象中是否包含佩戴所述目标第二MR头显设备的用户,当判断出所述实体景象中包含佩戴所述目标第二MR头显设备的用户时,控制在所述虚拟景象中出现佩戴所述目标第二MR头显设备的用户的位置处的附近某一位置输出佩戴所述第二MR头显设备的用户的属性信息。
10.根据权利要求6或7所述的基于MR头显设备的多用户交互实现系统,其特征在于,所述第一MR头显设备,还用于检测在MR工作模式下是否存在由所述第一MR头显设备的用户触发的预设体感动作,当检测到在所述MR工作模式下存在所述预设体感动作时,触发执行所述在MR工作模式下定位其所处的当前地理位置的操作,所述预设体感动作用于指示所述第一MR头显设备的用户存在交互需求。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710780392.1A CN107370831B (zh) | 2017-09-01 | 2017-09-01 | 基于mr头显设备的多用户交互实现方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710780392.1A CN107370831B (zh) | 2017-09-01 | 2017-09-01 | 基于mr头显设备的多用户交互实现方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107370831A true CN107370831A (zh) | 2017-11-21 |
CN107370831B CN107370831B (zh) | 2019-10-18 |
Family
ID=60311929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710780392.1A Active CN107370831B (zh) | 2017-09-01 | 2017-09-01 | 基于mr头显设备的多用户交互实现方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107370831B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947241A (zh) * | 2019-01-31 | 2019-06-28 | 广州思锋信息科技有限公司 | 交互应用中多方参与交互的控制方法及服务器 |
CN111781656A (zh) * | 2020-07-30 | 2020-10-16 | 广州市南方人力资源评价中心有限公司 | 头戴式显示设备的佩戴状态检测方法、装置、设备和介质 |
CN113010009A (zh) * | 2021-02-08 | 2021-06-22 | 北京蜂巢世纪科技有限公司 | 对象共享方法及装置 |
CN113382221A (zh) * | 2021-05-14 | 2021-09-10 | 异现实科技(成都)有限公司 | 单实例多终端云渲染系统及其方法 |
CN113965609A (zh) * | 2021-09-13 | 2022-01-21 | 武汉灏存科技有限公司 | 群控式交互系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105898694A (zh) * | 2016-04-06 | 2016-08-24 | 众景视界(北京)科技有限公司 | 用于定位及信息交互的方法、头戴式可视设备及服务器 |
CN106055113A (zh) * | 2016-07-06 | 2016-10-26 | 北京华如科技股份有限公司 | 一种混合现实的头盔显示系统及控制方法 |
US20170038829A1 (en) * | 2015-08-07 | 2017-02-09 | Microsoft Technology Licensing, Llc | Social interaction for remote communication |
CN106790579A (zh) * | 2016-12-28 | 2017-05-31 | 苏州商信宝信息科技有限公司 | 一种基于智能眼镜的主动式信息传输方法及其系统 |
CN107024995A (zh) * | 2017-06-05 | 2017-08-08 | 河北玛雅影视有限公司 | 多人虚拟现实交互系统及其控制方法 |
WO2017147111A1 (en) * | 2016-02-22 | 2017-08-31 | Google Inc. | Device pairing in augmented / virtual reality environment |
-
2017
- 2017-09-01 CN CN201710780392.1A patent/CN107370831B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170038829A1 (en) * | 2015-08-07 | 2017-02-09 | Microsoft Technology Licensing, Llc | Social interaction for remote communication |
WO2017147111A1 (en) * | 2016-02-22 | 2017-08-31 | Google Inc. | Device pairing in augmented / virtual reality environment |
CN105898694A (zh) * | 2016-04-06 | 2016-08-24 | 众景视界(北京)科技有限公司 | 用于定位及信息交互的方法、头戴式可视设备及服务器 |
CN106055113A (zh) * | 2016-07-06 | 2016-10-26 | 北京华如科技股份有限公司 | 一种混合现实的头盔显示系统及控制方法 |
CN106790579A (zh) * | 2016-12-28 | 2017-05-31 | 苏州商信宝信息科技有限公司 | 一种基于智能眼镜的主动式信息传输方法及其系统 |
CN107024995A (zh) * | 2017-06-05 | 2017-08-08 | 河北玛雅影视有限公司 | 多人虚拟现实交互系统及其控制方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947241A (zh) * | 2019-01-31 | 2019-06-28 | 广州思锋信息科技有限公司 | 交互应用中多方参与交互的控制方法及服务器 |
CN109947241B (zh) * | 2019-01-31 | 2023-03-21 | 广州思锋信息科技有限公司 | 交互应用中多方参与交互的控制方法及服务器 |
CN111781656A (zh) * | 2020-07-30 | 2020-10-16 | 广州市南方人力资源评价中心有限公司 | 头戴式显示设备的佩戴状态检测方法、装置、设备和介质 |
CN111781656B (zh) * | 2020-07-30 | 2023-09-15 | 广州市南方人力资源评价中心有限公司 | 头戴式显示设备的佩戴状态检测方法、装置、设备和介质 |
CN113010009A (zh) * | 2021-02-08 | 2021-06-22 | 北京蜂巢世纪科技有限公司 | 对象共享方法及装置 |
US11875080B2 (en) | 2021-02-08 | 2024-01-16 | Beijing SuperHexa Century Technology CO. Ltd. | Object sharing method and apparatus |
CN113382221A (zh) * | 2021-05-14 | 2021-09-10 | 异现实科技(成都)有限公司 | 单实例多终端云渲染系统及其方法 |
CN113965609A (zh) * | 2021-09-13 | 2022-01-21 | 武汉灏存科技有限公司 | 群控式交互系统及方法 |
CN113965609B (zh) * | 2021-09-13 | 2024-04-26 | 武汉灏存科技有限公司 | 群控式交互系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107370831B (zh) | 2019-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107370831A (zh) | 基于mr头显设备的多用户交互实现方法及系统 | |
CN105556508B (zh) | 虚拟镜子的装置、系统和方法 | |
KR101505060B1 (ko) | 가상 현실 연동 서비스 제공 시스템 및 그 방법 | |
CN104603719B (zh) | 扩增实境表面显示 | |
CN104519124B (zh) | 一种虚拟资源的分配方法以及装置 | |
CN109218619A (zh) | 图像获取方法、装置和系统 | |
CN106570822A (zh) | 一种人脸贴图方法及装置 | |
CN108109010A (zh) | 一种智能ar广告机 | |
CN110060052A (zh) | 基于电子凭证的互动方法及装置、电子设备 | |
CN108256432A (zh) | 一种指导化妆的方法及装置 | |
CN109117779A (zh) | 一种穿搭推荐方法、装置及电子设备 | |
CN109409319A (zh) | 一种宠物图像美化方法、装置及其存储介质 | |
CN109316747A (zh) | 游戏辅助信息提示方法、装置及电子设备 | |
CN109242940A (zh) | 三维动态图像的生成方法和装置 | |
CN107507280A (zh) | 基于mr头显设备的vr模式与ar模式的切换方法及系统 | |
CN107146275A (zh) | 一种设置虚拟形象的方法及装置 | |
CN106339084A (zh) | 虚拟现实设备的控制方法及系统 | |
CN107396084A (zh) | 一种基于双摄像头的mr实现方法及设备 | |
CN110174936A (zh) | 头戴式可视设备的控制方法、装置及设备 | |
CN106778454B (zh) | 人脸识别的方法和装置 | |
CN108109037A (zh) | 基于移动终端的模拟试衣方法、装置、系统及存储介质 | |
CN109150690A (zh) | 交互数据处理方法、装置、计算机设备和存储介质 | |
CN110083238A (zh) | 基于增强现实技术的人机互动方法与系统 | |
CN205540924U (zh) | 一种智能试衣装置 | |
CN108965101A (zh) | 会话消息处理方法、装置、存储介质和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |