CN107643820B - Vr被动型机器人及其实现方法 - Google Patents
Vr被动型机器人及其实现方法 Download PDFInfo
- Publication number
- CN107643820B CN107643820B CN201610574368.8A CN201610574368A CN107643820B CN 107643820 B CN107643820 B CN 107643820B CN 201610574368 A CN201610574368 A CN 201610574368A CN 107643820 B CN107643820 B CN 107643820B
- Authority
- CN
- China
- Prior art keywords
- model
- virtual
- data
- sound data
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明提供了一种VR被动型机器人,包括数据采集单元,包括设于实体模型的若干感应器,用于将用户对实体模型的触摸转换为电信号;虚拟模型,其与实体模型参数相同;定位系统,用于实现所述实体模型与虚拟模型在虚拟场景中的重叠;交互系统,预设执行脚本,以及与所述虚拟模型关联且储存有若干动作/声音数据和/或程序的数据库,所述动作/声音数据和/或程序与电信号具有对应关系;当所述实体模型接收到触摸时,所述虚拟模型根据产生的电信号与动作/声音数据的对应关系,在虚拟场景中执行对应的动作/声音数据和/或程序。本发明相应的提供了一种实现上述机器人的方法。借此,本发明可以大大提升用户在虚拟现实系统中的体验。
Description
技术领域
本发明涉及VR技术领域,尤其涉及一种VR被动型机器人及其实现方法。
背景技术
虚拟现实(Virtual Reality,简称VR,又译作灵境、幻真)是近年来出现的高新技术,也称灵境技术或人工环境。虚拟现实是利用电脑模拟产生一个三维空间的虚拟世界,提供使用者关于视觉、听觉、触觉等感官的模拟,让使用者如同身历其境一般,可以及时、没有限制地观察三度空间内的事物。
虚拟现实技术涉及计算机图形学、人机交互技术、传感技术、人工智能等领域,它用计算机生成逼真的三维视、听、嗅觉等感觉,使人作为参与者通过适当装置,自然地对虚拟世界进行体验和交互作用。使用者进行位置移动时,电脑可以立即进行复杂的运算,将精确的3D世界影像传回产生临场感。该技术集成了计算机图形(CG)技术、计算机仿真技术、人工智能、传感技术、显示技术、网络并行处理等技术的最新发展成果,是一种由计算机技术辅助生成的高技术模拟系统。概括地说,虚拟现实是人们通过计算机对复杂数据进行可视化操作与交互的一种全新方式,与传统的人机界面以及流行的视窗操作相比,虚拟现实在技术思想上有了质的飞跃。
当然,现有的虚拟现实技术,大多是创建一个虚拟的3D环境,实现视觉及听觉的满足,但缺少了对触觉的结合,用户体验还有待提升。
综上可知,现有技术在实际使用上显然存在不便与缺陷,所以有必要加以改进。
发明内容
针对上述的缺陷,本发明的目的在于提供一种虚拟现实系统及其实现方法,其可以大大提高用户在虚拟现实系统中的体验。
为了实现上述目的,本发明提供一种VR被动型机器人,包括
数据采集单元,包括设于实体模型的若干感应器,用于将用户对实体模型的触摸转换为电信号;
虚拟模型,其与实体模型参数相同;
定位系统,用于实现所述实体模型与虚拟模型在虚拟场景中的重叠;
交互系统,预设执行脚本,以及与所述虚拟模型关联且储存有若干动作/声音数据和/或程序的数据库,所述动作/声音数据和/或程序与电信号具有对应关系;
当所述实体模型接收到触摸时,所述虚拟模型根据产生的电信号与动作/声音数据和/或程序的对应关系,在虚拟场景中按预设脚本执行对应的动作/声音数据和/或程序。
根据本发明的VR被动型机器人,所述实体模型与虚拟模型为生物体模型或非生物体模型;
所述实体模型与虚拟模型为生物体模型时,所述数据库中包括与虚拟模型关联,且与电信号对应的表情数据。
根据本发明的VR被动型机器人,所述数据采集单元还包括:
表情采集装置,用于采集用户的面部表情数据;
声音采集装置,用于采集用户的声音数据;以及
湿度采集装置、温度采集装置、动作采集装置、时间采集装置、汗水成分采集装置、精液采集装置、肺活量采集装置及距离采集装置;
所述面部表情数据与声音数据均与所述数据库中的动作/声音数据具有对应关系。
根据本发明的VR被动型机器人,包括一数据处理单元,用于将所述电信号转化为数字信号并进行编码,发送到虚拟现实系统的unity引擎。
根据本发明的VR被动型机器人,所述定位系统包括:
激光定位器,用于获取所述实体生物模型在虚拟场景中位置的X轴坐标及Y轴坐标;
陀螺仪,用于获取所述实体生物模型的倾斜度。
本发明相应的提供一种VR被动型机器人的实现方法,包括以下步骤:
在实体模型中设置若干感应器,用于将用户对实体模型的触摸转换为电信号;
根据所述实体模型参数创建一虚拟模型;
将所述实体模型与虚拟模型在虚拟场景中实现重叠;
预设执行脚本,以及与所述虚拟模型关联且储存有若干动作/声音数据和/或程序的数据库,并建立动作/声音数据和/或程序与电信号对应关系;
当所述实体模型接收到触摸时,所述虚拟模型根据所述触摸产生的电信号与动作/声音数据和/或程序的对应关系,在虚拟现实系统中执行对应的动作/声音数据和/或程序。
根据本发明的方法,所述实体模型与虚拟模型为生物体模型或非生物体模型;
所述实体模型与虚拟模型为生物体模型时,所述数据库中包括与虚拟模型关联,且与电信号对应的表情数据。
根据本发明的方法,所述方法还包括:
预设用户面部表情数据及声音数据与所述数据库中的动作/声音数据的对应关系;
采集用户的面部表情数据;
采集用户的声音数据;
当系统接收到用户面部表情数据和/或声音数据时,所述虚拟生物模型根据所述表情数据和/或声音数据与数据库中的动作/声音/数据的对应关系,在虚拟场景中执行对应的动作/声音数据。
根据本发明的方法,所述方法还包括:
将所述电信号转化为数字信号并进行编码,发送到虚拟现实系统的unity引擎。
根据本发明的方法,所述将所述实体模型与虚拟模型在虚拟现实系统中的重叠步骤包括:
通过激光定位器获取所述实体生物模型在虚拟场景中位置的X轴坐标及Y轴坐标;
通过陀螺仪获取所述实体生物模型的倾斜度。
本发明提供了一种VR被动型机器人,包括数据采集单元,包括设于实体模型的若干感应器,用于将用户对实体模型的触摸转换为电信号;虚拟模型,其与实体模型参数相同;定位系统,用于实现所述实体模型与虚拟模型在虚拟场景中的重叠;交互系统,具有一与所述虚拟模型关联且储存有若干动作/声音数据和/或程序的数据库,所述动作/声音数据和/或程序与电信号具有对应关系;当所述实体模型接收到触摸时,所述虚拟模型根据产生的电信号与动作/声音数据和/或程序的对应关系,在虚拟场景中执行对应的动作/声音数据和/或程序。本发明相应的提供了一种实现上述机器人的方法。借此,本发明可以大大提升用户在虚拟现实系统中的体验。
附图说明
图1是本发明一实施例的系统结构示意图;
图2是本发明另一实施例的系统结构示意图;
图3是本发明一实施例的方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参见图1和图2,本发明提供了一种VR被动型机器人,其是以虚拟现实设备为基础进行的融合和改进,所述虚拟现实设备可以为建模设备、三维视觉显示设备、声音设备以及交互设备中的任一种。具体的,本发明的VR被动型机器人包括:
数据采集单元10,包括设于实体模型的若干感应器,用于将用户对实体模型的触摸转换为电信号;
虚拟模型20,其与实体模型参数相同。
本发明的一实施例中,虚拟模型20与实体模型的大小、形状及结构组成均相同。本发明中,即可以由计算机设备根据所述实体模型的参数创建虚拟模型20,也可以预先设计虚拟模型20,并根据该虚拟模型20的参数制作实体模型。并且所述实体模型与虚拟模型可以为生物体模型或非生物体模型。
定位系统30,用于实现所述实体模型与虚拟模型20在虚拟场景中的重叠。
所述定位系统30包括激光定位器31及陀螺仪32,激光定位器31用于获取所述实体生物模型10在虚拟场景中位置的X轴坐标及Y轴坐标;陀螺仪32用于获取所述实体生物模型的倾斜度。借助于上述数据与虚拟环境数据的结合,实现实体与虚拟的重叠。当然,本发明所述的重叠不仅限于位置的重叠,还在于初始大小形状的重叠。
交互系统40,预设执行脚本,以及具有一与所述虚拟模型20关联且储存有若干动作/声音数据和/或程序的数据库,所述动作/声音数据和/或程序与电信号具有对应关系。当所述实体模型接收到触摸时,所述虚拟模型根据产生的电信号与动作/声音数据和/或程序的对应关系,在虚拟场景中按预设脚本执行对应的动作/声音数据和/或程序。并且当所述实体模型与虚拟模型为生物体模型时,所述数据库中包括与虚拟模型关联,且与电信号对应的表情数据。需要说明的,本发明所述的执行脚本是为方便建立动作/声音数据和/或程序与电信号对应关系的应用程序,其并非独立化的结构或模块,也就是说,数据库中的各预设数据或程序是根据预设脚本的规则与电信号建立关联的。
实体模型在接收到触摸时将其转化为模拟的电信号,而本发明预置有一数据处理单元50,其将所述电信号转化为数字信号并进行编码,形成交互数据,然后发送到虚拟现实系统的unity引擎。交互系统中数据库中的动作/声音数据实际是与编码后的交互数据直接对应,而对原始的电信号是间接对应。
实体模型和虚拟模型即可以为生物模型也可以为非生物模型,生物模型的制作材料采用硅胶制成,其加工制作是现有技术,在此不再赘述。以人体模型为例,在实体模型的预定位置设置感应器,比如在手部、颈部、腿部等任何位置均可设置。再如宠物狗模型,可以将触摸传感器设置在尾巴、头部等部位。对于非生物体模型,比如玩具汽车,可以设置在车门、车头及车尾等部位。
由于本发明建立了实体模型与虚拟模型的重叠,用户在虚拟场景中可以触碰到实体模型,并且通过信号数据的传输与转化,最终实现为虚拟模型的互动。
以生物模型为例,比如玩具狗模型,实体模型采集到用户对其的抚摸数据后,通过数据处理单元50处理后传送到交互系统40。基于交互系统40预设的数据库,虚拟玩具狗模型执行对应的动作/声音/表情数据和/或程序。再以人体模型为例,用户触摸了一下实体模型的某个位置,并且该触摸产生的电信号(包括位置及力度的感应,均为现有技术)对应数据库中的“微笑”数据,则虚拟模型20会执行相应数据,系统根据数据实时计算,控制其骨骼、肌肉或器官作出对应的变化,对用户“微笑”。也就是说,本发明的系统中,用户触摸到的是实体模型,但看到的是虚拟生物模型20,使得用户与实体模型的互动更具真实性。
更好的,为提升体验,本发明的被动型机器人还可以设置:
表情采集装置,用于采集用户的面部表情数据;
声音采集装置,用于采集用户的声音数据;以及
湿度采集装置、温度采集装置、动作采集装置、时间采集装置、汗水成分采集装置、精液采集装置、肺活量采集装置及距离采集装置,以分别用于采集对应的数据。
所述面部表情数据与声音数据均与所述数据库中的动作/声音/表情数据具有对应关系,借此,当用户在系统中互动时,虚拟模型20可以根据用户对实体模型的表情和/或声音数据进行回应,便得模拟更加逼真,进一步提高用户体验。
参见图3,本发明提供了一种VR被动型机器人的实现方法,其包括如下步骤:
步骤S301,在实体模型中设置若干感应器,用于将用户对实体模型的触摸转换为电信号。
步骤S302,根据所述实体模型参数创建一虚拟模型。
本发明的一实施例中,虚拟模型20与实体模型的大小、形状及结构组成均相同。本发明中,即可以由计算机设备根据所述实体模型的参数创建虚拟模型20,也可以预先设计虚拟模型20,并根据该虚拟模型20的参数制作实体模型。并且所述实体模型与虚拟模型可以为生物体模型或非生物体模型。
步骤S303,将所述实体模型与虚拟模型在虚拟场景中实现重叠。
该步骤通过定位系统30实现,所述定位系统30包括激光定位器31及陀螺仪32,激光定位器31用于获取所述实体生物模型10在虚拟场景中位置的X轴坐标及Y轴坐标;陀螺仪32用于获取所述实体生物模型的倾斜度。借助于上述数据与虚拟环境数据的结合,实现实体与虚拟的重叠。当然,本发明所述的重叠不仅限于位置的重叠,还在于初始大小形状的重叠。
步骤S304,预设执行脚本,以及与所述虚拟模型关联且储存有若干动作/声音数据和/或程序的数据库,并建立动作/声音数据和/或程序与电信号对应关系。当所述实体模型接收到触摸信号时,所述虚拟模型根据所述触摸信号与数据库的对应关系,在虚拟现实系统中执行对应的动作/声音数据和/或程序。并且当所述实体模型与虚拟模型为生物体模型时,所述数据库中包括与虚拟模型关联,且与电信号对应的表情数据。
实体模型在接收到触摸时将其转化为模拟的电信号,而本发明预置有一数据处理单元50,其将所述电信号转化为数字信号并进行编码,形成交互数据,然后发送到虚拟现实系统的unity引擎。交互系统中数据库中的动作/声音数据实际是与编码后的交互数据直接对应,而对原始的电信号是间接对应。
实体模型和虚拟模型即可以为生物模型也可以为非生物模型,生物模型的制作材料采用硅胶制成,其加工制作是现有技术,在此不再赘述。以人体模型为例,在实体模型的预定位置设置感应器,比如在手部、颈部、腿部等任何位置均可设置。再如宠物狗模型,可以将触摸传感器设置在尾巴、头部等部位。对于非生物体模型,比如玩具汽车,可以设置在车门、车头及车尾等部位。
另外,为提供用户体验,本发明可以预设面部表情数据与声音数据与所述数据库中的动作/声音/表情数据的对应关系,借此,当用户在互动时,虚拟模型20可以根据用户对实体模型的表情和/或声音数据进行回应,便得模拟更加逼真,进一步提高用户体验。
综上所述,本发明提供了一种VR被动型机器人,包括数据采集单元,包括设于实体模型的若干感应器,用于将用户对实体模型的触摸转换为电信号;虚拟模型,其与实体模型参数相同;定位系统,用于实现所述实体模型与虚拟模型在虚拟场景中的重叠;交互系统,具有一与所述虚拟模型关联且储存有若干动作/声音数据的数据库,所述动作/声音数据与电信号具有对应关系;当所述实体模型接收到触摸时,所述虚拟模型根据产生的电信号与动作/声音数据的对应关系,在虚拟场景中执行对应的动作/声音数据。本发明相应的提供了一种实现上述机器人的方法。借此,本发明可以大大提升用户在虚拟现实系统中的体验。
当然,本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (10)
1.一种VR被动型机器人,其特征在于,包括
数据采集单元,包括设于实体模型的若干感应器,用于将用户对实体模型的触摸转换为电信号;
虚拟模型,其与实体模型参数相同;
定位系统,用于实现所述实体模型与虚拟模型在虚拟场景中的重叠;
交互系统,预设执行脚本,以及与所述虚拟模型关联且储存有若干动作和声音数据和/或程序的数据库,所述动作和声音数据和/或程序与电信号具有对应关系;
当所述实体模型接收到触摸时,所述虚拟模型根据产生的电信号与动作和声音数据的对应关系,在虚拟场景中按预设脚本执行对应的动作和声音数据和/或程序。
2.根据权利要求1所述的VR被动型机器人,其特征在于,所述实体模型与虚拟模型为生物体模型或非生物体模型;
所述实体模型与虚拟模型为生物体模型时,所述数据库中包括与虚拟模型关联,且与电信号对应的表情数据。
3.根据权利要求2所述的VR被动型机器人,其特征在于,所述数据采集单元还包括:
表情采集装置,用于采集用户的面部表情数据;
声音采集装置,用于采集用户的声音数据;以及
湿度采集装置、温度采集装置、动作采集装置、时间采集装置、汗水成分采集装置、精液采集装置、肺活量采集装置及距离采集装置;
所述面部表情数据与声音数据均与所述数据库中的动作和声音数据具有对应关系。
4.根据权利要求1所述的VR被动型机器人,其特征在于,包括一数据处理单元,用于将所述电信号转化为数字信号并进行编码,发送到虚拟现实系统的unity引擎。
5.根据权利要求1~4任一项所述的VR被动型机器人,其特征在于,所述定位系统包括:
激光定位器,用于获取所述实体模型在虚拟场景中位置的X轴坐标及Y轴坐标;
陀螺仪,用于获取所述实体模型的倾斜度。
6.一种VR被动型机器人的实现方法,其特征在于,包括以下步骤:
在实体模型中设置若干感应器,用于将用户对实体模型的触摸转换为电信号;
根据所述实体模型参数创建一虚拟模型;
将所述实体模型与虚拟模型在虚拟场景中实现重叠;
预设执行脚本,以及与所述虚拟模型关联且储存有若干动作和声音数据和/或程序的数据库,并建立动作和声音数据和/或程序与电信号对应关系;
当所述实体模型接收到触摸信号时,所述虚拟模型根据所述触摸信号与动作和声音数据的对应关系,在虚拟现实系统中按预设脚本执行对应的动作和声音数据数据和/或程序。
7.根据权利要求6所述的方法,其特征在于,所述实体模型与虚拟模型为生物体模型或非生物体模型;
所述实体模型与虚拟模型为生物体模型时,所述数据库中包括与虚拟模型关联,且与电信号对应的表情数据。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
预设用户面部表情数据及声音数据与所述数据库中的动作和声音数据的对应关系;
采集用户的面部表情数据;
采集用户的声音数据;
当系统接收到用户面部表情数据和/或声音数据时,所述虚拟模型根据所述表情数据和/或声音数据与数据库中的动作和声音数据和/或程序的对应关系,在虚拟场景中执行对应的动作和声音数据和/或程序。
9.根据权利要求6所述的方法,其特征在于,所述方法还包括:
将所述电信号转化为数字信号并进行编码,发送到虚拟现实系统的unity引擎。
10.根据权利要求6~9任一项所述的方法,其特征在于,所述将所述实体模型与虚拟模型在虚拟现实系统中的重叠步骤包括:
通过激光定位器获取所述实体模型在虚拟场景中位置的X轴坐标及Y轴坐标;
通过陀螺仪获取所述实体模型的倾斜度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610574368.8A CN107643820B (zh) | 2016-07-20 | 2016-07-20 | Vr被动型机器人及其实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610574368.8A CN107643820B (zh) | 2016-07-20 | 2016-07-20 | Vr被动型机器人及其实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107643820A CN107643820A (zh) | 2018-01-30 |
CN107643820B true CN107643820B (zh) | 2020-11-06 |
Family
ID=61109527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610574368.8A Active CN107643820B (zh) | 2016-07-20 | 2016-07-20 | Vr被动型机器人及其实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107643820B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874123A (zh) * | 2018-05-07 | 2018-11-23 | 北京理工大学 | 一种通用的模块化的虚拟现实被动力触觉反馈系统 |
CN109144256B (zh) * | 2018-08-20 | 2019-08-23 | 广州市三川田文化科技股份有限公司 | 一种虚拟现实行为互动方法及装置 |
CN110209264B (zh) * | 2019-03-28 | 2022-07-05 | 钟炜凯 | 一种行为数据处理系统及方法 |
CN114415827A (zh) * | 2021-12-20 | 2022-04-29 | 北京理工大学 | 一种为虚拟物体提供实体交互的方法、系统及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5629594A (en) * | 1992-12-02 | 1997-05-13 | Cybernet Systems Corporation | Force feedback system |
CN1313781A (zh) * | 1999-04-30 | 2001-09-19 | 索尼公司 | 电子宠物系统、网络系统、机器人以及存储介质 |
CN101794349A (zh) * | 2010-02-09 | 2010-08-04 | 北京邮电大学 | 机器人遥操作增强现实实验系统及方法 |
CN103495981A (zh) * | 2013-09-29 | 2014-01-08 | 中山大学 | 一种基于触觉传感器的机械手 |
CN103646425A (zh) * | 2013-11-20 | 2014-03-19 | 深圳先进技术研究院 | 一种体感交互的方法及系统 |
CN103869983A (zh) * | 2014-03-26 | 2014-06-18 | 南京信息工程大学 | 一种用于力触觉人机交互的柔性物体变形仿真方法 |
CN104517016A (zh) * | 2013-09-28 | 2015-04-15 | 南京专创知识产权服务有限公司 | 一种体感技术和虚拟现实技术的手术模拟系统 |
CN105407774A (zh) * | 2013-07-29 | 2016-03-16 | 三星电子株式会社 | 自动清扫系统、清扫机器人和控制清扫机器人的方法 |
-
2016
- 2016-07-20 CN CN201610574368.8A patent/CN107643820B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5629594A (en) * | 1992-12-02 | 1997-05-13 | Cybernet Systems Corporation | Force feedback system |
CN1313781A (zh) * | 1999-04-30 | 2001-09-19 | 索尼公司 | 电子宠物系统、网络系统、机器人以及存储介质 |
CN101794349A (zh) * | 2010-02-09 | 2010-08-04 | 北京邮电大学 | 机器人遥操作增强现实实验系统及方法 |
CN105407774A (zh) * | 2013-07-29 | 2016-03-16 | 三星电子株式会社 | 自动清扫系统、清扫机器人和控制清扫机器人的方法 |
CN104517016A (zh) * | 2013-09-28 | 2015-04-15 | 南京专创知识产权服务有限公司 | 一种体感技术和虚拟现实技术的手术模拟系统 |
CN103495981A (zh) * | 2013-09-29 | 2014-01-08 | 中山大学 | 一种基于触觉传感器的机械手 |
CN103646425A (zh) * | 2013-11-20 | 2014-03-19 | 深圳先进技术研究院 | 一种体感交互的方法及系统 |
CN103869983A (zh) * | 2014-03-26 | 2014-06-18 | 南京信息工程大学 | 一种用于力触觉人机交互的柔性物体变形仿真方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107643820A (zh) | 2018-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107643820B (zh) | Vr被动型机器人及其实现方法 | |
CN103258078B (zh) | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统及装配方法 | |
KR100727034B1 (ko) | 3차원 공간상에서 2차원 인간형 캐릭터의 표현 및애니메이션 방법 | |
CN107632699B (zh) | 基于多感知数据融合的人机自然交互系统 | |
CN108983636B (zh) | 人机智能共生平台系统 | |
CN110599603A (zh) | 基于增强现实的机械设备可视化交互与设备状态监控系统及其方法 | |
CN102789313A (zh) | 一种用户交互系统和方法 | |
CN102831380A (zh) | 一种基于深度图像感应的肢体动作识别方法及系统 | |
CN103578135A (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统及实现方法 | |
CN109460150A (zh) | 一种虚拟现实人机交互系统及方法 | |
CN104656893A (zh) | 一种信息物理空间的远程交互式操控系统及方法 | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
CN113262465A (zh) | 一种虚拟现实交互方法、设备及系统 | |
CN108828996A (zh) | 一种基于视觉信息的机械臂遥操作系统及方法 | |
CN115309264A (zh) | 一种面向虚拟和物理世界连接构建系统 | |
CN110442233A (zh) | 一种基于手势交互的增强现实键鼠系统 | |
CN203630822U (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统 | |
CN110503707A (zh) | 一种真人动作捕捉实时动画系统及其方法 | |
CN107632702B (zh) | 一种采用光感应数据手套的全息投影系统及其工作方法 | |
CN114169546A (zh) | 一种基于深度学习的mr远程协同装配系统及方法 | |
CN111134974B (zh) | 一种基于增强现实和多模态生物信号的轮椅机器人系统 | |
CN105955488B (zh) | 一种操控终端的方法和装置 | |
CN108459716B (zh) | 一种在vr中实现多人协作完成任务的方法 | |
CN109426336A (zh) | 一种虚拟现实辅助选型设备 | |
CN115714000B (zh) | 一种康复训练评估方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |