CN108509024B - 一种基于虚拟现实设备的数据处理方法和装置 - Google Patents
一种基于虚拟现实设备的数据处理方法和装置 Download PDFInfo
- Publication number
- CN108509024B CN108509024B CN201810073700.1A CN201810073700A CN108509024B CN 108509024 B CN108509024 B CN 108509024B CN 201810073700 A CN201810073700 A CN 201810073700A CN 108509024 B CN108509024 B CN 108509024B
- Authority
- CN
- China
- Prior art keywords
- information
- sensor
- pose
- posture information
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种基于虚拟现实设备的数据处理方法和装置,虚拟现实设备包括穿戴设备和手柄设备,穿戴设备包括与人体大臂对应的第一传感器、与人体小臂对应的第二传感器;所述方法包括:获取穿戴设备发送的第一姿态信息和第二姿态信息;其中,第一姿态信息为所述穿戴设备依据所述第一传感器测量的第一传感数据生成的姿态信息,第二姿态信息为穿戴设备依据第二传感器测量的第二传感数据生成的姿态信息;获取手柄设备发送的第三姿态信息;基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整。通过本发明实施例,实现了基于手柄设备和穿戴设备采集的姿态信息对虚拟现实空间的位姿调整,提升了位姿调整的准确性。
Description
技术领域
本发明涉及虚拟现实技术领域,特别是涉及一种基于虚拟现实设备的数据处理方法和装置。
背景技术
虚拟现实(Virtual Reality,VR)技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,该模拟环境是一种多源信息融合的、交互式的三维动态视景和对实体行为的系统仿真。
实际上,虚拟现实是多种技术的综合,包括实时三维计算机图形技术,广角(宽视野)立体显示技术,对观察者头、眼和手的跟踪技术,以及触觉/力觉反馈、立体声、网络传输、语音输入输出技术等,采用虚拟现实技术可以使用户在虚拟现实空间中达到沉浸式体验。
目前,操控虚拟现实空间的设备通常为遥控手柄,而单一的遥控手柄并不能够准确追踪手臂运动,进而导致基于遥控手柄对虚拟现实空间的操控不准确,无法给用户带来良好的沉浸感。
发明内容
鉴于上述问题,提出了本发明实施例以便提供克服上述问题或者至少部分地解决上述问题的一种基于虚拟现实设备的数据处理方法和装置。
为了解决上述问题,本发明实施例公开了一种基于虚拟现实设备的数据处理方法,所述虚拟现实设备包括穿戴设备和手柄设备,所述穿戴设备包括与人体大臂对应的第一传感器、与人体小臂对应的第二传感器;
所述方法包括:
获取所述穿戴设备发送的第一姿态信息和第二姿态信息;其中,所述第一姿态信息为所述穿戴设备依据所述第一传感器测量的第一传感数据生成的姿态信息,所述第二姿态信息为所述穿戴设备依据所述第二传感器测量的第二传感数据生成的姿态信息;
获取所述手柄设备发送的第三姿态信息;
基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整。
可选地,所述基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整的步骤包括:
依据所述第二姿态信息和所述第三姿态信息,确定第四姿态信息;其中,所述第二姿态信息包括第二俯仰角,所述第三姿态信息包括第三俯仰角、第三偏航角,以及第三翻滚角,所述第四姿态信息包括第二俯仰角、第三偏航角,以及第三翻滚角;
基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息;
按照所述第一姿态信息、所述第三姿态信息、所述第四姿态信息,以及所述方位信息,在虚拟现实空间中进行位姿调整。
可选地,所述基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息的步骤包括:
将所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息输入预置的人体骨骼模型;
获取所述人体骨骼模型输出的方位信息。
可选地,所述方位信息包括肘关节坐标、腕关节坐标,以及指端坐标,所述人体骨骼模型采用如下方式计算方位信息:
以肩关节为坐标原点,将第一姿态信息与预置的大臂长度进行四元数乘运算,得到肘关节坐标;
将所述第四姿态信息与预置的小臂长度进行四元数乘运算,并结合所述肘关节坐标,得到腕关节坐标;
将所述第三姿态信息与预置的手部长度进行四元数乘运算,并结合所述腕关节坐标,得到指端坐标。
可选地,所述穿戴设备还包括第一处理器和第一通信模块,所述第一处理器分别与所述第一传感器、所述第二传感器连接,所述手柄设备包括第二处理器、第二通信模块,以及与所述第二处理器连接的第三传感器。
可选地,所述第一传感器与所述第二传感器为不同类型的传感器,所述第一传感器包括惯性传感器,所述第二传感器包括弯曲传感器。
本发明实施例还公开了一种基于虚拟现实设备的数据处理装置,所述虚拟现实设备包括穿戴设备和手柄设备,所述穿戴设备包括与人体大臂对应的第一传感器、与人体小臂对应的第二传感器;
所述装置包括:
穿戴设备信息获取模块,用于获取所述穿戴设备发送的第一姿态信息和第二姿态信息;其中,所述第一姿态信息为所述穿戴设备依据所述第一传感器测量的第一传感数据生成的姿态信息,所述第二姿态信息为所述穿戴设备依据所述第二传感器测量的第二传感数据生成的姿态信息;
手柄设备信息模块,用于获取所述手柄设备发送的第三姿态信息;
位姿调整模块,用于基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整。
可选地,所述位姿调整模块包括:
第四姿态信息确定子模块,用于依据所述第二姿态信息和所述第三姿态信息,确定第四姿态信息;其中,所述第二姿态信息包括第二俯仰角,所述第三姿态信息包括第三俯仰角、第三偏航角,以及第三翻滚角,所述第四姿态信息包括第二俯仰角、第三偏航角,以及第三翻滚角;
方位信息确定子模块,用于基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息;
位姿调整子模块,用于按照所述第一姿态信息、所述第三姿态信息、所述第四姿态信息,以及所述方位信息,在虚拟现实空间中进行位姿调整。
可选地,所述方位信息确定子模块包括:
输入单元,用于将所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息输入预置的人体骨骼模型;
输出单元,用于获取所述人体骨骼模型输出的方位信息。
可选地,所述方位信息包括肘关节坐标、腕关节坐标,以及指端坐标,所述人体骨骼模型采用如下方式计算方位信息:
以肩关节为坐标原点,将第一姿态信息与预置的大臂长度进行四元数乘运算,得到肘关节坐标;
将所述第四姿态信息与预置的小臂长度进行四元数乘运算,并结合所述肘关节坐标,得到腕关节坐标;
将所述第三姿态信息与预置的手部长度进行四元数乘运算,并结合所述腕关节坐标,得到指端坐标。
可选地,所述穿戴设备还包括第一处理器和第一通信模块,所述第一处理器分别与所述第一传感器、所述第二传感器连接,所述手柄设备包括第二处理器、第二通信模块,以及与所述第二处理器连接的第三传感器。
可选地,所述第一传感器与所述第二传感器为不同类型的传感器,所述第一传感器包括惯性传感器,所述第二传感器包括弯曲传感器。
本发明实施例包括以下优点:
在本发明实施例中,虚拟现实设备可以包括穿戴设备和手柄设备,穿戴设备可以包括与人体大臂对应的第一传感器、与人体小臂对应的第二传感器,通过获取穿戴设备依据第一传感器测量的第一传感数据生成的第一姿态信息,以及穿戴设备依据第二传感器测量的第二传感数据生成的第二姿态信息,并获取手柄设备发送的第三姿态信息,然后基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整,实现了基于手柄设备和穿戴设备采集的姿态信息对虚拟现实空间的位姿调整,提升了位姿调整的准确性。
而且,通过结合基于与人体小臂对应的第二传感器生成的第二姿态信息,及手柄设备生成的第三姿态信息,确定人体小臂对应的第四姿态信息,既减少了传感器采集的数据量,又降低了姿态解算的复杂度,提升了系统效率,且降低虚拟现实设备对芯片处理能力的要求。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的一种虚拟现实设备的结构示意图;
图2是本发明实施例的一种基于虚拟现实设备的数据处理方法的步骤流程图;
图3是本发明实施例的一种基于人体骨骼的坐标示意图;
图4是本发明实施例的一种基于虚拟现实设备的数据处理装置的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,示出了本发明实施例的一种虚拟现实设备的结构示意图。
在本发明实施例中,虚拟现实设备可以包括虚拟现实机体101,以及与虚拟现实机体101连接的手柄设备102和穿戴设备103,穿戴设备103可以包括与人体大臂对应的第一传感器1031、与人体小臂对应的第二传感器1032。
其中,第一传感器1031与第二传感器1032可以为不同类型的传感器。
作为一种示例,第一传感器1031可以包括惯性传感器,可以用于测量大臂运动的角速度和线、加速度等物理参数的变化。
第二传感器1032可以包括弯曲传感器,可以用于测量小臂的弯曲度。
在本发明一种优选实施例中,穿戴设备103还可以包括第一处理器1033和与第一处理器1033连接的第一通信模块1034,第一处理器1033可以分别与第一传感器1031、第二传感器1032连接。
需要说明的是,第一处理器1033可以采用有线传输方式与第一传感器1031、第二传感器1032进行连接,也可以采用无线传输方式与第一传感器1031、第二传感器1032进行连接,本发明对此不作限制。
手柄设备102可以包括第二处理器1021,以及与第二处理器1021连接的第二通信模块1022和第三传感器1023。
虚拟现实机体101可以包括第三处理器1011,以及与第三处理器1011连接的第三通信模块1012。
在本发明一种优选实施例中,第一通信模块1034、第二通信模块1022,以及第三通信模块1012之间可以采用无线传输方式进行通信,其也可以采用有线传输方式进行通信。
作为一种示例,无线传输方式可以包括以下的一种或多种:
以太网;
以太网(Ethernet)是一种计算机局域网组网技术,采用无源的介质,按广播方式传播信息。它规定了物理层和数据链路层协议,规定了物理层和数据链路层的接口以及数据链路层与更高层的接口。其标准拓扑结构为总线型拓扑,但目前的快速以太网(100BASE-T、1000BASE-T标准)为了最大程度的减少冲突,最大程度的提高网络速度和使用效率,使用交换机(Switch hub)来进行网络连接和组织,这样,以太网的拓扑结构就成了星型,但在逻辑上,以太网仍然使用总线型拓扑和CSMA/CD(Carrier Sense Multiple Access/Collision Detect即带冲突检测的载波监听多路访问)的总线争用技术。
蓝牙;
蓝牙,是一种支持设备短距离通信(一般10m内)的无线电技术。能在包括移动电话、PDA、无线耳机、笔记本电脑、相关外设等众多设备之间进行无线信息交换。
利用“蓝牙”技术,能够有效地简化移动通信终端设备之间的通信,也能够成功地简化设备与因特网Internet之间的通信,从而数据传输变得更加迅速高效,为无线通信拓宽道路。
蓝牙采用分散式网络结构以及快跳频和短包技术,支持点对点及点对多点通信,工作在全球通用的2.4GHz ISM(即工业、科学、医学)频段。其数据速率为1Mbps。采用时分双工传输方案实现全双工传输。
2.4G无线网络;
2.4G无线网络频段属于ISM频段,它是全球范围内被广泛使用的超低辐射绿色环保频段;具有125个通迅信道,因为2.4G无线网络通迅更通畅,多个通迅指令间不会相互干扰;2.4G无线网格带宽传速率最高可以达到108Mbps,因此它的传输速度很快;它的传输距离相对较远(空旷地带:200m有效传输距离),且不受传输方的影响,支持双向通迅。
红外线;
红外是红外线的简称,是一种无线通讯方式,可以进行无线数据的传输。红外接口是新一代手机的配置标准,它支持手机与电脑以及其他数字设备进行数据交流.红外通讯有着成本低廉、连接方便、简单易用和结构紧凑的特点,因此在小型的移动设备中获得了广泛的应用。通过红外接口,各类移动设备可以自由进行数据交换。
无线网络协议ZigBee;
Zigbee是基于IEEE802.15.4标准的一种低速短距离传输的无线网络协议。协议从下到上分别为物理层(PHY)、媒体访问控制层(MAC)、传输层(TL)、网络层(NWK)、应用层(APL)等。其中物理层和媒体访问控制层遵循IEEE802.15.4标准的规定。
ZigBee网络主要特点是低功耗、低成本、低速率、支持大量节点、支持多种网络拓扑、低复杂度、快速、可靠、安全。ZigBee网络中设备的可分为协调器(Coordinator)、汇聚节点(Router)、传感器节点(EndDevice)等三种角色。
当然,上述传输方式只是作为示例,在实施本发明实施例时,可以根据实际情况设置其他传输方式,本发明实施例对此不加以限制。
在本发明实施例中,通过设置虚拟现实设备包括虚拟现实机体101,以及与虚拟现实机体101连接的手柄设备102和穿戴设备103,且设置穿戴设备103包括与人体大臂对应的第一传感器1031、与人体小臂对应的第二传感器1032,提供了一种多器件组合的虚拟现实设备,弥补了单一手柄传感的缺陷,且通过结合手柄设备和穿戴设备能够实现对运动轨迹的准确追踪,进而能够准确操控虚拟现实空间,给用户带来良好的沉浸感。
参照图2,示出了本发明实施例的一种基于虚拟现实设备的数据处理方法的步骤流程图,具体可以包括如下步骤:
步骤201,获取所述穿戴设备发送的第一姿态信息和第二姿态信息;
其中,第一姿态信息可以为穿戴设备依据第一传感器测量的第一传感数据生成的姿态信息,其可以用于表征人体大臂姿态。
第二姿态信息可以为穿戴设备依据所述第二传感器测量的第二传感数据生成的姿态信息,其用于表征人体小臂姿态。
由于穿戴设备中的第一传感器与人体大臂对应,第二传感器与人体小臂对应,当在手臂上戴上穿戴设备后,穿戴设备可以检测手臂的运动,生成相应的姿态信息,并发送至虚拟现实机体。
在具体实现中,第一传感器可以检测大臂运动,生成第一传感数据,然后将第一传感数据发送至第一处理器,第一处理器可以依据第一传感数据生成第一姿态信息,并发送至第一通信模块,由第一通信模块发送至位于虚拟现实机体中的第三通信模块。
第二传感器可以检测小臂运动,生成第二传感数据,然后将第二传感数据发送至第一处理器,第一处理器可以依据第二传感数据生成第二姿态信息,并发送至第一通信模块,由第一通信模块发送至位于虚拟现实机体中的第三通信模块。
由于第一传感器与第二传感器为不同类型的传感器,第一传感器采集的第一传感数据可以包括加速度、角速度、地磁、气压等,则第一姿态信息可以包括第一俯仰角、第一偏航角,以及第一翻滚角,而第二传感器采集的第二传感数据可以包括弯曲度等,则第二姿态信息可以包括第二俯仰角。
作为一种示例,第一处理器可以采用导航算法对第一传感数据进行运算,生成第一姿态信息,导航算法可以包括欧拉角法、四元数法、等效旋转矢量法、罗德里格参数法、方向余弦矩阵法等方法进行计算。
第一传感器可以基于弯曲度与俯仰角的正比关系,依据第二传感数据生成第二姿态信息,如下公式,第二传感数据为弯曲度R,R实际为第二传感器获得的阻值,第二姿态信息为第二俯仰角pitch,K为比例系数,则第二姿态信息的计算公式如下:
pitch=K*R
在本发明实施例中,通过将第二传感器设置为弯曲传感器,减小了传感器的复杂度,且通过采用弯曲传感器采集人体小臂的弯曲度,生成第二俯仰角,减少了传感器信息采集的数据量。
需要说明的是,在虚拟现实机体获取姿态信息之前,虚拟现实机体可以分别与手柄设备、护肘设备建立连接,在验证手柄设备、护肘设备为合法设备后,可以向手柄设备、护肘设备发送初始化命令,以对手柄设备、护肘设备进行初始化,进而可以获取手柄设备、护肘设备发送的姿态信息。
步骤202,获取所述手柄设备发送的第三姿态信息;
其中,第三姿态信息可以用于表征人体手部姿态,其可以包括第三俯仰角、第三偏航角,以及第三翻滚角。
当将手柄设备握在手掌中后,手柄设备可以检测手部运动时,生成第三姿态信息,发送至虚拟现实机体。
在具体实现中,当手部运动时,手柄设备中的第三传感器可以检测手部运动,可以生成第三传感数据,然后将第三传感数据发送至第二处理器,第二处理器可以依据第三传感数据生成第三姿态信息,并发送至第二通信模块,由第二通信模块发送至位于虚拟现实机体中的第三通信模块。
步骤203,基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整。
在接收到第一姿态信息、第二姿态信息,以及第三姿态信息后,虚拟现实机体可以依据第一姿态信息、第二姿态信息,以及第三姿态信息,计算出当前姿态信息和方位信息,并可以在虚拟现实空间中进行位姿调整。
具体的,步骤203可以包括如下子步骤:
子步骤11,依据所述第二姿态信息和所述第三姿态信息,确定第四姿态信息;
其中,第四姿态信息包括第二俯仰角、第三偏航角,以及第三翻滚角;
在本发明实施例中,与人体小臂对应的第二传感器为弯曲传感器,依据第二传感器采集的第二传感数据生成的第二姿态信息仅包括第二俯仰角,第二俯仰角不足以表征小臂姿态。
而由于人体小臂的偏航角和翻滚角与人体手部的偏航角和翻滚角相同,本发明实施例可以将用于表征人体手部姿态的第三姿态信息中的第三偏航角和第三翻滚角,作为人体小臂的偏航角和翻滚角。
进一步的,本发明实施例结合第三偏航角和第三翻滚角,以及第二姿态信息中的第二俯仰角,得到用于表征人体小臂姿态的第四姿态信息。
需要说明的是,上述人体大臂、人体小臂,以及人体手部为处于人体同一侧,即三者为人体中依次连接的部位。
在本发明实施例中,通过结合基于与人体小臂对应的第二传感器生成的第二姿态信息,及手柄设备生成的第三姿态信息,确定人体小臂对应的第四姿态信息,既减少了传感器采集的数据量,又降低了姿态解算的复杂度,提升了系统效率,且降低虚拟现实设备对芯片处理能力的要求。
子步骤12,基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息;
在本发明实施例中,可以通过第一姿态信息、第三姿态信息,以及第四姿态信息计算各个部位的方位信息,进而进行方位调整。
在本发明一种优选实施例中,子步骤12可以包括如下子步骤:
将所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息输入预置的人体骨骼模型;获取所述人体骨骼模型输出的方位信息。
其中,方位信息可以包括肘关节坐标、腕关节坐标,以及指端坐标。
具体的,人体骨骼模型可以采用如下方式计算方位信息:
以肩关节为坐标原点,将第一姿态信息与预置的大臂长度进行四元数乘运算,得到肘关节坐标;将所述第四姿态信息与预置的小臂长度进行四元数乘运算,并结合所述肘关节坐标,得到腕关节坐标;将所述第三姿态信息与预置的手部长度进行四元数乘运算,并结合所述腕关节坐标,得到指端坐标。
如图3所示,肩关节为p0,肘关节为p1,腕关节位为p2,指端位为p3,大臂长度为Vec1,小臂长度为Vec2,手部长度为Vec3,用于表征人体大臂姿态的第一姿态信息为q1,用于表征人体小臂姿态的第四姿态信息为q2,用于表征人体手臂姿态的第三姿态信息为q3。
以肩关节P0为坐标原点建立坐标系,设在手臂与肩部平行时,q1=q2=q3=(1,0,0,0),则当手臂运动时,可以计算各个点的坐标为:
p0=(0,0)
p1=p0+(q1*Vec1*q1-1)
p2=p1+(q2*Vec2*q2-1)
p3=p2+(q3*Vec3*q3-1)
需要说明的是,“q1*Vec1*q1-1”中“*”代表四元数乘运算。
子步骤13,按照所述第一姿态信息、所述第三姿态信息、所述第四姿态信息,以及所述方位信息,在虚拟现实空间中进行位姿调整。
一方面,在获得姿态信息后,本发明实施例可以在虚拟现实空间中依据第一姿态信息调整人体大臂的姿态、依据第三姿态信息调整人体手部的姿态,以及依据第四姿态信息调整人体小臂的姿态。
另一方面,在获得方位信息后,本发明实施例可以在虚拟现实空间中依据肘关节坐标调整人体大臂的方位、依据腕关节坐标调整人体小臂的方位,以及依据指端坐标调整人体手部的方位。
在本发明实施例中,通过获取穿戴设备依据第一传感器测量的第一传感数据生成的第一姿态信息,以及穿戴设备依据第二传感器测量的第二传感数据生成的第二姿态信息,并获取手柄设备发送的第三姿态信息,然后基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整,实现了基于手柄设备和穿戴设备采集的姿态信息对虚拟现实空间的位姿调整,提升了位姿调整的准确性。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图4,示出了本发明实施例的一种基于虚拟现实设备的数据处理装置的结构框图,所述虚拟现实设备可以包括穿戴设备和手柄设备,穿戴设备可以包括与人体大臂对应的第一传感器、与人体小臂对应的第二传感器,具体可以包括如下模块:
穿戴设备信息获取模块401,用于获取所述穿戴设备发送的第一姿态信息和第二姿态信息;
其中,所述第一姿态信息为所述穿戴设备依据所述第一传感器测量的第一传感数据生成的姿态信息,所述第二姿态信息为所述穿戴设备依据所述第二传感器测量的第二传感数据生成的姿态信息;
手柄设备信息模块402,用于获取所述手柄设备发送的第三姿态信息;
位姿调整模块403,用于基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整。
在本发明一种优选实施例中,所述位姿调整模块403包括:
第四姿态信息确定子模块,用于依据所述第二姿态信息和所述第三姿态信息,确定第四姿态信息;其中,所述第二姿态信息包括第二俯仰角,所述第三姿态信息包括第三俯仰角、第三偏航角,以及第三翻滚角,所述第四姿态信息包括第二俯仰角、第三偏航角,以及第三翻滚角;
方位信息确定子模块,用于基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息;
位姿调整子模块,用于按照所述第一姿态信息、所述第三姿态信息,、所述第四姿态信息,以及所述方位信息,在虚拟现实空间中进行位姿调整。
在本发明一种优选实施例中,所述方位信息确定子模块包括:
输入单元,用于将所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息输入预置的人体骨骼模型;
输出单元,用于获取所述人体骨骼模型输出的方位信息。
在本发明一种优选实施例中,所述方位信息包括肘关节坐标、腕关节坐标,以及指端坐标,所述人体骨骼模型采用如下方式计算方位信息:
以肩关节为坐标原点,将第一姿态信息与预置的大臂长度进行四元数乘运算,得到肘关节坐标;
将所述第四姿态信息与预置的小臂长度进行四元数乘运算,并结合所述肘关节坐标,得到腕关节坐标;
将所述第三姿态信息与预置的手部长度进行四元数乘运算,并结合所述腕关节坐标,得到指端坐标。
在本发明一种优选实施例中,所述穿戴设备还包括第一处理器和第一通信模块,所述第一处理器分别与所述第一传感器、所述第二传感器连接,所述手柄设备包括第二处理器、第二通信模块,以及与所述第二处理器连接的第三传感器。
在本发明一种优选实施例中,所述第一传感器与所述第二传感器为不同类型的传感器,所述第一传感器包括惯性传感器,所述第二传感器包括弯曲传感器。
本发明实施例还公开了一种移动终端,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述基于虚拟现实设备的数据处理方法的步骤。
本发明实施例还公开了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述基于虚拟现实设备的数据处理方法的步骤。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种基于虚拟现实设备的数据处理方法和装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于虚拟现实设备的数据处理方法,其特征在于,所述虚拟现实设备包括穿戴设备和手柄设备,所述穿戴设备包括与人体大臂对应的第一传感器、与人体小臂对应的第二传感器;
所述方法包括:
获取所述穿戴设备发送的第一姿态信息和第二姿态信息;其中,所述第一姿态信息为所述穿戴设备依据所述第一传感器测量的第一传感数据生成的姿态信息,所述第二姿态信息为所述穿戴设备依据所述第二传感器测量的第二传感数据生成的姿态信息;
获取所述手柄设备发送的第三姿态信息;
基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整;
其中,所述基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整的步骤包括:
依据所述第二姿态信息和所述第三姿态信息,确定第四姿态信息;其中,所述第二姿态信息包括第二俯仰角,所述第三姿态信息包括第三俯仰角、第三偏航角,以及第三翻滚角,所述第四姿态信息包括第二俯仰角、第三偏航角,以及第三翻滚角;
基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息;
按照所述第一姿态信息、所述第三姿态信息、所述第四姿态信息,以及所述方位信息,在虚拟现实空间中进行位姿调整。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息的步骤包括:
将所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息输入预置的人体骨骼模型;
获取所述人体骨骼模型输出的方位信息。
3.根据权利要求2所述的方法,其特征在于,所述方位信息包括肘关节坐标、腕关节坐标,以及指端坐标,所述人体骨骼模型采用如下方式计算方位信息:
以肩关节为坐标原点,将第一姿态信息与预置的大臂长度进行四元数乘运算,得到肘关节坐标;
将所述第四姿态信息与预置的小臂长度进行四元数乘运算,并结合所述肘关节坐标,得到腕关节坐标;
将所述第三姿态信息与预置的手部长度进行四元数乘运算,并结合所述腕关节坐标,得到指端坐标。
4.根据权利要求1或2或3所述的方法,其特征在于,所述穿戴设备还包括第一处理器和第一通信模块,所述第一处理器分别与所述第一传感器、所述第二传感器连接,所述手柄设备包括第二处理器、第二通信模块,以及与所述第二处理器连接的第三传感器。
5.根据权利要求1所述的方法,其特征在于,所述第一传感器与所述第二传感器为不同类型的传感器,所述第一传感器包括惯性传感器,所述第二传感器包括弯曲传感器。
6.一种基于虚拟现实设备的数据处理装置,其特征在于,所述虚拟现实设备包括穿戴设备和手柄设备,所述穿戴设备包括与人体大臂对应的第一传感器、与人体小臂对应的第二传感器;
所述装置包括:
穿戴设备信息获取模块,用于获取所述穿戴设备发送的第一姿态信息和第二姿态信息;其中,所述第一姿态信息为所述穿戴设备依据所述第一传感器测量的第一传感数据生成的姿态信息,所述第二姿态信息为所述穿戴设备依据所述第二传感器测量的第二传感数据生成的姿态信息;
手柄设备信息模块,用于获取所述手柄设备发送的第三姿态信息;
位姿调整模块,用于基于第一姿态信息、第二姿态信息,以及第三姿态信息,在虚拟现实空间中进行位姿调整;
其中,所述位姿调整模块包括:
第四姿态信息确定子模块,用于依据所述第二姿态信息和所述第三姿态信息,确定第四姿态信息;其中,所述第二姿态信息包括第二俯仰角,所述第三姿态信息包括第三俯仰角、第三偏航角,以及第三翻滚角,所述第四姿态信息包括第二俯仰角、第三偏航角,以及第三翻滚角;
方位信息确定子模块,用于基于所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息,确定方位信息;
位姿调整子模块,用于按照所述第一姿态信息、所述第三姿态信息、所述第四姿态信息,以及所述方位信息,在虚拟现实空间中进行位姿调整。
7.根据权利要求6所述的装置,其特征在于,所述方位信息确定子模块包括:
输入单元,用于将所述第一姿态信息、所述第三姿态信息,以及所述第四姿态信息输入预置的人体骨骼模型;
输出单元,用于获取所述人体骨骼模型输出的方位信息。
8.根据权利要求7所述的装置,其特征在于,所述方位信息包括肘关节坐标、腕关节坐标,以及指端坐标,所述人体骨骼模型采用如下方式计算方位信息:
以肩关节为坐标原点,将第一姿态信息与预置的大臂长度进行四元数乘运算,得到肘关节坐标;
将所述第四姿态信息与预置的小臂长度进行四元数乘运算,并结合所述肘关节坐标,得到腕关节坐标;
将所述第三姿态信息与预置的手部长度进行四元数乘运算,并结合所述腕关节坐标,得到指端坐标。
9.根据权利要求6或7或8所述的装置,其特征在于,所述穿戴设备还包括第一处理器和第一通信模块,所述第一处理器分别与所述第一传感器、所述第二传感器连接,所述手柄设备包括第二处理器、第二通信模块,以及与所述第二处理器连接的第三传感器。
10.根据权利要求6所述的装置,其特征在于,所述第一传感器与所述第二传感器为不同类型的传感器,所述第一传感器包括惯性传感器,所述第二传感器包括弯曲传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810073700.1A CN108509024B (zh) | 2018-01-25 | 2018-01-25 | 一种基于虚拟现实设备的数据处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810073700.1A CN108509024B (zh) | 2018-01-25 | 2018-01-25 | 一种基于虚拟现实设备的数据处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108509024A CN108509024A (zh) | 2018-09-07 |
CN108509024B true CN108509024B (zh) | 2021-03-12 |
Family
ID=63374807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810073700.1A Active CN108509024B (zh) | 2018-01-25 | 2018-01-25 | 一种基于虚拟现实设备的数据处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108509024B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111061368B (zh) * | 2019-12-09 | 2023-06-27 | 华中科技大学鄂州工业技术研究院 | 一种手势检测方法及可穿戴设备 |
CN111267130A (zh) * | 2020-03-02 | 2020-06-12 | 拉玛机器人(上海)有限公司 | 一种可穿戴式口型捕捉设备及其使用方法 |
CN112450995B (zh) * | 2020-10-28 | 2022-05-10 | 杭州无创光电有限公司 | 一种态势模拟内窥镜系统 |
CN112894820A (zh) * | 2021-01-29 | 2021-06-04 | 清华大学深圳国际研究生院 | 柔性机械臂遥操作人机交互装置及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9067097B2 (en) * | 2009-04-10 | 2015-06-30 | Sovoz, Inc. | Virtual locomotion controller apparatus and methods |
CN204496431U (zh) * | 2015-01-23 | 2015-07-22 | 贾岳杭 | 上肢穿戴式动作捕捉设备 |
CN105824414A (zh) * | 2016-03-14 | 2016-08-03 | 北京诺亦腾科技有限公司 | 一种用于虚拟现实系统的动作捕捉手套及虚拟现实系统 |
CN106108909A (zh) * | 2016-06-14 | 2016-11-16 | 夏烬楚 | 一种人体姿态检测穿戴设备、系统及控制方法 |
CN206224385U (zh) * | 2016-11-02 | 2017-06-06 | 广州幻境科技有限公司 | 一种用于虚拟现实环境的具有定位功能的动作捕捉系统 |
-
2018
- 2018-01-25 CN CN201810073700.1A patent/CN108509024B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108509024A (zh) | 2018-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509024B (zh) | 一种基于虚拟现实设备的数据处理方法和装置 | |
CN102945088B (zh) | 实现终端模拟鼠标操作设备的方法、装置及移动终端 | |
US9235241B2 (en) | Anatomical gestures detection system using radio signals | |
US10705113B2 (en) | Calibration of inertial measurement units attached to arms of a user to generate inputs for computer systems | |
CN111383309B (zh) | 一种骨骼动画驱动方法、装置及存储介质 | |
JP2014501992A (ja) | ユーザの向きを追跡するための方法および装置 | |
US11009964B2 (en) | Length calibration for computer models of users to generate inputs for computer systems | |
CN109739358B (zh) | 基于裸眼3d的手势碰撞检测方法及设备 | |
JP2019506028A (ja) | 使用者の行動を認知してモノを制御するモノのインターネットシステム | |
KR101755126B1 (ko) | 움직임 구현을 위한 움직임 정보 제공 장치, 이를 이용한 움직임 정보 제공 방법 및 움직임 구현 시스템 | |
CN107066119A (zh) | 利用运动下达指令的触控系统、触控笔与其方法 | |
CN104345904A (zh) | 一种手指式空中鼠标 | |
CN106648095A (zh) | 一种基于可穿戴设备控制vr头盔的方法及系统 | |
Liu et al. | The design of wearable wireless inertial measurement unit for body motion capture system | |
CN112416115B (zh) | 一种用于控件交互界面中进行人机交互的方法与设备 | |
CN106843481A (zh) | 一种基于手势控制的三维空间手绘装置及方法 | |
WO2022222532A1 (zh) | 【三维地图的建立方法、装置、电子设备及计算机可读存储介质】 | |
CN112936282B (zh) | 一种提高工业机器人体感控制精确度的方法及系统 | |
CN206411610U (zh) | 一种基于ios终端的双手手势识别系统 | |
CN107783653A (zh) | 一种虚拟现实交互方法及系统 | |
Hur et al. | A Real-Time Localization Platform Design in WUSB over WBAN Protocol for Wearable Computer Systems | |
CN109591016A (zh) | 仿人机械手臂体感控制系统及相关产品 | |
CN111475019A (zh) | 一种虚拟现实的手势交互系统和方法 | |
KR20100003162A (ko) | 저전력 기반의 지그비 위치 인식 방법 | |
CN203502917U (zh) | 一种手指式空中鼠标 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |