CN107479689A - 用于vr/ar的操作控制方法和可穿戴设备 - Google Patents

用于vr/ar的操作控制方法和可穿戴设备 Download PDF

Info

Publication number
CN107479689A
CN107479689A CN201710469768.7A CN201710469768A CN107479689A CN 107479689 A CN107479689 A CN 107479689A CN 201710469768 A CN201710469768 A CN 201710469768A CN 107479689 A CN107479689 A CN 107479689A
Authority
CN
China
Prior art keywords
dimension
wearable device
euler
angle offset
attitude data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710469768.7A
Other languages
English (en)
Inventor
朴龙�
朴一龙
王飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING XINGYUN TIME AND SPACE TECHNOLOGY Co Ltd
Original Assignee
BEIJING XINGYUN TIME AND SPACE TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING XINGYUN TIME AND SPACE TECHNOLOGY Co Ltd filed Critical BEIJING XINGYUN TIME AND SPACE TECHNOLOGY Co Ltd
Priority to CN201710469768.7A priority Critical patent/CN107479689A/zh
Publication of CN107479689A publication Critical patent/CN107479689A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

本申请公开了一种用于虚拟现实VR/增强现实AR的操作控制方法和可穿戴设备,所述方法包括:实时获取可穿戴设备的姿态数据;利用所述姿态数据,识别所述可穿戴设备当前的指示动作;以及将识别的指示动作发送至VR/AR设备,以使得所述VR/AR设备根据所述指示动作确定对应的交互指令,并执行相应的操作。本申请的方案,适用于增强现实/虚拟现实设备的操作控制,控制简便且操作范围不受限,有效提高用户体验。

Description

用于VR/AR的操作控制方法和可穿戴设备
技术领域
本公开一般涉及增强现实/虚拟现实技术领域,具体涉及一种用于VR/AR的操作控制方法和可穿戴设备。
背景技术
AR(Virtual Reality,虚拟现实)/VR(Augmented Reality,增强现实)技术在生活中的应用越来越广泛。VR技术让用户产生视觉上的“沉浸感”,进而影响人体的其他感官也一并认同虚拟事物具有真实存在感。而AR技术则是把原本在现实世界的实体信息,通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。
现有技术中,可以采用图像识别技术实现双手操控虚拟现实或增强现实设备。例如,用光学设备扫描双手,识别手部动作之后发送给虚拟现实或增强现实设备,使得该设备根据识别出的手部动作进行相应操作。
然而,采用图像识别技术,需要很高配置的硬件支持才能准确识别,同时需要双手处于扫描范围内才能完成操控,用户体验不佳。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种适用于增强现实/虚拟现实设备的操作控制方案,控制简便且操作范围不受限,有效提高用户体验。
第一方面,本申请实施例提供了一种用于虚拟现实VR/增强现实AR的操作控制方法,所述方法包括:
实时获取可穿戴设备的姿态数据;
利用所述姿态数据,识别所述可穿戴设备当前的指示动作;以及
将识别的指示动作发送至VR/AR设备,以使得所述VR/AR设备根据所述指示动作确定对应的交互指令,并执行相应的操作。
第二方面,本申请实施例还提供了一种用于虚拟现实VR/增强现实AR的可穿戴设备,包括:
姿态获取单元,配置用于实时获取可穿戴设备的姿态数据;
指示识别单元,配置用于利用所述姿态数据,识别所述可穿戴设备当前的指示动作;以及
设备交互单元,配置用于将识别的指示动作发送至VR/AR设备,以使得所述VR/AR设备根据所述指示动作确定对应的交互指令,并执行相应的交互操作。
本申请实施例提供的操作控制方案中,根据可穿戴设备的姿态数据识别出指示动作之后,由VR/AR设备根据方位确定对应交互指令,继而根据交互指令完成对应的交互操作,可穿戴设备与VR/AR设备之间的控制过程简便,且用户无需在受限范围内操作。进一步地,本申请的部分实施例中根据相邻帧在各个维度上的欧拉角差值来识别当前指示动作,增强识别准确度,提高操作控制的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出了根据本申请实施例的用于VR/AR的操作控制方法的示例性流程图;
图2示出了根据本申请一个实施例的用于VR/AR的可穿戴设备的示例性结构框图;
图3示出了根据本申请另一实施例的用于VR/AR的可穿戴设备的示例性结构框图;
图4示出了根据本申请另一实施例的指示识别单元的示例性结构框图;
图5示出了适于用来实现本申请实施例的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如背景技术中所提到的,现有技术所支持的图像识别技术,存在操作范围受限导致控制不便的问题,用户体验不佳。
鉴于现有技术的上述缺陷,本申请实施例提供了一种操作控制方案。可穿戴设备基于实时姿态数据识别当前指示动作后,将指示动作发送给VR(Virtual Reality,虚拟现实)/AR(Augmented Reality,增强现实)设备,由VR/AR设备根据指示动作确定对应的交互指令并执行相应的操作,可穿戴设备与VR/AR设备之间的控制过程简便,且用户操作的操作范围不受限,提高用户体验。
下面将结合流程图来描述本申请实施例的方法。
参考图1,其示出了根据本申请一个实施例的用于VR/AR的操作控制方法的示例性流程图。
如图1所示,在步骤110中,实时获取可穿戴设备的姿态数据。
具体地,可以实时检测可穿戴设备的运动轨迹;以及将检测的运动轨迹转换为姿态数据。其中,可穿戴设备包括但不限于:眼镜、指环、手环、手表等智能设备。
实际应用中,为了增强识别准确度,可通过可穿戴设备中设置的九轴传感器,从多方面实时检测可穿戴设备的运动,得到可穿戴设备的实时运动轨迹;继而,将九轴传感器采集的运动轨迹转换为姿态数据。其中,姿态数据可以采用四元数形式或者本领域常用的姿态表示形式。
接着,在步骤120中,利用获取的姿态数据,识别可穿戴设备当前的指示动作。
图2示出了根据本申请一个实施例的指示动作识别方法的示例性流程图。
如图2所示,本申请实施例中,为了识别可穿戴设备当前指示动作,在步骤210中,将当前识别区间内所有四元数姿态数据转换为欧拉角姿态数据。
其中,当前识别区间是从用于识别出上一个指示动作所最后使用的四元数姿态数据开始,到当前获取的四元数姿态数据为止。
接着,在步骤220中,分别计算当前识别区间内相邻两帧的欧拉角姿态数据在pitch(俯仰角),yaw(偏航角),roll(翻滚角)三个维度上的欧拉角差值。
最后,在步骤230中,根据当前识别区间内所有计算出的欧拉角差值,识别可穿戴设备当前的指示动作。
具体地,可以针对每个维度,根据当前识别区间内所有相邻两帧在该维度上的欧拉角差值,确定该维度上的欧拉角偏移量;根据三个维度上各自的欧拉角偏移量,选取出欧拉角偏移量最大的维度;确定出欧拉角偏移量最大的维度所对应的临界值;根据欧拉角偏移量最大的维度所对应的临界值,以及该维度上的欧拉角偏移量,识别可穿戴设备当前的指示动作。本申请实施例中,指示动作可以包括如下至少一项:向上、向下、向左、向右、顺时针旋转、逆时针旋转。
其中,某一维度上的欧拉角偏移量可通过如下两种方式确定:
1)将当前识别区间内所有相邻两帧在该维度上的欧拉角差值进行累加,将累加值作为该维度上的欧拉角偏移量。
2)将当前识别区间内所有相邻两帧在该维度上的欧拉角差值的平均值,作为该维度上的欧拉角偏移量。
当然,实际应用中,也可以根据实际需求采用其他方式,比如为了增强识别的准确率和精度,可以将当前识别区间内所有相邻两帧在该维度上的欧拉角差值的标准差,作为该维度上的欧拉角偏移量。
本申请实施例中,预先针对不同的维度,配置有对应的欧拉角偏移量的临界值或临界范围。这样,在确定出欧拉角偏移量最大的维度所对应的临界值之后,可以针对欧拉角偏移量最大的维度,判断该维度的欧拉角偏移量的绝对值是否超过该维度所对应的临界值。
若是,则进一步根据该欧拉角偏移量的正负属性,确定对应的方位并识别为可穿戴设备当前的指示动作;若否,则等待获取下一时刻的姿态数据,以便继续识别。
例如,当欧拉角偏移量最大的维度为pitch时,若pitch上的欧拉角偏移量的绝对值超过pitch所对应的临界值,且该欧拉角偏移量为正值,则识别可穿戴设备当前指示动作为向上。
当欧拉角偏移量最大的维度为pitch时,若pitch上的欧拉角偏移量的绝对值超过pitch所对应的临界值,且该欧拉角偏移量为负值,则识别可穿戴设备当前指示动作为向下。
当欧拉角偏移量最大的维度为yaw时,若yaw上的欧拉角偏移量的绝对值超过yaw所对应的临界值,且该欧拉角偏移量为正值,则识别可穿戴设备当前指示动作为向左。
当欧拉角偏移量最大的维度为yaw时,若yaw上的欧拉角偏移量的绝对值超过yaw所对应的临界值,且该欧拉角偏移量为负值,则识别可穿戴设备当前指示动作为向右。
当欧拉角偏移量最大的维度为roll时,若roll上的欧拉角偏移量的绝对值超过roll所对应的临界值,且该欧拉角偏移量为正值,则识别可穿戴设备当前指示动作为顺时针旋转。
当欧拉角偏移量最大的维度为roll时,若roll上的欧拉角偏移量的绝对值超过roll所对应的临界值,且该欧拉角偏移量为负值,则识别可穿戴设备当前指示动作为逆时针旋转。
本申请实施例中根据相邻帧在各个维度上的欧拉角差值来识别当前指示动作,增强了动作识别准确度,从而有助于提高操作控制的精准度。
最后,如图1所示,在步骤130中,将识别的指示动作发送至VR/AR设备,以使得VR/AR设备根据指示动作确定对应的交互指令,并执行相应的操作。
本申请实施例中,VR/AR设备中预先根据自己的需求配置了不同的交互指令,并与可穿戴设备的指示动作进行对应配置。实际应用中,不同的VR/AR设备的不同交互指令可能各自对应配置的可穿戴设备指示动作为同一动作,可穿戴设备的适用范围更广。
当然,实际应用中,为了扩展操作控制方案,在识别出当前指示动作之后,还可以进一步获取当前指示动作之前的一个或多个指示动作;并确定当前指示动作与之前的动作是否构为连续动作或者连续动作的部分动作。
若可构为连续动作,则可以将构成的连续动作及当前指示动作一起发送给VR/AR设备,由VR/AR设备根据连续动作及当前指示动作,确定出对应的交互指令。
若可构为连续动作的部分动作,则可以将关联的连续动作及当前指示动作一起发送给VR/AR设备,由VR/AR设备根据关联的连续动作及当前指示动作,判断该连续动作的完成度,继而根据完成度决定是否生成对应的交互指令。
从上面描述可以看出,在本申请的一些实施例中,针对现有的操作范围受限控制不便的问题,提出了基于可穿戴设备的实时姿态数据识别出指示动作,由VR/AR设备根据指示动作确定相应的交互指令并执行相应操作的方案。可穿戴设备与VR/AR设备之间的交互控制过程简便,且用户操作的操作范围不受限,提高了用户体验。
图3示出了根据本申请另一实施例的用于VR/AR的可穿戴设备300的示例性结构框图。
如图3所示,用于VR/AR的可穿戴设备300可以包括:姿态获取单元301、指示识别单元302和设备交互单元303。
其中,姿态获取单元301配置用于实时获取可穿戴设备的姿态数据。
指示识别单元302配置用于利用四元数姿态数据,识别可穿戴设备当前的指示动作。
设备交互单元303配置用于将识别的指示动作发送至VR/AR设备,以使得VR/AR设备根据指示动作确定对应的交互指令,并执行相应的交互操作。
其中,姿态数据可以采用四元数形式或者本领域常用的姿态表示形式。
进一步地,图4示出了根据本申请另一实施例的指示识别单元的示例性结构框图。
如图4所示,指示识别单元302可以包括:数据转换子单元401、差值计算子单元402和手势识别子单元403。
数据转换子单元401配置用于将当前识别区间内所有四元数姿态数据转换为欧拉角姿态数据。
其中,当前识别区间从用于识别出上一个指示动作所最后使用的四元数姿态数据开始,到当前获取的四元数姿态数据为止。
差值计算子单元402配置用于分别计算当前识别区间内相邻两帧的欧拉角姿态数据在pitch,yaw,roll三个维度上的欧拉角差值。
手势识别子单元403配置用于根据差值计算子单元402计算出的欧拉角差值,识别可穿戴设备当前的指示动作。
其中,指示动作包括如下至少一项:向上、向下、向左、向右、顺时针旋转、逆时针旋转。
具体地,手势识别子单元403配置用于针对每个维度,根据当前识别区间内所有相邻两帧在该维度上的欧拉角差值,确定该维度上的欧拉角偏移量;选取出欧拉角偏移量最大的维度;根据欧拉角偏移量最大的维度所对应的临界值,以及该维度上的欧拉角偏移量,识别可穿戴设备当前的指示动作。
其中,手势识别子单元403针对欧拉角偏移量最大的维度,可以首先判断该维度的欧拉角偏移量的绝对值是否超过该维度所对应的临界值;若是,则进一步根据该欧拉角偏移量的正负属性,确定对应的方位并识别为可穿戴设备当前的指示动作;若否,则等待获取下一时刻的四元数姿态数据。
应当理解,可穿戴设备300中记载的诸单元与参考图1描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于可穿戴设备300及其中包含的单元,在此不再赘述。
应当理解,可穿戴设备中指示识别单元302中记载的诸子单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于指示识别单元302及其中包含的子单元,在此不再赘述。
下面参考图5,其示出了适于用来实现本申请实施例的计算机系统500的结构示意图。
如图5所示,计算机系统500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有系统500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本公开的实施例,上文参考图1-图2描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行图1-图2的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中。这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定。
作为另一方面,本申请还提供了一种存储有计算机程序的计算机可读存储介质,该计算机可读存储介质可以是上述实施例中所述系统中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,所述程序被一个或者一个以上的处理器用来执行描述于本申请的公式输入方法。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于虚拟现实VR/增强现实AR的操作控制方法,其特征在于,所述方法包括:
实时获取可穿戴设备的姿态数据;
利用所述姿态数据,识别所述可穿戴设备当前的指示动作;以及
将识别的指示动作发送至VR/AR设备,以使得所述VR/AR设备根据所述指示动作确定对应的交互指令,并执行相应的操作。
2.根据权利要求1所述操作控制方法,其特征在于,所述实时获取可穿戴设备的姿态数据,包括:
实时检测所述可穿戴设备的运动轨迹;以及
将所述运动轨迹转换为姿态数据。
3.根据权利要求1或2所述操作控制方法,其特征在于,所述姿态数据采用四元数形式表示;以及
所述利用所述姿态数据,识别所述可穿戴设备当前的指示动作,包括:
将当前识别区间内所有四元数姿态数据转换为欧拉角姿态数据;
分别计算当前识别区间内相邻两帧的欧拉角姿态数据在俯仰角pitch,偏航角yaw,翻滚角roll三个维度上的欧拉角差值;以及
根据所述欧拉角差值,识别所述可穿戴设备当前的指示动作;
其中,所述当前识别区间从用于识别出上一个指示动作所最后使用的四元数姿态数据开始,到当前获取的四元数姿态数据为止;
指示动作包括如下至少一项:向上、向下、向左、向右、顺时针旋转、逆时针旋转。
4.根据权利要求3所述操作控制方法,其特征在于,所述根据所述欧拉角差值,识别所述可穿戴设备当前的指示动作,包括:
针对每个维度,根据所述当前识别区间内所有相邻两帧在该维度上的欧拉角差值,确定该维度上的欧拉角偏移量;
选取出欧拉角偏移量最大的维度;
根据欧拉角偏移量最大的维度所对应的临界值,以及该维度上的欧拉角偏移量,识别所述可穿戴设备当前的指示动作。
5.根据权利要求4所述操作控制方法,其特征在于,所述根据所述当前识别区间内所有相邻两帧在该维度上的欧拉角差值,确定该维度上的欧拉角偏移量,包括:
将所述当前识别区间内所有相邻两帧在该维度上的欧拉角差值进行累加,将累加值作为该维度上的欧拉角偏移量;或
将所述当前识别区间内所有相邻两帧在该维度上的欧拉角差值的平均值,作为该维度上的欧拉角偏移量。
6.根据权利要求4所述操作控制方法,其特征在于,所述根据欧拉角偏移量最大的维度所对应的临界值,以及该维度上的欧拉角偏移量,识别所述可穿戴设备当前的指示动作,包括:
针对欧拉角偏移量最大的维度,判断该维度的欧拉角偏移量的绝对值是否超过该维度所对应的临界值;
若是,则进一步根据该欧拉角偏移量的正负属性,确定对应的方位并识别为所述可穿戴设备当前的指示动作;
若否,则等待获取下一时刻的四元数姿态数据。
7.一种用于VR/AR的可穿戴设备,其特征在于,包括:
姿态获取单元,配置用于实时获取可穿戴设备的姿态数据;
指示识别单元,配置用于利用所述姿态数据,识别所述可穿戴设备当前的指示动作;以及
设备交互单元,配置用于将识别的指示动作发送至VR/AR设备,以使得所述VR/AR设备根据所述指示动作确定对应的交互指令,并执行相应的交互操作。
8.根据权利要求7所述的可穿戴设备,其特征在于,所述姿态数据采用四元数形式表示;以及
所述指示识别单元,包括:
数据转换子单元,配置用于将当前识别区间内所有四元数姿态数据转换为欧拉角姿态数据;其中,所述当前识别区间从用于识别出上一个指示动作所最后使用的四元数姿态数据开始,到当前获取的四元数姿态数据为止;
差值计算子单元,配置用于分别计算当前识别区间内相邻两帧的欧拉角姿态数据在pitch,yaw,roll三个维度上的欧拉角差值;以及
手势识别子单元,配置用于根据所述欧拉角差值,识别所述可穿戴设备当前的指示动作;其中,指示动作包括如下至少一项:向上、向下、向左、向右、顺时针旋转、逆时针旋转。
9.根据权利要求8所述的可穿戴设备,其特征在于,
所述手势识别子单元配置用于针对每个维度,根据所述当前识别区间内所有相邻两帧在该维度上的欧拉角差值,确定该维度上的欧拉角偏移量;选取出欧拉角偏移量最大的维度;根据欧拉角偏移量最大的维度所对应的临界值,以及该维度上的欧拉角偏移量,识别所述可穿戴设备当前的指示动作。
10.根据权利要求9所述的可穿戴设备,其特征在于,
所述手势识别子单元配置用于针对欧拉角偏移量最大的维度,判断该维度的欧拉角偏移量的绝对值是否超过该维度所对应的临界值;若是,则进一步根据该欧拉角偏移量的正负属性,确定对应的方位并识别为所述可穿戴设备当前的指示动作;若否,则等待获取下一时刻的四元数姿态数据。
CN201710469768.7A 2017-06-20 2017-06-20 用于vr/ar的操作控制方法和可穿戴设备 Pending CN107479689A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710469768.7A CN107479689A (zh) 2017-06-20 2017-06-20 用于vr/ar的操作控制方法和可穿戴设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710469768.7A CN107479689A (zh) 2017-06-20 2017-06-20 用于vr/ar的操作控制方法和可穿戴设备

Publications (1)

Publication Number Publication Date
CN107479689A true CN107479689A (zh) 2017-12-15

Family

ID=60594022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710469768.7A Pending CN107479689A (zh) 2017-06-20 2017-06-20 用于vr/ar的操作控制方法和可穿戴设备

Country Status (1)

Country Link
CN (1) CN107479689A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111880651A (zh) * 2020-07-16 2020-11-03 北京悉见科技有限公司 用于与ar设备交互的设备、方法及用于ar设备的方法
WO2021003994A1 (zh) * 2019-07-05 2021-01-14 深圳市工匠社科技有限公司 虚拟角色的控制方法及相关产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130162525A1 (en) * 2009-07-14 2013-06-27 Cywee Group Limited Method and apparatus for performing motion recognition using motion sensor fusion, and associated computer program product
CN103984416A (zh) * 2014-06-10 2014-08-13 北京邮电大学 一种基于加速度传感器的手势识别方法
CN104007819A (zh) * 2014-05-06 2014-08-27 清华大学 手势识别方法、装置及Leap Motion体感控制系统
CN105824430A (zh) * 2016-06-07 2016-08-03 北京行云时空科技有限公司 三维信息交互方法及可穿戴设备
CN106227339A (zh) * 2016-08-16 2016-12-14 西安中科比奇创新科技有限责任公司 可穿戴设备、虚拟现实人机交互系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130162525A1 (en) * 2009-07-14 2013-06-27 Cywee Group Limited Method and apparatus for performing motion recognition using motion sensor fusion, and associated computer program product
CN104007819A (zh) * 2014-05-06 2014-08-27 清华大学 手势识别方法、装置及Leap Motion体感控制系统
CN103984416A (zh) * 2014-06-10 2014-08-13 北京邮电大学 一种基于加速度传感器的手势识别方法
CN105824430A (zh) * 2016-06-07 2016-08-03 北京行云时空科技有限公司 三维信息交互方法及可穿戴设备
CN106227339A (zh) * 2016-08-16 2016-12-14 西安中科比奇创新科技有限责任公司 可穿戴设备、虚拟现实人机交互系统及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021003994A1 (zh) * 2019-07-05 2021-01-14 深圳市工匠社科技有限公司 虚拟角色的控制方法及相关产品
CN111880651A (zh) * 2020-07-16 2020-11-03 北京悉见科技有限公司 用于与ar设备交互的设备、方法及用于ar设备的方法

Similar Documents

Publication Publication Date Title
CN105184249B (zh) 用于人脸图像处理的方法和装置
Guan et al. Drape: Dressing any person
CN106415665B (zh) 具有头部转动的头像面部表情动画
CN107395958B (zh) 一种图像处理方法、装置、电子设备及存储介质
CN109840019B (zh) 虚拟人物的控制方法、装置及存储介质
CN110675475B (zh) 一种人脸模型生成方法、装置、设备及存储介质
CN112288665B (zh) 图像融合的方法、装置、存储介质及电子设备
CN109117893A (zh) 一种基于人体姿态的动作识别方法及装置
CN109033946A (zh) 融合方向图的人体姿态估计方法
CN107463331A (zh) 手势轨迹模拟方法、装置及电子设备
CN111402124B (zh) 一种纹理图像和合成图像的生成方法和装置
CN109949900B (zh) 三维脉波的显示方法、装置、计算机设备及存储介质
CN109766782A (zh) 基于svm的实时肢体动作识别方法
CN107479689A (zh) 用于vr/ar的操作控制方法和可穿戴设备
CN107450717A (zh) 一种信息处理方法及穿戴式设备
US20220139019A1 (en) Motion model refinement based on contact analysis and optimization
Jung et al. Learning free-form deformation for 3D face reconstruction from in-the-wild images
CN111914595A (zh) 一种基于彩色图像的人手三维姿态估计方法和装置
CN109816721A (zh) 图像定位方法、装置、设备及存储介质
CN108549484A (zh) 基于人体动态姿态的人机交互方法和装置
CN109426342A (zh) 基于增强现实的文档阅读方法和装置
CN109597483A (zh) 一种基于体感交互的会议方案演示装置及方法
Yang et al. Animating the brush-writing process of Chinese calligraphy characters
CN114581288A (zh) 一种图像生成方法、装置、电子设备以及存储介质
CN113343951A (zh) 人脸识别对抗样本生成方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171215

RJ01 Rejection of invention patent application after publication