CN110023884B - 可穿戴运动跟踪系统 - Google Patents

可穿戴运动跟踪系统 Download PDF

Info

Publication number
CN110023884B
CN110023884B CN201780072993.5A CN201780072993A CN110023884B CN 110023884 B CN110023884 B CN 110023884B CN 201780072993 A CN201780072993 A CN 201780072993A CN 110023884 B CN110023884 B CN 110023884B
Authority
CN
China
Prior art keywords
measurement
measurement device
measurements
body part
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780072993.5A
Other languages
English (en)
Other versions
CN110023884A (zh
Inventor
尼古拉·拉涅里
罗尔夫·阿德尔斯贝格
法比安·温纳
哈根·塞弗特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensoryx AG
Original Assignee
Sensoryx AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensoryx AG filed Critical Sensoryx AG
Publication of CN110023884A publication Critical patent/CN110023884A/zh
Application granted granted Critical
Publication of CN110023884B publication Critical patent/CN110023884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一种可穿戴运动跟踪系统(12),用于获取所述用户(100)的第一身体部分(101)和第二身体部分(103)之间的相对位置,该系统(12)包括第一测量设备(120a)、第二测量设备(121a)和计算设备(150),其被配置为使得通过所述计算设备(150)得到所述第一和第二测量设备(120a、121a)之间的多个测量结果。基于包括所述第一和第二测量设备(120a、121a)之间的至少一个距离测量结果的多个测量结果,所述计算设备(150)被配置为以三维的方式计算所述第二测量设备(121a)相对于所述第一测量设备(120a)的位置,用于跟踪所述第二身体部分(103)相对于所述第一身体部分(101)的位置。本发明还涉及运动跟踪方法。

Description

可穿戴运动跟踪系统
技术领域
本发明涉及一种可穿戴运动跟踪系统,用于获取用户的第一身体部分(优选地是头部或躯干)与所述用户的第二身体部分(优选地是上肢、手腕或手部)之间的相对位置。此外,本发明涉及一种用于获取第一和第二身体部位之间的相对位置以跟踪第二身体部分相对于第一身体部分的位置的方法。得到的数据可以优选地实时(具有低延迟)实现到虚拟环境中。本发明可用于建立从人到虚拟环境的链路。
背景技术
跟踪人体运动用于许多不同的应用中。电影行业获取运动以呈现电影中的虚拟角色。在运动中,获取特定运动能够关于该运动的正确性给出反馈。在医疗保健中,运动数据能够提供关于患者健康状态的信息。而且,运动数据能够用于以自然方式与虚拟环境交互。
有几个系统旨在使用外部参考进行运动获取。US 7,633,521使用放置在用户的环境中的一组摄像机,获取附接到用户肢体的后向反射器的位置。该方法提供了通过三角测量计算肢体位置的准确且快速的方法。然而,固定的、不灵活的设置需要空间、自由视线,因此限制了用户的移动性,降低了这种系统在家庭消费产品中的吸引力。此外,所需的校准显然不适合非专业应用。
US 2016 131761、US 2008 0261693 A1、US 2009 0054147 A1和US 2009 0170601A1使用类似的方法:它们部署外部参考设备,其包括传感器(例如图像传感器和/或超声换能器)的布置,能够跟踪附接到手持控制器的传感器对应物。除了上述外部参考设备的限制之外,这些方法还要求用户将设备握在手中,抑制沉浸到虚拟环境中并降低体验质量。
存在一些系统试图通过使用可穿戴传感器系统来克服上述限制。US 20080285805 A1、WO 1999 053838 A1、US 2002 0103610 A1、EP 3 067 783 A1和US 7,628,074B2将惯性测量单元(IMU)部署在人体的不同肢体上。惯性数据能够用于计算传感器在世界坐标系中的定向。因此,在大多数肢体上具有IMU、正和逆运动学能够用于计算姿势。然而,让用户在不同的身体部分上放置许多传感器并不适合许多家庭消费产品。
这些IMU的加速度数据能够被二重积分以除了定向之外还计算位置,这将允许仅获取肢体的子集的姿势。然而,如在每个坐标系中,基于先前位置计算位置,误差被累积,导致在这些基于IMU的方法所共有的计算位置中的典型漂移。为了纠正这种漂移,US 20080285805 A1利用人体骨骼所施加的约束,而WO 1999 053838 A1和US 7,628,074 B2部署声学换能器,测量肢体之间的距离(如US 5,142,506 A中所述),其为纠正漂移提供了额外的约束。然而,仍然需要满足大量这样的约束,增加了要穿戴的传感器的数量。此外,传感器融合通常不是无状态的,因此容易产生累积误差,在实现中很麻烦,并且可能引入延迟和视觉伪像,这取决于所使用的过滤器。
如US 2003 0182077 A1中详细描述的各种传感器的系统用于在GPS信号不可用时尽可能精确地评估用户的环境。该系统不适合或设计用于确定或计算用户肢体相对于彼此的三维位置和/或定向,但仅仅是用于估计整个身体的位置。
很少有系统专注于将手的姿势用作输入设备。WO 2016 029183 A1跟踪手指和手的定向并且识别用于与虚拟环境交互的手势。然而,它们缺乏手的定位,因此限制了与不需要知道手的位置的应用的交互。
US 8,638,989和US 2016 202770部署了其他设备。纯光学系统(例如,如US 20160295198 A1中的光学深度感测)获取通常附接到头部的成像设备前面的手的位置、定向和姿势。它们不需要外部参考,因此系统可以是可穿戴的,特别是轻便的。可以无状态地实现该实施方式,使得在每个坐标系中计算每个位置而不取决于先前的计算,使得该方法更稳定。然而,纯光学系统需要参数调整和大量计算工作以估计位置和姿势,这增加了延迟并降低了到虚拟环境中的沉浸感。
随着处理虚拟环境的应用程序数量的增加,对输入设备的需求不断增长,使用户能够以自然和改进的方式与虚拟现实进行交互。最自然的方式是以与真实环境相同的方式进行交互,即通过使用诸如手的身体部分。除了交互之外,上肢的可视化也是重要的,使得用户能够在虚拟环境中看到其手臂和手,提供关于其动作的视觉反馈并增加沉浸式体验。
所提到的方法都没有提供可穿戴的、稳定的和非侵入性的方式以在不需要用户穿戴大量传感器的情况下以低延迟跟踪肢体,或者前面提到的系统需要关于环境的重要知识和/或限制沉浸/能力。
发明内容
因此,本发明的一个目的是提出一种改进的可佩戴运动跟踪系统,用于获取用户的第一身体部分和所述用户的第二身体部分之间的相对位置。
该目的是通过根据权利要求1所述的可穿戴运动跟踪系统来实现的。据此,提出了用于获取用户的第一身体部分和所述用户的第二身体部分之间的相对位置的可穿戴运动跟踪系统,所述可穿戴运动跟踪系统包括可附接到所述第一身体部分的至少一个第一测量设备和可附接到所述第二身体部分的至少一个第二测量设备。此外,该系统包括计算设备,该计算设备可以作为参考点与第一和第二测量设备中的至少一个通信,以便获取第一和第二测量设备之间的测量的测量数据,即与包括第一和第二测量设备中的一个的测量有关的测量数据。
应当理解,所述计算设备可以是系统的单独组件,或者它可以集成到所述第一或所述第二测量设备中。
该目的通过以下方式实现:所述至少一个第一测量设备、所述至少一个第二测量设备和所述计算设备被配置为通过所述计算设备得到所述第一测量设备和所述第二测量设备之间的多个测量结果,其中所述第一测量设备和所述第二测量设备之间的所述多个测量结果包括所述第一测量设备和所述第二测量设备之间的至少一个距离测量结果,并且所述计算设备被配置为使用所述多个测量结果以三维的方式计算所述第二测量设备相对于所述第一测量设备的位置,用于跟踪所述第二身体部分相对于所述第一身体部分的位置。
换句话说,该目的的实现在于,所述至少一个第一测量设备、所述至少一个第二测量设备和所述计算设备被配置为:
i)通过计算设备得到所述第一测量设备和所述第二测量设备之间的至少一个距离测量结果;和
ii)通过计算设备得到相同的第一测量设备和相同的第二测量设备之间的至少一个另外的测量结果;和
其中所述计算设备被配置为使用所述距离测量结果和所述另外的测量结果以三维的方式计算第二测量设备相对于第一测量设备的位置,即,其计算三维距离矢量。
在本发明的上下文中,术语“可穿戴系统”应理解为可以由人(或其他用户,参见下文)穿戴的系统,同时例如在虚拟环境中起作用。可穿戴运动跟踪系统是非沉浸式的并且几乎不会被用户注意到。它易于穿上和移动,使得用户不受运动的限制。此外,如果系统的更新速率高,则是有利的,而反应时间和延迟可以是最小的,以使用户信服其虚拟副本和/或其动作的虚拟表示实际上代表所述用户。因此,过量的计算工作是一个缺点。
在本发明的上下文中,术语“运动跟踪系统”应理解为允许跟踪连接第一和第二测量设备的三维距离矢量的设备、多组件装置,其中在一些情况下,所述距离矢量是在操作期间第一和第二测量设备所分别附接到的第一和第二身体部分之间的相对位置变化的量度。由可穿戴运动跟踪系统生成的跟踪数据可以例如集成到虚拟现实中。
在本发明的上下文中,术语“第一和第二身体部分”应理解为身体(优选人体)的可相对于彼此移动的两个部分。第一身体部分可以是身体部分,例如头部或躯干或任何其他身体部分,例如肢体,第二身体部分可以是肢体的一部分,特别是上肢或其部分,例如手指(包括拇指)、手、手腕、上臂或下臂或肘部。当然,下肢或其部分也可以是第二身体部分,例如脚趾、脚、脚踝或小腿或大腿。然而,应当理解的是,第二身体部分也可以是任何其他身体部分,例如躯干或头部。因此,第一和第二身体部分是身体的可以相对于彼此移动或改变的任何两个部分。应当理解,可穿戴运动跟踪系统可以优选地由人使用,而其他改变其物理外观的物体也可以被理解为用户。
在本发明的上下文中,术语“第一和第二测量设备之间的测量”应理解为一种测量,其中第一测量设备是参考并且第二测量设备的位置(并且优选地定向)是相对于所述参考进行测量的。
因此,本发明基于这样的认识:通过部署至少两个测量设备,其优选地以无线方式通过通信信道连接并且集成到可穿戴跟踪系统中,使得一个测量设备提供在其中通过所述通信链路定位另一设备的参考系,可以实现比例如在大量计算工作下评估可见环境的依赖于纯光学系统的已知实施方式或者需要固定设置的已知实施方式或者依赖于IMU来收集位置同时通过进一步的测量来纠正该位置的已知系统更有效的系统。
根据本发明的跟踪系统部署无状态实施方式,即,第二测量设备相对于第一测量设备的每个位置是实时计算的,并且独立于跟踪链中的先前计算。
在一些实施例中,在所述第一测量设备和所述第二测量设备之间的所述多个测量结果包括在所述第一测量设备和所述第二测量设备之间的至少一个方向测量结果。在这些实施例中,方向测量结果结合距离测量结果直接产生第二测量设备相对于第一测量设备的三维位置。因此,本教导已经在第一和第二测量设备之间使用两个传感器和两次测量。这是有利的,因为与已知方法相比,需要更少的信标、更少的硬件和更少的计算。
此外,本发明不需要复杂的传感器融合算法作为扩展卡尔曼滤波器等,以组合来自多个传感器和传感器类型的测量结果。由根据本发明的系统进行的测量(例如,通过例如声学接收器/发射器对的一次距离测量和通过例如光学接收器/发射器对的一次方向测量)能够用于直接消除所有自由度并直接计算第一和第二测量设备之间的相对位置,而不需要任何其他第三或第四传感器设备。这导致更少的计算、更少的延迟和更高的稳定性。举一个例子:为了估计手部相对于头部的位置,根据已知的方法,头部上需要一个传感器,手部上需要一个传感器,头部或其他身体部位上需要两个传感器(佩戴起来很麻烦),而根据本发明的一些实施例,仅需要头部上一个测量设备和手部上一个测量设备。
根据本发明,利用两个节点之间(即在两个不同且可独立附接的测量设备之间)的多次测量。利用节点(即测量设备)之间的至少一次另外的测量,而不是利用惯性测量单元(IMU)来测量。IMU测量不用于定位,而是用于计算定向。
通过本发明解决的运动跟踪问题还能够以抽象的方式描述如下。给定具有已知定向的空间中的点,需要找到第二点相对于第一点的位置。在不失一般性的情况下,能够假设第一点位于xyz坐标系的原点并且正面朝向正Z轴。该坐标系称为第一点的主体坐标系。为了解决所描述的跟踪问题,需要在第一点的该主体坐标系内表达的第二点的x、y和z坐标。这些坐标不需要以这种格式表示,而是能够用其他值表示。
在进一步的表示中,两个角度和半径能够用球面坐标来描述两个点的相对位置。
对于第二点总是位于第一点前面的情况,其相对位置还能够结合两个点之间的距离通过z值为1(描述朝向第二点的方向)的虚拟xy平面上的两个坐标来描述。该表示通常用于计算机视觉中,因为平面自然地描述了相机传感器的图像平面,并且平面坐标对应于像素坐标。
另一种表示是在位于原点(z值等于0)的xy平面上选择三个固定点并且通过到三个固定点的三个距离描述第二点的位置。这自然表示在表示第一点和第二点的三个固定点之间进行的三种距离测量。
所有表示都能够相互转换。
给出的示例、在三个固定点处进行的三种距离测量能够用于通过三边测量来计算xyz坐标。
因此,点之间的相对位置的表示不应限制本发明的范围。距离测量、方向测量或其他测量的任何组合能够用于消除相对位置的自由度,而与其表示无关。给出的示例、方向测量能够产生球面坐标表示的两个角度。作为第三自由度的半径能够通过距离测量来消除。
在一些实施例中,所述第一测量设备包括第一声学通信设备,并且所述第二测量设备包括第二声学通信设备。第一和第二通信设备被配置为在彼此之间建立声学链路,例如,超声波链路。该链路提供第一和第二测量设备之间的声学测量选择。第一和第二测量设备中的一个可以包括声学发射器,另一个是声学接收器。因此,所述多个测量结果包括所述第一声学通信设备和所述第二声学通信设备之间的至少一个声学测量结果,第二测量设备相对于第一测量设备的相对位置的计算基于所述多个测量结果。声学链路允许稳定、可靠、低成本和快速的测量。
在一些实施例中,所述声学链路用于确定第一和第二测量设备之间的距离。因此,所述至少一个距离测量结果可以是所述至少一个声学测量结果。
在一些实施例中,多个声学接收器被布置在第一设备上的阵列或其他已知构造上,从而利用第二设备上的声学发送器进行多次声学测量。
第一设备上的声学接收器之间的接收信号的相对延迟直接与第二设备相对于第一设备的方向相关。
具体而言,由于声学信号由单个发送器发出,最靠近发送器的接收器将首先接收信号。
直到第二接收器记录信号的的时间延迟与发送器和第一接收器以及第一和第二接收器之间的角度成比例。多个接收器可提高精度并允许测量二维角度。
因此,第一和第二设备之间的方向测量能够是声学测量。
声学方向测量也称为方向性麦克风或麦克风阵列。
显然,本发明不限于使用声学接收器阵列,而是能够通过任何方向性麦克风来实现。
在一些实施例中,除了声学链路之外或作为其替代,可以在所述第一和第二测量设备之间建立光学链路。因此,所述第一测量设备包括第一光学通信设备,所述第二测量设备包括第二光学通信设备。因此,第一和第二通信设备被配置为在彼此之间建立声学链路。所述多个测量结果包括所述第一光学通信设备和所述第二光学通信设备之间的至少一个光学测量结果。
在一些实施例中,所述第一和第二光学通信设备中的一个包括作为第一和第二光学通信设备的图像传感器,而所述第一和第二光学通信设备中的另一个包括作为第二光学通信设备的可跟踪特征,优选地是例如发光二极管(LED)的辐射源,如红外LED,其中,优选地,可跟踪特征的尺寸和/或颜色和/或亮度对于可穿戴运动跟踪系统是已知的并且由可穿戴运动跟踪系统使用以根据极坐标系定位第二测量设备的角坐标。显然,能够使用方向的任何其他表示,如上所述。可跟踪特征也可以是诸如LED阵列等的特征的布置,如果可跟踪特征的尺寸被估计(例如,在图像传感器和可跟踪特征之间的相对距离的测量中),则这是特别有利的。
然后,可以从至少一次距离测量获得径向坐标,该距离测量可以是通过相应特征化的第一和第二测量设备执行的声学、光学或超宽带测量。通过分析可跟踪特征的相对大小,可以得到距离信息并将其用作光学距离测量。例如,使用已知的相机参数,能够使用投影特征的尺寸(例如,在其角上具有LED的正方形的边长)来计算距离。
在一些实施例中,所述光学链路可用于确定第一和第二测量设备之间的距离。因此,所述至少一个距离测量结果可以是所述至少一个光学测量结果。
在一些实施例中,除了声学链路和/或光学链路之外或作为其替代,可以在所述第一和第二测量设备之间建立超宽带链路。因此,所述第一测量设备包括第一超宽带通信设备,所述第二测量设备包括第二超宽带通信设备。因此,第一和第二通信设备被配置为在彼此之间建立超宽带链路。所述多个测量结果包括在所述第一超宽带通信设备和所述第二超宽带通信设备之间的至少一个超宽带测量结果。
类似于如上所述的方向声学测量,超宽带距离测量的阵列也能够用于实现方向测量。
可以利用相对相移来确定发送器和任何两个接收器之间的角度,而不是利用接收器之间的时间延迟来确定。
可以使用声学、光学和/或超宽带链路的替代链路。
在一些实施例中,所述第一身体部分是所述用户的躯干或头部。因此,可穿戴运动跟踪系统可以是头戴式系统和/或安装于躯干的系统。
优选地,所述第二身体部位是所述用户的上肢和/或手腕和/或手部。
在一些实施例中,所述计算设备至少部分地集成到参考单元中,参考单元可附接到用户的第一身体部分并且还包括至少一个第一测量设备。
在一些实施例中,所述计算设备至少部分地集成到被跟踪单元中,该被跟踪单元可附接到用户的第二身体部分并且还包括至少一个第二测量设备。
因此,计算设备可以单独地或与第一测量设备一起集成到参考单元中或与第二测量设备一起集成到被跟踪单元中,或者计算设备的部件可以与第一和第二测量设备两者集成。
在一些实施例中,一个第一测量设备或一个参考单元可以附接到头部,例如在头戴式的显示器设备中,另一个可以附接到躯干或其他身体部分,而一个或更多个第二测量设备或被跟踪单元可以附接到肢体,优选地附接到上肢和/或手和/或手腕或其他身体部分。
在一些优选实施例中,所述多个测量结果包括三个或更多个距离测量结果。优选地,可以借助于三个接收器和至少一个(例如三个)发射器或三个发射器和至少一个(例如三个)接收器来执行三次声学距离测量,其中接收器被集成到第一和第二测量设备中的一个中,而发射器被集成到第一和第二测量设备中的另一个。因此,可以将公共发射器或公共接收器部署为与三个协作的传感器部件进行通信。这里,利用相同设备上的发射器(或接收器)的相对位置的知识,能够使用三次或更多次距离测量来三角测量第二测量设备在三维空间中的位置。
在一些实施例中,所述第一测量设备和/或所述第二测量设备包括一个或更多个另外的测量设备,用于至少部分地确定和跟踪第二测量设备相对于第一测量设备的定向或者第二测量设备的绝对定向。在一些优选实施例中,所述一个或更多个另外的测量设备是IMU。
在一些实施例中,这些能够确定其在一至三个正交轴(例如IMU)中的定向的这些附加传感器能够部署在例如手部和/或手指段上,以基于本发明所计算的上肢或手部的位置,用正运动学计算手部和/或手指段的姿势和手势。因此,传感器可以集成到手套中。类似地,相同类型的传感器能够附接到例如下臂和/或上臂,以通过正和/或逆运动学来计算上肢的姿势。以完全相同的方式,当本发明的两个设备中的一个附接到躯干并且这种定向设备附接到头部时,能够计算头部或其他肢体的姿势和定向。
上肢、手部和/手腕的姿势和手势可以例如用于呈现用户的虚拟化身并且通过例如虚拟现实眼镜、增强现实眼镜或其他头戴式显示器与暴露于用户的虚拟环境交互。
因此,本发明的另一个目的是提出一种改进的方法,用于跟踪用户的第一身体部分和所述用户的第二身体部分之间的相对位置。
该另一个目的是通过根据权利要求12的方法实现的。据此,一种用于跟踪用户的第一身体部分和所述用户的第二身体部分之间的相对位置的方法,所述方法包括:
使用可附接到所述第一身体部分的至少一个第一测量设备、可附接到所述第二身体部分的至少一个第二测量设备和计算设备,在所述计算设备上执行应用程序,以便
i)在所述第一测量设备和所述第二测量设备之间执行多次第一测量,其中所述第一测量设备和所述第二测量设备之间的所述多次第一测量包括在所述第一测量设备和所述第二测量设备之间的至少一次距离测量;和
ii)利用所述多次第一测量以三维方式计算所述第二测量设备相对于所述第一测量设备的第一位置;
iii)在所述第一测量设备和所述第二测量设备之间执行一次或更多次后续测量,其中所述第一测量设备和所述第二测量设备之间的所述多次第一测量包括在所述第一测量设备和所述第二测量设备之间的至少一次距离测量;和
iv)利用一次或更多次另外的测量以三维方式计算所述第二测量设备相对于所述第一测量设备的一个或更多个后续位置,用于跟踪所述第二身体部分相对于所述第一身体部分的所述位置。
然后该位置和后续的位置形成可以在虚拟环境中实现的轨道。
在根据本发明的方法的一些实施例中,所述第一身体部分是所述用户的躯干和/或头部。
在根据本发明的方法的一些实施例中,所述第二身体部分是所述用户的上肢和/或手部。
在根据本发明的方法的一些实施例中,所述多次第一测量和/或所述一次或更多次后续测量包括选自声学测量、光学测量和超宽带测量中的至少一种测量作为所述至少一次距离测量。
在根据本发明的方法的一些实施例中,所述第二身体部分相对于所述第一身体部分的所述跟踪位置用于虚拟环境中。
因此,本发明公开了可穿戴传感器或运动跟踪系统,能够实时计算诸如上肢、手腕和/或手部等身体部分相对于诸如躯干和/或头部等另一身体部分的位置,同时该位置的确定依赖于包括至少一次距离测量的多次测量。
在优选实施例中,第一测量设备被附接到躯干或头部。一个第二测量设备被附接到需要被跟踪的肢体、手腕或手部。所述两个测量设备通过链路彼此通信,并且交换的信息用于计算一个测量设备的三维位置,优选地以另一个测量设备的主体坐标系内的坐标表示。
被跟踪肢体的定位能够以不同的方式实现。本发明部署至少一个距离测量设备,其中距离测量设备的发送器是设备的附接到一个身体部分的一部分,而接收器是设备的附接到另一个身体部分的一部分,反之亦然。
如本文详述的,在一个优选方法中,本发明部署了集成在相同测量设备上的至少两个另外的距离测量传感器。它们能够可选地共享公共发送器或公共接收器。已知发射器在相同设备上的相对位置,能够利用三次或更多次距离测量来三角测量被跟踪设备在三维空间中的位置。
如本文详述的,在另一个优选方法中,图像传感器附接到两个测量设备中的任一个,并且可跟踪特征附接到另一个设备。特征的被跟踪图像坐标能够用于计算图像传感器与特征之间的相对角度,并与距离测量一起限定两个设备之间的相对位置。
应该理解,上面概述的不同实施例的特征可以彼此自由组合。
附图说明
下面参考附图描述本发明的优选实施例,附图是为了说明本发明的优选实施例而不是为了限制本发明。在附图中:
图1示出了根据本发明的具有第一和第二测量设备的可穿戴运动跟踪系统的第一实施例;
图2示出了根据本发明的具有第一和第二测量设备的可穿戴运动跟踪系统的第一实施例;
图3更详细地示出了根据图1或图2的第一和第二测量设备的第一实施例;
图4更详细地示出了根据图1或图2的第一和第二测量设备的第二实施例;
图5示出了跟踪上肢和手部的完整姿势的另一实施例;和
图6示出了跟踪上肢和手部的完整姿势的另一实施例。
具体实施方式
以下描述和示例进一步说明了本发明,但不应解释为限制其范围。参考图1至6描述优选实施例。附图示出了优选实施例的示意图。图中相同的附图标记表示相同部件或具有相同技术效果的部件。
图1示出了根据本发明的可穿戴运动跟踪系统12的第一实施例。所述可穿戴运动跟踪系统12包括第一测量设备120a(跟踪设备),该第一测量设备120a附接到用户100的第一身体部分上的头戴式显示器130,例如集成到该头戴式显示器130中,第一身体部分是用户100的头部101。在第一实施例中,头戴式显示器130是设定参考系的参考单元,在所述参考系中进行跟踪。第二测量设备121a(跟踪设备)被附接到设置在第二身体部分上的腕带111,第二身体部分是用户100的手腕103。代替腕带111,可以使用其他典型的附接装置,例如手套或带子或集成到衣服中。第一测量设备120a和第二测量设备121a经由通信链路彼此耦合以用于交换信息,其中所述信息然后用于作为基础以三维的方式计算第二测量设备121a相对于第一测量设备120a的位置,从而确定手腕103相对于头部101的位置。信息交换包括多次测量,包括在第一和第二测量设备120a、121a之间的相对距离的至少一次测量,其中,通过利用包括距离测量的所述多次测量作为计算设备150的输入,以三维方式计算距离的矢量。计算设备150优选地集成到系统12的头戴式部件中并且连接以例如接收所述输入并且例如提供计算结果以供进一步使用,例如,用于实施到显示在头戴式显示器130上的虚拟现实中。计算设备150也能够设置在手部上或甚至是分散的,例如部分在第一和第二测量设备120a、121a或120b、121b中的一个中计算,其他部分在第一和第二测量设备120a、121a或120b、121b中的另一个中计算。例如,一个计算设备部分可以与图像传感器(例如相机)一起定位在相应的测量设备上并且确定极坐标。计算设备的另一部分可以位于其他身体部分上的声学接收器并且计算径向坐标。每个计算设备可以将其数据发送到主机,在主机中将其组合并实现到例如虚拟现实中。
在一些实施例中,计算设备150可以单独地集成;在一些实施例中,计算设备150可以与第一测量设备120a、120b一起集成到参考单元140中或与第二测量设备121a、121b一起集成到被跟踪单元141中。在一些实施例中,计算设备150的部件可以与第一和第二测量设备120a、120b、121a、121b一起集成或可选地还集成到系统12的其他部件中。图2示出了根据本发明的可穿戴运动跟踪系统12的第二实施例。系统12包括第一测量设备120b,其利用带112或类似的附接装置附接到用户100的躯干104。根据第二实施例,躯干104是第一身体部分。第二设备121b利用手套110等附接到手部102。根据第二实施例,第二身体部分是手部102。第一和第二测量设备120b、121b通过通信链路耦合,通过该通信链路执行两个设备120b、121b之间的多次测量。这里,计算系统12优选地集成到系统12的安装于躯干的部件或头戴式部件中,并且被配置为基于所述多次测量以三维方式计算第二测量设备121b相对于附接到躯干104的第一测量设备120b的位置。因此,在第二实施例中,用于跟踪第二测量设备121b的参考系是躯干104的参考系,并且计算设备150可以在头戴式显示器130中与第一和第二测量设备120b、121b分开设置。
在两个实施例中,第二身体部分103和102的位置(即第二测量设备121a和121b的位置)然后能够分别在三维空间中由计算设备150计算并且可以被呈现在头戴式显示器130上显示的虚拟环境中或可以用于与该虚拟环境交互。
一般要理解的是,可以在第一测量设备的参考系中同时跟踪多个第二测量设备。
图3示出了关于如何实现第一和第二测量设备对(图1中的120a和121a或图2中的120b和121b)的实施例。
第一声学通信设备200a部署了声学发射器201a和第一瞬时通信设备202a,例如,射频模块。
第二声学通信设备200b部署了第二瞬时通信设备202b和具有已知相对位置的至少三个声学接收器201b。
具有声学发射器201a的第一声学通信设备200a和具有声学接收器201b的第二声学通信设备200b可以在彼此之间建立声学链路aL,更具体地,三个声学链路。
第一瞬时通信设备202a和第二瞬时通信设备202b可以在彼此之间建立瞬时链路iL。
在操作中,第一瞬时通信设备202a通告声学发射器201a的声学脉冲并且触发该声学脉冲。第二瞬时通信设备202b接收通告、启动计时器并且开始收听声学接收器201b。发射器201a发送脉冲时的时间和接收器201b中检测到脉冲时的三个单独时间能够用于以三维方式分别地三角测量在第一和第二测量设备120a、121a和120b、120b之间的相对位置。
第一声学通信设备200a可以分别地集成在第一和第二测量设备120a、121a和120b、121b中的一个中,第二声学通信设备200b可以分别地集成在第一和第二测量设备120a、121a和120b、121b中的另一个中。
图4示出了关于如何实现第一和第二测量设备对(图1中的120a和121a或图2中的120b和121b)的另一实施例。
第一光声通信设备200c部署了声学接收器201c、第一瞬时通信设备202a和和红外发光二极管203a。
第二光声通信设备200d部署了声学发射器201d、第二瞬时通信设备202b和红外成像设备203b。
作为第一光学通信设备的红外发光二极管203a和作为第二光学通信设备的红外成像设备203b可以在彼此之间建立光学链路oL。
在操作中,声学发射器201c和接收器201d与第一和第二瞬时通信设备202a和202b一起使用,以通过如上所述的声学信号的飞行时间测量来分别测量第一和第二测量设备120a、121a和120b、121b之间的距离。成像设备203b和红外LED 203a分别用于计算第一和第二测量设备120a、121a和120b、121b之间的角坐标。角坐标和距离分别确定了第二测量设备121a和121b之间相对于第一测量设备120a和120b的位置。
第一光声通信设备200c可以分别地集成在第一和第二测量设备120a、121a和120b、121b中的一个中,第二光声通信设备200d可以分别地集成在第一和第二测量设备120a、121a和120b、121b中的另一个中。
图5示出了如何获得上肢107、108(参见图1)和手部102的完整姿势的实施例。如图1所示,第一测量设备121a使用腕带111等附接到用户100的手腕103。此外,能够确定其定向的另一测量设备304a(例如IMU)也附接到腕带111。借助于第二测量设备121a确定的位置和借助于304a确定的定向用于将第二身体部分(在这为下臂107(参见图1))定位在三维空间中。
可以利用逆运动学来找到上臂108的位置和定向(参见图2)。能够确定其定向的另一设备304b附接到手部,并且类似设备305附接到手指106的段。基于由121a和304a传递(deliver)的位置和定向,能够在由设备304b和305传递的定向上使用正运动学来计算手部102和手指106的姿势和手势。
图6示出了如何获得上肢107、108(参见图1)和手部102的完整姿势的另一实施例。如图2所示,使用手套110等将设备121b附接到用户的手部102。此外,能够确定其定向的另一测量设备304b(例如IMU)也附接到腕带110。由121a传递的位置和304a的定向用于将手部102定位在空间中。能够确定其定向的其他设备305(例如,IMU)附接到手指106的段。正运动学可以用于由设备305传递的定向上,以计算手部102的姿势和手势。
在该配置中,能够计算其定向的可选的腕带111和附接的设备304a能够用于与逆运动学进行结合,以计算下臂和上臂107、108的姿势。
因此,本发明分别地部署了至少两个物理上分开的测量设备120a、121a和120b、121b,即能够相互通信的各个单元。其中,第一测量设备120a和120b中的一个分别用作附接到躯干104(例如,利用带附接到臀部或附接到胸部,如图2所示)或头部101(例如,附接到前额或者由用户穿戴的头戴式显示器130,如图1所示)的参考设备。然而,可以选择其他身体部分作为第一身体部分。至少另一个设备,即第二测量设备121a和121b分别通过例如腕带111或附接到上肢,更确切地说是手腕103(如图1所示)或手部102(如图2所示),或包括在手套110中,并且其位置分别相对于参考设备120a和120b的位置被跟踪。可选地,另外的第二设备121a、121b和/或另外的测量设备304、304b(例如IMU)可以附接到相同或另外的身体部分并且在相同或其他肢体上(例如,在另一只手或另一个手腕上)被跟踪。
根据应用,从用户100的角度看,虚拟环境暴露于用户100。在这种情况下,参考设备(即第一测量设备120a、120b)通常会安装到用户100的头部101,因为头部101的身体坐标系自然地与头戴式显示器130中的虚拟相机相对应并且用于呈现虚拟环境。
在虚拟内容暴露于第三人视线中的应用中,参考设备120b可以被放置在躯干104上。然而,如果参考设备120b附接到躯干104,则能够确定其定向的设备304(例如,IMU)能够附接到头部101,并且该定向能够用于将跟踪位置从躯干104的身体参考系平移到头部101的身体坐标系。头戴式显示器通常已经包含这种定向确定设备304,因此,在这种特定情况下,不需要另外的传感器。
如果参考设备120a附接到头部101,则能够将具有定向功能的设备附接到躯干104以相反地实现类似的结果。
被跟踪的设备,即分别是本发明的第二设备121a、121b能够进一步包括这种具有定向功能的设备304,使得不仅肢体的位置,而且肢体在一个或多个、优选所有三个轴中的定向是已知的。
如果其他的这种具有定向功能的设备附接到相邻肢体,则能够使用正运动学来确定其位置和定向。例如,如果本发明的可跟踪设备附接到手腕并且具有定向功能的设备304(例如,IMU)附接到手腕、手部和手指段(如图5所示),可以使用正运动学来基于手腕103的位置和定向来计算手部102的完整姿势和手势。
此外,逆运动学能够用于计算上臂108的姿势和定向,因此整个臂107、108和手部102的姿势是已知的。
由于手部102上的手腕设备121a和传感器304、304b、305都可以集成在手套110中,因此用户100需要穿戴最少的一组物品,并且仍然能够跟踪完整的上身运动。
类似地,所述可跟踪设备(即,第二测量设备121b)能够附接到手部102而不是手腕103,如图6所示,并且能够实现相同的结果。
显然,附接到躯干104和/或头部101的参考设备120a、120b和附接到上肢107、108和/或手部102的可跟踪设备121a、121b的所有组合同样良好地工作,即使在图1和图2中仅示出了两种情况。
肢体的定位能够以不同的方式实现。在本发明的一个实施例中,一个或更多个声学发射器和瞬时通信设备(例如射频模块)部署在附接到第一身体部分的第一测量设备中,并且一个或更多个声学接收器和另一个瞬时通信设备部署在附接到第二身体部分的第二测量设备中。一个充当参考设备而另一个充当被跟踪设备的角色显然是可互换的。
对于系统中的每个发射器,由同一设备上的通信设备通告声学脉冲,然后立即触发该脉冲。当具有声学接收器的设备上的通信设备接收到通告时,计时器开始测量直到声学接收器检测到输入脉冲的时间。飞行时间与声学信号的已知速度一起用于计算两个设备之间的距离。显然,能够计算距离的其他设备(例如,超宽带宽或视觉信号)能够代替本实施例中描述的声学设备。
相继发出脉冲的至少三个声学发射器结合至少一个声接收器,或者至少一个声学发射器和三个声学接收器提供三个不同距离的测量。已知刚性地附接到一个设备的至少三个发射器的相对位置与距离测量一起会提供足够的信息以通过三角测量计算设备之间的相对位置。由三个接收器共享一个发射器的情况如图3所示。显然,在一个或另一个设备上可以部署发射器和接收器的任意组合。
在另一个实施例中,距离测量单元由能够确定角度的另一个单元补充,所述角度限定了在参考设备和被跟踪设备之间的相对方向,例如以球坐标表示。这种单元的一个示例是附接到参考设备或被跟踪设备的图像传感器和可跟踪的特征,例如,附接到另一个设备的LED。图像传感器能够跟踪LED的投影图像的图像坐标,其限定了从图像传感器中心到LED的矢量和图像传感器法线之间的两个角度。从图像传感器到LED的如此定义的方向连同由距离测量单元提供的距离一起限定了两个设备之间的相对位置。
应该理解,本发明不仅保护可跟踪的特征,例如在可见光谱中工作的LED和图像传感器,还保护任何其他波长(例如红外)。此外,可以使用LED的排列或任何其他可跟踪的特征来代替单个LED的使用,进一步增加了接近的稳定性。
如果特征模式是已知的,则能够使用计算机视觉方法以通过分析例如图像空间中特征的尺寸来计算距离。这导致了另一种方法,其中特征尺寸用作距离测量并且特征位置用作另一种测量,提供足够的信息以计算设备之间的相对位置。
或者,光学距离测量能够伴随其他距离测量。
所附权利要求的主题不必限于上述特定特征。以上示例和实施例是权利要求的可能实施方式,并且其他特征旨在落入权利要求的范围内。
附图标记列表
100用户 200d第二光声通信设备
101第一身体部分,100的头部 201a、d声学发射器/发送器
102第二身体部分,100的头部 201b、c声学接收器
103第二身体部分,100的手腕 202a第一瞬时通信设备
104第一身体部分,躯干 202b第二瞬时通信设备
106手指(包括拇指) 203a辐射设备,红外LED
107下臂 203b光学成像设备,红外成像设备
108上臂 304、304a、b具有定向功能的另外
110手套 的测量设备,诸如IMU
111腕带 aL声学链路
12可穿戴运动跟踪系统 iL瞬时链路
120a、b第一测量设备 oL光学链路
120a、b第二测量设备
130参考单元,头戴式显示器
140参考单元
141被跟踪单元
150计算设备
200a第一声学通信设备
200b第二声学通信设备
200c第一光声通信设备

Claims (18)

1.一种可穿戴运动跟踪系统(12),用于获取用户(100)的第一身体部分(101;104)和所述用户(100)的第二身体部分(102、103、106-108)之间的相对位置,所述可穿戴运动跟踪系统(12)包括:
至少一个第一测量设备(120a;120b),其可附接到所述第一身体部分(101;104);
至少一个第二测量设备(121a;121b),其可附接到所述第二身体部分(102;103;106-108);和
计算设备(150);
其特征在于,所述至少一个第一测量设备(120a;120b)和所述至少一个第二测量设备(121a;121b)被配置为在所述第一测量设备和所述第二测量设备之间执行多次测量,以获得所述第一测量设备和所述第二测量设备之间的测量的测量数据,
其中,所述计算设备(150)被配置为通过所述计算设备(150)得到所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的多个测量结果,
其中,所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的所述多个测量结果包括所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的至少一个距离测量结果;
其中,所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的所述多个测量结果包括所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的至少一个方向测量结果,
其中,所述计算设备(150)被配置为利用所述多个测量结果以三维方式计算所述第二测量设备(121a;121b)相对于所述第一测量设备(120a;120b)的位置,用于跟踪所述第二身体部分(102;103;106-108)相对于所述第一身体部分(101;104)的位置,并且
其中,所述第一测量设备充当设定参考系的参考设备,并且其中所述第二测量设备的位置相对于所述参考系来测量。
2.根据权利要求1所述的可穿戴运动跟踪系统(12),其中,所述第一测量设备(120a;120b)包括第一声学通信设备(200a),并且所述第二测量设备(121a;121b)包括第二声学通信设备(200b);
其中,第一和第二声学通信设备(200a、200b)被配置为在彼此之间建立声学链路(aL),和
其中,所述多个测量结果包括所述第一声学通信设备(200a)和所述第二声学通信设备(200b)之间的至少一个声学测量结果。
3.根据权利要求2所述的可穿戴运动跟踪系统(12),其中,所述至少一个距离测量结果和/或方向测量结果是所述至少一个声学测量结果或包含在所述至少一个声学测量结果中。
4.根据权利要求1至3中任一项所述的可穿戴运动跟踪系统(12),其中,所述第一测量设备(120a;120b)包括第一光学通信设备(203a),并且所述第二测量设备(121a;121b)包括第二光学通信设备(203b);
其中,第一和第二光学通信设备(203a、203b)被配置为在彼此之间建立光学链路(oL),和
其中,所述多个测量结果包括所述第一光学通信设备(203a)和所述第二光学通信设备(203b)之间的至少一个光学测量结果。
5.根据权利要求4所述的可穿戴运动跟踪系统(12),其中,所述第一和第二光学通信设备中的一个(203b)包括图像传感器,并且所述第一和第二光学通信设备中的另一个(203a)包括可跟踪特征。
6.根据权利要求4所述的可穿戴运动跟踪系统(12),其中,所述至少一个距离测量结果和/或方向测量结果是所述至少一个光学测量结果或者包含在所述至少一个光学测量结果中,和/或
其中,所述距离测量结果是声学测量结果,并且所述至少一个方向测量结果是光学测量结果。
7.根据权利要求1至3中任一项所述的可穿戴运动跟踪系统(12),其中,所述第一测量设备(120a;120b)包括第一超宽带通信设备,并且所述第二测量设备包括第二超宽带通信设备;
其中,第一和第二超宽带通信设备被配置为在彼此之间建立超宽带链路;和
其中,所述多个测量结果包括所述第一超宽带通信设备和所述第二超宽带通信设备之间的至少一个超宽带测量结果。
8.根据权利要求1至3中任一项所述的可穿戴运动跟踪系统(12),其中,所述第一身体部分(101;104)是所述用户(100)的躯干(104)和/或头部(101),和/或其中,所述第二身体部分(102;103;107;108)是所述用户(100)的上肢(107、108)和/或头部。
9.根据权利要求1至3中任一项所述的可穿戴运动跟踪系统(12),其中,所述计算设备(150)至少部分地集成到参考单元(140)中,该参考单元(140)可附接到用户(100)的第一身体部分(101;104),并且还包括所述至少一个第一测量设备(120a;120b);和/或
其中,所述计算设备(150)至少部分地集成到被跟踪单元(141)中,该被跟踪单元(141)可附接到用户(100)的第二身体部分(102;103;107;108),并且还包括至少一个第二测量设备(121a;121b)。
10.根据权利要求1至3中任一项所述的可穿戴运动跟踪系统(12),其中,所述多个测量结果由所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的一个距离测量结果和一个方向测量结果构成或包括所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的一个距离测量结果和一个方向测量结果,或者由所述距离测量结果中的三个或更多个构成或包括所述距离测量结果中的三个或更多个。
11.根据权利要求1至3中任一项所述的可穿戴运动跟踪系统(12),其中,所述第一测量设备(120a;120b)和/或所述第二测量设备(121a;121b)包括一个或更多个另外的测量设备(304;304a;304b),用于至少部分地确定和跟踪第二测量设备(121a;121b)相对于第一测量设备(120a;120b)的定向或第二测量设备(121a;121b)的绝对定向,
其中,所述一个或更多个另外的测量设备(304;304a;304b)是惯性测量单元。
12.根据权利要求5所述的可穿戴运动跟踪系统(12),其中所述可跟踪特征为辐射源,和/或其中,所述可跟踪特征的尺寸对于可穿戴运动跟踪系统(12)是已知的,并且由可穿戴运动跟踪系统(12)使用。
13.一种用于跟踪用户(100)的第一身体部分(101;104)和所述用户的第二身体部分(102;103;106-108)之间的相对位置的方法,所述方法包括:
使用可附接到所述第一身体部分(101;104)的至少一个第一测量设备(120a;120b)、可附接到所述第二身体部分(102;103;106-108)的至少一个第二测量设备(121a;121b)和计算设备(150),在所述计算设备(150)上执行应用程序,以便
i)在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间执行多次第一测量,以获得所述第一测量设备和所述第二测量设备之间的测量的测量数据,其中所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的所述多次第一测量包括在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的至少一次距离测量;和
ii)利用所述多次第一测量以三维方式计算所述第二测量设备(121a;121b)相对于所述第一测量设备(120a;120b)的第一位置;
iii)在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间执行一次或更多次后续测量,以获得所述第一测量设备和所述第二测量设备之间的测量的测量数据,其中所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的所述多次第一测量包括在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的至少一次距离测量;和
iv)利用一次或更多次另外的测量以三维方式计算所述第二测量设备(121a;121b)相对于所述第一测量设备(120a;120b)的一个或更多个后续位置,用于跟踪所述第二身体部分(102;103;106-108)相对于所述第一身体部分(101;104)的所述位置,
其中在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的所述多次第一测量和/或所述一次或更多次后续测量包括在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的至少一次方向测量,并且
其中,所述第一测量设备充当设定参考系的参考设备,并且其中所述第二测量设备的位置相对于所述参考系来测量。
14.根据权利要求13所述的方法,其中,所述多次第一测量和/或所述一次或更多次后续测量包括选自声学测量、光学测量和超宽带测量中的至少一种测量作为所述至少一次方向测量。
15.根据权利要求13至14中任一项所述的方法,其中,所述多次第一测量和/或所述一次或更多次后续测量包括选自声学测量、光学测量和超宽带测量中的至少一种测量作为所述至少一次距离测量。
16.根据权利要求13至14中任一项所述的方法,其中,在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的所述多次第一测量和/或所述一次或更多次后续测量由在所述第一测量设备(120a;120b)和所述第二测量设备(121a;121b)之间的一次距离测量和一次方向测量构成。
17.根据权利要求13至14中任一项所述的方法,其中,所述第一身体部分(101;104)是所述用户(100)的躯干(104)或头部(101);和/或
其中,所述第二身体部分(102;103;106-108)是所述用户(100)的上肢(107、108)或手腕(103)或手部(102)。
18.根据权利要求13至14中任一项所述的方法,其中,所述第二身体部分(102;103;106-108)相对于所述第一身体部分(101;104)的被跟踪位置被用于虚拟环境中。
CN201780072993.5A 2016-11-25 2017-11-16 可穿戴运动跟踪系统 Active CN110023884B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16200754 2016-11-25
EP16200754.6 2016-11-25
PCT/EP2017/079462 WO2018095804A1 (en) 2016-11-25 2017-11-16 Wearable motion tracking system

Publications (2)

Publication Number Publication Date
CN110023884A CN110023884A (zh) 2019-07-16
CN110023884B true CN110023884B (zh) 2022-10-25

Family

ID=57406130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780072993.5A Active CN110023884B (zh) 2016-11-25 2017-11-16 可穿戴运动跟踪系统

Country Status (11)

Country Link
US (1) US10768691B2 (zh)
EP (1) EP3545385B1 (zh)
JP (1) JP7162898B2 (zh)
KR (1) KR102497449B1 (zh)
CN (1) CN110023884B (zh)
AU (1) AU2017365223B2 (zh)
CA (1) CA3041958A1 (zh)
DK (1) DK3545385T3 (zh)
ES (1) ES2886908T3 (zh)
RU (1) RU2746686C2 (zh)
WO (1) WO2018095804A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7175281B2 (ja) * 2017-03-28 2022-11-18 マジック リープ, インコーポレイテッド ユーザ走査仮想オブジェクトに関係している空間化されたオーディオを用いる拡張現実システム
AU2019231697B2 (en) 2018-03-07 2020-01-30 Magic Leap, Inc. Visual tracking of peripheral devices
EP3598270A1 (en) * 2018-07-17 2020-01-22 Technische Universität München Method and control unit for controlling a virtual reality display, virtual reality display and virtual reality system
US11175734B1 (en) * 2019-09-26 2021-11-16 Apple Inc Wrist tracking devices
KR102097033B1 (ko) 2019-10-16 2020-04-03 주식회사 코탁스 보디 포인트 인터액션 센싱을 통한 모션 추정 시스템
CN113029190A (zh) * 2019-12-09 2021-06-25 未来市股份有限公司 运动跟踪系统和方法
EP4084936A4 (en) * 2019-12-31 2024-01-10 Human Mode, LLC PROXY CONTROLLER COMBINATION WITH OPTIONAL DUAL RANGE KINEMATICS
US11003247B1 (en) * 2020-03-20 2021-05-11 Microsoft Technology Licensing, Llc Deployable controller
CN114543844B (zh) * 2021-04-09 2024-05-03 恒玄科技(上海)股份有限公司 无线音频设备的音频播放处理方法、装置及无线音频设备
US12105177B2 (en) 2021-07-01 2024-10-01 Sword Health, S.A. Assessment of position of motion trackers on a subject based on wireless communications
WO2023097577A1 (zh) * 2021-12-01 2023-06-08 浙江大学湖州研究院 一种可拓展的基于uwb和摄像头的相对定位的设备和方法
US12067798B2 (en) * 2022-01-11 2024-08-20 Arm Limited Body pose tracking system and method
WO2024085266A1 (ko) * 2022-10-17 2024-04-25 삼성전자 주식회사 초광대역 통신 신호를 이용하여 제스처를 검출하기 위한 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014114967A1 (en) * 2013-01-25 2014-07-31 WENNER, Fabian Self-calibrating motion capture system
CN204537054U (zh) * 2014-08-15 2015-08-05 厉动公司 可嵌入运动感测控制设备
CN105705090A (zh) * 2013-10-21 2016-06-22 苹果公司 传感器和应用
CN106055090A (zh) * 2015-02-10 2016-10-26 李方炜 利用移动装置的虚拟现实和增强现实控制

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142506A (en) 1990-10-22 1992-08-25 Logitech, Inc. Ultrasonic position locating method and apparatus therefor
US6176837B1 (en) 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
IL141400A0 (en) * 1998-08-18 2002-03-10 Digital Ink Inc Handwriting device with detection sensors for absolute and relative positioning
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
US6820025B2 (en) 2000-10-30 2004-11-16 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for motion tracking of an articulated rigid body
US6784826B2 (en) * 2001-01-26 2004-08-31 Tera Research Incorporated Body motion tracking system
US6876945B2 (en) 2002-03-25 2005-04-05 Nicholas Jon Emord Seamless sensory system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
RU2257846C1 (ru) * 2004-04-28 2005-08-10 Общество с ограниченной ответственностью "ЛАУРУС" Способ регистрации движений человека и устройство для его осуществления
US7633521B2 (en) 2005-02-25 2009-12-15 Onlive, Inc. Apparatus and method improving marker identification within a motion capture system
MD14Z (ro) * 2006-12-21 2009-11-30 Еуджен МОРАРУ Procedeu şi dispozitiv de înregistrare a traiectoriei mişcării corpului uman şi a unor părţi separate ale lui
EP1970005B1 (en) 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
US7628074B2 (en) 2007-03-15 2009-12-08 Mitsubishi Electric Research Laboratories, Inc. System and method for motion capture in natural environments
US20090054147A1 (en) 2007-08-21 2009-02-26 Cheng Uei Precision Industry Co., Ltd. Interactive game system
US20090170601A1 (en) 2007-12-28 2009-07-02 Cheng Uei Precision Industry Co., Ltd. Method for recognizing the position of a gaming device
GB0901020D0 (en) 2009-01-21 2009-03-04 Birmingham City University A motion capture apparatus
US9436286B2 (en) * 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
JP5720269B2 (ja) * 2011-01-21 2015-05-20 富士通株式会社 位置算出装置、位置算出方法および位置算出プログラム
US20120220233A1 (en) * 2011-02-28 2012-08-30 Qualcomm Incorporated Ranging with body motion capture
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9310895B2 (en) 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
US8986125B2 (en) 2013-03-14 2015-03-24 Valve Corporation Wearable input device
WO2015139005A1 (en) * 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
WO2015139002A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US10019059B2 (en) 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object
EP3218736B1 (en) 2014-11-10 2023-06-07 Valve Corporation Positional tracking systems and methods
CN107209561A (zh) 2014-12-18 2017-09-26 脸谱公司 用于在虚拟现实环境中导航的方法、系统及设备
US9854227B2 (en) 2015-01-08 2017-12-26 David G Grossman Depth sensor
US20160259404A1 (en) 2015-03-05 2016-09-08 Magic Leap, Inc. Systems and methods for augmented reality
EP3067783A1 (en) 2015-03-11 2016-09-14 ETH Zurich Method and system to track human locomotion by relative positional tracking of body parts of the human
US9939910B2 (en) * 2015-12-22 2018-04-10 Intel Corporation Dynamic effects processing and communications for wearable devices
JP2017205213A (ja) * 2016-05-17 2017-11-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014114967A1 (en) * 2013-01-25 2014-07-31 WENNER, Fabian Self-calibrating motion capture system
CN105705090A (zh) * 2013-10-21 2016-06-22 苹果公司 传感器和应用
CN204537054U (zh) * 2014-08-15 2015-08-05 厉动公司 可嵌入运动感测控制设备
CN106055090A (zh) * 2015-02-10 2016-10-26 李方炜 利用移动装置的虚拟现实和增强现实控制

Also Published As

Publication number Publication date
EP3545385B1 (en) 2021-07-14
AU2017365223A1 (en) 2019-05-23
ES2886908T3 (es) 2021-12-21
RU2019118220A (ru) 2020-12-25
JP7162898B2 (ja) 2022-10-31
EP3545385A1 (en) 2019-10-02
CA3041958A1 (en) 2018-05-31
JP2020501245A (ja) 2020-01-16
US10768691B2 (en) 2020-09-08
DK3545385T3 (da) 2021-10-04
RU2746686C2 (ru) 2021-04-19
CN110023884A (zh) 2019-07-16
RU2019118220A3 (zh) 2021-02-24
WO2018095804A1 (en) 2018-05-31
KR20190087473A (ko) 2019-07-24
US20180150131A1 (en) 2018-05-31
KR102497449B1 (ko) 2023-02-07
AU2017365223B2 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
CN110023884B (zh) 可穿戴运动跟踪系统
US10309764B2 (en) Ultra-portable coordinate measurement machine
US11474227B1 (en) Devices, systems, and methods for radar-based artificial reality tracking
US8494805B2 (en) Method and system for assessing orthopedic alignment using tracking sensors
EP3084349B1 (en) Ultra-portable coordinate measurement machine comprising a tracktable device and a harness configured to mount on a human
WO2015123771A1 (en) Gesture tracking and control in augmented and virtual reality
JP6852673B2 (ja) センサ装置、センサシステム及び情報処理装置
WO2016183812A1 (zh) 一种混合运动捕捉系统及方法
JP6526026B2 (ja) 物体の動作判定方法及びシステム
CN104834917A (zh) 一种混合运动捕捉系统及方法
US11320527B1 (en) Devices, systems, and methods for radar-based artificial reality tracking
KR101876998B1 (ko) 근거리 위치 추적 및 증강 현실을 이용한 헤드 마운트 디스플레이
KR20150057803A (ko) 멀티 센서 착용형 디바이스 기반의 인터페이스 시스템 및 그 방법
KR100520050B1 (ko) 응시방향 기반의 머리착용형 컴퓨터 인터페이스 장치 및방법
KR101907989B1 (ko) 근거리 위치 추적 및 증강 현실을 이용한 의료용 3차원 영상 처리 시스템
WO2018035875A1 (zh) 外骨骼服
KR101876985B1 (ko) 근거리 위치 추적 및 증강 현실을 이용한 의료용 기구
KR20180010772A (ko) 근거리 위치 추적 및 증강 현실을 이용한 의료용 3차원 영상 처리 장치 및 방법
JP2021089691A (ja) 動作追跡システム及び動作追跡方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant