CN114661143A - 相关于数据融合的系统和方法 - Google Patents

相关于数据融合的系统和方法 Download PDF

Info

Publication number
CN114661143A
CN114661143A CN202011540280.7A CN202011540280A CN114661143A CN 114661143 A CN114661143 A CN 114661143A CN 202011540280 A CN202011540280 A CN 202011540280A CN 114661143 A CN114661143 A CN 114661143A
Authority
CN
China
Prior art keywords
data
position information
information
obtaining
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011540280.7A
Other languages
English (en)
Inventor
黄靖甯
谢毅刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Future City Co ltd
Original Assignee
Future City Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Future City Co ltd filed Critical Future City Co ltd
Priority to CN202011540280.7A priority Critical patent/CN114661143A/zh
Publication of CN114661143A publication Critical patent/CN114661143A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种相关于数据融合的系统和方法。基于不同感测方式获得第一感测数据与第二感测数据,且确定数据组合。基于图像获得第三感测数据。确定用户的人体部位在第一持续时间内是否存在于第三感测数据中。响应于人体部位在第一持续时间内存在于第三感测数据中,由第一决定因素确定用户的运动信息,且第一决定因素包括数据组合和第一持续时间的第三感测数据。响应于人体部位在第一持续时间内未存在于第三感测数据中,由第二决定因素确定用户的运动信息。第二决定因素包括数据组合和第二持续时间的第三感测数据。因此,可提高跟踪用户运动的准确性。

Description

相关于数据融合的系统和方法
技术领域
本发明大体上涉及一种用于跟踪用户的运动的方法,具体地涉及一种相关于数据融合的系统和方法。
背景技术
为了在电子设备(诸如游戏机、计算机、智能手机、智能电器等)上提供直观的操作,可检测用户的运动,以根据用户的运动直接操作电子设备。
在传统技术中,一些电子设备可允许用户的人体部位(诸如手、腿、头等)来控制这些电子设备的操作,且可跟踪这些人体部位的运动。然而,这些电子设备仅提供一种同时检测多个人体部位的运动的方式。举例来说,虚拟现实(virtual reality;VR)产品可提供手持型控制器,且每个手持型控制器包含惯性测量单元(inertial measurement unit;IMU)以跟踪用户的手的运动。有时,仅一种运动跟踪方式可受其硬件或跟踪机制的限制,且导致跟踪结果异常或不准确。
发明内容
有时候,只使用单一传感器的跟踪结果可能不准确。因此,本发明是针对一种相关于数据融合的系统和方法。
在示例性实施例中的一个中,相关于数据融合的方法适用于系统,系统包含可穿戴在用户的人体部位上的第一运动感测设备、第二运动感测设备以及第三运动感测设备。相关于数据融合的方法包含(但不限于)以下步骤。基于安置在第一运动感测设备、第二运动感测设备以及第三运动感测设备上的运动传感器获得第一感测数据。基于在第一运动感测设备、第二运动感测设备以及第三运动感测设备之间发射的无线信号获得第二感测数据。根据包含第一感测数据和第二感测数据的决定因素确定用户的运动信息。
在示例性实施例中的一个中,相关于数据融合的系统包含(但不限于)三个运动感测设备和处理器。运动感测设备可穿戴在用户的人体部位上。每个运动感测设备包含无线收发器和运动传感器。无线收发器用于发射或接收无线信号。运动传感器用于感测用户的一个人体部位的运动。处理器被配置以基于运动感测设备的运动传感器获得第一感测数据,且基于在所述三个运动感测设备之间发射的无线信号据获得第二感测数据,且由包含第一感测数据和第二感测数据的决定因素确定用户的运动信息。
基于上述,根据本发明实施例的相关于数据融合的系统及方法,可基于数种感测方式的感测数据来跟踪用户的单一操作部位的动作。藉此,可提供准确及可靠的跟踪机制。
然而,应理解,此概述可能不含有本发明的所有方面和实施例,不意图以任何方式具有限制性或局限性,且如本文中所公开的发明由且将由本领域普通技术人员理解为涵盖对其所作的明显改进和修改。
附图说明
包含附图以提供对本发明的进一步理解,且附图并入本说明书中并构成本说明书的一部位。附图说明本发明的实施例,且与描述一起用于解释本发明的原理。
图1是示出根据本发明的示例性实施例中的一个的运动跟踪系统的框图;
图2是示出根据本发明的示例性实施例中的一个的运动跟踪系统的示意图;
图3是示出根据本发明的示例性实施例中的一个的运动跟踪方法的流程图;
图4是示出根据本发明的示例性实施例中的一个的运动跟踪方法的示意图;
图5是示出根据本发明的示例性实施例中的一个的运动跟踪方法的示意图。
附图标号说明
10:运动跟踪系统;
20:运动跟踪系统;
100:运动感测设备;
110:无线收发器;
130:运动传感器;
200:计算设备;
240:存储器;
250:处理器;
300:头戴式显示器;
310:无线收发器;
360:图像传感器;
B1、B2、B3、B4、B5:人体部位;
S310、S330、S350:步骤;
FOV:视场。
具体实施方式
现将详细参考本发明的优选实施例,其实例在附图中说明。只要可能,相同附图标号在附图和描述中用以指代相同或相似部件。
图1是示出根据本发明的示例性实施例中的一个的运动跟踪系统10的框图。参看图1,运动跟踪系统10包含(但不限于)三个或更多个多个运动感测设备100以及计算设备200。运动跟踪系统10可适用于VR、AR、MR、XR或其它现实相关的技术。
每个运动感测设备100包含(但不限于)无线收发器110和运动传感器130。运动感测设备100可以是手持型控制器或可穿戴设备,诸如可穿戴控制器、智能手表、脚踝传感器、腰带、头戴式显示器(head-mounted display;HMD)或类似物。在一个实施例中,每个运动感测设备100可穿戴在用户的一个人体部位上。人体部位可以是手、头、脚踝、腿、腰或其它部位。
无线收发器110可以是与蓝牙、Wi-Fi、IR、RFID或其它无线通信技术兼容的通信收发器。在一个实施例中,无线收发器110用于与其它运动感测设备100的无线收发器110一起发射和/或接收无线信号,且将基于在运动感测设备100之间发射的无线信号生成序列的第一感测数据。将在随后介绍用于生成序列的第一感测数据的详细流程。
运动传感器130可以是加速计、陀螺仪、磁力计、惯性测量单元(IMU)或前述传感器的任何组合。在实施例中,运动传感器130用于在一段时间内感测穿戴运动感测设备100的用户的对应人体部位的运动,以在时间段内的多个时间点从运动传感器130的感测结果(诸如加速度、旋转、磁力等)生成序列的第一感测数据。对于一个实例,第一感测数据包含3-自由度(3-degree of freedom;3-DoF)数据,且3-DoF数据与三维(three-dimensional;3D)空间中的人体部位的定向信息相关,诸如偏航、滚转以及俯仰的加速度。
计算设备200包含(但不限于)存储器240和处理器250。计算设备200可以是计算机、服务器、智能手机、平板电脑或运动感测设备100中的一个。
存储器240可以是任何类型的固定或可移动随机存取存储器(Random-AccessMemory;RAM)、只读存储器(read-only memory;ROM)、闪存存储器或类似装置或以上装置的组合。存储器240可用于存储程序代码、装置配置、缓冲器数据或永久性数据(诸如感测数据、运动信息、距离关系等),且将在随后介绍这些数据。
处理器250连接到存储器240,且处理器250被配置以加载存储在存储器240中的程序代码,从而执行本发明的示例性实施例的程序。在一个实施例中,处理器150的功能通过使用诸如中央处理单元(central processing unit;CPU)、微处理器、微控制器、数字信号处理(digital signal processing;DSP)芯片、现场可编程门阵列(field programmablegate array;FPGA)等可编程单元来实施。在一些实施例中,处理器250的功能也可通过独立电子装置或集成电路(integrated circuit;IC)来实施,且处理器250的操作也可由软件来实施。
应注意,处理器250可或可不与一个、部位或全部运动感测设备100安置在同一设备上。然而,分别装配有运动传感器130和处理器250的设备可还包含具有诸如蓝牙、Wi-Fi、IR或物理传输线路的兼容通信技术的通信收发器,以彼此发射/接收数据。
在一个实施例中,运动跟踪系统10可还包含头戴式显示器(HMD)300。HMD 300可穿戴在用户的头部上。HMD 300包含(但不限于)无线收发器310和图像传感器360。
无线收发器310的描述可指无线收发器110的描述,且将省略。这意味着HMD 300可通过无线收发器310与运动感测设备100通信。
图像传感器360可以是相机,如单色相机或彩色相机、深度相机、录像机或能够捕获图像的其它传感器。
图2是示出根据本发明的示例性实施例中的一个的运动跟踪系统20的示意图。参看图2,运动跟踪系统20包含HMD 300和四个运动感测设备100(所述四个设备是穿戴在人体部位B1和人体部位B2(即,两个脚踝)上的两个脚踝传感器和穿戴在人体部位B3和人体部位B4(即,两只手)上的两个手持型控制器)。在一些实施例中,HMD 300可还包含另一运动传感器130(未示出),以获得人体部位B5(即,头部)的定向信息。处理器250嵌入在HMD 300中。
应注意,运动跟踪系统20仅是实例以示出运动感测设备100、HMD 300以及处理器250的安置方式。然而,仍存在行为理解系统10的许多其它实施方式,且本发明不限于此。
为了更好地理解在本发明的一或多个实施例中提供的操作流程,下文将例示若干实施例以详细解释运动跟踪系统10或运动跟踪系统20的操作流程。运动跟踪系统10或运动跟踪系统20中的装置和模块在以下实施例应用以解释本文所提供的控制方法。可根据实际实施情况调整控制方法的每个步骤,且不应限于本文描述的内容。
图3是示出根据本发明的示例性实施例中的一个的运动跟踪方法的流程图。参看图3,处理器250可基于安置在三个运动感测设备100上的运动传感器130获得第一感测数据(步骤S310)。确切地说,关于不同类型的运动传感器130,可获得2D/3D空间中对应人体部位的运动的加速度、旋转、磁力、定向和/或3-DoF/6-DoF,且运动传感器130的一或多个感测结果将成为人体部位的序列第一感测数据。
另一方面,处理器250可基于在三个运动感测设备100之间发射的无线信号获得第二感测数据(步骤S330)。在一个实施例中,处理器250可在多个时间点从三个或更多个运动感测设备100获得无线信号的信号强度,且每个信号强度将与其对应的发射器和接收器一起记录在存储器240中。信号强度可以是接收的信号强度指示(received signal strengthindication;RSSI)、接收信道功率参数(received channel power indicator;RCPI)、参考信号接收功率(reference signal received power;RSRP)或类似物。在一个实施例中,运动感测设备100可监测所有可检测的无线信号的信号强度,且每个无线信号包含发射器和/或接收器的特定标识符。运动感测设备100可进一步将具有对应标识符的信号强度反馈给计算设备200。在另一实施例中,计算设备200可监测所有可检测的无线信号的信号强度,且处理器250将信号强度与发射器的对应标识符记录在存储器240中。将记录信号强度一段时间以生成序列的第二感测数据。这意味着第二感测数据包含按时间排列的序列的信号强度。
在一些实施例中,处理器250可进一步基于从图像传感器360所捕获的图像获得第三感测数据。第三感测数据可以是序列的图像和/或图像中的像素的感测结果(诸如亮度、色彩、深度等)。
接着,处理器250可由包含第一感测数据和第二感测数据的决定因素确定用户的运动信息(步骤S350)。在一个实施例中,运动信息可包含位置信息和定向信息。首先关于位置信息,在一个实施例中,处理器250可根据第一感测数据确定用户的位置信息。在此实施例中,决定因素包含第一感测数据。对应人体部位的位移可通过对人体部位在三条轴线上的检测到的加速度(即,第二感测数据)二重积分来估计,以基于位移进一步确定位置信息。举例来说,位置信息可以是两条或三条轴线上的坐标,相对于参考的位置等。
在另一实施例中,处理器250可根据基于三个运动感测设备100之间的无线信号的第二感测数据获得位置信息。在此实施例中,决定因素包含第二感测数据,应注意,无线信号的信号强度与两个运动感测设备100之间的相对距离相关。另外,基于三边测量,三个点之间的三个距离可用于确定三个点的相对位置信息。假定三个运动感测设备100作为前述三个点,那么处理器250可将每两个运动感测设备100之间的相对距离确定为运动感测设备100之间的距离关系。接着,处理器250可基于距离关系和三边测量生成跟踪设备的位置信息。
以运动跟踪系统20为实例,处理器250可获得从用于人体部位B3的运动感测设备100到用于人体部位B5的HMD 300(在此实施例中是运动感测设备100中的一个)的无线信号、从用于人体部位B4的运动感测设备100到用于人体部位B5的HMD 300的无线信号以及从用于人体部位B3的运动感测设备100到用于人体部位B4的运动感测设备100的无线信号的信号强度。处理器250可根据信号强度确定其距离关系,且接着基于距离关系生成人体部位B3的位置信息。位置信息可以是坐标或相对位置。
应注意,实施例不限制选定三个运动感测设备100。举例来说,从用于人体部位B2的运动感测设备100到用于人体部位B3的运动感测设备100的无线信号、从用于人体部位B3的运动感测设备100到用于人体部位B1的运动感测设备100的无线信号以及从用于人体部位B2的运动感测设备100到用于人体部位B1的运动感测设备100的无线信号的信号强度可用于估计人体部位B1的位置信息。运动感测设备100的组合可根据需要变化。
在另一实施例中,处理器250可根据第三感测数据确定用户的位置信息。在此实施例中,决定因素包含第三感测数据。图像中的人体部位的位置和位移可用于确定真实环境中的位置信息。以图2为实例,对应于图像中的人体部位B4的感测强度和像素位置可用于估计人体部位B4的深度信息(即,相对于HMD 300的距离)和估计人体部位B4在平行于图像传感器360的平面上的2D位置。
应注意,基于仅一种感测方式(例如,是基于无线收发器110、运动传感器130以及图像传感器360中的一个)的位置信息的准确度可以是不同的。因此,两种或更多种感测方式可用于确定对应人体部位的位置信息。
在一个实施例中,处理器250可根据第一感测数据获得第一位置信息,根据第二感测数据获得第二位置信息,以及根据第一位置信息和第二位置信息获得调整后的位置信息。在此实施例中,决定因素包含第一感测数据和第二感测数据。处理器250可根据第一位置信息和第二位置信息的组合确定位置信息。在一些实施例中,组合是加权组合。根据加权的第一位置信息和加权的第二位置信息确定调整后的位置信息。
在一个实施例中,第一位置信息和第二位置信息的加权组合的权重可以是固定的。在另一实施例中,第一位置信息和第二位置信息的加权组合的权重可以是变化的。第一位置信息的权重可以是从0到100%的值,且第二位置信息的权重可以是从0到100%的值。然而,第一位置信息和第二位置信息的权重都不能同时是0。
应注意,在一些实施例中,基于由图像传感器360的图像生成的第三感测数据而确定的位置信息可比基于无线收发器110和/或运动传感器130而确定的位置信息更准确。因此,在一个实施例中,决定因素可包含第二感测数据和第三感测数据。处理器250可根据基于第一感测数据、第二感测数据以及第三感测数据获得的位置信息的组合确定位置信息。
在一个实施例中,处理器250可在第一持续时间内根据第二感测数据获得位置信息的第一部位,在第二持续时间内根据第三感测数据获得位置信息的第二部位,以及将位置信息的第一部位和第二部位组合为组合位置信息。检测人体部位的第三感测数据可用于在第一持续时间和第二持续时间内基于第二感测数据来校正位置信息。处理器250可在不同持续时间内基于位置信息的第一部位和第二部位来确定组合位置信息。举例来说,在第一持续时间基于第二感测数据确定位置(1,1),在第二持续时间基于第三感测数据确定另一位置(2,1),且组合位置信息可以是从位置(1,1)到位置(2,1)的位移。
在一些实施例中,处理器250可根据第二位置信息和第三位置信息的加权组合确定位置信息。基于实际情况,第二位置信息和第三位置信息的权重可以是变化的或固定的。举例来说,第三位置信息的权重可大于第二位置信息的权重。在另一实施例中,如果人体部位存在于第三感测数据中,那么位置信息是加权组合,且如果人体部位不存在于第三感测数据中,那么位置是第二位置信息。
在一个实施例中,图像传感器360可设计有特定视场(specific field of view;FOV)。如果一个人体部位定位于图像传感器360的视场的外部,那么处理器250可能不能够仅使用第三感测数据来确定此人体部位的运动信息,且应考虑第一感测数据或第二感测数据。
在一个实施例中,处理器250可确定用户的一个人体部位是否存在于序列的第三感测数据中,且根据人体部位的存在的确定的结果来确定是否使用三个运动感测设备100之间的距离关系,以基于三边测量确定位置信息。处理器250可使用机器学习技术(诸如深度学习、人工神经网络(artificial neural network;ANN)或支持向量机(support vectormachine;SVM)等),以识别第三感测数据中的目标人体部位。
图4是示出根据本发明的示例性实施例中的一个的运动跟踪方法的示意图。参看图4,假定人体部位B4的运动感测设备100是目标设备。在此图中,人体部位B4存在于HMD300的视场FOV中(即,人体部位B4存在于第三感测数据中)。
图5是示出根据本发明的示例性实施例中的一个的运动跟踪方法的示意图。参看图5,假定人体部位B3的运动感测设备100是目标设备。在此图中,人体部位B5不存在于HMD300的视场FOV中(即,人体部位B3不存在于第三感测数据中)。
应注意,图4和图5中示出的视场的大小和形状仅是实例,且可基于实际需要修改。
因此,图像传感器360的视场用于确定人体部位是否存在于第三感测数据中。在一个实施例中,假定人体部位在第一持续时间位于视场外(即,不存在于第三感测数据中),且人体部位在第二持续时间位于图像传感器360的视场内(即,存在于第三感测数据中)。在一些实施例中,假定人体部位在第一持续时间和第二持续时间定位于图像传感器360的视场的内部。
在另一实施例中,处理器250可根据第一感测数据获得第一位置信息,根据第二感测数据获得第二位置信息,根据第三感测数据获得第三位置信息,且根据第一位置信息、第二位置信息以及第三位置信息获得调整后的位置信息。在此实施例中,决定因素包含第一感测数据、第二感测数据以及第三感测数据。处理器250可根据第一运动信息、第二运动信息以及第三位置信息的组合确定调整后的位置信息。
在一个实施例中,组合是加权组合。处理器250可根据第三位置信息确定第一位置信息的第一权重和第二位置信息的第二权重。在一个实施例中,第一权重和第二权重反复变化。在人体部位存在于第三感测数据中的持续时间内,第三位置信息将被视为校正位置信息,且将根据第三位置信息调整具有第一权重和第二权重的第一位置信息和第二位置信息的加权组合。应注意,处理器250可通过将第一权重与第一位置信息相乘获得第一参数,通过将第二权重与第二位置信息相乘获得第二参数,且通过将第一参数与第二参数相加获得调整后的位置信息,从而以获得加权组合。
在一个实施例中,可基于第三位置信息等于先前时间点的第一位置信息和第二位置信息的加权组合的等式而确定后续时间点的第一权重和第二权重。举例来说,在第三时间点,在3维坐标系统中,第一权重是0.5且第二权重是0.5,第一位置信息是(6,6,6)且第二位置信息是(10,10,10),且调整后的位置信息将是(8,8,8)。如果第三位置信息是(7,7,7),那么在第四时间点的第一权重和第二权重将分别确定为0.75和0.25。接着,在第四时间点,如果在3维坐标系统中第一位置信息是(7,6,6)且第二位置信息是(12,10,10),那么调整后的位置信息将是(8.25,7,7)。
在另一实施例中,可基于第三位置信息等于当前时间点的第一位置信息和第二位置信息的加权组合的等式而确定当前时间点的第一权重和第二权重。举例来说,在第二时间点,在3维坐标系统中,第一位置信息是(6,6,6)且第二位置信息是(10,10,10)。如果第三位置信息是(7,7,7),那么在第二时间点的第一权重和第二权重将分别确定为0.75和0.25。接着,在第二时间点的调整后的位置信息将确定为(7,7,7)。
在一些实施例中,如果用户的人体部位不存在于第三感测数据中,那么第一权重和第二权重是固定的。如果人体部位位于图像传感器360的视场外,那么当用户的人体部位仍存在于第三感测数据中时,第三权重和第二权重将与先前时间点的先前第一权重和第二权重相同。举例来说,在第一时间点,人体部位位于图像传感器360的视场内,且第一权重是0.5且第二权重是0.5。接着,在第二时间点,人体部位位于图像传感器360的视场外。与在第一时间点的第一权重和第二权重相同,在第二时间点,第一权重将是0.5且第二权重将是0.5。直到用户的人体部位存在于第三感测数据中,第一权重和第二权重将根据第三感测数据而变化。
在另一实施例中,处理器250可根据第一位置信息、第二位置信息以及第三位置信息的加权组合确定调整后的位置信息。根据加权的第一位置信息、加权的第二位置信息以及加权的第三位置信息的总和确定调整后的位置信息。基于实际情况,三条位置信息的权重可以是变化的或固定的。
另一方面,关于定向信息,在一个实施例中,处理器250可将序列的第一感测数据直接用作定向信息。举例来说,定向信息可以是加速度、三轴中的角速度、定向、3-DoF信息和/或6-DoF信息。
在另一实施例中,处理器250可根据第三感测数据确定定向信息。以图4为实例,图像中的人体部位B4在不同时间点的两个姿势可用于估计定向信息。
在一些实施例中,处理器250可根据第一感测数据和第三感测数据确定定向信息。定向信息可以是第一感测数据和第三感测数据的加权组合。举例来说,根据基于运动传感器130的加权的第一定向信息和基于图像传感器360的加权的第二定向信息的总和确定位置信息。
在一个实施例中,图像传感器360的视场将是关于是否根据第三感测数据使用定向信息的条件。如果人体部位存在于第三感测数据中,那么可根据第一感测数据和第三感测数据来确定定向信息。如果人体部位不存在于第三感测数据中,那么可仅根据第一感测数据来确定定向信息。
在一个实施例中,处理器250可根据定向信息和位置信息确定用户的运动信息。可基于第一感测数据、第三感测数据或如上所述的第一感测数据和第三感测数据的组合生成定向信息。可基于如上所述的第一感测数据、第二感测数据以及第三感测数据生成位置信息。以图2中的人体部位B1或人体部位B2为实例,运动信息可与抬起、点、踢、踩或跳跃运动相关。
在另一实施例中,处理器250可根据基于第一感测数据的定向信息和基于第一位置信息和第二位置信息的调整后的位置信息确定用户的运动信息。无论人体部位是否存在于第三感测数据中,处理器250可预测用户的运动。
在另一实施例中,处理器250可根据基于第一感测数据的定向信息和基于第二感测数据和第三感测数据的组合位置信息确定用户的运动信息。这意味着,当人体部位存在及不存在于第三感测数据中时,可在两个持续时间内基于定向信息和组合位置信息确定运动信息。
以图4和图5为实例,在图4中确定人体部位B4的举手运动,且在图5中确定放下手运动。接着,确定人体部位B4的从上到下的摆动运动。
在一个实施例中,处理器250可仅根据基于第二感测数据的位置信息确定用户的运动信息。在另一实施例中,处理器250可仅根据基于第二感测数据和第三感测数据的组合位置信息确定用户的运动信息。在一些实施例中,如果人体部位不存在于第三感测数据中,那么处理器250可仅根据基于第二感测数据的位置信息确定用户的运动信息,且如果人体部位存在于第三感测数据中,那么处理器250可仅根据基于第三感测数据的位置信息或组合位置信息确定用户的运动信息。
可跟踪人体部位的位移或轨迹,且可基于位移或轨迹确定运动信息。以图4和图5为实例,人体部位B3从上到下移动,且确定人体部位B4从上到下摆动运动。
综上所述,在本发明实施例针对用户数个操作部位的相关于数据融合的系统及方法中,可基于信号强度、运动传感器的感测结果和/或相机图像追踪人体部位的动作。若依据相机图像的侦测结果得出追踪的人体部位未存在于FOV内,则运动感测设备之间的信号强度可用于补偿使用运动传感器所得的感测结果在位置信息决定上的准确性。此外,若跟踪的人体部位存在于FOV内,则相机图像可用于修正基于信号强度的位置估测结果。藉此,数个追踪方法可用于不同条件,并据以改善跟踪结果的准确性。
本领域的技术人员将显而易见,可在不脱离本发明的范围或精神的情况下对本发明的结构作出各种修改和变化。鉴于以上内容,希望本发明涵盖本发明的修改和变化,前提为所述修改和变化落入所附权利要求和其等效物的范围内。

Claims (20)

1.一种相关于数据融合的方法,适用于系统,其中所述系统包括可穿戴在用户的人体部位上的多个运动感测设备,且所述相关于数据融合的方法包括:
基于不同感测方式获得第一感测数据与第二感测数据;
基于所述第一感测数据与所述第二感测数据确定数据组合;
基于图像传感器所捕获的图像获得第三感测数据,其中所述第一感测数据与所述第二感测数据不是从所述图像获得;
确定所述用户的多个人体部位中的一个在第一持续时间内是否存在于所述第三感测数据中;
响应于所述用户的所述人体部位中的一个在所述第一持续时间内存在于所述第三感测数据中,由第一决定因素确定所述用户的运动信息,其中所述第一决定因素包括所述数据组合和所述第一持续时间的所述第三感测数据;以及
响应于所述用户的所述人体部位中的一个在所述第一持续时间内未存在于所述第三感测数据中,由第二决定因素确定所述用户的运动信息,其中所述第二决定因素包括所述数据组合和第二持续时间的所述第三感测数据,且所述用户的所述人体部位中的一个在所述第二持续时间内存在于所述第三感测数据中。
2.根据权利要求1所述的相关于数据融合的方法,还包括:
基于安置在所述运动感测设备上的运动传感器获得所述第一感测数据;以及
基于在所述运动感测设备中的三个之间发射的无线信号获得所述第二感测数据。
3.根据权利要求1所述的相关于数据融合的方法,其中确定所述用户的所述运动信息的步骤包括:
根据所述第一感测数据获得定向信息和第一位置信息;
根据所述第二感测数据获得第二位置信息;
根据所述第三感测数据获得第三位置信息;
根据所述第一位置信息、所述第二位置信息以及所述第三位置信息获得调整后的位置信息;以及
根据所述定向信息和所述调整后的位置信息确定所述用户的所述运动信息。
4.根据权利要求3所述的相关于数据融合的方法,其中所述数据组合为所述第一感测数据与所述第二感测数据的加权组合,且所述根据所述第一位置信息、所述第二位置信息以及所述第三位置信息获得所述调整后的位置信息的步骤包括:
根据所述第三位置信息确定所述加权组合的第一权重和第二权重;
通过将所述第一权重与所述第一位置信息相乘获得第一参数;
通过将所述第二权重与所述第二位置信息相乘获得第二参数;以及
通过将所述第一参数与所述第二参数相加获得所述调整后的位置信息。
5.根据权利要求4所述的相关于数据融合的方法,其中
响应于所述用户的所述人体部位中的一个存在于所述第三感测数据中,所述第一权重和所述第二权重根据所述第三感测数据变化。
6.根据权利要求4所述的相关于数据融合的方法,其中
响应于所述用户的所述人体部位不存在于所述第三感测数据中,所述第一权重和所述第二权重是固定的。
7.根据权利要求4所述的相关于数据融合的方法,其中确定所述加权组合的所述第一权重和所述第二权重的步骤包括:
基于等式确定所述第一权重和所述第二权重,其中所述等式为所述第三位置信息等于所述第一位置信息和所述第二位置信息的加权组合。
8.根据权利要求1所述的相关于数据融合的方法,其中确定所述用户的所述运动信息的步骤包括:
根据所述第一感测数据获得定向信息;
根据所述第二感测数据获得位置信息;以及
根据所述定向信息和所述位置信息确定所述用户的所述运动信息。
9.根据权利要求1所述的相关于数据融合的方法,其中确定所述用户的所述运动信息的步骤包括:
根据所述第一感测数据获得第一位置信息和定向信息;
根据所述第二感测数据获得第二位置信息;
根据所述第一位置信息和所述第二位置信息获得调整后的位置信息;以及
根据所述定向信息和所述调整后的位置信息确定所述用户的所述运动信息。
10.根据权利要求1所述的相关于数据融合的方法,其中
根据所述第一感测数据获得定向信息;
在第三持续时间内根据所述第二感测数据获得位置信息的第一部位;
在第四持续时间内根据所述第三感测数据获得位置信息的第二部位;
将位置信息的所述第一部位和所述第二部位组合为组合位置信息;以及
根据所述定向信息和所述组合位置信息确定所述用户的所述运动信息。
11.一种相关于数据融合的系统,包括:
多个运动感测设备,可穿戴在用户的人体部位上;
图像传感器;以及
处理器,被配置以执行:
基于不同感测方式获得第一感测数据与第二感测数据;
基于所述第一感测数据与所述第二感测数据确定数据组合;
基于所述图像传感器所捕获的图像获得第三感测数据,其中所述第一感测数据与所述第二感测数据不是从所述图像获得;
确定所述用户的多个人体部位中的一个在第一持续时间内是否存在于所述第三感测数据中;
响应于所述用户的所述人体部位中的一个在所述第一持续时间内存在于所述第三感测数据中,由第一决定因素确定所述用户的运动信息,其中所述第一决定因素包括所述数据组合和所述第一持续时间的所述第三感测数据;以及
响应于所述用户的所述人体部位中的一个在所述第一持续时间内未存在于所述第三感测数据中,由第二决定因素确定所述用户的运动信息,其中所述第二决定因素包括所述数据组合和第二持续时间的所述第三感测数据,且所述用户的所述人体部位中的一个在所述第二持续时间内存在于所述第三感测数据中。
12.根据权利要求11所述的相关于数据融合的系统,其中所述运动感测设备中的每一个包括:
无线收发器,发射或接收无线信号;以及
运动传感器,感测所述用户的所述人体部位中的一个的运动,且所述处理器被配置以执行:
基于所述运动感测设备的所述运动传感器获得所述第一感测数据;
基于在所述运动感测设备中的三个之间发射的所述无线信号获得所述第二感测数据。
13.根据权利要求11所述的相关于数据融合的系统,其中所述处理器被配置以执行:
根据所述第一感测数据获得第一位置信息和定向信息;
根据所述第二感测数据获得第二位置信息;
根据所述第一位置信息和所述第二位置信息获得调整后的位置信息;以及
根据所述定向信息和所述调整后的位置信息确定所述用户的所述运动信息。
14.根据权利要求13所述的相关于数据融合的系统,其中所述数据组合为所述第一感测数据与所述第二感测数据的加权组合,且所述处理器被配置以执行:
根据第三位置信息确定第一权重和第二权重;
通过将所述第一权重与所述第一位置信息相乘获得第一参数;
通过将所述第二权重与所述第二位置信息相乘获得第二参数;以及
通过将所述第一参数与所述第二参数相加获得所述调整后的位置信息。
15.根据权利要求14所述的相关于数据融合的系统,其中
响应于所述用户的所述人体部位中的一个存在于所述第三感测数据中,所述第一权重和所述第二权重根据所述第三感测数据变化。
16.根据权利要求14所述的相关于数据融合的系统,其中
响应于所述用户的所述人体部位不存在于所述第三感测数据中,所述第一权重和所述第二权重是固定的。
17.根据权利要求14所述的相关于数据融合的系统,其中所述处理器被配置以执行:
基于等式确定所述第一权重和所述第二权重,其中所述等式为所述第三位置信息等于所述第一位置信息和所述第二位置信息的加权组合。
18.根据权利要求11所述的相关于数据融合的系统,其中所述处理器被配置以执行:
根据所述第一感测数据获得定向信息;
根据所述第二感测数据获得位置信息;以及
根据所述定向信息和所述位置信息确定所述用户的所述运动信息。
19.根据权利要求11所述的相关于数据融合的系统,其中所述处理器被配置以执行:
根据所述第一感测数据获得定向信息和第一位置信息;
根据所述第二感测数据获得第二位置信息;
根据所述第三感测数据获得第三位置信息;
根据所述第一位置信息、所述第二位置信息以及所述第三位置信息获得调整后的位置信息;以及
根据所述定向信息和所述调整后的位置信息确定所述用户的所述运动信息。
20.根据权利要求11所述的相关于数据融合的系统,其中所述处理器被配置以执行:
根据所述第一感测数据获得定向信息;
在第三持续时间内根据所述第二感测数据获得位置信息的第一部位;
在第四持续时间内根据所述第三感测数据获得位置信息的第二部位;
将位置信息的所述第一部位和所述第二部位组合为组合位置信息;以及
根据所述定向信息和所述组合位置信息确定所述用户的所述运动信息。
CN202011540280.7A 2020-12-23 2020-12-23 相关于数据融合的系统和方法 Pending CN114661143A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011540280.7A CN114661143A (zh) 2020-12-23 2020-12-23 相关于数据融合的系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011540280.7A CN114661143A (zh) 2020-12-23 2020-12-23 相关于数据融合的系统和方法

Publications (1)

Publication Number Publication Date
CN114661143A true CN114661143A (zh) 2022-06-24

Family

ID=82025420

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011540280.7A Pending CN114661143A (zh) 2020-12-23 2020-12-23 相关于数据融合的系统和方法

Country Status (1)

Country Link
CN (1) CN114661143A (zh)

Similar Documents

Publication Publication Date Title
US11460912B2 (en) System and method related to data fusing
CN107923740B (zh) 传感器设备、传感器系统以及信息处理设备
KR20190094954A (ko) 전자장치의 움직임 측정 장치 및 방법
CN114722913A (zh) 姿态检测方法、装置、电子设备及计算机可读存储介质
US11029753B2 (en) Human computer interaction system and human computer interaction method
JP2011033489A (ja) モーションキャプチャ用のマーカ
CN114661143A (zh) 相关于数据融合的系统和方法
EP4016252A1 (en) System and method related to motion tracking
TWI737068B (zh) 動作追蹤系統和方法
CN114745010A (zh) 相关于运动跟踪的系统和方法
CN113029190A (zh) 运动跟踪系统和方法
EP4016253A1 (en) System and method related to data fusing
EP3832435A1 (en) Motion tracking system and method
EP3971683A1 (en) Human body portion tracking method and human body portion tracking system
TW202225916A (zh) 相關於動作追蹤的系統和方法
TW202225915A (zh) 相關於資料融合的系統和方法
JP2021089691A (ja) 動作追跡システム及び動作追跡方法
JP2022096723A (ja) モーション追跡に関係するシステム及び方法
JP2022096724A (ja) データ融合に関係するシステム及び方法
US20200341539A1 (en) Virtual object operating system and virtual object operating method
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
US11369866B2 (en) Position tracking apparatus and method
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
CN112712545A (zh) 人体部分跟踪方法和人体部分跟踪系统
JP2018005474A (ja) 移動体識別装置、移動体識別システム、移動体識別方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination