CN113031755A - 基于行为的配置方法和基于行为的配置系统 - Google Patents

基于行为的配置方法和基于行为的配置系统 Download PDF

Info

Publication number
CN113031755A
CN113031755A CN201911251004.6A CN201911251004A CN113031755A CN 113031755 A CN113031755 A CN 113031755A CN 201911251004 A CN201911251004 A CN 201911251004A CN 113031755 A CN113031755 A CN 113031755A
Authority
CN
China
Prior art keywords
motion sensing
motion
sensing device
body part
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201911251004.6A
Other languages
English (en)
Inventor
黄靖甯
吕华纶
谢毅刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Future City Co ltd
Original Assignee
Future City Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Future City Co ltd filed Critical Future City Co ltd
Priority to CN201911251004.6A priority Critical patent/CN113031755A/zh
Publication of CN113031755A publication Critical patent/CN113031755A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Abstract

本发明提供一种基于行为的配置方法及基于行为的配置系统。基于行为的配置系统的处理器基于来自运动感测设备的第一运动感测数据确定运动感测设备是否被激活,响应于运动感测设备被激活而分析第二运动感测数据以确定用户的哪一人体部位与运动感测设备一起做动作,在第一时间段中基于第二运动感测数据的分析结果配置用于与运动感测设备一起做动作的第一人体部位的第一操作模式,且在第二时间段中基于第二运动感测数据的分析结果配置用于与运动感测设备一起做动作的第二人体部位的第二操作模式。因此,用户可方便地使用运动感测设备。

Description

基于行为的配置方法和基于行为的配置系统
技术领域
本公开涉及一种用于配置的方法,尤其涉及一种基于行为的配置方法和基于行为的配置系统。
背景技术
为了在电子设备(例如游戏机、计算机、智能手机、智能电器等)上提供直观的操作,可检测用户的运动,以根据用户的运动直接操作电子设备。
在现有技术中,一些电子设备可允许用户的人体部位(例如手部、腿部、头部等)控制这些电子设备的操作。手持式控制器或具有运动传感器的其它可穿戴运动感测设备可提供用于感测用户的人体部位。然而,这些运动感测设备设计用于特定人体部位。举例来说,手持式控制器设计用于用户的右手,且另一手持式控制器设计用于左手。对特定人体部位的这一限制对用户来说不是直观的。用户必须先识别哪一手持式控制器适用于他/她的惯用手(operating hand)。
发明内容
在现有技术中,运动感测设备配置有对应的模式。有时候,运动感测设备的预先配置在一些情境中对于用户而言可能会不方便。因此,本公开涉及一种基于行为的配置方法和基于行为的配置系统。
在示例性实施例中的一者中,基于行为的配置方法包含(但不限于)以下步骤。基于来自运动感测设备的第一运动感测数据确定运动感测设备是否被激活。响应于运动感测设备被激活而分析第二运动感测数据以确定用户的哪一人体部位与运动感测设备一起做动作。第二运动感测数据涉及与运动感测设备一起做动作的人体部位。在第一时间段基于第二运动感测数据的分析结果配置用于与运动感测设备一起做动作的第一人体部位的第一操作模式。在第一时间段基于第二运动感测数据的分析结果配置用于与运动感测设备一起做动作的第二人体部位的第二操作模式。
在示例性实施例中的一者中,基于行为的配置系统包含但不限于运动感测设备和处理器。所述处理器基于来自运动感测设备的第一运动感测数据确定运动感测设备是否被激活,响应于运动感测设备被激活而分析第二运动感测数据以确定用户的哪一人体部位与运动感测设备一起做动作,在第一时间段中基于第二运动感测数据的分析结果配置用于与运动感测设备一起做动作的第一人体部位的第一操作模式,且在第二时间段中基于第二运动感测数据的分析结果配置用于与运动感测设备一起做动作的第二人体部位的第二操作模式。第二运动感测数据涉及与运动感测设备一起做动作的人体部位。
基于上述,根据本发明实施例的基于行为的配置方法和基于行为的配置系统,可跟踪用户的人体部位的动作,且将分析哪个人体部位与运动感测设备一起做动作。接着,依据分析结果分别配置用于不同身体部位的不同操作模式。藉此,可提供弹性且便利的方法来操作电子设备。
然而,应理解,此概述可能不含有本公开的所有方面和实施例,不意图以任何方式具有限制性或局限性,且如本文中所公开的发明由且将由本领域技术人员理解为涵盖对其所作的明显改进和修改。
附图说明
包含随附图以提供对本公开的进一步理解,且附图并入本说明书并构成本说明书的一部分。附图示出本公开的实施例,并与描述一起用于解释本公开的原理。
图1是示出根据本公开的示例性实施例中的一个的基于行为的配置系统的框图;
图2是示出根据本公开的示例性实施例中的一个的基于行为的配置系统的示意图;
图3是示出根据本公开的示例性实施例中的一个的基于行为的配置方法的流程图;
图4是示出根据本公开的示例性实施例中的一个的运动跟踪方法的示意图。
附图标号说明:
100、200:基于行为的配置系统;
110、120:运动感测设备;
111:IMU;
121:立体相机;
130:存储器;
150:处理器;
B1、B2:人体部位;
FOV:视场;
S310、S330、S350、S370:步骤。
具体实施方式
现将详细参考本公开的优选实施例,其实例在附图中示出。只要有可能相同附图标记在附图和描述中用以指代相同或相似部分。
图1是说明根据本公开的示例性实施例中的一个的基于行为的配置系统100的框图。参考图1,基于行为的配置系统100包含(但不限于此)一或多个运动感测设备110、存储器130以及处理器150。在一个实施例中,基于行为的配置系统100可适用于VR、AR、MR、XR或其它现实相关性技术。在一些实施例中,基于行为的配置系统100可适用于操作外部设备(例如计算机、游戏机、智能手机、内置式系统、智能电器等)。
运动感测设备110可以是手持式控制器或可穿戴设备,例如可穿戴控制器、智能手表、脚踝传感器、腰带等。在一个实施例中,每一运动感测设备100可穿戴在用户的一个人体部位上。举例来说,所述人体部位可以是左手或右手、头部、左脚踝或右脚踝、左腿或右腿、腰或其它部分。
在一个实施例中,运动感测设备110包含运动传感器。运动传感器可以是加速度计、陀螺仪、磁力计、激光传感器、惯性测量单元(inertial measurement unit;IMU)、红外(infrared ray;IR)传感器,或前述运动传感器的任何组合。运动传感器用于感测自身运动,且与自身所处的人体部位一起做动作。举例来说,运动传感器检测3维空间中的位置和自身旋转情况。用户的人体部位可握持、穿戴或携带运动感测设备110,使得运动传感器与人体部位一起做动作。因此,运动传感器的运动可表示人体部位的运动。
在一个实施例中,基于行为的配置系统100可还包含一或多个运动感测设备120。运动感测设备120可以是头戴式显示器(head-mounted display;HMD)、智能手机、相机、膝上型计算机、定位设备等。在一个实施例中,运动感测设备120包含图像传感器。图像传感器可为相机,例如单色相机或彩色相机、深度相机、录像机或能够捕捉图像的其它图像传感器。
在一些实施例中,图像传感器可用于针对用户的一或多个人体部位进行捕捉,以产生包含用户的一或多个人体部位的图像。
存储器130可以是任何类型的固定或可移动随机存取存储器(Random-AccessMemory;RAM)、只读存储器(read-only memory;ROM)、闪存存储器或类似装置或以上装置的组合。在一些实施例中,存储器130可用于存储程序代码、装置配置、缓冲数据或永久数据(例如运动感测数据、图像、运动感测结果、配置等),且这些数据将在稍后引入。
处理器150耦接存储器130,且处理器150经配置用以加载存储在所述存储器130中的程序代码,从而执行本公开的示例性实施例的程序。在一些实施例中,处理器150的功能可通过使用例如中央处理单元(central processing unit;CPU)、微处理器、微控制器、数字信号处理(digital signal processing;DSP)芯片、现场可编程门阵列(fieldprogrammable gate array;FPGA)等可编程单元来实施。在一个实施例中,处理器150的功能还可通过独立电子装置或集成电路(integrated circuit;IC)来实施,且处理器150的操作还可通过软件来实施。
应注意,处理器150可以或可以不安置有运动感测设备110和运动感测设备120。然而,运动感测设备110和运动感测设备120以及处理器150可还包含通信收发器或利用兼容通信技术(例如蓝牙、Wi-Fi、IR或物理传输线路)与所述通信收发器连接,从而彼此传输/接收数据。
图2是示出根据本公开的示例性实施例中的一个的基于行为的配置系统200的示意图。参考图2,基于行为的配置系统200包含运动感测设备110(其为手持式控制器)和运动感测设备120(其为HMD)。立体相机121(即,图像传感器)和处理器150嵌入于HMD中,且立体相机121可经配置用以针对人体部位B1(即用户的左手)和人体部位B2(即用户的右手)捕捉相机图像。另外,IMU 111(即,运动传感器)嵌入于手持式控制器中,从而获得人体部位B2的运动感测结果。
应注意,基于行为的配置系统100或基于行为的配置系统200中将提供有更多运动感测设备110。举例来说,基于行为的配置系统200还包含两个脚踝传感器和腰带。然而,运动感测设备110的数目不限于此。
为了较好理解在本公开的一或多个实施例中提供的操作流程,在下文将举例说明若干实施例以详细解释基于行为的配置系统100的操作流程。在以下实施例中施加基于行为的配置系统100中的装置和模块以解释本文所提供的控制方法。可根据实际实施情况调整控制方法的每一步骤,且不应限于本文中所描述的内容。
图3是示出根据本公开的示例性实施例中的一个的基于行为的配置方法的流程图。参考图3,处理器150基于来自运动感测设备110的第一运动感测数据确定运动感测设备110是否被激活(步骤S310)。具体地说,用户可握持、穿戴或携带运动感测设备110。然而,运动感测设备110在不与用户的人体部位一起做动作的情况下还可放置在任何位置处。运动感测设备110的运动传感器可在一定时间段内感测携带运动感测设备110的用户的对应人体部位的运动,且处理器150可在所述时间段内的多个时间点处从运动传感器的运动感测结果(例如所感测的强度值、度数等)产生序列的第一运动感测数据。对于一个实例,第一运动感测数据包含3自由度(3-degree of freedom;3-DoF)数据,且所述3-DoF数据涉及人体部位在三维(3D)空间中的旋转信息,例如在偏转(yaw)、滚转(roll)以及俯仰(pitch)中的加速度。对于另一实例,第一运动感测数据包含人体部位在2D/3D空间中的相对位置和/或位移。
在一个实施例中,处理器150可基于运动传感器的运动感测结果确定运动感测设备110的运动,从而确定运动感测设备110被激活。举例来说,处理器150可检验运动感测设备110不是静止的。
在一些实施例中,可确定在不同时间点处从运动感测设备110的运动传感器获得的第一运动感测数据的变化。如果两个时间点之间的变化的值大于预定义阈值,那么处理器150可确定运动感测设备110移动且被激活。另一方面,处理器150可确定运动感测设备110未激活。
在一些实施例中,处理器150可比较基于第一运动感测数据的运动感测设备110的位移和/或旋转情况与一或多个预定义轨迹和/或旋转。如果第一运动感测数据符合预定义轨迹和/或旋转,那么处理器150可确定运动感测设备110被激活。另一方面,处理器150可确定运动感测设备110未激活。
如果运动感测设备110被激活,那么处理器150可分析第二运动感测数据以确定用户的哪一人体部位与运动感测设备110一起做动作(步骤S330)。具体地说,第二运动感测数据涉及人体部位的运动。在一个实施例中,从运动感测设备120获得第二运动感测数据,且处理器150基于由运动感测设备120的图像传感器捕捉的图像而产生第二运动感测数据。在一个实施例中,处理器150可检测在图像中是否检测到一或多个人体部位。在一些实施例中,将通过机器学习技术(例如深度学习、人工神经网络(artificial neural network;ANN)或支持向量机(support vector machine;SVM)等)来识别图像中的人体部位。在另一实施例中,可通过其它物件识别技术(例如二进制分类器、自适应增强(adaptiveboosting;Adaboost)等)来识别人体部位。
在一个实施例中,如果在图像中检测到人体部位,那么处理器150可根据图像中的人体部位的运动而产生第二运动感测数据。在一些实施例中,感测强度及对应于图像中的人体部位的像素位置可用于估计第一人体部位的深度信息(即,相对于运动感测设备120或其它参考设备的距离)及估计人体部位在平行于运动感测设备120的平面处的2D位置。处理器150可根据距离及人体部位的2D位置在预定义坐标系统中产生3D位置。处理器150可根据不同时间点处的多个位置进一步估计人体部位的位移及旋转数据,以便产生6自由度(6-degree of freedom;6-DOF)数据(其将被视为第二运动感测数据)。在一些实施例中,3-DoF数据、人体部位在2D/3D空间中的相对位置和/或位移可为第二运动感测数据。在一些实施例中,处理器150可进一步识别图像中的手的手势,或识别运动感测设备110是否存在于图像中。
在另一实施例中,从运动感测设备110获得第二运动感测数据,且处理器150基于运动感测设备110的运动传感器的运动感测结果而产生第二运动感测数据。在此实施例中,第二运动感测数据的产生可涉及第一运动感测数据的产生,且将省略其详细描述。
再一实施例中,从运动感测设备110及运动感测设备120获得第二运动感测数据,且处理器150基于运动感测设备110的运动传感器的运动感测结果及由运动感测设备120的图像传感器捕捉的图像两个而产生第二运动感测数据。举例来说,图像可用于估计人体部位的位置,且运动感测结果可用于估计人体部位的旋转情况。对于另一实例,图像及运动感测结果两个可用于确定人体部位的位置。对于再一实例,第二运动感测数据可分别记录基于运动感测结果的位置及旋转数据和基于图像的位置及旋转数据。
在产生第二运动感测数据之后,处理器150可确定第二运动感测数据是否满足用以产生分析结果的条件。具体地说,条件与基于第二运动感测数据检测到的人体部位的运动相关。假设用户的行为可用于估计哪一人体部位携带/穿戴/握持运动感测设备110。举例来说,当用户握持手持式控制器时,用户可抬起他的手臂。对于另一实例,当用户穿戴脚踝传感器时,用户可试着行走。另一方面,人类可具有双手、手臂、腿以及脚。有时,位移及旋转对于每一前述人体部位对中的两个人体部位可不同且可用于估计是人体部位的哪一侧。
在一个实施例中,条件与从运动感测设备120获得的图像中存在的人体部位的运动相关。假设用户可移动携带运动感测设备110的人体部位。在一些实施例中,每一图像可划分成两个或更多个区域,且存在人体部位的区域可用于确定哪一人体部位正在移动。举例来说,用户举起右手,且右手可存在于图像的右边。
在一些实施例中,图像中的人体部位的轨迹可用于确定哪一人体部位正在移动。举例来说,用户行走,用户的膝盖可从图像的底部移动到中间,以便确定腿正在移动。
在一些实施例中,图像中的用户的手的手势可用于确定哪一人体部位使用运动感测设备110。举例来说,拇指的指尖面向图像中的右侧,因此确定手握持运动感测设备110。
在一个实施例中,条件与在运动感测结果中检测到的人体部位的运动相关。在一些实施例中,基于运动感测结果的人体部位的位移及旋转可用于确定哪一人体部位正在移动。举例来说,检测到挥动运动,以便确定手执行波浪运动。对于另一实例,人体部位水平地旋转,以便确定用户扭腰。
在一些实施例中,基于运动感测结果的人体部位的位置可用于确定哪一人体部位携带运动感测设备110。举例来说,人体部位停在左胸前方,处理器150可估计人体部位是左手。
再一实施例中,条件与在运动感测结果及图像两个中检测到的人体部位的运动相关。在一些实施例中,可基于运动感测结果及图像的组合确定人体部位的位移、位置和/或旋转,且所述位移、位置和/或旋转可用于如上文所提及估计哪一人体部位正在移动或穿戴/携带/握持运动感测设备110。
在一些实施例中,处理器150可识别图像中的人体部位及确定人体部位的运动在运动感测结果及图像两个中是否相同。可比较运动感测结果及图像两个中的位移、位置和/或旋转。如果比较结果相同,那么处理器150确定满足条件且确定所识别的人体部位与运动感测设备110一起做动作。另一方面,如果比较结果不相同,那么处理器150确定不满足条件。
图4是示出根据本公开的示例性实施例中的一个的运动跟踪方法的示意图。参考图4,人体部位B1及人体部位B2存在于运动感测设备120的图像传感器的视场FOV中。然而,关于人体部位B1,基于从运动感测设备120获得的运动感测结果的位置数据并不等同于基于图像的位置数据。另一方面,基于从运动感测设备120获得的运动感测结果的位置数据等同于基于人体部位B2的图像的位置数据。因此,处理器150可确定人体部位B2(即,右手)握持运动感测设备110。
在另一实施例中,如果运动感测设备110并未激活,那么处理器150可使用从另一运动感测设备(其可为运动感测设备120或不同于运动感测设备110的其它运动感测设备)获得的第三运动感测数据来感测人体部位的运动。假设运动感测设备110未由用户使用,使得从运动感测设备获得的运动感测结果不可靠,且将需要另一运动感测数据。可基于图像或其它数据产生第三运动感测数据。
举例来说,如果不基于第一运动感测数据激活手持式控制器,那么处理器150可使用来自HMD的图像传感器的另一运动感测数据来确定用户的手的运动。
如果人体部位经确定且假设所确定的人体部位为用户的第一人体部位,那么处理器150可在第一时间段中基于第二运动感测数据的分析结果配置用于与运动感测设备110一起做动作的第一人体部位的第一操作模式(步骤S350)。具体地说,分析结果与和运动感测设备110一起做动作的人体部位相关。处理器150可配置用于所确定的人体部位的运动感测设备110的第一操作模式,且所确定的人体部位为第一人体部位。在一个实施例中,第一操作模式涉及人体部位对的右侧或左侧。举例来说,处理器150配置用于手持式控制器的右手操作模式或左手操作模式。在另一实施例中,第一操作模式可涉及情境、命令、运动感测机制等。在一些实施例中,第一操作模式可用于运动感测设备120或其它外部设备。第一时间段为配置第一操作模式时的持续时间。在一些实施例中,如果第一人体部位不与运动感测设备110一起做动作,那么第一时间段可结束。
如果人体部位经确定且假设所确定的人体部位为不同于第一人体部位的用户的第二人体部位,那么处理器150可在第二时间段中基于第二运动感测数据的分析结果配置用于与运动感测设备110一起做动作的第二人体部位的第二操作模式(步骤S370)。类似于步骤S350,处理器150可配置用于所确定的人体部位的运动感测设备110的第二操作模式,且所确定的人体部位为第二人体部位。第二操作模式可与第一操作模式相同或不同。举例来说,第一操作模式涉及人体部位对的右侧,且第二操作模式涉及人体部位对的左侧。对于另一实例,第一操作模式及第二操作模式都是用于用户界面的操作模式。在一些实施例中,第二操作模式还可涉及情境、命令、运动感测机制等,且第二操作模式可用于运动感测设备120或其它外部设备。另外,第二时间段为配置第二操作模式时的持续时间。在一些实施例中,如果第二人体部位不与运动感测设备110一起做动作,那么第二时间段可结束。应注意,第二时间段可以或可以不与第一时间段重叠。
在一个实施例中,从运动感测设备110或运动感测设备120获得的运动感测数据可用于控制化身(avatar)的对应身体部位的运动。举例来说,运动感测数据与左腿在现实世界中抬起相关,且化身的左腿可相应地在虚拟世界中抬起。
在一些实施例中,处理器150可在第一操作模式中移动对应于用户的第一人体部位的化身的第一身体部位,且在第二操作模式中移动对应于用户的第二人体部位的化身的第二身体部位。化身的身体部位可以是手、头部、左脚踝或右脚踝、左腿或右腿、腰或其它部分。举例来说,第一身体部位及第一人体部位对应于用户的左手,且第二身体部位及第二人体部位对应于用户的右手。随后,在不同时间段中,可根据使用手持式控制器的左手模式的用户的左手的运动产生化身的左手的运动信息,且可根据使用相同手持式控制器的右手模式的用户的右手的运动产生化身的右手的运动信息。
相应地,可基于用户的所检测到的行为自动地设置运动感测设备110的配置。举例来说,当用户右手握持手持式控制器且在现实世界中挥动右手时,处理器150可配置用于手持式控制器的右手操作模式且用户的化身可在虚拟世界中挥动其右手。随后,当用户左手握持手持式控制器且在现实世界中挥动左手时,同一手持式控制器可切换成左手操作模式且用户的化身可在虚拟世界中挥动其左手。
综上所述,在本发明实施例的基于行为的配置方法和基于行为的配置系统中,可分析运动感测数据以判断人体部位的动作,且进一步判断哪个人体部位与运动感测设备一起做动作。接着,可配置用于人体部位的操作模式。藉此,可为用户提供方便的方式来操作运动感测设备。
所属领域的技术人员将显而易见的是,在不脱离本公开的范围或精神的情况下,可以对本公开的结构进行各种修改和变化。鉴于前述,希望本公开涵盖本公开的修改和变化,前提是所述修改和变化落入所附权利要求书和其等效物的范围内。

Claims (20)

1.一种基于行为的配置方法,包括:
基于来自运动感测设备的第一运动感测数据确定所述运动感测设备是否被激活;
响应于所述运动感测设备而分析第二运动感测数据以确定用户的哪一人体部位与所述运动感测设备一起做动作,其中所述第二运动感测数据涉及与所述运动感测设备一起做动作的所述人体部位;
在第一时段中基于所述第二运动感测数据的分析结果配置用于与所述运动感测设备一起做动作的第一人体部位的第一操作模式;以及
在第二时间段中基于所述第二运动感测数据的分析结果配置用于与所述运动感测设备一起做动作的第二人体部位的第二操作模式。
2.根据权利要求1所述的基于行为的配置方法,其中分析第二运动感测数据的步骤包括:
确定所述第二运动感测数据是否满足用以产生分析结果的条件,其中所述条件与基于所述第二运动感测数据检测到的所述人体部位的运动相关。
3.根据权利要求2所述的基于行为的配置方法,其中从第二运动感测设备获得第二运动感测数据,所述第二运动感测设备包括图像传感器,所述第二运动感测数据是基于由所述图像传感器捕捉的图像产生,且所述条件与所述图像中存在的所述人体部位的运动相关。
4.根据权利要求2所述的基于行为的配置方法,其中从所述运动感测设备获得所述第二运动感测数据,所述运动感测设备包括运动传感器,所述第二运动感测数据是基于所述运动传感器的运动感测结果产生,且所述条件与在所述运动感测结果中检测到的所述人体部位的运动相关。
5.根据权利要求2所述的基于行为的配置方法,其中从所述运动感测设备及第二运动感测设备获得所述第二运动感测数据,所述运动感测设备包括运动传感器,所述第二运动感测设备包括图像传感器,所述第二运动感测数据是基于所述运动传感器的运动感测结果及由所述图像传感器捕捉的图像两个产生,且所述条件与在所述运动感测结果及所述图像两个中检测到的所述人体部位的运动相关。
6.根据权利要求5所述的基于行为的配置方法,其中确定所述第二运动感测数据是否满足所述条件的步骤包括:
确定所述人体部位的所述运动在所述运动感测结果及所述图像两个中是否相同。
7.根据权利要求1所述的基于行为的配置方法,其中所述第一人体部位及所述第二人体部位中的一个是所述用户的右手或左手。
8.根据权利要求1所述的基于行为的配置方法,其中所述运动感测设备包括运动传感器,且确定是否激活所述运动感测设备的步骤包括:
基于所述运动传感器的运动感测结果确定所述运动感测设备的运动以确定所述运动感测设备被激活。
9.根据权利要求1所述的基于行为的配置方法,还包括:
响应于所述运动感测设备未激活而使用从第三运动感测设备获得的第三运动感测数据来感测所述人体部位的运动。
10.根据权利要求1所述的基于行为的配置方法,还包括:
在所述第一操作模式中移动对应于所述用户的所述第一人体部位的化身的第一身体部位;以及
在所述第二操作模式中移动对应于所述用户的所述第二人体部位的所述化身的第二身体部位。
11.一种基于行为的配置系统,包括:
运动感测设备;以及
处理器,经配置用以执行:
基于来自所述运动感测设备的第一运动感测数据确定所述运动感测设备是否被激活;
响应于所述运动感测设备被激活而分析第二运动感测数据以确定用户的哪一人体部位与所述运动感测设备一起做动作,其中所述第二运动感测数据涉及与所述运动感测设备一起做动作的所述人体部位;
在第一时段中基于所述第二运动感测数据的分析结果配置用于与所述运动感测设备一起做动作的第一人体部位的第一操作模式;以及
在第二时间段中基于所述第二运动感测数据的分析结果配置用于与所述运动感测设备一起做动作的第二人体部位的第二操作模式。
12.根据权利要求11所述的基于行为的配置系统,其中所述处理器经配置用以执行:
确定所述第二运动感测数据是否满足用以产生分析结果的条件,其中所述条件与基于所述第二运动感测数据检测到的所述人体部位的运动相关。
13.根据权利要求12所述的基于行为的配置系统,还包括:
第二运动感测设备,其中从第二运动感测设备获得所述第二运动感测数据,所述第二运动感测设备包括图像传感器,所述第二运动感测数据是基于由所述图像传感器捕捉的图像产生,且所述条件与所述图像中存在的所述人体部位的运动相关。
14.根据权利要求12所述的基于行为的配置系统,其中从所述运动感测设备获得所述第二运动感测数据,所述运动感测设备包括运动传感器,所述第二运动感测数据是基于所述运动传感器的运动感测结果产生,且所述条件与在所述运动感测结果中检测到的所述人体部位的运动相关。
15.根据权利要求12所述的基于行为的配置系统,还包括:
第二运动感测设备,其中从所述运动感测设备及所述第二运动感测设备获得所述第二运动感测数据,所述运动感测设备包括运动传感器,所述第二运动感测设备包括图像传感器,所述第二运动感测数据是基于所述运动传感器的运动感测结果及由所述图像传感器捕捉的图像两个产生,且所述条件与在所述运动感测结果及所述图像两个中检测到的所述人体部位的运动相关。
16.根据权利要求15所述的基于行为的配置系统,其中所述处理器经配置用以执行:
确定所述人体部位的所述运动在所述运动感测结果及所述图像两个中是否相同。
17.根据权利要求11所述的基于行为的配置系统,其中所述第一人体部位及所述第二人体部位中的一个是所述用户的右手或左手。
18.根据权利要求11所述的基于行为的配置系统,其中所述运动感测设备包括运动传感器,且所述处理器经配置用以执行:
基于所述运动传感器的运动感测结果确定所述运动感测设备的运动以确定所述运动感测设备被激活。
19.根据权利要求11所述的基于行为的配置系统,还包括:
第三运动感测设备,其中所述处理器经配置用以执行:
响应于所述运动感测设备未激活而使用从所述第三运动感测设备获得的第三运动感测数据来感测所述人体部位的运动。
20.根据权利要求11所述的基于行为的配置系统,还包括:
在所述第一操作模式中移动对应于所述用户的所述第一人体部位的化身的第一身体部位;以及
在所述第二操作模式中移动对应于所述用户的所述第二人体部位的所述化身的第二身体部位。
CN201911251004.6A 2019-12-09 2019-12-09 基于行为的配置方法和基于行为的配置系统 Withdrawn CN113031755A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911251004.6A CN113031755A (zh) 2019-12-09 2019-12-09 基于行为的配置方法和基于行为的配置系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911251004.6A CN113031755A (zh) 2019-12-09 2019-12-09 基于行为的配置方法和基于行为的配置系统

Publications (1)

Publication Number Publication Date
CN113031755A true CN113031755A (zh) 2021-06-25

Family

ID=76451063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911251004.6A Withdrawn CN113031755A (zh) 2019-12-09 2019-12-09 基于行为的配置方法和基于行为的配置系统

Country Status (1)

Country Link
CN (1) CN113031755A (zh)

Similar Documents

Publication Publication Date Title
US11030237B2 (en) Method and apparatus for identifying input features for later recognition
JP2022095879A (ja) 眼の特徴を用いる眼ポーズ識別
CN107646098A (zh) 用于在虚拟现实中跟踪手持式设备的系统
CN112926423B (zh) 捏合手势检测识别方法、装置及系统
CN104598019A (zh) 画面操作装置以及画面操作方法
US9639164B2 (en) Gesture input method
US9563258B2 (en) Switching method and electronic device
CN105242888B (zh) 一种系统控制方法及电子设备
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
US11029753B2 (en) Human computer interaction system and human computer interaction method
CN117242419A (zh) 手势的多元检测
US10996743B2 (en) Electronic system and controller and the operating method for the same
Tsun et al. A human orientation tracking system using Template Matching and active Infrared marker
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
CN113031755A (zh) 基于行为的配置方法和基于行为的配置系统
US20210165485A1 (en) Behavior-based configuration method and behavior-based configuration system
EP3832434A1 (en) Behavior-based configuration method and behavior-based configuration system
TW202122970A (zh) 基於行為的配置方法和基於行為的配置系統
JP2021089693A (ja) 行動ベースの構成方法及び行動ベースの構成システム
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
CN113031753A (zh) 运动传感数据产生方法和运动传感数据产生系统
EP3832436A1 (en) Motion sensing data generating method and motion sensing data generating system
US20210157395A1 (en) Motion sensing data generating method and motion sensing data generating system
JP2021089692A (ja) 動作感知データ生成方法及び動作感知データ生成システム
KR102346904B1 (ko) 제스처 인식 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210625

WW01 Invention patent application withdrawn after publication