CN105228709B - 用于重复检测和分析的信号分析 - Google Patents

用于重复检测和分析的信号分析 Download PDF

Info

Publication number
CN105228709B
CN105228709B CN201480015396.5A CN201480015396A CN105228709B CN 105228709 B CN105228709 B CN 105228709B CN 201480015396 A CN201480015396 A CN 201480015396A CN 105228709 B CN105228709 B CN 105228709B
Authority
CN
China
Prior art keywords
user
depth
step
embodiment
example
Prior art date
Application number
CN201480015396.5A
Other languages
English (en)
Other versions
CN105228709A (zh
Inventor
J.R.胡夫
D.G.肯尼特
A.爱哈马德
Original Assignee
微软技术许可有限责任公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US13/804,619 priority Critical patent/US9159140B2/en
Priority to US13/804619 priority
Application filed by 微软技术许可有限责任公司 filed Critical 微软技术许可有限责任公司
Priority to PCT/US2014/026270 priority patent/WO2014151700A1/en
Publication of CN105228709A publication Critical patent/CN105228709A/zh
Application granted granted Critical
Publication of CN105228709B publication Critical patent/CN105228709B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/02Accessories
    • A63F13/06Accessories using player-operated means for controlling the position of a specific area display
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Abstract

本文描述的技术使用信号分析来检测和分析在3D图像中采集的重复性用户动作。重复性动作可以是用户运动。一个实施例包括分析跟踪执行重复性动作的用户的图像数据以确定与该重复性动作相关联的参数的数据点。不同数据点针对不同时间点。形成跟踪该重复性动作的参数相比时间的参数信号。将参数信号分为界定段,所述界定段将重复性动作的一个重复根据重复性动作的其它重复描绘出。使用信号处理技术分析参数信号中的重复。可使用曲线拟合和/或自相关来分析重复。

Description

用于重复检测和分析的信号分析

背景技术

[0001] 计算机视觉已被用于分析来自真实世界的图像以用于各种目的。一个示例是提供 用于电子设备的自然用户界面(“NUI”)。在一个NUI技术中,采集并且分析用户的3D图像以 识别某些姿态或姿势。因此,用户可作出姿势来提供输入以控制诸如计算机游戏或多媒体 应用之类的应用。

[0002] —些应用要求对用户的动作的更精确理解和分析。对于一些应用,可能期望的是 分析和评估用户的动作。用于识别姿势和姿态的常规技术对于这样的应用不是适当的。

发明内容

[0003] 本文公开的是用于使用信号分析来检测和分析在3D图像中采集的重复性用户动 作的系统和方法。重复性动作将是用户运动。

[0004] —个实施例包括一种分析重复性动作的方法,其包括以下。访问跟踪执行重复性 动作的用户的图像数据。分析图像数据以确定参数的数据点。不同数据点针对不同时间点。 形成跟踪重复性动作的参数相比时间的参数信号。将参数信号分为重复性动作的重复。使 用信号处理技术分析参数信号中的重复中的第一重复。

[0005] —个实施例包括一种系统,其包括采集跟踪用户的3D图像数据的采集设备,和与 采集设备通信的处理器。处理器被配置为分析3D图像数据以确定参数的数据点。不同的数 据点针对不同时间点。处理器被配置为形成跟踪重复性动作的参数相比时间的参数信号。 处理器被配置为将参数信号分为界定段,所述界定段将参数信号分为重复性动作的重复。 处理器被配置为使用数字信号处理技术分析参数信号中的重复中的第一重复。

[0006] —个实施例包括一种计算机可读存储设备,其包括用于将处理器编程为访问跟踪 用户运动的图像数据并且分析图像数据以确定跟踪用户运动的重复性动作的参数的数据 点的处理器可读代码。不同的数据点针对不同时间点。处理器可读代码进一步用于将处理 器编程为形成跟踪重复性动作的参数相比时间的参数信号。处理器可读代码进一步用于将 处理器编程为将参数信号分为界定段,所述界定段将重复性动作的一个重复根据重复性动 作的其它重复描绘出。处理器可读代码进一步用于将处理器编程为使用数字信号处理技术 分析参数信号中的第一重复。

[0007] 该发明内容被提供来介绍以简化形式的在下文在具体实施方式中被进一步描述 的概念的选择。该发明内容并不打算标识要求保护的主题的关键特征或必要特征,其也不 打算用作确定要求保护的主题的范围的辅助。此外,要求保护的主题并不限于解决在本公 开的任何部分中提到的任何或所有缺点的实施方式。

附图说明

[0008] 图IA和IB图示跟踪用户的跟踪系统的示例实施例。

[0009] 图2图示可用作跟踪系统的部分的采集设备的示例实施例。

[0010] 图3A是分析用户动作的进程的一个实施例的流程图。

[0011] 图3B是运行时引擎的一个实施例的图。

[0012] 图3C是基于什么动作正被分析在运行时引擎中选择代码的进程的一个实施例的 流程图。

[0013] 图3D是示出运行时引擎的深度识别器的一个实施例的进一步细节的图。

[0014] 图3E是示出运行时引擎的移动识别器的一个实施例的进一步细节的图。

[0015] 图3F是示出运行时引擎的位置分析的一个实施例的进一步细节的图。

[0016] 图3G是示出运行时引擎的时间/动作分析的一个实施例的进一步细节的图。

[0017] 图3H是示出运行时引擎的深度分析的一个实施例的进一步细节的图。

[0018] 图4A图示示例性深度图像。

[0019] 图4B描绘在示例性深度图像中的示例性数据。

[0020] 图5A示出通过骨架识别引擎生成的示例身体模型的非限制视觉表示。

[0021] 图5B示出如从正面观看的骨架模型。

[0022] 图5C示出如从歪斜视图观看的骨架模型。

[0023] 图6A是运行时引擎的一个实施例的图。

[0024] 图6B是基于身体模型确定人的质心的进程的一个实施例的流程图。

[0025] 图7A是基于身体模型确定惯性张量的进程的一个实施例的流程图。

[0026] 图7B是确定身体部位质心状态矢量中的元素的进程的一个实施例的流程图。

[0027] 图7C是确定在整个身体部位质心状态矢量中的元素的进程的一个实施例的流程 图。

[0028] 图8A是确定引起质心状态矢量的改变将需要的力的一个实施例的流程图。

[0029] 图8B是使用基于全身的冲激的约束求解的肌肉力/扭矩计算的一个实施例的流程 图。

[0030] 图9A是分析由正被采集系统跟踪的用户执行的重复的进程的一个实施例的流程 图。

[0031]图9B示出一个示例参数信号的表示。

[0032]图9C示出一个示例导数信号。

[0033]图IOA是拟合曲线到已界定(bracketed)重复以确定时序参数的进程的一个实施 例的流程图。

[0034] 图IOB示出到对应于一个界定段(bracket)的参数信号的一部分的示例曲线拟合。

[0035] 图IlA是用于使用信号处理以分析参数信号的进程的一个实施例的流程图。

[0036] 图IlB示出自相关的一个实施例的示例。

[0037] 图12图示在图2中介绍的运行时引擎的示例实施例。

[0038] 图13A和13B图示根据特定实施例的被用于概括用于确定基于深度的质心位置、基 于深度的惯性张量、基于深度的象限质心位置和基于深度的象限惯性张量的方法的高阶流 程图。

[0039] 图14A示出表示对应于执行分腿跳的(深度图像的)用户的多个像素的剪影,该图 被用于图示示例性的基于深度的质心位置和示例性的基于深度的象限质心位置。

[0040] 图14B示出表示对应于执行俯卧撑的(深度图像的)用户的多个像素的剪影,该图 被用于图示示例性的基于深度的质心位置和示例性的基于深度的象限质心位置。

[0041] 图15图示被用于概括如何可基于根据参考图13A-13B描述的实施例确定的信息更 新应用的高阶流程图。

[0042] 图16图示可用于跟踪用户行为并且基于用户行为更新应用的计算系统的示例实 施例。

[0043] 图17图示可用于跟踪用户行为并且基于跟踪的用户行为更新应用的计算系统的 另一个示例实施例。

[0044] 图18图示图2中介绍的运行时引擎的示例实施例。

[0045] 图19图示被用于概括用于基于深度图像确定指示用户的身体的角度和/或曲率的 信息的方法的高阶流程图。

[0046] 图20A-20C示出表示对应于执行不同瑜伽姿态或运动的(深度图像的)用户的多个 像素的剪影,所述图被用于解释如何可基于深度图像确定指示用户的身体的角度和曲率的 信息。

[0047] 图21是根据一实施例的,用于提供图19中的步骤之一的附加细节的高阶流程图。

[0048] 图22图示用于概括如何可根据参考图19-21描述的实施例确定的信息来更新应用 的高阶流程图。

[0049] 图23A-23F示出表示对应于执行瑜伽姿态或其它运动的(深度图像的)用户的多个 像素的剪影,所述图被用于解释如何可标识用户的极端并且如何可确定平均极端位置(还 被称为极端团块(blob)的平均位置)。

[0050] 图24图示了用于概括用于基于深度图像标识用户的平均极端位置的方法的高阶 流程图。

[0051] 图25是根据一实施例的,用于提供图24中的步骤中的一些的附加细节的高阶流程 图。

[0052] 图26示出表示对应于在站立位置的(深度图像的)用户的多个像素的剪影连同基 于深度图像确定的平均极端位置。

[0053] 图27用于解释可将深度图像内的用户分为象限并且可针对每个象限确定平均极 端位置。

[0054] 图28示出表示对应于前屈的(深度图像)的用户的多个像素的剪影,该图被用于解 释如何可基于深度图像确定平均前极端位置。

[0055] 图29图示用于概括如何可基于根据参考图23A-28描述的实施例确定的信息更新 应用的高阶流程图。

具体实施方式

[0056] 本文描述的实施例使用深度图像来分析用户动作。一个实施例包括一种用于分析 3D图像中的用户动作的运行时引擎。运行时引擎能够根据动作是什么来使用不同技术来分 析用户的动作。运行时引擎可选择根据骨架跟踪数据的技术和/或替代地使用图像分割数 据的技术来确定用户是否在执行正确的动作。运行时引擎可基于正执行什么动作来确定如 何执行对用户的执行的位置分析或时间/动作分析。

[0057] 在一个实施例中,分析重复性动作,如用户运动。系统可使用的一个跟踪技术是骨 架跟踪。然而,系统不限于骨架跟踪。

[0058] 根据一个实施例,描述了一种系统和方法,其跟踪用户动作并且提供关于用户的 动作的反馈。例如,用户可被要求执行俯卧撑。系统可跟踪用户的动作并且分析俯卧撑以确 定用户是否正确执行俯卧撑。系统可通知用户,他们的臀部过高,他们的肘部在俯卧撑的顶 部不完全挺直,他们在一些俯卧撑上未完全下来等。系统还可根据用户的执行的评估来确 定用户的适当运动例程。

[0059] 跟踪正执行动作(其可能是重复的)(例如运动)的用户是具有挑战的。一个挑战是 开发能够向正执行动作(例如但不限于运动)的用户提供反馈所需的精度。根据一些实施 例,对于跟踪系统令人期望的是能够识别用户动作的微妙差别。作为一个示例,可令人期望 的是确定当他们下蹲时用户臀部的角度的微妙差别,当用户举重时在身体的右侧和左侧之 间的微妙差别,在重量分布上的微妙差别等。作为一些另外示例,可令人期望的是确定是否 用户正真实执行俯卧撑,或仅仅举起他们的肩膀和上部躯体离开地板。对于常规跟踪技术, 识别这样的微妙差别可能是非常困难的。

[0060] 另一挑战是在一些情况下工作良好的跟踪技术在其他情况下未工作良好。例如, 当用户在站立时可工作良好的跟踪技术可能在用户在地板上时遇到问题。当用户在地板上 时可工作良好的跟踪技术当被用于跟踪正站立的用户时可能具有缺陷。而且,对于一些移 动(例如一些运动),用户可能对于运动的部分是站立的,并且对于运动的另一部分是至少 部分在地板上的。

[0061] 在一个实施例中,基于身体模型确定一个或多个质心状态矢量。身体模型可具有 关节和几何形状。例如,可使用圆柱体来表示用户的手臂的上部分。另一圆柱体可用于表示 用户的手臂的下部分。可使用其他几何形状。在一个实施例中,几何形状是围绕中心轴对称 的。

[0062] 质心状态矢量可包括例如质心位置、质心速度、质心加速度、角速度、身体部位或 整个身体的取向、角加速度、惯性张量和角动量。可针对个体身体部位或针对作为整体的身 体来确定质心状态矢量。可使用(多个)质心状态矢量来分析用户的动作。例如,可使用这样 的信息来跟踪执行某些运动(例如蹲、弓步、俯卧撑、跳或分腿跳)的用户,从而可控制用户 的化身(avatar),可对用户评分,和/或可提供反馈给用户。在应用指令用户执行某些身体 运动的情况下,应用可确定用户是否以正确的形态执行运动,并且在他们还未的情况下,可 向用户提供给关于用户可如何改进他们的形态的反馈。

[0063] 在一个实施例中,使用质心状态矢量来分析用户的移动。在一个实施例中,确定为 了导致在质心状态矢量的改变,身体部位将需要施加的力。例如,当用户在运动时,他们的 脚需要施加一定力以便他们跳跃、扭转等。可基于脚是与地面的约束的假定来计算脚力。

[0064] 在一个实施例中,系统通过将身体视为布偶来计算肌肉力/扭矩,该布偶具有由惯 性张量计算使用的形状规定的身体部位和由身体的配置规定的约束。例如,上臂是一个身 体部位,下臂是另一个,并且两者通过位于肘部的约束来连接。附加地,如果脚被发现与地 面接触,则针对处于这样的接触的每个脚添加约束。

[0065] 在一个实施例中,使用信号分析来分析重复性动作(例如运动)的用户执行。当随 着时间绘制与重复性动作相关联的参数(例如质心)时,该图可以与信号相似。在训练(例如 体质训练)的情况下,很多这些信号具有它们特有“脉冲”外观,其中值从一个位置移位,在 某一方向上移动,然后在“重复”的末尾回到原始位置。一个实施例包括标定这些序列的重 复标定和粗略界定(bracketing)系统。

[0066] 在一个实施例中,系统形成跟踪与用户的动作相关联的一些参数的“参数信号”。 系统可采用参数信号的导数以形成“导数信号”。导数信号可帮助标识参数信号中的重复。 系统可向参数信号应用各种信号处理技术(例如曲线拟合、自相关等)来分析重复。

[0067] 在讨论质心状态矢量的进一步细节并且使用信号分析之前将讨论示例系统。图IA 和IB图示跟踪系统的示例实施例,而用户118执行健身锻炼。在示例实施例中,跟踪系统100 可用于识别、分析和/或跟踪人目标(如用户118)或跟踪系统100的范围内的其它对象。如图 IA中示出的,跟踪系统100包括计算系统112和采集设备120。如将在下文附加详细描述的, 采集设备120可用于获得可由计算系统112使用的深度图像和彩色图像(也被称为RGB图像) 以标识一个或多个用户或其它对象,以及跟踪动作和/或其它用户行为。被跟踪的动作和/ 或其它用户行为可用于分析用户的身体移动并且提供反馈给用户。例如,用户可被指令执 行俯卧撑,而系统跟踪用户的形态。系统可提供反馈给用户来帮助他们校正他们的形态。系 统可标识用于改进的区域,并且建立用户的锻炼计划。

[0068] 在一个实施例中,跟踪用户可被用于提供自然用户界面(NUI)t3NUI可用于允许用 户更新应用。因此,用户可通过使用用户的身体和/或在用户周围的对象的移动,而不是(或 附加地)使用控制器、遥控器、键盘、鼠标等)来操作应用的游戏角色或其它方面。例如,视频 游戏系统可基于对象的新位置来更新显示在视频游戏中的图像的位置,或基于用户的动作 更新化身。因此,化身可跟踪用户的实际移动。系统可在化身旁边渲染另一个人,例如健身 教练、运动明星等。因此,用户可想象它们与某人一起锻炼或被某人带教。

[0069] 计算系统112可以是计算机、游戏系统或控制台等。根据示例实施例,计算系统112 可包括硬件组件和/或软件组件,使得计算系统112可用于执行应用,例如游戏应用、非游戏 应用等。在一个实施例中,计算系统112可包括处理器,例如标准化处理器、专门处理器、微 处理器等,其可执行存储在处理器可读存储介质上的指令以用于执行本文描述的进程。

[0070] 采集设备120可以是例如摄像机,其可用于视觉地监视一个或多个用户(例如用户 118),使得由一个或多个用户执行的姿势和/或移动可被采集、分析和跟踪。由此,可生成质 心状态矢量。

[0071] 根据一个实施例,跟踪系统100可连接到可提供游戏或应用视频和/或音频给用户 (例如用户118)的视听设备116 (例如电视机、监视器、高清电视(HDTV)等。例如,计算系统 112可包括可提供与游戏应用、非游戏应用等相关联的视听信号的视频适配器(例如图形 卡)和/或音频适配器(例如声卡)。视听设备116可接收来自计算系统112的视听信号并且可 然后输出与视听信号相关联的游戏或应用视像和/或音频给用户118。根据一个实施例,视 听设备116可经由例如S-Vi deo电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆 等连接到计算系统112。

[0072] 如在图IA和IB中示出的,跟踪系统100可用于识别、分析和/或跟踪人目标(例如用 户118)。例如,跟踪系统100确定描述用户的动作的各种参数同时例如执行运动例程。示例 参数包括但不限于质心状态矢量。在一个实施例中,该状态矢量可基于身体模型来确定。

[0073] 作为另一示例,可使用采集设备120来跟踪用户118,使得用户118的姿势和/或移 动可被采集以动画操纵化身或屏幕上角色,和/或可被解释为可用于影响由计算系统112执 行的应用的控制。因此,根据一个实施例,用户118可移动他或她的身体来控制应用和/或动 画操纵化身或屏幕上角色。

[0074] 在图IA和IB中描绘的示例中,在计算系统112上执行的应用可以是用户118执行的 运动例程。例如,计算系统112可使用视听设备116来向用户118提供健身训练师138的视觉 表示。计算系统112还可使用视听设备116来提供用户118可利用他或她的移动来控制的玩 家化身140的视觉表示。例如,如在图IB中示出的,用户118可在物理空间中移动他们的手臂 以引起玩家化身140在游戏空间中移动它的手臂。因此,根据示例实施例,计算系统112和采 集设备120识别和分析用户118在物理空间中的手臂移动,使得可分析用户的形态。系统可 向用户提供他们执行该动作多好的反馈。

[0075] 在示例实施例中,人目标(例如用户118)可具有物体。在这样的实施例中,电子游 戏的用户可持有该物体,使得可分析玩家和物体的动作。例如,可跟踪和分析玩家挥动网球 球拍的动作以确定用户的形态是否良好。还可跟踪用户未持有的物体,例如由用户(或不同 用户)抛出、推动或滚动的物体以及自我推进的物体。除了网球外,还可实施其他游戏。

[0076] 根据其它示例实施例,跟踪系统100可进一步用于将目标移动解释为操作系统和/ 或在游戏的领域之外的应用控制。例如,操作系统和/或应用的视觉上任何可控制方面可由 目标(例如用户118)的移动来控制。

[0077] 图2图示了可在跟踪系统100中使用的采集设备120的示例实施例。根据示例实施 例,采集设备120可被配置为经由任何适当技术(包括例如飞行时间、结构化光、立体图像 等)采集具有包括深度图像(其可包括深度值)的深度信息的视频。根据一个实施例,采集设 备120可将深度信息组织为“Z层”,或可与从深度摄像机沿着其视线延伸的Z轴垂直的层。

[0078] 如在图2中示出的,采集设备120可包括图像摄像机组件222。根据示例实施例,图 像摄像机组件222可以是可采集场景的深度图像的深度摄像机。深度图像可包括所采集的 场景的二维(2-D)像素区域,其中2-D像素区域中的每个像素可表示深度值(例如距离摄像 机的在采集场景中的对象的以例如厘米、毫米等为单位的距离)。

[0079] 如在图2中示出的,根据示例实施例,图像摄像机组件22可包括可用于采集场景的 深度图像的红外(IR)光组件224、三维(3-D)摄像机226和RGB摄像机228。例如,在飞行时间 分析中,采集设备120的IR光组件224可发射红外光到场景上并且可然后使用传感器(未示 出)来使用例如3-D摄像机226和/或RGB摄像机228检测来自场景中的一个或多个目标和对 象的表面的反向散射光。在一些实施例中,可使用脉冲式红外光,使得可测量在传出光脉冲 和对应的传入光脉冲之间的时间并使用其来确定从采集设备120到场景中的目标或对象上 的特定位置的物理距离。附加地,在其他示例实施例中,传出光波的相位可与传入光波的相 位比较以确定相移。可然后使用相移来确定从采集设备到目标或对象上的特定位置的物理 距离。

[0080] 根据另一示例实施例,可使用飞行时间分析来经由各种技术(包括例如快门光脉 冲成像)通过分析光的反射光束随着时间的强度来间接确定从采集设备120到目标或对象 上的特定位置的物理距离。

[0081] 在另一示例实施例中,采集设备120可使用结构化光来采集深度信息。在这样的分 析中,可经由例如IR光组件224将图案化光(即被显示为已知图案,例如网格图案、条带图案 或不同图案的光)投影到场景上。在撞击场景中的一个或多个目标或对象的表面后,作为响 应,图案可变得变形。可通过例如3-D摄像机226和/或RGB摄像机228来采集图案的如此变 形,并且可然后分析图案的如此变形以确定从采集设备到目标或对象上的特定位置的物理 距离。在一些实施方式中,从摄像机226和228移位IR光组件224,从而可使用三角测量来确 定距离摄像机226和228的距离。在一些实施方式中,采集设备120将包括用以感测IR光的专 用IR传感器。

[0082] 根据另一实施例,采集设备120可包括两个或多个物理分离摄像机,其可从不同角 度观看场景以获得可被解析以生成深度信息的视觉立体数据。还可使用其它类型的深度图 像传感器来建立深度图像。

[0083] 采集设备120可还包括麦克风230。麦克风230可包括可接收和转换声音到电信号 的换能器或传感器。根据一个实施例,麦克风230可用于减小目标识别、分析和跟踪系统100 中的采集设备120和计算系统112之间的反馈。附加地,麦克风230可用于接收音频信号,用 户还可提供该音频信号来控制可由计算系统112执行的应用,例如游戏应用、非游戏应用 等。

[0084] 在示例实施例中,采集设备120可还包括处理器232,处理器232可与图像摄像机组 件222操作性通信。处理器232可包括可执行包括例如用于接收深度图像、生成适当数据格 式(例如帧)和传输数据到计算系统112的指令的指令的标准化处理器、专门处理器、微处理 器等。

[0085] 采集设备120可还包括存储器组件234,存储器组件234可存储可由处理器232执行 的指令、由3-D摄像机和/或RGB摄像机采集的图像或图像帧、或任何其他适当信息、图像等。 根据示例实施例,存储器组件234可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓 存、闪存、硬盘或任何其他适当存储组件。如在图2中示出的,在一个实施例中,存储器组件 234可以是与图像采集组件222和处理器232通信的单独组件。根据另一实施例,存储器组件 234可以集成在处理器232和/或图像采集组件222中。

[0086] 如在图2中示出的,采集设备120可以经由通信链路236与计算系统212通信。通信 链路236可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或例如无线 802. llb、g、a或η连接的无线连接。根据一个实施例,计算系统112可提供时钟给采集设备 120,时钟可被用于确定何时经由通信链路236采集例如场景。附加地,采集设备120经由通 信链路236向计算系统112提供由例如3-D摄像机226和/或RGB摄像机228采集的深度图像和 彩色图像。在一个实施例中,深度图像和彩色图像以每秒30帧被传输。计算系统112可然后 使用模型、深度信息和采集的图像来例如控制应用(例如游戏或字处理器)和/或动画操纵 化身或屏幕上角色。

[0087] 计算系统112包括姿势库240、结构数据242、运行时引擎244、骨架识别引擎和应用 246。运行时引擎244可执行深度图像处理和对象报告。运行时引擎244可使用深度图像来跟 踪对象(例如用户和其它对象)的动作。为了辅助对对象的跟踪,运行时引擎244可使用姿势 库240、结构数据242和骨架识别引擎192。在一个实施例中,运行时引擎244分析由系统100 跟踪的用户的动作。这可以是一些重复性动作,例如运动。

[0088] 结构数据242包括关于可被跟踪的对象的结构信息。例如,可存储人的骨架模型来 帮助理解用户的移动并且识别身体部位。还可存储关于无生命对象的结构信息来帮助识别 那些对象并且帮助理解移动。

[0089] 姿势库240可包括姿势滤波器的集合,每个姿势滤波器包括涉及可由骨架模型执 行(随着用户移动)的姿势的信息。以骨架模型和与其相关联的移动的形式的由摄像机226、 228和采集设备120采集的数据可与姿势库240中的姿势滤波器比较,来标识何时用户(如由 骨架模型表示的)已经执行一个或多个姿势。那些姿势可以与关联于运动的姿态相关联。

[0090] 姿势库240可与除了骨架跟踪之外的技术一起使用。这样的其它技术的示例包括 图像分割技术。图18-29提供图像分割技术的实施例的细节。然而,可使用其他图像分割技 术。

[0091] 在一个实施例中,姿势可与用户执行的各种运动相关联。例如,姿势可以是在运动 期间执行的姿态或移动。例如,可存在与俯卧撑相关联的三个姿态:俯卧(例如面朝下)位 置、伸出手臂的向上位置和低俯卧位置。系统可寻找该序列以确定用户是否执行俯卧撑。

[0092] 在一个实施例中,姿势可以与应用的各个控制相关联。因此,计算系统112可使用 姿势库240来解释骨骼模型的移动并且基于移动控制应用246。因此,可由运行时引擎244和 应用246使用姿势库。

[0093] 应用246可以是健身程序、视频游戏、生产力应用等。在一个实施例中,运行时引擎 244将向应用246报告检测的每个对象的标识和针对每个帧的对象的位置。应用246将使用 该信息来更新显示器中的化身或其它图像的位置或移动。

[0094] 运行时引擎

[0095] 一些常规跟踪技术依赖单个或几个技术来识别姿势和/或姿态。姿势的一个示例 是用户出拳。例如,常规系统可查看四肢的位置和/或四肢之间的角度。系统可寻找用户的 手/拳轻微到身体之外,接着是手/拳从身体完全伸展,来检测用户出拳。只要关节角度符合 于角度范围内,这可表明左臂被举起。常规姿态匹配系统可将多个姿态串在一起。例如,如 果系统确定用户的手靠近身体,接着用户的手从身体伸展开,系统将假定用户执行拳击。

[0096] 然而,这样的常规技术可能不适合用于跟踪和评估用于应用(包括但不限于监测 和评估正运动的用户)的用户动作。这样的系统可跟踪和评估宽范围的用户动作。在一些情 况中,被跟踪的各种动作可导致需要应用不同技术。例如,对于跟踪和评估(直线弓步)的系 统,系统可能需要跟踪形态,以及跟踪用户如何移动穿过空间。对于跟踪和评估俯卧撑的系 统,系统可能需要跟踪形态,以及跟踪节拍。然而,用户移动穿过空间的方式可能不如对于 跟踪和评估俯卧撑那么重要。在一个实施例中,系统执行的分析的类型取决于用户正在执 行什么动作(例如运动)。

[0097] 评估用户的动作的执行的一个方式是跟踪参数(例如他们的质心)。系统可跟踪质 心如何移动穿过空间,以便评估他们如何执行给定动作。

[0098] 图3A是分析用户动作的进程300的一个实施例的流程图。进程300可以在例如图 1A、图IB和/或2的系统中实践。在一个实施例中,进程300的步骤由运行时引擎244执行。在 一个实施例中,进程300分析包括一串姿态的姿势。该姿势可以是身体运动,例如仰卧起坐、 俯卧撑等。然而,姿势不限于身体运动。

[0099] 在一个实施例中,进程300用于向正运动或执行一些其他姿势的用户提供反馈。系 统100可执行引导用户通过健身例程的应用。该应用可指令用户执行运动,例如执行“俯卧 撑”、“仰卧起坐”、“下蹲”等。

[0100] 在步骤302,接收(多个)深度图像。在一个实施例中,采集设备120提供深度图像给 计算系统112。深度图像可以被处理以生成骨架跟踪数据,以及图像分割数据。

[0101] 在步骤304,确定移动。该移动可以通过一系列姿态限定。例如,俯卧撑是移动的一 个示例。该移动可包括一系列姿态。该移动还可被称为姿势。在一个实施例中,运行时引擎 244通过分析(多个)深度图像确定用户做出什么移动。术语“分析深度图像”意指包括分析 从深度图像得出的数据,例如但不限于骨架跟踪数据和图像分割数据。在步骤306,做出用 户是否做出正确移动的确定。作为一个示例,系统100确定用户是否执行俯卧撑。如果不,系 统100可在步骤310向用户提供反馈:未检测到正确移动。在一个实施例中,使用深度识别器 (图3B,358)和/或移动识别器(图3B,360)来分析用户是否做出正确移动。深度识别器358和 移动识别器(360)在下文讨论。

[0102] 假定做出正确移动,在步骤308分析移动。作为一个示例,系统100确定当执行“俯 卧撑”或一些其他运动时用户的形态是否良好。在一个实施例中,系统100将运动的一个重 复与其他重复进行比较来确定变化。因此,系统100能够确定用户的形态是否改变,这可表 明疲劳。

[0103] 在一个实施例中,运行时引擎244具有位置分析(图3B、346)时间/动作分析(图3B、 366)和深度分析(图3B、368)来分析用户的执行。位置分析364、时间/动作分析366和深度分 析368在下文讨论。

[0104] 在步骤310,系统100基于移动的分析来提供反馈。例如,系统100可通知用户当执 行运动时用户的位置/移动不匀称。作为特定示例,系统100可通知用户他们的重量过多在 他们的脚的前部分上。

[0105] 图3B是运行时引擎244的一个实施例的图。运行时引擎244可用于实施进程300。运 行时引擎244可输入现场图像数据354以及回放图像数据352两者。现场图像数据354和回放 图像数据352可都包括RGB数据、深度数据和骨架跟踪(ST)数据。在一个实施例中,ST数据通 过骨架识别引擎192来生成。

[0106] 可使骨架跟踪(ST)数据通过ST滤波器、ST归一化和/或ST约束356 AT滤波器可以 平滑掉带噪声的(例如抖动的)关节位置。滤波器的示例包括但不限于时间滤波器、指数滤 波器和卡尔曼滤波器。ST归一化可保持如四肢长度之类的参数随着时间恒定。这可被称为 骨骼长度归一化。ST约束可以对骨架数据做出调整以校正解剖学上不可能的位置。例如,系 统I00可具有对于特定关节允许的角度范围,使得如果角度在该范围之外,则调整其以落入 允许角度内。滤波器可帮助改进精度以稍后用于运行时引擎。在一个实施例中,骨架识别引 擎192包含ST滤波器、ST归一化和/或ST约束356。

[0107] 方框356还包括深度数据和图像分割数据。在一个实施例中,深度数据通过深度图 像中的每个像素的z值来表征。每个像素可以与X位置和y位置相关联。图像分割数据可以从 深度数据得到。

[0108] 接着分割进程,深度图像中的每个像素可具有与其相关联的分割值。像素位置可 通过X位置值(即水平值)和y位置值(即垂直值)来指示。像素深度可通过Z位置值(还被称为 深度值)来指示,z位置值指示在用于获得深度图像的采集设备(例如120)和由像素表示的 用户(或玩家)的部分之间的距离。分割值用于指示像素是否对应于具体用户,或不对应于 用户。结合图4A进一步讨论分割。还结合图18讨论深度图像分割。在一个实施例中,方框356 部分与图18的深度图像分割1852—起实施。

[0109] 深度识别器358和移动识别器360可都执行姿势和姿态识别。深度识别器358和移 动识别器360是“姿态识别器”的两个示例。深度识别器358和移动识别器360可都用于通过 例如识别一系列姿态来确定用户是否执行正确的移动。例如,它们可用于确定用户是否执 行了俯卧撑、仰卧起坐等。深度识别器358和移动识别器360不一定评估用户多好地执行了 动作。然而,深度识别器358和/或移动识别器360可执行用户多好地执行了动作的一些分 析。例如,深度识别器358和/或移动识别器360可执行哪些身体部位不在适当位置的一些分 析。

[0110] 可工作良好以执行当用户在站立时的姿势和姿态识别的技术可能在用户在地板 上时没工作这么好。在一个实施例中,系统100根据用户相对于地板的位置来确定是否使用 深度识别器358和/或移动识别器360。例如,系统100可当人站立并且出拳时使用移动识别 器360,但是当用户执行俯卧撑时使用深度识别器358。

[0111] 移动识别器360可当用户不在地板上时主要执行姿势和姿态识别。相比于纯深度 图像数据,移动识别器360可更依赖于骨架数据。在一个实施例中,移动识别器360检查ST关 节相对于彼此和身体的角度、位置和旋转。在一个实施例中,移动识别器360检查用户的脊 柱的角度和旋转。这可包括横向弯曲。

[0112] 如提到的,移动识别器360和/或深度识别器358可被用于确定用户是否执行了正 确移动(由测试362表示)。在一个实施例中,系统100确定用户是否执行了一组姿态。例如, 对于俯卧撑,系统100寻找对应于俯卧撑的不同位置的姿态。俯卧撑的三个姿态的示例是对 应于用户在俯卧(例如面朝下)位置开始下降到地面,然后伸展他们的手臂到上位置,并且 然后返回到下位置的那些姿态。在该示例中,深度识别器可用于确定当用户在(或接近)地 板时用户是否做俯卧撑。

[0113] 系统100可针对一些姿态使用深度识别器358或移动识别器360。系统100可使用深 度识别器358和移动识别器360两者来确定用户是否执行其他姿态。这提供在识别姿态中的 大灵活性和精度。

[0114] 位置分析364、时间/动作分析366和/或深度分析368可用于评估用户的形态,假定 系统100确定用户执行正确的动作。

[0115] 位置分析364可基于在一个时间点处的身体部位的位置来评估用户的形态。在一 个实施例中,位置分析364比较身体部位和/或关节相对于彼此和/或相对于地板的位置。作 为一个示例,位置分析364可用于针对当前运动,确定用户的臀部是否相对于脚处于正确的 位置。

[0116] 时间/动作分析366可基于身体部位随着时间的位置来评估用户的形态。在一个实 施例中,时间/动作分析366查看在多个帧内的位置分析以确保用户的形态是正确的。这可 用于确定用户如何随着时间移动穿过空间。作为一个示例,时间/动作分析366可用于确定 用户的膝盖在下蹲期间是否弯曲。

[0117] 时间/动作分析366可寻找节拍,例如用户正多快地移动。例如,一些动作可具有特 有的2-1-2节拍,这指的是执行动作的不同节段的时间的相对长度。例如,俯卧撑可倾向于 通过2个时间单位的向上、1个时间单位的在顶部静止和再两个时间单位的回到下面来表 征。

[0118] 时间/动作分析366还可检查用户随着时间如何移动的曲线。在一个实施例中,系 统确定例如用户的质心之类的参数。可随着时间跟踪该参数的该位置。系统100然后通过分 析曲线的形状来评定用户的形态。可跟踪很多其它参数。

[0119] 当骨架跟踪数据不可用或可能不适当时深度分析368可依赖于深度图像数据。作 为一个示例,当用户在运动的至少一部分期间在地板上时可使用深度分析368。当用户在地 板上时,可能难以生成ST数据。

[0120] 评定372向用户提供关于他们的动作执行的反馈。例如,反馈可以是当执行俯卧撑 时用户的背和腿未形成直线,或当执行直线弓步时用户的右膝未在适当线上移动,这可表 明内转的问题。用户可被给予如何校正该问题的进一步反馈,例如保持他们的核心肌肉更 紧。进一步反馈可以是用户可能在他们的右膝或腿中具有弱点的警告等。

[0121] 还描绘锻炼计划374、服务器/DB 376和附加反馈378。鉴于用户的执行的评定,以 及如用户的目的、年龄等其他因素,锻炼计划374可向用户提供被推荐遵循的详细锻炼。

[0122] 服务器DB 376用于存储玩家反馈、执行和结果。该数据可然后用于分析和报告随 着时间的进展(或缺少进展)并且反馈回到锻炼计划374或甚至提供更多微妙差别到给予用 户的反馈。例如,如果运行时引擎244在多个对话中知道用户对于弓步具有问题,但是现在 显示大的进步,则反馈可以是沿着“做得好,我已真正看到随着时间的进步”的路线的某些 东西。该相同数据/遥测数据可由应用开发者使用以确定哪些运动太难,或姿势是否过于严 格并且人们未被正确检测。

[0123] 附加反馈378可被用于生成随着时间的反馈,用于成就或挑战,用于与其他玩家的 排行榜比较等。

[0124] 可添加实施用于执行用户的动作的分析的新技术的新模块到运行时引擎,而不必 改变分析其他动作的方式。例如,比如说,在运行时引擎244已被配置为评估100个不同运动 之后,期望几个更多运动被用于分析。可以是,新工具可期望用于分析新运动。新工具可被 容易添加到运行时引擎的模块化设计中,而不影响如何分析其他运动。这大大简化了运行 时引擎的设计、测试和开发。

[0125] 图3C是基于什么姿势(例如什么身体运动)正被分析选择在运行时引擎244中的代 码的进程311的一个实施例的流程图。在步骤312,做出关于应当使用什么技术来分析姿势 的确定。在一个实施例中,运行时引擎244可访问定义了给定用户被要求执行的运动而应当 执行什么代码(例如什么指令应当在处理器上执行)的存储信息。注意,步骤312可基于姿势 内的特定姿态来做出该确定。因此,可以使用不同技术分析给定姿势的不同姿态。

[0126] 在一个实施例中,运行时引擎244访问来自姿势数据库240的姿势的描述来确定应 当使用什么技术。姿势的描述可包括用于姿势的一系列姿态。姿态中的每个可规定应当使 用什么识别器358、360或计算来识别或分析该姿态。计算可以是在位置分析364、时间/动作 分析366和深度分析368中的不同计算。计算还可以是在深度识别器358和移动识别器360中 的不同计算。因此,用于识别和/或分析姿势的技术可以被量身定制用于特定姿势。

[0127] 在一个实施例中,步骤312包括确定使用什么技术来确定用户是否正在执行正确 的移动。这可包括确定是否使用基于骨架跟踪数据检测移动的运行时引擎244中的第一姿 态识别器(例如,深度识别器358)或基于图像分割数据检测移动的运行时引擎244中的第二 姿态识别器(例如,移动识别器360)。可基于人相对于地板的位置做出该确定。例如,如果执 行人主要站立的特定身体运动,则可使用使用骨架跟踪数据的技术。然而,如果执行人主要 在地板上的特定身体运动,则可使用使用图像分割数据的技术。

[0128] 在一个实施例中,步骤312包括基于正被运行时引擎分析的特定运动来确定哪些 计算用于执行在运行时引擎244中的时间/动作分析。例如,可选择在位置分析模块364内的 代码,使得基于什么身体运动正被执行来采用用于分析用户的动作的期望技术。

[0129] 在一个实施例中,步骤312包括基于正被运行时引擎分析的特定运动来确定哪些 计算用于执行运行时引擎244中的时间/动作分析。例如,可选择在时间/动作分析模块366 内的代码,使得基于什么身体运动正被执行来采用用于分析用户的动作的期望技术。

[0130] 在一个实施例中,步骤312包括基于正被运行时引擎分析的特定运动来确定哪些 计算用于执行运行时引擎244中的深度分析。例如,可选择在深度分析模块368内的代码,使 得基于什么身体运动正被执行来采用用于分析用户的动作的期望技术。

[0131] 在一个实施例中,步骤312包括确定是否使用使用骨架跟踪数据的计算或使用图 像分割数据的计算来执行姿势的分析。例如,与使用使用骨架跟踪数据的技术相反,系统可 选择使用深度分析368相比执行位置和/或时间/动作分析的技术。

[0132] 在步骤314,输入深度图像数据到运行时引擎244中。深度图像数据可包括深度图 像中的每个像素的深度值。深度图像数据可以被处理以生成骨架跟踪数据,以及图像分割 数据。

[0133] 在步骤316,运行时引擎244执行实施所选择技术的代码。在一个实施例中,运行时 引擎244具有用于实施不同技术以分析姿势的代码。可选择不同代码来实施用于分析用户 的动作的不同技术。作为一个示例,如果运动是诸如其中用户在(或靠近)地板的俯卧撑或 仰卧起坐之类的运动时,运行时引擎244可使用深度识别器358。然而,如果运动是诸如从地 板离开的直线弓步之类的运动时,运行时引擎244可使用移动识别器360。因此,步骤316可 包括在运行时引擎244内执行不同代码部分以分析不同运动。

[0134] 注意,可混合各种技术。例如,当分析用户的执行时,可与使用图像分割数据的计 算技术一起使用使用骨架跟踪数据的计算技术。图3D-3H提供深度识别器358、移动识别器 360、位置分析364、时间/动作分析366和深度分析368的实施例的进一步细节。在步骤316, 系统100可基于正被分析的姿势(例如身体运动),选择使用这些模块中的哪些和/或使用这 些模块内的什么计算。

[0135] 图3D是示出运行时引擎244的深度识别器358的一个实施例的另外细节的图。深度 识别器358具有深度/图像分割作为输入。结合图3B的方框356讨论了深度/图像分割。在一 个实施例中,从图18的运行时引擎中的一个或多个模块获得深度图像分割信息。作为一个 示例,深度图像分割1852可提供输入到深度识别器358。图18中的其它模块还可提供输入到 深度识别器358。

[0136] 深度识别器358还可访问姿势数据库240。这是有效或可用的所有姿势的数据库。 在一个实施例中,姿势由包括开始姿态、结束姿态和若干中间姿态的若干状态构成。每个状 态具有相关联姿态。对于每个状态,除了姿态,状态节点包含被用于识别和/或分析姿态的 识别器(例如358、360)、分析模块(例如364、366、368)和/或计算(例如在358、360、364、366、 368内的代码)的列表。状态节点还可包含反馈滤波器类型(和相关联数据)。下文关于图3F-3H讨论了反馈滤波器。姿态不一定必须是静止的。

[0137] 深度识别器358具有深度识别器模块402,其使用深度/图像分割作为输入来运行 (步骤404)。这些是用于识别姿势、确定用户的位置或移动是否与存储在姿势姿态节点中的 数据匹配的算法、库和计算。

[0138] 可由深度识别器模块402使用各种不同技术。这些技术包括但不限于基于深度的 质心(例如图12、254)、基于深度的惯性张量(例如图12、256)、基于深度缓冲的象限质心计 算(例如图13B)、经由剪影顶曲线拟合的基于深度缓冲的身体角度弯曲(例如图18、1854、 1856、1858)、侧/正图团块确定、用于从深度缓冲移除接近地板点以消除到地面的剪影渗出 的地板移除技术。在一个实施例中,运行时引擎244基于什么姿势正被分析来确定使用这些 技术中的哪些。这是基于正被分析的姿势来选择执行的计算的一个示例。因此,图3C的步骤 312可包括基于正被分析的姿势来选择这些计算中的一个。

[0139] 深度识别器358在步骤404执行深度识别器模块402以确定是否识别各个移动。以 下讨论将针对其中移动是特定的身体运动(例如仰卧起坐、俯卧撑、弓步等)的实施例。然 而,深度识别器358可用于识别除了身体运动之外的移动。

[0140] 如果姿态被识别(步骤414),则控制传到步骤422以确定这是否是该身体运动的最 后姿态。如果其是,则姿势通过识别标准(步骤420)。如果其不是最后姿态(步骤422=否),则 控制传到步骤412以得到将被识别/检测的下一姿态。这可在步骤410从姿势数据库240获 得。控制然后传到步骤404以再一次执行识别器模块402。

[0141] 如果姿态未被识别(步骤414=否),则做出该姿态是否是关键的确定(步骤416)。如 果该姿态不是关键的,则控制传到步骤412以获得对于该身体运动将被识别的下一姿态。如 果该姿态是关键的(步骤416=是),则控制传到步骤418以记录姿势无法通过识别标准。

[0142] 深度识别器358的输出是是否检测到正确的移动,由决策方框362表示。

[0143] 图3E是示出运行时引擎244的移动识别器360的一个实施例的进一步细节的图。移 动识别器360具有ST滤波器、ST归一化和ST约束作为输入。这还可以被称为骨架跟踪信息。 下文讨论的图5A-5C提供了生成骨架跟踪信息的一个实施例的进一步细节。移动识别器360 还可访问姿势数据库240。

[0144] 移动识别器360包括移动识别器模块442。这些是用于识别姿态、确定用户位置或 移动是否与姿势姿态节点中存储的数据匹配的算法、库和计算。可通过移动识别器模块442 使用各种不同技术。那些技术包括但不限于与阈值范围的ST关节位置和旋转比较、基于身 体模型的质心和惯性张量计算(例如图6A、650)、使用质心状态矢量的基于身体模型的脚力 计算(例如图8A)、使用基于全身冲激的约束求解的肌肉力/扭矩计算(例如图8B)、运动重复 标定和粗略界定(例如图9A)、对重复的曲线拟合以确定重复时序(例如图10A)、DSP自相关 和信号相减以标识重复到重复的节拍和重复到重复类似性(例如图11A)。在一个实施例中, 运行时引擎244基于正分析什么姿势来确定使用这些技术中的哪些。这是基于正被分析的 姿势来选择执行的计算的一个示例。因此,图3C的步骤312可包括基于正被分析的姿势选择 这些计算之一。

[0145] 移动识别器360在步骤444执行运动识别器模块442以确定是否识别各个移动。以 下讨论将针对其中移动是特定身体运动(例如仰卧起坐、俯卧撑、弓步等)的实施例。然而, 移动识别器360可用于识别除了身体运动之外的移动。

[0146] 如果姿态被识别(步骤414),则控制传到步骤422以确定这是否是该身体运动的最 后姿态。如果其是,则姿势通过识别标准(步骤420)。如果其不是最后姿态(步骤422=否),则 控制传到步骤412以得到将被识别/检测的下一姿态。这可在步骤410从姿势数据库240获 得。控制然后传到步骤404以再一次执行识别器。

[0147] 如果姿态未被识别(步骤414=否),则做出该姿态是否是关键的确定(步骤416)。如 果该姿态不是关键的,则控制传到步骤412以获得对于该身体运动将被识别的下一姿态。如 果该姿态是关键的(步骤416=是),则控制传到步骤418以记录姿势无法通过识别标准。

[0148] 移动识别器360的输出是是否检测到正确的移动,由决策方框362表示。

[0149] 图3F是示出运行时引擎244的位置分析364的一个实施例的进一步细节的图。位置 分析364具有ST滤波器、ST归一化、ST约束和深度/图像分割356 (其将结合图3B的方框356来 讨论)作为输入。

[0150] 而且输入是当前姿势姿态452。当前姿势姿态452指的是可从姿势数据库240获得 的姿势或姿态之一。姿势可提供将被检测的反馈情况的列表,以及标识哪些计算用于分析 以及将被馈送给这些计算以触发它们的参数。如上文提到的,姿势可以由包括开始姿态、结 束姿态和若干中间姿态的若干状态构成。每个状态可具有相关联姿态。对于每个状态(除了 姿态之外),状态节点可包含反馈滤波器类型(和相关联数据)和反馈分析类型的列表。

[0151] 在获得姿态数据(步骤454)之后,访问滤波器数据(步骤456)。如提到的,该滤波器 数据可以在姿势数据中规定。在步骤458,确定将要执行的分析的类型以及相关参数。再次, 姿势数据可规定反馈和分析类型。

[0152] 在步骤460,执行位置分析。位置分析的示例包括但不限于,四肢和身体是否在某 一阈值内的某一位置,手是否在臀部上,手是否在臀部的某一距离内,关节是否在某一角度 范围内等。

[0153] 可在步骤460中使用的技术包括但不限于,与阈值范围的ST关节位置和旋转比较, 基于身体模型的质心和惯性张量计算(例如图6A、650),使用质心状态矢量的基于身体模型 的脚力计算(例如图6A、660;图8A)、运动重复标定和粗略界定(例如图9A)和对重复的曲线 拟合以确定重复时序(例如图10A)。在一个实施例中,运行时引擎244基于正分析什么姿势 来确定使用这些技术中的哪些。这是基于正被分析的姿势来选择执行的计算的一个示例。 因此,图3C的步骤312可包括基于正被分析的姿势选择这些计算之一。

[0154] 步骤460确定是否满足条件(步骤462)。如果满足反馈情况的条件,则存在进一步 滤波(步骤464)以清除可通过假的肯定性结果(positve)生成、要求较高精度或仅被视为应 当在非常特别情况中触发的一些东西的反馈的选项。滤波器的一些示例是:如果系统100看 到在<y>个姿势中反馈情况触发<χ>次,如果系统100看到在一排中相同反馈情况触发<χ>次 等,则仅向用户给出反馈。

[0155]如果步骤466确定在应用反馈后将生成反馈,则生成反馈(步骤468)。对用户的反 馈是检测姿势的关键部分。可针对任何类型的体验(例如身体健身、体育、动作游戏等)提供 反馈。除了确定用户是否成功执行了姿势之外,系统还向用户提供反馈。这可能是仅仅为肯 定性加强(“做得好!”、“完美的摆动!”),或更复杂形式的校正反馈(“手在臀部上”、“你倾斜 过于向前”、“努力摆动你的手臂更高以击打球”、或“你需要蹲得更低”)。还可生成否定性反 馈(“你未完成俯卧撑”、“你的节拍太慢”、“你的轻击力量过大”等)。

[0156] 可使用深度识别器358和/或移动识别器360的结果来帮助生成反馈。注意,这些结 构不限于用户是否执行正确移动。相反,深度识别器358和/或移动识别器360可提供帮助通 知包括但不限于之前段落的示例的反馈的结果。

[0157] 图3G是示出运行时引擎244的时间/动作分析366的一个实施例的进一步细节的 图。时间/动作分析366具有ST滤波器、ST归一化、ST约束、深度/图像分割356作为输入。因为 时间/动作分析366的一些元素类似于位置分析364的那些,所以它们将不被详细讨论。

[0158] 而且到时间/动作分析366的输入是当前姿势姿态452。在获得姿态数据(步骤454) 之后,访问滤波器数据(步骤456)。

[0159] 在步骤470,执行时间/动作分析。分析可以是基于节拍(例如用户在某一节奏或足 够长地击中或保持姿态?)、基于移动(例如,理解臀部和膝盖在特殊姿势期间移动的方式可 能指示当不期望时的内转)。可执行其他类型的时间/动作分析。

[0160] 可在步骤470使用的技术包括但不限于,使用质心状态矢量的基于身体模型的脚 力分析(例如图8A)、使用基于全身冲激的约束求解的肌肉力/扭矩计算(例如图8B)、DSP自 相关和信号相减以标识重复到重复的节拍和重复到重复类似性(例如图11A)。在一个实施 例中,运行时引擎244基于正分析什么姿势来确定使用这些技术中的哪些。这是基于正被分 析的姿势来选择执行的计算的一个示例。

[0161] 步骤470确定是否满足条件(步骤462),如果满足反馈情况的条件,则存在进一步 滤波(步骤464)以清除可通过假的肯定性结果生成、要求较高精度或仅被视为应当在非常 特别情况中触发的一些东西的反馈的选项。

[0162] 如果步骤466确定在施加反馈后将生成反馈,则生成反馈(步骤468)。可使用深度 识别器358和/或移动识别器360的结果来帮助生成反馈。

[0163] 图3H是示出运行时引擎244的深度分析368的一个实施例的进一步细节的图。深度 分析368具有ST滤波器、ST归一化、ST约束、深度/图像分割356作为输入。因为深度分析368 的一些元素类似于位置分析364的那些,所以它们将不被详细讨论。

[0164] 而且到深度分析368的输入是当前姿势姿态452。在获得姿态数据(步骤454)之后, 访问滤波器数据(步骤456)。

[0165] 在步骤480,执行深度分析。分析可以是基于节拍、基于位置、基于移动的等。这样 的分析的示例结合位置分析364和时间/动作分析366进行了讨论。

[0166] 可在步骤480中使用的技术包括但不限于基于深度的质心(例如图12、254)、基于 深度的惯性张量(例如图12、256)、基于深度缓冲的象限质心计算(例如图138)、经由剪影顶 曲线拟合的基于深度缓冲的身体角度弯曲(例如图18、1854、1856、1858)和侧/前团块确定。 在一个实施例中,运行时引擎244基于正分析什么姿势来确定使用这些技术中的哪些。这是 基于正被分析的姿势来选择执行的计算的一个示例。因此,图3C的步骤312可包括基于被分 析的姿势来选择这些计算之一。

[0167] 步骤480确定是否满足条件(步骤462),如果满足反馈情况的条件,则存在进一步 滤波(步骤464)以清除可通过假的肯定性结果生成、要求较高精度或仅被视为应当在非常 特别情况中触发的一些东西的反馈的选项。

[0168] 如果步骤466确定在施加反馈后将生成反馈,则生成反馈(步骤468)。可使用深度 识别器358和/或移动识别器360的结果来帮助生成反馈。

[0169] 图4A图示可在计算系统112处从采集设备120接收的深度图像的示例实施例。根据 示例实施例,深度图像可以是通过上文关于图18描述的例如采集设备120的3-D摄像机226 和/或RGB摄像机228采集的场景的图像和/或帧。如在图4A中示出的,深度图像可包括对应 于例如用户(例如上文关于图IA和IB描述的用户118)的人类目标和一个或多个非人类目标 (例如采集场景中的墙壁、桌子、监视器或类似物)。如上所述,深度图像可包括多个观察的 像素,其中每个观察的像素具有与其相关联的观察深度值。例如,深度图像可包括采集的场 景的二维(2-D)像素区域,其中在2-D像素区域中的特定X值和y值处的每个像素可具有采集 的场景中的目标或对象与采集设备的例如以例如厘米、毫米等为单位的长度或距离的深度 值。换言之,深度图像可针对深度图像中的每个像素规定像素位置和像素深度。在分割进程 (例如通过运行时引擎244执行)之后,深度图像中的每个像素还可具有与其相关联的分割 值。像素位置可通过X位置值(即水平值)和y位置值(即垂直值)来指示。像素深度可通过z位 置值(还被称为深度值)来指示,这指示在用于获得深度图像的采集设备(例如120)与通过 该像素表示的用户的部分之间的距离。分割值用于指示像素是否对应于具体用户,或不对 应于用户。

[0170]在一个实施例中,深度图像可是彩色化的或灰度级的,使得深度图像的像素的不 同颜色或阴影对应于和/或视觉地描绘目标与采集设备120的不同距离。在接收图像之后, 可从深度图像移除和/或平滑化一个或多个高方差和/或带噪声的深度值;可以填充和/或 重构丢失和/或移除的深度信息的部分;和/或可以对接收的深度图像执行任何其他适当处 理。

[0171]图4B提供深度图像(不对应于与图4A相同的不例)的另一视图/表不。图4B的视图 将每个像素的深度数据示为表示目标到用于该像素的采集设备120的距离的整数。图4B的 示例深度图像示出24X24像素;然而,很可能,将使用更大分辨率的深度图像。

[0172] 图5A示出通过骨架识别引擎192生成的示例身体模型70的非限制视觉表示。身体 模型70是建模的目标(例如来自图IA和IB的用户118)的机器表不。身体模型70可包括一个 或多个数据结构,该数据结构包括在游戏或其它应用/操作系统的语言中共同定义建模目 标的一组变量。

[0173] 目标的模型可以被不同地配置,而不背离本公开的范围。在一些示例中,身体模型 可包括将目标表示为包括刚性和/或可变形形状或身体部位的三维模型的一个或多个数据 结构。每个身体部位可被表征为数学原语,其示例包括但不限于,球体、各向异性缩放的球 体、圆柱体、各向异性的圆柱体、平滑圆柱体、盒、有斜面的盒、棱柱等。在一个实施例中,身 体部位是关于身体部位的轴对称的。

[0174] 例如,图5A的身体模型70包括身体部位bpl到bpl4,其每个表示建模目标的不同部 分。每个身体部位是三维形状。例如,bp3是表不建模目标的左手的矩形棱柱,并且bp5是表 示建模模型的左上臂的八边形棱柱。身体模型70是示例性的,因为身体模型70可包含任何 数量的身体部位,每个身体部位可以是建模目标的对应部位的任何机器可理解的表示。在 一个实施例中,身体部位是圆柱体。

[0175] 包括两个或更多身体部位的身体模型70还可包括一个或多个关节。每个关节可允 许一个或多个身体部位相对于一个或多个其他身体部位移动。例如,表示人类目标的模型 可包括多个刚性和/或可变形身体部位,其中一些身体部位可表示人类目标的对应解剖身 体部位。此外,模型的每个身体部位可包括一个或多个结构构件(即“骨豁”或骨架部分),而 关节位于相邻骨骼的交叉点。应当理解的是,一些骨骼可对应于人类目标中的解剖骨骼和/ 或一些骨骼可不具有在人类目标中的对应解剖骨骼。

[0176] 骨骼和关节可共同构成骨架模型,其可以是身体模型的构成元件。在一些实施例 中,骨架模型可以用于替代另一类型的模型(如图5A的模型70)。骨架模型可包括用于每个 身体部位的一个或多个骨架构件和在相邻骨架构件之间的关节。示例骨架模型80和示例骨 架模型82分别在图5B和5C中示出。图5B示出如从正面观看的骨架模型80,具有关节jl到 j33。图5C示出如从歪斜视图观看的骨架模型82,也具有关节jl到j33。骨架模型可包括更多 或更少关节,而不背离本公开的精神。下文解释的本系统的另外实施例使用具有31个关节 的骨架模型来操作。

[0177] 在一个实施例中,系统100添加表示身体部位的几何形状到骨架模型以形成身体 模型。注意,不是所有关节都需要被表示在身体模型中。例如,对于手臂,可存在用于上臂的 添加在关节j2和jl8之间的圆柱体,和用于下臂的添加在关节jl8和j20之间的另一圆柱体。 在一个实施例中,圆柱体的中心轴链接两个关节。然而,可能不存在添加在关节j20和j22之 间的任何形状。换言之,手可能不被表示在身体模型中。

[0178] 在一个实施例中,添加几何形状到骨架模型以用于以下身体部位:头、上躯干、下 躯干、上左臂、下左臂、上右臂、下右臂、上左腿、下左腿、上右腿、下右腿。在一个实施例中, 这些都是圆柱体,尽管可使用另一形状。在一个实施例中,这些形状关于形状的轴是对称 的。

[0179] 身体部位的形状可以与多个两个关节相关联。例如,上躯干身体部位的形状可以 与j I、j 2、j 5、j6等相关联。

[0180] 上述身体部位模型和骨架模型是可用作建模的目标的机器表示的模型的类型的 非限制示例。其它模型也在本公开的范围内。例如,一些模型可包括多边形网格、贴片、非均 匀有理B样条、细分表面、或其它高阶表面。模型还可包括表面纹理和/或其它信息以更精确 表示衣服、头发和/或建模目标的其它方面。模型可以可选地包括关于当前姿态、一个或多 个过去姿态和/或模型物理学的信息。应当理解的是,可被摆成姿态的各种不同模型与本文 描述的目标识别、分析和跟踪系统兼容。

[0181] 用于生成在采集设备120的视场(FOV)内的一个或多个用户的骨架模型的软件管 线是已知的。一个这样的系统在例如题为“System For Fast, Probabilistic Skeletal Tracking”、2010年9月7日提交的美国专利公开2012/0056800中公开。

[0182] 基于身体模型的质心状态矢量

[0183] 图6A是运行时引擎244的一个实施例的图。运行时引擎244包括基于身体模型的质 心状态矢量计算650、约束建模和求解660和信号分析670。在一个实施例中,基于身体模型 的质心状态矢量计算650计算身体部位质心状态矢量和整个身体质心状态矢量。这些状态 矢量中的一个或多个元素被提供给约束建模和求解660以及给信号分析670。将在下文更详 细描述这些元素中的每个。

[0184] 取决于正在跟踪什么用户行为,有时将有用的是能够确定和跟踪用户的质心。可 针对个体身体部位,以及针对整个身体来跟踪质心。在一个实施例中,基于个体身体部位的 质心来确定用户的整个身体质心。在一个实施例中,身体部位被建模为几何形状。在一个实 施例中,几何形状是关于几何形状的轴对称的。例如,几何形状可以是圆柱体、椭圆体、球体 等。

[0185] 还可有用的是跟踪惯性张量。可以针对个体身体部位,以及针对整个身体来跟踪 惯性张量。在一个实施例中,基于个体身体部位的惯性张量来确定用户的整个身体惯性张 量。

[0186] 在一个实施例中,确定身体部位质心状态矢量。身体部位质心状态矢量可包括但 不限于,身体部位的质心位置、身体部位的质心速度、身体部位的质心加速度、身体部位的 取向、身体部位的角速度、身体部位的角加速度、身体部位的惯性张量和身体部位的角动 量。质心状态矢量可包括前述或附加元素的任何子集。注意,为了讨论的目的,质心状态矢 量可包含其值不随着时间改变的元素。例如,身体部位的惯性张量可随着时间维持恒定(尽 管身体部位的取向可以改变)。

[0187] 在一个实施例中,确定整个身体质心状态矢量。整个身体质心状态矢量可包括但 不限于,整个身体的质心位置、整个身体的质心速度、整个身体的质心加速度、整个身体的 取向、整个身体的角速度、整个身体的角加速度、整个身体的惯性张量和整个身体的角动 量。整个身体质心状态矢量可包括前述或附加元素的任何子集。在一个实施例中,至少部分 基于个体身体部位的质心状态矢量的一个或多个元素来确定整个身体质心状态矢量。

[0188] 这样的个体身体部位和整个身体质心状态矢量信息可用于跟踪和评估执行某些 运动(例如下蹲、弓步、俯卧撑、跳跃、或分腿跳)的用户,从而可控制用户的化身,可给用户 评分和/或可提供反馈给用户。作为一个特定示例,当用户正执行下蹲时,他们的整个身体 质心应当上下移动,而不具有横向动作。

[0189] 还可有用的是,知道身体部位如何相对于彼此移动。例如,在一个实施例中,当用 户在举重时弯曲他们的手臂时,系统100确定下臂如何相对于上臂移动。该分析可考虑身体 部位的动作,而不考虑动作的起因。这有时被称为运动学。前述个体身体部位质心状态矢量 信息中的一些可被使用。

[0190] 还可有用的是,知道要求在用户的身体内的什么力和/或扭矩以导致系统100观察 到的用户的动作。在一个示例中,使用逆动力学来确定施加什么力和/或扭矩来导致观察的 动作。这可以是在身体模型中的关节处的力和/或扭矩。作为一个示例,系统100可确定当用 户执行某个动作(例如当出拳、执行弓步或下蹲等时)要求什么脚力。在一定程度上,身体模 型中的关节处的力和/或扭矩可与用户的肌肉施加的力相关。可使用前述个体身体部位和 整个身体质心状态矢量信息中的至少一些。

[0191] 在一个实施例中,通过分析身体模型来针对个人确定质心。这可以是例如图5A、5B 和/或5C的示例的身体模型,或从图5A、5B和/或5C的示例导出的身体模型。因此,这可以基 于骨架跟踪。图6B是基于身体模型确定人的质心的进程600的一个实施例的流程图。在一个 实施例中,进程600经由加权平均方法计算质心。进程600可通过基于身体模型的质心状态 矢量计算650来执行。

[0192] 在步骤602,接收深度图像。图4A和4B是深度图像的一个示例,但是步骤602不限于 该示例。

[0193] 在步骤604,从深度图像形成身体模型。在一个实施例中,这包括形成具有关节的 骨架模型。在一个实施例中,当形成身体模型时使用骨架识别引擎192。附加地,可在两个关 节之间添加某一几何形状。在一个实施例中,几何形状是关于几何形状的轴对称的。例如, 几何形状可以是圆柱体、椭圆体、球体等。作为一个示例,在关节j2和jl8之间添加圆柱体 (见图5A)以表示用户的上臂。每个身体部位可被分配3D空间中的位置。

[0194] 不要求的是,每个身体部位被给予相同形状。每个身体部位还可被分配尺寸参数。 因此,对于圆柱体,身体部位可被分配高度和半径。可使用其他形状,例如但不限于椭圆体、 锥体和块。

[0195] 每个身体部位还可被给予质量〇2h·),以下是用于一个示例的身体部位及其相应质 量的示例列表。

Figure CN105228709BD00221

[0197] 可存在更多或更少的身体部位。不要求对不同身体部位的相对质量分布对于每个 用户是相同的。例如,男性用户可具有与女性用户不同的质量分布。可使用各种技术来确定 用户的总质量《)。在一个实施例中,系统要求,用户输入他们的质量以及可能的其它信息, 例如年龄、性别等。在一个实施例中,系统基于例如用户的总体积的分析和关于密度的假定 来估计总质量。总体积可从深度图像来确定。关于密度的假定可以基于例如体积的相对分 布(例如用户具有大腰部)之类的各种因素。

[0198] 在步骤606,针对每个身体部位计算质心(Pi)。可基于用于对身体部位建模的形状 来计算质心。用于确定各种形状的质心的公式是本领域已知的。步骤606可确定质心的3D位 置。在一个实施例中,这是(x,y,z)坐标。然而,可使用另一坐标系统(例如圆柱体的、球体 的)。

[0199] 在步骤608,基于个体身体部位的质心来计算人作为整体的质心。等式1可用于确 定人作为整体的质心。

[0200]

Figure CN105228709BD00222

[0201] 在等式1中,P是最终质心位置,M是质量的和

Figure CN105228709BD00223

,/2是身体部位的数 量,肪是特定身体部位的质量,并且Λ是身体部位的质心的位置(在三维中)。可通过例如确 定质心位置的基于身体模型的质心状态矢量计算650来使用上述等式。

[0202] 根据一个实施例,除了基于身体模型确定质心之外,还可基于身体模型确定惯性 张量。局部惯性张量的计算可根据身体部位的形状和身体部位的取向两者。可经由身体部 位的方向(例如上臂从肩膀指向肘部)来确定取向,并且通过使用对称的身体部位(例如圆 柱体)来促进取向。

[0203] 图7A是基于身体模型确定惯性张量的进程700的一个实施例的流程图。进程700可 以用于确定每个身体部位的惯性张量,以及人作为整体的惯性张量。进程700可以通过图6A 的运行时引擎244的基于身体部位的质心状态矢量计算650来执行。

[0204] 在步骤702,针对每个身体部位确定惯性张量It。这在本文称为“基本惯性张量”。 在一个实施例中,身体部位具有圆柱体的形状。具有半径r和高度h的固体圆柱体的惯性张 量可以被确定为:

Figure CN105228709BD00231

[0206] 在该示例中,利用具有沿着圆柱体的长度的z轴的参考系来计算惯性张量。这仅仅 是一个示例;可使用很多其它形状。

[0207] 在步骤704,确定每个身体部位的取向。在一个实施例中,这基于骨架跟踪数据来 确定。例如,可基于关节j2和jl8的3D坐标来定义上臂的身体部位的取向(见图5B)。在其中 身体部位被建模为圆柱体的示例中,这可以是圆柱体的中心轴。各个身体部位的中心轴(或 取向)将最可能不相互平行。

[0208] 在一个实施例中,平行轴定理被用于从个体身体部位惯性张量计算整个身体惯性 张量。平行轴定理可被用于在整个身体的参考系中再用公式表示身体部位的惯性张量。换 言之,平行轴定理可被用于依照整个身体的参考系来表示身体部位的惯性张量。如熟知的, 平行轴定理包含使用两个平行轴。第一轴是用于整个身体,其在目标参考系中。第一轴穿过 整个身体的质心。第二轴是穿过身体部位的质心并且平行于第一轴的轴。轴的选择是任意 的,只要两个轴是平行的。即,针对第一和第二轴可作出很多不同选择。当使用精选的身体 部位时,惯性张量表示起来非常简单。如上文指示的,当在所选择的参考系中测量时,身体 部位惯性张量可以是对角矩阵。然而,身体部位参考系罕有与整个身体参考系相同。因此, 可以执行旋转来使身体部位惯性张量旋转,使得其是整个身体的参考系。在步骤706,旋转 每个身体部位的惯性张量到目标(整个身体)参考系。注意,选择选择导致对角矩阵的身体 部位的局部参考系简化了计算,但是不是要求的。旋转技术可以被实现为如等式2中那样:

[0209]

Figure CN105228709BD00232

[0210] 在等式2中,O是从局部空间到目标惯性参考系的旋转矩阵,是基本惯性张量,并 且少是旋转矩阵O的转置。旋转矩阵将惯性张量从一个系“旋转”到另一个。该种类的旋转矩 阵的示例可在动画中找到,其中旋转矩阵是用于基于正在进行什么基本骨架对顶点进行定 位的旋转缩放平移系统的部分。类似种类的3 X 3旋转矩阵可以用于使用等式2将惯性张量 从一个参考系旋转到另一个。

[0211] 在步骤708,针对作为整体的人来确定惯性张量。步骤708可以被视为在针对所有 身体部位完成步骤706之后将所有身体部位的惯性张量加总在一起。在一个实施例中,这是 得到针对整个身体的最终3 X 3惯性张量的每元素总和。这可使用等式3来计算。

Figure CN105228709BD00233

[0213]在等式3中,I是总体惯性张量。L是身体部位的局部惯性张量(在与I相同的参考 系中),/?h·是身体部位的质量,Ώ是身体部位的数量,见是从身体部位质心到整个身体质心(P) 的矢量,并且i?是单位矩阵。“”算子是点算子,并且“Γ上标是矢量的转置。

[0214] 在一个实施例中,使用惯性张量来分析用户如何执行动作。例如,用户可执行两个 跳跃,其中他们的质心达到相同高度。然而,在一个情况下,用户可以是伸长的,并且在其它 情况下,用户可以蜷伏在一起多少成为更像是球状形状。系统100可基于整个身体惯性张量 容易地标定在这两个情况之间的甚至微妙差别。惯性张量的很多其它用途是可能的。

[0215] 除了身体部位的质心和惯性张量之外,在一个实施例中计算身体部位的其它质心 状态矢量元素。身体部位的质心状态矢量可包括以下中的一个或多个:身体部位的质心位 置、身体部位的质心速度、身体部位的质心加速度、身体部位的角速度、身体部位的角加速 度、身体部位的惯性张量,以及身体部位的角动量。

[0216] 图7Β是确定身体部位质心状态矢量中的元素的进程的一个实施例的流程图。可通 过基于身体模型的质心状态矢量计算650来执行该进程。在步骤722,访问在不同时间点的 身体模型。这可以是针对两个接连帧。

[0217] 在步骤724,确定每个身体部位的质心的速度。在一个实施例中,通过比较两个时 间点的质心的位置来确定质心速度。这可以是针对图像数据的两个接连帧。然而,质心速度 可以基于质心的位置的多于两个的数据点。在一个实施例中,步骤724使用来自两个不同时 间点的来自步骤606的数据。

[0218] 在步骤726,确定每个身体部位的质心的加速度。在一个实施例中,通过比较两个 时间点的质心的速度来确定质心的加速度。这可以是针对图像数据的两个接连帧。然而,质 心加速度可以基于质心的速度的多于两个数据点。在一个实施例中,在步骤726中使用来自 步骤724的速度数据(针对两个不同时间点)。

[0219] 在步骤728,确定每个身体部位的角速度在一个实施例中,每个身体部位被 建模为具有轴的形状。该形状可以关于该轴对称。例如,身体部位可以是具有轴的圆柱体, 该轴是通过其两个底部的中心形成的线。基于在两个时间点的身体部位的位置之间的差 另IJ,可以利用熟知公式计算角速度。可以相对于除了轴之外的参考点来确定角速度。而且, 不要求形状是关于用作用于确定角速度的参考的轴对称的。步骤728可使用来自两个不同 时间点的身体模型的数据。

[0220] 在步骤730,确定每个身体部位的角加速度(认}在一个实施例中,基于在两个时间 点的身体部位的角速度之间的差别来确定该身体部位的角速度。步骤730可使用 两个不同时间点的来自步骤728的数据。然而,可使用其他技术。在实施例中,根据等式4确 定每个身体部位的角加速度(U1}。

Figure CN105228709BD00241

[0222] 在步骤732,确定每个身体部位的角动量(Li)。在一个实施例中,基于在步骤702确 定的身体部位的惯性张量(Ii)和在步骤726确定的角速度ii>i来确定身体部位的角动量。可 根据等式5确定个体身体部位的角动量(Li)。

Figure CN105228709BD00242

[0224] 除了整个身体的质心和惯性张量之外,在一个实施例中计算整个身体的其他质心 状态矢量元素。整个身体的质心状态矢量可包括以下中的一个或多个:整个身体的质心位 置、整个身体的质心速度、整个身体的质心加速度、整个身体的取向、整个身体的角速度、整 个身体的角加速度、整个身体的惯性张量,以及整个身体的角动量。整个身体的质心状态矢 量可包括前述或附加元素的任何子集。

[0225] 图7C是确定在整个身体质心状态矢量中的元素的进程的一个实施例的流程图。可 通过图6A的基于身体模型的质心状态矢量计算650来执行该进程。在步骤744,确定整个身 体的质心的速度。在一个实施例中,通过比较两个时间点的质心的位置来确定质心速度。在 一个实施例中,可在步骤744中使用在步骤608中确定的(针对两个时间点)的整个身体的质 心位置。如熟知的,可通过距离的差别相比时间的差别来计算速度。

[0226] 在步骤746,确定整个身体的质心的加速度。在一个实施例中,通过比较两个时间 点的质心的速度来确定质心的加速度。在一个实施例中,在步骤746中使用来自步骤744的 速度数据(针对两个不同时间点)。

[0227] 在步骤748,确定整个身体的角动量(L)。在一个实施例中,基于在图7B的步骤732 中确定的每个身体部位的角动量(L1)和每个身体部位的角动量对总角动量的非旋转贡献 (Lnri)来确定整个身体的角动量。在图7B的步骤732中讨论每个身体部位的角动量(Li)的计 算。

[0228] 在一个实施例中,通过将身体部位视为具有身体部位的质量并且以其质心的速度 移动的颗粒来计算身体部位对总角动量的非旋转贡献(Lnri)。可使用用于计算围绕点(在该 情况下,该点是整个身体的质心)的一组颗粒的角动量的标准公式(见等式6A)。

Figure CN105228709BD00251

[0230] 在等式6A中,Lnr是所有的身体部位对整个身体角动量的非旋转贡献的总和,^是 身体部位的质心相对于整个身体质心的位置的位置,ΠΗ是身体部位的质量,并且^是身体部 位相对于整个身体质心的线速度的线速度,并且“X”是叉积算子。可从步骤744获得整个身 体的质心的速度。可从图7B的步骤724获得身体部位的质心的速度。

[0231] 每个身体部位的各个角动量(Li)被相加并且添加到在等式6A中确定的所有的身 体部位对整个身体角动量的非旋转贡献的总和(Lnr)以得到总角动量。

Figure CN105228709BD00252

[0233] 在步骤750,确定整个身体的角速度(ω)。在一个实施例中,从在步骤748确定的整 个身体的角动量和整个身体的惯性张量的倒数来计算整个身体的角速度(ω)。在图7Α的步 骤708中确定了整个身体的惯性张量。

[0234] 在步骤752,确定人作为整体的角加速度(α)。在一个实施例中,根据等式7来确定 整个身体的角加速度(α),其中可根据步骤750确定ω。在一个实施例中,使用针对不同时间 点的来自步骤750的数据。

Figure CN105228709BD00253

[0236]质心和惯性张量以及质心状态矢量中的其它元素可用于分析用户的移动。在一个 实施例中,确定身体部位将需要施加以便导致质心状态矢量的改变的力。例如,当用户在运 动时,他们的脚需要施加一定力以便他们跳跃、扭动等。这些力将重量移位以及将身体扭 转/扭动起来所需的脚力作为因素考虑(例如你出那个拳有多费力,以及需要多少脚力来保 持脚不滑动?)。

[0237] 可基于脚约束在地面的假定来计算脚力。换言之,系统100确定要求什么脚力来以 所观察的方式改变质心状态矢量。在一个实施例中,做出身体是刚性身体的假定。

[0238] 图8A是确定引起质心状态矢量的改变将需要的力的一个实施例的流程图。在一个 实施例中,质心状态矢量是整个身体质心状态矢量。在一个实施例中,该力是脚力。

[0239] 在步骤802,确定在一个时间点的整个身体的质心状态矢量。这可以是针对图像数 据的单个帧。在一个实施例中,进程使用位置、取向、速度和角速度来计算力(例如脚力)。位 置可以是如在图6B的步骤608中确定的整个身体质心位置。整个身体的取向可以在图7A中 当确定整个身体的惯性张量时确定。速度可以是如在图7C的步骤744中确定的整个身体质 心速度。角速度可以是如在图7C的步骤748中确定的整个身体角速度。整个身体质心状态矢 量可包括前述或附加元素的任何子集。

[0240] 在步骤804,确定在稍后时间点的整个身体质心状态矢量。这可以是针对图像数据 的下一帧。在步骤806,确定在两个整个身体质心状态矢量之间的差别。

[0241] 在步骤808,确定改变整个身体质心状态矢量所要求的脚力。步骤808可以通过在 图6A中描绘的运行时引擎中的约束建模和求解660来执行。

[0242] 在一个实施例中,将身体视为刚性身体,而脚是在地面上的约束点。脚可以是在刚 性身体和地面之间的约束点。可从身体模型确定脚的位置。例如,脚位置可以是角关节或一 些其他点的3D坐标。

[0243] 在一个实施例中,做出脚不滑动假定。然而,可使用除脚之外的其他元素用于约 束。很多技术可能用于求解具有一个或多个约束的刚性身体问题。用于求解具有一个或多 个约束的刚性身体问题的技术在本领域中是已知的。作为一个示例,可使用高斯-赛德尔方 法。

[0244]图8A的进程提供精确脚(或其它元素)力生成,以及跟踪瞬时效应的能力。例如,如 果用户下蹲,则脚力随着用户开始“下降”变得更轻,然后变得更重以“刹住”下降从而用户 的质心停止。将角速度并入计算并且角速度从帧到帧的改变(例如,在两个时间点之间)处 理系统的旋转部分。在一个实施例中,这是整个身体角速度。该技术可以比仅示出“静态”力 的脚力生成技术更加精确,如在当用户不在移动时支撑用户所需的力中。

[0245] 在一个实施例中,系统100通过将身体视为布偶来计算肌肉力/扭矩,所述布偶具 有由惯性张量计算使用的形状规定的身体部位,和由身体的配置规定的约束。例如,上臂是 一个身体部位,下臂是另一个,并且两者通过位于肘部的约束来连接。此外,如果脚被发现 与地面接触,则针对在这样的接触中的每个脚添加约束。

[0246] 图8B是使用基于全身冲激的约束求解的肌肉力/扭矩计算的一个实施例的流程 图。在步骤852,针对一时间点确定身体部位质心状态矢量。这可以是针对图像数据的单个 帧。在一个实施例中,身体部位质心状态矢量包括位置、取向、速度和角速度。可针对每个身 体部位确定该矢量。

[0247] 可在图6B的步骤606中确定身体部位质心位置。可从身体部位的轴的取向确定该 取向。例如,如果身体部位被建模为圆柱体,则取向可基于圆柱体的中心轴。该速度可以是 如在图7B的步骤724中确定的身体部位质心速度。角速度可以是如在图7B的步骤728中确定 的身体部位角速度。身体部位质心状态矢量可包括前述或附加元素的任何子集。

[0248] 在步骤854,针对另一时间点重复步骤852。在步骤856,确定在两个身体部位质心 状态矢量之间的差别。

[0249] 在步骤858,将身体建模为一组关节约束。在步骤860,系统100计算约束力和/或扭 矩以移动身体部位来导致在两个最近帧之间的身体部位质心状态矢量的改变。实际上,步 骤860确定要求什么伪肌肉来实现整个身体动作。步骤858和860可以通过约束建模和求解 660来执行。

[0250] 步骤860可包括计算全身求解,从而在身体的一侧上完成的动作可影响另一侧。这 可以被称为“在一般文献中的逆动力学”。逆动力学得到的是在动作发生时跟踪整个身体的 瞬时力/扭矩的能力。例如,由于关于相等和相反力的牛顿定律,如果你挥舞出你的手臂以 拳击,则你的身体必须反扭矩以保持其在适当位置。如果你弯曲你的手臂,其要求扭矩。但 是你的肩膀必须反扭矩,对抗肘部扭矩,并且你的躯干必须针对肩膀调整,一直到脚。然后, 力去到其它方向,意味着最终肘部扭矩必须将肩膀正在做什么等作为因素考虑。这以系统 范围求解而告终。

[0251] 在一个实施例中,使用高斯-赛德尔方法来求解约束。例如,一次可求解一个约束。 可然后将结果应用到总体系统。然后,求解下一约束并且将结果应用到总体系统。在求解所 有约束之后,可重复进程直到结果收敛。

[0252] 在一个实施例中,使用基于冲激的技术来求解约束。再次,可以自己孤立地求解每 个约束。保持两个身体部位在一起或保持它们以防拉开所需的冲激可以基于惯性张量、质 心来计算。

[0253] 步骤860的结果是在约束下的力/扭矩的集合,其可表示“肌肉”和“关节力”。

[0254] 用于重复检测和分析的信号分析

[0255] 当随着时间绘制与重复性动作相关联的参数(例如质心、左肘速度等)时,图可以 与信号类似。在训练(例如身体健身训练)的情况下,很多这些信号具有它们特有的“脉冲” 外观,其中值从一个位置移位,在某一方向移动,然后在“重复”的末尾回到原始位置。一个 实施例包括标定这些序列的重复标定和粗略界定系统。

[0256] 在一个实施例中,系统100执行信号的重平滑,并且然后切换到导数领域(例如位 置变成速度等)。完成“重平滑”以消除信号中的较高频率数据(例如噪声),并且平滑掉导 数,其否则可能由于这样的高频率数据而混乱摆动。存在很多标准技术来应用该平滑,例如 低通滤波器、移动平均等。

[0257] 导数领域中的信号可以是正弦。系统100然后分析伪正弦信号。根据一个实施例, 通过确保正弦的“上”部分是正弦的“下”部分的显著部分,并且通过确保重复足够长并且具 有足够位移,系统100可鲁棒地标定“重复”并且对每个重复的开始/结束时间进行界定。

[0258] 图9A是分析正被采集系统跟踪的用户执行的重复的进程900的一个实施例的流程 图。进程900可以通过图6A的运行时引擎244的信号分析670来执行。

[0259] 在步骤902,采集深度图像数据的帧。深度图像数据可以跟踪执行某一重复性动作 (例如执行身体运动)的用户。为了讨论起见,将讨论执行若干下蹲的用户的示例。

[0260] 在步骤904,分析图像数据以确定参数的数据点。可跟踪多个不同类型的参数。可 跟踪质心状态矢量成分中的任一个。在一个实施例中,随着时间跟踪质心的位置。这可以是 整个人的质心或身体部位之一的质心。在一个实施例中,质心状态矢量是基于身体部位的 分析。在一个实施例中,质心状态矢量是基于深度图像的分析(将在下文讨论)。因此,图12 的基于深度的质心254和/或基于深度的惯性张量256可提供可随着时间被跟踪的参数。

[0261] 然而,参数不限于本文描述的质心状态矢量成分。作为另一示例,可跟踪在用户的 身体模型上的位置。例如,可跟踪关节之一。作为另一示例,可跟踪在用户的剪影上的位置。 什么参数得到跟踪的选择可取决于正被分析的姿势(例如身体运动)。可在姿势数据库240 中规定针对特定姿势将跟踪的参数。

[0262] 在步骤906,形成随着时间跟踪数据点的参数信号。参数信号可跟踪由用户执行的 重复性动作。图9B示出一个示例参数信号930的表示。图9B中的信号绘出感兴趣参数的位置 相比时间。在该情况下参数可以是整个身体质心的位置。在该示例中,位置可以是z坐标。换 言之,这可相对于地板跟踪用户的质心。这可能针对基于身体部位的分析的质心状态矢量、 基于深度图像的分析(例如基于像素的)的质心状态矢量,或某一其它质心状态矢量。

[0263] 参数信号930覆盖例如由降低身体同时弯曲腿、然后上升回来构成的下蹲动作的 两个重复。在一个实施例中,做出假定:基于重复的训练由以一姿态开始,做些什么并且然 后回到开始姿态构成。该序列可被称为重复。

[0264] 在图9B的示例中,参数信号930跟踪参数随着时间的一个维度。然而,参数信号930 可跟踪参数随着时间的两个或三个维度。例如,质心的位置的参数可具有三个维度。在该情 况下,可随着时间跟踪维度中的一个、两个或三个。在一个实施例中,参数信号930跟踪该参 数的位置相比时间。

[0265] 参数信号930可跟踪除了位置相比时间之外的一些东西。例如,参数信号930可跟 踪速度相比时间、加速度相比时间、角速度相比时间、角加速度相比时间和角动量相比时 间。

[0266]在步骤908,将参数信号930分为重复性动作的重复。在一个实施例中,将参数信号 930分为界定段(bracket),每个界定段包含一重复。界定段可将重复性动作的一个重复根 据重复性动作的其它重复描绘出。

[0267] 在一个实施例中,步骤908包括得出来自步骤906的参数信号930的导数。图9C示出 一个示例导数信号940。在该示例中,导数信号940具有中性/下/上/下/中性型式。另一可能 型式是中性/上/下/上/中性。再其它的型式是可能的。在这两个示例中,导数信号940去到 零线的一侧,然后在回到中性位置之前去到另一侧。在该示例中,导数信号940中对应于重 复的部分可类似正弦函数;然而,导数信号940 (或其部分)不要求类似正弦函数。

[0268] 如上文提到的,在一个实施例中,参数信号930跟踪该参数的位置相比时间。在该 情况下,导数信号940可跟踪该参数的速度相比时间。在一个实施例中,系统100跟踪质心的 位置相比时间,以及质心的速度相比时间。因此,参数信号930可根据位置数据形成,并且导 数信号940可根据速度数据形成。

[0269] 在一个实施例中,从位置数据形成速度数据。例如,可从两个(或更多)时间点的位 置数据确定在一个时间点的速度数据。在一个实施例中,通过得到在两个时间点的位置数 据之间的差别并且除以时间差来确定速度数据。然而,可使用多于两个时间点。因此,取参 数信号930的“导数”可基于在参数信号930的两个数据点之间的差别来执行。

[0270] 在图9C中标记时间点t0、tl和t2,以显示可如何对导数信号940进行界定。在一个 实施例中,每个界定段包含一个重复。从to-tl的第一界定段对应于包含第一重复的第一界 定段。从tl-t2的第二界定段对应于包含第二重复的第二界定段。可然后将时间与参数信号 930相关来以类似方式对参数信号930进行界定。

[0271] 返回参考参数信号930,由于各种理由,(例如总体用户移动、数据不精确),脉冲的 终点(例如接近tl)可能不接近开始(例如接近to)。例如,在执行第一下蹲之后的Z位置可能 低于在执行第一下蹲之前的z位置。这可使得难以精确确定何时完成每个重复,以及分析用 户的形态。

[0272] 一个实施例的导数方法克服了该问题,因为导数信号940将在参数稳定时返回到 零(或接近零)。例如,当用户停止上或下移动时,(质心、骨架关节、剪影上的点等的)z位置 暂时稳定。在该示例中,导数信号940变为负,然后在返回零(或接近其)之前变为正。当导数 信号940这么做时,系统100能够精确对重复进行界定。

[0273] 系统100还可具有一些健全性检查。例如,系统100可确保重复具有最小/最大时 间。系统100还可确保导数信号940的从零的偏差对于两侧是足够的(例如正侧是负侧的显 著部分)。

[0274] 在步骤910,系统100使用信号处理技术分析参数信号930中的重复。在一个实施例 中,步骤910包括进一步细化重复的开始或结束的位置。在一个实施例中,进一步细化重复 的开始或结束的位置包括将曲线拟合到参数信号930中对应于重复的一部分。在一个实施 例中,进一步细化重复的开始或结束的位置包括将参数信号930中对应于重复的一部分与 参数信号930自相关。

[0275] 在一个实施例中,步骤910包括评估在参数信号930中采集的重复的用户的执行。 在一个实施例中,评估用户的执行是基于在拟合曲线和参数信号930之间的差别。在一个实 施例中,评估用户的执行包括将参数信号930中限定一个重复的一部分从参数信号930中限 定另一重复的另一部分减去。

[0276] 对重复进行曲线拟合以确定重复时序

[0277] 一旦系统100使得重复被界定,系统100可将曲线拟合到在已界定的重复的开始/ 结束之间的参数信号930。利用曲线拟合的结果,系统100可提取关于重复的进一步有用信 息,例如重复时间(例如,下蹲花费多久)。示例曲线包括但不限于,余弦、余弦脉冲、具有在 脉冲的中间的扁平部分的余弦脉冲,和样条拟合(线性和三次)。

[0278] 针对非常拟合系统100所拟合的曲线的类型的重复,使用曲线拟合优化技术提供 非常精确的重复时序信息。系统100还可经由曲线多接近地拟合到参数曲线930来确定玩家 多好地完成该重复。

[0279] 图IOA是将曲线拟合到已界定的重复以确定时序参数的进程1000的一个实施例的 流程图。进程1000可通过图6A的运行时引擎244的信号分析来执行。在步骤1002,将曲线拟 合到参数信号930中对应于一个界定段的一部分。图IOB示出拟合到参数信号930中对应于 一个界定段的一部分的示例曲线1030。在该示例中,曲线1030具有五个部分。存在直到重复 开始的第一扁平部分,当重复开始时开始的第一余弦部分,在重复的底部处的第二扁平部 分,当重复返回时开始的第二余弦部分,和在重复终止后的第三扁平部分。可使用不同类型 的曲线1030。曲线1030的类型可取决于用户动作的类型(例如,运动的类型)。

[0280] 步骤1004用于确定重复的时序参数。曲线拟合促进从拟合曲线提取有用数据,因 为分析数学函数经常比分析参数信号930简单得多。例如,如果系统100将半余弦波拟合到 参数信号930,则系统100可使用余弦开始/结束时间来确定重复何时开始/结束。因此,在一 个实施例中,系统100查看曲线1030上的特定点来确定重复的时序参数。在一个实施例中, 系统100寻找在曲线1030的扁平部分与曲线1030的上升/下降部分之间的接合点来确定重 复的时序参数(例如重复开始/结束时间)。然而,开始/结束时间可被定义在除了这样的接 合点之外的点。

[0281] 这是如何有用的示例可经由俯卧撑训练示出。在俯卧撑训练中,存在三个部分。人 下降,保持下位置,然后向上回来。通过跟踪用户的位置(例如,肩膀的高度),系统100可使 用拟合的曲线来确定重复的时序。在该情况下曲线可以是扁平底部的余弦曲线。这仅仅是 半余弦波,而余弦的底部(在该情况下)具有任意长的扁平区域。当曲线拟合例程完成时,系 统100可分析地测量其向下移动花费的时间(半余弦波的第一半),确定玩家在底部(扁平部 分)多久和玩家花费多久返回向上(半余弦波的第二半)。

[0282] 在一个实施例中,确定拟合曲线和参数信号930之间的差别,以便确定用户执行重 复多么好。在可选步骤1006,确定在拟合曲线1030和参数信号930之间的差别。在可选步骤 1008,系统100基于那些差别评估用户对重复的执行。

[0283] DSP自相关和信号相减

[0284] 在一个实施例中,使用信号处理(例如,数字信号处理(DSP))技术来分析在一系列 重复上的参数信号930。在一个实施例中,使用快速傅里叶变换(FFT)自相关技术来确定两 个重复何时发生,通过取参数信号930中包含一个重复的一部分并且将其沿着参数信号930 相关。结果得到的自相关的峰值可以是参数信号930中最佳匹配重复的位置(通常序列中的 下一重复)。结果可以是非常精确的重复到重复的时序值,其指示何时重复A在时序方面与 重复B最佳拟合。

[0285] 在一个实施例中,系统100从参数信号930中定义另一重复的另一部分减去参数信 号930中定义一个重复的一部分,使用该时间变化量来看重复多么不同。这提供了用于分析 人从重复到重复执行得如何的附加工具。

[0286] 图IlA是用于使用信号处理来分析参数信号930的进程1100的一个实施例的流程 图。进程1100可以通过图6A的运行时引擎244的信号分析来执行。在步骤1102,执行参数信 号930的一部分与参数信号930的自相关。在一个实施例中,将参数信号930的已界定部分与 参数信号930的某一部分自相关。参数信号930的该部分的长度可以是几个界定段,很多界 定段,一些其他单元等。例如,系统110可拾取时间帧,例如10秒,并且将一个界定段(具有一 个重复)与整个范围自相关。在一个实施例中,系统100使用基于快速傅里叶变换(FFT)的自 相关技术来寻找参数信号930类似于其自身的地方。

[0287] 在步骤1104,系统100基于自相关的一个实施例的结果定义在参数信号930中的重 复的位置。例如,可使用峰值来定位重复。图IlB示出自相关的示例。示出示例参数信号930, 连同参数信号930的已界定部分1120—起。已界定部分1120可从参数信号930直接取得。可 通过图9A的进程来定义已界定部分1120的范围。可将已界定部分1120自相关到参数信号 930的任何部分(例如过去,当前和/或未来)。

[0288] 示例自相关信号1130具有若干峰值1140a_1140e。这些峰值1140可用于精确确定 在重复之间的时间间隙。这些峰值1140还可用于定义重复的精确位置。最高峰值1140将通 常对应于其中已界定部分被与自身相比的部分。

[0289] 在可选步骤1106,从参数信号930中对应于另一重复的另一部分减去参数信号930 中对应于一个重复的一个部分。可通过在步骤1104确定的重复的精确位置来辅助该步骤的 精度。

[0290] 步骤1106中的两个部分不一定包括整个界定段,尽管这是一种可能性。在一个实 施例中,确定重复的开始和/或结束的精确位置(例如,通过使用图IOA的步骤1004)来确定 应当使用什么部分。

[0291] 在可选步骤1108,系统100基于在两个重复之间的差别来确定用户多好得执行重 复。例如,如果用户变得疲劳,重复的形状可从一个重复改变到下一个。如果参数信号930对 于两个重复是相同的,则结果将是扁平线。可分析从扁平线的偏差。

[0292] 在一个实施例中,不是将参数信号930的已界定部分与参数信号930的其他部分自 相关,而是将已界定部分与保存的参数信号930自相关。保存的参数信号930可以针对特定 动作的理想形态。

[0293] 基于深度图像的质心和惯性张量

[0294] 图12图示图2中介绍的运行时引擎244的示例实施例。参考图12,运行时引擎244被 显示为包括深度图像分割模块252、基于深度的质心模块254、基于深度的惯性张量模块256 和缩放器258。在实施例中,深度图像分割模块252被配置为检测在深度图像中的一个或多 个用户(例如人类目标),并且将分割值与每个像素关联。这样的分割值用于指示哪些像素 对应于用户。例如,1的分割值可被分配给对应于第一用户的所有像素,2的分割值可被分配 给对应于第二用户的所有像素,并且任意预定值(例如,255)可被分配给不对应于用户的像 素。还可能的是,分割值可被分配给除了用户之外的在深度图像内标识的对象,例如但不限 于网球拍、跳绳、球、地板等。在实施例中,作为由深度图像分割模块252执行的分割进程的 结果,深度图像中的每个像素将具有与该像素相关联的四个值,包括:X位置值(即水平值); y位置值(即垂直值);z位置值(即深度值);和分割值,其刚在上文解释。换言之,在分割之 后,深度图像可指定多个像素对应于用户,其中这样的像素还可被称为基于深度的用户剪 影。附加地,深度图像可针对对应于用户的像素中的每一个,指定像素位置和像素深度。像 素位置可以由X位置值(即水平值)和y位置值(即垂直值)来指示。像素深度可由z位置值(还 称为深度值)来指示,其指示在用于获得深度图像的采集设备(例如120)与由像素表示的用 户的部分之间的距呙。

[0295] 再参考图12,在实施例中,使用基于深度的质心模块254来确定对应于用户的多个 像素的基于深度的质心位置,其计及在由像素表示的用户的部分与用于获得深度图像的采 集设备之间的距离。下文参考图7A-8B描述了涉及确定基于深度的质心位置的附加细节。在 实施例中,基于深度的惯性张量模块256用于基于所确定的对应于用户的多个像素的基于 深度的质心位置来确定对应于用户的多个像素的基于深度的惯性张量。下文参考图7A-8B 来描述涉及确定基于深度的惯性张量的附加细节。如附加地详细描述的,参考图13A-14B, 缩放器258可用于使用对应于用户的多个像素具有预定质量(例如,75kg)的假定来对确定 的基于深度的惯性张量进行缩放。

[0296] 如上文解释的,采集设备120提供RGB图像(还称为彩色图像)和深度图像到计算系 统112。深度图像可以是多个观察的像素,其中每个观察的像素具有观察的深度值。例如,深 度图像可包括采集的场景的二维(2-D)像素区域,其中2-D像素区域中的每个像素可具有深 度值,例如在采集场景中的对象距采集设备的以例如厘米、毫米等为单位的长度或距离。

[0297] 如上文提到的,经常使用骨架跟踪(ST)技术来检测用户的动作或其它用户行为。 本文描述的某些实施例依赖于深度图像来检测用户行为。可使用基于深度基本图像检测的 这样的用户行为来替代或补充用于检测用户行为的ST技术。相应地,在以附加地详细讨论 这样的实施例之前,将首先有用的是提供深度图像的附加细节。在一个实施例中,移动识别 器360使用ST技术。在一个实施例中,深度识别器358使用深度图像来检测用户行为。

[0298] 根据正跟踪什么用户行为,有时将有用的是能够确定和跟踪用户的质心位置。例 如,这样的信息可用于跟踪执行某些运动(例如下蹲、弓步、俯卧撑、跳跃或分腿跳)的用户, 从而可控制用户的化身,可对用户进行评分和/或可提供反馈给用户。下文讨论的某些实施 例涉及用于基于深度图像确定质心位置的技术,并且因此,这样的位置将在下文被称为基 于深度的质心位置。

[0299] 在一个实施例中,当基于身体部位确定质心时使用等式1。根据实施例,当基于深 度图像计算质心时,替代将身体部位插入等式1,使用像素。每个像素对应于三维空间中的 位置,可使用标准自然用户界面(NUI)坐标变换来计算该位置。每个像素的“质量”或“重量” 是与深度相关的。在实施例中,为了确定像素的质量,求像素的深度值的平方,如下文示出:

Figure CN105228709BD00321

[0301] 其中“ffi”是像素的质量,而V’是像素的深度值。净效应是增大更远像素的“权重”, 并且减小较近像素的“权重”。这样的理由是因为摄像机(例如,226)经由视锥观看世界,更 远的相同数量的像素比靠近的像素覆盖更多的真实世界“区域”,并且它们覆盖的区域与平 方的距离成正比。换句话说,深度图像的像素具有取决于距离的不同有效表面区域。在本文 描述的某些实施例中,以补偿该距离的方式计算基于深度的质心位置。在不具有对距离的 该补偿的情况下,如果用户的手被保持在摄像机(例如,226)附近,则从摄像机的视角,用户 的手可能具有比用户的身体的剩余部分一样大或更大的可见区域。这可导致不精确的质心 位置。利用距离补偿,对应于用户的手的像素中的每一个与对应于用户的身体中更远离摄 像机的部分的像素相比将被更小地加权,由此使得能够确定精确得多的基于深度的质心位 置。

[0302] 根据实施例,当确定基于深度的质心位置时,仍将使用上文在等式1中示出的常规 质心等式,除了Ώ是对应于用户的像素的数量(而不是身体部位的数量),并且质量妬是使用 上文的等式8针对每个像素计算的(而不是确定每个身体部位的质量)是使用标准NUI坐 标变换技术计算的(三维中的)像素的位置。M是m的总和,即

Figure CN105228709BD00322

[0303] 完全基于深度图像确定基于深度的质心位置的优点是,甚至当ST技术失败时也能 确定基于深度的质心位置。另一优点是一旦在处理管线中可获得深度图像,就可确定基于 深度的质心位置,由此减小延迟,因为不需要执行ST技术。

[0304] 现在将使用图13A的高阶流程图来概括根据一个实施例的、用于确定基于深度的 质心位置的方法。更具体地,图13A是描述用于确定对应于用户的多个像素的基于深度的质 心位置的进程的一个实施例的流程图,其计及在由像素表示的用户的部分与用于获得深度 图像的采集设备之间的距离。在步骤1302,接收深度图像,其中深度图像指定对应于用户的 多个像素。可使用位于距用户(例如,118)—定距离的采集设备(例如,120)获得深度图像。 更一般地,可通过本文描述的采集设备120中的任何传感器,或本领域已知的其他适当传感 器来采集深度图像和彩色图像。在一个实施例中,与彩色图像分开采集深度图像。在一些实 施方式中,同时采集深度图像和彩色图像,而在其他实施方式中,顺序地或在不同时间采集 它们。在其它实施例中,与彩色图像一起采集深度图像,或将深度图像与彩色图像组合作为 一个图像文件,从而每个像素具有R值、G值、B值和Z值(距离)。这样的深度图像和彩色图像 可被传输到计算系统112。在一个实施例中,深度图像和彩色图像以每秒30帧来传输。在一 些示例中,与彩色图像分开传输深度图像。在其它实施例中,可一起传输深度图像和彩色图 像。因为本文描述的实施例主要(或仅)依赖于深度图像的使用,剩余的讨论主要聚焦于深 度图像的使用,并且因此不讨论彩色图像。

[0305] 在步骤1302接收的深度图像还可针对对应于用户的每个像素指定像素位置和像 素深度。如上文提到的,可由X位置值(即水平值)和y位置值(即垂直值)来指示像素位置。可 由z位置值(还称为深度值)来指示像素深度,该z位置值指示在用于获得深度图像的采集设 备(例如,120)和由像素表示的用户的部分之间的距离。为了该描述的目的,假定在步骤 1302接收的深度图像已经经受分割进程,其确定哪些像素对应于用户,并且哪些像素不对 应于用户。替换地,如果在步骤1302接收的深度图像仍未经过分割进程,则可在步骤1302和 1304之间发生分割进程。

[0306] 在步骤1304,访问深度图像的像素。在步骤1306,存在访问的像素是否对应于将确 定基于深度的质心所针对的用户的确定。如果在步骤1306的该确定的答案是“否”,则流程 进行到步骤1312。如果在步骤1306的该确定的答案是“是”,则流程进行到步骤1308。在步骤 1308,计算像素的质量。如上文参考等式9讨论的,可通过取像素的深度值的平方来计算像 素的质量。用于确定像素的质量的替代技术也是可能的并且在实施例的范围内,例如查找 表的使用,或计及在用于获得深度图像的采集设备(例如,120)和由像素表示的用户的部分 之间的距离的替代等式的使用。在步骤1310,存储(例如在存储器中)计算的或以其它方式 确定的像素的质量。

[0307] 在步骤1312,存在是否有需要被考虑的深度图像的任何更多像素(即至少一个更 多像素)的确定。如果在步骤1312的确定的答案是“否”,则流程进行到步骤1314。如果在步 骤1312的确定的答案是“是”,则流程返回到步骤1304,并且访问深度图像的另一像素。

[0308] 在考虑深度图像的所有像素之后,在步骤1314针对对应于用户的多个像素来确定 基于深度的质心位置。更具体地,在步骤1314,存在基于对应于用户的每个像素确定的像素 质量,来确定考虑了在由像素表示的用户的部分与用于获得深度图像的采集设备之间的距 离的对应于用户的多个像素的基于深度的质心位置。上文描述了用于计算基于深度的质心 位置的等式,并且因此需要被再次描述。在步骤1314,步骤1310的实例处存储的像素质量可 被访问并且应用到前述等式。

[0309] 根据某些实施例,除了确定基于深度的质心之外,还可基于深度图像确定基于深 度的惯性张量。当确定基于深度的惯性张量时,将每个像素视为颗粒,并且相对于确定的基 于深度的质心位置来构建基于深度的惯性张量。更具体地,在实施例中,使用以下等式计算 基于深度的惯性张量:

Figure CN105228709BD00331

[0311]其中I是总体3X3的基于深度的惯性张量,Ώ是对应于用户的像素的数量,肌是对 应于用户的特定像素的质量(例如使用上文的等式9计算的),r,是从像素到基于深度的质 心位置的三维矢量,i?是3X3单位矩阵,是点乘积算子,并且

Figure CN105228709BD00341

是外积算子。

[0312]根据某些实施例,然后在玩家的剪影的质量是标准质量(例如75kg)的假定下,缩 放基于深度的惯性张量。在具体实施例中,通过将I·加在一起,并且将标准质量除以该总 和,来计算缩放器,如在下文等式中示出的那样:

Figure CN105228709BD00342

[0314] 其中Ms是标准质量(例如75kg)。然后通过该缩放器缩放基于深度的惯性张量,如 在下文等式中示出的:

Figure CN105228709BD00343

[0316] 缩放基于深度的惯性张量的原因是从而对应用(缩放的基于深度的惯性张量被报 告给该应用)的更新不被用户的尺寸影响。换言之,缩放使得应用(例如,246)能够与应用如 何解释相对瘦的用户的移动或其它行为类似地解释相对强壮的用户的移动或其它行为。缩 放基于深度的惯性张量的另一原因是从而对应用(缩放的基于深度的惯性张量被报告给该 应用)的更新不被用户被定位为相对于采集设备多么靠近影响。换言之,缩放使得应用(例 如,246)能够与应用如何解释被定位为距采集设备相对远的用户的移动或其它行为类似地 解释被定位为相对靠近采集设备的用户的移动或其它行为。缩放的基于深度的惯性张量还 可被称为基于深度的惯性张量的缩放版本。

[0317] 在多于一个用户被表示在深度图像中的情况下,可针对每个用户执行图13A(以及 下文讨论的图13B)的方法的单独实例。例如,假定深度图像中的第一组像素对应于第一用 户,并且同一深度图像中的第二组像素对应于第二用户。这可导致计及在由第一组像素表 示的第一用户的部分与用于获得深度图像的采集设备之间的距离的对应于第一用户的多 个像素的第一基于深度的质心位置。这还可导致计及在由第二组像素表示的第二用户的部 分与用于获得深度图像的采集设备之间的距离的对应于第二用户的多个像素的第二基于 深度的质心位置。附加地,这可导致对应于第一用户的多个像素的第一基于深度的惯性张 量,和对应于第二用户的多个像素的第二基于深度的惯性张量。

[0318] 可针对附加深度图像重复参考图13A描述的方法,由此导致针对多个深度图像中 的每一个确定的基于深度的质心位置以及基于深度的惯性张量。在多于一个用户被表示在 深度图像中的情况下,每次重复该方法,就可针对深度图像中表示的每个用户确定单独的 基于深度的质心位置和基于深度的惯性张量。所确定的基于深度的质心位置和基于深度的 惯性张量和/或其中的改变可用于跟踪用户行为和用户行为的改变。例如,所确定的基于深 度的质心位置和/或基于深度的惯性张量可被报告给应用(例如,246),如在步骤1316和 1320处指示的,并且可基于被报告给应用的基于深度的质心位置和/或基于深度的惯性张 量来更新应用。如在步骤1319处指示的,可在将其报告给用户之前,缩放基于深度的惯性张 量,如上文在等式11的讨论中描述的那样。

[0319] 在实施例中,基于深度的惯性张量的主轴可被确定并用于标识当用户是伸展(例 如站立,在俯卧撑位置中或在平板支撑位置中)时的用户的“长轴”。更具体地,可将基于深 度的惯性张量分解为特征向量和特征值。可然后通过标识最短特征值的特征向量来标识用 户的“长轴”。例如,当用户在站立时,与最小特征值相关联的特征向量将是直上的。对于另 一示例,当用户在俯卧撑或平板支撑位置时,与最小特征值相关联的特征向量将沿着用户 的身体线。

[0320] 对于某些应用,基于深度的质心位置和/或基于深度的惯性张量可向应用提供更 新应用的足够信息。对于其他应用,基于深度的质心位置和/或基于深度的惯性张量可向应 用提供更新应用的非充足信息。例如,在应用尝试确定用户是否正恰当执行分腿跳类型的 运动的情况下,对于应用可能不充足的是仅保持对基于深度的质心位置和/或基于深度的 惯性张量的跟踪。

[0321] 现在参考图13B,如在步骤1322和1324处指示的,根据某些实施例,为了从深度图 像收集附加有用信息,将对应于用户的多个像素分为象限,并且针对每个象限确定单独的 基于深度的象限质心位置。附加地,如在步骤1328处指示的,可针对每个象限确定单独的基 于深度的象限惯性张量。所确定的基于深度的象限质心位置和基于深度的象限惯性张量 和/或其中的改变可用于跟踪用户行为和用户行为的改变。更具体地,可向应用(例如,246) 报告所确定的基于深度的象限质心位置和/或基于深度的象限惯性张量,如在步骤1326和 1330处指示的,并且可基于被报告给应用的基于深度的象限质心位置和/或基于深度的象 限惯性张量来更新应用。跟踪基于深度的象限质心位置和/或基于深度的象限惯性张量的 改变使得能够跟踪具体身体部位的位置(以及因此动作)的改变和/或用户的质量分布的改 变,如可从下文讨论的图14A和14B中认识到的。

[0322] 在实施例中,当在步骤1324将对应于(深度图像的)用户的多个像素分为象限时, 使用在步骤1314确定的基于深度的质心位置用作其中所有四个象限的角落彼此相接的点。 以另一方式解释,在步骤1324,可使用在步骤1314确定的在基于深度的质心位置处交叉的 两条线将对应于(深度图像的)用户的多个像素分为象限。在实施例中,一个这样的线可以 是可以是直上和下并且与在步骤1314确定的基于深度的质心位置交叉的垂直线,并且另一 线可以是与该垂直线垂直并且在基于深度的质心位置处与该垂直线交叉的水平线。然而, 使用这样的任意绘制的线将对应于(深度图像的)用户的多个像素分为象限并未考虑用户 的实际位置。根据替代实施例,另一技术是标识基于深度的惯性张量的主轴,并且选择主轴 之一来用作在长度方向上划分对应于(深度图像的)用户的多个像素的线。垂直于主轴中所 选择一个主轴(用作前述划分线)的与基于深度的质心位置(在步骤1314处确定的)相交的 线可然后被用作在宽度方向上划分对应于(深度图像的)用户的多个像素的线。这些技术可 从图14A和14B的以下讨论中进一步认识到。

[0323] 参考图14A,其中示出的剪影表示对应于深度图像的用户的多个像素。剪影的中间 的白色“X”表示针对对应于用户的多个像素确定的基于深度的质心位置。在白色“X”处与剪 影交叉的水平和垂直白线图示可用于将对应于用户的多个像素分为象限的线。四个白色 表示针对相应象限确定的基于深度的象限质心位置。深度图像中表示的用户正在执行 分腿跳类型的运动。如果仅针对多个接连深度图像跟踪基于深度的质心位置(由白色“X”表 示),则基于深度的质心位置可随着时间上下移动。然而,仅基于上下移动的基于深度的质 心位置,将难以确定用户是正在简单地上下跳跃(而不移动他们的手臂和腿,如在正确分腿 跳中应当完成的那样),还是正在执行正确的分腿跳。可收集附加的有用信息,其中针对每 个象限确定基于深度的象限质心位置,如可从图14A中认识到的。例如,预期的是,当用户执 行正确的分腿跳时,每个基于深度的象限质心位置将沿着可预测路径来回移动。可通过确 定每个象限的基于深度的象限惯性张量来收集甚至另外有用的信息。例如,可使用基于深 度的象限惯性张量来确定用户是否正向着采集设备或远离采集设备移动特定四肢。这些仅 是可通过分析基于深度的象限质心位置和/或基于深度的象限惯性张量解译的用户行为的 类型的几个示例。阅读该说明书的本领域普通技术人员将认识到,还可基于基于深度的象 限质心位置和/或基于深度的象限惯性张量标识无数其它行为。

[0324] 图14B用于图示为何有利的是使用在步骤1318确定的基于深度的惯性张量的主轴 之一作为在长度方向上划分对应于(深度图像的)用户的多个像素的线。参考图14B,其中示 出的剪影表示对应于深度图像的用户的多个像素,其中用户在执行俯卧撑类型的运动。在 图14B中,从头部延伸到剪影的脚的白线对应于基于基于深度的惯性张量确定的主轴之一。 图14B中示出的其它白线(其与上述主轴垂直并且与基于深度的质心位置(在步骤1314确定 的)相交)被用作在宽度方向上划分对应于(深度图像的)用户的多个像素的线。针对每个象 限确定的示例性基于深度的象限质心位置被图示为白色“+”。在图14B中,由像素表示的用 户在做俯卧撑,如上文提到的那样。从图14B可认识到,如果使用任意水平和垂直线来将对 应于用户的多个线分为象限,则象限中的至少一个可能包括相对少量的像素,从该相对少 量的像素将难以收集有用信息。

[0325] 再参考图14B,将(对应于用户的)多个像素分为象限的两条线之一被用于将两个 上象限与两个下象限分开。根据实施方式,并且根据用户的位置,(将两个上象限与两个下 象限分开的)该线可以是主轴或垂直于主轴的线。

[0326] 如上文提到的,深度图像和RGB图像可使用采集设备120获得并且以每秒30帧的速 率或某一其它速率被传输到计算系统112。可与RGB图像分开传输深度图像,或两个图像可 以一起传输。继续上述示例,可以针对每个深度图像帧来确定上述基于深度的质心位置以 及上述基于深度的惯性张量,并且因此可以每秒确定三十个基于深度的质心位置以及三十 个基于深度的惯性张量。附加地,对于每个深度图像帧,可确定基于深度的象限质心位置和 基于深度的象限惯性张量。可通过上文参考图12讨论的运行时引擎244来执行这样的确定。 甚至更具体地,可使用参考图12讨论的基于深度的质心模块254和基于深度的惯性张量模 块256来执行这样的确定。

[0327] 返回参考图2,运行时引擎244可包括其确定给应用246。这样的报告也在上文参考 图13A和13B中的步骤1316、1320、1326和730讨论了。现在参考图5,在步骤1502,应用接收指 示基于深度的质心位置、基于深度的惯性张量、基于深度的象限质心位置和/或基于深度的 象限惯性张量的信息。如在步骤1504示出的,基于这样的信息更新应用。例如,如上文所述, 可使用这样的信息跟踪执行某些运动(例如下蹲、弓步、俯卧撑、跳跃或分腿跳)的用户,从 而可控制用户的化身,对用户评分和/或可提供反馈给用户。对于更具体的示例,在应用246 是指令用户执行某些运动的游戏的情况下,应用246可确定用户是否以正确的形态执行运 动,并且在他们没有以正确的形态执行运动时,可提供关于用户可如何改进他们的形态的 反馈给用户。

[0328] 还可能的是,运行时引擎244与姿势库240交互,以将基于深度图像跟踪的动作或 其它行为与基于深度的姿势滤波器比较,以确定(由深度图像的像素表示的)用户是否执行 了一个或多个姿势。那些姿势可以与应用246的各种控制相关联。因此,计算系统112可使用 姿势库240来解释基于深度图像检测的移动并且基于移动来控制应用246。因此,可由运行 时引擎244和应用246使用姿势库。

[0329] 用于获得深度图像的摄像机(例如,226)可能相对于用户所站立或以其他方式支 撑自己的地板倾斜。为了计及这样的摄像机倾斜,可从传感器(例如加速度计)或以某一其 它方式获得重力矢量,并且在计算基于深度的质心位置、基于深度的惯性张量、基于深度的 象限质心位置和/或基于深度的象限惯性张量时将其作为因素考虑。以上文描述的方式,在 这样的像素被用于确定基于深度的质心位置、基于深度的惯性张量、基于深度的象限质心 位置和/或基于深度的象限惯性张量之前,可以对与用户对应的像素执行对摄像机倾斜的 这样的计及处理(还被称为倾斜校正)。在某些实施例中,通过计算旋转矩阵来执行倾斜校 正,旋转矩阵将重力矢量旋转到单元y矢量,并且在像素被用于确定基于深度的质心位置、 基于深度的惯性张量、基于深度的象限质心位置和/或基于深度的象限惯性张量之前向像 素应用所计算的旋转矩阵。例如,如果X,y,z重力矩阵是(0.11,0.97,0.22),则计算的旋转 矩阵将重力矩阵旋转为(0.0,1.0,0.0)。在替代实施例中,在没有倾斜校正的情况下计算基 于深度的质心位置、基于深度的惯性张量、基于深度的象限质心位置和/或基于深度的象限 惯性张量,并且然后在它们已被确定之后,应用所计算的旋转矩阵到基于深度的确定,以由 此将结果去除倾斜。在再其它实施例中,替代使用旋转矩阵以执行倾斜校正,可使用四元数 (quaternion)来执行倾斜校正。可使用熟知标准技术来执行旋转矩阵或四元数的计算,如 阅读本说明书的本领域普通技术人员将认识到的。相应地,可认识到,被用于如上所述那样 更新应用的任何基于深度的质心位置、基于深度的惯性张量、基于深度的象限质心位置和/ 或基于深度的象限惯性张量可已经被倾斜校正。

[0330] 示例计算系统

[0331] 图16图示了可以是可用于跟踪动作和/或动画操纵(或以其它方式更新)由应用显 示的化身或其它屏幕上对象的图1A-2中示出的计算系统112的计算系统的示例实施例。例 如上文关于图1A-2描述的计算系统112的计算系统可以是多媒体控制台,例如游戏控制台。 如在图16中示出的,多媒体控制台1600具有中央处理单元(CPU) 1601,其具有一级高速缓存 102、二级高速缓存1604、和闪速ROM(只读存储器)1606。一级高速缓存1602和二级高速缓存 1604暂时存储数据并且因此减小存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 1601可以被提供为具有多于一个核,并且因此具有附加的一级和二级高速缓存1602和 1604。闪存ROM 1606可存储在当多媒体控制台1600被上电时的启动进程的初始阶段期间被 装载的可执行代码。

[0332] 图形处理单元(GPU) 1608和视频编码器/视频编解码器(编码器/解码器)1614形成 用于高速和高分辨率图形处理的视频处理管线。从图形处理单元1608经由总线运载数据到 视频编码器/视频编解码器1614。视频处理管线输出数据到A/V (音频/视频)端口 1640用于 传输到电视或其它显示器。存储器控制器1610连接到GPU 1608以促进对各种类型的存储器 1612 (包括但不限于RAM(随机存取存储器)的处理器访问。

[0333] 多媒体控制台1600包括优选被实施在模块1618上的I/O控制器1620、系统管理控 制器1622、音频处理单元1623、网络接口 1624、第一USB主机控制器1626、第二USB控制器 1628和前面板I/O子组件1630 WSB控制器1626和1628用作外围控制器1642⑴-1642 (2)、无 线适配器1648和外部存储器设备1646 (例如闪速存储器、外部⑶/DVD ROM驱动器、可移动媒 体等)的主机。网络接口 1624和/或无线适配器1648提供对网络(例如互联网、家庭网络等) 的访问,并且可以是多种多样的有线或无线适配器部件(包括以太网卡、调制解调器、蓝牙 模块、有线调制解调器等)中的任一个。

[0334] 系统存储器1643被提供来存储在启动进程期间装载的应用数据。媒体驱动器1644 被提供并且可以包括DVD/CD驱动器、蓝光驱动器、硬盘驱动器或其它可移动媒体驱动器等。 媒体驱动器1644可以在多媒体控制台1600内部或外部。可以经由媒体驱动器1644访问应用 数据以由多媒体控制台1600执行、播放等。媒体驱动器1644经由总线(例如串行ATA总线或 其它高速连接(例如,IEEE 1394))连接到I/O控制器1620。

[0335] 系统管理控制器1622提供与确保多媒体控制台1600的可用性相关的各种服务功 能。音频处理单元1623和音频编解码器1632形成具有高保真和立体声处理的对应音频处理 管线。在音频处理单元1623和音频编解码器1632之间经由通信链路运载音频数据。音频处 理管线输出数据到A/V端口 1640,用于由具有音频能力的外部音频播放器或设备重放。

[0336] 前面板I/O子组件1630支持电源按钮1650和弹出按钮1652以及任何LED (发光二极 管)或暴露在多媒体控制台1600的外表面上的其它指示器的功能。系统电源模块1636提供 电力给多媒体控制台1600的部件。风扇1638冷却在多媒体控制台1600内的电路。

[0337] CPU 160UGPU 1608、存储器控制器1610和多媒体控制台1600内的各种其他部件 经由一个或多个总线互连,该总线包括串行和并行总线、存储器总线、外围总线和使用各种 总线架构中的任一个的处理器或本地总线。通过示例的方式,这样的架构可包括外围部件 互连(PCI)总线、PCI-Express总线等。

[0338] 当多媒体控制台1600被上电时,可从系统存储器1643装载应用数据到存储器1612 和/或高速缓存1602、1604中并且在CPU 1601上执行。应用可呈现当导航到多媒体控制台 1600上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,可从媒体 驱动器1644启动或播放媒体驱动器1644内包含的应用和/或其它媒体来提供附加功能给多 媒体控制台1600。

[0339] 通过简单地将该系统连接到电视或其它显示器,多媒体控制台1600可被操作为独 立系统。在该独立模式中,多媒体控制台1600允许一个或多个用户与系统交互,观看电影或 收听音乐。然而,利用通过网络接口 1624或无线适配器1648变得可用的宽带连接的集成,多 媒体控制台1600可进一步被操作为在较大网络社区中的参与者。

[0340] 当多媒体控制台1600被上电时,设定量的硬件资源被保留以用于由多媒体控制台 操作系统的系统使用。这些资源可包括存储器(例如16MB)、CPU和GPU周期(例如5%)、联网带 宽(例如8Kbps)等的保留。因为在系统启动时间保留这些资源,从应用的角度,保留的资源 不存在。

[0341] 特别地,存储器保留优选足够大以包含启动内核、并发系统应用和驱动器。CPU保 留优选是恒定的,使得如果保留的CHJ使用未被系统应用使用,则空闲线程将消耗任何未使 用的周期。

[0342] 关于GPU保留,通过使用GPU中断来调度用于将弹出渲染为覆盖的代码,来显示由 系统应用(例如弹出)生成的轻量消息。用于覆盖所要求的存储器的量取决于覆盖面积大小 并且覆盖优选随着屏幕分辨率而缩放。在并发系统应用使用全部用户界面的情况下,优选 的是使用独立于应用分辨率的分辨率。可使用缩放器来设置该分辨率,使得消除了对改变 频率和引起TV重新同步的需要。

[0343] 在多媒体控制台1600启动并且系统资源被保留之后,并发系统应用执行以提供系 统功能。系统功能被封装在上文描述的保留的系统资源内执行的一组系统应用中。操作系 统内核标识作为系统应用线程相比游戏应用线程的线程。系统应用优选被调度来以预定时 间和间隔运行在CPU 1601上,以便向应用提供一致的系统资源视图。调度是为了最小化在 控制台上运行的游戏应用的高速缓存破坏。

[0344] 当并发系统应用要求音频时,由于时间敏感性,与游戏应用异步地调度音频处理。 多媒体控制台应用管理器(下文描述)当系统应用有效时控制游戏应用音频水平(例如静 音、衰减)。

[0345] 由游戏应用和系统应用共享输入设备(例如,控制器1642⑴和1642 (2))。输入设 备不是保留的资源,但是可在系统应用和游戏应用之间切换,使得每个将具有设备的焦点。 应用管理器优选控制输入流的切换,而不具有游戏应用的知识,并且驱动器维持关于焦点 切换的状态信息。摄像机226、228和采集设备120可经由USB控制器1626或其它接口定义用 于控制台1600的附加的输入设备。

[0346] 图17图示可以是用于跟踪动作和/或动画操纵(或以其它方式更新)由应用显示的 化身或其它屏幕上对象的图1A-2中示出的计算系统112的计算系统1720的另一示例实施 例。计算系统1720仅是适当计算系统的一个示例,并且不意图暗示关于当前公开的主题的 用途或功能的范围的任何限制。计算系统1720也不应当被解释为具有对任何关于示例性计 算系统1720中图示的部件中的任一个或组合的依赖性或要求。在一些实施例中,各种描绘 的计算元件可包括被配置为实例化本公开的特别方面的电路。例如,在本公开中使用的术 语电路可包括被配置为由固件或开关执行(多个)功能的专用硬件部件。在其他示例实施例 中,术语电路可包括由体现可操作以执行(多个)功能的逻辑的软件指令来配置的通用处理 单元、存储器等。在其中电路包括硬件和软件的组合的示例实施例中,实施者可编写体现逻 辑的源代码,并且源代码可被编译为可由通用处理单元处理的机器可读代码。因为本领域 技术人员能够认识到最新技术水平已经发展到其中在硬件、软件或硬件/软件的组合之间 存在很小差别的程度,所以对用于实行具体功能的硬件相比软件的选择是留给实施者的设 计选择。更具体地,本领域技术人员可认识到,可将软件进程变换为等同的硬件结构,并且 可将硬件结构本身变换为等同软件进程。因此,硬件实施相比软件实施的选择是设计选择 之一并且被留给实施者。

[0347] 计算系统1720包括计算机1741,其通常包括各种计算机可读介质。计算机可读介 质可以是计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可以例如是但 不限于电子、磁、光学、电磁或半导体系统、装置或设备,或前述的任何适当组合。计算机可 读存储介质的更多具体示例(非穷尽列表)将包括以下:便携计算机磁盘、硬盘、随机存储存 储器(RAM)、只读存储器(ROM)、可擦写可编程只读存储器(EPROM或闪存)、具有中继器的适 当的光纤、便携式紧致盘只读存储器(CD-ROM)、光学存储设备、磁存储设备或前述的任何适 当组合。在该文档的上下文中,计算机可读存储介质可以是可包含或存储由指令执行系统、 装置或设备使用或与指令执行系统、装置或设备结合使用的程序的任何有形介质。

[0348] 计算机可读信号介质可包括具有体现在其中的(例如在基带中或作为载波的部 分)计算机可读程序代码的传播数据信号。这样的传播信号可以采用各种形式中的任一个, 该各种形式包括但不限于,电磁、光学或其任何适当组合。计算机可读信号介质可以是非计 算机可读存储介质并且可通信、传播或运输用于由指令执行系统、装置或设备使用或与指 令执行系统、装置或设备结合使用的程序的任何计算机可读介质。体现在计算机可读信号 介质上的程序代码可以使用任何适当介质来传输,该任何适当介质包括但不限于无线、有 线、光纤电缆、RF等或前述的任何适当组合。

[0349] 计算机可读介质可以是可由计算机1741访问的任何可用介质,并且包括易失和非 易失介质、可移动和不可移动介质。系统存储器1722包括以易失和/或非易失存储器的形式 的计算机可读存储介质,例如只读存储器(ROM) 1723和随机存取存储器(RAM) 1760。通常在 ROM 1723中存储基本输入/输出系统1724 (BIOS),其包含例如在启动期间帮助在计算机 1741内的元件之间传输信息的基本例程。RAM 1760通常包含由处理单元1759立即可访问 和/或当前正在处理单元1759上操作的数据和/或程序模块。通过示例而非限制的方式,图 17图示操作系统1725、应用程序1726、其他程序模块1727和程序数据1728。

[0350] 计算机1741还可包括其他可移动/不可移动、易失/非易失计算机可读存储介质。 仅通过示例的方式,图17图示从不可移动、非易失磁介质读取或写入其的硬盘驱动器1738、 从可移动、非易失磁盘1754读取或写入其的磁盘驱动器1739、和从可移动、非易失光盘1753 (例如CD ROM或其它光学介质)读取或写入其的光盘驱动器1740。可在示例性操作环境中使 用的其它可移动/不可移动、易失/非易失计算机存储介质包括但不限于磁带盒、闪速存储 器卡、数字多功能盘、数字视频带、固态RAM、固态ROM等。硬盘驱动器1738通常通过不可移动 存储器接口(例如接口 1734)连接到系统总线1721,并且磁盘驱动器1739和光盘驱动器1740 通常通过可移动存储器接口(例如接口 1735)连接到系统总线1721。

[0351] 上文讨论的并且在图17中图示的驱动器及其相关联计算机存储介质提供了计算 机可读指令、数据结构、程序模块和用于计算机1741的其它数据的存储。在图17中,例如,硬 盘驱动器1738被图示为存储操作系统1758、应用程序1757、其它程序模块1756和程序数据 1755。注意,这些部件可以与操作系统1725、应用程序1726、其它程序模块1727和程序数据 1728相同或不同。操作系统1758、应用程序1757、其它程序模块1756和程序数据1755在此被 给予不同数字,以图示在最低限度,它们是不同副本。用户可经由输入设备键入命令和信息 到计算机1741,输入设备例如是键盘1751和指向设备1752 (常称为鼠标、轨迹球或触摸板)。 其它输入设备(未示出)可包括麦克风、游戏杆、游戏板、卫星盘、扫描仪等。这些和其它输入 设备经常通过耦合到系统总线的用户输入接口 1736连接到处理单元1759,但是可通过其他 接口和总线结构(例如并行端口、游戏端口或通用串行总线(USB))连接。摄像机226、228和 采集设备120可定义经由用户输入接口 1736连接的用于计算系统1720的附加输入设备。监 视器1742或其它类型的显示设备还可经由接口(例如视频接口 1732)连接到系统总线1721。 除了监视器之外,计算机还可包括其它外围输出设备,例如扬声器1744和打印机1743,其可 通过输出外围接口 1733连接。采集设备120可经由输出外围接口 1733、网络接口 1737或其它 接口连接到计算系统1720。

[0352] 计算机1741可使用到一个或多个远程计算机(例如远程计算机1746)的逻辑连接 而工作在联网环境中。远程计算机1746可以是个人计算机、服务器、路由器、网络PC、点设备 或其它常见网络节点,并且通常包括上文相对于计算机1741描述的元件中的很多或所有, 尽管在图17中图示了仅存储器存储设备1747。描绘的逻辑连接包括局域网(LAN) 1745和广 域网(WAN) 1749,但还可包括其它网络。这样的联网环境在办公室、企业范围计算机网络、内 联网和因特网中是常见的。

[0353] 当在LAN联网环境中使用时,计算机1741通过网络接口 1737连接到LAN 1745。当在 WAN联网环境中使用时,计算机1741通常包括调制解调器1750或用于通过WAN 1749(例如互 联网)建立通信的其它装置。调制解调器1750(其可以是内部或外部的)可以经由用户输入 接口 1736或其它适当机制连接到系统总线1721。在联网环境中,相对于计算机1741描绘的 程序模块或其部分可以存储在远程存储器存储设备中。通过示例而非限制的方式,图17图 示了如在存储器设备1747上驻留的应用程序1748。将认识到,示出的网络连接是示例性的 并且可使用在计算机之间建立通信链路的其它手段。

[0354] 图18图示了在图2中介绍的运行时引擎244的示例实施例。参考图18,运行时引擎 244被示为包括深度图像分割模块1852、基于深度的曲线拟合模块1854、基于深度的身体角 度模块1856、基于深度的身体曲率模块1858和基于深度的平均极端位置模块1860。在一实 施例中,深度图像分割模块1852被配置为检测在深度图像内的一个或多个用户(例如人类 目标),并且将分割值与每个像素相关联。这样的分割值用于指示哪些像素对应于用户。例 如,1的分割值可被分配给对应于第一用户的所有像素,2的分割值可被分配给对应于第二 用户的所有像素,并且任意预定值(例如255)可被分配给不对应于用户的像素。还可能的 是,分割值可被分配给除了用户之外的在深度图像内标识的对象,例如但不限于网球拍、跳 绳、球、地板等。在实施例中,作为由深度图像分割模块1852执行的分割进程的结果,深度图 像中的每个像素将具有与该像素相关联的四个值,包括:X位置值(即水平值);y位置值(BP 垂直值);z位置值(即深度值);和分割值,其刚在上文解释。换言之,在分割之后,深度图像 可指定多个像素对应于用户,其中这样的像素还可被称为用户的基于深度的剪影或深度图 像剪影。附加地,深度图像可针对对应于用户的像素中的每一个,指定像素位置和像素深 度。像素位置可以通过X位置值(即水平值)和y位置值(即垂直值)来指示。像素深度可通过z 位置值(还称为深度值)来指示,其指示在用于获得深度图像的采集设备(例如120)与由像 素表示的用户的部分之间的距离。

[0355] 再参考图18,在实施例中,使用基于深度的曲线拟合模块1854来将曲线拟合到对 应于用户的多个像素的一部分。基于深度的身体角度模块1856用于确定指示用户的身体的 角度的信息,并且基于深度的身体曲率模块1858用于确定指示用户的身体的曲率的信息。 涉及指示用于的身体的角度的信息和确定指示用户的身体的曲率的信息的附加细节在下 文参考图19-22描述。基于深度的平均极端位置模块1860用于确定指示用户的身体的极端 的信息,其附加细节参考图23A-29在下文描述。运行时引擎244还可包括本文未描述的附加 模块。

[0356] 根据正在跟踪什么用户行为,有时将有用的是能够确定指示用户的身体的角度的 信息和/或指示用户的身体的曲率的信息。例如,这样的信息可用于分析当执行某些运动时 用户的形态,从而可控制用户的化身,可给用户评分和/或可向用户提供反馈。如本文使用 的术语运动可指代体操运动,例如俯卧撑,以及经常包含姿态的运动类型,例如瑜伽和普拉 提,但是不限于此。例如,在某些运动中,如俯卧撑和各种平板支撑运动(例如常规平板支 撑,还被称为肘平板、侧平板支撑、侧平板腿抬起和上下平板支撑),用户的身体或其部分 (例如用户的背)被假设为直的。在其它运动中,例如像下犬式瑜伽运动、向上面对犬式瑜伽 运动,用户的身体或其部分被假设以特别方式弯曲。骨架跟踪(ST)技术通常对于跟踪执行 这样类型的运动的用户是不可靠的,尤其在运动包含用户躺或坐在地板上或靠近地板的运 动的情况下。下文描述的某些实施例依赖于深度图像来确定指示用户的身体的角度的信息 和/或指示用户的身体的曲率的信息。这样的实施例可以被用于替代或补充经常用于基于 RGB图像检测用户行为的骨架跟踪(ST)技术。

[0357] 现在将使用图19的高阶流程图来概括用于基于深度图像确定指示用户的身体的 角度的信息和/或指示用户的身体的曲率的信息的方法。在步骤1902,接收深度图像,其中 深度图像指定对应于用户的多个像素。可使用位于距用户(例如118)—定距离的采集设备 (例如120)获得深度图像。更一般地,可通过本文描述的采集设备120中的任何传感器,或本 领域已知的其他适当传感器来采集深度图像和彩色图像。在一个实施例中,与彩色图像分 开采集深度图像。在一些实施方式中,同时采集深度图像和彩色图像,而在其他实施方式 中,顺序地或在不同时间采集它们。在其它实施例中,与彩色图像一起采集深度图像,或将 深度图像与彩色图像组合作为一个图像文件,从而每个像素具有R值、G值、B值和Z值(距 离)。这样的深度图像和彩色图像可被传输到计算系统112。在一个实施例中,深度图像和彩 色图像以每秒30帧来传输。在一些示例中,与彩色图像分开传输深度图像。在其它实施例 中,可一起传输深度图像和彩色图像。因为本文描述的实施例主要(或仅)依赖于深度图像 的使用,剩余的讨论主要聚焦于深度图像的使用,并且因此不讨论彩色图像。

[0358] 在步骤1902接收的深度图像还可针对对应于用户的每个像素指定像素位置和像 素深度。如上文提到的,在图18的讨论中,可通过X位置值(即水平值)和y位置值(即垂直值) 来指示像素位置。可通过z位置值(还称为深度值)来指示像素深度,其指示在用于获得深度 图像的采集设备(例如120)和由像素表示的用户的部分之间的距离。为了该描述的目的,假 定在步骤1902接收的深度图像已经经受分割进程,其确定哪些像素对应于用户,并且哪些 像素不对应于用户。替换地,如果在步骤1902接收的深度图像仍未经过分割进程,则可在步 骤1902和1904之间发生分割进程。

[0359] 在步骤1904,标识感兴趣的像素的子集,其中在下文讨论的步骤1906处曲线将被 拟合到所标识的子集。如上文提到的,对应于用户的深度图像的多个像素还可被称为用户 的深度图像剪影,或简单地深度图像剪影。相应地,在步骤1904,标识深度图像剪影的感兴 趣部分,其中在步骤1906将把曲线拟合到所标识的部分。在一个实施例中,感兴趣像素(BP 深度图像剪影的感兴趣部分)是对应于用户的躯干的像素。在另一实施例中,感兴趣像素是 对应于用户的腿、躯干和头的像素。在另一实施例中,感兴趣像素是对应于用户的多个像素 中相对于平面(例如支撑用户的地板)对应于上外围部分的像素。在再另一实施例中,感兴 趣像素是对应于用户的多个像素中相对于平面(例如支撑用户的地板)对应于下外围部分 的像素。

[0360] 在步骤1906,将曲线拟合到在步骤1904标识的像素子集,以由此产生拟合曲线。在 某些实施例中,在步骤1906产生的拟合曲线包括多个直线段。在一个实施例中,拟合曲线精 确地包括可例如使用三次多项式等式确定的三个直线段(以及因此两个端点和两个中点)。 精确地包括三个直线段的拟合曲线的示例在图8A-8C中示出并且下文参考图8A-8C来讨论。 还可能的是,拟合曲线具有少至两个直线段。替换地,拟合曲线可具有四个或更多直线段。 在再另一实施例中,拟合曲线可以是平滑曲线,即不由直线段构成的曲线。无数熟知曲线拟 合技术可用于执行步骤1906,并且因此不需要描述如何将曲线拟合到一组像素的附加细 节。在步骤1908,标识拟合曲线的端点。

[0361] 对于大部分剩余描述,将假定在步骤1904标识的感兴趣像素(即深度图像剪影的 感兴趣部分)是对应于用户的多个像素中相对于平面(例如支撑用户的地板)对应于上外围 部分的像素。该实施例的益处是基于所标识的像素的确定不被用户的宽松悬挂衣服影响。 还将假定的是在步骤1906处产生的拟合曲线精确地包括三个直线段。这的益处将从步骤 1914的下面讨论中认识到。

[0362] 在继续图19中的流程图的描述之前,将简要参考图20A-20C。参考图20A,其中示出 的暗剪影表示对应于执行四肢支撑瑜伽姿势(其还被称为Chaturanga Dandasana姿态)的 用户的(深度图像的)多个像素。还在图20A中示出的是被拟合到对应于用户的多个像素中 相对于平面2012(例如支撑用户的地板)对应于上外围部分的像素的曲线2002。以另一方式 解释,曲线2002被拟合到用户的深度图像剪影的顶部。拟合曲线2002包括三个直线段 2004&amp;、200413、2004(3,其可统称为直线段2004。拟合曲线的端点被标记为20063和200613,并 且可统称为端点2006。拟合曲线的中点被标记为2008a和2008b,并且可统称为中点2008。在 两个端点之间延伸的直线被标记为2010。

[0363] 类似于图20A的图20B对应于在用户将他们自身再定位到另一瑜伽姿态后的时间 点。更具体地,在图20B中,其中示出的暗剪影表示对应于执行向上面对犬式瑜伽姿态(还被 称为Urdhva Mukha Svanasana姿态)的用户的(深度图像的)多个像素。为了一致性,拟合曲 线2002、直线段2004、端点2006、中点2008和端点2006之间的直线2010以与它们在图20A中 相同的方式在图20B中标记。

[0364] 在图20C中,其中示出的暗剪影表示对应于执行平板支撑位置瑜伽姿态或执行俯 卧撑运动的用户的(深度图像的)多个像素。再次,拟合曲线2002、直线段2004、端点2006、中 点2008和端点2006之间的直线2010以与它们在图20A和20B中相同的方式在图20C中标记。

[0365] 再次参考图19的流程图,在步骤1910-714,确定指示用户的身体的角度的信息和 指示用户的身体的曲率的信息。这样的信息被报告给应用,如在步骤1916指示的,这使得应 用能够基于报告的信息来更新。下文提供步骤1910-1914的附加细节。当讨论这些步骤时, 频繁参考图20A-20C,以提供讨论的步骤的示例。

[0366] 在步骤1910,存在在拟合曲线的端点之间的直线相对于平面(例如支撑用户的地 板)的角度的确定。在图20A中,角度2020是这样的角度的示例。更具体地,角度2020是在拟 合曲线2002的端点2006之间的直线2010相对于平面2012的角度。角度2020的另外示例在图 20B和20C中示出。指示用户的身体相对于平面(例如地板)的总体角度的角度2020可由应用 使用以确定用户的可能位置或姿态,基于用户的位置或姿态更新被显示的化身,和/或提供 关于用户是否在正确位置或姿态的反馈给用户,但是不限于此。对于更具体的示例,这样的 信息可提供有用的信息给应用,其中用户已被指令保持姿态,在该姿态中,他们的背和腿被 假设为尽可能直或被假设为具有特别曲率。

[0367] 图20A中的角2020类似于图20B中的角2020,即使由像素表示的用户在完全不同姿 态中。这发生是因为用户的头和脚处于相对类似位置中,即使用户的身体的躯干的位置和 曲率已显著改变。这提供了关于为什么获得指示用户的身体的曲率的信息(如在下文讨论 的步骤1912和1914处完成的)也将有用的一些见解。

[0368] 在步骤1912,存在拟合曲线的端点之间的直线相对于拟合曲线的直线段之一的角 度的确定。在图20A中,角度2030是这样的角度的示例。更具体地,角度2030是在拟合曲线 2002的端点2006之间的直线2010相对于(拟合曲线2002的)直线段2004a的角度。在图20B和 20C中示出角度2030的另外示例。图20A中的角度2030是正角。作为对比,图20B中的角度 2030是负角。因此,可理解的是应用可如何使用角度2030来在用户的不同姿态之间区分。更 一般地,可从上文讨论理解,角度2030如何指示用户的身体的曲率。在上文示例中,角度 2030是在(拟合曲线2002的端点2006之间)的直线2010和(拟合曲线2002)的直线段2004a之 间的角度。替换地,或附加地,可确定在(拟合曲线2002的端点2006之间)的直线2010和(拟 合曲线2002)的另一直线段2004(例如直线段2004c)之间的角度。

[0369] 在步骤1914,存在对应于拟合曲线的曲率比率的确定。根据实施例,曲率比率是在 拟合曲线的端点之间延伸的第一直线的长度和从第一直线正交地延伸到拟合曲线中与第 一直线最远(即最远偏离)的点的第二线的长度的比率。例如,参考图20A,曲率比率是在拟 合曲线2002的端点2006之间延伸的直线2010的长度和从直线2010正交地延伸到拟合曲线 2002中与直线2010最远的点的线2040的长度的比率。实施其中拟合曲线(例如2002)精确地 包括三个直线段的实施例的益处是第二线的长度非常容易和快速确定,如将参考图21的附 加地详细描述的那样。

[0370] 现在将使用图21的高阶流程图来描述用于确定曲率比率的方法,其中拟合曲线的 直线段精确地包括直线段。参考图21,在步骤2102,存在从(在拟合曲线的端点之间延伸的) 直线正交地延伸到拟合曲线的第一中点的线的长度的确定。在步骤2104,存在从(在拟合曲 线的端点之间延伸的)直线正交地延伸到拟合曲线的第二中点的线的长度的确定。暂时返 回参考图20A,步骤2102可通过确定从直线2019正交地延伸到拟合曲线2002的中点2008a的 线2041的长度来执行。类似地,步骤2104可通过确定从直线2019正交地延伸到拟合曲线 2002的其他中点2008b的线2040的长度来执行。返回到图21的流程图,在步骤2106,存在在 步骤2102和2104确定的长度中的哪个更长的确定。如在步骤2108指示的,当在步骤1914确 定对应于拟合曲线的曲率比率时,选择长度中的较长者来用作从(在拟合曲线的端点之间 延伸的)直线正交地延伸到拟合曲线中与(在拟合曲线的端点之间延伸的)直线最远(即最 远偏离)的点的线的长度。例如,返回参考图20A,使用参考图21描述的方法的结果,可然后 通过确定直线2040的长度与在拟合曲线2002的端点2006a和2006b之间延伸的直线2010的 长度的比率来确定曲率比率。

[0371] 返回参考图18,运行时引擎244可将其确定报告给应用246。上文还参考图19中的 步骤1916讨论了这样的报告。更具体地,如在图19中示出的,可将在步骤1910确定的指示角 度的信息、在步骤1912确定的角度和/或在步骤1914确定的曲率比率报告给应用。

[0372] 现在参考图22,在步骤2202,应用接收在步骤1910确定的指示角度的信息、在步骤 1912确定的角度和/或在步骤1914确定的曲率比率。如在步骤2204示出的,基于这样的信息 更新应用。例如,如上文提到的,可使用这样的信息跟踪执行某些运动和/或姿态的用户,从 而可控制用户的化身,可给用户评分和/或可给用户提供反馈。对于更具体的示例,在应用 246是指令用户执行某些运动和/或姿态的游戏时,应用246可确定用户是否以正确形态执 行运动或姿态,并且在他们没有以正确形态执行运动或姿态时,可提供关于用户可如何改 进他们的形态的反馈给用户。

[0373] 在多于一个用户被表示在深度图像中时,可针对每个用户执行图19的方法的单独 实例。例如,假定深度图像中的第一组像素对应于第一用户,并且同一深度图像中的第二组 像素对应于第二用户。这可导致指示对应于第一用户的角度和/或曲率的第一信息和指示 对应于第二用户的角度和/或曲率的第二信息。

[0374] 可针对附加深度图像重复上文参考图19描述的方法,由此导致针对多个深度图像 中的每个确定的指示用户的身体的角度和/或曲率的信息。这使得能够跟踪用户的身体的 角度和/或曲率的改变。在多于一个用户被表示在深度图像中时,每次重复该方法,就可针 对深度图像中表示的每个用户确定指示用户的身体的角度和/或曲率的单独的信息。

[0375] 完全基于深度图像确定指示用户的身体的角度和/或曲率的信息的优点是甚至当 ST技术失败时也能确定指示用户的身体的角度和/或曲率的信息。另一优点是一旦在处理 管线中深度图像可获得时就可确定指示用户的身体的角度和/或曲率的信息,由此减小延 迟,因为ST技术不需要被执行。然而,如果期望的话,也可使用ST技术确定指示用户的身体 的角度和/或曲率的信息。

[0376] 根据正在跟踪什么用户行为,有时将有用的是能够确定指示用户的身体的极端的 信息。ST技术经常对于检测用户的身体的极端是不可靠的,尤其当用户正躺或坐在地板上 或靠近地板时(例如当用户正坐,而他们的脚向着采集设备向前延伸时)。下文描述的某些 实施例依赖于深度图像来确定指示用户的身体的极端的信息。这样的实施例可被用于替代 或补充经常用于基于RGB图像检测用户行为的骨架跟踪(ST)技术。

[0377] 参考图23A,其中示出的暗轮廓表示对应于在标准平板支撑位置上处于变化但是 在相反方向延伸一个臂和一条腿的用户的(深度图像的)多个像素。还在图23A中示出的是 分别对应于对应于用户的(深度图像的)最左、最右、最顶和最底像素的点2302、2312、2322 和2332。尽管将可能的是基于点2302、2312、2322和/或2332跟踪在多个深度图像中用户的 一个或多个极端,这样的点被显示为从帧到帧显著改变,引起所述点是相对带噪声的数据 点。例如,这样的噪声可由于用户的手、脚、头和/或类似物的轻微移动引起。下文描述的某 些实施例可用于通过跟踪极端团块的平均位置来克服该噪声问题,其中术语团块在本文中 用于指代深度图像的对应于用户并且在被标识为对应于用户的极端的指定距离内的一组 像素。

[0378] 现在将使用图24的高阶流程图来描述用于确定极端团块的平均位置的方法。参考 图24,在步骤2402,接收深度图像,其中深度图像指定了多个像素对应于用户。因为步骤 2402实质与上文参考图19描述的步骤1902相同,可从步骤1902的上文讨论理解步骤1902的 附加细节。在步骤2404,标识对应于用户的极端的深度图像的像素。根据考虑哪个极端,步 骤2404可包含标识对应于用户的最左、最右、最顶或最底像素的深度图像的像素。这样的像 素的示例在上文参考图23描述了。如在下文更详细描述的,步骤2404可替换地包含标识深 度图像的对应于深度图像的对应于用户的最前像素的像素。在步骤2406,标识对应于用户 的并且在于步骤2404被标识为对应于用户的极端的像素的指定距离内(例如在指定方向的 5个像素内)的深度图像的像素。在步骤2408,通过确定在步骤2406被标识为对应于用户并 且在对应于用户的极端的像素的指定距离内的像素的平均位置,来确定平均极端位置,其 还可被称为极端团块的平均位置。在步骤2410,确定是否存在任何附加感兴趣极端,针对该 感兴趣极端将要确定平均极端位置(即极端团块的平均位置)。具体感兴趣极端可取决于将 要使用(多个)平均极端位置的应用。例如,其中仅左和右极端是感兴趣的,可针对感兴趣的 这两个极端中的每一个执行步骤2404-2408。如在步骤2412指示的,将一个或多个平均极端 位置(例如左和右极端团块的平均位置)报告给应用,由此使得能够基于这样的位置信息更 新应用。

[0379] 根据一实施例,现在将使用图25与图23A-23F—起来提供图24的步骤2404-2408的 附加细节。对于该讨论,将假定感兴趣的初始极端是左极端。根据实施例,参考图25,步骤 2502-2508提供关于如何在步骤2404标识对应于用户的最左点的(深度图像的)像素的附加 细节。在步骤2502,初始化各个值,其包含设定X=I,设定Xsum=O,并且设定Ysum=O。在步骤 2504,通过检查深度图像中具有X值=X的所有像素来确定是否那些像素中的至少一个对应 于用户,来搜索用户的最左极端点。这样的确定可基于对应于像素的分割值。简要参考图 23B,这可包含检查深度图像的沿着虚线2340的所有像素,以确定是否那些像素中的至少一 个对应于用户。返回图25,在步骤2506,确定在步骤2504检查的像素中的至少一个是否对应 于用户。如果步骤2506的答案是“否”,则X在步骤2508增加,并且因此X现在等于2。然后重复 步骤2504和2506以确定深度图像中具有X值=2的所有像素是否对应于用户。换言之,返回参 考图23B,将移动虚线2340向右一个像素,并且检查深度图像中沿着被移动的线2340的所有 像素以确定那些像素中的至少一个是否对应于用户。重复步骤2504-2508以直到标识对应 于用户的像素为止,其中所标识的像素将对应于用户的最左极端,其是图23A中示出的点 2302a。参考图23C,其中的虚线2340显示标识了用户的最左极端所在的点。

[0380] 图25中的步骤2510提供在步骤2406标识深度图像的对应于用户并且在被标识为 对应于用户的最左极端的像素的指定距离内(例如在X方向的5个像素内)的像素的实施例 的附加细节。附加地,图25中的步骤2512-2520将用于提供关于在步骤2408标识平均左极端 位置的实施例的附加细节。在步骤2510,指定团块边界,其包含设定第一团块边界(BBl)=X, 并且设定第二团块边界(BB2)=X+V,其中V是指定整数。对于以下示例,将假定,V=5,然而V可 以替换地比5更小或更大。深度图像中对应于用户并且在BBl和BB2之间的像素(包括BBl和 BB2)是深度图像中对应于用户并且在被标识为对应于用户的极端的像素的指定距离内的 深度图像的像素的示例。在图23D中,被标记为BBl和BB2的两条虚垂直线是第一和第二团块 边界的示例。在图23E中被虚线2306包围的像素是深度图像的被标识为对应于用户并且在 对应于用户的最左极端的像素2302的指定距离内(例如在X方向的5个像素内)的像素。被虚 线2306包围的这样的像素还可称为左极端团块,或更一般地,称为侧团块。

[0381] 在步骤2512,更新Xsum,从而Xsum=Xsum+X。在步骤2514,通过将深度图像中对应于 用户并且具有X值=X的像素的所有y值加到Ysum来更新Ysum。在步骤2516,确定X是否大于第 二团块边界BB2。只要步骤2516的答案是“否”,则重复步骤2512和2514,每次更新Xsum和 Ysum的值。在步骤2518,将平均X团块值(AXBV)确定为等于Xsum除以被相加的X值的总数量。 在步骤2520,将平均Y团块值(AYBV)确定为等于Ysum除以被相加的y值的总数量。在该实施 例中,AXBV和AYBV共同提供左极端的平均x、y位置,其还可被称为左极端团块的平均位置。 图23F中被标记为2308的“X”是侧团块的被标识的平均位置的示例。

[0382] 可执行类似于上文参考图25描述的那些步骤的步骤来确定右极端团块的平均位 置。然而,对于该确定,X将在步骤2502被设定为其最大值,在步骤2508, X将被减小1,在步骤 2510指定的第二团块边界(BB2)将等于X-V,并且在步骤2516,将确定是否X〈BB2。

[0383] 可执行类似于上文参考图25描述的那些步骤的步骤来确定顶或上极端团块的平 均位置。然而,对于该确定,Y将在步骤2502被设定为0 ;在步骤2508,Y将被增加;在步骤 2510,BB1将被指定为等于Y,并且BB2将被指定为等于Y+V;在步骤2512,将通过将深度图像 中对应于用户并且具有y值=Y的像素的所有X值加到Xsum来更新Xsum;并且在步骤2514,将 通过将Y加到Ysum来更新Ysum。

[0384] 可执行类似于上文参考图25描述的那些步骤的步骤来确定底极端团块的平均位 置。然而,对于该确定,Y将在步骤2502被设定为其最大值;在步骤2508,Y将被减小1;在步骤 2510,BB1将被指定为等于Y,并且BB2将被指定为等于Y-V;在步骤2512,将通过将深度图像 中对应于用户并且具有y值=Y的像素的所有X值加到Xsum来更新Xsum;并且在步骤2514,将 通过将Y加到Ysum来更新Ysum。术语左和右是相对术语,其取决于位置是从在深度图像中表 示的用户的视角来观看,还是从用于采集深度图像的采集设备的视角来观看。相应地,术语 侧可更一般地用于指代左或右极端或团块。

[0385] 参考图26,其中示出的暗剪影表示对应于处于站立位置中而他们的一只脚处于另 一只前面的位置的用户的(深度图像的)多个像素。图26中示出的四个“X”指示可使用本文 描述的实施例标识的团块的各个平均位置。更具体地,被标记为2508的“X”对应于第一侧团 块的平均位置,其还可被称为平均侧极端位置。被标记为2518的“X”对应于第二侧团块的平 均位置,其还可被称为平均侧极端位置。被标记为2528的“X”对应于顶团块的平均位置,其 还可被称为平均顶或上极端位置。被标记为2538的“X”对应于底团块的平均位置,其还可被 称为平均底或下极端位置。

[0386] 根据某些实施例,对应于用户的(深度图像的)像素可被分为象限,并且以上文讨 论的类似方式,可针对每个象限确定一个或多个极端团块的平均位置。可从图27认识到这 样的实施例,其中水平和垂直白线将对应于用户的像素分为象限,并且“X”对应于各个极端 团块的平均位置。

[0387] 如可在图28中看到的,本文描述的实施例还可用于确定前团块的平均位置,其在 图28中通过“X”指示。在该图28中,前团块对应于弯曲而以他们的头为他们的身体靠近采集 设备的部分的用户的一部分。当标识前团块的平均位置时,替代当例如执行参考图25描述 的步骤时的X或y值,使用深度图像的像素的z值。换言之,针对z极端搜索由z和X轴或z和y轴 定义的平面,与搜索由X和y轴定义的平面相对。

[0388] 用于获得深度图像的摄像机(例如226)可能相对于用户所站立或以其他方式支撑 自己的地板倾斜。根据具体实施例,在确定极端团块的平均位置之前计及(还称为校正)摄 像机倾斜。当确定前团块的平均位置时对摄像机倾斜的这样的校正是最有利的,因为这样 的位置依赖于深度图像的像素的z值。为了计及这样的摄像机倾斜,可从传感器(例如加速 度计),或以某一其它方式来获得重力矢量,并且将重力矢量作为因素考虑。例如,在对应于 用户的像素被用于标识前团块的平均位置之前,可对这样的像素执行对摄像机倾斜的这样 的计及处理(还被称为倾斜校正)。在某些实施例中,通过选择搜索轴(其还被称为归一化搜 索方向),并且将所有像素投影到搜索轴来执行倾斜校正。这可经由利用归一化搜索方向标 明每个像素的位置来完成。这得到沿着搜索方向的距离,通过找到具有最大z值的像素,该 距离可用于搜索对应于最前极端的像素。最大Z值和最大Z值-V可用于标识团块边界BBl和 BB2,并且因此标识区域,在该区域内将像素值相加以确定平均值。

[0389] 在多于一个用户被表示在深度图像内的情况下,可针对每个用户执行图24的方法 的单独实例。例如,假定深度图像中的第一组像素对应于第一用户,并且同一深度图像中的 第二组像素对应于第二用户。这将导致针对每个用户标识的极端团块的平均位置。

[0390] 可针对附加深度图重复上文参考图24描述的方法,由此导致针对多个深度图像中 的每一个确定的极端团块的平均位置。这使得能够跟踪平均极端位置的改变。在多于一个 的用户被表示在深度图像内的情况下,每次重复该方法,就可针对每个用户标识极端团块 的平均位置。

[0391] 返回参考图18,运行时引擎244可将其确定报告给应用246。上文还参考图24中的 步骤2412讨论了这样的报告。更具体地,如在图24中示出的,可将指示所标识的(多个)平均 极端位置的信息报告给应用。

[0392] 现在参考图29,在步骤2902,应用接收指示所标识的(多个)平均极端位置的信息。 如在步骤2904示出的,基于这样的信息更新应用。例如,如上文提到的,可使用这样的信息 跟踪执行某些运动和/或姿态的用户,从而可控制用户的化身,可给用户评分和/或可给用 户提供反馈。对于更具体的示例,在应用246是指令用户执行某些运动和/或姿态的游戏时, 应用246可确定用户是否以正确形态执行了运动或姿态,并且在他们没有以正确形态执行 运动或姿态时,可提供关于用户可如何改进他们的形态的反馈给用户。

[0393] 完全基于深度图像标识极端团块的平均位置的优点是甚至当ST技术失败时也能 确定指示用户的身体的极端的信息。另一优点是一旦在处理管线中深度图像可获得时就可 确定指示用户的身体的极端的信息,由此减小延迟,因为ST技术不需要被执行。然而,如果 期望的话,也可使用ST技术确定指示用户的身体的极端的信息。

[0394] 尽管以特定于结构特征和/或方法行为的语言描述了主题,应理解的是在所附权 利要求中定义的主题不一定限于上文描述的具体特征或行为。相反,上文描述的具体特征 或行为被公开作为实施权利要求的示例形式。所意图的是,技术的范围由本文所附权利要 求限定。

Claims (10)

1. 一种分析由用户执行的姿势的重复性动作的方法,包括: 访问跟踪执行所述重复性动作的用户的图像数据; 分析所述图像数据以确定与所述重复性动作相关联的参数的多个数据点,其中所述参 数取决于被分析的姿势而被选择且所述数据点针对不同时间点; 形成参数相比时间的参数信号,所述参数信号跟踪所述重复性动作; 将所述参数信号分为所述重复性动作的多个重复;以及 使用信号处理技术分析所述参数信号中的所述多个重复中的第一重复。
2. 如权利要求1所述的方法,其中所述使用信号处理技术分析所述参数信号中的所述 多个重复中的第一重复包括: 分析所述参数信号以将所述第一重复与所述参数信号中的其它重复进行比较。
3. 如权利要求2所述的方法,其中所述使用信号处理技术分析所述参数信号中的所述 多个重复中的第一重复包括: 将所述参数信号中对应于所述第一重复的第一部分与所述参数信号自相关。
4. 如权利要求2所述的方法,其中所述使用信号处理技术分析所述参数信号中的所述 多个重复中的第一重复包括: 将所述参数信号中对应于所述第一重复的第一部分从所述参数信号中对应于所述多 个重复中的第二重复的第二部分减去。
5. 如权利要求1所述的方法,其中所述使用信号处理技术分析所述参数信号中的所述 多个重复中的第一重复包括: 将曲线拟合到所述参数信号中对应于所述多个重复中的第一重复的一部分。
6. 如权利要求5所述的方法,还包括: 基于拟合曲线来确定所述第一重复的时序参数。
7. 如权利要求5所述的方法,其中所述使用信号处理技术分析所述参数信号中的所述 多个重复中的第一重复包括: 通过将拟合曲线与所述参数信号进行比较来评估所述用户对所述重复性动作的执行。
8. 如权利要求1所述的方法,其中所述将所述参数信号分为所述重复性动作的多个重 复包括: 取所述参数信号相对于时间的导数。
9. 一种用于分析由用户执行的姿势的重复性动作的系统,包括: 采集跟踪执行姿势的重复性动作的用户的3D图像数据的采集设备; 与所述采集设备通信的处理器,所述处理器被配置为: 分析所述3D图像数据以确定与所述重复性动作相关联的参数的多个数据点,其中所述 参数取决于被分析的姿势而被选择且所述数据点针对不同时间点; 形成参数相比时间的参数信号,所述参数信号跟踪所述重复性动作; 将所述参数信号分为多个界定段,所述多个界定段将所述参数信号分为所述重复性动 作的多个重复;以及 使用数字信号处理技术分析所述参数信号中的所述多个重复中的第一重复。
10. 如权利要求9所述的系统,其中所述处理器被配置为使用数字信号处理技术分析所 述参数信号中的所述多个重复中的第一重复包括所述处理器被配置为: 分析所述参数信号以将所述第一重复与所述参数信号中的其它重复进行比较。
CN201480015396.5A 2013-03-14 2014-03-13 用于重复检测和分析的信号分析 CN105228709B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/804,619 US9159140B2 (en) 2013-03-14 2013-03-14 Signal analysis for repetition detection and analysis
US13/804619 2013-03-14
PCT/US2014/026270 WO2014151700A1 (en) 2013-03-14 2014-03-13 Signal analysis for repetition detection and analysis

Publications (2)

Publication Number Publication Date
CN105228709A CN105228709A (zh) 2016-01-06
CN105228709B true CN105228709B (zh) 2018-05-29

Family

ID=50439521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480015396.5A CN105228709B (zh) 2013-03-14 2014-03-13 用于重复检测和分析的信号分析

Country Status (4)

Country Link
US (1) US9159140B2 (zh)
EP (1) EP2969079A1 (zh)
CN (1) CN105228709B (zh)
WO (1) WO2014151700A1 (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US9128521B2 (en) 2011-07-13 2015-09-08 Lumo Bodytech, Inc. System and method of biomechanical posture detection and feedback including sensor normalization
US8928484B2 (en) 2011-07-13 2015-01-06 Lumo Bodytech, Inc. System and method of biomechanical posture detection and feedback
US9071740B1 (en) 2011-10-28 2015-06-30 Google Inc. Modular camera system
US9197686B1 (en) 2012-01-06 2015-11-24 Google Inc. Backfill of video stream
US9537968B1 (en) 2012-01-06 2017-01-03 Google Inc. Communication of socket protocol based data over a storage protocol based interface
US9764469B1 (en) * 2013-12-13 2017-09-19 University Of South Florida Generating robotic trajectories with motion harmonics
US9526983B2 (en) * 2014-06-04 2016-12-27 Chih-Feng Lin Virtual reality avatar traveling control system and virtual reality avatar traveling control method
US20160110593A1 (en) * 2014-10-17 2016-04-21 Microsoft Corporation Image based ground weight distribution determination
DE102014017166A1 (de) * 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung
US9544485B2 (en) 2015-05-27 2017-01-10 Google Inc. Multi-mode LED illumination system
US9454820B1 (en) 2015-06-12 2016-09-27 Google Inc. Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination
US9613423B2 (en) * 2015-06-12 2017-04-04 Google Inc. Using a depth map of a monitored scene to identify floors, walls, and ceilings
US9886620B2 (en) 2015-06-12 2018-02-06 Google Llc Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera
US9554063B2 (en) 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
US9489745B1 (en) 2015-06-12 2016-11-08 Google Inc. Using depth maps of a scene to identify movement of a video camera
US9626849B2 (en) 2015-06-12 2017-04-18 Google Inc. Using scene information from a security camera to reduce false security alerts
US9235899B1 (en) 2015-06-12 2016-01-12 Google Inc. Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination
US9386230B1 (en) 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
US10314520B2 (en) 2015-10-02 2019-06-11 Seismic Holdings, Inc. System and method for characterizing biomechanical activity
US10043279B1 (en) * 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10463909B2 (en) 2015-12-27 2019-11-05 Seismic Holdings, Inc. System and method for using performance signatures
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
WO2018094011A1 (en) * 2016-11-16 2018-05-24 Lumo Bodytech, Inc. System and method for personalized exercise training and coaching
KR20180058004A (ko) * 2016-11-23 2018-05-31 한화지상방산 주식회사 추종 장치 및 추종 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102145228A (zh) * 2010-02-05 2011-08-10 Pc概念有限公司 使用视频录像构建交互式视频游戏的方法和装置
CN102331840A (zh) * 2010-08-31 2012-01-25 微软公司 基于回环运动的用户选择和导航
CN102413886A (zh) * 2009-05-01 2012-04-11 微软公司 示出身体位置

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359704A (en) 1991-10-30 1994-10-25 International Business Machines Corporation Method for selecting silhouette and visible edges in wire frame images in a computer graphics display system
NL1000679C2 (nl) * 1995-06-28 1996-12-31 Arie Van Wieringen Video Film Bewegingseditor/samensteleenheid.
US5982389A (en) * 1996-06-17 1999-11-09 Microsoft Corporation Generating optimized motion transitions for computer animated objects
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP3535476B2 (ja) * 2001-05-09 2004-06-07 光範 三木 球体の三次元姿勢測定方法および該方法を用いた球体の回転量と回転軸方向の測定方法
US6940538B2 (en) 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
US7030877B1 (en) 2002-03-04 2006-04-18 Advanced Micro Devices, Inc. Computer graphics processing system, computer memory, and method of use with computer graphics processing system utilizing hierarchical image depth buffer
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US7330566B2 (en) 2003-05-15 2008-02-12 Microsoft Corporation Video-based gait recognition
US20070261528A1 (en) 2003-11-06 2007-11-15 Sarmasik Makine Sanayi Ve Ticaret A.S. Unit Cutting Dough Surface in Equal Depth
JP2007280581A (ja) 2006-04-12 2007-10-25 Sony Corp コンテンツ検索選択方法、コンテンツ再生装置および検索サーバ
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US7610166B1 (en) * 2006-07-21 2009-10-27 James Solinsky Geolocation system and method for determining mammal locomotion movement
US8626472B2 (en) * 2006-07-21 2014-01-07 James C. Solinsky System and method for measuring balance and track motion in mammals
US20080134102A1 (en) * 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
GB2455316B (en) * 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US20090265671A1 (en) 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8113991B2 (en) 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
US20100030532A1 (en) * 2008-06-12 2010-02-04 Jasbir Arora System and methods for digital human model prediction and simulation
US8284258B1 (en) 2008-09-18 2012-10-09 Grandeye, Ltd. Unusual event detection in wide-angle video (based on moving object trajectories)
US8294105B2 (en) * 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
JP2011067239A (ja) * 2009-09-24 2011-04-07 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
US8284157B2 (en) 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US8457353B2 (en) * 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US20120058824A1 (en) * 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US8548740B2 (en) * 2010-10-07 2013-10-01 Honeywell International Inc. System and method for wavelet-based gait classification
US9457256B2 (en) * 2010-11-05 2016-10-04 Nike, Inc. Method and system for automated personal training that includes training programs
US8629886B2 (en) 2010-12-07 2014-01-14 Microsoft Corporation Layer combination in a surface composition system
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8761437B2 (en) 2011-02-18 2014-06-24 Microsoft Corporation Motion recognition
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US10331219B2 (en) * 2013-01-04 2019-06-25 Lenovo (Singaore) Pte. Ltd. Identification and use of gestures in proximity to a sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413886A (zh) * 2009-05-01 2012-04-11 微软公司 示出身体位置
CN102145228A (zh) * 2010-02-05 2011-08-10 Pc概念有限公司 使用视频录像构建交互式视频游戏的方法和装置
CN102331840A (zh) * 2010-08-31 2012-01-25 微软公司 基于回环运动的用户选择和导航

Also Published As

Publication number Publication date
US9159140B2 (en) 2015-10-13
WO2014151700A1 (en) 2014-09-25
CN105228709A (zh) 2016-01-06
EP2969079A1 (en) 2016-01-20
US20140270387A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
CN102289815B (zh) 检测多功能传感器设备的运动
CN102222431B (zh) 用于翻译手语的计算机实现的方法
US8542252B2 (en) Target digitization, extraction, and tracking
CN106575159B (zh) 手套接口对象
CN102301313B (zh) 视觉目标跟踪
CN102542160B (zh) 三维虚拟世界的骨架控制
KR101700468B1 (ko) 사용자로부터 학습된 입력을 통해 비주얼 표현을 활성화하는 방법
US6552729B1 (en) Automatic generation of animation of synthetic characters
US8624924B2 (en) Portable immersive environment using motion capture and head mounted display
CA2786683C (en) Recognizing user intent in motion capture system
RU2555228C2 (ru) Манипулирование виртуальным объектом
CN103597515B (zh) 用于识别张开的或闭合的手的系统
US7974443B2 (en) Visual target tracking using model fitting and exemplar
EP2523069A2 (en) Systems and methods for providing feedback by tracking user gaze and gestures
RU2530708C2 (ru) Связывание анимаций
EP2435146B1 (en) Systems and methods for applying animations or motions to a character
KR101686576B1 (ko) 가상 현실 시스템 및 이를 이용한 오디션 게임 시스템
US8284157B2 (en) Directed performance in motion capture system
US8615383B2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave
US8253746B2 (en) Determine intended motions
US20050215319A1 (en) Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
JP2012533120A (ja) プレーヤーの表現に基づく視覚表示の表現方法及びシステム
US9519828B2 (en) Isolate extraneous motions
KR101800795B1 (ko) 이동 디바이스 모션 센서 입력을 갖는 웹 기반 게임 플랫폼
RU2560340C2 (ru) Автоматическое генерирование визуального представления

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant