CN102693413B - 运动识别 - Google Patents

运动识别 Download PDF

Info

Publication number
CN102693413B
CN102693413B CN201210037535.7A CN201210037535A CN102693413B CN 102693413 B CN102693413 B CN 102693413B CN 201210037535 A CN201210037535 A CN 201210037535A CN 102693413 B CN102693413 B CN 102693413B
Authority
CN
China
Prior art keywords
motion
data
prototype
user
skeletal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210037535.7A
Other languages
English (en)
Other versions
CN102693413A (zh
Inventor
D·基洛夫斯基
M·拉菩提斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN102693413A publication Critical patent/CN102693413A/zh
Application granted granted Critical
Publication of CN102693413B publication Critical patent/CN102693413B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及运动识别。人体运动由从用户的图像数据导出的骨架模型来表示。骨架模型数据可用于执行对身体运动的运动识别和/或相似度分析。运动识别的示例方法包括从捕捉设备接收表示用户数据运动特征的骨架运动数据,该骨架运动数据与用户在场景内的方位相关。确定所接收的骨架运动数据相对于来自原型运动特征数据库的多个原型运动特征的互相关。对骨架运动数据与多个原型运动特征中的每个相对应的似然度进行排序。使用互相关来确定似然度。对多个原型运动特征的子集执行分类操作。选择多个原型运动特征的子集,因为其成员具有对应于骨架运动数据的相对最高的似然度。

Description

运动识别
技术领域
本发明涉及识别技术,尤其是运动识别。
背景技术
诸如计算机游戏和多媒体应用之类的计算应用使用控制来允许用户操纵游戏人物或应用的其他方面。通常,使用如控制器、遥控器、键盘、鼠标等来输入这些控制。近来,计算机游戏和多媒体应用已开始使用照相机和软件姿势识别引擎来提供人机接口(“HCI”)或自然用户界面(“NUI”)。使用HCI或NUI来检测用户运动,并且某些运动或姿态表示用于控制游戏人物(例如,用户的化身)或多媒体应用的其他方面的姿势。
在自然用户界面中,图像捕捉设备捕捉在其视野中的用户运动的图像。视野可被表示为有限的欧几里德三维(3-D)空间。描述用户运动的数据可用于各种各样的目的。例如,可以创建游戏以允许用户通过执行诸如锻炼或跳舞的活动来锻炼。可能期望游戏设备能够识别用户的运动模式。
发明内容
下面呈现了本发明的简化概述,以便提供此处所描述的某些方面的基本概念。此发明内容不是所要求保护的主题的详尽的概述。其目的既不是要指出所要求保护的主题的关键性元素,也不是要详细描述本发明的范围。唯一的目的是以简化形式呈现所要求保护的主题的某些概念,作为稍后呈现的比较详细的描述的前奏。
呈现了用于识别由从用户的图像数据导出的骨架模型所表示的人体运动的技术。运动识别的示例方法包括从捕捉设备接收表示用户数据运动特征的骨架运动数据,该骨架运动数据与用户在场景内的方位相关。确定所接收的骨架运动数据相对于来自原型运动特征数据库的多个原型运动特征的互相关。对骨架运动数据与多个原型运动特征中的每个相对应的似然度进行排序。似然度基于互相关。对多个原型运动特征的子集执行分类操作。选择多个原型运动特征的子集,因为该子集的成员具有对应于骨架运动数据的相对最高的似然度。可以选择分类操作的“赢家”作为所接收的骨架运动数据所表示的运动的匹配。
还呈现与用于执行对身体运动的运动识别和/或相似度分析的系统相关的技术。运动识别可以基于从用户的图像数据导出的骨架模型数据。在一个实施例中,系统包括处理单元和系统存储器。系统存储器包括一个或多个有形的非瞬态计算机可读存储介质。有形的非瞬态计算机可读存储介质包括被配置为指导处理单元从捕捉设备接收表示用户数据运动特征的骨架运动数据的代码。附加代码指导处理单元确定所接收的骨架运动数据相对于来自原型运动特征数据库的多个原型运动特征的互相关。仍然,附加代码指导处理单元对骨架运动数据与多个原型运动特征中每个相对应的似然度进行排序。在示例实施例中,似然度基于互相关。其他代码指导处理单元对多个原型运动特征的子集执行分类操作。选择多个原型运动特征的子集,因为该子集的成员具有对应于骨架运动数据的相对最高的似然度。
附加地呈现了与一个或多个有形的非瞬态计算机可读存储介质相关的技术。有形的非瞬态计算机可读存储介质存储可指导处理器从捕捉设备接收表示用户数据运动特征的骨架运动数据的代码。有形的非瞬态计算机可读存储介质上存储的附加代码指导处理器确定所接收的骨架运动数据相对于来自原型运动特征数据库的多个原型运动特征的互相关。有形的非瞬态计算机可读存储介质上的其他代码指导处理器对骨架运动数据与多个原型运动特征中每个相对应的似然度进行排序。似然度可以基于互相关。有形的非瞬态计算机可读存储介质上存储的附加代码指导处理器对多个原型运动特征的子集执行分类操作。选择多个原型运动特征的子集,因为该子集的成员具有对应于骨架运动数据的相对最高的似然度。
下面的描述和附图详细地阐述了所要求保护的主题的某些说明性方面。然而,这些方面只是指示可以使用本发明的原理的各种方式中的一些方式,并且所要求保护的主题旨在包括所有这些方面和其等效内容。通过与附图一起阅读下面的本发明的详细描述,所要求保护的主题的其他优点和新颖的特点将变得显而易见。
附图说明
图1A是示出了用户正与之交互的且运动识别的技术实施例可在其中操作的目标识别、分析和跟踪系统的示例实施例的图示;
图1B是示出了相机视野的实施例以及在该视野内定义的3-D正交坐标参考系的图示;
图1C是示出了向用户提供关于其表现的反馈的视觉区分指示符的示例的图示;
图2是示出了可由一个或多个实施例使用的用户骨架模型的示例的图示;
图3是示出了可以在目标识别、分析和跟踪系统的一个实施例中使用的捕捉设备的示例实施例的图示;
图4是示出了可以在目标识别、分析和跟踪系统的一个实施例中使用的姿势分类系统的示例实施例的框图;
图5是示出根据本技术的运动识别的示例方法的过程流程图;
图6是示出了模型被训练为根据本技术来表现舞步识别的训练阶段的框图;
图7,包括图7A和图7B,是示出了根据本技术的对于多个类移动的训练阶段的框图;
图8是示出了在执行运动识别之前可用于将用户数据与所存储的原型数据对齐的相移过程的框图;
图9是示出了根据本技术,测试模型识别舞步的能力的框图;
图10是示出了根据本技术,使用模型来对移动序列分类的框图;
图11是根据本技术的姿势识别引擎实施例的框图;
图12是示出了可用于在目标识别、分析和跟踪系统中识别人体运动的计算环境的一个示例实施例的图示;以及
图13是示出了可用于在目标识别、分析和跟踪系统中识别人体运动的计算环境的另一个示例实施例的图示。
具体实施方式
现在参考附图来描述所要求保护的主题,所有附图中使用相同的附图标记来指代相同的元素。在以下描述中,为解释起见,阐明了众多具体细节以提供对本发明的全面理解。然而,很明显,所要求保护的主题可以在没有这些具体细节的情况下实施。在其他情况下,以框图形式示出了各个已知的结构和设备以便于描述本发明。
如在此使用的,术语“组件”、“系统”、“多媒体控制台”、“游戏控制台”等指的是计算机相关的实体,它们可以是硬件、软件(例如,执行中的)和/或固件。例如,组件可以是,在处理器上运行的进程、对象、可执行码、程序、函数、库、子例程,和/或计算机或软件和硬件的组合。作为说明,在服务器上运行的应用和服务器两者都可以是组件。一个或多个组件可以驻留在进程中,组件可以位于一个计算机内和/或分布在两个或更多计算机之间。术语“处理器”一般被理解为指硬件组件,诸如计算机系统的处理单元。
此外,所要求保护的主题可使用产生控制计算机以实现所公开的主题的软件、固件、硬件、或其任意组合的标准编程和/或工程技术来实现为方法、装置、或制品。如此处所使用的术语“制品”旨在涵盖可以从任何非瞬态计算机可读设备或介质(诸如计算机可读存储介质)可以访问的计算机程序。
非瞬态计算机可读存储介质可以包括但不限于磁存储设备(例如,硬盘、软盘、以及磁带等等)、光盘(例如,紧致盘(CD)以及数字多功能盘(DVD)等等)、智能卡和闪存设备(例如,卡、棒和钥匙驱动器等等)。相反,计算机可读介质一般(即,不必需是存储介质)可附加地包括用于电气或电信号等的通信介质,诸如传输介质。
本领域技术人员应当认识到,在不背离所要求保护的主题的范围或精神的情况下可对该配置作出许多修改。此外,本文所使用的词语“示例性”意指用作示例、实例或说明。在此被描述为“示例性”的任何方面或设计并不一定要被解释为相比其它方面或设计更优选或有利。
本技术与用于骨架线框运动的实时姿势分类系统相关。一个示例实施例包括对骨架的角度表示,该骨架提供了噪声输入下的识别强健性、用于多变量时间-序列数据的级联的基于相关性的分类器、基于动态时间-扭曲的距离度量以便评估所获得的姿势(即,用户输入的运动特征)与相匹配的姿势的谕示(即,原型运动特征)之间的运动的差别。将分类器级联,因为它执行两个阶段的操作。在第一阶段中,基于互相关对原型运动特征数据打分,以便计算用户的数据表示运动与每个特定的原型运动特征相对应的最大似然度。在第二阶段中,具有与用户输入相匹配的最高似然度的原型运动特征接受分类操作以选择最接近的匹配。分类操作可包括多种技术,仅举几个例子,诸如使用逻辑回归的配对分类、线性判别分析或支持向量机(SVM)分析。根据本技术的分类器可在输入运动遵守已知的规范时间基础(诸如音乐节拍)的假设下操作。
实时的深度传感系统在视频游戏中是有用的,因为它们可用于允许人体控制游戏动作。一个这种系统以每秒30帧解析深度图流,从而实时地估计构成正在移动的用户的线框骨架的16个预定义点的位置。接下来的算法处理随后可尝试理解用户的运动(例如,识别用户姿势),以便交互地控制玩游戏。
本技术的一个示例实施例可通过允许舞者(用户)在任何时间跳出任何预先编排的姿势来增强他或她与化身动画的交互和控制,预先编排的姿势被建模为数据库中的原型运动特征。为了实现该目标,一个示例系统学习捕捉姿势类别的预定集合的细微差别的统计模型,并且随后使用该模型对用户的输入骨架运动进行分类。
最初参考图1A,用于实现本技术的硬件包括目标识别、分析和跟踪系统100,该系统可用于识别、分析和/或跟踪诸如用户106等的人类目标。目标识别、分析和跟踪系统100的各实施例包括用于执行游戏或其他应用的计算环境102,以及用于从游戏或其他应用提供音频和视觉表示的视听设备16。系统100还包括用于捕捉位置和由用户所表现的移动的捕捉设备110,计算环境接收、解释和使用位置和移动来控制游戏或其他应用程序。下面将更详细地描述这些组件中的每一个。
如图1A所示,在一个示例实施例中,在计算环境102中执行的应用可以是带有实时交互的游戏,诸如用户106可能正在玩的拳击游戏。例如,计算环境102可使用视听设备16来向用户106提供拳击对手108的视觉表示。计算环境102还可使用视听设备16来提供用户106可通过他的或她的移动来控制的玩家化身112的视觉表示。例如,用户106可在物理空间中挥拳猛击,这使得玩家化身112在游戏空间中挥拳猛击。因此,根据一示例实施例,计算环境102和目标识别、分析和跟踪系统100的捕捉设备110可用于在物理空间中识别和分析用户106的重拳,使得该重拳可被解释为对游戏空间中的玩家化身112的游戏控制。
用户106的其他移动也可被解释为其他控制或动作,诸如上下快速摆动、闪避、滑步、格挡、直拳或挥动各种不同力度的拳等控制。用于对用户运动建模的数据可包括与运动、姿势、手部位置等对应的数据。图1B是示出了相机视野114以及在该视野内定义的3-D正交坐标参考系的实施例。在该示例中,用户106正在与该用户跟着音乐起舞的舞蹈锻炼应用进行交互。用户106的移动被捕捉设备110捕捉,该捕捉设备结合计算环境102在显示器上对化身的移动进行动画化和控制,就像在拳击示例中。他的移动中的某些可以是姿势。
3-D正交坐标参考系的原点被描绘在捕捉设备110的视野中心,该原点位于用户106和他的扶手椅118之间。从每个所捕捉的图像帧中得出如下面所讨论的骨架模型,并且最初在该基于相机的坐标系中表示该骨架模型。该坐标系被称为基于相机的,因为相机的位置确定了视野,并且使用参考相机来定义的平面和法线来表征空间。基于相机的参考系是固定的。它不随用户移动。
图1C是示出了在视听设备104上向用户显示的关于用户的玩家化身112的视觉区分指示符120的示例的图示,该视觉区分指示符120向用户106提供关于其表现的反馈。玩家化身112的右腿经由视觉区分120被描绘在视听设备104上,以便提供以下视觉反馈:用户右腿的抬腿不满足标准,例如模型的抬腿姿势的高度或使用舞蹈锻炼游戏的其他人所表现的平均高度。
图2描绘了可以从捕捉设备110生成的用户的示例骨架映射。在该实施例中,标识出各个关节和骨骼:每只手202、每个前臂204、每个肘206、每个上臂208、每个肩210、每个髋212、每条大腿214、每个膝216、每条小腿218、每只脚220、头222、躯干224、脊椎的顶部226和底部228以及腰230。在跟踪更多点的情况下,可标识出附加的特征,比如手指或脚趾的骨骼和关节,或面部的各个特征,如鼻和眼。可以理解,图2中所示的一个或多个点可被省略和/或可以添加其他点。另外,骨架映射是用户的计算机模型的一个示例,并且构想了其他计算机模型。
在三维笛卡尔空间中通过参考捕捉设备110(相机空间)的参考帧中的x、y和z坐标来描述图2中的每个点。这样做的一个结果是将计算该参考帧中关节的任何绝对运动。例如,再参考图1B,如果用户106在参考帧中笔直向下移动他的手106a并且相对应他的身体保持静止,则该手在相机空间参考帧中仍是移动的。需要时间和处理器资源来确定它在相机空间中相对于前一帧的移动。
本技术的一个方面是使测量绝对运动的相机空间中的身体部位的参考帧符合或变换成相对于“上行”关节来测量运动的参考帧。该参考帧被称为身体空间或身体参考帧。在一个实施例中,上行关节是距离躯干更近的下一个邻近关节。因此,腕的上行关节是肘,并且肘的上行关节是肩;踝的上行关节是膝,并且膝的上行关节是髋。
从相机参考帧到身体参考帧的刚体变换(例如,转换和旋转)相比关节位置提供了相同的信息,但是能以更高效和低熵的方式来提供信息。继续用户在视野中移动他的手106a而保持他的手在其一侧静止的上述示例,虽然在绝对(相机)空间中移动,但用户的手相对于其上行关节没有移动。因此,在身体空间中跟踪用户的手简化了逐帧的关节跟踪。一般而言,跟踪关节相对于其他关节的移动导致更小的搜索空间和数据集、以及更快的处理和姿势识别,如下面所解释的。它是3D中对相似度变换(缩放、旋转、转换)组不变的表示。
同样如下面所解释的,本技术的另一方面将包括肩和髋的躯干作为刚体来对待。该良好的近似允许使用下面所描述的三个角度来描述躯干,相对于相机空间简化了骨架跟踪。
本技术可向目标识别、运动分析和跟踪系统100提供识别和解释相对复杂的姿势(诸如舞步等)的能力。另外,表示由专家所表现的特定舞步或移动的原型姿势数据可在训练过程中被采用,并且随后基于捕捉设备110所获得的用户姿势数据,对用户所表现的步伐进行分类或对用户的表现进行评估或评级。根据本技术,可以按照准确、可缩放和强健的方式对数据进行评估。
在一个示例实施例中,基于与图2所示的至少某些骨架点的运动相关的用户输入数据,对与舞步对应的特定运动进行评估。通过某个固定时间段(例如,音乐的八个节拍)来评估这些点的相对运动,并且将这些点的相对运动与表示特定原型移动或步伐的目录的所存储的原型数据进行比较。随后可作出关于用户正在表现哪个特定舞步或移动的判定。此处将不同的原型步伐或移动称为移动类。此外,用户的经测量的移动和能量与原型数据的关联可用于提供分数,该分数表示用户对正在表现的特定舞步的演示的质量。
基于与图2所示的骨架点相对应的输入数据,可以推断启用有效识别舞蹈姿势的一组运动特征。一个示例实施例可以基于若干特定的目标来执行姿势识别,这些目标不依赖于再次呈现所需要的完整度或精确度。目标包括熵缩减。为了便于熵缩减,线框关节可相对于其父节点来表达,如在传统的关节-角度表示中。试探性地,这应该减少所得的多变量时间-序列的熵。
示例实施例的另一个目标是克服数据差错的能力的强健性。另外,相比运动捕捉系统,本技术与为实时深度传感器提供数据强健性相关。第一个相关因素是传感系统固有的强加性噪声的存在,该强加性噪声通过骨架跟踪算法传播到所得的骨架数据。第二个相关因素与对骨架的被遮挡部分的推断相关,这因此可能是容易出错的。
示例实施例可提供输入传感器定向的不变性。另外,一个实施例可尽力将相比相机位置的骨架表示的不变性最大化。
可以通过定向用于计算相对位置的坐标轴来提供信号连续性和稳定性,以便将信号不连续的概率最小化,例如万向节锁。该目标在使用姿势检测的归一化相关时尤其相关。
在保留运动人物时,相对于分类的搜索空间,可采用维数缩减。与聚焦于动画或运动捕捉的表示相比,示例实施例与计算可能不是完全可逆的特征相关。
(如图2所示的7个骨架节点210a、210b、212a、212b、224、226、228所定义的)人类躯干的点很少展示强独立的运动。因此,躯干可被作为垂直拉长的刚体来对待。然而,由于深度传感系统中的强噪声模式,可以观察到各个躯干点(特别是肩和髋)可以展示期望由相关表示限制而不是传播的不真实的运动。因此,可将躯干作为带有对其位置的估计有贡献的全部点的刚体来对待。随后该估计可用于以相对的方式表示人类骨架的其余部分。
躯干点的主分量(即,3D正交基础)可作为将主分量分析(PCA)应用到7*3躯干矩阵的结果来计算。使第一主分量u与躯干的较长维数对齐。它可被规范地定向(上-下),因为在大多数舞蹈中,不预期玩家的躯体相对于传感器颠倒地站立。相反,对于与连接肩的线对齐的第二主分量r,定向未被轻松地推断,并且在此可被置为骨架跟踪算法所推断的“左-右”骨架定向。最后,将正交基础的最后的轴作为前两个主分量的叉积来计算,即t=u×r。所得的基础{u,r,t}在此可被称为躯干帧。
根据本发明,躯干帧为基于人体定向的坐标系提供强健且可靠的基础。虽然它依赖于相机位置,但是坐标系内表示的从躯干帧导出的点对于传感器可以是完全不变的。它将原始问题规范的7条3D轨迹缩减为新的信号集,该信号集的目标是仅描述所得的正交基础的3D定向。如此处所阐述的,采用一组简单特征来直观地且强健地描述躯干的运动。最后,从底层深度图轮廓中更准确地计算躯干帧是可能的。另外,相对接踵而至的识别性能中的微小改进,这种方法的计算开销没有带来令人满意的折衷。
如图2所示,邻近躯干的关节可被标识为第一级关节。由此,第一级关节包括肘、膝和头。可以相对于从躯干帧导出的坐标系中的躯干中的相邻关节来表示这些点。根据本技术,可相对LS(左肩)来表示LE(左肘)。首先,躯干帧{u,r,t}可被转换为LS。可以构建球坐标系,使得原点被置于LS的中心,顶点轴是u,并且方位角轴是r。随后,LE的位置可由其半径R(LE到原点的距离)、其倾角θ(u和之间的角度)、及其方位角(r和之间的角度,其中LEp是LE在其法线是u的平面上的投影)来描述。
由于肱骨的长度被归一化并且是常量,因此出于任何其他考虑可以忽略半径R。由此,使用该表示模型,可用两个角度来表示每个第一级关节。
第二级关节可被表示为线框肢体的端部。由此,第二级关节包括手和脚。与第二级关节相关联的最具描述性的向量是连接邻近第一级关节与其相邻的躯干关节的骨头。例如,突出于肱骨的向量b是使原点位于左肘LE中的球坐标系的顶点方向的良好的潜在候选。左手的关节可被表示为LH。随后,LH的位置可由其半径R(LH到原点的距离)、其倾角θ(b和)之间的角度)、及其方位角(rP之间的角度,rP是r在其法线是b的平面S上的投影、其中LHp是LH在S上投影)来描述。
由于前臂骨的长度被归一化并且是常量,因此可以忽略半径R。由此,模型可使用两个角度来表示每个第二级关节。结果与第一级关节的结果相同,除了一个值得注意的区别。虽然第二级关节的倾角是异常强健的描述符,但它们的方位角不是。由于球坐标系的原点不是定义了躯干帧的刚体的一部分,因此r的定向依赖于躯干的定向并且向引入了噪声。已经确认的是,这个影响并不严重,并且未给分类器的其余操作带来严重的问题。
可以按照使b·r=1的方式对向量b或r定向,由此使投影rP成为一个点。虽然这不太可能发生,b和r之间任何的小角度由于rP的不稳定性而有可能带来被提高的噪声级别。虽然可通过若干方式解决这个问题,但在r被选择作为方位角参考时可观察到不常发生b·r≈1的情形。向量u或t(而不是r)或其任何线性组合可与对最终表现的各种各样的影响一同使用。对r的选择已被观察到足够削弱这个问题。
在示例实施例中,角度线框模型由用于第一级和四个第二级关节的每个集合的八对角度以及相对于相机坐标帧的躯干帧的旋转矩阵来表示。在一个示例实施例中,忽略头的点,使得仅存在四个第一级点。
为了将旋转矩阵参数化,可以考虑“适当的”欧拉角,但是证据已经表明“适当的”欧拉角值不可预见地倾向于万向节锁。可使用四元组来避免这个问题,但是已经观察到四元组产生相当不直观的时间-序列数据。在一个示例实施例中,使用Tait-Bryan角度(即偏航、倾斜和滚动)。如果骨架跟踪算法不支持跟踪正在回旋的玩家,则可对Tait-Bryan角度定向以便很少引入万向节锁。根据本技术,这改进了分类器中归一化的相关模式的性能。
从骨架运动获得的一组特征时间-序列可作为f={fi(t),i=1...19}来获得。可以注意到,该公式将输入的复杂度从16个3D曲线的集合降低到19个1D向量的集合。从计算效率的观点来看,该简化是相对实质的,并且已被观察到导致不常见的、可忽略的信息损失。因此,使这些特征适用于分类,因为它们通过便于对齐的、一维比较的方式来表示运动。
图3是示出可在目标识别、分析和跟踪系统10中使用的捕捉设备110的一个示例实施例的图示。在一个或多个以上共同待决父申请中阐述了与和本技术一同使用的捕捉设备相关的其他细节。然而,在一示例实施方式中,捕捉设备110可以被配置成通过任何合适的技术,包括,例如,飞行时间法、结构光、立体图像等等,捕捉可包括深度值的具有深度图像的视频。根据一个实施例,捕捉设备110可将所计算的深度信息组织为“Z层”或可垂直于从深度相机沿其视线延伸的Z轴的层。
如图3所示,捕捉设备110可包括图像相机组件124。根据一个示例性实施例,图像相机组件124可以是可捕捉场景的深度图像的深度相机。深度图像可包括被捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每一个像素都可以(例如以厘米、毫米等等为单位)表示来自相机的被捕捉的场景中的物体的长度。
如图3所示,根据一示例实施例,图像相机组件124可包括可用于捕捉场景的深度图像的IR光组件126、三维(3-D)相机128和RGB相机130。例如,在飞行时间分析中,捕捉设备110的IR光组件126可将红外光发射到场景上,并且随后可使用传感器(未示出)、用例如3-D相机128和/或RGB相机130来检测从场景中的一个或多个目标和物体的表面反向散射的光。
根据另一实施例,捕捉设备110可包括可以从不同的角度观察场景的两个或更多个在物理上分开的相机,以获取可以被解析以生成深度信息的视觉立体数据。
捕捉设备110还可包括话筒132。话筒132可包括可接收声音并将其转换成电信号的变换器或传感器。根据一个实施例,话筒132可用于减少目标识别、分析和跟踪系统10中的捕捉设备110与计算环境12之间的反馈。附加地,话筒132可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用等之类的应用。
在一示例性实施例中,捕捉设备110还可包括可与图像相机组件124有效通信的处理器134。处理器134可包括标准化处理器、专用处理器、微处理器等,它们可执行用于接收深度图像、判断合适的目标是否可被包括在深度图像中、将合适的目标转换为目标的骨架表示或模型的指令,或任何其他适合的指令。
捕捉设备110还可包括存储器组件136,该存储器组件136包括一个或多个有形的机器可读存储介质。存储器组件可存储可由处理器134执行的指令,以及3-D相机或RGB相机所捕捉的图像或图像帧,或任何其他合适的信息、图像等。根据一个示例性实施例,存储器组件136可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图3所示,在一个实施例中,存储器组件136可以是与图像相机组件124和处理器134进行通信的分开的组件。根据另一个实施例,可将存储器组件136集成到处理器134和/或图像相机组件124中。
如图3所示,捕捉设备110可以经由通信链路138与计算环境12通信。通信链路138可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,计算环境12可以经由通信链路138向捕捉设备110提供时钟,该时钟可用于确定何时捕捉例如场景。
附加地,捕捉设备110可以通过通信链路138向计算环境12提供深度信息和由例如3-D相机128和/或RGB相机130捕捉到的图像、以及可以由捕捉设备110生成的骨架模型。存在用于判断由捕捉设备110检测到的目标或对象是否与人类目标相对应的各种已知技术。随后,骨架映射技术可用于确定该用户的骨架上的各个点,手、腕、肘、膝、鼻、踝、肩的关节,以及骨盆与脊椎相交之处。其他技术包括:将图像变换成人的人体模型表示以及将图像变换成人的网格模型表示。
骨架模型然后可被提供给计算环境12,使得计算环境可跟踪骨架模型并呈现与该骨架模型相关联的化身。计算环境还可基于例如从骨架模型中识别出的用户的姿势来确定在计算机环境上执行的应用中要执行哪些控制。例如,如图3所示,计算环境12可包括姿势分类系统400。下面参考图4来解释姿势分类系统400,但该姿势分类系统400一般可包括姿势过滤器集合,每个姿势过滤器包括关于骨架模型(在用户移动时)可执行的姿势的信息。可以将由相机128、130和捕捉设备110以骨架模型的形式捕捉的数据以及与它相关联的移动与姿势分类系统400中的姿势过滤器进行比较,以标识(如由骨架模型所表示的)用户何时表现了一个或多个姿势。那些姿势可与应用的各种控制相关联。因此,计算环境12可使用姿势分析系统400来解释骨架模型的移动并基于该移动来控制应用。在示例实施例中,可将与用户输入或活动相对应的姿势数据与所存储的专家姿势数据进行比较,以确定用户是否已经成功地表现了特定的活动,诸如特定的舞步。
本技术的示例实施例采用角度骨架表示来改进整体的系统性能。它被用于将骨架运动数据映射到更小的特征集(每个一个标量时间序列),可从噪声输入强健地估计该特征集,并且该特征集保留运动的显著方面。目标是缩减信号的总体熵,移除相机位置的依赖性,并且避免诸如万向节锁附近的不稳定的参数配置。方法是使全部躯干适于单个参考帧,并使用该帧将对第一和第二级肢体关节二者的定向估计参数化。
可在姿势分类系统400的示例实施例中采用级联的基于相关的最大似然度多变量分类器。在训练过程期间,分类器基于原型数据(即谕示)和由具有各种各样舞蹈技巧的一组人所表现的姿势实例数据库二者,为每个姿势类构建统计模型。在运行时,分类器将多变量输入缓冲区与每个类的原型姿势模型相关,并构建按每类的对数似然分数。随后,它使用分数来对全部类排序,并在顶级类中执行逻辑回归测试轮次以标识获胜的匹配。
一个示例实施例可在如下假设下操作:给分类器的骨架输入数据表示遵循节拍模式的舞蹈。因此,分类器可以忽略实际的时间并对输入时间-序列重新采样,使得在固定时段(例如,八个节拍)内创建特定数量的骨架运动帧(例如,120)。以此方式,可提供大约每秒30帧(fps)的帧速率。分类器对于不同音乐片段中的节拍速度可以是相对不变的。另外,可以降低对跳同样姿势的不同的玩家实例进行解除变形和同步的需要。可以进行的另一个假设是标记游戏期间所播放的音乐的每个节拍。还可在该设置中使用节拍检测算法。
在一个示例实施例中,进行如下假设:仅允许玩家跳出跨越八个节拍的K个移动的受限的、良好定义的、并且已知的集合以此方式,避免可能对整体误差率有害的在线学习场景。可将带有骨架运动数据的传入帧存储在先进先出(FIFO)缓冲区中。在分类之前,可以按八个节拍120帧的速率对内容重新采样。分类器在中发现最佳匹配的类,并且最后用概述玩家跳出相匹配的姿势有多棒的报告来响应。
空间-时间收缩-扩展距离度量可采用带有对时间-空间的指数缩放的动态时间扭曲来实现对输入姿势与相匹配的原型(谕示)的强健比较。虽然骨架运动数据中存在噪声以及人类展示了重复特定运动的广泛分布范围的事实,但示例实施例仍然执行得很好。
图4是示出了可以在目标识别、分析和跟踪系统的一个实施例中使用的姿势分类系统400的示例实施例的框图。示例姿势分类系统400包括玩家表现组件402和姿势分类组件404。玩家表现组件402获得关于用户或玩家的输入,姿势分类组件404分析数据并提供关于用户输入的分类信息。
示例玩家表现组件402包括可提供深度图像408的深度传感模块406。如此处所解释的,深度图像408可表示关于捕捉设备110所获得的查看帧内的玩家3D定位的信息。骨架跟踪模块410获得关于玩家身体各部分的相对运动的信息。可被称为线框数据412的骨架跟踪数据可以是此处参考图2所描述的形式。
姿势分类组件404包括姿势模型组件414。姿势模型组件414包括原型均值模块416,该原型均值模块416提供与原型特征库相关的数据。已使用与原型运动特征(谕示数据)相对应的数据和表示用户运动特征的各种各样的样本数据来训练原型均值模块416所提供的数据。另外,原型均值模块416所提供的数据包括可用于将实际玩家姿势(被表示为用户数据运动特征)分类成对应于特定的舞步或步伐的“平均”玩家数据。
在训练操作中,可以构建依赖于训练集的每个经编排的姿势的模型,FT={fj,j=1...L}。训练集包括跳出该姿势的人的L个记录的集合。具有各种技能的人可以参与到记录中,每个人通常生成按姿势的多个记录。
训练操作中开发的模型还可采用表示对谕示fo的原型运动特征,该原型运动特征可包括对由专业舞者所表现的姿势的记录。该记录被认为是姿势的定义。可为每个谕示表示考虑单个或少量的记录,主要是因为专业舞者通常如此准确地重复特定的姿势以至于记录中大多数的变化都来自于传感器噪声。
为了为每个单独特征生成舞者的预期的平均轨迹(被表示为原型均值),通过在fo和每个单独的fj之间计算循环归一化的互相关,使训练数据相对于原型运动特征(即,谕示)对齐。归一化的循环互相关操作是可用于在给定波形间的时间偏移情况下,标识两个波形的相似度的数学运算。互相关是可用于在较大的数据集(诸如波形)内标识较短的已知模式的技术。
在示例实施例中,两个向量u和v的循环归一化互相关c被计算为:
其中表示u的平均值。两个向量u和v的非归一化循环互相关可被计算为F-1[F(u)·F(R(v))],其中R()表示反映时间-序列向量,并且F是离散傅立叶变换。为每个特征计算非归一化循环互相关。为了考虑对整体的同步,为全部特征将互相关向量求和为单个向量两个向量的相移等于:
由此,对-τj样本的fj中的全部特征进行相移,以便使fj记录与fo对齐。
可将特定特征的原型均值定义为姿势原型可被表示为fm。fm与fo的关系是fm表示跳出该姿势的一般人的运动,而fo是专家的运动。通常,它们在形状上是相似的,但是原型均值通常在振幅上有减弱,因为熟练的舞者通常强调整体吸引力上的移动。
接下来,可以汇编捕捉类中和类外相关统计数据的模型。对于FT中的每个记录j和特征i,可以计算 对于每个特征i,可以汇编跨的相关值的直方图。由于L通常很小,因此可以应用简单核密度估算(KDE)过滤器,该过滤器使用高斯核对直方图进行平滑。特定特征i的直方图曲线可作为查找表pi(c)来存储,其中-1≤c≤1是相关自变量。对于一个特定的特征,查找表由此返回给定原型均值和输入(即,输入数据运动特征)的相关时,输入姿势属于该特定类的似然度。类似地,可针对类外相关收集统计数据,并且可以创建对应的查找表qi(c)。可以组合这两个表以生成特定相关值的打分函数。打分函数的一个示例被表示为hi(c)=2log(pi(c))-log(qi(c))。熟练的舞者(即,针对原型均值生成高相关的舞者)在FT中通常不常见的事实可以导致高c的低pi(c)。在该情形中,他们的分数实质上由于他们的舞蹈“太好”而受到惩罚。为了纠正这种异常,在应用KDE过滤器之前,可以调整高相关的直方图计数。
作为检测技术的归一化互相关对于匹配形状是有效的,但对于匹配他们的振幅不那么有效。一个示例实施例可以采用附加的距离度量(平均信号能量)作为对归一化相关的补充,而不使用欧几里德距离或未归一化的相关。由此,对于类中姿势实例的每个特征fi,可将与原型运动特征相关的能级计算为:αi=‖fo,i‖-‖fi‖,并且可以构建针对FT中全部实例能级上的直方图可以应用KDE过滤器。与相关直方图hi(c)类似,可以计算类外实例的同样的统计数据它们可被组合为最后,可针对(在所采用的基准中不常见的)熟练舞者可能具有更广范围的运动以及由此他们的记录的提高的能级的事实,对ei(α)进行补偿。后面的调整可通过提高低α情形的对的直方图计数来执行。由此,对于特定的姿势和特征i,本技术涵盖了包括原型均值fm,i、相关直方图hi(c)、和能级直方图ei(α)的三元组{fm,i,hi,ei}。
姿势模型组件414还包括相关统计数据模块418和能量统计数据模块420。如此处所阐述的,相关统计数据和能量统计数据可由姿势分类系统400用来对用户的舞步进行分类以及分配表示舞步质量的分数。
逻辑回归系数模块422可被包括在姿势模型组件414中。如此处所解释的,当分类舞步以在具有共同特征的原型移动之间选择时,可以使用逻辑回归。另外,逻辑回归数据可用于根据本技术细调分类过程以便在彼此相对靠近的原型运动特征之间进行选择。
姿势模型组件414可包括类排序组件426。类排序组件可用在为表示用户输入运动特征的给定数据选择相匹配的原型运动特征的过程中。具体而言,类排序组件426可用于基于给定的用户输入数据与每个原型运动特征相匹配的概率,对在原型运动特征数据库中存储的原型运动特征进行排序。另外,类排序组件426可为更加类似于给定用户输入数据的原型运动特征赋予较高的匹配概率。为了执行这一功能,类排序组件426可包括归一化相关模块428和分数计算模块430。
类排序组件426经由特征表示模块432从玩家表现组件402接收数据。特征表示模块432可提供与特定特征相关的数据,该特定特征表示用户数据的全部运动特征的子集。
如此处所解释的,姿势识别系统的一个示例实施例在被训练后可用于在例如视频游戏的上下文中执行对用户运动的实时分类。在该情形中,给分类器的输入是被转换为特征集的骨架线框流。令x={xi,i=1...19}表示19个特征的输入流,每个特征N个样本长。对于相关联的原型运动特征数据库中的每个姿势模型g={{fm,i,hi,ei},i=1...19},可以使用以下方法来计算其分数。
首先,执行归一化互相关操作。在该操作中,将每个输入特征xi与其对应的原型均值fm,i互相关。这是姿势识别分类器在计算上要求相对高的操作,因为在O(Nlog(N))个操作中计算长度N的基数为2的快速傅立叶变换(FFT)。接下来,确定最大似然度分数。在一个示例实施例中,可以查找对应的直方图分数并且跨全部特征对其求和。下面的公式可用于执行求和:
在确定最大似然度分数之后,可以执行相移操作。与原型均值相关的输入的相移τ可被标识为:
每个类的相移都不同。
数据库中每个姿势类k的分类分数是skk)。这些分数可用于对全部类进行排序,使最佳匹配具有最高分数。
配对匹配组件434可被包括在姿势分类组件404中。在图4所示的示例实施例中,配对匹配组件434从归一化相关模块428、分数计算模块430和逻辑回归系数模块422收集输入。基于该信息,配对匹配组件434提供从原型运动特征数据库中标识与从玩家表现组件402接收的用户输入数据最近似匹配的原型运动特征的输出。在图4中使用图例“匹配的类”来标识与用户输入数据最近似匹配的原型运动特征。
排序分类器可被改进,因为某些类在到一个点的运动中通常是类似的,在该点它们跨全部特征的原型均值除一个以外是相等的。一个人可将两个姿势类的全部实例看作大的2(19+19)-维空间位置中的点的集合。由于获取噪声和人类摆出特定姿势的各种方式,如果例如使用多维球来包括并检测特定类的全部点,则其原型均值(仅跨若干特征)近似相同的两个类可具有相交体。由于两个类的歧义消除更细微并且选择性地依赖于特征,因此存在使用先进的配对匹配工具来更好区分相邻类的需要。
公式3中似然度的加权是改进分类灵活性的方式的一个示例。“最佳的”权重可能需要重新计算,并且对于姿势匹配的每个配对比较都可能是不同的。由此,可能期望使用逻辑回归来计算这些权重,并且如此处所描述的,在分类时部署经训练的系数。
作为示例,可针对具有最高s(τ)分数(例如,索引的k1和k2)的两个顶层类执行逻辑回归。通过计算以下来执行二元分类:
其中已使用逻辑回归对全部权重进行训练。在Pr(C=k1|x)≥0.5的情形中,类k1将被表示为最佳匹配,而不是k2。虽然s(τ)-列表上后面的类胜出的可能性快速地降低,但可递归地重复将“赢家类”与下一个“亚军类”配对匹配的过程。由此,示例实施例可采用经由逻辑回归的配对类-比较的3层深度序列。
因此,可使用另一个数据字段,逻辑回归的系数矩阵来对姿势模型{fm,i,hi,ei}进行扩展,其中K是姿势类的数量。由于分类所需的资源大小与O(K2)成比例,因此对于大的K,分类数据库的大小将惊人地增长。对于大多数姿势类,注意到它们之间的差别足够大,使得公式3中的打分函数足以消除它们的歧义。在训练中,可以标识“类似的”姿势,并且可以仅训练这些稀疏对的加权矩阵。完整K×K矩阵中对的密度依赖于姿势运动类的相似度。
根据本技术,姿势识别系统的分类器可以表明多个有趣的属性。例如,输入缓冲区的长度不必等于类原型的长度。由此,可使用相同的算法对较短的输入序列进行匹配。仅有互相关的归一化参数需要被改写。
根据本技术,姿势识别算法可作为参考相匹配的类原型的副效应相移来返回。该信息可用于对用户的跳舞模式与游戏平台进行同步。
示例性姿势分类系统所报告的差错可能是良性的,尤其是对短输入缓冲区而言。这种分类器的一个特征是它可返回整个姿势数据库内最佳匹配的类、及其原型均值内的相移。因此,在化身呈现玩家运动的场景中,由于短跨度交叉类的相似度,差错可不被注意地忽略。
向距离度量模块424提供用户输入数据,该距离度量模块424还可从姿势模型组件414接收输入并从配对匹配模块434接收与相匹配的类相关的信息。距离度量模块424可提供距离报告作为表示用户所表现的舞步的测量质量(或“良好性”)的输出。
在已经标识了最佳匹配的运动类后,其余的问题与相对于所匹配的原型运动特征,(用户数据运动特征所表示的)用户的移动质量相关。相对于(包括通过与其相关获得的分数的)原型均值的比较可能是误导性的,因为它概述了玩家相对于平均玩家而不是专家舞者表现得多好。另一方面,除具有单个打分数字以外,可能期望提供概述游戏玩家每个关节跳得多好的报告。为了解决这个问题,可能期望获得出于艺术吸引力而被标记的运动记录,并且学习关于该数据集的复制人类专家的回归模型。即使如此,人类标记有多一致可能是可争辩的。为了避免对身体运动分级的语义本质,可以测量当前演员的相对运动与专家之间的差异。
根据本技术,可使用分类方法所提供的相移对玩家的特征序列进行全局地对齐。然后,考虑到可能的本地未对齐,动态的时间扭曲可用于测量两个信号的差异。为了克服由于噪声的离群值,在计算动态的时间扭曲时可能期望采用强健的成本,该成本被定义为:
其中σ是控制所允许的与专家表现偏离的量的参数,而δ是将离群值最小化的阈值。
可通过收紧和放松σ和δ将该度量参数化以调整到根据空间和时间的不同的运动准确性标准。它已被观察到在针对全部谕示进行计算时是相对有效的检测器。然而,其计算复杂度可能过大以致不允许对按类的应用进行探查。
姿势分类组件404可经由姿势分类接口436来提供信息。该信息可能与标识(图4中图例“什么姿势?”所表示的)用户所表现的舞步或步伐、以及评估(图4中图例“怎么样?”所表示的)舞步或步伐的质量相关。另外,姿势分类接口436可用于将信息从姿势分类组件404传输到视频游戏多媒体控制台(参考图12)、或托管姿势分类系统400的计算机系统(参考图13)。
图5是示出根据本技术的运动识别的示例方法500的过程流程图。方法500可由在一个或多个处理器上执行的软件来执行,诸如捕捉设备10的处理器134、目标识别、分析和跟踪系统10的计算环境12的CPU 1202(图12)或处理单元1376(图13)。
在框502,从捕捉设备110接收骨架模型数据帧,表示了参考基于固定相机的3-D坐标参考系的三维空间中的人体。可选地,可对骨架运动数据集中骨头的大小归一化。具体而言,不同的用户可以是不同的大小,具有不同大小的肢体和躯干。
根据本技术,图2中所示的每个骨架点可能具有其自己的输入缓冲区,该缓冲区在用户表现舞步时接收用户数据。在此,同时获得的图2所示的每个骨架点的单个用户数据帧或实例可被称为用户数据运动特征。基于所获得的用户数据运动特征,可以咨询存储与各种姿势(诸如,专家所表现的舞步)相对应的原型运动特征数据集的姿势数据库以便评估用户的表现。该数据库可被称为原型运动特征数据库。
如在框504所示,可以执行与原型运动特征数据库中的原型运动特征集相对的每个用户数据运动特征的互相关操作。在执行互相关操作中,可使用图2中所示的每个特征或骨架数据点来形成互相关向量。循环互相关操作可用于将用户在玩游戏时收集的用户数据的相位与在游戏内在数据库中存储的原型数据对齐。例如,可将用户数据帧与通过使用输入数据和专家原型数据来执行训练所获得的均值数据互相关。可使用FFT来执行循环互相关操作。
在一个实施例中,循环互相关可包括归一化的循环互相关操作。归一化的循环互相关考虑了诸如背景噪声的因素可能相对于用户数据和原型数据而有所不同。此外,互相关可以是归一化的循环互相关。互相关操作可以增强运动识别模型标识在原型运动特征数据库中与给定的用户数据运动特征相对应的特定原型运动特征的能力。
可以为原型运动特征数据库中的每个原型运动特征单独地评估图2中所示的每个骨架点的来自输入缓冲区的数据。另外,可以为每个原型运动特征单独地发现用于对齐输入缓冲区数据的最近的偏移。
在图5所示的示例实施例的框506,基于原型运动特征集的每个是输入骨架运动数据的一个匹配的互相关来确定概率或似然度。与输入骨架运动数据最类似的原型运动特征将被确定为具有较高的匹配似然度。由此所确定的概率或似然度用于基于哪个最有可能与输入骨架运动数据匹配来对原型运动特征集进行排序。在示例实施例中,框506表示从原型运动特征数据库中选择最佳匹配的级联过程的第一步。
概率可包括对数概率,该对数概率表示给定的用户数据运动特征实际上与原型运动特征数据库中的每个原型运动特征相对应的对数标尺的概率。使用对数概率而非单纯概率是出于两个原因:i)将概率的间隔[0,1]重新缩放到更适于分类的[负无穷,0],以及ii)解耦合每个单独特征的影响,假设特征形成单纯贝叶斯网络。
可对每个运动类的对数概率进行单独地求和以及报告。如此处所解释的,由原型运动特征数据库中的每个样本来表示运动类。基于所得的分数来对运动类排序。
在框508,使用对原型运动特征的排序来执行分类操作。该分类操作可被认为是选择最佳匹配的级联过程的第二个步骤。在一个示例实施例中,可对具有匹配输入骨架运动数据的最高似然度的两个(可能是三个)原型运动特征执行分类操作。多种技术可用于执行分类过程。例如,对数回归可被应用于在姿势类对之间区分。具体而言,对数回归可用于在候选原型运动特征之间进行区分,该候选原型运动特征在某些方面相似,但在更细微的方面不同。除了对数回归,基于输入数据的其它类型的二元分类可被应用于在候选原型运动特征之间进行区分。替换的二元分类策略的实例包括线性判别分析、和SVM分析等。
用户所表现的姿势可被认为与该分析中具有最高分数的原型运动特征相匹配。另外,所检测到的姿势(即,被标识为具有与任一个原型运动特征相匹配的最高似然度的姿势)可以对应于原型运动特征所表示的特定舞步或其一部分。
在选择了最接近地类似于给定的用户数据运动特征的原型运动特征之后,可以标识用户所表现的对应的舞蹈风格。例如,所检测到的用户数据可在原型运动特征数据库中被标记为来自特定的舞蹈风格,诸如华尔兹、伦巴或狐步。所检测到的舞蹈风格可作为游戏上下文的一部分呈现给用户。
如此处所解释的,用户数据可用于训练在姿势识别引擎中实现的运动识别模型以便例如识别姿势,诸如舞步。在训练阶段,来自相对大量用户的用户数据可结合原型用于提供带有基础的模型,以便准确地标识用户数据何时表示等同于原型的运动。训练模型的目的是使其在识别测试期间的用户输入数据与所存储的“理想”或原型数据之间的相关方面更有效。可以开发用于普通或平均玩家的均值数据简档,并且该数据简档可接下来用于以有效的方式对玩家的舞步进行分类。可以开发统计数据模型来确定给定的用户输入与原型数据库中的原型运动类相对应的似然度。在训练阶段之后,可以测试模型以确定它能成功识别诸如舞步或步伐的运动类型。图6表示模型的训练阶段。
图6是示出了根据本技术,训练运动识别模型以执行舞步识别的框图600。在框图600的左侧窗格600a中,出于训练目的评估单个类移动。在框图600的右侧窗格600b中评估多个类移动。
表示类移动的数据可用于训练模型以基于运动特征数据来识别多种舞步或移动,该运动特征数据可包括所获得的图2中所示的每个点的数据帧。在左侧窗格600a中,示出了示例类移动602。表示特定的舞步或步伐的类移动可包括从原型运动特征数据库中获得的特征数据604。原型606作为原型运动特征数据的示例来示出。可以从舞步或步伐的专家表现中捕捉原型运动特征的数据。
如图6所示,通过使用执行类移动的若干数据实例来训练系统,以获得特征分布608。可以确定每个特征分布608的似然度分数610。似然度分数表示特征与给定的原型的一个匹配的似然度。
在右侧窗格600b中,多个类移动612用于训练模型来识别姿势。评估多个类移动612。每个类移动612可以与原型运动特征可用的不同的舞步或步伐相对应。为每个类移动612创建分开的似然度分数614。根据本技术,可如左侧窗格600a中所示的确定似然度分数614。可对似然度分数614执行二元逻辑回归616以生成逻辑回归系数618。如此处所解释的,可以执行逻辑回归以在对两个原型运动特征的相对接近的匹配间进行选择。
在训练了模型之后,可在例如查找表中存储每个原型运动特征的概率形式的相关数据。可在运动识别测试和实际检测期间使用所存储的相关数据。查找表数据可包括给定的原型运动特征的每个骨架数据点的相关数据。另外,还可将相关的能量数据存储在查找表中以供稍后使用。
图7是示出了根据本技术的对于多个类移动的训练阶段的框图700。上侧窗格702示出对类移动i的模型的训练,而下侧窗格704示出对类移动j的模型的训练。
在上侧窗格702训练用于类移动i的模型中,接收多个训练样本706。在训练样本706和在例如原型运动特征数据库中存储的多个原型运动特征708之间执行(由图7中缩写词“NCXC”所表示的)归一化的循环互相关操作。在上侧窗格702所表示的示例中,使用两个原型运动特征708来执行归一化的循环互相关操作。如将描述的,本技术可被用于标识哪个原型运动特征708最接近地类似于训练样本706。在实施例中,相对能量还可用于辅助对舞步进行标识和打分。对于用户数据和原型数据,可以确定跨给定时间段的平均能量。
训练样本706a、706b、706c与原型运动特征i 708a之间归一化的循环互相关操作的结果是多个相关和相对能量数据集710a、710b、710c,每个对应于训练样本706a、706b、706c之一。相关和相对能量数据集710a、710b、710c的特征分布由图712a来表示。
训练样本706a、706b、706c与原型运动特征j 708b之间归一化的循环互相关操作的结果是多个相关和相对能量数据集710d、710e、710f,每个对应于训练样本706a、706b、706c之一。相关和相对能量数据集710d、710e、710f的特征分布由图712b来表示。
可以评估相关和相对能量数据集710a、710b、710c来确定哪个对应的训练样本706a、706b、706c最接近地类似于原型运动特征i 708a。可以确定相关的最大概率以及用户数据和原型数据之间的相对能量。还可以确定最大概率的时间偏移,该时间偏移可用于对用户表现的进一步的运动分析。相关和相对能量数据集710a、710b、710c的最大概率可被表示为最大指示714a、714b、714c。最大指示714a、714b、714c可用于确定对应的似然度分数716a、716b、716c。似然度分数表示用户数据打算执行在原型运动特征数据库中存储的原型运动特征的概率。
可以评估相关和相对能量数据集710d、710e、710f来确定哪个对应的训练样本706a、706b、706c最接近地相关于原型运动特征j 708b。可以确定相关的最大概率以及用户数据和原型数据之间的相对能量。相关和相对能量数据集710d、710e、710f的最大概率被表示为最大指示714d、714e、714f。最大指示714d、714e、714f可用于确定对应的似然度分数716d、716e、716f。
在下侧窗格704中训练用于类移动j的模型中,接收多个训练样本718。在训练样本718和在例如原型运动特征数据库中存储的多个原型运动特征720之间执行归一化的循环互相关操作。在下侧窗格704所表示的示例中,使用两个原型运动特征720来执行归一化的循环互相关操作。如将描述的,本技术可被用于标识哪个原型运动特征720最接近地类似于训练样本718。
训练样本718a、718b、718c与原型运动特征j 720a之间归一化的循环互相关操作的结果是多个相关和相对能量数据集722a、722b、722c,每个对应于训练样本718a、718b、718c之一。相关和相对能量数据集722a、722b、722c的特征分布由图724a来表示。
训练样本718a、718b、718c与原型运动特征j 720b之间归一化的循环互相关操作的结果是多个相关和相对能量数据集722d、722e、722f,每个对应于训练样本718a、718b、718c之一。相关和相对能量数据集722d、722e、722f的特征分布由图724b来表示。
可以评估相关和相对能量数据集722a、722b、722c来确定哪个对应的训练样本718a、718b、718c最接近地相关于原型运动特征j 720a。在图7中,相关和相对能量数据集722a、722b、722c的最大概率被表示为最大指示726a、726b、726c。最大指示726a、726b、726c可用于确定对应的似然度分数728a、728b、728c。
可以评估相关和相对能量数据集722d、722e、722f来确定哪个对应的训练样本718a、718b、718c最接近地相关于原型运动特征i 720b。相关和相对能量数据集722d、722e、722f的最大概率被表示为最大指示726d、726e、726f。最大指示726d、726e、726f可用于确定对应的似然度分数728d、728e、728f。
使用似然度分数716a-f、728a-f,可以执行二元逻辑回归操作730。二元逻辑回归操作730可产生可用于在具有相似似然度分数的原型运动特征之间选择匹配的逻辑回归系数732。
图8是示出了可用于在执行运动识别之前将用户数据与所存储的原型数据对齐的相移过程的框图800。类移动的训练样本802作为训练阶段的一部分来提供。执行可包括(图8中缩写NCXC所表示的)归一化的循环互相关的互相关操作804。归一化的循环互相关操作804采用可包括专家数据的原型样本806。主要考虑训练样本802与原型样本806之间的相移来执行对齐操作808。对齐操作808的结果是训练样本802所表示的类移动的经训练的原型810
图9是示出了根据本技术,测试模型识别舞步的能力的框图900。在训练姿势识别模型之后,该模型随后可用于对实际的输入数据进行分类。当测试该模型时,可以使用已知的输入数据以便验证该模型生成正确的结果。
最初,向模型提供样本移动902。样本移动902可包括从捕捉设备110获得的用户数据运动特征。样本移动902在图9中被表示为包括对应特征906的多个原型904。提供每个特征906的特征分布908。提供每个特征分布908的似然度分数910。参考原型运动特征来计算最大概率,如在框912所示的。如此处所解释的,可以基于似然度分数910来确定最大概率。
在图9所示的示例实施例中,可在选择“获胜的”(即,最接近地相关的)的舞步或移动之前对具有最高概率的原型的子集进一步评估。原型的子集914可接受逻辑回归916以便选择最接近地表示原型运动特征数据库中的样本移动902的样本类918。
图10是示出了根据本技术,使用模型来对移动序列分类的框图1000。根据本技术,运动识别模型可用于识别接下来与所计算的类原型的一部分的匹配。
接收多个训练样本部分1002。如图10所示,训练样本部分1002表示运动类i的部分。还接收多个训练样本部分1004。训练样本部分1004表示负的类:执行除运动类i以外的运动类的数据。使用训练样本部分1002、1004,相对于原型运动类i 1006执行互相关操作。互相关操作生成与训练样本部分1002a、1002b、1002c相对应的多个相关和相对能量数据集1008a、1008b、1008c。另外,还生成与训练样本部分1004a、1004b、1004c相对应的多个相关和相对能量数据集1010a、1010b、1010c。
相关和相对能量数据集1008a-c和1010a-c可用于生成特征分布。在图10中,特征分布由图1012来表示。可以评估相关和相对能量数据集1008a、1008b、1008c来确定哪个对应的训练样本部分1002a、1002b、1002c与原型运动特征i最接近地相关。相关和相对能量数据集1008a、1008b、1008c的最大概率可被表示为最大指示1014a、1014b、1014c。最大指示1014a、1014b、1014c可用于确定对应的似然度分数1016a、1016b、1016c。
本系统的一个目标是标识移动,诸如当用户伴随在计算环境12中运行的应用所播放的音乐跳舞时的舞步。本系统利用了移动(诸如,舞步)通常是重复的事实。在音乐的每个节拍存在基本移动,这些基本移动的组合形成自身重复的多节拍运动。由此,用户可在音乐的每个节拍、或每组节拍处重复给定的移动。音乐加快时,用户往往更快地移动。音乐减慢时,用户往往更慢地移动。结果是用户倾向于进行的移动在每个节拍或预定义数量的节拍时重复。因此,本系统分析不基于时间、而基于音乐的节拍(或其测量的其他周期性单位)的周期的重复移动。
具体而言,在系统中执行的软件可将骨架运动数据帧的数量归一化为测量的周期性单位,以便提供归一化的骨架运动数据集。测量的周期性单位的一个示例是音乐中预定义数量的节拍。通过将帧的数量归一化到音乐的节拍、或测量的某些其他周期性单位,本系统能够将重复的用户移动归一化为独立于时间的固定周期。对于具有较快节拍的音乐,用户完成一个移动循环的周期中的帧的数量将更快。对于具有较慢节拍的音乐,用户完成一个移动循环的周期中的帧的数量将更慢。然而,周期本身独立于时间。
音乐的节拍以及它在片段中如何变化通常是预先确定的,但也可使用音乐软件来检测。通过使用节拍而非时间作为参考,姿势可以独立于它们被作出的速度被识别。将帧的数量归一化到节拍或其他周期通过使其更容易标识重复固定周期内重复的移动来简化实时姿势识别中的计算。该信息可例如用于标识姿势或特定的移动,诸如舞步。
可以执行进一步的分析来评估用户在表现对应姿势时所展示的技巧程度。例如,用户数据运动特征与来自原型运动特征数据库的原型运动特征数据之间的相关程度或相似度可被作为对游戏上下文中的用户表现打分的基础。换言之,用户可由于更接近地近似于原型运动特征数据库中所表示的运动或姿势而被奖励更高的游戏分数。
图11是根据本技术的姿势识别引擎实施例的框图1100。姿势识别引擎1102处理用户输入运动特征1104形式的用户输入数据。另外,姿势识别引擎可包括姿势分类系统,诸如图4所示的姿势分类系统400。
在一个实施例中,姿势识别引擎1102可以访问的原型运动特征数据库或库1106存储原型运动特征的目录1108以便表示运动类,诸如用户移动可与之相关的舞蹈类型、步伐等。所存储的原型运动特征可以定义图2所示的多个骨架数据点的方位、位置等。诸如通过捕捉专业舞者所表现的运动特征,可使用专家数据来创建原型运动特征1108。姿势识别引擎1102的示例实施例中可例如使用隐马尔科夫模型(Hidden Markov Model)和逻辑回归。
图12示出了可用于在目标识别、分析和跟踪系统中解释一个或多个姿势的计算环境的示例实施例。诸如上面参考附图1A-C描述的计算环境12的计算环境可以是多媒体控制台1200,诸如游戏控制台。如图12所示,多媒体控制台1200具有包括计算机可读存储介质的中央处理单元(CPU)1202,该计算机可读存储介质可包括一级高速缓存1204、二级高速缓存1206和闪存ROM1208。一级高速缓存1204和二级高速缓存1206临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 1202可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存1204和二级高速缓存1206。闪存ROM 1208可存储在多媒体控制台1200通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)1210和视频编码器/视频编解码器(编码器/解码器)1216形成用于高速和高分辨率图形处理的视频处理流水线。将数据经由总线从GPU 1210传送到视频编码器/视频编解码器1216。视频处理流水线向A/V(音频/视频)端口1238输出数据,以便传输到电视机或其他显示器。存储器控制器1212连接到GPU 1210,以便于处理器对各种类型的存储器1214(诸如,但不限于RAM)的访问。
多媒体控制台1200包括可在模块上实现的I/O控制器1218、系统管理控制器1220、音频处理单元1222、网络接口控制器1224、第一USB主控制器1226、第二USB主控制器1228以及前面板I/O子部件1230。USB控制器1226和1228用作外围控制器1240(1)-1240(2)、无线适配器1244、以及外置存储器设备1242(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口1224和/或无线适配器1244提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中的任何一种。
提供系统存储器1236来存储在引导过程期间加载的应用数据。提供媒体驱动器144,并且其可包括DVD/CD驱动器、硬盘驱动器,或其他可移动媒体驱动器等。媒体驱动器144可内置或外置于多媒体控制台1200。应用数据可经由媒体驱动器144访问,以供多媒体控制台1200执行、回放等。媒体驱动器144经由诸如串行ATA总线或其他高速连接(例如IEEE1394)等总线连接到I/O控制器1218。
系统管理控制器1220提供与确保多媒体控制台1200的可用性相关的各种服务功能。音频处理单元1222和音频编解码器132形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元1222与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口1238,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件1230支持暴露在多媒体控制台1200的外表面上的电源按钮1246和弹出按钮1248、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块1232向多媒体控制台1200的组件供电。风扇1234冷却多媒体控制台1200内的电路。
CPU 1202、GPU 1210、存储器控制器1212、以及多媒体控制台1200内的各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台1200通电时,应用数据可从系统存储器1236加载到存储器1214和/或高速缓存1204、1206中,并且可在CPU 1202上执行。应用可在导航到多媒体控制台1200上可用的不同媒体类型时呈现提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中所包含的应用和/或其他媒体可从媒体驱动器144启动或播放,以将附加功能提供给多媒体控制台1200。
多媒体控制台1200可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台1200允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口1224或无线适配器1244可用的宽带连接集成的情况下,多媒体控制台1200还可作为更大网络社区中的参与者来操作。
当多媒体控制台1200通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源从应用的视角而言是不存在的。
具体地,存储器保留期望地足够大,以包含启动内核、并发系统应用和驱动程序。CPU保留期望地是恒定的,使得若所保留的CPU使用量不被系统应用所使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来调度代码以将弹出窗口呈现为覆盖图,从而显示由系统应用程序生成的轻量消息(例如,弹出窗口)。覆盖所需的存储器量取决于覆盖区域大小,并且覆盖可随屏幕分辨率而缩放。在完整的用户界面被并发系统应用使用的情况下,期望使用独立于应用分辨率的分辨率。定标器(scaler)可用于设置该分辨率,从而消除对改变频率并引起TV重新同步的需求。
在多媒体控制台1200引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出作为系统应用线程或者游戏应用线程的线程。系统应用可被调度为在预定时间并以预定时间间隔在CPU 1202上运行,来为应用提供一致的系统资源视图。调度是为了使在控制台上运行的游戏应用的高速缓存分裂最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频级别(例如,静音、衰减)。
输入设备(例如,控制器1240(1)和1240(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器可控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。相机128、130和捕捉设备122可为控制台1200定义附加输入设备。
图13示出了可用于在目标识别、分析和跟踪系统中解释一个或多个姿势的计算环境1300的另一示例实施例,该计算环境可以是图1A-2所示的计算环境12。计算环境1300只是合适的计算环境的一个示例,并且不旨在对所公开的主题的使用范围或功能提出任何限制。也不应该把计算环境1300解释为对示例性计算系统1300中示出的任一组件或其组合有任何依赖性或要求。在一些实施例中,各个所示的计算元素可包括被配置成实例化本公开的特定方面的电路。例如,本公开中使用的术语“电路”可包括被配置成通过固件或开关来执行功能的专用硬件组件。在其他示例实施例中,术语“电路”可包括通过体现可操作以执行功能的逻辑的软件指令来配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择之一并留给实现者。
在图13中,计算环境1300包括通常包括各种计算机可读介质的计算机1340。计算机可读介质可以是能被计算机1340访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器1302包括诸如ROM 1304和RAM 1380之类的易失性和/或非易失性存储器形式的计算机存储介质。包含诸如在启动期间帮助在计算机1340内的元件之间传输信息的基本例程的基本输入/输出系统1306(BIOS)通常储存储在ROM 1304中。RAM1380通常包含处理单元1376可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图13示出了操作系统1308、应用程序1310、其它程序模块1312和程序数据1314。
计算机1340也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图13示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器1334,从可移动、非易失性磁盘1336中读取或向其写入的磁盘驱动器1366,以及从诸如CDROM或其它光学介质等可移动、非易失性光盘1364中读取或向其写入的光盘驱动器1338。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器1334通常通过诸如接口1326之类的不可移动存储器接口连接到系统总线1378,并且磁盘驱动器1336和光盘驱动器1338通常通过诸如接口1328之类的可移动存储器接口连接到系统总线1378。
上文讨论并在图13中示出的驱动器及其相关联的计算机存储介质为计算机1340提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。例如,在图13中,硬盘驱动器1334被示为存储操作系统1374、应用程序1372、其它程序模块1370和程序数据1368。注意,这些组件可与操作系统1308、应用程序1310、其他程序模块1312和程序数据1314相同,也可与它们不同。在此操作系统1374、应用程序1372、其他程序模块1370以及程序数据1368被给予了不同的编号,以说明至少它们是不同的副本。用户可通过诸如键盘1360和定点设备1362(通常称为鼠标、跟踪球或触摸垫)之类的输入设备将命令和信息输入计算机1340。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口1330连接到处理单元1376,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机128、130和捕捉设备110可为控制台1200定义附加输入设备。监视器1342或其他类型的显示设备也通过诸如视频接口1322之类的接口连接至系统总线1378。除了监视器以外,计算机还可包括诸如扬声器1346和打印机1344之类的其他外围输出设备,它们可通过输出外围接口1324来连接。
计算机1340可使用到一个或多个远程计算机(诸如,远程计算机1350)的逻辑连接而在联网环境中操作。远程计算机1350可以是个人计算机、服务器、路由器、网络PC、对等设备或其它常见网络节点,且通常包括上文相对于计算机1340描述的许多或所有元件,虽然在图13中只示出存储器存储设备1352。图13中所示的逻辑连接包括局域网(LAN)1348和广域网(WAN)1356,但也可以包括其它网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机1340通过网络接口或适配器1332连接到LAN1348。当在WAN联网环境中使用时,计算机1340通常包括调制解调器1358或用于通过诸如因特网等WAN 1356建立通信的其他手段。调制解调器1358可以是内置的或外置的,可经由用户输入接口1330或其他适当的机制连接到系统总线1378。在联网环境中,相对于计算机1340所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图13示出了远程应用程序1354驻留在存储器设备1352上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
上文所描述的包括本发明的示例。当然,不可能出于描述所要求保护的主题的目的而描述组件或方法的每个可能的组合,但是,本领域技术人员可以认识到,本发明的许多进一步的组合和置换都是可以的。因此,所要求保护的主题旨在包含在所附权利要求书的精神和范围内的所有这样的更改、修改和变化。
特别地,对于由上述组件、设备、电路、系统等执行的各种功能,除非另外指明,否则用于描述这些组件的术语(包括对“装置”的引用)旨在对应于执行所描述的执行此处在所要求保护的主题的示例性方面中所示的功能的组件的指定功能(例如,功能上等效)的任何组件,即使这些组件在结构上不等效于所公开的结构。关于这一点,还应认识到,本发明还包括了具有用于执行所要求保护的主题的各种方法的动作和/或事件的计算机可执行指令的系统以及计算机可读存储介质。
有多种实现本发明的方式,例如,使应用和服务能使用在此描述的技术的适当的API、工具包、驱动程序代码、操作系统、控件、独立或可下载的软件对象等等。所要求保护的主题还构想从API(或其他软件对象)的观点来看,以及从根据在此描述的技术操作的软件或硬件对象的用途。如此,此处所描述的本发明的各种实现可以具有完全以硬件,部分以硬件而部分以软件,以及以软件来实现的方面。
如前所述的系统已经参考若干组件之间的交互来描述。可以理解,这些系统和组件可包括组件或指定的子组件、某些指定的组件或子组件和/或附加的组件,并且根据上述内容的各种置换和组合。子组件还可作为通信地耦合到其他组件的组件来实现,而不是被包括在父组件内(层次性)。另外,能够注意,一个或多个组件也可以合并到提供聚合功能的单一组件中,或者也可以分成多个单独的子组件,并且,可以提供诸如管理层之类的任何一个或更多中间层,以可通信地耦合到这样的子组件,以便提供集成的功能。此处所述的任何组件也可与一个或多个此处未专门描述的但本领域技术人员一般已知的其他组件进行交互。
另外,尽管可相对于若干实现中的仅一个实现来公开本发明的一个特定特征,但是这一特征可以如对任何给定或特定应用所需且有利地与其它实现的一个或多个其它特征相组合。而且,就术语“包括”、“含有”、“具有”、“包含”、其变型以及其他类似单词在详细描述或权利要求书中的使用而言,这样的术语旨在以类似于术语“包括”作为开放的过渡词的方式为包含性的而不排除任何附加或其他元素。

Claims (10)

1.一种基于从用户(106)的图像数据导出的骨架模型数据,对身体运动的运动识别(500)和/或相似度分析的方法,包括:
从捕捉设备(110)接收(502)表示用户(106)数据运动特征的骨架运动数据;
确定所接收的骨架运动数据相对于与来自原型运动特征数据库的多个原型运动特征(708、720、1108)相关联的原型均值的互相关(504、804);
通过以下来执行级联的基于互相关的分类:
对所述骨架运动数据与所述多个原型运动特征(708、720、1108)的每个相对应的似然度进行排序(506),所述似然度基于所述互相关;以及
对所述多个原型运动特征(708、720、1108)的子集执行分类操作(508),所述多个原型运动特征(708、720、1108)的所述子集具有对应于所述骨架运动数据的相对最高的似然度。
2.如权利要求1所述的方法,其特征在于,所述骨架运动数据包括由角度对所表示的第一级关节集合和第二级关节集合的角度线框数据(412)。
3.如权利要求2所述的方法,其特征在于,所述角度对由Tait-Bryan角度来表示。
4.如权利要求1所述的方法,其特征在于,所述骨架运动数据包括相对于所述捕捉设备(110)的坐标帧的躯干帧的旋转矩阵。
5.如权利要求1所述的方法,其特征在于,包括:执行训练操作以基于所述多个原型运动特征(708、720、1108)中每个的多个训练样本(705、706a、706b、706c、718、802),来修改表示所述多个原型运动特征(708、720、1108)的数据。
6.如权利要求1所述的方法,其特征在于,包括:执行测试操作以评估模型获得所述骨架运动数据与所述多个原型运动特征(708、720、1108)相对应的似然度的能力。
7.如权利要求1所述的方法,其特征在于,所述骨架运动数据与用户(106)在场景内的方位相关。
8.一种基于从用户(106)的图像数据导出的骨架模型数据,执行身体运动的运动识别和/或相似度分析的系统(12、100),包括:
用于从捕捉设备(110)接收(502)表示用户(106)数据运动特征的骨架运动数据的装置;
用于确定所接收的骨架运动数据相对于与来自原型运动特征数据库的多个原型运动特征(708、720、1108)相关联的原型均值的互相关(504、804)的装置;
用于通过以下装置来执行级联的基于互相关的分类的装置,包括:
用于对所述骨架运动数据与所述多个原型运动特征(708、720、1108)的每个相对应的似然度进行排序(506)的装置,所述似然度基于所述互相关;以及
用于对所述多个原型运动特征(708、720、1108)的子集执行分类操作(508)的装置,所述多个原型运动特征(708、720、1108)的所述子集具有对应于所述骨架运动数据的相对最高的似然度。
9.如权利要求8所述的系统(12、100),其特征在于,包括用于基于所述多个原型运动特征(708、720、1108)中每个的多个训练样本(705、706a、706b、706c、718、802),来修改表示所述多个原型运动特征(708、720、1108)的数据的装置。
10.如权利要求8所述的系统(12、100),其特征在于,包括用于评估模型获得所述骨架运动数据与所述多个原型运动特征(708、720、1108)相对应的似然度的能力的装置。
CN201210037535.7A 2011-02-18 2012-02-17 运动识别 Active CN102693413B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/030,154 US8761437B2 (en) 2011-02-18 2011-02-18 Motion recognition
US13/030,154 2011-02-18

Publications (2)

Publication Number Publication Date
CN102693413A CN102693413A (zh) 2012-09-26
CN102693413B true CN102693413B (zh) 2017-09-22

Family

ID=46653200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210037535.7A Active CN102693413B (zh) 2011-02-18 2012-02-17 运动识别

Country Status (6)

Country Link
US (1) US8761437B2 (zh)
EP (1) EP2676242A4 (zh)
JP (1) JP5902204B2 (zh)
KR (1) KR101882042B1 (zh)
CN (1) CN102693413B (zh)
WO (1) WO2012112402A2 (zh)

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8409024B2 (en) 2001-09-12 2013-04-02 Pillar Vision, Inc. Trajectory detection and feedback system for golf
US8617008B2 (en) 2001-09-12 2013-12-31 Pillar Vision, Inc. Training devices for trajectory-based sports
US8837721B2 (en) * 2007-03-22 2014-09-16 Microsoft Corporation Optical DNA based on non-deterministic errors
US8408982B2 (en) * 2007-05-24 2013-04-02 Pillar Vision, Inc. Method and apparatus for video game simulations using motion capture
US9135948B2 (en) * 2009-07-03 2015-09-15 Microsoft Technology Licensing, Llc Optical medium with added descriptor to reduce counterfeiting
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
CN103827891B (zh) * 2011-07-28 2018-01-09 Arb实验室公司 使用全球生成的多维姿势数据检测身体运动的系统和方法
GB2495551B (en) * 2011-10-14 2014-04-09 Sony Comp Entertainment Europe Motion scoring method and apparatus
JP2013101526A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US8989521B1 (en) * 2011-11-23 2015-03-24 Google Inc. Determination of dance steps based on media content
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9042596B2 (en) 2012-06-14 2015-05-26 Medibotics Llc Willpower watch (TM)—a wearable food consumption monitor
US10314492B2 (en) 2013-05-23 2019-06-11 Medibotics Llc Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body
US9254099B2 (en) 2013-05-23 2016-02-09 Medibotics Llc Smart watch and food-imaging member for monitoring food consumption
US9536449B2 (en) 2013-05-23 2017-01-03 Medibotics Llc Smart watch and food utensil for monitoring food consumption
US9442100B2 (en) 2013-12-18 2016-09-13 Medibotics Llc Caloric intake measuring system using spectroscopic and 3D imaging analysis
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
TWI498771B (zh) * 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
CN103785157A (zh) * 2012-10-30 2014-05-14 莫凌飞 人体运动类型识别准确度提高方法
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US20140245200A1 (en) * 2013-02-25 2014-08-28 Leap Motion, Inc. Display control with gesture-selectable control paradigms
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9448634B1 (en) * 2013-03-12 2016-09-20 Kabam, Inc. System and method for providing rewards to a user in a virtual space based on user performance of gestures
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9142034B2 (en) 2013-03-14 2015-09-22 Microsoft Technology Licensing, Llc Center of mass state vector for analyzing user motion in 3D images
US9159140B2 (en) 2013-03-14 2015-10-13 Microsoft Technology Licensing, Llc Signal analysis for repetition detection and analysis
US10223580B2 (en) * 2013-03-26 2019-03-05 Disney Enterprises, Inc. Methods and systems for action recognition using poselet keyframes
JP6082101B2 (ja) * 2013-04-02 2017-02-15 Necソリューションイノベータ株式会社 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
US8948457B2 (en) 2013-04-03 2015-02-03 Pillar Vision, Inc. True space tracking of axisymmetric object flight using diameter measurement
US9529385B2 (en) 2013-05-23 2016-12-27 Medibotics Llc Smart watch and human-to-computer interface for monitoring food consumption
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10228242B2 (en) 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
TWI506461B (zh) * 2013-07-16 2015-11-01 Univ Nat Taiwan Science Tech 人體動作的辨識方法與裝置
US9192857B2 (en) 2013-07-23 2015-11-24 Igt Beat synchronization in a game
US9582737B2 (en) * 2013-09-13 2017-02-28 Qualcomm Incorporated Context-sensitive gesture classification
JP6344032B2 (ja) * 2013-09-26 2018-06-20 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US20150120023A1 (en) * 2013-10-28 2015-04-30 II James Richard Terrell Entertainment content fitness gaming system
US9317112B2 (en) 2013-11-19 2016-04-19 Microsoft Technology Licensing, Llc Motion control of a virtual environment
KR101547208B1 (ko) 2013-12-05 2015-08-26 한국과학기술원 손목 궤적을 이용한 전신 동작 생성 장치 및 방법
US20160328604A1 (en) * 2014-01-07 2016-11-10 Arb Labs Inc. Systems and methods of monitoring activities at a gaming venue
CN104784929B (zh) * 2014-01-21 2017-12-29 鈊象电子股份有限公司 体感式游戏机的分数判定方法
US9767609B2 (en) 2014-02-12 2017-09-19 Microsoft Technology Licensing, Llc Motion modeling in visual tracking
US10162737B2 (en) 2014-02-20 2018-12-25 Entit Software Llc Emulating a user performing spatial gestures
US20150294143A1 (en) * 2014-04-10 2015-10-15 GM Global Technology Operations LLC Vision based monitoring system for activity sequency validation
FR3023034A1 (fr) * 2014-06-25 2016-01-01 Renaud Maroy Procede d'identification d'un mouvement par minimisation d'une fonctionnelle
FR3023033A1 (fr) * 2014-06-25 2016-01-01 Renaud Maroy Procede d'identification d'un mouvement par minimisation d'energie de chemins
FR3023031A1 (fr) * 2014-06-25 2016-01-01 Renaud Maroy Procede d'identification d'un mouvement par filtrage bayesien recursif quantifie
FR3023032B1 (fr) * 2014-06-25 2018-09-07 Renaud Maroy Procede d'identification d'un mouvement par reduction du nombre de transitions possibles
KR101453815B1 (ko) 2014-08-01 2014-10-22 스타십벤딩머신 주식회사 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치
US9811721B2 (en) 2014-08-15 2017-11-07 Apple Inc. Three-dimensional hand tracking using depth sequences
US9946354B2 (en) * 2014-08-29 2018-04-17 Microsoft Technology Licensing, Llc Gesture processing using a domain-specific gesture language
US9619039B2 (en) * 2014-09-05 2017-04-11 The Boeing Company Obtaining metrics for a position using frames classified by an associative memory
US9911031B2 (en) * 2014-09-05 2018-03-06 The Boeing Company Obtaining metrics for a position using frames classified by an associative memory
US10083233B2 (en) * 2014-09-09 2018-09-25 Microsoft Technology Licensing, Llc Video processing for motor task analysis
US20160078289A1 (en) * 2014-09-16 2016-03-17 Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer Gesture Recognition Apparatuses, Methods and Systems for Human-Machine Interaction
US20160085312A1 (en) * 2014-09-24 2016-03-24 Ncku Research And Development Foundation Gesture recognition system
EP3205379A4 (en) * 2014-10-10 2018-01-24 Fujitsu Limited Skill determination program, skill determination method, skill determination device, and server
US9672418B2 (en) * 2015-02-06 2017-06-06 King Fahd University Of Petroleum And Minerals Arabic sign language recognition using multi-sensor data fusion
KR102034021B1 (ko) * 2015-08-10 2019-10-18 한국전자통신연구원 헬스케어 유닛 기반 시뮬레이터 및 이를 이용한 시뮬레이션 방법
US20170076629A1 (en) * 2015-09-14 2017-03-16 Electronics And Telecommunications Research Institute Apparatus and method for supporting choreography
US10048765B2 (en) * 2015-09-25 2018-08-14 Apple Inc. Multi media computing or entertainment system for responding to user presence and activity
US9947170B2 (en) 2015-09-28 2018-04-17 Igt Time synchronization of gaming machines
CN106606363A (zh) * 2015-10-22 2017-05-03 上海西门子医疗器械有限公司 一种医疗设备中患者体位的确定方法、系统及医疗设备
US10102602B2 (en) * 2015-11-24 2018-10-16 The Nielsen Company (Us), Llc Detecting watermark modifications
CN105741323A (zh) * 2016-02-03 2016-07-06 浙江大学 一种基于单目视频的人体骨架跟踪方法
CN107092430B (zh) * 2016-02-18 2020-03-24 纬创资通(中山)有限公司 空间绘画计分方法、用于进行空间绘画计分的装置及系统
WO2017171858A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Gesture capture
CN105913559B (zh) * 2016-04-06 2019-03-05 南京华捷艾米软件科技有限公司 一种基于体感技术的银行atm机智能监控方法
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
CN106095087A (zh) * 2016-06-02 2016-11-09 深圳奥比中光科技有限公司 体感交互系统以及方法
CN106095083A (zh) * 2016-06-02 2016-11-09 深圳奥比中光科技有限公司 体感指令的确定方法以及体感交互装置
CN106095082A (zh) * 2016-06-02 2016-11-09 深圳奥比中光科技有限公司 体感交互方法、系统以及装置
US10628664B2 (en) * 2016-06-04 2020-04-21 KinTrans, Inc. Automatic body movement recognition and association system
KR20180001440A (ko) * 2016-06-25 2018-01-04 김정태 고 처리량의 사진 직송을 위한 터치프리 포토 부스 장치
US11185763B2 (en) 2016-10-11 2021-11-30 Valve Corporation Holding and releasing virtual objects
US10649583B1 (en) 2016-10-11 2020-05-12 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10691233B2 (en) 2016-10-11 2020-06-23 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US11625898B2 (en) 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
WO2018069981A1 (ja) 2016-10-11 2018-04-19 富士通株式会社 運動認識装置、運動認識プログラムおよび運動認識方法
US10549183B2 (en) 2016-10-11 2020-02-04 Valve Corporation Electronic controller with a hand retainer, outer shell, and finger sensing
US10391400B1 (en) 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US10898797B2 (en) 2016-10-11 2021-01-26 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10888773B2 (en) 2016-10-11 2021-01-12 Valve Corporation Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof
US10987573B2 (en) 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
KR101869164B1 (ko) * 2016-10-25 2018-06-19 동국대학교 산학협력단 저가형 관성센서를 이용한 모션 인식 시스템 및 그 방법
US10692401B2 (en) 2016-11-15 2020-06-23 The Board Of Regents Of The University Of Texas System Devices and methods for interactive augmented reality
CN108228585A (zh) * 2016-12-09 2018-06-29 江苏物联网研究发展中心 建立数字运动人库的方法
JP6819423B2 (ja) * 2017-04-04 2021-01-27 富士ゼロックス株式会社 無線通信装置
US10485454B2 (en) 2017-05-24 2019-11-26 Neuropath Sprl Systems and methods for markerless tracking of subjects
WO2018232375A1 (en) 2017-06-16 2018-12-20 Valve Corporation Electronic controller with finger motion sensing
EP3693923A4 (en) * 2017-10-03 2020-12-16 Fujitsu Limited RECOGNITION PROGRAM, RECOGNITION PROCESS AND RECOGNITION DEVICE
KR102439783B1 (ko) * 2017-12-04 2022-09-02 한국전자통신연구원 인체 자세 및 행동 모니터링 장치 및 방법
CN107862387B (zh) * 2017-12-05 2022-07-08 深圳地平线机器人科技有限公司 训练有监督机器学习的模型的方法和装置
CN108229332B (zh) * 2017-12-08 2020-02-14 华为技术有限公司 骨骼姿态确定方法、装置及计算机可读存储介质
EP3726468A4 (en) 2017-12-14 2020-12-16 Fujitsu Limited PROGRAM DETECTION PROGRAM, PROCEDURE DETECTION METHOD, AND PROCEDURE DETECTION SYSTEM
CN108055479B (zh) * 2017-12-28 2020-07-03 暨南大学 一种动物行为视频的制作方法
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
EP3744408A4 (en) * 2018-01-24 2021-01-20 Fujitsu Limited SCREEN GENERATION PROGRAM, SCREEN GENERATION METHOD AND INFORMATION PROCESSING DEVICE
US10438414B2 (en) * 2018-01-26 2019-10-08 Microsoft Technology Licensing, Llc Authoring and presenting 3D presentations in augmented reality
CN108597578B (zh) * 2018-04-27 2021-11-05 广东省智能制造研究所 一种基于二维骨架序列的人体运动评估方法
WO2020009715A2 (en) * 2018-05-07 2020-01-09 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
CN109902547B (zh) * 2018-05-29 2020-04-28 华为技术有限公司 动作识别方法和装置
CN112437909A (zh) * 2018-06-20 2021-03-02 威尔乌集团 虚拟现实手势生成
CN108985259B (zh) * 2018-08-03 2022-03-18 百度在线网络技术(北京)有限公司 人体动作识别方法和装置
CN109344692B (zh) * 2018-08-10 2020-10-30 华侨大学 一种运动质量评价方法及系统
CN110947181A (zh) * 2018-09-26 2020-04-03 Oppo广东移动通信有限公司 游戏画面显示方法、装置、存储介质及电子设备
US11281896B2 (en) 2018-11-15 2022-03-22 Smith & Nephew, Inc. Physical activity quantification and monitoring
CN109766473B (zh) * 2018-11-30 2019-12-24 北京达佳互联信息技术有限公司 信息交互方法、装置、电子设备及存储介质
WO2020123875A1 (en) * 2018-12-12 2020-06-18 The Board Of Trustees Of The Leland Stanford Junior University Systems, devices, and methods for assessment of brain injury
CN111353347B (zh) * 2018-12-21 2023-07-04 上海史贝斯健身管理有限公司 动作识别纠错方法、电子设备、存储介质
US10984575B2 (en) 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
CN110059661B (zh) * 2019-04-26 2022-11-22 腾讯科技(深圳)有限公司 动作识别方法、人机交互方法、装置及存储介质
EP3991067A1 (en) 2019-06-26 2022-05-04 Google LLC Radar-based authentication status feedback
CN110517338A (zh) * 2019-07-11 2019-11-29 北京电影学院 一种基于两足角色实体特征构建可复用动作库的方法
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
JP7316383B2 (ja) 2019-07-26 2023-07-27 グーグル エルエルシー Imuおよびレーダーを介した認証管理
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
CN113853567B (zh) 2019-07-26 2024-03-29 谷歌有限责任公司 基于imu和雷达降低状态
KR102292415B1 (ko) * 2019-08-08 2021-08-24 주식회사 엘지유플러스 신체 동작 유사도 측정 장치 및 방법
KR102479012B1 (ko) 2019-08-30 2022-12-20 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
CN113874812A (zh) 2019-08-30 2021-12-31 谷歌有限责任公司 用于多输入模式的输入模式通知
CN112753005B (zh) 2019-08-30 2024-03-01 谷歌有限责任公司 移动设备的输入方法
JP7235133B2 (ja) * 2019-10-03 2023-03-08 富士通株式会社 運動認識方法、運動認識プログラムおよび情報処理装置
US20210103337A1 (en) * 2019-10-03 2021-04-08 Google Llc Facilitating User-Proficiency in Using Radar Gestures to Interact with an Electronic Device
EP4066087A1 (fr) * 2019-11-03 2022-10-05 ST37 Sport et Technologie Procede et systeme de caracterisation d'un mouvement d'une entite en mouvement
CN111368652B (zh) * 2020-02-19 2023-05-02 华南理工大学 一种基于Kinect传感器的动作捕捉文件生成方法
US11055891B1 (en) 2020-03-10 2021-07-06 Microsoft Technology Licensing, Llc Real time styling of motion for virtual environments
US11861752B2 (en) 2020-04-06 2024-01-02 Agt International Gmbh Method of scoring a motion of a user and system thereof
JP7459679B2 (ja) * 2020-06-23 2024-04-02 富士通株式会社 行動認識方法、行動認識プログラム及び行動認識装置
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
GB2602248A (en) * 2020-11-11 2022-06-29 3D4Medical Ltd Motion assessment instrument
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US11450051B2 (en) * 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
US11823496B2 (en) * 2021-05-06 2023-11-21 Kuo-Yi Lin Professional dance evaluation method for implementing human pose estimation based on deep transfer learning
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
CN114627559B (zh) * 2022-05-11 2022-08-30 深圳前海运动保网络科技有限公司 基于大数据分析的运动计划规划方法、装置、设备及介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69736622T2 (de) 1996-07-03 2007-09-13 Hitachi, Ltd. System zur Bewegungserkennung
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
JP3141004B2 (ja) 1998-08-31 2001-03-05 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 動画中のオブジェクトを分類する方法
JP2003109015A (ja) * 2001-10-01 2003-04-11 Masanobu Yamamoto 身体動作測定方式
JP3860076B2 (ja) * 2002-06-06 2006-12-20 独立行政法人科学技術振興機構 身体モデル生成方法、身体モデル生成プログラム及びそれを記録した記録媒体、身体モデルデータを記録した記録媒体
ES2277087T3 (es) 2002-07-09 2007-07-01 Aecc Enterprises Limited Metodo para representacion con imagenes el movimiento relativo de segmentos esqueleticos.
US7356172B2 (en) 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
EP1573657A2 (en) 2002-12-11 2005-09-14 Koninklijke Philips Electronics N.V. Computer vision system and method employing illumination invariant neural networks
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
JP2005267604A (ja) 2004-02-18 2005-09-29 Fuji Xerox Co Ltd 動作分類支援装置および動作分類装置
KR101238608B1 (ko) * 2004-07-30 2013-02-28 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US8135209B2 (en) * 2005-07-19 2012-03-13 Nec Corporation Articulated object position and posture estimation device, method and program
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
US8295546B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8488888B2 (en) * 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
CN102142055A (zh) * 2011-04-07 2011-08-03 上海大学 基于增强现实交互技术的真三维设计方法

Also Published As

Publication number Publication date
JP2014509011A (ja) 2014-04-10
EP2676242A4 (en) 2018-01-03
KR101882042B1 (ko) 2018-07-25
JP5902204B2 (ja) 2016-04-13
CN102693413A (zh) 2012-09-26
WO2012112402A3 (en) 2012-11-29
US8761437B2 (en) 2014-06-24
WO2012112402A2 (en) 2012-08-23
KR20140005233A (ko) 2014-01-14
EP2676242A2 (en) 2013-12-25
US20120214594A1 (en) 2012-08-23

Similar Documents

Publication Publication Date Title
CN102693413B (zh) 运动识别
Singh et al. Video benchmarks of human action datasets: a review
US9943755B2 (en) Device for identifying and tracking multiple humans over time
CA2843343C (en) Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
CN102222431B (zh) 用于翻译手语的计算机实现的方法
US8775916B2 (en) Validation analysis of human target
Shotton et al. Efficient human pose estimation from single depth images
CN103597515B (zh) 用于识别张开的或闭合的手的系统
US8660303B2 (en) Detection of body and props
US8953844B2 (en) System for fast, probabilistic skeletal tracking
CN102262440B (zh) 多模态性别识别
CN107077624A (zh) 跟踪手部/身体姿势
CN102129152A (zh) 具有集成vcsel阵列的深度投影仪系统
Edwards et al. From pose to activity: Surveying datasets and introducing CONVERSE
WO2011159258A1 (en) Method and system for classifying a user's action
Lv et al. Generic content-based retrieval of marker-based motion capture data
Zhao et al. A survey of deep learning in sports applications: Perception, comprehension, and decision
CN102591456B (zh) 对身体和道具的检测
Maik et al. Hierarchical pose classification based on human physiology for behaviour analysis
Bloom Multiple Action Recognition for Video Games (MARViG)
Nadeem Mixing Body Parts Modeling and Estimation in Dynamic Scenes using Markerless Sensors
Sun 3D Front-View Human Upper Body Pose Estimation Using Single Camera
Alshammari Human In-Place Action Recognition using Combination of Kinect Data Streams
Ahad et al. Action Datasets
Shen Geometric Invariance In The Analysis Of Human Motion In Video Data

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1174420

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150805

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150805

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1174420

Country of ref document: HK