JP2014509011A - 動き認識 - Google Patents

動き認識 Download PDF

Info

Publication number
JP2014509011A
JP2014509011A JP2013554491A JP2013554491A JP2014509011A JP 2014509011 A JP2014509011 A JP 2014509011A JP 2013554491 A JP2013554491 A JP 2013554491A JP 2013554491 A JP2013554491 A JP 2013554491A JP 2014509011 A JP2014509011 A JP 2014509011A
Authority
JP
Japan
Prior art keywords
motion
data
prototype
skeletal
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013554491A
Other languages
English (en)
Other versions
JP2014509011A5 (ja
JP5902204B2 (ja
Inventor
キロフスキー,ダルコ
ラプティス,ミカイル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014509011A publication Critical patent/JP2014509011A/ja
Publication of JP2014509011A5 publication Critical patent/JP2014509011A5/ja
Application granted granted Critical
Publication of JP5902204B2 publication Critical patent/JP5902204B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

人体の動きが、ユーザーの画像データから導出される骨格モデルによって表現される。体の動きの動き認識および/または類似性解析を実行するために骨格モデル・データが使用されてもよい。動き認識の例示的な方法は、捕捉装置からユーザー・データ動き特徴を表す骨格動きデータを受領する段階を含む。該骨格動きデータはシーン内のユーザーの位置に関係する。受領された骨格動きデータの相互相関が決定される。骨格動きデータが前記複数のプロトタイプ動き特徴のそれぞれに対応する確からしさがランク付けされる。それらの確からしさは前記相互相関を使って決定される。前記複数のプロトタイプ動き特徴の部分集合に対して、分類動作が実行される。前記複数のプロトタイプ動き特徴の前記部分集合が選ばれるのは、前記部分集合の要素が前記骨格動きデータに対応する相対的に最高の確からしさをもつことによる。

Description

本願は動き認識に関する。
コンピュータ・ゲームおよびマルチメディア・アプリケーションのようなコンピューティング・アプリケーションは、ゲーム・キャラクターまたはアプリケーションの他の側面をユーザーが操作できるようにする制御を使ってきた。典型的には、そのような制御は、たとえばコントローラ、リモコン、キーボード、マウスなどを使って入力される。より最近は、コンピュータ・ゲームおよびマルチメディア・アプリケーションは、カメラおよびソフトウェア・ジェスチャー認識エンジンを使って人‐コンピュータ・インターフェース(HCI: human computer interface)または自然なユーザー・インターフェース(NUI: natural user interface)を提供するようになってきた。HCIやNUIでは、ユーザー動きが検出され、いくつかの動きまたは姿勢が、ゲーム・キャラクター(たとえばユーザーのアバター)またはマルチメディア・アプリケーションの他の側面を制御するために使われるジェスチャーを表す。
自然なユーザー・インターフェースでは、画像捕捉装置がその視野内のユーザーの動きの画像を捕捉する。視野は、有限のユークリッド三次元(3D)空間として表現できる。たとえば、ユーザーが体操またはダンスのような活動を実行することによって運動できるようにするゲームが生成されうる。ゲーム装置がユーザーの動きパターンを認識できることが望ましいことがある。
下記は、本稿に記載されるいくつかの側面の基本的な理解を提供するために、本革新の簡略化された概要を呈示する。この概要は、特許請求される主題の包括的な概観ではない。特許請求される主題のキーとなるまたは決定的な要素を特定することも、主題となる革新の範囲を画定することも意図されていない。その唯一の目的は、のちに呈示されるより詳細な記述への導入として、特許請求される主題のいくつかの概念を、簡略化された形で呈示しておくことである。
ユーザーの画像データから導出される骨格モデル(skeletal model)によって表現される人体の動きの認識のための技術が提示される。動き認識の例示的な方法は、捕捉装置からユーザー・データ動き特徴を表す骨格動きデータを受領する段階を含む。該骨格動きデータはシーン内のユーザーの位置に関係する。受領された骨格動きデータの、プロトタイプ動き特徴データベースからの複数のプロトタイプ動き特徴に対する相互相関が決定される。骨格動きデータが前記複数のプロトタイプ動き特徴のそれぞれに対応する確からしさがランク付けされる。それらの確からしさは前記相互相関に基づく。前記複数のプロトタイプ動き特徴の部分集合に対して、分類動作が実行される。前記複数のプロトタイプ動き特徴の前記部分集合が選ばれるのは、前記部分集合の要素が前記骨格動きデータに対応する相対的に最高の確からしさをもつことによる。分類動作の「勝者」が、受領された骨格動きデータによって表される動きに対するマッチとして選ばれてもよい。
体の動きの動き認識および/または類似性解析を実行するシステムに関係する技術がさらに提示される。動き認識は、ユーザーの画像データから導出される骨格モデル(skeletal model)に基づいていてもよい。ある実施形態では、システムは処理ユニットおよびシステム・メモリを含む。システム・メモリは一つまたは複数の有体の非一時的なコンピュータ可読記憶媒体を含む。有体の非一時的なコンピュータ可読記憶媒体は、処理ユニットに、捕捉装置からユーザー・データ動き特徴を表す骨格動きデータを受領するよう指令するよう構成されたコードを含む。追加的なコードが、処理ユニットに、受領された骨格動きデータの、プロトタイプ動き特徴データベースからの複数のプロトタイプ動き特徴に対する相互相関を決定するよう指令する。さらなる追加的なコードは、処理ユニットに、骨格動きデータが前記複数のプロトタイプ動き特徴のそれぞれに対応する確からしさをランク付けするよう指令する。ある例示的な実施形態では、それらの確からしさは前記相互相関に基づく。他のコードが、処理ユニットに、前記複数のプロトタイプ動き特徴の部分集合に対して、分類動作を実行するよう指令する。前記複数のプロトタイプ動き特徴の前記部分集合が選ばれるのは、要素が前記骨格動きデータに対応する相対的に最高の確からしさをもつことによる。
一つまたは複数の有体の非一時的なコンピュータ可読記憶媒体に関係する技術がさらに提示される。前記有体の非一時的なコンピュータ可読記憶媒体は、プロセッサに、捕捉装置からユーザー・データ動き特徴を表す骨格動きデータを受領するよう指令しうるコードを記憶している。前記有体の非一時的なコンピュータ可読記憶媒体に記憶された追加的なコードが、プロセッサに、受領された骨格動きデータの、プロトタイプ動き特徴データベースからの複数のプロトタイプ動き特徴に対する相互相関を決定するよう指令する。前記有体の非一時的なコンピュータ可読記憶媒体上の他のコードが、プロセッサに、骨格動きデータが前記複数のプロトタイプ動き特徴のそれぞれに対応する確からしさをランク付けするよう指令する。それらの確からしさは前記相互相関に基づいていてもよい。前記有体の非一時的なコンピュータ可読記憶媒体上に記憶されている追加的なコードが、プロセッサに、前記複数のプロトタイプ動き特徴の部分集合に対して、分類動作を実行するよう指令する。前記複数のプロトタイプ動き特徴の前記部分集合が選ばれるのは、該部分集合の要素が前記骨格動きデータに対応する相対的に最高の確からしさをもつことによる。
以下の記述および付属の図面は特許請求される主題のある種の例示的な側面を詳細に記述する。しかしながら、これらの側面は、本革新の原理が用いられうるさまざまな仕方のほんのいくつかを示すものであり、特許請求される主題は、そのようなすべての側面およびその等価物を含むことが意図されている。特許請求される主題の他の利点および新規な特徴は、図面との関連で参酌する、本革新の以下の詳細な説明から明白となるであろう。
動き認識のための技術実施形態が動作できる、ユーザーが対話しているターゲット認識、解析および追跡システムのある例示的な実施形態を示す図である。 カメラ視野および該視野内で定義される3D直交座標基準系の実施形態を示す図である。 ユーザーのパフォーマンスに際してユーザーにフィードバックを与える視覚的に特徴的なインジケーターの例を示す図である。 一つまたは複数の実施形態によって使われることのできる、ユーザーの骨格モデルの例を示す図である。 ターゲット認識、解析および追跡システムのある実施形態において使用されうる捕捉装置の例示的な実施形態を示す図である。 ターゲット認識、解析および追跡システムのある実施形態において使用されうるジェスチャー分類システムの例示的な実施形態を示すブロック図である。 本願の技術に基づく動き認識の例示的な方法を示すプロセス流れ図である。 本願の技術に基づくダンス・ステップ認識を実行するためにモデルがトレーニングされるトレーニング・フェーズを示すブロック図である。 図7Bとともに、本願の技術に基づく、複数のクラス動きについてのトレーニング・フェーズを示すブロック図である。 図7Aとともに、本願の技術に基づく、複数のクラス動きについてのトレーニング・フェーズを示すブロック図である。 動き認識を実行する前にユーザー・データを記憶されているプロトタイプ・データと整列させるために使用されうる位相シフト・プロセスを示すブロック図である。 本願の技術に基づく、モデルがダンス・ステップを認識する能力の試験を示すブロック図である。 本願の技術に基づく、動きのサブシーケンスを分類するためのモデルの使用を示すブロック図である。 本願の技術に基づく、ジェスチャー認識エンジン実施形態のブロック図である。 ターゲット認識、解析および追跡システムにおいて人体動きを認識するために使用されうるコンピューティング環境の例示的な実施形態を示す図である。 ターゲット認識、解析および追跡システムにおいて人体動きを認識するために使用されうるコンピューティング環境のもう一つの例示的な実施形態を示す図である。
特許請求される主題は図面を参照して記述される。全図を通じて、同様の要素を指すために同様の参照符号が使われる。以下の記述では、説明の目的で、主題となる革新の十全な理解を提供するために数多くの個別的な詳細が記載される。しかしながら、特許請求される主題がこうした個別的な詳細なしでも実施されうることは明白であろう。他方、主題となる革新を記述するのを容易にするため、よく知られた構造および装置はブロック図の形で示されている。
本稿での用法では、「コンポーネント」、「システム」、「マルチメディア・コンソール」、「ゲーム・コンソール」などの用語は、ハードウェア、ソフトウェア(たとえば実行中)および/またはファームウェアのいずれであれ、コンピュータ関係のエンティティを指すことが意図される。たとえば、コンポーネントは、プロセッサ上で走っているプロセス、オブジェクト、実行可能物、プログラム、関数、ライブラリ、サブルーチンおよび/またはコンピュータまたはソフトウェアとハードウェアの組み合わせであることができる。例示として、サーバー上で走っているアプリケーションと該サーバーは、コンポーネントであることができる。一つまたは複数のコンポーネントがプロセス内に存在することができ、コンポーネントは一つのコンピュータ上に局在していることも、および/または二つ以上のコンピュータ間に分散されていることもできる。「プロセッサ」の用語は一般に、コンピュータ・システムの処理ユニットのような、ハードウェア・コンポーネントを指すものと理解される。
さらに、特許請求される主題は、開示される主題を実装するようコンピュータを制御するためのソフトウェア、ファームウェア、ハードウェアまたはその任意の組み合わせを生成するための標準的なプログラミングおよび/またはエンジニアリング技法を使って、方法、装置または製造物として実装されうる。本稿で使うところの用語「製造物」は、コンピュータ可読記憶媒体のような任意の非一時的なコンピュータ可読デバイスまたは媒体からアクセス可能なコンピュータ・プログラムを包含することが意図されている。
非一時的なコンピュータ可読記憶媒体は、これに限られないが、磁気記憶デバイス(たとえば中でもハードディスク、フロッピー(登録商標)ディスクおよび磁気ストリップ)、光ディスク(たとえば中でもコンパクトディスク(CD)およびデジタル多用途ディスク(DVD))、スマートカードおよびフラッシュメモリ・デバイス(たとえば中でもカード、スティックおよびキー・ドライブ)を含むことができる。これとは対照的に、コンピュータ可読媒体といえば、一般的に(すなわち、必ずしも記憶媒体ではなく)、さらに電気信号もしくは電気信号などの伝送媒体のような通信媒体をも含む。
当業者は、特許請求される主題の範囲もしくは精神から外れることなく、この構成に対して多くの修正がなしうることを認識するであろう。さらに、本稿では単語「例示的」は例、事例または例示のはたらきをすることを意味するために使われる。本稿で「例示的」として記述されるいかなる側面もしくはデザインも、必ずしも、他の側面もしくはデザインに対して好ましいまたは有利であると解釈されない。
本願の技術は、骨格ワイヤフレーム動きのためのリアルタイムのジェスチャー分類システムに関する。ある例示的な実施形態は、ノイズの多い入力のもとでの認識の堅牢性を提供する骨格の角度表現、多変量時系列データについての縦続式の相関ベース分類器および取得されたジェスチャー(すなわちユーザー入力の動き特徴)と一致するジェスチャーについてのオラクル(すなわちプロトタイプ動き特徴)との間の動きの相違を評価するための動的な時間歪め(time-warping)に基づく距離メトリックを含む。分類器が縦続式(cascaded)にされるのは、二フェーズの動作を実行するからである。第一フェーズでは、プロトタイプ動き特徴データが、相互相関に基づいてスコア付けされる。ユーザーの動きを表すデータがそれぞれの特定のプロトタイプ動き特徴に対応する最大の確からしさを計算するためである。第二フェーズでは、ユーザー入力に一致する最高の確からしさをもつ諸プロトタイプ動き特徴が、分類動作にかけられて、最も近いマッチが選択される。分類動作はいくつかの技法を含んでいてもよく、若干例を挙げると、ロジスティック回帰を使ったペア毎の分類(pairwise classification)、線形判別分析またはサポートベクターマシン(SVM: support vector machine)解析などがある。本願の技術に基づく分類器は、入力動きが、音楽の拍子のような既知の、正準的な時間ベースに従うという想定のもとで動作しうる。
リアルタイムの奥行き感知システムは、人体がゲームのアクションを制御できるようにするために使用できるので、ビデオ・ゲームにおいて有用である。一つのそのようなシステムは、毎秒30フレームで奥行きマップ・ストリームをパースして、動いているユーザーのワイヤフレーム骨格を構成する16個のあらかじめ定義された点の位置をリアルタイムで推定する。すると、その後のアルゴリズム処理が、ゲームプレーを対話的に制御するためにユーザーの動きを理解しようと(たとえばユーザー・ジェスチャーを認識しようと)試みることができる。
本願の技術の例示的な実施形態は、データベースにおいてプロトタイプ動き特徴としてモデル化されているあらかじめ振り付けされたジェスチャーのうちの任意のものを任意の時点においてダンサー(ユーザー)が踊ることを許容することによって、ダンサー(ユーザー)がアバター・アニメーションに対してもつ対話および制御を向上させうる。この目的に取り組むため、例示的なシステムは、所定のジェスチャー・クラスの集合のニュアンスを捕捉する統計的モデルを学習し、次いで、そのモデルを使ってユーザーの入力骨格動きを分類する。
まず図1Aを参照するに、本願の技術を実装するためのハードウェアは、ユーザー106のような人間のターゲットを認識、解析および/または追跡するために使用されうるターゲット認識、解析および追跡システム100を含む。ターゲット認識、解析および追跡システム100の実施形態は、ゲームまたは他のアプリケーションを実行するためのコンピューティング環境102と、ゲームまたは他のアプリケーションからのオーディオおよびビジュアル表現を提供するためのオーディオビジュアル装置16とを含む。システム100はさらにユーザーによって実行される動きおよび位置を捕捉する捕捉装置110を含む。これらをコンピューティング環境が受け取り、解釈し、ゲームまたは他のアプリケーションを制御するために使う。これらのコンポーネントのそれぞれは、のちにより詳細に説明する。
図1Aに示されるように、ある例示的な実施形態では、コンピューティング環境102上で実行されているアプリケーションは、ユーザー106がプレイしていることがありうるボクシング・ゲームのような、リアルタイム対話をもつゲームであってもよい。たとえば、コンピューティング環境102はオーディオビジュアル装置16を使って、ボクシング対戦相手108の視覚的表現をユーザー106に対して提供してもよい。コンピューティング環境102はまた、オーディオビジュアル装置16を使って、ユーザー106が自分の動きで制御しうるプレーヤー・アバター112の視覚的表現を提供してもよい。たとえば、ユーザー106は物理的な空間においてパンチを繰り出すことで、プレーヤー・アバター112にゲーム空間においてパンチを出させてもよい。このように、ある例示的な実施形態によれば、ターゲット認識、解析および追跡システム100のコンピュータ環境102および捕捉装置110は、物理的な空間内でのユーザー106のパンチを認識および解析するために使用されてもよく、それによりそのパンチがゲーム空間におけるプレーヤー・アバター112のゲーム制御として解釈されてもよい。
ユーザー106による他の動きも他の制御またはアクションとして解釈されうる。たとえば、ちょっと頭を下げる、ウィービングする、すり足する、ブロックする、ジャブを出すまたは多様な異なるパワー・パンチを繰り出すなどの制御である。ユーザー動きをモデル化するために使われるデータは、動き、姿勢、手の位置などに対応するデータを含んでいてもよい。図1Bは、カメラ視野114および該視野内に定義される3D直交座標基準系の実施形態を示している。この例では、ユーザー106は、ユーザーが音楽に合わせて踊るダンス・エクササイズ・アプリケーションと対話している。ユーザー106の動きは捕捉装置110によって捕捉される。捕捉装置110は、コンピューティング環境102と連携して、ボクシングの例と同じように、ディスプレイ上のアバターの動きをアニメートし、制御する。その動きの一部はジェスチャーであってもよい。
3D直交座標基準系の原点は捕捉装置110の視野の中心に描かれており、ユーザー106と肘掛け椅子118の間に位置している。以下で論じる骨格モデルは捕捉された各画像フレームから導出される。最初は、骨格モデルはこのカメラ・ベースの座標系で表現される。この座標系がカメラ・ベースと呼ばれるのは、カメラの位置が視野を決め、空間はカメラに対して定義される平面および法線を使って特徴付けられるからである。カメラ・ベースの基準系は固定されており、ユーザーとともに動きはしない。
図1Cは、ユーザー106のパフォーマンスに際してユーザー106にフィードバックを提供するオーディオビジュアル装置104上でのユーザーのプレーヤー・アバター112上で、ユーザーに対して表示される、視覚的に特徴的なインジケーター120の例を示す図である。プレーヤー・アバター112の右脚がオーディオビジュアル装置104上の視覚的に特徴的なインジケーター120を介して描かれており、ユーザーの右脚による脚上げが、モデルまたはダンス・エクササイズ・ゲームを使う他者によって実行される平均の脚上げジェスチャーの標準、たとえば高さを満たしていないという視覚的なフィードバックを提供する。
図2は、捕捉装置110から生成されうるユーザーの例示的な骨格マッピングを描いている。この実施形態では、多様な関節および骨が同定されている:左右の手202、左右の前腕204、左右の肘206、左右の二頭筋208、左右の肩210、左右のヒップ212、左右の腿214、左右の膝216、左右の前脚218、左右の足220、頭222、脊椎中央224、脊椎の頂部226および底部228およびウエスト230。より多くの点が追跡される場合には、手指または足指の骨および関節または鼻や目などの顔の個々の特徴などといった、追加的な特徴が同定されてもよい。図2に示される点の一つまたは複数が省略されてもよく、および/または他の点が追加されてもよいことは理解される。さらに、骨格マッピングはユーザーのコンピュータ・モデルの一例であり、他のコンピュータ・モデルも考えられる。
図2における各点は、捕捉装置110に対する基準系におけるx、yおよびz座標による三次元のデカルト空間(カメラ空間)において記述されてもよい。このことの一つの帰結は、この基準系における関節の任意の絶対的な動きが計算されるべきであるということである。たとえば、再び図1Bを参照するに、ユーザー106が、手106aをまっすぐ下げて体に対して静止させたままこの基準系において動いている場合、それでもその手はカメラ空間の基準系では動いている。前のフレームに対する、カメラ空間におけるその動きを決定するには、時間およびプロセッサ資源が要求される。
身体部分の基準系を、絶対的な動きが測定されるカメラ空間から、「上流の」関節に対して動きが測定される基準系に適合させるまたは変換することが、本願の技術の一つの側面である。この基準系は、身体空間または身体基準系と称される。ある実施形態では、上流の関節は、胴体により近い、次の隣接する関節である。よって、手首の上流関節は肘であり、肘の上流関節は肩であり、足首の上流関節は膝であり、膝の上流関節はヒップである。
カメラ基準系から身体基準系への剛体変換(たとえば並進および回転)は、関節位置に関して同じ情報を与えるが、より効率的かつ低エントロピーの仕方でである。ユーザーが手106aを体側に静止させたまま視野を通じて動いている上記の例を続けると、絶対(カメラ)空間では動いているが、ユーザーの手はその上流関節に対して動いていない。よって、身体空間におけるユーザーの手の追跡は、フレームからフレームへの関節の追跡を簡単にする。一般に、関節の他の関節に対する動きを追跡することは、下記で説明するように、より小さな探索空間およびデータ・セットならびにより高速な処理およびジェスチャー認識につながる。それは、3Dにおける相似変換(スケーリング、回転、並進)の群に対して不変な表現である。
やはり下記で説明するように、本願の技術のもう一つの側面は、肩およびヒップを含む胴体を剛体として扱うというものである。この良好な近似は、胴体が、カメラ空間に対する後述する三つの角度で記述されることを許容し、骨格追跡を簡単にする。
本願の技術は、ダンス・ステップなどのような比較的複雑なジェスチャーを認識および解釈できるターゲット認識、動き解析および追跡システム100を提供しうる。さらに、熟達者によって実行された特定のダンス・ステップまたは動きを表すプロトタイプ・ジェスチャー・データがトレーニング・プロセスにおいて用いられてもよく、次いで、捕捉装置110によって得られたユーザー・ジェスチャー・データに基づいてユーザーによって実行されたステップを分類するまたはユーザーのパフォーマンスを評価もしくはレート付けするために使用されてもよい。本願の技術によれば、該データは、精確、スケーラブルかつ堅牢な仕方で評価されうる。
ある例示的な実施形態では、ダンス・ステップに対応する特定の動きが、図2に示される骨格点の少なくとも一部の動きに関係するユーザー入力データに基づいて評価される。これらの点の相対的な動きが何らかの固定した時間期間(たとえば音楽の8拍)にわたって評価され、特定のプロトタイプ動きまたはステップのカタログを表す記憶されているプロトタイプ・データと比較される。次いで、どの特定のダンス・ステップまたは動きがユーザーによって実行されているかに関する判定がなされてもよい。明確に区別されるプロトタイプ・ステップまたは動きは本稿では動きクラス(motion class)と称される。さらに、ユーザーの測定された動きおよびエネルギーの、プロトタイプ・データとの相関が、その特定のダンス動きが実行されているというユーザーの解釈の品質を表すスコアを与えるために使われてもよい。
図2に示される骨格点に対応する入力データに基づいて、ダンス・ジェスチャーの効果的な認識を可能にする動き特徴の組が推定されてもよい。ある例示的な実施形態は、再レンダリングのために必要とされる完全性のレベルまたは精度に依存しない、いくつかの特定の目標に基づいてジェスチャー認識を実行してもよい。前記目的はエントロピー低減を含む。エントロピー低減を容易にするため、ワイヤフレーム関節は、伝統的な関節‐角度表現でのように、その親ノードに対して表現されてもよい。発見法的に、これは結果として得られる多変量時系列のエントロピーを低下させるべきである。
ある例示的な実施形態のもう一つの目的は、データ誤りを克服する能力における堅牢性である。さらに、本願の技術は、動き捕捉システムに比較した、リアルタイム奥行きセンサーについてのデータ堅牢性を提供することにも関する。第一の関連する因子は、骨格追跡アルゴリズムを通じて伝搬して結果として得られる骨格データにはいってくる、感知システムに固有の強い加法性ノイズの存在である。第二の関連する因子は、誤りのもとになりうる、骨格の隠蔽された部分の推定に関係する。
ある例示的な実施形態は、入力センサー配向に対する不変性を提供してもよい。さらに、ある実施形態は、カメラ位置に対する骨格表現の不変性を最大化するよう努めてもよい。
相対的な位置を計算するために使われる座標軸を、信号不連続、たとえばジンバル・ロック(gimbal lock)の確率を最小化するよう配向させることによって、信号連続性および安定性が提供されうる。この目的は、ジェスチャー検出のための規格化された相関を使うときに特に有意である。
動きの特性を保持しつつ、分類のための探索空間に対して次元削減が用いられてもよい。アニメーションまたは動き捕捉に焦点を与える表現に比較して、ある例示的な実施形態は、完全に可逆でなくてもよい特徴を計算することに関する。
人間の胴体の点(図2に示される7個の骨格ノード210a、210b、212a、212b、224、226、228によって定義される)が強い独立した動きを示すことはめったにない。よって、胴体は縦長の剛体として扱うことができる。それでも、奥行き感知システムにおける強いノイズ・パターンのため、個々の胴体点、特に肩およびヒップが現実的でない動きを示すことがあると観察されることがある。そのような現実的でない動きは、相対表現によって伝搬されるのではなく、制限されることが望ましいであろう。よって、胴体は剛体として扱われ、その点すべてがその位置の推定に寄与するとしてもよい。すると、この推定が、人間の骨格の残りの部分を相対的な仕方で表現するために使用されうる。
胴体点についての主成分、すなわち3D直交基底が、7かける3の胴体行列に主成分解析(PCA: principal component analysis)を適用した結果として計算されてもよい。第一の主成分u〔ベクトル〕は胴体のより長い寸法方向と整列させられる。これは正準的に(上下方向に)配向されてもよい。たいていのダンスではプレーヤーの胴体がセンサーに対して上下さかさまになることは予期されないからである。対照的に、両肩をつなぐ直線と整列させられる二番目の主成分r〔ベクトル〕については、配向はそれほど簡単には推定されず、ここでは骨格追跡アルゴリズムによって推定される「左右」骨格配向上に置かれてもよい。最後に、正規直交基底の最後の軸が、最初の二つの主成分のクロス積として計算される。すなわち〔ベクトル〕t=u×rである。結果として得られる基底{u,r,t}は本稿では胴体系と称されることがある。
主題となる技術によれば、胴体系は、人体の配向に基づく座標系のための、堅牢かつ信頼できる基礎を与える。カメラ位置には依存するが、胴体系から導出される座標系内で表現される点は、センサーに対して完全に不変となりうる。これはもとの問題規定の7つの3D軌跡を、結果として得られる正規直交基底の3D基底のみを記述することをねらいとする新しい信号の組に帰着させる。本稿で述べるように、胴体の動きを直観的かつ堅牢に記述するために、一組の単純な特徴が用いられる。最後に、根底にある奥行きマップ・シルエットから胴体系をより正確に計算することも可能でありうる。さらに、そのようなアプローチの計算上のオーバーヘッドは、結果として得られる認識パフォーマンスの軽微な改善に関し、有利なトレードオフをもたらさない。
図2に示されるように、胴体に隣接する関節は一次関節として同定されてもよい。よって、一次関節は肘、膝および頭を含む。これらの点は、胴体系から導出される座標系において、胴体内の隣接関節を基準として表現されうる。本願の技術によれば、LE(left elbow[左肘])はLS(left shoulder[左肩])に対して表現されてもよい。第一に、胴体系{u,r,t}がLSに並進されてもよい。原点がLSを中心とし、天頂軸がuであり、方位角軸がrとなるよう、球面座標系が構築されてもよい。すると、LEの位置はその動径R(原点からのLEの距離)、その傾斜θ(ベクトルuと、LEからLSへのベクトルとの間の角度)および方位角φ(ベクトルrとLEpからLSへのベクトルとの間の角度;ここでLEpはLEの、uを法線とする平面への投影(projection))によって記述されうる。
人間の骨の長さは規格化され、一定なので、動径Rはこの先の考察については無視してもよい。よって、この表現モデルを使うと、各一次関節は二つの角{θ,φ}をもって表現される。
二次関節はワイヤフレーム外肢の先端として表されてもよい。よって、二次関節は手および足を含む。二次関節に関連する最も記述的なベクトルは、隣接する一次関節とその隣接する胴体関節をつなぐ骨である。たとえば、上腕骨から突き出るベクトルbは、左肘LEに原点のある球面座標系の天頂方向についての潜在的な良好な候補である。左手(left hand)の関節はLHと表されてもよい。すると、LHの位置はその動径R(原点からのLHの距離)、その傾斜θ(ベクトルbと、LHからLEへのベクトルとの間の角度)および方位角φ(rの、bを法線とする平面Sへの投影であるベクトルrpと、LHpからLEへのベクトルとの間の角度;ここで、LHpはLHのS上への投影)によって記述されうる。
前腕骨の長さは規格化され、一定なので、動径Rは無視してもよい。よって、モデルは各二次関節を二つの角度{θ,φ}を使って表現してもよい。その結果は、一次関節の結果と同じだが、一つ顕著な違いがある。二次関節についての傾斜θは異例なほど堅牢な記述子である一方、方位角はそうではない。球面座標系の原点は胴体系を定義する剛体の一部ではないため、rの配向は胴体の配向に依存し、φにノイズを導入する。この効果は有意ではないことが確認されており、分類器の残りの動作に関して有意な問題を呈するものではない。
ベクトルbおよびrは、b・r=1となるよう配向され、よって投影rpが一点になることがありうる。そうなる可能性は低いが、bとrの間の角度が小さい場合には常に、rpの不安定性のため、ノイズ・レベルの増大に直面する可能性が高い。この問題はいくつかの仕方で解決できるが、rが方位角基準として選ばれる場合にはb・r≒1というケースが起こる頻度が低いことが観察されている。rの代わりにベクトルuまたはtまたはそれらの何らかの線形結合を使うことができるが、最終的なパフォーマンスに対しては幅広い範囲の影響がある。rの選択は、上記の問題を十分に減衰させることが観察されている。
ある例示的な実施形態では、角度ワイヤフレーム・モデルが、一次および4つの二次関節の各組についての8対の角{θ,φ}およびカメラの座標系に対する胴体系の回転行列によって表現される。ある例示的な実施形態では、頭点は無視されるので、四つの一次点しかない。
回転行列をパラメータ表現するためには、「狭義の」オイラー角を考えてもよいが、「狭義の」オイラー角の値は予測できないほどジンバル・ロックを受けやすいことを示す証拠がある。この問題は四元数を使って回避できるが、四元数はどちらかというと直観的でない時系列データを与えることが観察されている。ある例示的実施形態では、テート・ブライアン(Tait-Bryan)角(すなわち、ヨー、ピッチ、ロール)が使われる。骨格追跡アルゴリズムがスピンしているプレーヤーを追跡することをサポートしない場合、テート・ブライアン角は、ジンバル・ロックをほとんど導入しないような配向にされることができる。これは、本願の技術による分類器における規格化された相関方式のパフォーマンスを改善する。
骨格動きから得られる特徴時系列の集合は、f={fi(t),i=1…19}として得られてもよい。この定式化は、入力の複雑さを、16個の3D曲線の集まりから19個の1Dベクトルの集合に減らすことを注意しておく。この単純化は、計算効率の観点から比較的実質的であり、結果として起こる情報の損失もまれであり、無視できることが観察されている。結果として、これらの特徴は分類のために好適である。整列された一次元の比較を容易にする相対的な仕方で動きを表現するからである。
図3は、ターゲット認識、解析および追跡システム100において使用されうる捕捉装置110の例示的な実施形態を示す図である。本願の技術とともに使う捕捉装置に関するさらなる詳細は、上記の同時係属中の特許出願の一つまたは複数において記述されている。しかしながら、ある例示的な実施形態では、捕捉装置110は、たとえば飛行時間、構造化された光、ステレオ・イメージなどを含む任意の好適な技法を介して奥行き値を含みうる奥行き画像をもつビデオを捕捉するよう構成されていてもよい。ある実施形態によれば、捕捉装置110は計算された奥行き情報を、「Z層」または奥行きカメラからその視線に沿って延びるZ軸に垂直でありうる層に整理してもよい。
図3に示されるように、捕捉装置110は画像カメラ・コンポーネント124を含んでいてもよい。ある例示的な実施形態によれば、画像カメラ・コンポーネント124は、シーンの奥行き画像を捕捉しうる奥行きカメラであってもよい。奥行き画像は捕捉されたシーンの二次元(2D)ピクセル領域を含んでいてもよく、該2Dピクセル領域中の各ピクセルは、カメラからの捕捉されたシーン内のオブジェクトのたとえばセンチメートル、ミリメートルなどでの長さを表しうる。
図3に示されるように、ある例示的な実施形態によれば、画像カメラ・コンポーネント124は、シーンの奥行き画像を捕捉するために試用されうるIR光コンポーネント126、三次元(3D)カメラ128およびRGBカメラ130を含んでいてもよい。たとえば、飛行時間解析では、捕捉装置110のIR光コンポーネント126が赤外光をシーンに対して放出してもよく、次いで、たとえば3Dカメラ128および/またはRGBカメラ130を使ってシーン内の一つまたは複数のターゲットおよびオブジェクトの表面からの後方散乱光を検出するためにセンサー(図示せず)を使ってもよい。
もう一つの実施形態によれば、捕捉装置110は、奥行き情報を生成するために分解されうる視覚的なステレオ・データを得るために、異なる角度からシーンを見てもよい二つ以上の物理的に離間したカメラを含んでいてもよい。
捕捉装置110はさらにマイクロホン132を含んでいてもよい。マイクロホン132は、音を受領して電気信号に変換しうるトランスデューサまたはセンサーを含んでいてもよい。ある実施形態によれば、マイクロホン132は、ターゲット認識、解析および追跡システム100内の捕捉装置110とコンピューティング環境12との間のフィードバックを減らすために使用されうる。さらに、マイクロホン132は、コンピューティング環境12によって実行されうるゲーム・アプリケーション、非ゲーム・アプリケーションなどのようなアプリケーションを制御するためにユーザーによって与えられてもよいオーディオ信号を受領するために使われてもよい。
ある例示的な実施形態では、捕捉装置110はさらに、画像カメラ・コンポーネント124と動作上通信してもよいプロセッサ134を含んでいてもよい。プロセッサ134は、奥行き画像を受領し、該奥行き画像に好適なターゲットが含まれていることがありうるかどうかを判定し、好適なターゲットを該ターゲットの骨格表現またはモデルに変換するための命令または他の任意の好適な命令を実行しうる標準化されたプロセッサ、特化されたプロセッサ、マイクロプロセッサなどを含んでいてもよい。
捕捉装置110はさらに、一つまたは複数の有体の機械可読記憶媒体を有するメモリ・コンポーネント136を含んでいてもよい。メモリ・コンポーネントは、プロセッサ134によって実行されうる命令、3DカメラまたはRGBカメラによって捕捉される画像もしくは画像のフレームまたは他の任意の好適な情報、画像などを記憶していてもよい。ある例示的な実施形態によれば、メモリ・コンポーネント136は、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、キャッシュ、フラッシュ・メモリ、ハードディスクまたは他の任意の好適な記憶コンポーネントを含んでいてもよい。図3に示されるように、ある実施形態では、メモリ・コンポーネント136は、画像カメラ・コンポーネント124およびプロセッサ134と通信する別個のコンポーネントであってもよい。別の実施形態によれば、メモリ・コンポーネント136はプロセッサ134および/または画像カメラ・コンポーネント124に統合されていてもよい。
図3に示されるように、捕捉装置110はコンピューティング環境12と通信リンク138を介して通信していてもよい。通信リンク138は、たとえばUSB接続、ファイアワイヤ接続、イーサネット(登録商標)ケーブル接続などを含む有線接続および/または無線802.11b、g、aまたはn接続のような無線接続でありうる。ある実施形態によれば、コンピューティング環境12は、いつ通信リンク138を介してたとえばシーンを捕捉するかを決定するために使用されうる、捕捉装置110へのクロックを提供してもよい。
さらに、捕捉装置110は、たとえば3Dカメラ128および/またはRGBカメラ130によって捕捉された奥行き情報および画像ならびに捕捉装置110によって生成されうる骨格モデルを通信リンク138を介してコンピューティング環境12に提供してもよい。捕捉装置110によって検出されたターゲットまたはオブジェクトが人間のターゲットに対応するかどうかを判定するには多様な既知の技法が存在している。次いで、そのユーザーの骨格上のさまざまなスポット、手の関節、手首、肘、膝、首、足首、肩およびどこで骨盤が脊椎に出会うかを決定するために、骨格マッピング(skeletal mapping)技法が使用されてもよい。他の技法は、画像をその人物の身体モデル表現に変換することおよび画像をその人物のメッシュ・モデル表現に変換することを含む。
次いで骨格モデルは、コンピューティング環境が該骨格モデルを追跡し、該骨格モデルに関連付けられたアバターをレンダリングしうるよう、コンピューティング環境12に与えられてもよい。コンピューティング環境はさらに、骨格モデルから認識された、たとえばユーザーのジェスチャーに基づいて、コンピュータ環境上で実行されるアプリケーションにおいてどの制御を実行するかを決定してもよい。たとえば、図3に示されるように、コンピューティング環境12はジェスチャー分類システム400を含んでいてもよい。ジェスチャー分類システム400は、以下で図4を参照して説明するが、概括的には、ジェスチャー・フィルタの集合を含んでいてもよい。各ジェスチャー・フィルタは、(ユーザーが動く際に)骨格モデルによって実行されうるジェスチャーに関する情報を含む。カメラ128、130および捕捉装置110によって、骨格モデルおよびそれに関連付けられた動きの形で捕捉されるデータは、いつ(骨格モデルによって表現される)ユーザーが一つまたは複数のジェスチャーを実行したかを同定するために、ジェスチャー分類システム400内のジェスチャー・フィルタと比較されてもよい。そうしたジェスチャーは、アプリケーションのさまざまな制御に関連付けられていてもよい。よって、コンピューティング環境12は、骨格モデルの動きを解釈し、該動きに基づいてアプリケーションを制御するために、ジェスチャー分類システム400を使用してもよい。ある例示的な実施形態では、ユーザー入力または活動に対応するジェスチャー・データは、ユーザーが特定の活動、たとえば特定のダンスの動きをうまく実行したかどうかを判定するために、記憶されている熟達者のジェスチャー・データと比較されてもよい。
本願の技術のある例示的な実施形態は、全体的なシステム・パフォーマンスを改善するために角度による骨格表現を用いる。これは、骨格動きデータを、ノイズの多い入力から堅牢に推定することができるがそれでいて動きの顕著な側面を保持する諸特徴(それぞれスカラー時系列)のより小さなセットにマッピングするために使われる。そのねらいは、信号の全体的なエントロピーを低下させ、カメラ位置に対する依存性をなくし、ジンバル・ロック近くなどでの不安定なパラメータ構成を避けることである。そのアプローチは、単一の基準系を用いて胴体全体をフィッティングし、この基準系を使って一次および二次両方の肢関節の配向推定をパラメータ化することである。
ジェスチャー分類システム400のある例示的な実施形態では、縦続された相関ベースの最大尤度多変量分類器が使用されてもよい。トレーニング・プロセスの間に、分類器は、プロトタイプ・データ(すなわちオラクル)および幅広い範囲のダンス技量をもつ被験者のグループによって実行されたジェスチャー・インスタンスのデータベース両方に基づいて、各ジェスチャー・クラスについて統計的モデルを構築する。実行時には、分類器は、多変量入力バッファを、各クラスについてのプロトタイプ・ジェスチャー・モデルと相関付けし、クラス毎の対数尤度スコアを構築する。次いで、それらのスコアを使ってすべてのクラスにランク付けし、上位の諸クラスの間でロジスティック回帰試験の諸ラウンドを実行して勝ち残るマッチを同定する。
ある例示的な実施形態は、分類器への骨格入力データがある拍子パターンに従うダンスを表しているとの想定のもとに動作しうる。よって、分類器は、実際の時間を無視して、入力時系列をサンプリングし直してもよい。それにより、固定した期間(たとえば8拍)内に、骨格動きのある数のフレーム(たとえば120)が生成される。このようにして、約30フレーム毎秒(fps)のフレーム・レートが提供されうる。分類器は、種々の音楽作品における拍子のペースには、比較的不変でありうる。さらに、同じジェスチャーを踊っている諸プレーヤーの異なるインスタンスどうしを歪み除去し(unwarp)同期させる必要性が減じられうる。前提とされうるもう一つの想定は、ゲーム中に演奏される音楽の各拍がラベル付けされているということである。このセッティングにおいては拍子検出アルゴリズムも使用できる。
ある例示的な実施形態では、プレーヤーが、限られた、よく定義された、既知の集合Mの、8拍にわたる動きK個のみを踊ることを許容されるという想定がなされる。このようにして、全体的なエラー・レートに対して不都合となりうるオンライン学習シナリオが回避される。はいってくるフレームは骨格動きデータとともに、先入れ先出し(FIFO: first-in, first-out)バッファに記憶されてもよい。分類に先立ち、コンテンツが8拍当たり120フレームのレートでサンプリングし直されてもよい。分類器は、M内の最もよく一致したクラスを見出し、最終的に、プレーヤーが一致したジェスチャーをどのくらいよく踊ったかを概説するレポートをもって応答する。
時空間収縮拡張距離メトリックが、入力ジェスチャーの、一致したプロトタイプ(オラクル)との堅牢な比較を達成するよう、時空間の指数関数的スケーリングをもつ動的な時間歪めを用いてもよい。骨格動きデータに存在するノイズや、人間は特定の動きを再現する幅広い範囲の能力を示すという事実にもかかわらず、ある例示的な実施形態は、よい性能を発揮している。
図4は、ターゲット認識、動き解析および追跡システムのある実施形態において使用されうるジェスチャー分類システム400の例示的な実施形態を示している。この例示的なジェスチャー分類システム400は、プレーヤー・パフォーマンス・コンポーネント402およびジェスチャー分類コンポーネント404を含む。プレーヤー・パフォーマンス・コンポーネント402はユーザーまたはプレーヤーに関する入力を取得し、ジェスチャー分類コンポーネント404はそのデータを解析し、ユーザー入力に関する分類情報を与える。
例示的なプレーヤー・パフォーマンス・コンポーネント402は、奥行き画像408を提供しうる奥行き感知モジュール406を含む。本稿で説明するように、奥行き画像408は、捕捉装置110によって取得されるビュー・フレーム内でのプレーヤーの3Dの位置付けに関する情報を表していてもよい。骨格追跡モジュール410がプレーヤーの身体のさまざまな部分の相対的な動きについて情報を取得する。ワイヤフレーム・データ412と称されてもよい骨格追跡データは、図2に関して本稿で述べた形のものであってもよい。
ジェスチャー分類コンポーネント404はジェスチャー・モデル・コンポーネント414を有する。ジェスチャー・モデル・コンポーネント414は、プロトタイプ特徴のライブラリに関するデータを提供するプロトタイプ平均モジュール416を含む。プロトタイプ平均モジュール416によって提供されるデータは、プロトタイプ動き特徴(オラクル・データ)に対応するデータと、ユーザー動き特徴を表す幅広い範囲のサンプル・データとを使ってトレーニングされたものである。さらに、プロトタイプ平均モジュール416によって与えられるデータは、実際のプレーヤー・ジェスチャー(ユーザー・データ動き特徴として表される)を特定のダンス動きまたはステップに対応するものとして分類するために使用されうる「平均」プレーヤー・データを組み込んでいる。
トレーニング動作では、振り付けされた各ジェスチャーのモデルが、トレーニング集合FT={fj, j=1…L}に依拠して構築されてもよい。トレーニング集合は、このジェスチャーを踊る被験者のL個の記録の集まりを含む。さまざまな技量の被験者が記録に参加することがあり、各人は典型的にはジェスチャー毎に若干数の記録を生成する。
トレーニング動作において発展させられるモデルは、プロのダンサーによって実行されるジェスチャーの記録を含んでいてもよい、オラクルfoを表すプロトタイプ動き特徴をも用いてもよい。この記録は、ジェスチャーの定義と考えられる。単一のまたは少数の記録が、各オラクル表現について考慮されてもよい。これは主として、プロのダンサーは通例、特定のジェスチャーを非常に正確に反復するので、記録における変動の大半はセンサー・ノイズに由来するからである。
プロトタイプ平均と記される、各個々の特徴についてダンサーの期待される平均軌跡を生成するために、トレーニング・データは、foと各個々のfjとの間の巡回規格化相互相関を計算することによって、プロトタイプ動き特徴(すなわちオラクル)に関して整列させられる。規格化巡回相互相関動作は、波形間の時間オフセットを与えられたときに二つの波形の類似性を同定するために使われる数学的操作である。相互相関は、(波形などの)データのより大きなセット内でより短い既知のパターンを同定するために使用されうる技法である。
ある例示的な実施形態では、二つのベクトルuおよびvの巡回規格化相互相関cは次のように計算される。
Figure 2014509011
ここで、 ̄付きのuはuの平均を表す。二つのベクトルuおよびvの規格化されない巡回
相互相関は
Figure 2014509011
として計算される。ここで、R( )は時系列ベクトルを反射することを表し、Fは離散フーリエ変換を表す。規格化されない巡回相互相関は各特徴について計算される。身体全体の同期を取り入れるために、相互相関ベクトルは、すべての特徴について加算されて単一のベクトルにされる。
Figure 2014509011
二つのベクトルの位相オフセットは次式に等しい。
Figure 2014509011
このように、fj記録をfoと整列させるために、fjにおいてすべての特徴は−τjサンプルだけ位相シフトされる。
プロトタイプ平均は、ある特定の特徴について次のように定義されてもよい。
Figure 2014509011
ジェスチャー・プロトタイプは
Figure 2014509011
と表されてもよい。fmとfoの関係は、fmはジェスチャーを踊る平均被験者の動きを表し、一方foは熟達者のそれであるという点である。典型的には、両者は形は似ているが、プロトタイプ平均はしばしば振幅が減衰している。というのも、技量のあるダンサーは通例、全体的なアピールのために動きを強調するからである。
次に、クラス内およびクラス外相関統計を捕捉するモデルがまとめられてもよい。FT内の各記録jおよび特徴iについて、
Figure 2014509011
として
Figure 2014509011

が計算されてもよい。各特徴iについて、
Figure 2014509011
にわたる相関値のヒストグラムがまとめられてもよい。Lは典型的には小さいので、ガウス・カーネルを使ってヒストグラムを平滑化する単純なカーネル密度推定(KDE: kernel density estimation)フィルタが適用されてもよい。特定の特徴iについてのヒストグラム曲線はルックアップ・テーブルpi(c)に格納されてもよい。ここで、−1≦c≦1は相関引数である。特定の特徴について、ルックアップ・テーブルはこのように、プロトタイプ平均と入力(すなわち入力データ動き特徴)との相関が与えられたときに入力ジェスチャーがこの特定のクラスに属する確からしさを返す。同様に、クラス外相関に対して収集されうる統計および対応するルックアップ・テーブルqi(c)が生成されてもよい。これら二つのテーブルは、特定の相関値についてスコア付け関数を生成するために組み合わされてもよい。スコア付け関数の一例は、hi(c)=2log(pi(c))−log(qi(c))と表される。技量のあるダンサー、すなわちプロトタイプ平均に対する高い相関を出すダンサーは典型的にはFTにおいてまれであるという事実は、高いcについて低いpi(c)という結果を与えうる。その場合、それらのスコアは本質的には、そのダンスが「うますぎる」ためにペナルティを与えられるのである。この異常を正すため、KDEフィルタを適用するのに先立って、高い相関についてのヒストグラム係数が調整されてもよい。
検出技法としての規格化された相互相関は、形のマッチングでは効果的だが、その振幅のマッチングではそれほど効果的ではない。規格化なしでユークリッド距離または相関を使うのではなく、ある例示的な実施形態は、平均信号エネルギーという追加的な距離計量を、規格化された相関に対する補完として用いてもよい。よって、クラス内ジェスチャー・インスタンスの各特徴fiについて、プロトタイプ動き特徴に対するエネルギー・レベルがαi=‖fo,i‖−‖fi‖として計算されてもよく、FT内のすべてのインスタンスのエネルギー・レベルにわたる−4π2≦α≦4π2についてのヒストグラムei +(α)が構築されてもよい。KDEフィルタが適用されてもよい。相関ヒストグラムhi(c)と同様に、クラス外インスタンスについての同じ統計ei -(α)が計算されてもよい。それらはei(α)=2log(ei +(α))−log(ei -(α))として組み合わされてもよい。最後に、ei(α)は、用いられるベンチマークにおいて普通ではない、技量のあるダンサーがより幅広い範囲の動きをもつことがあり、よってその記録の増大したエネルギーをもつことがあるという事実について補償されてもよい。この調整は、低いαの場合についてei +(α)のヒストグラム計数を増すことによって実行されてもよい。よって、特定のジェスチャーおよび特徴iについて、本願の技術は、プロトタイプ平均fm,i、相関ヒストグラムhi(c)およびエネルギー・レベル・ヒストグラムei(α)を含む三つ組{fm,i,hi,ei}を包含する。
ジェスチャー・モデル・コンポーネント414は相関統計モジュール418およびエネルギー統計モジュール420をも含む。本稿で述べるように、相関統計およびエネルギー統計は、ジェスチャー分類システム400によって、ユーザーのダンス動きを分類するとともに、該ダンス動きの品質を表すスコアを割り当てるために使われてもよい。
ロジスティック回帰係数モジュール422がジェスチャー・モデル・コンポーネント414内に含まれていてもよい。本稿で説明するように、ロジスティック回帰は、共通の特徴をもつプロトタイプ動き間で選択を行うためにダンス動きを分類するときに使われてもよい。さらに、ロジスティック回帰データは、比較的互いに近いプロトタイプ動き特徴間で選択を行うよう、本願の技術に基づく分類プロセスを微調整するために使われてもよい。
ジェスチャー・モデル・コンポーネント414はクラス・ランク付けコンポーネント426を含んでいてもよい。クラス・ランク付けコンポーネントは、ユーザー入力動き特徴を表す所与のデータについて、マッチするプロトタイプ動き特徴を選択するプロセスにおいて使用されてもよい。特に、クラス・ランク付けコンポーネント426は、所与のユーザー入力データが各プロトタイプ動き特徴についてのマッチである確率に基づいて、プロトタイプ動き特徴データベース内でスコア付けされたプロトタイプ動き特徴をランク付けするために使われてもよい。さらに、所与のユーザー入力データによりよく似ているプロトタイプ動き特徴は、クラス・ランク付けコンポーネント426によってより高いマッチ確率を割り当てられてもよい。この機能を実行するために、クラス・ランク付けコンポーネント426は、規格化された相関モジュール428およびスコア計算モジュール430を有していてもよい。
クラス・ランク付けコンポーネント426は、特徴表現モジュール432を介してプレーヤー・パフォーマンス・コンポーネント402からデータを受け取る。特徴表現モジュール432は、ユーザー・データの動き特徴全体の部分集合を表す個別的な特徴に関係するデータを提供してもよい。
本稿で説明するように、ジェスチャー認識システムのある例示的な実施形態は、ひとたびトレーニングされたら、たとえばビデオ・ゲームのコンテキストにおけるユーザー動きのリアルタイムの分類を実行するために用いられてもよい。そのような場合、分類器への入力は、特徴集合に変換された骨格ワイヤフレームのストリームである。ベクトルx={xi, i=1…19}が、それぞれNサンプルの長さの19個の特徴の入力ストリームを表すとする。関連するプロトタイプ動き特徴データベース内の各ジェスチャー・モデルg={{fm,i,hi,ei}, i=1…19}について、そのスコアは以下の方法論を使って計算されてもよい。
まず、規格化された相互相関動作が実行される。この動作において、各入力特徴xiはその対応するプロトタイプ平均fm,iとの相互相関を取られる。これは、ジェスチャー認識分類器の、比較的計算量的に要求の高い動作である。長さNの二進高速フーリエ変換(FFT)はO(NlogN)回の動作で計算されるからである。次に、最大尤度スコアが決定される。ある例示的な実施形態では、対応するヒストグラム・スコアが検索され、すべての特徴にわたって合計されてもよい。次の公式が、該合計を実行するために使われてもよい。
Figure 2014509011
最大尤度スコアが決定されたのち、位相オフセット動作が実行されてもよい。入力の、プロトタイプ平均に対する位相シフトτは次のように同定されてもよい。
Figure 2014509011
位相シフトは、各クラスについて異なっている。
データベース中の各ジェスチャー・クラスkについての分類スコアはskk)である。これらのスコアはすべてのクラスをランク付けするために使われてもよい。最良のマッチは最高のスコアをもつものである。
ペア毎マッチング・コンポーネント434がジェスチャー分類コンポーネント404に含まれていてもよい。図4に示される例示的な実施形態では、ペア毎マッチング・コンポーネント434は、正規化された相関モジュール428、スコア計算モジュール430およびロジスティック回帰係数モジュール422から入力を集める。この情報に基づいて、ペア毎マッチング・コンポーネント434は、プロトタイプ動き特徴データベースからの、プレーヤー・パフォーマンス・コンポーネント402から受領されたユーザー入力データに最もよくマッチするプロトタイプ動き特徴を同定する出力を与える。ユーザー入力データに最もよくマッチするプロトタイプ動き特徴は、図4におけるキャプション「一致したクラス」で同定されている。
いくつかのクラスがしばしば動きにおいて、全特徴にわたるそれらのプロトタイプ平均が一つを除いて等価であるまでに似ていることがあることから、ランク付け分類器を改善することができる。二つのジェスチャー・クラスのすべてのインスタンスは、大きな2(19+19)次元空間のある近傍における点の集合と見ることができる。取得ノイズおよび人間があるジェスチャーを演じることのできる多様な仕方のため、プロトタイプ平均がほぼ同一である(ごくわずかな特徴を除くすべての特徴にわたって同じ)二つのクラスは、たとえば特定のクラスのすべての点を含み検出するために多次元球が使われる場合、交わる体積をもつことがある。二つのクラスの曖昧さのない区別はより微妙な違いがあり、特徴には選択的に依存するので、高度な、ペア毎マッチング・ツールを使って隣り合うクラスをよりよく区別する必要がある。
式(3)における尤度に重みをかけることが、分類の機敏さ(agility)を改善する方法の一例である。この「任意的な」重みは、再計算される必要があることがあり、ジェスチャー・マッチのペア毎の比較それぞれについて相異なっている可能性が高い。よって、本稿で述べるように、ロジスティック回帰を使ってこれらの重みを計算し、トレーニングされた係数を分類において展開することが望ましいことがある。
例として、ロジスティック回帰は最高のs(τ)スコアをもつ二つのトップ階層のクラス、たとえばk1およびk2のインデックスで指定されるクラスについて実行されてもよい。二項分類が、次式を計算することによって実行されてもよい。
Figure 2014509011
ここで、すべての重みはロジスティック回帰を使ってトレーニングされている。Pr(C=k1|x)≧0.5である場合にはクラスk1が、それ以外の場合にはk2が最良のマッチと表される。「勝者クラス」を次の「次点クラス」とペア毎マッチングするプロセスは、再帰的に反復されてもよい。ただし、s(τ)リストで深いところにあるクラスが「勝つ」可能性は急速に低下する。よって、ある例示的な実施形態は、ロジスティック回帰を介した、ペア毎クラス比較の3層の深さのシーケンスを用いてもよい。
したがって、ジェスチャー・モデル{fm,i,hi,ei}はもう一つのデータ・フィールド、ロジスティック回帰のための係数行列
Figure 2014509011
を用いて増強されてもよい。ここで、Kはジェスチャー・クラスの数である。分類のために要求される資産のサイズはO(K2)に比例するので、大きなKについては、分類データベースのサイズは禁止的なほどに増大する。たいていのジェスチャー・クラスについて、それらの間の相違は、式(3)におけるスコア付け関数がそれらの間を曖昧さなく区別するために十分大きいことを注意しておく。トレーニングにおいては、「同様な」ジェスチャーが同定され、重み付け行列はそれらのまばらな対についてのみトレーニングされてもよい。完全なK×K行列における対の密度は、ジェスチャー動きクラスの類似性に依存する。
本願の技術に基づくジェスチャー認識システムの分類器は、いくつかの興味深い性質を呈することがある。たとえば、入力バッファの長さは必ずしもクラス・プロトタイプの長さに等しくない。よって、より短い入力シーケンスが同じアルゴリズムを使ってマッチングされることができる。相互相関の規格化パラメータのみが適応される必要がある。
本願の技術に基づくジェスチャー認識アルゴリズムは、マッチしたクラスのプロトタイプに関する位相シフトを副作用として返すことがある。この情報は、ユーザーのダンス・パターンをゲーム・プラットフォームと同期させるために有用であることがある。
例示的なジェスチャー分類システムによって報告される誤差は、短い入力バッファについては特に、無害であることがある。そのような分類器の一つの特性は、ジェスチャー・データベース全体内での最良一致したクラスを、そのプロトタイプ平均内での位相シフトとともに返しうるということである。したがって、アバターがプレーヤーの動きをレンダリングするシナリオでは、誤差は、短期間の(short-spanned)クラス横断類似性のため、気づかれずに過ぎることがある。
ユーザー入力データは距離メトリック・モジュール424に与えられる。距離メトリック・モジュール424は、ジェスチャー・モデル・コンポーネント414からの入力およびペア毎マッチング・モジュール434からの一致したクラスに関係する情報をも受け取ってもよい。距離メトリック・モジュール424は、ユーザーによって実行されたダンス動きの指標品質(または「良さ」)を表す出力として、距離レポートを与えてもよい。
ひとたび最良一致した動きクラスが同定されたら、残る問題は、一致したプロトタイプ動き特徴に対する、(ユーザー・データ動き特徴によって表される)ユーザーの動きの品質に関するものである。プロトタイプ平均に対する比較(プロトタイプ平均との相関付けによって得られるスコアを含む)は、熟達者ダンサーではなく平均に対して、プレーヤーがどのくらいうまく実行したかを示すものなので、ミスリーディングであることがある。他方、単一のスコア付け数をもつことに加えて、ゲーム・プレーヤーがどのくらい「うまく」踊ったかを関節毎に示すレポートを提供することが望ましいことがありうる。この問題を解決するため、芸術的なアピールについてラベル付けされた動き記録を得て、人間の専門家を再現するこのデータ・セットに対する回帰モデルを学習することが望まれることがある。それでも、人間によるラベル付けがどのくらい一貫したものであるかは議論があるかもしれない。体の動きの等級付けの意味的性質を回避するため、現在の演者と熟達者の相対的な動きの間の食い違いが測定されてもよい。
本願の技術によれば、プレーヤーの特徴シーケンスは、前記分類方法によって与えられる位相シフトを使ってグローバルに整列されてもよい。その後、考えられる局所的な整列不良を考慮して二つの信号の食い違いを測定するために、動的な時間歪めが使われてもよい。ノイズに起因する突出値を克服するため、動的な時間歪めの計算において、次のように定義される堅牢なコストを用いることが望ましいことがある。
Figure 2014509011
ここで、σは許容される熟達者のパフォーマンスからの逸脱の量を制御するパラメータであり、δは突出値の効果を最小化する閾値である。
このメトリックは、σおよびδをきつくしたり緩和したりすることによって空間および時間に沿った種々の動き精度標準に調整するようパラメータ化されてもよい。これは、すべてのオラクルに対して計算されるとき、比較的効果的な検出器であることが観察されている。それでも、その計算上の複雑さは、クラス毎の適用の活用を許容するには大きすぎるかもしれない。
ジェスチャー分類コンポーネント404によって、ジェスチャー分類インターフェース436を介して情報が提供されてもよい。この情報は、ユーザーによって実行されるダンス動きまたはステップの同定(図4のキャプション「どのジェスチャー?」によって表される)および該ダンス動きまたはステップの品質の評価(図4のキャプション「どのくらいうまく?」によって表される)に関係していてもよい。さらに、ジェスチャー分類インターフェース436は、ジェスチャー分類コンポーネント404からの情報を、ビデオ・ゲーム・マルチメディア・コンソール(図12参照)またはジェスチャー分類システム400をホストするコンピュータ・システム(図13参照)に転送するために使用されてもよい。
図5は、本願の技術に基づく動き認識の例示的な方法500を示すプロセス流れ図である。方法500は、ターゲット認識、解析および追跡システム100のためのコンピューティング環境12の、捕捉装置110のプロセッサ134、CPU 1202(図12)または処理ユニット1376(図13)のような一つまたは複数のプロセッサ上で実行されるソフトウェアによって実行されてもよい。
ブロック502では、固定したカメラ・ベースの3D座標基準系に関して三次元空間内での人体を表す骨格モデル・データの諸フレームが捕捉装置110から受領される。任意的に、骨格動きデータの諸セットにおける骨のサイズが規格化されてもよい。特に、異なるユーザーは異なるサイズであってもよく、四肢や胴体が異なるサイズであってもよい。
本願の技術によれば、図2に示される各骨格点は、ユーザーがダンス動きを実行するにつれてユーザー・データを受け取る独自の入力バッファを有していてもよい。図2に示される各骨格点について同時に得られたユーザー・データの単一のフレームまたはインスタンスが、本稿では、ユーザー・データ動き特徴と称されることがある。得られたユーザー・データ動き特徴に基づいて、熟達者によって実行されるダンス動きのような多様なジェスチャーに対応するプロトタイプ動き特徴データの組を記憶しているジェスチャー・データベースを参照して、ユーザーのパフォーマンスを評価してもよい。データベースは、プロトタイプ動き特徴データベースと称されてもよい。
ブロック504に示されるように、各ユーザー・データ動き特徴について、プロトタイプ動き特徴データベース内のプロトタイプ動き特徴の前記組に対して、相互相関動作が実行されてもよい。相互相関動作の実行において、諸特徴または図2に示される骨格データ点のそれぞれを使って、相互相関ベクトルが形成されてもよい。巡回相互相関動作が、ユーザーがゲームをプレイする際に収集されるユーザー・データの位相を、ゲーム内のデータベースに記憶されているプロトタイプ・データと整列させるはたらきをしてもよい。たとえば、ユーザー・データのフレームは、入力データおよび熟達者プロトタイプ・データを使ってトレーニングを実行することによって得られる平均データと相互相関を取られてもよい。巡回相互相関動作はFFTを使って実行されてもよい。
ある実施形態では、巡回相互相関は、規格化された巡回相互相関動作を含んでいてもよい。規格化された巡回相互相関は、ユーザー・データおよびプロトタイプ・データに関して背景ノイズが異なることがありうるといった因子を考慮に入れる。さらに、相互相関は、規格化された巡回相互相関であってもよい。相互相関動作は、動き認識モデルが、プロトタイプ動き特徴データベース内の、所与のユーザー・データ動き特徴に対応する特定のプロトタイプ動き特徴を同定する能力を高めうる。
図2に示される各骨格点についての入力バッファからのデータが、プロトタイプ動き特徴データベース内の各プロトタイプ動き特徴について個々に評価されてもよい。さらに、プロトタイプ動き特徴のそれぞれについて、個々に、入力バッファ・データの整列のための最も近い(closest)オフセットが見出されてもよい。
図5に示される例示的な実施形態のブロック506では、前記一組のプロトタイプ動き特徴のそれぞれが入力骨格動きデータについてのマッチである確率または確からしさが、相互相関に基づいて決定される。入力骨格動きデータに最もよく似ている諸プロトタイプ動き特徴が、高めのマッチング可能性をもつものと判定される。このように決定された確率または確からしさは、どれが入力骨格動きデータにマッチする可能性が最も高いかに基づいて前記一組のプロトタイプ動き特徴をランク付けするために使われる。ある例示的な実施形態では、ブロック506は、プロトタイプ動き特徴データベースから最良のマッチを選択する縦続式のプロセスにおける第一段階を表す。
前記確率は、所与のユーザー・データ動き特徴がプロトタイプ動き特徴データベース内の各プロトタイプ動き特徴に実際に対応する、対数スケールでの確率を表す対数確率を含んでいてもよい。純粋な確率の代わりに対数確率を使うには二つの理由がある。i)確率の[0,1]区間を[−∞,0]にスケーリングし直すことで、分類のためにより適正になる、そしてii)諸特徴が素朴なベイジアン・ネットワークをなすと想定して、個々の各特徴の影響を分離する。
対数確率は、各動きクラスについて別個に合計され、報告されてもよい。本稿で説明するように、動きクラスは、プロトタイプ動き特徴データベース内の各サンプルによって表される。動きクラスは、結果として得られるスコアに基づいてソートされてもよい。
ブロック508では、プロトタイプ動き特徴のランク付けを使って分類動作が実行される。この分類動作は、最良のマッチを選択する縦続式のプロセスにおける第二段階と考えてもよい。ある例示的な実施形態では、分類動作は、入力骨格動きデータにマッチする可能性が最も高い二つの(可能性としては三つの)プロトタイプ動き特徴に対して実行されてもよい。分類プロセスを実行するには数多くの技法が利用できる。たとえば、ジェスチャー・クラスの諸ペアの間で分離するために、ロジスティック回帰が適用されてもよい。特に、ロジスティック回帰は、いくつかの点で同様であるがより微妙な点で異なっている候補プロトタイプ動き特徴の間で区別をするために使用されてもよい。ロジスティック回帰に加えて、候補プロトタイプ動き特徴の間の区別をするために、入力データに基づく他の型の二項分類が適用されてもよい。代替的な二項分類戦略の例は、中でも線形判別解析およびSVM解析を含む。
ユーザーによって実行されるジェスチャーは、この解析において最高のスコアをもつプロトタイプ動き特徴とのマッチであると考えられてもよい。さらに、検出されたジェスチャー(すなわち、プロトタイプ動き特徴のいずれかにマッチする最高の可能性をもつと同定されたジェスチャー)は、プロトタイプ動き特徴によって表される特定のダンス・ステップまたはその一部に対応してもよい。
所与のユーザー・データ動き特徴に最もよく似ているプロトタイプ動き特徴が選択されたのち、ユーザーによって実行されている対応するダンス・スタイルが同定されてもよい。たとえば、検出されたユーザー・データは、プロトタイプ動き特徴データベースにおいて、ワルツ、ルンバまたはフォックストロットなど特定のダンス・スタイルからものもとしてタグ付けされていてもよい。検出されたダンス・スタイルは、ゲーム・コンテキストの一部としてユーザーに対して呈示されてもよい。
本稿で説明するように、ユーザー・データは、たとえばダンス動きのようなジェスチャーを認識するジェスチャー認識エンジンにおいて実装されている動き認識モデルをトレーニングするために使われてもよい。トレーニング・フェーズでは、比較的多数のユーザーからのユーザー・データが、プロトタイプとの関連で使用されてもよい。それにより、該モデルは、ユーザー・データがそのプロトタイプに等しい動きを表すときに正確に同定する基礎を与えられる。該モデルをトレーニングする目的は、該モデルを、試験中のユーザー入力データと記憶されている「理想的な」またはプロトタイプ・データとの間の相関を認識することにおいてより効果的にすることである。典型的または平均的なプレーヤーについての平均データ・プロファイルが発展されてもよく、そのデータ・プロファイルがその後、効果的な仕方でプレーヤーのダンス動きを分類するために使用されてもよい。所与のユーザー入力がプロトタイプ・データベース内のプロトタイプ動きクラスに対応する可能性を決定するために統計モデルが発展されてもよい。トレーニング・フェーズ後、モデルは、ダンス動きまたはステップのような動き型を認識することにおけるその成功を判定するために試験されてもよい。図6は、モデルのトレーニング・フェーズを表している。
図6は、本願の技術に基づくダンス・ステップ認識を実行するための動き認識モデルのトレーニングを示すブロック図600である。ブロック図600の左のパネル600aでは、単一クラスの動きがトレーニングの目的のために評価されている。ブロック図600の右のパネル600bでは、複数のクラス動きが評価されている。
クラス動きを表すデータは、動き特徴データに基づいてさまざまなダンス・ステップまたは動きを認識するためのモデルをトレーニングするために使われる。該データは、図2に示される各点について得られたデータのフレームを含んでいてもよい。左のパネル600aでは、例示的なクラス動き602が示されている。特定のダンス動きまたはステップを表すこのクラス動きは、プロトタイプ動き特徴のデータベースから得られる特徴データ604を含んでいてもよい。プロトタイプ606は、プロトタイプ動き特徴データの例として示されている。該プロトタイプ動き特徴についてのデータは、上記ダンス動きまたはステップの熟達者による実演から捕捉されてもよい。
特徴の分布608が、図6に示されるようなクラス動きを実行するデータのいくつかのインスタンスを使って当該システムをトレーニングすることによって得られる。確からしさスコア610が特徴の各分布608について決定されてもよい。確からしさスコアは、その特徴が所与のプロトタイプについてのマッチである可能性を表す。
右のパネル600bでは、ジェスチャーを認識するモデルをトレーニングするために、複数のクラス動き612が使われる。複数のクラス動き612が評価される。各クラス動き612は、プロトタイプ動き特徴が利用可能な異なるダンス動きまたはステップに対応してもよい。各クラス動きについて、別個の確からしさスコア614が生成される。本願の技術によれば、確からしさスコア614は、左のパネル600aに示されるように決定されてもよい。それらの確からしさスコア614に対して二項(binary)ロジック回帰616が実行されて、ロジスティック回帰係数618を生成してもよい。本稿で説明するように、ロジスティック回帰は、二つのプロトタイプ動き特徴の比較的近いマッチのうちから選択を行うために実行されてもよい。
モデルがトレーニングされたのち、確率の形の相関データが、各プロトタイプ動き特徴について、たとえばルックアップ・テーブル中に記憶されてもよい。記憶された相関データは、動き認識試験および実際の検出の際に使用されうる。ルックアップ・テーブル・データは、所与のプロトタイプ動き特徴について骨格データの各点についての相関データを含んでいてもよい。加えて、のちの使用のために、ルックアップ・テーブルには相対的なエネルギー・データも記憶されてもよい。
図7は、本願の技術に基づく、複数クラス動きについてのトレーニング・フェーズを示すブロック図700である。上のパネル702はクラス動きiについてのモデルのトレーニングを示しており、下のパネル704はクラス動きjについての前記モデルのトレーニングを示している。
上のパネル702においてクラス動きiについてのモデルをトレーニングする際、複数のトレーニング・サンプル706が受領される。規格化された巡回相互相関(normalized, circular cross-correlation)動作(図7では略語NCXCで表されている)がトレーニング・サンプル706と、たとえばプロトタイプ動き特徴データベースに記憶されている複数のプロトタイプ動き特徴708との間で実行される。上のパネル702に表される例では、規格化された巡回相互相関動作は、二つのプロトタイプ動き特徴708を使って実行される。後述するように、本願の技術は、プロトタイプ動き特徴708のどちらがトレーニング・サンプル706に最もよく似ているかを同定するために用いられてもよい。ある実施形態では、ダンス・ステップを同定し、スコア付けすることにおいて支援するために、相対的なエネルギーが使用されてもよい。ユーザー・データおよびプロトタイプ・データについて、所与の時間期間にわたる平均エネルギーが決定されてもよい。
トレーニング・サンプル706a、706b、706cとプロトタイプ動き特徴i 708aとの間の規格化された巡回相互相関動作の結果は、複数の相関および相対エネルギー・データ・セット710a、710b、710cであり、そのそれぞれがトレーニング・サンプル706a、706b、706cの一つに対応する。相関および相対エネルギー・データ・セット710a、710b、710cについての特徴の分布がグラフ712aによって表される。
トレーニング・サンプル706a、706b、706cとプロトタイプ動き特徴j 708bとの間の規格化された巡回相互相関動作の結果は、複数の相関および相対エネルギー・データ710d、710e、710fであり、そのそれぞれがトレーニング・サンプル706a、706b、706cの一つに対応する。相関および相対エネルギー・データ・セット710d、710e、710fについての特徴の分布がグラフ712bによって表される。
相関および相対エネルギー・データ・セット710a、710b、710cは、対応するトレーニング・サンプル706a、706b、706cのどれがプロトタイプ動き特徴i 708aに最も近く相関しているかを判定するために評価されてもよい。相関の最大確率が、ユーザー・データとプロトタイプ・データとの間の相対エネルギーとともに、判別されてもよい。最大確率についての時間オフセットも判別されてもよい。これは、ユーザーのパフォーマンスのさらなる動き解析のために有用であることがある。相関および相対エネルギー・データ・セット710a、710b、710cについての最大確率は、最大指示714a、714b、714cとして表される。最大指示714a、714b、714cは、対応する確からしさスコア716a、716b、716cを決定するために使用されてもよい。確からしさスコアは、ユーザー・データが、プロトタイプ動き特徴データベースに記憶されているあるプロトタイプ動き特徴を実行することを意図している確率を表す。
相関および相対エネルギー・データ・セット710d、710e、710fは、対応するトレーニング・サンプル706a、706b、706cのどれがプロトタイプ動き特徴j 708bに最も近く相関しているかを判定するために評価されてもよい。相関の最大確率が、ユーザー・データとプロトタイプ・データとの間の相対エネルギーとともに、判別されてもよい。相関および相対エネルギー・データ・セット710d、710e、710fについての最大確率は、最大指示714d、714e、714fとして表される。最大指示714d、714e、714fは、対応する確からしさスコア716d、716e、716fを決定するために使用されてもよい。
下のパネル704においてクラス動きjについてモデルをトレーニングする際、複数のトレーニング・サンプル718が受領される。トレーニング・サンプル718とたとえばプロトタイプ動き特徴データベースに記憶されている複数のプロトタイプ動き特徴720との間で、規格化された巡回相互相関動作が実行される。下のパネル704に表されている例では、規格化された巡回相互相関動作は、二つのプロトタイプ動き特徴720を使って実行される。後述するように、本願の技術は、プロトタイプ動き特徴720のいずれがトレーニング・サンプル718に最もよく似ているかを同定するために用いられてもよい。
トレーニング・サンプル718a、718b、718cとプロトタイプ動き特徴j 720aとの間の規格化された巡回相互相関動作の結果は、複数の相関および相対エネルギー・データ・セット722a、722b、722cであり、そのそれぞれはトレーニング・サンプル718a、718b、718cのうちの一つに対応する。相関および相対エネルギー・データ・セット722a、722b、722cについての特徴の分布はグラフ724aによって表される。
トレーニング・サンプル718a、718b、718cとプロトタイプ動き特徴i 720bとの間の規格化された巡回相互相関動作の結果は、複数の相関および相対エネルギー・データ・セット722d、722e、722fであり、そのそれぞれはトレーニング・サンプル718a、718b、718cのうちの一つに対応する。相関および相対エネルギー・データ・セット722d、722e、722fについての特徴の分布はグラフ724bによって表される。
相関および相対エネルギー・データ・セット722a、722b、722cは、対応するトレーニング・サンプル718a、718b、718cのどれがプロトタイプ動き特徴j 720aに最も近く相関しているかを判定するために評価されてもよい。図7では、相関および相対エネルギー・データ・セット722a、722b、722cの最大確率は、最大指示726a、726b、726cとして表されている。最大指示726a、726b、726cは、対応する確からしさスコア728a、728b、728cを決定するために使用されてもよい。
相関および相対エネルギー・データ・セット722d、722e、722fは、対応するトレーニング・サンプル718a、718b、718cのどれがプロトタイプ動き特徴i 720bに最も近く相関しているかを判定するために評価されてもよい。相関および相対エネルギー・データ・セット722d、722e、722fの最大確率は、最大指示726d、726e、726fとして表されている。最大指示726d、726e、726fは、対応する確からしさスコア728d、728e、728fを決定するために使用されてもよい。
確からしさスコア716a〜f、728a〜fを使って、二項ロジスティック回帰動作730が実行されてもよい。二項ロジスティック回帰動作730は、ロジスティック回帰係数732を与えてもよく、それは同様の確からしさスコアをもつプロトタイプ動き特徴の間でマッチを選択するために使われてもよい。
図8は、動き認識を実行する前にユーザー・データを記憶されているプロトタイプ・データと整列させるために使われてもよい位相シフト・プロセスを示すブロック図800である。クラス動きのトレーニング・サンプル802はトレーニング・フェーズの一環として与えられる。規格化された巡回相互相関(図8では略語NCXCで表される)を含んでいてもよい相互相関動作804が実行される。規格化された巡回相互相関動作804は、熟達者データを含んでいてもよいプロトタイプ・サンプル806を用いる。主としてトレーニング・サンプル802とプロトタイプ・サンプル806との間の位相シフトに対処するために、整列動作808が実行される。整列動作808の結果は、トレーニング・サンプル802によって表されるクラス動きのトレーニングされたプロトタイプ810である。
図9は、本願の技術に基づく、モデルがダンス・ステップを認識する能力の試験を示している。ジェスチャー認識モデルのトレーニング後、該モデルは実際の入力データを分類するために使用されてもよい。モデルを試験するときには、モデルが正しい結果を生成するかどうかを検証するために、既知の入力データが使用されてもよい。
最初、サンプル動き902がモデルに与えられる。サンプル動き902は、捕捉装置110から得られたユーザー・データ動き特徴を含んでいてもよい。サンプル動き902は図9では複数のプロトタイプ904として表されている。これらは対応する特徴906を有する。特徴の分布908が、各特徴906について与えられる。確からしさスコア910は、特徴の分布908のそれぞれについて与えられる。ブロック912で示されるように、プロトタイプ動き特徴に関して最大確率が計算される。本稿で説明するように、最大確率は、確からしさスコア910に基づいて決定されてもよい。
図9に示される例示的な実施形態では、「勝ち残る」(すなわちもっともよく相関している)ダンス・ステップまたは動きが選択される前に、最高の確率をもつ諸プロトタイプを含む部分集合がさらに評価されてもよい。プロトタイプの部分集合914は、プロトタイプ動き特徴データベースにおいてサンプル動き902を最もよく表すサンプル・クラス918を選ぶために、ロジスティック回帰916にかけられてもよい。
図10は、本願の技術に基づく、動きのサブシーケンスを分類するためのモデルの使用を示すブロック図1000である。本願の技術によれば、あるクラスの計算されたプロトタイプの一部とのサブシーケンス・マッチを認識するために、動き認識モデルが使用されてもよい。
複数のトレーニング・サンプル部分1002が受領される。図10に示されるように、トレーニング・サンプル部分1002は動きクラスiの一部を表す。複数のトレーニング・サンプル部分1004も受領される。トレーニング・サンプル部分1004は否定クラスを表す:動きクラスi以外の動きクラスを実行するデータである。トレーニング・サンプル部分1002、1004を使って、プロトタイプ動きクラスi 1006に対して相互相関動作が実行される。相互相関動作は、トレーニング・サンプル部分1002a、1002b、1002cに対応する複数の相関および相対エネルギー・データ・セット1008a、1008b、1008cを生成する。さらに、トレーニング・サンプル部分1004a、1004b、1004cに対応する複数の相関および相対エネルギー・データ・セット1010a、1010b、1010cも生成される。
相関および相対エネルギー・データ・セット1008a〜cおよび1010a〜cは、特徴の分布を生成するために使用されてもよい。図10では、特徴の分布はグラフ1012によって表されている。相関および相対エネルギー・データ・セット1008a、1008b、1008cは、対応するトレーニング・サンプル部分1002a、1002b、1002cのどれがプロトタイプ動き特徴iのサブシーケンスに最も近く相関しているかを判定するために評価されてもよい。相関および相対エネルギー・データ・セット1008a、1008b、1008cの最大確率は、最大指示1014a、1014b、1014cとして表されている。最大指示1014a、1014b、1014cは、対応する確からしさスコア1016a、1016b、1016cを決定するために使用されてもよい。
本願のシステムの一つの目標は、コンピューティング環境12上で走っているアプリケーションによって再生される音楽に合わせて踊るときのユーザーのダンス動きのような動きを同定することである。本願のシステムは、ダンス動きのような動きは典型的には反復的であるという事実を利用する。音楽の各拍において基本的な動きがあり、それら基本的な動きの組み合わせが複数拍動きをなし、それもまた反復する。このように、ユーザーは、音楽の一拍当たりまたは複数拍の組当たり一回、所与の動きを反復することがある。音楽が速くなると、ユーザーもより速く動く傾向がある。音楽がゆっくりになると、ユーザーもよりゆっくり動く傾向がある。その結果、ユーザーが行う傾向のある動きは、拍毎に、または所定数の拍毎に繰り返される。よって、本願のシステムは、時間に基づくのではなく音楽の拍子(または他の周期的な測定単位)に基づくある期間にわたる反復性の動きを解析する。
特に、本システムにおいて実行されているソフトウェアは、骨格動きデータのフレーム数を測定の周期的単位に規格化し、規格化された骨格動きデータ・セットを提供してもよい。測定の周期的単位の例は、音楽におけるあらかじめ定義された拍数である。フレーム数を音楽の拍または他の何らかの周期的な測定単位に規格化することによって、本願のシステムは、反復的なユーザー動きを、時間とは独立な、固定した周期に規格化することができる。より速い拍子をもつ音楽については、ユーザーが一サイクルの動きを完了する期間内のフレーム数も速くなるであろう。より遅い拍子をもつ音楽については、ユーザーが一サイクルの動きを完了する期間内のフレーム数も遅くなるであろう。しかしながら、周期自身は、時間とは独立である。
音楽の拍子および作品中で該拍子がどのように変わるかは、一般にはあらかじめ決まっているが、音楽ソフトウェアを使って検出することもできる。時間ではなく拍を基準として使うことによって、ジェスチャーが行われる速さとは独立に、ジェスチャーが認識されることができる。フレーム数を拍または他の期間に対して規格化することは、反復的な固定期間内の反復的な動きを識別することを容易にすることによって、リアルタイムのジェスチャー認識において計算を簡略化する。この情報は、たとえば、ダンス動きのようなジェスチャーまたは特定の動きを識別するために使われてもよい。
対応するジェスチャーを実行する際にユーザーによって示された技量のレベルを評価するためにさらなる解析が実行されてもよい。たとえば、ユーザー・データ動き特徴とプロトタイプ動き特徴データベースからのプロトタイプ動き特徴データとの間の相関または類似性の度合いが、ゲーム・コンテキストにおけるユーザーのパフォーマンスにスコア付けする基礎として使われてもよい。換言すれば、ユーザーは、プロトタイプ動き特徴データベースにおいて表されている動きまたはジェスチャーをよりよく近似することに対して、より高いゲーム・スコアを授与されてもよい。
図11は、本願の技術に基づく、ジェスチャー認識エンジン実施形態のブロック図1100である。ジェスチャー認識エンジン1102はユーザー入力動き特徴1104の形のユーザー入力データを処理する。さらに、ジェスチャー認識エンジンは、図4に示されるジェスチャー分類システム400のようなジェスチャー分類システムを有していてもよい。
ある実施形態では、ジェスチャー認識エンジン1102によってアクセス可能なプロトタイプ動き特徴データベースまたはライブラリ1106が、ユーザーの動きの相関を調べることのできる対象となる、ダンス種別、ステップなどのような動きクラスを表すプロトタイプ動き特徴1108のカタログを記憶している。記憶されたプロトタイプ動き特徴は、図2に示される骨格データ点のうちの複数について、位置、場所などを定義してもよい。プロトタイプ動き特徴1108は、プロのダンサーによって実行される動き特徴を捕捉することなどにより、熟達者データを使って生成されてもよい。ジェスチャー認識エンジン1102の例示的な実施形態は、たとえば、隠れマルコフ・モデルおよびロジスティック回帰を使ってもよい。
図12は、ターゲット認識、解析および追跡システムにおいて一つまたは複数のジェスチャーを解釈するために使用されてもよいコンピューティング環境の例示的な実施形態を示している。図1A〜1Cに関して上記したコンピューティング環境12のようなコンピューティング環境は、ゲーム・コンソールのようなマルチメディア・コンソール1200であってもよい。図12に示されるように、マルチメディア・コンソール1200は、レベル1キャッシュ1204、レベル2キャッシュ1206およびフラッシュROM 1208を含んでいてもよいコンピュータ可読記憶媒体を有する中央処理ユニット(CPU)1202を有する。レベル1キャッシュ1204およびレベル2キャッシュ1206は一時的にデータを記憶し、よってメモリ・アクセス・サイクルの数を減らし、それにより処理スピードおよびスループットを改善する。二つ以上のコアを、よって追加的なレベル1およびレベル2キャッシュ1204および1206を有するCPU 1202が提供されてもよい。フラッシュROM 1208は、マルチメディア・コンソール1200の電源がオンにされるときのブート・プロセスの初期フェーズの間にロードされる実行可能なコードを記憶していてもよい。
グラフィック処理ユニット(GPU)1210およびビデオ・エンコーダ/ビデオ・コーデック(コーダ/デコーダ)1216は、高速かつ高解像度のグラフィック処理のためのビデオ処理パイプラインをなす。データはGPU 1210からビデオ・エンコーダ/ビデオ・コーデック1216にバスを介して運ばれる。ビデオ処理パイプラインは、テレビジョンまたは他のディスプレイへの伝送のため、データをA/V(オーディオ/ビデオ)ポート1238に出力する。これに限られないがRAMのようなさまざまな型のメモリ1214へのプロセッサ・アクセスを容易にするよう、メモリ・コントローラ1212がGPU 1210に接続される。
マルチメディア・コンソール1200は、I/Oコントローラ1218、システム管理コントローラ1220、オーディオ処理ユニット1222、ネットワーク・インターフェース・コントローラ1224、第一のUSBホスト・コントローラ1226、第二のUSBホスト・コントローラ1228およびモジュール上に実装されていてもよいフロント・パネルI/Oサブアセンブリー1230を含む。USBコントローラ1226および1228は、周辺コントローラ1240(1)〜1240(2)、無線アダプター1244および外部メモリ・デバイス1242(たとえば、フラッシュ・メモリ、外部CD/DVD ROMドライブ、リムーバブル・メディアなど)のためのホストとしてはたらく。ネットワーク・インターフェース1224および/または無線アダプター1244はネットワーク(インターネット、家庭ネットワークなど)へのアクセスを提供し、イーサネット(登録商標)・カード、モデム、ブルートゥース・モジュール、ケーブル・モデムなどを含む、幅広い多様なさまざまな有線または無線のアダプター・コンポーネントのうちの任意のものであってもよい。
システム・メモリ1236は、ブート・プロセスの間にロードされるアプリケーション・データを記憶するために設けられる。メディア・ドライブ144が設けられ、DVD/CDドライブ、ハードドライブまたは他のリムーバブル・メディア・ドライブなどを含んでいてもよい。メディア・ドライブ144はマルチメディア・コンソール1200の内部でも外部でもよい。アプリケーション・データは、マルチメディア・コンソール1200による実行、再生などのために、メディア・ドライブ144を介してアクセスされてもよい。メディア・ドライブ144は、シリアルATAバスまたは他の高速接続(たとえばIEEE1394)のようなバスを介してI/Oコントローラ1218に接続される。
システム管理コントローラ1220は、マルチメディア・コンソール1200の可用性を保証することに関係した多様なサービス機能を提供する。オーディオ処理ユニット1222およびオーディオ・コーデック132は、高忠実度およびステレオ処理をもつ対応するオーディオ処理パイプラインをなす。オーディオ・データは、オーディオ処理ユニット1222とオーディオ・コーデック132との間で通信リンクを介して搬送される。オーディオ処理パイプラインは、オーディオ機能をもつ外部オーディオ・プレーヤーまたは装置による再生のために、A/Vポート1238にデータを出力する。
フロント・パネルI/Oサブアセンブリー1230は電源ボタン1246およびイジェクト・ボタン1248ならびにもしあればマルチメディア・コンソール1200の外側表面上に露出しているLED(発光ダイオード)または他のインジケーターの機能をサポートする。ファン1234がマルチメディア・コンソール1200内の回路を冷却する。
CPU 1202、GPU 1210、メモリ・コントローラ1212およびマルチメディア・コンソール1200内のさまざまな他のコンポーネントは一つまたは複数のバスを介して相互接続されている。該バスは、多様なバス・アーキテクチャのうち任意のものを使う、シリアルおよびパラレル・バス、メモリ・バス、周辺バスおよびプロセッサまたはローカル・バスを含む。例として、そのようなアーキテクチャは、周辺コンポーネント相互接続(PCI: Peripheral Component Interconnects)バス、PCIエクスプレス(PCI-Express)バスなどを含むことができる。
マルチメディア・コンソール1200の電源がオンにされるとき、アプリケーション・データがシステム・メモリ1236からメモリ1214および/またはキャッシュ1204、1206にロードされ、CPU 1202上で実行されてもよい。アプリケーションは、マルチメディア・コンソール1200上で利用可能な種々のメディア種別にナビゲートするときに一貫したユーザー経験を提供するグラフィカル・ユーザー・インターフェースを呈示してもよい。動作では、メディア・ドライブ144内に含まれるアプリケーションおよび/または他のメディアがメディア・ドライブ144から起動または再生されてもよく、それによりマルチメディア・コンソール1200に追加的な機能が提供される。
マルチメディア・コンソール1200は、単に該システムをテレビジョンまたは他のディスプレイに接続することによって、スタンドアローンのシステムとして動作されてもよい。このスタンドアローン・モードでは、マルチメディア・コンソール1200は一つまたは複数のユーザーがシステムと対話する、映画を見る、または音楽を聴くことを許容する。しかしながら、ブロードバンド接続性の統合がネットワーク・インターフェース1224または無線アダプター1244を通じて利用可能にされると、マルチメディア・コンソール1200はさらに、より大きなネットワーク・コミュニティーにおける一員として動作させられてもよい。
マルチメディア・コンソール1200の電源がオンにされるとき、設定された量のハードウェア資源が、マルチメディア・コンソール・オペレーティング・システムによるシステム使用のために予約される。これらの資源はメモリ(たとえば16MB)、CPUおよびGPUサイクル(たとえば5%)、ネットワーク帯域幅(たとえば8kbs)などの予約を含んでいてもよい。これらの資源はシステム・ブート時に予約されるので、予約された資源は、アプリケーションの観点からは、存在しない。
具体的には、メモリ予約は、立ち上げカーネル、同時並行システム・アプリケーションおよびドライバを含むのに十分大きいことが望ましい。CPU予約は一定であることが望ましく、そのため、予約されたCPU使用がシステム・アプリケーションによって使用されない場合、何らかの不使用サイクルがあればそれをアイドル・スレッドが使用する。
GPU予約に関しては、システム・アプリケーションによって生成される軽いメッセージ(たとえばポップアップ)が、ポップアップをオーバーレイ中にレンダリングするコードをスケジューリングするためにGPU割り込みを使うことによって表示される。オーバーレイのために必要とされるメモリ量は、オーバーレイ領域サイズに依存し、オーバーレイは画面解像度とともにスケーリングしてもよい。フル・ユーザー・インターフェースが同時並行システム・アプリケーションによって使用されるときは、アプリケーション解像度とは独立な解像度を使うことが望ましいことがある。この解像度を設定するためにスカラーが使用されてもよく、周波数を変え、テレビに再同期させる必要がなくなる。
マルチメディア・コンソール1200がブートし、システム資源が予約されたのち、同時並行システム・アプリケーションが、システム機能を提供するよう実行される。システム機能は、上記の予約されたシステム資源内で実行される一組のシステム・アプリケーションにおいてカプセル化される。オペレーティング・システム・カーネルが、ゲーム・アプリケーション・スレッドではなくシステム・アプリケーション・スレッドであるスレッドを同定する。システム・アプリケーションは、アプリケーションに対して一貫したシステム資源ビューを与えるために、あらかじめ決められた時間および間隔でCPU 1202上で走るようスケジューリングされてもよい。スケジューリングは、コンソール上で走っているゲーム・アプリケーションにとってのキャッシュ破壊を最小限にするべきである。
同時並行システム・アプリケーションがオーディオを必要とするとき、オーディオ処理は、時間敏感性のため、ゲーム・アプリケーションに対して非同期的にスケジューリングされる。システム・アプリケーションがアクティブなとき、マルチメディア・コンソール・アプリケーション・マネージャ(後述)がゲーム・アプリケーション・オーディオ・レベルを制御する(たとえばミュートする、減衰させる)。
入力装置(たとえばコントローラ1240(1)および1240(2))はゲーム・アプリケーションおよびシステム・アプリケーションによって共有される。入力装置は予約される資源ではないが、各アプリケーションが当該装置のフォーカスをもつよう、システム・アプリケーションとゲーム・アプリケーションとの間で切り換えられるものである。アプリケーション・マネージャは、ゲーム・アプリケーションの知識を知ることなく、入力ストリームの切り換えを制御してもよく、ドライバがフォーカス切り換えに関する状態情報を維持する。カメラ128、130および捕捉装置122は、コンソール1200についての追加的な入力装置を定義しうる。
図13は、ターゲット認識、解析および追跡システムにおける一つまたは複数のジェスチャーを解釈するために使われる、図1A〜図2に示されるコンピューティング環境12であってもよいコンピューティング環境1300のもう一つの例示的な実施形態を示す。コンピューティング環境1300は好適なコンピューティング環境のほんの一例であり、本願に開示される主題の使用または機能の範囲に関して何ら限定を示唆することを意図されてはいない。また、コンピューティング環境1300は、例示的なコンピューティング環境1300に示されるコンポーネントのどの一つまたは組み合わせに関係するいかなる依存性も要求ももつものと解釈すべきではない。いくつかの実施形態では、さまざまな描かれているコンピューティング要素は、本開示の個別的な側面のインスタンスをなすよう構成された回路を含んでいてもよい。たとえば、本開示において使用される回路という用語は、ファームウェアまたはスイッチによって機能(単数または複数)を実行するよう構成された特化したハードウェア・コンポーネントを含むことができる。他の例示的実施形態では、回路という用語は、機能(単数または複数)を実行するよう機能できる論理を具現するソフトウェア命令によって構成される汎用処理ユニット、メモリなどを含むことができる。回路がハードウェアおよびソフトウェアの組み合わせを含む例示的実施形態では、実装者は、論理を具現するソース・コードを書いてもよく、該ソース・コードが、汎用処理ユニットによって処理できる機械可読コードにコンパイルされることができる。当業者は、現状技術がハードウェア、ソフトウェアまたはハードウェア/ソフトウェアの組み合わせの間にほとんど相違がないという点にまで進化していることを認識することができるので、特定の機能を実現するためのハードウェアかソフトウェアかの選択は、実装者に委ねられる設計上の選択である。より具体的には、当業者は、ソフトウェア・プロセスは等価なハードウェア構造に変換でき、ハードウェア構造自身が等価なソフトウェア・プロセスに変換できることを理解できる。よって、ハードウェア実装かソフトウェア実装かの選択は設計上の選択であり、実装者に委ねられるのである。
図13では、コンピューティング環境1300は、典型的には多様なコンピュータ可読媒体を含むコンピュータ1340を有する。コンピュータ可読媒体は、コンピュータ1340によってアクセスできる任意の利用可能な媒体であることができ、揮発性および不揮発性媒体の両方、リムーバブルおよび非リムーバブル媒体を含む。システム・メモリ1302は、ROM 1304およびRAM 1380のような揮発性および/または不揮発性メモリの形のコンピュータ記憶媒体を含む。スタートアップ中などにコンピュータ1340内での諸要素の間で情報を転送するのを助ける基本的なルーチンを含む基本入出力システム1306(BIOS)が典型的にはROM 1304内に記憶されている。RAM 1380は典型的には、処理ユニット1376にとってすぐアクセス可能なおよび/または処理ユニット1376によって現在作用されているデータおよび/またはプログラム・モジュールを含む。限定ではなく例として、図13は、オペレーティング・システム1308、アプリケーション・プログラム1310、他のプログラム・モジュール1312およびプログラム・データ1314を示している。
コンピュータ1340は、他のリムーバブル/非リムーバブル、揮発性/不揮発性のコンピュータ記憶媒体をも含んでいてもよい。単に例として、図13は、非リムーバブル、不揮発性磁気媒体の読み書きをするハードディスク・ドライブ1334、リムーバブル、不揮発性磁気ディスク1366の読み書きをする磁気ディスク・ドライブ1336およびCD-ROMもしくは他の光学式媒体のようなリムーバブル、不揮発性光ディスク1364の読み書きをする光ディスク・ドライブ1338を示している。例示的な動作環境において使用できる他のリムーバブル/非リムーバブル、揮発性/不揮発性のコンピュータ記憶媒体は、これに限られないが、磁気テープ・カセット、フラッシュメモリ・カード、デジタル多用途ディスク、デジタル・ビデオ・テープ、半導体RAM、半導体ROMなどを含む。ハードディスク・ドライブ1334は典型的にはインターフェース1326のような非リムーバブル・メモリ・インターフェースを通じてシステム・バス1378に接続され、磁気ディスク・ドライブ1336および光ディスク・ドライブ1338は典型的にはインターフェース1328のようなリムーバブル・メモリ・インターフェースによってシステム・バス1378に接続される。
上記で論じ、図13に示したドライブおよび関連するコンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラム・モジュールおよびコンピュータ1340のための他のデータの記憶を提供する。図13では、たとえば、ハードディスク・ドライブ1334がオペレーティング・システム1374、アプリケーション・プログラム1372、他のプログラム・モジュール1370およびプログラム・データ1368を記憶するとして示されている。これらのコンポーネントは、オペレーティング・システム1308、アプリケーション・プログラム1310、他のプログラム・モジュール1312およびプログラム・データ1314と同じであっても、異なっていてもよいことを注意しておく。オペレーティング・システム1374、アプリケーション・プログラム1372、他のプログラム・モジュール1370およびプログラム・データ1368は、少なくとも異なるコピーであるということを示すために、ここでは異なる番号を与えられている。ユーザーは、キーボード1360および、一般にマウス、トラックボールまたはタッチパッドと称されるポインティング・デバイス1362のような入力装置を通じてコンピュータ1340にコマンドおよび情報を入力してもよい。他の入力装置(図示せず)はマイクロホン、ジョイスティック、ゲーム・パッド、衛星ディッシュ、スキャナなどを含んでいてもよい。これらおよび他の入力装置は、しばしばシステム・バスに結合されているユーザー入力インターフェース1330を通じて処理ユニット1376に接続されるが、パラレル・ポート、ゲーム・ポートまたはユニバーサル・シリアル・バス(USB)のような他のインターフェースおよびバス構造によって接続されてもよい。カメラ128、130および捕捉装置110は、コンソール1200のための追加的な入力装置を定義してもよい。モニタ1342または他の型の表示装置もビデオ・インターフェース1322のようなインターフェースを介してシステム・バス1378に接続される。モニタに加えて、コンピュータは、出力周辺インターフェース1324を通じて接続されうる、スピーカー1346およびプリンタ1344のような他の周辺出力装置をも含んでいてもよい。
コンピュータ1340は、リモート・コンピュータ1350のような一つまたは複数のリモート・コンピュータへの論理的な接続を使ってネットワーク接続された環境において動作してもよい。リモート・コンピュータ1350は、パーソナル・コンピュータ、サーバー、ルータ、ネットワークPC、ピア装置または他の一般的なネットワーク・ノードであってもよく、典型的にはコンピュータ1340に関して上記した要素の多くまたは全部を含むが、図13では、メモリ記憶デバイス1352のみが示されている。図13に描かれている論理的な接続はローカル・エリア・ネットワーク(LAN)1348および広域ネットワーク(WAN)1356を含むが、他のネットワークを含んでいてもよい。そのようなネットワーク接続環境はオフィス、企業規模のコンピュータ・ネットワーク、イントラネットおよびインターネットにおいてありふれたものである。
LANネットワーク環境で使われるとき、コンピュータ1340はネットワーク・インターフェースまたはアダプター1332を通じてLAN 1348に接続される。WANネットワーク環境において使われるとき、コンピュータ1340は典型的にはモデム1358またはインターネットのようなWAN 1356を通じた通信を確立するための他の手段を含む。内蔵であっても外付けであってもよいモデム1358は、ユーザー入力インターフェース1330または他の適切な機構を介してシステム・バス1378に接続されていてもよい。ネットワーク環境では、コンピュータ1340に関して描かれているプログラム・モジュールまたはその一部がリモート・メモリ記憶デバイスに記憶されていてもよい。限定ではなく例として、図13は、リモート・アプリケーション・プログラム1354を、メモリ・デバイス1352上にあるものとして示している。図示したネットワーク接続は例示的であって、コンピュータ間の通信リンクを確立する他の手段が使われてもよいことは理解されるであろう。
上記は主題となる革新の例を含む。もちろん、特許請求される主題を記述する目的のためにコンポーネントまたは方法論の考えられるあらゆる組み合わせを記述することは可能ではないが、当業者は、主題となる革新の多くのさらなる組み合わせおよび入れ替えが可能であることを認識しうる。よって、特許請求される主題は、付属の請求項の精神および範囲内にはいるあらゆるそのような変更、修正および変形を包含することが意図されている。
特に、上記のコンポーネント、装置、回路、システムなどによって実行されるさまざまな機能に関し、そのようなコンポーネントを記述するために使われる用語(「手段」への言及を含む)は、特に断りのない限り、記述されるコンポーネントの特定される機能を実行する、たとえ開示される構造と構造的に等価でなくても本稿で示される特許請求される主題の例示的な側面における機能を実行する、任意のコンポーネント(たとえば機能的な等価物)に対応することが意図されている。これに関し、本革新がシステムおよび特許請求される主題のさまざまな方法の工程および/またはイベントを実行するためのコンピュータ実行可能な命令を有するコンピュータ可読記憶媒体を含むことも認識されるであろう。
主題となる革新を実装する多くの方法がある。たとえば、アプリケーションおよびサービスが本稿に記載される技法を使うことを可能にする、適切なAPI、ツール・キット、ドライバ・コード、オペレーティング・システム、コントロール、スタンドアローンまたはダウンロード可能なソフトウェア・オブジェクトなどである。特許請求される主題は、API(または他のソフトウェア・オブジェクト)の観点から、および本稿に記載される技法に従って動作するソフトウェアまたはハードウェア・オブジェクトからの使用を考えている。よって、本稿に記載される主題となる革新のさまざまな実装は、完全にハードウェアである、部分的にハードウェア、部分的にソフトウェアである、またソフトウェアである諸側面を有しうる。
上述したシステムは、いくつかのコンポーネントの間の相互作用に関して記述してきた。そのようなシステムおよびコンポーネントは、それらのコンポーネントまたは指定されたサブコンポーネント、指定されたコンポーネントまたはサブコンポーネントの一部および/または追加的なコンポーネントならびに上記のさまざまな入れ替えおよび組み合わせを含むことができることは理解できる。サブコンポーネントは、親コンポーネント内に含まれる(階層的)のではなく、他のコンポーネントに通信上結合されるコンポーネントとして実装されることもできる。さらに、一つまたは複数のコンポーネントが総合的な機能を提供する単一のコンポーネントに組み合わされてもよく、あるいはいくつかの別個のサブコンポーネントに分割されてもよく、統合された機能を提供するためにそのようなサブコンポーネントに通信上結合するよう管理層のような任意の一つまたは複数の中間層が設けられてもよいことに注意しておいてもよい。本稿に記載した任意のコンポーネントは、本稿に特定的に記載されないが当業者には一般に知られている一つまたは複数の他のコンポーネントと相互作用してもよい。
さらに、主題となる革新の特定の特徴がいくつかの実装のうち一つだけとの関連で開示されていることもありうるが、そのような特徴は、任意の所与のまたは具体的な応用についての所望および利点に応じて、他の実装の一つまたは複数の他の特徴と組み合わされてもよい。さらに、用語「含む」、「もつ」、その変形および他の同様の単語が詳細な説明または請求項のいずれかにおいて使用される限りにおいて、これらの用語は、何らかの追加的なまたは他の要素を排除しない、オープンな移行語として包含的であることが意図されている。

Claims (10)

  1. ユーザーの画像データから導出される骨格モデル・データに基づく身体動きの動き認識および/または類似性解析の方法であって:
    捕捉装置からユーザー・データ動き特徴を表す骨格動きデータを受領する段階であって、該骨格動きデータはシーン内のユーザーの位置に関係する、段階と;
    受領された骨格動きデータの、プロトタイプ動き特徴データベースからの複数のプロトタイプ動き特徴に対する相互相関を決定する段階と;
    前記骨格動きデータが前記複数のプロトタイプ動き特徴のそれぞれに対応する確からしさをランク付けする段階であって、それらの確からしさは前記相互相関に基づく、段階と;
    前記複数のプロトタイプ動き特徴の部分集合に対して、分類動作を実行する段階であって、前記複数のプロトタイプ動き特徴の前記部分集合は、前記骨格動きデータに対応する相対的に最高の確からしさをもつ、段階とを含む、
    方法。
  2. 前記骨格動きデータが、一組の一次関節および一組の二次関節についての角度の対によって表現される角度ワイヤフレーム・データを含む、請求項1記載の方法。
  3. 前記角度の対がテート・ブライアン角として表現される、請求項2記載の方法。
  4. 前記骨格動きデータが、前記捕捉装置の座標系に対する胴体系の回転行列を含む、請求項1記載の方法。
  5. 前記複数のプロトタイプ動き特徴を表すデータを、該複数のプロトタイプ動き特徴のそれぞれについての複数のトレーニング・サンプルに基づいて修正するトレーニング動作を実行する段階をさらに含む、請求項1記載の方法。
  6. 前記骨格動きデータが前記複数のプロトタイプ動き特徴に対応する確からしさを得るモデルの能力を評価する試験動作を実行する段階をさらに含む、請求項1記載の方法。
  7. ユーザーの画像データから導出される骨格モデル・データに基づく身体動きの動き認識および/または類似性解析を実行するシステムであって:
    処理ユニット;および
    システム・メモリを有しており、前記システム・メモリは前記処理ユニットに:
    捕捉装置からユーザー・データ動き特徴を表す骨格動きデータを受領する段階と;
    受領された骨格動きデータの、プロトタイプ動き特徴データベースからの複数のプロトタイプ動き特徴に対する相互相関を決定する段階と;
    前記骨格動きデータが前記複数のプロトタイプ動き特徴のそれぞれに対応する確からしさをランク付けする段階であって、それらの確からしさは前記相互相関に基づく、段階と;
    前記複数のプロトタイプ動き特徴の部分集合に対して、分類動作を実行する段階であって、前記複数のプロトタイプ動き特徴の前記部分集合は、前記骨格動きデータに対応する相対的に最高の確からしさをもつ、段階とを実行させるよう構成されたコードを含む、
    システム。
  8. 前記処理ユニットに、前記複数のプロトタイプ動き特徴を表すデータを、該複数のプロトタイプ動き特徴のそれぞれについての複数のトレーニング・サンプルに基づいて修正するトレーニング動作を実行させるよう構成されたコードを含む、請求項7記載のシステム。
  9. 前記処理ユニットに、前記骨格動きデータが前記複数のプロトタイプ動き特徴に対応する確からしさを得るモデルの能力を評価する試験動作を実行させるコードを含む、請求項7記載のシステム。
  10. 一つまたは複数のコンピュータ可読記憶媒体であって、処理ユニットに:
    捕捉装置からユーザー・データ動き特徴を表す骨格動きデータを受領する段階と;
    受領された骨格動きデータの、プロトタイプ動き特徴データベースからの複数のプロトタイプ動き特徴に対する相互相関を決定する段階と;
    前記骨格動きデータが前記複数のプロトタイプ動き特徴のそれぞれに対応する確からしさをランク付けする段階であって、それらの確からしさは前記相互相関に基づく、段階と;
    前記複数のプロトタイプ動き特徴の部分集合に対して、分類動作を実行する段階であって、前記複数のプロトタイプ動き特徴の前記部分集合は、前記骨格動きデータに対応する相対的に最高の確からしさをもつ、段階とを実行させるよう構成されたコードを含む、
    コンピュータ可読記憶媒体。
JP2013554491A 2011-02-18 2012-02-12 動き認識 Active JP5902204B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/030,154 US8761437B2 (en) 2011-02-18 2011-02-18 Motion recognition
US13/030,154 2011-02-18
PCT/US2012/024787 WO2012112402A2 (en) 2011-02-18 2012-02-12 Motion recognition

Publications (3)

Publication Number Publication Date
JP2014509011A true JP2014509011A (ja) 2014-04-10
JP2014509011A5 JP2014509011A5 (ja) 2015-03-05
JP5902204B2 JP5902204B2 (ja) 2016-04-13

Family

ID=46653200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013554491A Active JP5902204B2 (ja) 2011-02-18 2012-02-12 動き認識

Country Status (6)

Country Link
US (1) US8761437B2 (ja)
EP (1) EP2676242A4 (ja)
JP (1) JP5902204B2 (ja)
KR (1) KR101882042B1 (ja)
CN (1) CN102693413B (ja)
WO (1) WO2012112402A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180001440A (ko) * 2016-06-25 2018-01-04 김정태 고 처리량의 사진 직송을 위한 터치프리 포토 부스 장치
US11281896B2 (en) 2018-11-15 2022-03-22 Smith & Nephew, Inc. Physical activity quantification and monitoring
US11776134B2 (en) 2017-12-14 2023-10-03 Fujitsu Limited Non-transitory computer readable recording medium, element recognition method, and element recognition system

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8617008B2 (en) 2001-09-12 2013-12-31 Pillar Vision, Inc. Training devices for trajectory-based sports
US8409024B2 (en) 2001-09-12 2013-04-02 Pillar Vision, Inc. Trajectory detection and feedback system for golf
US8837721B2 (en) * 2007-03-22 2014-09-16 Microsoft Corporation Optical DNA based on non-deterministic errors
US8408982B2 (en) * 2007-05-24 2013-04-02 Pillar Vision, Inc. Method and apparatus for video game simulations using motion capture
US9135948B2 (en) * 2009-07-03 2015-09-15 Microsoft Technology Licensing, Llc Optical medium with added descriptor to reduce counterfeiting
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
CN103827891B (zh) * 2011-07-28 2018-01-09 Arb实验室公司 使用全球生成的多维姿势数据检测身体运动的系统和方法
GB2495551B (en) * 2011-10-14 2014-04-09 Sony Comp Entertainment Europe Motion scoring method and apparatus
JP2013101526A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US8989521B1 (en) * 2011-11-23 2015-03-24 Google Inc. Determination of dance steps based on media content
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9254099B2 (en) 2013-05-23 2016-02-09 Medibotics Llc Smart watch and food-imaging member for monitoring food consumption
US9042596B2 (en) 2012-06-14 2015-05-26 Medibotics Llc Willpower watch (TM)—a wearable food consumption monitor
US9536449B2 (en) 2013-05-23 2017-01-03 Medibotics Llc Smart watch and food utensil for monitoring food consumption
US10314492B2 (en) 2013-05-23 2019-06-11 Medibotics Llc Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
US9442100B2 (en) 2013-12-18 2016-09-13 Medibotics Llc Caloric intake measuring system using spectroscopic and 3D imaging analysis
TWI498771B (zh) * 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
CN103785157A (zh) * 2012-10-30 2014-05-14 莫凌飞 人体运动类型识别准确度提高方法
WO2014112635A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US20140245200A1 (en) * 2013-02-25 2014-08-28 Leap Motion, Inc. Display control with gesture-selectable control paradigms
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9448634B1 (en) * 2013-03-12 2016-09-20 Kabam, Inc. System and method for providing rewards to a user in a virtual space based on user performance of gestures
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9142034B2 (en) 2013-03-14 2015-09-22 Microsoft Technology Licensing, Llc Center of mass state vector for analyzing user motion in 3D images
US9159140B2 (en) 2013-03-14 2015-10-13 Microsoft Technology Licensing, Llc Signal analysis for repetition detection and analysis
US10223580B2 (en) * 2013-03-26 2019-03-05 Disney Enterprises, Inc. Methods and systems for action recognition using poselet keyframes
WO2014162787A1 (ja) * 2013-04-02 2014-10-09 Necソリューションイノベータ株式会社 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
US8948457B2 (en) 2013-04-03 2015-02-03 Pillar Vision, Inc. True space tracking of axisymmetric object flight using diameter measurement
US9529385B2 (en) 2013-05-23 2016-12-27 Medibotics Llc Smart watch and human-to-computer interface for monitoring food consumption
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10295338B2 (en) 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
TWI506461B (zh) * 2013-07-16 2015-11-01 Univ Nat Taiwan Science Tech 人體動作的辨識方法與裝置
US9192857B2 (en) 2013-07-23 2015-11-24 Igt Beat synchronization in a game
US9582737B2 (en) * 2013-09-13 2017-02-28 Qualcomm Incorporated Context-sensitive gesture classification
JP6344032B2 (ja) * 2013-09-26 2018-06-20 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US20150120023A1 (en) * 2013-10-28 2015-04-30 II James Richard Terrell Entertainment content fitness gaming system
US9317112B2 (en) * 2013-11-19 2016-04-19 Microsoft Technology Licensing, Llc Motion control of a virtual environment
KR101547208B1 (ko) 2013-12-05 2015-08-26 한국과학기술원 손목 궤적을 이용한 전신 동작 생성 장치 및 방법
CA2973126A1 (en) * 2014-01-07 2015-07-16 Arb Labs Inc. Systems and methods of monitoring activities at a gaming venue
CN104784929B (zh) * 2014-01-21 2017-12-29 鈊象电子股份有限公司 体感式游戏机的分数判定方法
US9767609B2 (en) 2014-02-12 2017-09-19 Microsoft Technology Licensing, Llc Motion modeling in visual tracking
US10162737B2 (en) 2014-02-20 2018-12-25 Entit Software Llc Emulating a user performing spatial gestures
US20150294143A1 (en) * 2014-04-10 2015-10-15 GM Global Technology Operations LLC Vision based monitoring system for activity sequency validation
FR3023031A1 (fr) * 2014-06-25 2016-01-01 Renaud Maroy Procede d'identification d'un mouvement par filtrage bayesien recursif quantifie
FR3023032B1 (fr) * 2014-06-25 2018-09-07 Renaud Maroy Procede d'identification d'un mouvement par reduction du nombre de transitions possibles
FR3023034A1 (fr) * 2014-06-25 2016-01-01 Renaud Maroy Procede d'identification d'un mouvement par minimisation d'une fonctionnelle
FR3023033A1 (fr) * 2014-06-25 2016-01-01 Renaud Maroy Procede d'identification d'un mouvement par minimisation d'energie de chemins
KR101453815B1 (ko) 2014-08-01 2014-10-22 스타십벤딩머신 주식회사 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치
US9811721B2 (en) 2014-08-15 2017-11-07 Apple Inc. Three-dimensional hand tracking using depth sequences
US9946354B2 (en) * 2014-08-29 2018-04-17 Microsoft Technology Licensing, Llc Gesture processing using a domain-specific gesture language
US9619039B2 (en) * 2014-09-05 2017-04-11 The Boeing Company Obtaining metrics for a position using frames classified by an associative memory
US9911031B2 (en) * 2014-09-05 2018-03-06 The Boeing Company Obtaining metrics for a position using frames classified by an associative memory
US10083233B2 (en) * 2014-09-09 2018-09-25 Microsoft Technology Licensing, Llc Video processing for motor task analysis
US20160078289A1 (en) * 2014-09-16 2016-03-17 Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer Gesture Recognition Apparatuses, Methods and Systems for Human-Machine Interaction
US20160085312A1 (en) * 2014-09-24 2016-03-24 Ncku Research And Development Foundation Gesture recognition system
EP3205379A4 (en) * 2014-10-10 2018-01-24 Fujitsu Limited Skill determination program, skill determination method, skill determination device, and server
US9672418B2 (en) 2015-02-06 2017-06-06 King Fahd University Of Petroleum And Minerals Arabic sign language recognition using multi-sensor data fusion
KR102034021B1 (ko) * 2015-08-10 2019-10-18 한국전자통신연구원 헬스케어 유닛 기반 시뮬레이터 및 이를 이용한 시뮬레이션 방법
US20170076629A1 (en) * 2015-09-14 2017-03-16 Electronics And Telecommunications Research Institute Apparatus and method for supporting choreography
US10048765B2 (en) 2015-09-25 2018-08-14 Apple Inc. Multi media computing or entertainment system for responding to user presence and activity
US9947170B2 (en) 2015-09-28 2018-04-17 Igt Time synchronization of gaming machines
CN106606363A (zh) * 2015-10-22 2017-05-03 上海西门子医疗器械有限公司 一种医疗设备中患者体位的确定方法、系统及医疗设备
US10102602B2 (en) * 2015-11-24 2018-10-16 The Nielsen Company (Us), Llc Detecting watermark modifications
CN105741323A (zh) * 2016-02-03 2016-07-06 浙江大学 一种基于单目视频的人体骨架跟踪方法
CN107092430B (zh) * 2016-02-18 2020-03-24 纬创资通(中山)有限公司 空间绘画计分方法、用于进行空间绘画计分的装置及系统
US10754434B2 (en) 2016-04-01 2020-08-25 Intel Corporation Motion gesture capture by selecting classifier model from pose
CN105913559B (zh) * 2016-04-06 2019-03-05 南京华捷艾米软件科技有限公司 一种基于体感技术的银行atm机智能监控方法
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
CN106095087A (zh) * 2016-06-02 2016-11-09 深圳奥比中光科技有限公司 体感交互系统以及方法
CN106095082A (zh) * 2016-06-02 2016-11-09 深圳奥比中光科技有限公司 体感交互方法、系统以及装置
CN106095083A (zh) * 2016-06-02 2016-11-09 深圳奥比中光科技有限公司 体感指令的确定方法以及体感交互装置
US10628664B2 (en) 2016-06-04 2020-04-21 KinTrans, Inc. Automatic body movement recognition and association system
US11185763B2 (en) 2016-10-11 2021-11-30 Valve Corporation Holding and releasing virtual objects
US10391400B1 (en) 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
WO2018069981A1 (ja) * 2016-10-11 2018-04-19 富士通株式会社 運動認識装置、運動認識プログラムおよび運動認識方法
US10649583B1 (en) 2016-10-11 2020-05-12 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US11625898B2 (en) 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
US10691233B2 (en) 2016-10-11 2020-06-23 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US10888773B2 (en) 2016-10-11 2021-01-12 Valve Corporation Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof
US10549183B2 (en) 2016-10-11 2020-02-04 Valve Corporation Electronic controller with a hand retainer, outer shell, and finger sensing
US10898797B2 (en) 2016-10-11 2021-01-26 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10987573B2 (en) 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
KR101869164B1 (ko) * 2016-10-25 2018-06-19 동국대학교 산학협력단 저가형 관성센서를 이용한 모션 인식 시스템 및 그 방법
WO2018093816A1 (en) * 2016-11-15 2018-05-24 The Board Of Regents Of The University Of Texas System Devices and methods for interactive augmented reality
CN108228585A (zh) * 2016-12-09 2018-06-29 江苏物联网研究发展中心 建立数字运动人库的方法
JP6819423B2 (ja) * 2017-04-04 2021-01-27 富士ゼロックス株式会社 無線通信装置
US10485454B2 (en) 2017-05-24 2019-11-26 Neuropath Sprl Systems and methods for markerless tracking of subjects
KR102599441B1 (ko) 2017-06-16 2023-11-10 밸브 코포레이션 손가락 움직임 감지 기능을 갖춘 전자 제어기
JP7127650B2 (ja) * 2017-10-03 2022-08-30 富士通株式会社 認識プログラム、認識方法および認識装置
KR102439783B1 (ko) * 2017-12-04 2022-09-02 한국전자통신연구원 인체 자세 및 행동 모니터링 장치 및 방법
CN107862387B (zh) * 2017-12-05 2022-07-08 深圳地平线机器人科技有限公司 训练有监督机器学习的模型的方法和装置
CN108229332B (zh) * 2017-12-08 2020-02-14 华为技术有限公司 骨骼姿态确定方法、装置及计算机可读存储介质
CN108055479B (zh) * 2017-12-28 2020-07-03 暨南大学 一种动物行为视频的制作方法
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
WO2019146024A1 (ja) * 2018-01-24 2019-08-01 富士通株式会社 画面生成プログラム、画面生成方法および情報処理装置
US10438414B2 (en) * 2018-01-26 2019-10-08 Microsoft Technology Licensing, Llc Authoring and presenting 3D presentations in augmented reality
CN108597578B (zh) * 2018-04-27 2021-11-05 广东省智能制造研究所 一种基于二维骨架序列的人体运动评估方法
WO2020009715A2 (en) * 2018-05-07 2020-01-09 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
CN109902547B (zh) * 2018-05-29 2020-04-28 华为技术有限公司 动作识别方法和装置
KR20210021533A (ko) * 2018-06-20 2021-02-26 밸브 코포레이션 가상 현실 핸드 제스처 생성
CN108985259B (zh) * 2018-08-03 2022-03-18 百度在线网络技术(北京)有限公司 人体动作识别方法和装置
CN109344692B (zh) * 2018-08-10 2020-10-30 华侨大学 一种运动质量评价方法及系统
CN110947181A (zh) * 2018-09-26 2020-04-03 Oppo广东移动通信有限公司 游戏画面显示方法、装置、存储介质及电子设备
CN109766473B (zh) * 2018-11-30 2019-12-24 北京达佳互联信息技术有限公司 信息交互方法、装置、电子设备及存储介质
WO2020123875A1 (en) * 2018-12-12 2020-06-18 The Board Of Trustees Of The Leland Stanford Junior University Systems, devices, and methods for assessment of brain injury
CN111353347B (zh) * 2018-12-21 2023-07-04 上海史贝斯健身管理有限公司 动作识别纠错方法、电子设备、存储介质
US10984575B2 (en) 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
CN110059661B (zh) * 2019-04-26 2022-11-22 腾讯科技(深圳)有限公司 动作识别方法、人机交互方法、装置及存储介质
CN113924568A (zh) 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
CN110517338A (zh) * 2019-07-11 2019-11-29 北京电影学院 一种基于两足角色实体特征构建可复用动作库的方法
EP3966662B1 (en) 2019-07-26 2024-01-10 Google LLC Reducing a state based on imu and radar
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
CN113906367B (zh) 2019-07-26 2024-03-29 谷歌有限责任公司 通过imu和雷达的认证管理
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
KR102292415B1 (ko) * 2019-08-08 2021-08-24 주식회사 엘지유플러스 신체 동작 유사도 측정 장치 및 방법
WO2021040748A1 (en) 2019-08-30 2021-03-04 Google Llc Visual indicator for paused radar gestures
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
KR20220098805A (ko) 2019-08-30 2022-07-12 구글 엘엘씨 다중 입력 모드에 대한 입력 모드 통지
CN118192796A (zh) 2019-08-30 2024-06-14 谷歌有限责任公司 移动设备的输入方法
US20210103348A1 (en) * 2019-10-03 2021-04-08 Google Llc Facilitating User-Proficiency in Using Radar Gestures to Interact with an Electronic Device
EP4066087A1 (fr) * 2019-11-03 2022-10-05 ST37 Sport et Technologie Procede et systeme de caracterisation d'un mouvement d'une entite en mouvement
CN111368652B (zh) * 2020-02-19 2023-05-02 华南理工大学 一种基于Kinect传感器的动作捕捉文件生成方法
US11055891B1 (en) 2020-03-10 2021-07-06 Microsoft Technology Licensing, Llc Real time styling of motion for virtual environments
US11861752B2 (en) 2020-04-06 2024-01-02 Agt International Gmbh Method of scoring a motion of a user and system thereof
JP7459679B2 (ja) * 2020-06-23 2024-04-02 富士通株式会社 行動認識方法、行動認識プログラム及び行動認識装置
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
GB2602248A (en) * 2020-11-11 2022-06-29 3D4Medical Ltd Motion assessment instrument
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US11450051B2 (en) * 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
US11823496B2 (en) * 2021-05-06 2023-11-21 Kuo-Yi Lin Professional dance evaluation method for implementing human pose estimation based on deep transfer learning
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
CN114627559B (zh) * 2022-05-11 2022-08-30 深圳前海运动保网络科技有限公司 基于大数据分析的运动计划规划方法、装置、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003109015A (ja) * 2001-10-01 2003-04-11 Masanobu Yamamoto 身体動作測定方式
JP2004013474A (ja) * 2002-06-06 2004-01-15 Japan Science & Technology Corp 身体モデル生成方法、身体モデル生成プログラム及びそれを記録した記録媒体、身体モデルデータを記録した記録媒体
JP2006514366A (ja) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント リアルタイムのモーション・キャプチャ方法および装置
WO2007010893A1 (ja) * 2005-07-19 2007-01-25 Nec Corporation 関節物体位置姿勢推定装置及びその方法ならびにプログラム
JP2010014712A (ja) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法
US20100238182A1 (en) * 2009-03-20 2010-09-23 Microsoft Corporation Chaining animations
US20110007079A1 (en) * 2009-07-13 2011-01-13 Microsoft Corporation Bringing a visual representation to life via learned input from the user

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0816986B1 (en) 1996-07-03 2006-09-06 Hitachi, Ltd. System for recognizing motions
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
JP3141004B2 (ja) 1998-08-31 2001-03-05 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 動画中のオブジェクトを分類する方法
ES2277087T3 (es) 2002-07-09 2007-07-01 Aecc Enterprises Limited Metodo para representacion con imagenes el movimiento relativo de segmentos esqueleticos.
US7356172B2 (en) 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
WO2004053778A2 (en) 2002-12-11 2004-06-24 Koninklijke Philips Electronics N.V. Computer vision system and method employing illumination invariant neural networks
JP2005267604A (ja) 2004-02-18 2005-09-29 Fuji Xerox Co Ltd 動作分類支援装置および動作分類装置
KR101424942B1 (ko) * 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US8295546B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8488888B2 (en) * 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
CN102142055A (zh) * 2011-04-07 2011-08-03 上海大学 基于增强现实交互技术的真三维设计方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003109015A (ja) * 2001-10-01 2003-04-11 Masanobu Yamamoto 身体動作測定方式
JP2004013474A (ja) * 2002-06-06 2004-01-15 Japan Science & Technology Corp 身体モデル生成方法、身体モデル生成プログラム及びそれを記録した記録媒体、身体モデルデータを記録した記録媒体
JP2006514366A (ja) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント リアルタイムのモーション・キャプチャ方法および装置
WO2007010893A1 (ja) * 2005-07-19 2007-01-25 Nec Corporation 関節物体位置姿勢推定装置及びその方法ならびにプログラム
JP2010014712A (ja) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法
US20100238182A1 (en) * 2009-03-20 2010-09-23 Microsoft Corporation Chaining animations
JP2012521038A (ja) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション 連鎖アニメーション
US20110007079A1 (en) * 2009-07-13 2011-01-13 Microsoft Corporation Bringing a visual representation to life via learned input from the user
JP2012533134A (ja) * 2009-07-13 2012-12-20 マイクロソフト コーポレーション ユーザーから学習した入力を介し視覚表示を実写のようにする方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山根 亮: "固有空間を用いた舞踊動作の定量的評価に関する検討", 情報処理学会研究報告 VOL.2007 NO.31, vol. 2007-CVIM-158, JPN6015042298, 20 March 2007 (2007-03-20), JP, pages 139 - 146, ISSN: 0003252627 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180001440A (ko) * 2016-06-25 2018-01-04 김정태 고 처리량의 사진 직송을 위한 터치프리 포토 부스 장치
US11776134B2 (en) 2017-12-14 2023-10-03 Fujitsu Limited Non-transitory computer readable recording medium, element recognition method, and element recognition system
US11281896B2 (en) 2018-11-15 2022-03-22 Smith & Nephew, Inc. Physical activity quantification and monitoring

Also Published As

Publication number Publication date
US20120214594A1 (en) 2012-08-23
KR101882042B1 (ko) 2018-07-25
CN102693413B (zh) 2017-09-22
EP2676242A4 (en) 2018-01-03
EP2676242A2 (en) 2013-12-25
US8761437B2 (en) 2014-06-24
WO2012112402A3 (en) 2012-11-29
JP5902204B2 (ja) 2016-04-13
KR20140005233A (ko) 2014-01-14
WO2012112402A2 (en) 2012-08-23
CN102693413A (zh) 2012-09-26

Similar Documents

Publication Publication Date Title
JP5902204B2 (ja) 動き認識
Raptis et al. Real-time classification of dance gestures from skeleton animation
US8968091B2 (en) Scalable real-time motion recognition
US9943755B2 (en) Device for identifying and tracking multiple humans over time
US9245177B2 (en) Limiting avatar gesture display
US8213680B2 (en) Proxy training data for human body tracking
US8953844B2 (en) System for fast, probabilistic skeletal tracking
US8638985B2 (en) Human body pose estimation
US8660303B2 (en) Detection of body and props
US8633890B2 (en) Gesture detection based on joint skipping
EP2969080B1 (en) Center of mass state vector for analyzing user motion in 3d images
CN102222431B (zh) 用于翻译手语的计算机实现的方法
US8675981B2 (en) Multi-modal gender recognition including depth data
US20110311144A1 (en) Rgb/depth camera for improving speech recognition
US20110151974A1 (en) Gesture style recognition and reward
WO2014160248A1 (en) Motion analysis in 3d images
CN102129152A (zh) 具有集成vcsel阵列的深度投影仪系统
CN111353347A (zh) 动作识别纠错方法、电子设备、存储介质
Suk et al. Video human motion recognition using a knowledge-based hybrid method based on a hidden Markov model
Bloom Multiple Action Recognition for Video Games (MARViG)
Raptis Understanding the Spatio-Temporal Structure of Human Actions
Bhatia A Comparison And Evaluation Of Motion Indexing Techniques

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160309

R150 Certificate of patent or registration of utility model

Ref document number: 5902204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250