JP2013539565A - ユーザー追跡フィードバック - Google Patents

ユーザー追跡フィードバック Download PDF

Info

Publication number
JP2013539565A
JP2013539565A JP2013516608A JP2013516608A JP2013539565A JP 2013539565 A JP2013539565 A JP 2013539565A JP 2013516608 A JP2013516608 A JP 2013516608A JP 2013516608 A JP2013516608 A JP 2013516608A JP 2013539565 A JP2013539565 A JP 2013539565A
Authority
JP
Japan
Prior art keywords
user
feedback
tracking
capture
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013516608A
Other languages
English (en)
Other versions
JP5943913B2 (ja
JP2013539565A5 (ja
Inventor
イー,ドーソン
ペレス,キャスリン・ストーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013539565A publication Critical patent/JP2013539565A/ja
Publication of JP2013539565A5 publication Critical patent/JP2013539565A5/ja
Application granted granted Critical
Publication of JP5943913B2 publication Critical patent/JP5943913B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Abstract

コンピューター・システムにおける実行アプリケーションの制御のためのユーザー行為を追跡するために、この実行アプリケーションの能力についてのフィードバックをユーザーに供給する技術を紹介する。キャプチャー・システムは、キャプチャー・エリアにおいてユーザーを検出する。キャプチャー・エリアにおける要因およびユーザーの行為が、ユーザーの動きがアプリケーションに対する制御または命令であるジェスチャーであるか否か判断するアプリケーションの能力に、悪影響を及ぼす可能性がある。このような要因の一例は、ユーザーがキャプチャー・システムの視野の外側にいることである。他の要因の例には、キャプチャー・エリアにおける照明条件および障害物が含まれる。ユーザー追跡規準が満たされていないことに応答して、ユーザーにフィードバックが出力される。実施形態の中には、フィードバックが実行アプリケーションのコンテキストの範囲内で供給される場合もある。
【選択図】 図1A

Description

従来技術
[0001] 典型的な計算環境では、ユーザーは、キーボード、マウス、ジョイスティック等のような入力デバイスを有し、この入力デバイスは、ケーブル、ワイヤ、ワイヤレス接続、または他の何らかの接続手段によって、計算環境に接続することができる。計算環境の制御が、接続されているコントローラーからジェスチャー・ベース制御、特に自然ユーザー・インターフェース(NUI)におけるような制御に移った場合、ユーザーはもはやアプリケーションに対する制御命令を高い一貫性をもって計算環境に知らせる、接続されたデバイスがなくなってしまう。
[0002] 例えば、計算環境が、コントローラーまたはキーボードのような、設定された入力を有するとき、ユーザーは、コントローラーがポートに接続されていること、彼がキーまたはボタンを押していること、そしてシステムが応答していることを判定することができる。この計算環境に対する制御が、ユーザーのジェスチャーに移行すると、コントローラーとの場合とは異なり、キャプチャー・エリアの視覚的特性または音響的特性あるいはユーザーの身体の動きのために、ジェスチャーの検出が妨げられたり、またはアプリケーションから、最適でない応答が生成される可能性がある。適正にジェスチャーを検出することができないと、実行中のアプリケーションと対話処理するときに、ユーザーを苛々させる可能性がある。例えば、このアプリケーションによって実行されているゲームにユーザーが参加すると、苛々させる虞れがある。
[0003] コンピューター・システムにおける実行アプリケーションの制御のためのユーザー行為(user action)を追跡するために、この実行アプリケーションの能力についてのフィードバックをユーザーに供給する技術を紹介する。キャプチャー・システムが、キャプチャー・エリアにおいてユーザーを検出する。ユーザー追跡規準が満たされていないことに応答して、フィードバックがユーザーに出力される。一部の例では、このフィードバックが音声インディケーターであることができる。他の例では、追跡規準を満たすためにユーザーが取るべき行動を推薦するために、視覚インディケーターがフィードバックとして供給される。実施形態の中には、実行アプリケーションのコンテキストの範囲内でフィードバックが供給される場合もある。一実施形態では、キャプチャー・エリアを選択するときにユーザーを補助する技術を紹介する。加えて、実施形態の中には、フィードバック応答の選択を、規準にしたがって決定することができる場合もある。
[0004] この摘要は、詳細な説明の章において以下で更に説明する概念から選択したものを簡略化した形態で紹介するために、設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を判断するときに補助として使用されることを意図するのでもない。
図1Aは、ユーザー・フィードバックを供給する技術の実施形態が動作することができる、ターゲット認識、分析、および追跡システムの実施形態例を示す。 図1Bは、追跡規準を満たすためにユーザーが取るべき行為を提案するためにユーザーがフィードバック応答を追跡する他の例を示す。 図1Cは、可視性要因(visibility factor)の例をいくつか示す。 図1Dは、物体を保持しているユーザーがターゲット認識、分析、および追跡システムの実施形態と対話処理する他の実施形態を示す。 図1Eは、ユーザーが境界に近すぎるときまたは境界の外側にいるときに、ユーザーに知らせる視覚インディケーターの一例を示す。 図1Fは、ユーザーがキャプチャー・デバイスの視野の外側にいることを知らせる視覚インディケーターの追加の例を示す。 図1Gは、 ユーザーがキャプチャー・デバイスの視野の外側にいることを知らせる視覚インディケーターの追加の例を示す。 図2は、ユーザー追跡フィードバックを供給するシステムの機能的コンピューター実装アーキテクチャーの例示的な実施形態である。 図3Aは、ユーザー追跡フィードバックを供給する1つ以上の実施形態が動作することができ、図1A〜図1Eにおけると同様のゲーミング・コンソールにおいて使用することができる計算環境の一実施形態の詳細な例を示す。 図3Bは、パーソナル・コンピューターのような、計算環境の他の実施形態例を示す。 図4は、ユーザー追跡フィードバックをユーザーに供給する1つ以上の実施形態が動作することができる、ネットワーク接続された計算環境の一実施形態例を示す。 図5は、取り込まれた画像データーに基づいて作成され、ユーザーの動きを追跡するために使用することができる人間ユーザーのモデルを示す。 図6は、ジェスチャーの例をいくつか示す。 図7は、アプリケーションのユーザーの動きを追跡する能力について、ユーザーにフィードバックを供給する方法の実施形態のフローチャートである。 図8は、キャプチャー・エリアを選択するときにユーザーを補助する方法の実施形態のフローチャートである。
[0019] コンピューター・システムにおいて実行アプリケーションの制御のために、ユーザー行為を追跡する実行アプリケーションの能力についてのフィードバックをユーザーに供給する技術を紹介する。ユーザーを追跡する能力に影響を及ぼす可能性がある区別可能性要因(distinguishability factor)の一例は、表示物体を制御するユーザーの身体部分が画像キャプチャー・システムの視野から少なくとも部分的に出ているときである。他の要因には、照明効果のような周囲要因、ある種のタイプの障害物、ならびに音声(例えば、音節または単語)の大きさ(loudness)および区別可能性というような音声的要因が含まれる。
[0020] 実施形態の中には、本技術が、ユーザーに対して明示的な提案となるフィードバック応答を提示する場合もある。他の実施形態では、フィードバックは、実行アプリケーションのコンテキスト内で供給されることによって、分かり難く(subtle)なるかまたは暗示的になる。例えば、ユーザーがキャプチャー・システムの視野の境界に近過ぎるとき、場面内において恐ろしい怪物(scary monster)のようなオブジェクト(object)がその境界に近いディスプレイ側に現れる。ユーザーは、この怪物から逃げるために、視野の境界から離れて、視野の中心に向かって動く気にさせられる。
[0021] フィードバック応答の選択を決定することができる要因の例については、以下で更に論ずる。
[0022] 図1Aは、ユーザー・フィードバックを供給する技術の実施形態が動作することができる、ターゲット認識、分析、および追跡システム10の実施形態例を、ゲームをプレーするユーザー18と共に示す。この例では、ターゲット認識、分析、および追跡システム10は、人間の自然環境において、対象者に特殊な検知デバイスを取り付けることなく、人間を認識し、彼らを一意に識別し、三次元空間において彼らを追跡する。しかしながら、本技術は、 ユーザーがセンサを着用するセンサ・ベース・システムというような、他のユーザー追跡メカニズムにも適用可能である。
[0023] この実施形態例によれば、ターゲットは、人間のターゲット(例えば、ユーザー18)、物体を持った人間のターゲット、2人以上の人間のターゲット等とすることができ、このターゲットを走査して、スケルトン・モデル、メッシュ人間モデル、またはその任意の他の適した表現を生成することができる。このモデルを追跡すれば、ターゲットの物理的動き(movement)または運動(motion)がリアルタイムのユーザー・インターフェースとして作用し、アプリケーションのパラメータを調節および/または制御するというようなことが可能になる。更に、このモデルをアプリケーションに対してモデルとして提示され、リアルタイムでアプリケーションに伝えることができる。例えば、ユーザーの動きを追跡し、電子ロール・プレーイング・ゲームにおける画面上のキャラクターまたはアバターを動かすために、追跡したユーザーの動きを使用することができる。
[0024] モデルがマルチ・ポイント・スケルトン・モデルである一例では、ターゲット認識、分析、および追跡システム10は、人間の筋肉−骨格系の自然な力学および能力を理解することによって、効率的に人間およびその自然な動きを追跡する。また、システム例10は、複数の人間がその四肢および身体の自然な動きによって本システムと対話処理できるようにするために、個人を一意に認識する。
[0025] ユーザーの動きを追跡して、アバターを動かすことができる。アバターとは、通例人であるユーザーを表す、コンピューター生成イメージとすることができる。アバターは、ユーザーが実際に見える様子を高度に表すユーザーのイメージを描写することができ、あるいはユーザーに対する類似度が変化するか全く変化しないキャラクター(例えば、人間、架空の物体、動物、動く物体)であってもよい。
[0026] 具体的には、図1Aは、ターゲット認識、分析、および追跡システム10の構成の実施形態例を、ボクシング・ゲームをプレーしているユーザー18と共に示す。この例では、コンピューター12において実行するソフトウェアが、通信可能に結合されているカメラ・システム20およびオーディオビジュアル・ディスプレイ・ユニット16の他のコンピューター・システムにおけるソフトウェアを制御するまたはこのソフトウェアと相互作用を行い、このオーディオビジュアル・ディスプレイ・ユニット16が、取り込まれた画像データーに基づいてユーザー18の動きを追跡し、これらを分析し、ユーザーの動きが直接彼の関連のあるアバターの動作を直接リアルタイムで制御する命令を得る。つまり、この例では、ユーザー18は、彼の身体を動かして、ボクシング・ゲームにおいて、彼の対戦相手のアバター22に対して表示画面14上の彼のアバター24を制御することができる。
[0027] オーディオビジュアル・ディスプレイ・システム16は、 高品位テレビジョン(HDTV)のような高度ディスプレイ・システムとすることができる。他の実施形態では、ディスプレイは、解像度がそれよりも低いディスプレイであってもよく、その例には、テレビジョン、コンピューター・モニター、または移動体デバイスのディスプレイが含まれる。オーディオビジュアル・システム16は、オーディオビジュアル信号を計算システム12から通信インターフェース(例えば、S−ビデオ・ケーブル、同軸ケーブル、HDMIケーブル、DVIケーブル、VGAケーブル)を介して受信することができ、次いでこのオーディオビジュアル信号と関連のあるゲームまたはアプリケーションのビジュアルおよび/またはオーディオをユーザー18に出力することができる。
[0028] ジェスチャーは動きまたは姿勢を含み、実行アプリケーションを制御するためのユーザー入力として作用する。ユーザーは、彼の身体を動かすことによって、ジェスチャーを行うことができる。例えば、ユーザーを画像データーに取り込むことができる。ユーザーのジェスチャーを識別し、アプリケーションに対する制御または実行すべき動作としての意味を求めて解析することができる。例えば、ユーザー18は図1Aのボクシング・ゲームにおいてジャブを出す。このゲーム・アプリケーションは、それをボクシングの試合において表し、それがアバター22と接触するか否か判断し、そうである場合、ユーザーの採点を増やす。ジェスチャーは、胴体の前で腕を組んだままにするというような静止姿勢であってもよく、または1つ以上の動きであってもよい。更に、ジェスチャーは、両手を一緒にたたくというような、1つよりも多い身体部分を含むのでもよい。
[0029] 例えば、ターゲット認識、分析、および追跡システム10は、キャプチャー・エリア30においてユーザー18のパンチを認識し分析するために使用して、このパンチをジェスチャーとして、この場合、ゲーム空間において彼のプレーヤ・アバター24が行うパンチのゲーム制御として解釈することもできる。また、ユーザー18による他のジェスチャーも、軽く叩く、行ったり来たりする、あちこち動き回る、防御する、ジャブを出す、または種々の異なる力のパンチを出す制御するというように、他の制御または動作として解釈することができる。ユーザー18のパンチおよびジャブを追跡することによって、ボクシング・ゲームのソフトウェア・アプリケーションは、彼のアバター24のスコアを判断し、どちらのアバター(22または24)がその試合に勝つか判断する。異なるアプリケーションであれば、異なるジェスチャーを認識し追跡する。例えば、野球ゲームにおけるユーザーによる投球を追跡して、それがストライクかまたはボールか判断する。
[0030] 他の実施形態例によれば、ジェスチャー・ベース・システム10は、更に、ゲームの世界の外側にあるオペレーティング・システムおよび/またはアプリケーション制御として、ターゲットの動きを解釈するために使用することもできる。例えば、オペレーティング・システムおよび/またはアプリケーションの事実上あらゆる制御可能な態様(aspect)が、ユーザー18のようなターゲットの動きによって制御することもできる。
[0031] カメラ・システム20は、カメラ・システム20の視野内にあるキャプチャー・エリア30におけるユーザーの画像データーを取り込む。この例では、カメラ・システム20の視野におけるキャプチャー・エリア30は、台形30であり、ユーザーの視点からは、このキャプチャー・エリアの上辺(front)である短い方の線30f、底辺(back line)30b(例えば、壁がこの線を形成することができる)、ならびに左側辺30lおよび右側辺30rを有する。視野は、異なる幾何学的形状を有することができる。例えば、キャプチャー・エリアの境界および障害物が、その幾何学的形状に影響を及ぼす可能性がある。例えば、ユーザーが体操を行っている場合であれば、視野が台形よりも円錐形になるように後ろの壁は遙か後方にするとよい。他の場合では、カメラのレンズの種類も視野に影響を及ぼす可能性がある。
[0032] 図1Aでは、ユーザーは以前の位置、即ち、前の位置18bにいることが示されており、この位置では、彼の身体の一部が左境界線301側でキャプチャー・エリア30の外側に出ている。ユーザー18の位置は、キャプチャー・エリア30およびカメラの視野の中心にもっと近い彼の現在の位置にある。以下で更に詳しく論ずるが、このアプリケーションのコンテキストにおけるフィードバックは、ユーザーに彼の右側に動くことを提案するため、またはそうする気にさせるために与えられた。他のアバター22の位置は、画面上で右側に動いており、したがってユーザー18は彼を殴るためには動く必要があった。他の例では、表示されている光景(view)の視点(perspective)が対戦相手のアバター22の左展望(left perspective)から右展望(right perspective)に変化したということもあり得る。右展望では、ユーザー18が位置18bに留まる場合、彼のアバターは彼の対戦相手のアバター22の視野を遮ることになる。この動作(action)のために、彼の対戦相手のアバター22がもっと良く見えるように、ユーザー18が右に動く気になる。
[0033] また、ユーザー追跡フィードバックを供給するために、1つ以上の画面外のディスプレイ・エレメント(off-screen display element)も使用することができる。図示されている例では、発光ダイオード(LED)のようなディスプレイ・ライト32が特定のユーザーを満足させる(satisfy)ことができる。例えば、追跡品質を示すために、異なる色を使用することができる。黄色は警告とすることができ、緑は満足とすることができ、赤は問題を示すことができる。他の例では、異なる照明パターンが追跡品質を示すことができる。例えば、各ライトに視野の境界を関連付けることができる。ライト・エレメントがある色に変わった場合、その色は、ユーザーが境界に近過ぎるというフィードバックを含意することができる。
[0034] 図1Bは、追跡規準を満たすためにユーザーが取るべき行為を提案するためのユーザー追跡フィードバック応答の他の例を示す。ユーザーに追跡問題を知らせるために、アバターの外観変更を使用することができる。アバター24は、この例では強調されている。更に、矢印33の形態とした明示的なフィードバックが、視覚インディケーターの一例となっている。この例では、フィードバックは、アバター24と関連のあるユーザーに右に動くことを推薦する。これらの視覚インディケーターは、アプリケーション独立ユーザー追跡フィードバックの例である。何故なら、これらはアプリケーションのコンテキストには繋がれていないからである。
[0035] アプリケーションのコンテキストは、そのアプリケーションの目的である動作(activity)を含む。例えば、メニュー・ユーザー・インターフェース・アプリケーションでは、ファイルを開くまたは閉じることは、アプリケーションにとって前後関係で決まる(contextual)ことである。ゲームの動作にしたがって動くアバターおよび場面のオブジェクトは、ゲームにとって前後関係で決まることである。ゲーミング・アプリケーションにおいて前後関係で決まる動作の例には、パンチを打つ、障害物のような新たな敵または怪物の到来、いつボールが投げられたまたは捕球されたか、アバターまたはユーザーの視野(view)が仮想環境にわたって動くときの場面における変化、またはゲーム動作のユーザーのビューの方向または視点の変化である。
[0036] 図1Cは、可視性要因(visibility factor)のいくつかの例を示す。窓44から入ってくる日光45のために、周囲の照明がカメラ・システム20にとって可視性の問題になる可能性がある。画像キャプチャー・システム20の光メータ(light meter)は、ユーザーが画像データーにおいて褪せてしまうことを示すことができる。あるいは、暗くなり過ぎる可能性がある。
[0037] コーヒー・テーブル15は、ユーザーの身体の一部を遮る可能性がある障害物の一例である。ボクシング・ゲームは、ユーザー18の足が部分的にコーヒー・テーブルによって遮られることのために、ボクシングにおける「摺り足」(shuffle)ジェスチャーを検出するのに困難を来す可能性がある。
[0038] 図1Dは、物体を保持しているユーザーが、ターゲット認識、分析、および追跡システム10と対話処理する他の実施形態を示す。このような実施形態では、電子ゲームのユーザー19は、例えば、画面上のボール(on-screen ball)68を打つというように、ユーザー19および物体21の動きを使用してゲームのパラメータを調節および/または制御するように、物体を保持していることがある。他の例では、ラケット21を保持しているユーザーの動きを追跡して、電子スポーツ・ゲームにおいて画面上のラケットを制御するために利用することもできる。他の実施形態例では、物体を保持しているユーザーの動きを追跡して、電子戦争ゲームにおいて画面上の兵器を制御するために利用することもできる。また、1つ以上のグローブ、ボール、バット、クラブ、ギター、マイクロフォン、スティック、ペット、動物、ドラムなどというような、任意の他の物体も含むことができる。
[0039] 図1Dは、ユーザーにカメラ・システム20の視野内におけるより良い位置に動くことの提案または動機付けを与えるために、アプリケーションのコンテキストにおいてフィードバックを使用する他の例を示す。位置19bにおけるユーザーは、カメラに対して左に動き過ぎたので、彼の右腕およびラケット21を含む彼の上半身が視野の左境界301の外側に出ている。直前に打ってきたボール68bは、画面の左上角に表示されていた。このゲームの実行アプリケーションは、次に打って来るボール68を、ディスプレイの中央に移して、ユーザー19が、キャプチャー・エリア30を覆う視野の中心に動く気にさせる。ユーザー19は、彼の現在の位置19に示すように、既にそうしている。
[0040] 尚、図1Dは、ユーザーの描写が画面上にレンダリングされない代案を提示することは認められてしかるべきである。図1Dでは、ユーザーは一人称で(in the first person)テニスをプレーし、画面上にレンダリングされたボールを見て、そして、一例では、ボールを打つラケットの全てまたは一部を見ているかもしれないが、ユーザーのアバターは画面上にはレンダリングされず、あるいはユーザーの身体部分の一部のみがレンダリングされる。
[0041] 図1Eは、ユーザーが境界に近過ぎるときまたは境界の外側に出たときにユーザーに知らせることができる視覚インディケーターの一例を示す。特に非常に幼い子供のユーザーには、表示物体28l(左境界問題)および28r(右境界問題)は、視野の中心に向かって戻るようにユーザーに伝えるフィードバックとなることができる。同様の視覚インディケーターは、前後の境界にも同様に使用することができる。任意選択肢をあげると、各視覚インディケーターが現れるとき、またはある回数の境界違反の後に、音響を各視覚インディケーターに関連付けることができる。
[0042] 図1Fは、視覚インディケーターの他の例を示し、ユーザー19uがボーリング・ゲームをプレーしており、ユーザーの腕19−1が動いて視野外に出ている。画面上の描写28bでは、ユーザーの腕28Aが徐々に消えて、腕がカメラの視野の外側にあることをユーザーに示す。ユーザーまたはユーザーが関与しているエレメントの画面上の外観を変化させる他の代替案には、ユーザーの画面上の表現の全てまたは一部の色を変えること、ユーザーの描写の焦点を変えること(例えば、画面上の表現をぼかすまたは徐々に消す)が含まれる。
[0043] 図1Gに示す更に他の例では、警告グラフィック29が、ディスプレイ16の左上角に示されている。このグラフィックは、ユーザー34および視野35の表現を小さくして描写しており、ユーザーが動いて視野の外側に出たときに、常にまたは間欠的に現れる(flash)ことができる。
[0044] ユーザー追跡フィードバックを供給するソフトウェアは、キャプチャー・エリアの境界および異なるフィードバック応答が何を意味するかについて、ユーザーが感触を得るのを補助するために、ディスプレイ上においてユーザーのための訓練を設けることができる。ある種の音響によって、視野の中心にいること、または正しい可視性(visibility)を有することを確認することができ、一方他の音響は、ユーザーが境界に近づき過ぎていること、または追跡品質を劣化させる障害物あるいは他の効果または品目があることを示す。
[0045] 一例では、追跡品質または追跡規準は、ユーザーの存在ならびにターゲット認識および追跡システムとの関与が確定されている間の所与の時間期間において、特定できなかったジェスチャーがどれだけあるかに基づくことができる。追跡品質または追跡規準は、存在および関与を検出することができるが、例えば、野球ゲームにおける腕のように、アプリケーションに対する画像データーにおいて主要な身体部分を認識することができない。追跡規準または品質に影響を及ぼす可視性要因の他に、アプリケーションの中には、単に身体部分である身体の特徴の動きだけではなく、音声のような身体特徴を拠り所にするものもあるので、区別可能性要因(distinguishability factor)には、音声要因も該当する可能性がある。
[0046] 図2は、ユーザー追跡フィードバックを供給するシステム200の機能的コンピューター実装アーキテクチャーの例示的実施形態である。このようなアーキテクチャー・システムは、1つ以上のプロセッサーおよび/またはコンピューター・ハードウェアにおいて実行するソフトウェアによって、あるいはハードウェアまたはファームウェアとして動作することができる1つ以上の処理モジュールとして実現することができる。
[0047] 本技術は、その主旨や本質的な特性から逸脱せずに、他の特定の形態においても実現することができる。同様に、モジュール、ルーチン、特徴、属性、方法、および他の態様の特定の命名や分割は義務的ではなく、本技術またはその特徴を実現するメカニズムは、異なる名称、分割、および/またはフォーマットを有することもできる。更に、関連技術における当業者には明白であろうが、開示される実施形態のモジュール、ルーチン、特徴、属性、方法、および他の態様は、ソフトウェア、ハードウェア、ファームウェア、またはこれら3つの任意の組み合わせとして実現することができる。勿論、モジュールが一例であるコンポーネントがソフトウェアとして実現されるときはいつでも、そのコンポーネントは、単体のプログラムとして、もっと大きなプログラムの一部として、複数の別々のプログラムとして、静的または動的にリンクされたライブラリーとして、カーネル・ロード可能なモジュールとして、デバイス・ドライバとして、および/またはプログラミングの技術分野における当業者に現在知られているまたは今後知られることになるあらゆるそして任意の他の方法で実現される。例えば、一実施形態では、以下で論じられる追跡フィードバック・ソフトウェア213は、部分的にアプリケーション独立フィードバック応答を扱うためにアプリケーション・プログラミング・インターフェース(API)で実現し、部分的にコンテキスト・アプリケーション・フィードバックを扱うために特定のアプリケーションのソフトウェアで実現することができる。
[0048] ディスプレイ・ビュー制御システム202は、動きモジュール204を含む。動きモジュール204は、着信画像データー205、および任意選択肢をあげると、オーディオ・データー217のためにデーター・バッファ223にアクセスする。図示されている実施形態例では、ディスプレイ・ビュー制御システム202は、オーディオビジュアル・データー・キャプチャー・システム20からローカルに動き追跡データー205を受ける。加えて、ディスプレイ・ビュー制御システム202は、インターネット203または他のネットワークから離れて動き追跡データー205iを受信することもできる。ユーザーに関して、動き追跡データーは、画像データー自体、またはそのデーターをダウンサンプルしたバージョンを含むことができる。加えて、深度データー、ならびに画像および/または深度データーから導き出される種々の形態のデーターも、動き追跡データーに含めることができる。その例には、ユーザーの身体に対するモデル、そのモデルを参照する数学的原形における動きデーター、またはモデルの以前の状態との比較に使用するために導き出されるビットマスク画像がある。ディスプレイ・ビュー制御システム202は、このデーターを分析して、ユーザーの動きを認識し、その動きを追跡してディスプレイ上のオブジェクト、例えば、ユーザーの画面上のアバターを動かす。アバターは、場面または表示オブジェクトの一種である。
[0049] 動きモジュール204は、通信可能にアバター表示制御モジュール209、オブジェクト制御モジュール211、追跡フィードバック・ソフトウェア213、ジェスチャー認識ソフトウェアおよびデーター206、オーディビジュアル・データー・キャプチャー・システム20、およびインターネット203に結合されている。また、動きモジュール204は、ユーザー216u、アバター216a、およびディスプレイ216o上の物体またはユーザーによって保持されている物体の各々の少なくとも1つについてのモデル・データー216というような、メモリーに格納されているデーターストア220にもアクセスすることができる。モデル・データーは、キャプチャー・エリアにおけるユーザー、あるいは場面またはディスプレイ・ビューにおけるアバターまたは物体の動きモジュール204による動き検出のための基準として使用される。ユーザーの身体の動きがアバターの動きにマッピングされる(例えば、ユーザーの画像取り込み、またはユーザーの身体に付けられたセンサに基づいて)システムでは、ユーザー216uを表すモデル・データーと、アバター216aを表すモデル・データーとがあることが可能である。アバターの体形が全く異なる場合、動きモジュール204は、2つのモデルの間でマッピングを実行する。例えば、少年のユーザー18は、彼のアバター・ボクサー24よりも背が低く、腕の長さがありそうもない。言い換えると、スケルトン・モデルが使用された場合、これらはユーザーおよびアバターに対して同一でなくてもよい。しかしながら、実施形態の中には、アプリケーションが、同じモデル・データー216を使用して、ユーザーの身体の動きを分析し、更に対応するアバターの動きを命令する場合もある。一例では、身体モデルは、身体部分と、空間における(in dimensions)それらの位置および/または基準に対する回転角度とを表す1つ以上のデーター構造として実現することができる。モデル・データー216は、絶対位置に関する更新または位置および回転の変化で更新することができる。位置および回転の変化は、ベクトルおよび角度で表すとよい。
[0050] また、動きモジュール204は、プロファイル・データー214にもアクセスすることができる。この例では、ユーザー214u、アバター214a、および物体214oについてのプロファイルがある。また、動きモジュール204は、アバター画像データー219および物体画像データー221を含むディスプレイ・データー218にアクセスすることもできる。
[0051] アバター表示制御モジュール209は、ジェスチャー認識ソフトウェア206によって認識されたジェスチャー、および動きモジュール204によって特定された他の該当する動きに基づいて、アバター画像データー219を更新する。一例では、動きまたは姿勢を表す画像データー219は、アバターについての動き追跡データーとすることができる。一例では、このような動き追跡データーをモーション・キャプチャー・ファイルに格納することができ、動きモジュール204は、新たな動き追跡データー205が受けられる毎に、経時的にモーション・キャプチャー・ファイルを更新する。
[0052] オブジェクト制御モジュール211は、ユーザーの認識されたジェスチャーによって変化が生じたオブジェクトについての画像データー221を更新する。更に、アバター制御モジュール209およびオブジェクト制御モジュール211は、動作制御モジュール210からの命令に応答して、それらのそれぞれの画像データー(219、221)を更新する。動作制御モジュール210は、実行アプリケーションを監督する(supervise)。例えば、ゲーム環境では、スコアを取り続け、アバターが新たなレベルのゲーム・プレーに移るに連れて新たな背景が必要になると判断し、場面において他の非ユーザー制御アバターまたはオブジェクトをどのように配置するか判断する。ゲーム以外の環境では、ユーザーが要求している動作は何か特定する。例えば、ユーザーのジェスチャーがファイルを開く要求である場合、ファイル自体にアクセスするか、またはファイルにアクセスしそれをディスプレイ16上に表示する命令をオブジェクト制御モジュール211に供給することができる。表示処理モジュール207は、表示を更新するために、表示データー218を組み合わせる。
[0053] 表示データー218は、場面またはビューのコンテキストを規定し、その場面またはビューにおける他のオブジェクトを定義する。例えば、表示データー218は、図1Aおよび図1Bではボクシングの試合というコンテキスト環境を規定しており、更にボクシング・リングのロープおよび対戦相手のボクサーのアバター22の存在を含むオブジェクトの位置を規定している。この場面における他のボクサー・アバター22の最後の動き、特徴、および身体部分は、アバター・プロファイル・データー・ストア214において他のプロファイルとして格納することもできる。表示データー218に対する更新は、アバター表示制御モジュール209または動きモジュール204のような1つ以上のモジュールによって、インターネット203または離れたモジュールからの他のネットワークを介して受信することができる。
[0054] アバター表示制御モジュール209およびオブジェクト制御モジュール211は、周期的にまたは動きモジュール204からのメッセージに応答して、それらのそれぞれのプロファイル(1つまたは複数)214への更新を読み、アバターまたはオブジェクトの動きまたは姿勢を表す画像データー219、221を処理する。画像データー219、221は、ローカルにディスプレイ16にレンダリングすることができ、またはインターネット203または他のネットワークを介して送信することができる。
[0055] アバター・プロファイル・データー214aの例は、髪、顔の特徴、肌の色、衣服、場面におけるアバターの位置、それと関連のある任意のプロップというような、アバターの特徴についての色画像データーとすることができる。
[0056] ユーザーのプロファイル214uに格納することができる情報の例は、典型的な使用またはプレー・モード、年齢、身長、体重情報、名前、障害(disability)、高スコア、あるいはシステムのユーザーまたは使用に関連のある任意の他の情報を含むことができる。
[0057] フィードバック応答の選択に影響を及ぼす要因の例には、ユーザー・プロファイル情報を含むことができる。例えば、ユーザーの年齢または障害は、身体的または精神的のいずれでも、あるタイプのフィードバック応答を他のものよりも一層適したものにすることができる。例えば、5歳では、読むことができないかもしれないので、アプリケーションのコンテキストにおける巧妙なフィードバックが、画面上にある明示的なテキストよりも適している場合もある。プレーヤが難聴であるかもしれないので、音声応答は適していない。
[0058] 先に論じたように、一部の動きおよび姿勢、ジェスチャーは、娯楽用プログラムまたは他のアプリケーションのコンテキストにおいて特殊な意味を有し、ディスプレイ・ビュー制御システム202は、これらを識別する命令を実行する。具体的には、動きモジュール204はジェスチャー認識ソフトウェア206およびデーターにアクセスし、モデルおよび動き追跡データーに基づいて、ジェスチャーを認識または識別する。
[0059] ジェスチャー認識ソフトウェア206は、ジェスチャー・フィルターを含むことができる。一例では、動きモジュール204は、例えば、身体部分インデックスのような、関連データー・インデックスに基づいて、1つ以上のジェスチャー・フィルター206を選択することができる。例えば、動き追跡データー・セット更新がディスプレイ・ビュー制御システム202によって受け入れられ、ある身体部分に対して動きの変化が示された場合、動きモジュール204は、これらのある種の身体部分と関連のあるジェスチャー・フィルターをインデックス化する。
[0060] ジェスチャー・フィルター206は、動き追跡データー205に基づいて特定のジェスチャーが行われたか否か判断する規準を定めるパラメータ・データーに基づいて命令を実行する。一実施形態では、各ジェスチャー・フィルター206は、ジェスチャー・ライブラリーにおける特定のジェスチャーに対するライブラリー・モジュールとリンクされている。ジェスチャーと関連付けられた各ライブラリー・モジュールは、ジェスチャーに応答して処理を実行する実行可能命令を含む。この処理は、多くの場合、ジェスチャーに何らかの形態で反映するために、アバターの動きまたは画像を更新することを伴う。
[0061] 例えば、図1Aにおける十代の少年ユーザー18は、彼のアバター24のボクサーよりも体格が遙かに小さい。アバターとゲームをプレーする楽しさの一部は、アバターの方が実生活におけるユーザーよりも上手に事を行うことが多いということにある。図1Aにおいて、居間における少年18のパンチは、表示画面14上において彼のアバター24による遙かに強力なパンチに変換される。ボクシング・ゲームにおける「パンチ」についてのライブラリー・モジュールは、ユーザーの踝が彼の肘から繰り出される速度の加速度(acceleration in speed)から、これはゲームにおけるこのユーザー18の「強力なパンチ」であると判断することができ、彼のアバター24のパンチは、ライブラリー・パンチ・モジュールの命令によって、これをディスプレイ上に反映する。また、動作制御モジュール210にはジェスチャーが知らされ、それに応答する。例えば、ユーザー18のスコアを更新する。
[0062] システムの中には、アバターがある種の身体部分または領域、例えば、手および腕に対して行うことができる動きまたは姿勢を一定数だけに限って、その組み合わせを与えつつ、他の身体部分または領域、例えば、脚部の直接追跡を可能にするとよい場合もある。
[0063] アバターまたは他のディスプレイ・ビュー・オブジェクトの表示を更新するためのユーザーの動きの追跡は、リアルタイムで行われ、ユーザーが実行アプリケーションとリアルタイムで対話処理できるようにする。リアルタイムの表示とは、ジェスチャーの仮想表現を指し、このディスプレイは、物理空間におけるジェスチャーの実行と同時にまたは殆ど同時に表示される。例えば、本システムがユーザーにオウム返しする表示を提供することができる表示更新レートは、20Hz以上のレートとするとよく、この場合、些細な処理の遅れは、最小限の表示の遅れにしかならず、またはユーザーには全く見えない。つまり、リアルタイムには、自動データー処理のために必要な時間だけ遅れているデーターの適時性(timeliness)に関する些細な遅れはいずれも含まれる。
[0064] 追跡フィードバック・ソフトウェア213は、追跡問題を特定するメッセージを動きモジュール204から受ける。追跡問題の一例は、ユーザーが動いて視野の外側に出たこと、または視野内にユーザーがいないことである。追跡問題の他の例には、身体部分に対するジェスチャーを判断することができないこと、あるいは動きまたは姿勢が任意の特定のジェスチャーに対応するしきい値確率が満たされないことがあげられる。追跡問題の他の例は、ユーザーの音響を検出するには、音声またはソング認識ソフトウェアに対する音響の大きさ(loudness)が十分でないことである。他の例では、ユーザーからの音響が区別不可能な音節を有しているので、単語を検出することができない。例えば、音楽娯楽アプリケーションでは、ユーザーの歌唱を識別または検出できないと、ユーザー・プレーヤが感じる苛々に重大な影響を及ぼす可能性がある。
[0065] また、動きモジュール204は、オーディオビジュアル・キャプチャー・システム20から受けたデーター、またはオーディオビジュアル・キャプチャー・システム20からのメッセージにおけるデーターに基づいて、複数の区別可能性要因についてのフィードバックを供給することができる。区別可能性要因の一種は、前述のように音量および示差(distinctiveness)が十分でないというような、音声要因である。区別可能性要因の他の例に、可視性要因がある。可視性要因の一例は、アプリケーションを制御するユーザーまたは身体部分が、少なくとも部分的に視野から出ていることである。他の例には、取り込まれた画像においてユーザーが褪せる(wash out)照明問題がある。他の例には障害物がある。可視性要因の他の例は、障害物である。これの例は、図1Cにおけるコーヒー・テーブル15のような、視野自体の中にある家具とすることができる。視野の境界上、または視野自体の中に多くの品目があり過ぎると(two many)、区別可能性要因または可視性要因が生ずる可能性がある。障害物の他の例には、衣服、または他の品目と組み合わせた衣服がある。ポンチョ(poncho top)は、腕の動きを検出するのを妨げる可能性がある。長いスカートは、ユーザーが歩行ジェスチャーまたは走行ジェスチャーを行う可能性があるゲームにおいて脚の動きを検出するのを妨げる可能性がある。黒い長椅子に対する黒いズボンは、コントラストの欠如により、可視性問題を生ずる可能性がある。キャプチャー・システム20は、ユーザーが黒い長椅子の近くにいるとき、脚の動きを区別することができない。衣服の色がコントラストの問題を生し、その結果区別可能性の問題に至る可能性がある。加えて、人々がユーザーに近過ぎて立っていることも、彼らの腕や脚が重なり合うので、区別可能性の問題が生ずる可能性がある。深度データーは、ユーザーを区別するのに役立つことができるが、画像キャプチャー・システム20の深度分解能に基づく問題になる可能性がある。
[0066] 追跡フィードバック・ソフトウェア213は、追跡問題を示すタイプのフィードバックを、ユーザーに供給するために選択することができる。例の中には、フィーバックが、アプリケーションの動作(activity)とは独立している視覚インディケーターまたは音声インディケーターによって、追跡品質を向上するように、ユーザーに命令を与える場合もある。例えば、明示的な矢印33が図1Bにおいて画面上に重なっている。また、視野30の中心を指し示しつつ、「右に動け」というテキスト・メッセージまたは音声メッセージを付随させることもできる。
[0067] 他のフィードバックは、もう少し暗示的で巧妙にすることができる。ディスプレイの視覚的特性を変化させることができる。例えば、フィードバックは、ユーザーが視野の境界からある距離の範囲内に入ると、ディスプレイ・ビューの鮮明さを多少低下させることができる。例えば、それが徐々にぼけて行く。ユーザーが視野の中心に向かって動くと、場面の鮮明さが高まる。ユーザーは、鮮明さの変化に意識して気がつかなくてもよい。鮮明さの他に、場面またはビューの表示を変えるために変化させることができる他の視覚的特性の例には、色の刺激(vibrancy)がある。他の例には、色自体がある。例えば、ユーザーが動いて視野の外側に出ると、ディスプレイ上の色が白黒になる。
[0068] 例の中には、追跡フィードバック・ソフトウェア213が、アプリケーションのコンテキストにおけるフィードバックが適していることを判断する場合もある。これらの例のいくつかについては、ユーザーが近づき過ぎている境界上の怪物、またはユーザーが動くべき方向に送られユーザーが「打つ」ボールというように、既に述べられている。他の例には、動く方向において撃つべき敵が含まれ、あるいは他のアバター・プレーヤが入って来て、ユーザーにぶつかって中央に向かって後戻りさせたり、または他のキャラクターが視野に戻る方向に走る。他の例では、ある一定の方向に音響を流し、ユーザーがその方向から遠ざかるようにそれに向かって走る気にさせることができる。ユーザーが、システム20によって取り込まれた深度データーにおいて示されるように、画像キャプチャー・システム20から遠すぎる場合、ユーザーが前進して視野の中に入ることを誘うために、点滅する物体または他の注意喚起表示物体を用いることができる。ユーザーがカメラ20に近過ぎている場合、例えば、視野の前方境界30fとカメラとの間にいる場合、ユーザーに後戻りさせるために、画面をほぼ満たす表示物体を作ることができる。
[0069] このコンテキスト・アプリケーション・フィードバックでは、追跡フィードバック・モジュール213は、コンテキスト・フィードバックの要求を動作制御ソフトウェア・モジュール210に送る。動作制御モジュール210または追跡ソフトウェア213は、繰り返しをできるだけ避けるために、どのコンテキスト・フィードバック技法が使用されたか追跡することができる。コンテキスト・フィードバック要求は、取り組むべき区別可能性要因のタイプを含むことができる。更に、動作に対する提案も含むことができる。例えば、ユーザーが視野に戻る動きを促進するために物体を置くディスプレイ上のターゲット・ゾーンも含むことができる。他の場合では、動作制御モジュール210は、取るべき措置を決定することができる。
[0070] 追跡フィードバック・ソフトウェア213は、そのフィードバック応答の選択を、規準に基づくことができる。前述のように、このような規準の一例は、ユーザーの年齢である。3歳または4歳では、画面上のターゲット・ゾーンに品目をおいて、そのユーザーを移動させることは、この年齢の子供にとっては、余りに反復型であり過ぎる(repetitive)かもしれない。7歳では、特定のコンテキスト・フィードバック技法をもう少し変化させる必要があるかもしれない。
[0071] アプリケーションの競合性(competitiveness)も他の要因となり得る。他のユーザーに対抗してプレーするゲームでは、ユーザーの動きを煽るために撃つべくターゲットを表示ゾーン内に置くことは、不適切である可能性がある。しかしながら、視野の境界付近に爆発物を置くと、ターゲットの予測可能性を高めることなく、ユーザーを動かすことができる。
[0072] アプリケーションの中には、ディスプレイ上においてそのアプリケーションによって表示される動作を邪魔するものを全く望まない場合がある。これらの場合、ディスプレイ16またはコンソール12は、画面外ディスプレイ・デバイスを含むことができる。例えば、コンソール12またはカメラ20上の発光ダイオード(LED)32をユーザーと関連付けて、ユーザーを追跡するアプリケーションの能力をカラー・パレットによって示すことができる。例えば、緑色は正常を示す。黄色は追跡能力が劣化していることを警告しており、赤色は、追跡能力が容認できないレベルまで劣化したことを示す。コンソール12、ディスプレイ16、またはカメラ20上において、追跡能力の等級を示すバー・グラフあるいは他の照明というような、他の画面外ディスプレイ・デバイスまたはビューも使用することができる。
[0073] 妥協案として、境界に近づき過ぎているユーザー、または追跡が追跡規準を満たしていないユーザーのアバター上に、小さいアイコンを出現させることができる。ユーザーは、望ましければ、このアイコンを選択することができる。他の例では、ユーザーまたは彼のアバターを示す小さな箱、ピクチャー・イン・ピクチャーを表示して、追跡問題、およびそれに取り組むための提案までも示すことができる。他の例では、ユーザーがポーズ・ボタンを押した場合、このユーザーまたは彼のアバターを追跡問題メッセージと共に示す箱を表示することができる。
[0074] 他の例では、追跡フィードバック・ソフトウェア213は、アバターの外観変更要求を、アバター表示制御モジュール209に送ることができる。外観変更の例は、アバターの強調とすることができる。他の例には、アバターの外観をぼやけさせるというような視覚的特性を変化させること、あるいはカラーではなく全て黒、または全て白、または白黒にすることが含まれる。他の例では、アバターが徐々に消えて行くようにすることができる。特に、アプリケーションの開始前に訓練セッションが行われる場合、ユーザーには、彼のアバターの外観変更は、彼のジェスチャーに追跡問題があることを意味することを知らせることができる。視野の問題では、これは、競合動作(competitive action)を変更し過ぎることなく、効果的にすることができる。
[0075] フィードバックは、オーディオまたはオーディオビジュアルとすることができる。例えば、アプリケーションの動作開始前の訓練セッションでは、特定の可視性要因がユーザーのジェスチャーの認識に影響を及ぼすことを、特定のアイコンが意味することをユーザーに知らせることができる。アイコンには特定の音響を伴わせることができるので、ユーザーは、例えば、外から中に動くことを知っているのは彼であることが分かる。
[0075] ユーザーのジェスチャーを適正に検出することができないと、アプリケーションの実行に重大な影響を及ぼす可能性があるので、動作の一時中止は、恐らくはユーザーのアバターの外観変更と合わせられて、同様に選択されたフィードバック応答であることができる。他の例では、音響を止めることができる。
[0077] 実施形態の中には、追跡フィードバック・ソフトウェアが、特定のアプリケーションとは別個であることができる場合もある。例えば、追跡フィードバック・ソフトウェアは、APIを提供することができ、このAPIに対してアプリケーションがフィードバック応答の要求を送ることができる。これは、デフォルトのフィードバック応答を使用することを望むアプリケーション開発者には、便利なインターフェースであることができる。勿論、API以外の他の構造も使用することができる。アプリケーション・ソフトウェアは、追加のタイプのユーザー追跡フィードバック応答を、APIによって供給されたものに対して供給することができ、またはアプリケーション開発者がデフォルト・メカニズムの代わりに使用することを好むものに対して供給することができる。他の実施形態では、アプリケーション内部で完全に、またはアプリケーションとは無関係なソフトウェアによって完全に追跡フィードバック・ソフトウェアを扱うことができる。本明細書において記載される技術は、特定のコード・レベルの実施態様に限定されるのではない。画像キャプチャー・システム20は、 人間のターゲットおよび人間以外のターゲットをキャプチャー・エリア内で認識し(対象に特殊な検知デバイスが取り付けられているまたは取り付けられていない)、これらを一意に識別し、三次元空間においてこれらを追跡する。
[0078] 実施形態例によれば、画像キャプチャー・システム20は、深度画像を含む深度情報と共にビデオを取り込むように構成することができる。深度画像は、例えば、飛行時間、構造化光、立体画像などを含む任意の適した技法によって、深度値を含むことができる。図2に示されるように、実施形態例によれば、撮像カメラ・コンポーネント70は、IR発光コンポーネント72、三次元(3D)カメラ74、およびキャプチャー・エリアの深度画像を取り込むために用いることができるRGBカメラ76を含むことができる。例えば、飛行時間分析では、キャプチャー・システム20のIR発光コンポーネント72は、キャプチャー・エリアに向けて赤外線光を放出することができ、次いでセンサを用いて、そのキャプチャー・エリアの中にある1つ以上のターゲットおよび物体の表面からの後方散乱光を、例えば、3Dカメラ74および/またはRGBカメラ76を用いて検出することができる。実施形態の中には、パルス状赤外線光を用いて、発信光パルスと対応する入射光パルスとの間の時間を測定し、深度カメラ・システム20からキャプチャー・エリア内にあるターゲットまたは物体上における特定の場所までの物理的距離を判定するために用いることができるようにするとよい場合がある。加えて、他の実施形態例では、発信光波の位相を着信光波の位相と比較して、位相ずれを判定することもできる。次いで、位相ずれを用いて、キャプチャー・システムからターゲットまたは物体上の特定の場所までの物理的距離を判定することができる。
[0079] 他の実施形態例によれば、飛行時間分析を使用して、例えば、散乱光パルス撮像(shuttered light pulse imaging)を含む種々の技法によって、経時的な光の反射ビームの強度を分析することによって、キャプチャー・システム20からターゲットまたは物体上の特定の場所までの物理的距離を間接的に判定することができる。
[0080] 他の一実施形態例では、キャプチャー・システム20は、構造化光を用いて深度情報を取り込むことができる。このような分析では、パターン光(即ち、格子パターン、縞パターンのような既知のパターンとして表示される光)を、例えば、IR発光コンポーネント72によって、キャプチャー・エリアに向けて投射する。キャプチャー・エリアにおいて1つ以上のターゲットまたは物体の表面に衝突したときに、パターンが、それに応答して、変形する可能性がある。このようなパターンの変形を、例えば、3Dカメラ74および/またはRGBカメラ76によって取り込むことができ、次いで分析して、深度カメラ・システムからターゲットまたは物体上における特定の場所までの物理的距離を判定することができる。
[0081] 他の実施形態によれば、キャプチャー・システム20は、2つ以上の物理的に分離されたカメラを含むことができ、これらが異なる角度からのキャプチャー・エリアを捕らえて、視覚的な立体像を得て、これを解明することによって深度情報を生成することができる。
[0082] これらのエレメントによって得られる相乗効果の一例として、IR発光コンポーネント72および3−Dカメラ74がキャプチャー・エリアの深度画像を供給するが、ある状況では、深度画像のみでは、人間のターゲットの位置または動きを識別するのに十分ではない可能性がある場合について考える。これらの状況では、RGBカメラ76が3−Dカメラからの情報を「引き継ぎ」または補充して、人間のターゲットの動きまたは位置の一層完全な認識を可能にすることができる。例えば、RGBカメラは、とりわけ、1つ以上のターゲットと関連のある色を認識するために使用することができる。ユーザーが模様のあるシャツを着用しており、深度カメラがこのパターンを検出することができない場合、そのパターンを追跡し、ユーザーが行っている動きについての情報を提供するために、RGBカメラを使用することができる。他の例として、ユーザーが体を捻った場合、ユーザーのこの動きを判断するために1つ以上の他のセンサからの情報を補充するために、RGBカメラを使用することができる。更に他の例として、ユーザーが壁または第2ターゲットというような他の物体の隣にいる場合、2つの物体間で区別するためにRGBデーターを使用することができる。また、RGBカメラは、追加の情報を提供するために使用することができる、顔の認識、髪の色等のような、ユーザーの特徴を判定することもできるとよい。例えば、ユーザーが後ろを向いた場合、RGBカメラは髪の色および/または顔の特徴がないことを使用して、ユーザーがキャプチャー・システムに背を向けていると判断することができる。
[0083] キャプチャー・システム20は、インタラクティブ・レート(interactive rate)でデーターを取り込むことができ、データーの忠実性を高め、開示する技法が生の深度データーを処理し、場面における物体をディジタル化し、物体の表面および模様を抽出し、ディスプレイ(16)がその表示画面(例えば、54)上に場面のリアルタイム描画を供給できるように、これらの技法の内任意のものをリアルタイムで実行することを可能にする。
[0084] 図2のシステムの実施形態では、画像キャプチャー・システム20は、動き追跡データー205lおよび任意選択肢をあげると、オーディオ・データー217を送るために、図3Aおよび図3Bにおけるコンピューター・システム例のような計算環境に、通信可能に結合されている。この通信結合は、例えば、USB接続、Firewire接続、イーサネット(登録商標)・ケーブル接続等および/またはワイヤレス802.11b、g、a、またはn接続のようなワイヤレス接続というような、1つ以上の有線接続またはワイヤレス接続で実現することができる。
[0085] 更に、キャプチャー・システム20は、プロセッサー80によって実行することができる命令、およびフレーム・フォーマットで取り込むことができる画像データーを格納するためにメモリー・コンポーネント82も含むことができる。メモリー・コンポーネント82は、ランダム・アクセス・メモリー(RAM)、リード・オンリー・メモリー(ROM)、キャッシュ、フラッシュ・メモリー、ハード・ディスク、または任意の他の適した記憶コンポーネントを含むことができる。一実施形態では、メモリー・コンポーネント82は、図示されているように、画像取り込みコンポーネント70およびプロセッサー80と通信可能な(90)別個のコンポーネントであってもよい。他の実施形態によれば、メモリー・コンポーネント82をプロセッサー80および/または画像キャプチャー・コンポーネント70の中に統合してもよい。
[0086] 更に、キャプチャー・システム20は、撮像カメラ・コンポーネント70および画像データーを格納するメモリー82を制御するために、撮像カメラ・コンポーネント70に通信可能に結合(90)されているプロセッサー80も含む。プロセッサー80は、標準プロセッサー、特殊プロセッサー、マイクロプロセッサー等を含むことができ、プロファイルを格納し、深度画像データーを受け取り、そのデーターを指定フォーマットでメモリー82に格納し、深度画像に適したターゲットが含まれるかもしれないか否か判断し、適したターゲットをスケルトン表現または他のタイプのターゲットのモデルに変換する命令、または任意の他の適した命令を含むことができる命令を実行することができる。更に、この処理の一部は、1つ以上の通信可能に結合されている計算環境において他のプロセッサーによって実行することもできる。
[0087] 処理能力を画像キャプチャー・システム20に含ませることによって、ユーザーのマルチポイント・スケルトン・モデルのようなモデルを、リアルタイムで配信することが可能になる。一実施形態では、キャプチャー・システムの複数のコンポーネントの1つずつ別個のプロセッサーがあってもよく、または1つの中央プロセッサーがあってもよい。他の例として、中央プロセッサーと、少なくとも1つの他の関連プロセッサーがあってもよい。高コストの計算タスクがある場合、2つ以上のプロセッサーが任意の方法でこの処理タスクを分配することができる。これらのプロセッサー(1つまたは複数)は、前述のようなメモリーを含むことができ、このメモリーは1つ以上のユーザー・プロファイルを格納することができる。これらのプロファイルは、身体走査、典型的な使用モードまたはプレー・モード、年齢、身長、体重情報、名前、アバター、高スコア、あるいはシステムのユーザーまたは使用に関連のある任意の他の情報を格納することができる。
[0088] キャプチャー・システム20は、更に、ユーザーによって生成されたオーディオ信号を受けるために使用することができるマイクロフォン78も含むことができる。つまり、この実施形態では、画像キャプチャー・システム20は、オーディオビジュアル・データーキャプチャー・システムとなる。キャプチャー・システムにおけるマイクロフォン(1つまたは複数)は、本システムがターゲットの位置または動きの態様をより良く識別することを可能にするように、ターゲットについて追加の情報および補足情報を提供するために使用することができる。例えば、マイクロフォン(1つまたは複数)は、指向性マイクロフォン(1つまたは複数)、または指向性マイクロフォンのアレイを含むことができ、人間のターゲットの位置を更に識別するため、または2つのターゲット間で区別するために使用することができる。例えば、2人のユーザーが同様の形状または大きさであり、キャプチャー・エリア内にいる場合、例えば、彼らの別々の音声を認識してこれらのユーザーを互いに区別することができるように、ユーザーについての情報を提供するためにマイクロフォンを使用することができる。他の例として、マイクロフォンは、ユーザーについてのユーザー・プロファイルに情報を提供するために、または「音声−テキスト」型実施形態において、使用することもでき、計算システムにおいてテキストを作るために少なくとも1つのマイクロフォンを使用するとよい。
[0089] 画像についての深度値を有する画素データーを、深度画像と呼ぶ。一実施形態によれば、この深度画像は、取り込まれた場面の二次元(2−D)画素エリアを含むことができ、2−D画素エリアにおける各画素は、例えば、カメラ・コンポーネント70の何らかの態様に関する基準点からの、取り込まれた場面における物体の、例えば、センチメートル、ミリメートル等の単位とした、長さまたは距離のような、関連する深度値を有する。例えば、画素に対する深度値は、「Z層」で表すことができる。Z層は、深度カメラ70からその見通し線に沿って延びるZ軸に対して垂直であるとよい。これらの深度値は、纏めて深度マップと呼ぶことができる。
[0090] 深度画像をより簡単に使用し、より少ない計算オーバーヘッドで素早く処理できるように、深度画像をより低い処理分解能にダウンサンプルするとよい。例えば、観察された深度画像の種々の領域を、背景領域と、ターゲットの画像が占める領域に分けることができる。背景領域は、画像から除去するか、または識別して、1つ以上の後続の処理ステップの間これらを無視できるようにすることができる。加えて、1つ以上の高分散および/またはノイズ深度値を除去する、および/または深度画像からスムージングすることができる。失われた深度情報および/または除去された深度情報の部分は、充填すること、および/または再現することができる。このようなバックフィリング(backfilling)は、最も近い近隣を平均化すること、フィルタリング、および/または任意の他の適した方法で行うことができる。スケルトン・モデルのようなモデルを生成するために深度情報を使用できるように、他の適した処理を実行することもできる。
[0091] 図3Aは、図1Aから図1Eにおけるようなゲーミング・コンソールにおいて使用することができる計算環境の実施形態の詳細な例を示し、この計算環境において、ユーザー追跡フィードバックを供給する1つ以上の実施形態が動作することができる。図3Aに示すように、マルチメディア・コンソール12は、レベル1キャッシュ102、レベル2キャッシュ104、およびフラッシュROM(リード・オンリー・メモリー)106を有する中央処理ユニット(CPU)101を有する。レベル1キャッシュ102およびレベル2キャッシュ104は、一時的にデーターを格納し、こうしてメモリー・アクセス・サイクルの回数を減らすことによって、処理速度およびスループットを向上させる。CPU101は、1つよりも多いコア、したがって追加のレベル1およびレベル2キャッシュ102および104を有して設けることもできる。フラッシュROM106は、実行可能コードを格納することができる。実行可能コードは、マルチメディア・コンソール12の電源をオンにしたときに、ブート・プロセスの初期段階中にロードされる。
[0092] グラフィクス処理ユニット(GPU)108およびビデオ・エンコーダー/ビデオ・コデック(コーダー/デコーダー)114は、高速および高分解能グラフィクス処理のためにビデオ処理パイプラインを形成する。データーは、バスを介して、GPU108からビデオ・エンコーダー/ビデオ・コデック114に伝達される。ビデオ処理パイプラインは、テレビジョンまたは他のディスプレイに送信するために、データーをA/V(オーディオ/ビデオ)ポート140に出力する。メモリー・コントローラー110がGPU108に接続されており、限定ではなく、RAM(ランダム・アクセス・メモリー)のような、種々のタイプのメモリー112にプロセッサーがアクセスし易くなっている。
[0093] マルチメディア・コンソール12は、I/Oコントローラー120、システム管理コントローラー122、オーディオ処理ユニット123、ネットワーク・インターフェース・コントローラー124、第1USBホスト・コントローラー126、第2USBコントローラー128、およびフロント・パネルI/Oサブアセンブリ130を含む。これらは、モジュール118上に実装されている。USBコントローラー126および128は、周辺コントローラー142(1)〜142(2)、ワイヤレス・アダプター148、および外部メモリー・デバイス146(例えば、フラッシュ・メモリー、外部CD/DVD ROMドライブ、リムーバブル媒体等)のためのホストとしての役割を果たす。ネットワーク・インターフェース124および/またはワイヤレス・アダプター148は、ネットワーク(例えば、インターネット、ホーム・ネットワーク等)へのアクセスを与え、イーサネット(登録商標)・カード、モデム、Bluetooth(登録商標)モジュール、ケーブル・モデム等を含む広範囲の種々の有線またはワイヤレス・アダプター・コンポーネントの内任意のものでよい。
[0094] システム・メモリー143は、ブート・プロセスの間にロードされるアプリケーション・データーを格納するために設けられている。メディア・ドライブ144が設けられており、DVD/CDドライブ、ハード・ドライブ、またはその他のリムーバブル・メディア・ドライブを備えることができる。メディア・ドライブ144は、マルチメディア・コンソール100の内部にあっても外部にあってもよい。アプリケーション・データーには、実行、再生等のためにマルチメディア・コンソール12がメディア・ドライブを介してアクセスすることができる。メディア・ドライブ144は、シリアルATAバスまたはその他の高速接続(例えば、IEEE1394)のようなバスを介して、I/Oコントローラー120に接続されている。
[0095] 一実施形態では、ディスプレイ・ビュー制御システム202のためのソフトウェアおよびデーターのコピーをメディア・ドライブ144に格納することができ、実行するときにシステム・メモリー143にロードすることができる。
[0096] システム管理コントローラー122は、メディア・コンソール12が利用できることを確保することに関する種々のサービス機能を提供する。オーディオ処理ユニット123およびオーディオ・コデック132は、高忠実度およびステレオ処理を行う、対応のオーディオ処理パイプラインを形成する。オーディオ・データーは、通信リンクを介して、オーディオ処理ユニット123とオーディオ・コデック132との間で伝達される。オーディオ処理パイプラインは、外部オーディオ・プレーヤまたはオーディオ処理能力を有するデバイスによる再生のために、データーをA/Vポート140に出力する。
[0097] フロント・パネルI/Oサブアセンブリ130は、電力ボタン150およびイジェクト・ボタン152の機能をサポートするだけでなく、マルチメディア・コンソール12の外面上に露出する任意のLED(発光ダイオード)またはその他のインディケーターもサポートする。システム電源モジュール136が、マルチメディア・コンソール12のコンポーネントに電力を供給する。ファン138は、マルチメディア・コンソール12内部にある回路を冷却する。
[0098] CPU101、GPU108、メモリー・コントローラー110、およびマルチメディア・コンソール100内部にある種々のその他のコンポーネントは、1系統以上のバスを介して相互接続されている。これらのバスには、シリアルおよびパラレル・バス、メモリー・バス、周辺バス、および種々のバス・アーキテクチャーの内任意のものを用いるプロセッサー・バスまたはローカル・バスが含まれる。一例として、このようなアーキテクチャーは、ペリフェラル・コンポーネント相互接続(PCI)バス、PCI-Expressバス等を含むことができる。
[0099] マルチメディア・コンソール12の電源をオンにすると、システム・メモリー143からメモリー112および/またはキャッシュ102、104にアプリケーション・データーをロードし、CPU101において実行することができる。アプリケーションは、グラフィカル・ユーザー・インターフェースを提示することができる。このグラフィカル・ユーザー・インターフェースは、マルチメディア・コンソール100において利用可能な異なるタイプのメディアにナビゲートするときに、一貫性のあるユーザー体験を提供する。動作において、アプリケーションおよび/またはメディア・ドライブ144内に収容されている他のメディアをメディア・ドライブ144から起動または再生して、マルチメディア・コンソール12に追加の機能を設けることもできる。
[00100] マルチメディア・コンソール12は、単にシステムをテレビジョンまたはその他のディスプレイに接続することによって、単体システムとして動作させることができる。この単体モードでは、マルチメディア・コンソール12は、一人以上のユーザーがシステムと対話処理を行い、ムービーを見ること、または音楽を聞くことを可能にする。しかしながら、ネットワーク・インターフェース124またはワイヤレス・アダプター148によって利用可能となるブロードバンド接続機能を統合することにより、マルチメディア・コンソール12を更に大きなネットワーク・コミュニティにおける関与個体(participant)として動作させることもできる。
[00101] マルチメディア・コンソール12の電源をオンにすると、マルチメディア・コンソールのオペレーティング・システムによって、設定されている量のハードウェア・リソースがシステムの使用のために確保される。これらのリソースは、メモリー(例えば、16MB)、CPUおよびGPUサイクル(例えば、5%)、ネットワーキング帯域幅(例えば、8kbs)等の確保を含むことができる。これらのリソースは、システムのブート時に確保されるので、確保されたリソースは、アプリケーションの視点からは存在しない。
[00102] 特に、メモリーの確保は、起動カーネル、コンカレント・システム・アプリケーション、およびドライバーを含めるのに十分大きいことが好ましい。確保されたCPU使用枠(usage)がシステム・アプリケーションによって用いられない場合、アイドルのスレッドが任意の未使用サイクルを消費するように、CPUの確保は、一定であることが好ましい。
[00103] GPUの確保に関して、GPU割り込みを用いることによって、システム・アプリケーション(例えば、ポップアップ)によって発生される軽量メッセージ(lightweight message)を表示して、ポップアップをオーバーレイにレンダリングするコードをスケジューリングする。オーバーレイに用いられるメモリー量は、オーバーレイのエリア・サイズに依存し、オーバーレイは画面の解像度と共にスケーリングする(scale)ことが好ましい。コンカレント・システム・アプリケーションによってフル・ユーザー・インターフェースが用いられる場合、アプリケーションの解像度とは独立した解像度を用いることが好ましい。周波数を変更しTVの同期を取り直す必要性をなくすように、この解像度を設定するためにスケーラーを用いるとよい。
[00104] マルチメディア・コンソール12がブートして、システム・リソースが確保された後、コンカレント・システム・アプリケーションが実行してシステム機能を提供する。システム機能は、前述の確保したシステム・リソースの内部で実行する1組のシステム・アプリケーションの中にカプセル化されている。オペレーティング・システム・カーネルは、システム・アプリケーション・スレッドと、ゲーミング・アプリケーション・スレッドとの間でスレッドを識別する。一貫したシステム・リソース・ビューをアプリケーションに提供するために、システム・アプリケーションは、所定の時点および間隔でCPU101において実行するようにスケジューリングされていることが好ましい。このスケジューリングは、コンソールにおいて実行しているゲーミング・アプリケーションに対するキャッシュ破壊(disruption)を最少に抑えるためにある。
[00105] コンカレント・システム・アプリケーションがオーディオを必要とする場合、時間に敏感であるため、オーディオ処理を非同期にゲーミング・アプリケーションにスケジューリングする。マルチメディア・コンソール・アプリケーション・マネージャー(以下で説明する)は、システム・アプリケーションがアクティブのとき、ゲーミング・アプリケーションのオーディオ・レベル(例えば、無音化、減衰)を制御する。
[00106] 入力デバイス(例えば、コントローラー142(1)および142(2))は、ゲーミング・アプリケーションおよびシステム・アプリケーションによって共有される。入力デバイスは、確保されるリソースではないが、システム・アプリケーションとゲーミング・アプリケーションとの間で切り換えられて、各々がデバイスのフォーカス(focus)を有するようにする。アプリケーション・マネージャは、ゲーミング・アプリケーションの知識を使用せずに(without knowledge the ...)入力ストリームの切換を制御し、ドライバーはフォーカス・スイッチ(focus switches)に関する状態情報を維持する。画像キャプチャー・システム20は、コンソール12に対して(例えば、そのカメラ・システムに対して)追加の入力デバイスを定めることができる。
[00107] 図3Bは、パーソナル・コンピューターのような、計算環境の他の実施形態例を示す。図3Bを参照すると、本技術を実現するシステム例は、コンピューター310の形態とした汎用計算機を含む。コンピューター310のコンポーネントは、限定ではなく、処理ユニット320、システム・メモリー330、およびシステム・バス321を含むことができる。システム・バス321は、システム・メモリーを含む種々のシステム・コンポーネントを処理ユニット320に結合する。システム・バス321は、メモリー・バスまたはメモリー・コントローラー、周辺バス、および種々のバス・アーキテクチャーの内任意のものを用いるローカル・バスを含む、様々なタイプのバス構造の内任意のものとすることができる。一例として、そして限定ではなく、このようなアーキテクチャーは、業界標準アーキテクチャー(ISA)バス、マイクロ・チャネル・アーキテクチャー(MCA)バス、拡張ISA(EISA)バス、ビデオ・エレクトロニクス標準連盟(VESA)ローカル・バス、および メザニン・バス(Mezzanine bus)としても知られている周辺素子相互接続(PCI)バスを含む。
[00108] コンピューター310は、通例、種々のコンピューター読み取り可能媒体を含む。コンピューター読み取り可能媒体は、コンピューター310によってアクセス可能な任意の入手可能な媒体とすることができ、揮発性および不揮発性、リムーバブルおよび非リムーバブル双方の媒体を含む。一例として、そして限定ではなく、コンピューター読み取り可能媒体は、コンピューター記憶媒体および通信媒体を含むことができる。コンピューター記憶媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、またはその他のデーターというような情報の格納のために、任意の方法または技術で実現される、揮発性および不揮発性の双方、リムーバブル媒体および非リムーバブル媒体を含む。コンピューター記憶媒体は、限定ではなく、RAM、ROM、EEPROM、フラッシュ・メモリーまたはその他のメモリー技術、CD−ROM、ディジタル・バーサタイル・ディスク(DVD)またはその他の光ディスク・ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージまたはその他の磁気記憶デバイス、あるいは所望の情報を格納するために用いることができしかもコンピューター310がアクセス可能なその他の任意の媒体を含む。通信媒体は、通例、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、またはその他のデーターを、搬送波またはその他の移送機構のような変調データー信号において具体化し、任意の情報配信媒体を含む。「変調データー信号」という用語は、その特性の1つ以上が、信号の中に情報をエンコードするようなやり方で設定または変更されている信号を意味する。一例として、そして限定ではなく、通信媒体は、有線ネットワークまたは直接有線接続というような有線媒体、ならびに音響、RF、赤外線、およびその他のワイヤレス媒体というようなワイヤレス媒体を含む。前述の内任意のものの組み合わせも、コンピューター読み取り可能媒体の範囲に含まれてしかるべきである。
[00109] システム・メモリー330は、リード・オンリ・メモリー(ROM)331およびランダム・アクセス・メモリー(RAM)332のような揮発性および/または不揮発性メモリーの形態をなすコンピューター記憶媒体を含む。基本入出力システム333(BIOS)は、起動中のように、コンピューター310内のエレメント間における情報転送を補助する基本的なルーチンを含み、通例ROM331内に格納されている。RAM332は、通例、処理ユニット320が直ちにアクセス可能であるデーターおよび/またはプログラム・モジュール、あるいは現在処理ユニット320によって処理されているデーターおよび/またはプログラム・モジュールを収容する。一例として、そして限定ではなく、図3は、オペレーティング・システム334、アプリケーション・プログラム335、その他のプログラム・モジュール336、およびプログラム・データー337を示す。
[00110] また、コンピューター310は、その他のリムーバブル/非リムーバブル揮発性/不揮発性コンピューター記憶媒体も含むことができる。一例として示すに過ぎないが、図3Bは、非リムーバブル不揮発性磁気媒体からの読み取りおよびこれへの書き込みを行なうハード・ディスク・ドライブ340、リムーバブル不揮発性磁気ディスク312からの読み取りおよびこれへの書き込みを行なう磁気ディスク・ドライブ351、ならびにCD ROMまたはその他の光媒体のようなリムーバブル不揮発性光ディスク356からの読み取りおよびこれへの書き込みを行なう光ディスク・ドライブ356を示す。本動作環境例において使用可能なその他のリムーバブル/非リムーバブル、揮発性/不揮発性コンピューター記憶媒体には、限定ではないが、磁気テープ・カセット、フラッシュ・メモリー・カード、ディジタル・バーサタイル・ディスク、ディジタル・ビデオ・テープ、ソリッド・ステートRAM、ソリッド・ステートROM等が含まれる。ハード・ディスク・ドライブ341は、通例、インターフェース340のような非リムーバブル・メモリー・インターフェースを介してシステム・バス321に接続され、磁気ディスク・ドライブ351および光ディスク・ドライブ355は、通例、インターフェース350のようなリムーバブル・メモリー・インターフェースによって、システム・バス321に接続されている。
[00111] 先に論じ図3Bに示すドライブおよびそれらと関連のあるコンピューター記憶媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、およびコンピューター310のその他のデーターを格納する。図3Bでは、例えば、ハード・ディスク・ドライブ341は、オペレーティング・システム344、アプリケーション・プログラム345、その他のプログラム・モジュール346、およびプログラム・データー347を格納するように示されている。尚、これらのコンポーネントは、オペレーティング・システム334、アプリケーション・プログラム335、その他のプログラム・モジュール336、およびプログラム・データー337と同じでも異なっていても可能であることを注記しておく。オペレーティング・システム344、アプリケーション・プログラム345、その他のプログラム・モジュール346、およびプログラム・データー347は、ここで、少なくともこれらが異なるコピーであることを示すために、異なる番号が与えられている。
[00112] 一実施形態では、ディスプレイ・ビュー制御システム202のソフトウェアおよびデーターのコピーを、ハード・ドライブ238に格納されているまたは離れて格納されている(例えば、248)アプリケーション・プログラム345およびプログラム・データー347に格納することができる。また、実行するときに、システム・メモリー222におけるアプリケーション・プログラム226およびプログラム・データー228としてコピーをロードすることもできる。
[00113] ユーザーは、キーボード362のような入力デバイス、および一般にマウス、トラックボールまたはタッチ・パッドと呼ばれているポインティング・デバイス361によって、コマンドおよび情報をコンピューター20に入力することができる。他の入力デバイス(図示せず)には、マイクロフォン、ジョイスティック、ゲーム・パッド、衛星ディッシュ、スキャナー等を含むことができる。これらおよびその他の入力デバイスは、多くの場合、ユーザー入力インターフェース360を介して、処理ユニット320に接続されている。ユーザー入力インターフェース360は、システム・バスに結合されているが、パラレル・ポート、ゲーム・ポート、またはユニバーサル・シリアル・バス(USB)のようなその他のインターフェースおよびバス構造によって接続することも可能である。モニター391またはその他の形式のディスプレイ・デバイスも、ビデオ・インターフェース390のようなインターフェースを介して、システム・バス321に接続されている。モニターに加えて、コンピューターは、スピーカー397およびプリンター396のような、その他の周辺出力装置も含むことができ、これらは出力周辺インターフェース390を介して接続することができる。
[00114] コンピューター310は、リモート・コンピューター380のような1つ以上のリモート・コンピューターへの論理接続を用いて、ネットワーク環境において動作することも可能である。リモート・コンピューター380は、パーソナル・コンピューター、サーバー、ルータ、ネットワークPC、ピア・デバイス、またはその他の共通ネットワーク・ノードとすることができ、通例、コンピューター310に関して先に説明したエレメントの多くまたは全てを含むが、図3にはメモリー記憶装置381のみが示されている。図3に示す論理接続は、ローカル・エリア・ネットワーク(LAN)371およびワイド・エリア・ネットワーク(WAN)373を含むが、他のネットワークも含むことができる。このようなネットワーク環境は、事務所、企業規模のコンピューター・ネットワーク、イントラネットおよびインターネットにおいては、一般的である。
[00115] LANネットワーク環境で用いる場合、コンピューター310は、ネットワーク・インターフェースまたはアダプター370を介してLAN371に接続される。WANネットワーク環境で用いる場合、コンピューター310は、通例、モデム372、またはインターネットのようなWAN373を介して通信を行うその他の手段を含む。モデム372は、内蔵でも外付けでもよく、ユーザー入力インターフェース310またはその他のしかるべきメカニズムを介してシステム・バス321に接続することができる。ネットワーク接続環境では、コンピューター310に関して図示したプログラム・モジュール、またはその一部は、離れたメモリー記憶装置に格納することもできる。一例として、そして限定ではなく、図3Bは、リモート・アプリケーション・プログラム385がメモリー・デバイス381上に存在するものとして示している。尚、図示のネットワーク接続は一例であり、コンピューター間で通信リンクを作る他の手段も使用可能であることは認められよう。
[00116] 図4は、追跡フィードバックをユーザーに供給する1つ以上の実施形態が動作することができる、ネットワーク接続計算環境の実施形態例を示す。図4に示されるように、複数のコンソール400A〜400Xまたは図3Aおよび図3Bに示されたような処理デバイスを、ネットワーク402に結合することができ、更に互いに通信すること、およびネットワーク402を介して、1つ以上のサーバー(1つまたは複数)406を有するネットワーク・ゲーミング・サービス404と通信することができる。サーバー(1つまたは複数)406は、コンソール400A〜400Xから情報を受信することおよびコンソール400A〜400Xに情報を送信することが可能な通信コンポーネントを含むことができ、コンソール400A〜400Xにおいて実行しているアプリケーションが呼び出して利用することができるサービスの集合体を提供することもできる。
[00117] コンソール400A〜400Xは、ユーザー・ログイン・サービス408を呼び出すことができる。ユーザー・ログイン・サービス408は、コンソール400A〜400Xにおいてユーザーを認証し特定するために使用される。ログインの間、ログイン・サービス408はゲーマー・タグ(gamer tag)(ユーザーと関連付けられている一意の識別子)およびパスワードをユーザーから取得し、更にユーザーが使用しているコンソールを一意に識別するコンソール識別子、およびこのコンソールへのネットワーク・パスも取得する。ゲーマー・タグおよびパスワードは、これらをユーザー・グローバル・プロファイル・データーベース416と比較することによって認証される。グローバル・ユーザー・プロファイル・データーベース416は、ユーザー・ログイン・サービス408と同じサーバーに配置することができ、あるいは1つの異なるサーバーまたは異なるサーバーの集合体に分散することもできる。一旦認証されたなら、ユーザー・ログイン・サービス408はコンソール識別子およびネットワーク・パスをグローバル・ユーザー・プロファイル・データーベース416に格納し、メッセージおよび情報をコンソールに送ることができるようにする。
[00118] 一実施形態では、コンソール400A〜400Xは、ゲーミング・サービス410、共有サービス412、ユーザー共有データー428、および交換データーベース418を含むことができる。ゲーミング・サービスは、ユーザーがオンライン・インタラクティブ・ゲームをプレーすること、コンソール間で合同ゲーム・プレーのためのゲーミング環境を作り共有すること、そしてオンライン市場、種々のゲームに跨がる集中達成追跡、および他の共有体験機能というような、他のサービスを提供することを可能にするのであるとよい。共有サービス412は、ユーザーが他のユーザーとゲーム・プレー・エレメントを共有することを可能にする。例えば、コンソール400xにおけるユーザーが、ゲームにおいて使用するためのエレメントを作り、これらを他のユーザーと共有するまたはこれらを他のユーザーに販売することができる。加えて、ユーザーは、ゲームにおけるレースのムービーまたは種々の場面というような、ゲーム・プレー体験のエレメントを記録し、これらを他のユーザーと共有することもできる。共有または販売のためにユーザーによって提供される情報は、ユーザー共有データー428に格納することができる。
[00119] グローバル・ユーザー・プロファイル・データーベース416は、ユーザーのアカウント情報、および各ユーザーが使用している個々のコンソールを一意に識別するコンソール識別子というような、コンソール400A〜400Xにおけるユーザー全てについての情報を含むことができる。また、グローバル・ユーザー・プロファイル・データーベース416は、コンソール400A〜400Xにおける全てのユーザーと関連のあるユーザー好み情報も含むことができる。また、グローバル・ユーザー・プロファイル・データーベース416は、ユーザーと関連のあるゲーム記録および友人リストのような、ユーザーに関する情報も含むことができる。
[00120] 追跡フィードバック・ソフトウェア414は、ゲーミング・サービス404において提供することもできる。この追跡フィードバック・ソフトウェアは、追跡問題に対して、サーバーにアップロードされユーザー共有データー428に格納されているゲーム・プレー・エレメントにおけるジェスチャーおよび動きで応答することができる。
[00121] 図4に示されているゲーミング・システムによれば、任意の数の処理デバイスをネットワーク接続して設けることができる。したがって、本明細書において紹介された技術は、1つ以上のサーバー406においてゲーミング・サービス404と共に動作することができ、またはネットワーク接続環境において、デバイス400A〜400xのような、個々の処理デバイスに設けることもできる。
[00122] 図5は、キャプチャー・システム20および計算環境12を使用して作ることができる人間のユーザー500のモデルを示す。ユーザーのスケルトン・マッピング例500は、オーディオビジュアル・データー・キャプチャー・システム20によって取り込まれた動き追跡データー205から生成されていてもよい。このモデルは、ジェスチャーなどを判定するために、ジェスチャー・ベース・システム10の1つ以上の態様によって使用することができる。このモデルは、関節および骨で構成することができる。これらの関節および骨を追跡することによって、ジェスチャー・ベース・システムは、ユーザーがどのジェスチャーを行っているのか判断することが可能になるとよい。これらのジェスチャーは、ジェスチャー・ベース・システムを制御するために使用することができる。この実施形態では、種々の関節および骨が識別されている。各手首502a、502b、各前腕504a、504b、各肘506a、506b、各二頭筋508a、508b、各肩510a、510b、各臀部512a、512b、各腿514a、514b、各膝516a、516b、各前肢518a、518b、各足520a、520b、頭部522、胴体524、脊椎の上端526および下端528、ならびにウェスト530である。追跡するポイントが多い程、鼻および目というような、顔の個々の容貌(feature)も識別するとよい。しかしながら、追跡するデーター変化が多い程、アバターの表示が遅くなる可能性がある。
[00123] 図6は、手602を振るまたは上げる、腕604でXを作る、またはハイファイブ606を行うというような、一連のジェスチャーを示す。図示されているこれら少数のジェスチャーには全く限定されないが、これらのジェスチャーは、他の任意のものと共に、ジェスチャー・ベース・システム10に対するコマンドであることができる。一実施形態では、ジェスチャーは普遍的であるとよい。これが意味するのは、ジェスチャーが特定のソフトウェアやハードウェア・アプリケーションには限定されないということである。他の実施形態では、計算環境12において動作されているゲームまたは他のプログラムは、プログラム特定のジェスチャーを有するのであってもよい。例えば、ゲームの制御を他のプレーヤに引き継ぐための普遍的なジェスチャーは、握手にするとよいが、レスリング・ゲームのようなゲームが、ユーザーがハイファイブ524を行う場合に、制御の引き継ぎを行うプログラム特定ジェスチャーを有してもよい。
[00124] 図7および図8の方法の実施形態について、それぞれ、図2の機能的コンピューター実装アーキテクチャーの実施形態のコンテキストで論ずるが、限定ではなく例示を目的とする。
[00125] 図7は、ユーザーの動きを追跡するアプリケーションの能力についてユーザーにフィードバックを供給する方法の実施形態700のフローチャートである。キャプチャー・システムは、キャプチャー・エリアにおいてユーザーを検出する(702)。動きモジュール204は、動き追跡データー2051、および、任意選択肢をあげると、オーディオ・データー217を受けて、キャプチャー・システムによって生成されたデーターに基づいて、このユーザーの少なくとも1つの身体特徴を追跡する(704)。実行アプリケーションに対してユーザー追跡規準が満たされていないことに応答して、追跡フィードバック・ソフトウェア213は、フィードバック応答を決定し(706)、ユーザーへのフィードバックの出力を行わせる(708)。先に説明したように、フィードバックの出力は、視覚インディケーターを表示すること、音声インディケーターを供給すること、またはアプリケーションの動作のコンテキストの範囲における動作を与えることを含むことができる。
[00126] 図8は、キャプチャー・エリアを選択するときにユーザーを補助する方法の実施形態800のフローチャートである。追跡フィードバック・ソフトウェア213は、ユーザーにカメラの視野を試験用キャプチャー・エリアに向けることを命令する命令を表示し(802)、キャプチャー・システム20はこの試験用キャプチャー・エリアの画像データーを取り込む(804)。一実施形態では、追跡フィードバック・ソフトウェア213は、ユーザーが彼自身を見ることができるように、試験用キャプチャー・エリアの画像データーをディスプレイ上に表示することができる。追跡フィードバック・ソフトウェア213は、実行アプリケーションの動作を制御するために使用される少なくとも1つの身体部分を使用して、少なくとも1つのジェスチャーを行うことをユーザーに指示する命令を表示する(806)。動きモジュール204は、ジェスチャーを行う少なくとも1つの身体部分の動きを追跡する(808)。ソフトウェア213は、追跡規準が満たされているか否か判断する(811)。ユーザー追跡規準が満たされたことに応答して、追跡フィードバック・ソフトウェア213は、試験用キャプチャー・エリアに対して追跡品質スコアを決定する(812)。
[00127] 動きモジュール204は、スコアまたは重み、あるいは試験用キャプチャー・エリアについてある種の可視性要因の品質を表す何らかのを、追跡フィードバック・ソフトウェア213に供給することができ、追跡フィードバック・ソフトウェア213は、可視性要因に基づいて、それを追跡規準と比較する。一実施形態では、次に、重み付けアルゴリズムをこれらの要因に適用して、スコアを決定することができる。要因の例には、キャプチャー・システムの視野におけるジェスチャーに対するユーザーの身体部分の位置、キャプチャー・エリアにおける照明、および身体部分の障害が含まれる。
[00128] 異なるキャプチャー・エリアが格付けまたは採点され、最良のものが推薦される(818)。他の代替案では、画像キャプチャー・システム20がある範囲の角度回転させられて、室内における異なるビューを取り込み、最良の追跡能力を備えるものをキャプチャー・エリアとして提案する。最良の追跡能力があるキャプチャー・エリアは、ユーザーにそれを知らせるために表示処理モジュール207を介してディスプレイ16上に表示することができる。
[00129] 動きモジュール204は、ジェスチャーを、ユーザーが行っている動きと照合できない場合もあり、追跡フィードバック・ソフトウェア213にメッセージを送って、それを示すことができる。また、動きモジュール204は、ユーザー追跡規準が満たされないことに寄与している可視性要因を示すこともできる。例えば、可視性要因照明(visibility factor lighting)に対する代表的な品質値が、それが貧弱であることを示すことができる。
[00130] ユーザー追跡規準が満たされていないことに応答して、追跡フィードバック・ソフトウェア213は、可視性要因の内1つ以上を追跡に対してどのようにして改良できるか判定し、ユーザーにフィードバックを出力して(802)、可視性要因を改良するために、キャプチャー・エリアにおいて少なくとも1つの変化を特定する。このフィードバックは、視覚表示を介してまたは音声メッセージとして出力することができる。
[00131] 追跡フィードバック・ソフトウェア213は、試験用キャプチャー・エリアに対する追跡品質スコアを決定する(812)。動きモジュール204は、試験用キャプチャー・エリアに対してスコアまたは重み、またはある種の可視性要因の品質を現す何らかの値を、追跡フィードバック・ソフトウェア213に供給する。追跡フィードバック・ソフトウェア213は、重み付けアルゴリズムをこれらの要因に適用して、スコアを決定することができる。
[00132] 追跡フィードバック・ソフトウェア213は、試験すべき他の試験用キャプチャー・エリアがあるか否か判定する(814)。例えば、他に試験用キャプチャー・エリアがあるか否かに関するユーザー入力を、ディスプレイを介して要求する。他に試験用キャプチャー・エリアがある場合、この試験用エリアについて、以上のステップが繰り返される。他に試験用エリアがない場合、追跡フィードバック・ソフトウェア213は、最良の可視性スコアを有する試験用キャプチャー・エリアの推薦を表示する。例えば、最良のスコアを有する試験用キャプチャー・エリアが、ディスプレイ上に表示される。他にキャプチャー・エリアがある場合、ソフトウェア213は、カメラの視野を次のキャプチャー・エリアに向け、以上のステップを繰り返す命令を表示する(802)。
[00133] 以上の詳細な説明は、例示および説明を目的として提示された。これは、網羅的であることも、開示された技術を開示された形態そのものに限定することを意図するのではない。以上の教示に照らして、多くの変更や変形が可能である。記載された実施形態は、本技術の原理およびその実用的な用途を最良に説明し、それによって当業者が本技術を種々の実施形態において、そして個々の考えられる使用に適するような種々の変更と共に、最良に利用することを可能にするために選択されたのである。更に、本明細書において用いられた文言は、主に読みやすさのためそして教育的な目的のために選択されたことは、注記してしかるべきであろう。
[00134] 主題は、構造的特徴および/または方法論的動作に特定の文言で記載されたが、添付されている特許請求の範囲において定められている主題は、必ずしも、前述した特定の特徴や動作には限定されないことは理解されてしかるべきである。逆に、先に記載した特定の特徴および動作は、特許請求の範囲を実現する形態例として、開示したまでである。

Claims (14)

  1. コンピューター実装システムにおいて、表示された物体の制御のためにユーザー行為を追跡する実行ソフトウェアにおいて、前記システムのユーザー行為を追跡する能力についてユーザーにフィードバックを供給する方法であって、
    キャプチャー・システムによって、キャプチャー・エリアにおいてユーザーを検出するステップと、
    前記キャプチャー・システムによって生成されたデーターに基づいて、前記ユーザーの少なくとも1つの身体特徴を追跡するステップと、
    ユーザー追跡規準が満たされていないことに応答して、フィードバック応答を決定するステップと、
    フィードバックを前記ユーザーに出力するステップと、
    を含む、方法。
  2. 請求項1記載の方法であって、更に、前記フィードバックが、ディスプレイ上の物体の少なくとも1つの動作を変化させるコンテキスト・フィードバックである、方法。
  3. 請求項2記載の方法であって、更に、
    前記キャプチャー・システムが画像キャプチャー・システムであり、
    前記満たされていないユーザー追跡規準が、前記表示された物体を制御することができる前記ユーザーの身体部分が、前記画像キャプチャー・システムの視野の外側に少なくとも部分的に出ていることであり、
    前記ディスプレイ上における前記物体の少なくとも1つの動作が、前記ユーザーが前記身体部分を視野に向けて動かすことの動機付けを、前記実行ソフトウェアのコンテキストにおいて与え、
    請求項1記載の方法において、前記フィードバック応答が、前記ユーザーの年齢を含む前記ユーザーのプロファイルに基づいて決定される、方法。
  4. 請求項1記載の方法において、前記表示される物体がアバターであり、前記ユーザーにフィードバック応答を出力するステップが、前記ユーザーを現すアバターの表示されている外観を変化させるステップを含む、方法。
  5. 請求項1記載の方法において、前記ユーザーにフィードバック応答を出力するステップが、ユーザー追跡規準が満たされていないことを示す視覚インディケーターを前記ユーザーに表示するステップを含む、方法。
  6. 請求項1記載の方法において、前記ユーザーにフィードバック応答を出力するステップが、ユーザー追跡規準が満たされていないことを示す音声インディケーターを前記ユーザーに出力するステップを含む、方法。
  7. 請求項1記載の方法において、前記ユーザーにフィードバック応答を出力するステップが、更に、前記ユーザーの表示されているビューの視覚的特性を変化させるステップを含む、方法。
  8. 請求項1記載の方法であって、更に、前記ユーザー追跡規準が、
    前記キャプチャー・システムの視野内における、前記表示された物体を制御することができる前記ユーザーの身体部分の位置、
    照明、
    コントラスト、および
    前記ユーザーの身体部分の障害、
    から成る一群の可視性要因に基づく、方法。
  9. 請求項1記載の方法であって、更に、ユーザー追跡規準が、
    音量、および
    音声の区別可能性、
    の内の1つから成る音声要因である、区別可能性要因に基づく、方法。
  10. システムのユーザー行為を追跡する能力についてユーザーにフィードバックを供給するシステムであって、
    ユーザーの画像データーを取り込む画像キャプチャー・システムと、
    前記画像キャプチャー・システムに通信可能に結合され、前記画像データーおよび命令を格納するメモリーにアクセス可能な1つ以上のプロセッサーであって、
    前記1つ以上のプロセッサーが、
    前記画像データーにおいてユーザーの少なくとも1つの身体部分を検出する命令と、
    前記少なくとも1つの身体部分の動きを追跡する命令と、
    ユーザー追跡規準が満たされていないことに応答して、ユーザーに表示するフィードバックを決定する命令と、
    前記フィードバックを表示する命令と、
    を含む、1つ以上のプロセッサーと、
    前記1つ以上のプロセッサーに通信可能に結合され、前記フィードバックを前記ユーザーに表示するディスプレイと、
    を含む、システム。
  11. 請求項11記載のシステムにおいて、命令を実行する前記1つ以上のプロセッサーが、更に、
    前記少なくとも1つの身体部分の少なくとも1つの動きを行う命令を表示し、
    前記少なくとも1つの身体部分の動きを追跡し、
    前記1つ以上の可視性要因に基づいて、ユーザー追跡規準が満たされていることに応答して、試験用キャプチャー・エリアに対して、可視性要因に基づく追跡品質スコアを決定し、
    前記1つ以上の可視性要因に基づいて、ユーザー追跡規準が満たされていないことに応答して、
    前記ユーザー追跡規準を満たすために、前記画像データーに対する1つ以上の可視性要因をどのようにして改良できるか判断し、
    可視性要因を改良するために、前記キャプチャー・エリアにおける少なくとも1つの変化を特定するフィードバックを前記ユーザーに表示する、
    ことによってキャプチャー・エリアを選択するときにユーザーを補助する命令を実行することを含む、システム。
  12. 請求項12記載のシステムにおいて、命令を実行する前記1つ以上のプロセッサーが、
    可視性要因の追跡規準に基づいて、複数の試験用キャプチャー・エリアの各々について、追跡品質スコアを決定し、
    最良のスコアを有する前記試験用キャプチャー・エリアを特定し、
    前記最良のスコアを有する試験用キャプチャー・エリアの推薦を表示する、
    ことを含む命令を実行することを含む、システム。
  13. 請求項12記載のシステムにおいて、前記1つ以上の可視性要因が、
    キャプチャー・システムの視野内における、前記ユーザーの少なくとも1つの身体部分の位置、
    照明、
    コントラスト、および
    前記ユーザーの少なくとも1つの身体部分の障害、
    の内1つ以上を含む、システム。
  14. 請求項11記載のシステムにおいて、前記ディスプレイが、画面外のディスプレイ・デバイスである、システム。
JP2013516608A 2010-06-22 2011-06-14 ユーザー追跡フィードバック Expired - Fee Related JP5943913B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/820,954 2010-06-22
US12/820,954 US9898675B2 (en) 2009-05-01 2010-06-22 User movement tracking feedback to improve tracking
PCT/US2011/040317 WO2011163011A2 (en) 2010-06-22 2011-06-14 User tracking feedback

Publications (3)

Publication Number Publication Date
JP2013539565A true JP2013539565A (ja) 2013-10-24
JP2013539565A5 JP2013539565A5 (ja) 2014-07-31
JP5943913B2 JP5943913B2 (ja) 2016-07-05

Family

ID=45372024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013516608A Expired - Fee Related JP5943913B2 (ja) 2010-06-22 2011-06-14 ユーザー追跡フィードバック

Country Status (8)

Country Link
US (1) US9898675B2 (ja)
EP (1) EP2585896B1 (ja)
JP (1) JP5943913B2 (ja)
CN (1) CN102947777B (ja)
CA (1) CA2800538A1 (ja)
ES (1) ES2669869T3 (ja)
TW (1) TW201203089A (ja)
WO (1) WO2011163011A2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017143992A (ja) * 2016-02-16 2017-08-24 株式会社トプコン 眼科検査システム及び眼科検査装置
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
JP2018005663A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、表示システム、プログラム
JP2018084951A (ja) * 2016-11-24 2018-05-31 株式会社日立製作所 行動解析装置及び行動解析方法
JP2019533226A (ja) * 2016-09-30 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント 人による追跡装置のオクルージョンの影響を低減するシステム及び方法
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
JP5829390B2 (ja) * 2010-09-07 2015-12-09 ソニー株式会社 情報処理装置、および情報処理方法
US8698092B2 (en) * 2010-09-10 2014-04-15 Samsung Electronics Co., Ltd. Method and apparatus for motion recognition
US9477302B2 (en) * 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
CN103282907A (zh) 2010-11-05 2013-09-04 耐克国际有限公司 自动个人训练的方法和系统
US8385596B2 (en) * 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9360943B2 (en) * 2010-12-27 2016-06-07 Lg Electronics Inc. Display device and method of providing feedback for gestures thereof
KR101792866B1 (ko) * 2011-04-06 2017-11-20 삼성전자주식회사 이벤트 센서와 칼라 센서를 이용한 동작 인식 장치 및 그 방법
JP6297484B2 (ja) 2011-04-20 2018-03-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ジェスチャーに基づく要素又はアイテムの制御
DE102011075467A1 (de) * 2011-05-06 2012-11-08 Deckel Maho Pfronten Gmbh Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken
CN103635240B (zh) 2011-07-01 2015-12-16 英派尔科技开发有限公司 基于姿势的游戏的安全方案
TWI441042B (zh) 2011-07-01 2014-06-11 Pixart Imaging Inc 互動影像系統、互動控制裝置及其運作方法
CN102866772B (zh) * 2011-07-07 2016-02-17 原相科技股份有限公司 互动影像系统、互动控制装置及其运作方法
US9159152B1 (en) * 2011-07-18 2015-10-13 Motion Reality, Inc. Mapping between a capture volume and a virtual world in a motion capture simulation environment
US9390318B2 (en) 2011-08-31 2016-07-12 Empire Technology Development Llc Position-setup for gesture-based game system
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US10423515B2 (en) * 2011-11-29 2019-09-24 Microsoft Technology Licensing, Llc Recording touch information
US8657681B2 (en) 2011-12-02 2014-02-25 Empire Technology Development Llc Safety scheme for gesture-based game system
GB2512518B (en) * 2011-12-23 2017-06-14 Sensomotoric Instr Ges Fur Innovative Sensorik Mbh Method and system for presenting at least one image of at least one application on a display device
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8790179B2 (en) 2012-02-24 2014-07-29 Empire Technology Development Llc Safety scheme for gesture-based game system
CN103369214A (zh) * 2012-03-30 2013-10-23 华晶科技股份有限公司 图像获取方法与图像获取装置
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
EP2662827B1 (en) * 2012-05-08 2016-01-13 Axis AB Video analysis
TWI557685B (zh) * 2012-05-23 2016-11-11 雲南恆達睿創三維數字科技有限公司 網格動畫製作方法
TWI457532B (zh) * 2012-05-31 2014-10-21 Pixart Imaging Inc 光學物件辨識系統
TWI471630B (zh) * 2012-06-01 2015-02-01 Hon Hai Prec Ind Co Ltd 主動式距離對焦系統及方法
US9170667B2 (en) * 2012-06-01 2015-10-27 Microsoft Technology Licensing, Llc Contextual user interface
US9704171B2 (en) * 2012-06-05 2017-07-11 Applause App Quality, Inc. Methods and systems for quantifying and tracking software application quality
CN103488277B (zh) * 2012-06-12 2016-08-03 原相科技股份有限公司 光学物体识别系统
US9682321B2 (en) * 2012-06-20 2017-06-20 Microsoft Technology Licensing, Llc Multiple frame distributed rendering of interactive content
US8777226B1 (en) 2012-06-21 2014-07-15 Robert Hubert Decker, Jr. Proxy target system
US20140188009A1 (en) * 2012-07-06 2014-07-03 University Of Southern California Customizable activity training and rehabilitation system
US8512140B1 (en) * 2012-07-26 2013-08-20 Zynga Inc. Gaming system for updating a presentation of a virtual game environment
DE102012216195A1 (de) * 2012-09-12 2014-05-28 Continental Automotive Gmbh Eingabeeinrichtung
TWI463181B (zh) * 2012-09-25 2014-12-01 Au Optronics Corp 三維顯示器系統及其控制方法
EP4053851A1 (en) * 2012-10-30 2022-09-07 Nike Innovate C.V. User interface and fitness meters for remote joint workout session
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US9681982B2 (en) 2012-12-17 2017-06-20 Alcon Research, Ltd. Wearable user interface for use with ocular surgical console
KR102292820B1 (ko) * 2012-12-21 2021-08-25 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 게임플레이의 원격 제어
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
US9372541B2 (en) * 2013-03-11 2016-06-21 Honeywell International Inc. Gesture recognition system operability verification
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US9798388B1 (en) * 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
TWI509464B (zh) * 2013-08-07 2015-11-21 Univ Nat Taipei Technology 互動程式物件處理方法與其多機通訊方法
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
IL228332A0 (en) * 2013-09-10 2014-08-31 Pointgrab Ltd The method of repeated feeding and a system for interactive systems
TWI524211B (zh) * 2013-09-11 2016-03-01 萬國商業機器公司 電子裝置及其顯示角度調整方法
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
TWI537767B (zh) 2013-10-04 2016-06-11 財團法人工業技術研究院 可調體感範圍之多人指引系統與其方法
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9542544B2 (en) * 2013-11-08 2017-01-10 Microsoft Technology Licensing, Llc Correlated display of biometric identity, feedback and user interaction state
US9595146B2 (en) * 2013-11-18 2017-03-14 Microsoft Technology Licensing, Llc Persistent user identification
TWI488072B (zh) * 2013-12-19 2015-06-11 Lite On Technology Corp 手勢辨識系統及其手勢辨識方法
TWI602602B (zh) * 2014-01-10 2017-10-21 International Games System Co Ltd The method of judging the score of somatosensory game
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9563956B2 (en) * 2014-03-26 2017-02-07 Intel Corporation Efficient free-space finger recognition
TWI499938B (zh) * 2014-04-11 2015-09-11 Quanta Comp Inc 觸控系統
US9665198B2 (en) * 2014-05-06 2017-05-30 Qualcomm Incorporated System and method for optimizing haptic feedback
US9600074B2 (en) * 2014-07-09 2017-03-21 Pearson Education, Inc. Operational feedback with 3D commands
US9691293B2 (en) 2014-07-09 2017-06-27 Pearson Education, Inc. Customizing application usability with 3D input
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
KR102214194B1 (ko) * 2014-08-19 2021-02-09 삼성전자 주식회사 Rf센서를 가진 디스플레이장치 및 디스플레이장치의 사용자 감지방법
US9554188B2 (en) * 2014-08-27 2017-01-24 Verizon Patent And Licensing Inc. Shock block
EP3202125B1 (en) * 2014-09-30 2019-07-31 Hewlett-Packard Development Company, L.P. Sound conditioning
US9928233B2 (en) 2014-11-12 2018-03-27 Applause App Quality, Inc. Computer-implemented methods and systems for clustering user reviews and ranking clusters
TWI571767B (zh) * 2014-12-09 2017-02-21 國立臺灣大學 背螢幕式三維互動系統與方法
CN104536568B (zh) * 2014-12-26 2017-10-31 技嘉科技股份有限公司 侦测用户头部动态的操控系统及其操控方法
US9715619B2 (en) 2015-03-14 2017-07-25 Microsoft Technology Licensing, Llc Facilitating aligning a user and camera for user authentication
US9984519B2 (en) 2015-04-10 2018-05-29 Google Llc Method and system for optical user recognition
CN105045712B (zh) * 2015-07-15 2017-09-26 中国航空无线电电子研究所 一种用于测试图形处理模块的测试系统
US20170038829A1 (en) * 2015-08-07 2017-02-09 Microsoft Technology Licensing, Llc Social interaction for remote communication
US20170039986A1 (en) * 2015-08-07 2017-02-09 Microsoft Technology Licensing, Llc Mixed Reality Social Interactions
US10225301B2 (en) * 2015-08-26 2019-03-05 Zhan Ma Method and apparatus for use of input messages in media transport to support interactive communications
CN106648042B (zh) * 2015-11-04 2020-11-06 重庆邮电大学 一种识别控制方法以及装置
US10610133B2 (en) 2015-11-05 2020-04-07 Google Llc Using active IR sensor to monitor sleep
US10204265B2 (en) * 2016-01-11 2019-02-12 Electronics And Telecommunications Research Institute System and method for authenticating user
CN108700944B (zh) 2016-05-12 2021-08-17 谷歌有限责任公司 与在虚拟现实环境中的运动有关的系统和方法
US11146661B2 (en) * 2016-06-28 2021-10-12 Rec Room Inc. Systems and methods for detecting collaborative virtual gestures
US11295706B2 (en) * 2016-06-30 2022-04-05 Microsoft Technology Licensing, Llc Customizable compact overlay window
JP6208837B1 (ja) * 2016-10-12 2017-10-04 株式会社エイチアイ ユーザインタフェースを制御する方法、プログラム及び装置
CN106338839A (zh) * 2016-11-08 2017-01-18 金陵科技学院 一种3d动漫演示装置
CN106601217B (zh) * 2016-12-06 2021-03-02 北京邮电大学 一种交互式乐器演奏方法及装置
CN110637273B (zh) * 2017-05-10 2021-12-03 微软技术许可有限责任公司 在虚拟环境内呈现应用
TWI637341B (zh) * 2017-05-18 2018-10-01 緯創資通股份有限公司 穿戴式裝置、動態事件記錄系統及其動態事件記錄方法
TWI637363B (zh) * 2017-07-26 2018-10-01 銘傳大學 擴增實境之人機互動系統
US11266328B2 (en) 2017-08-03 2022-03-08 Latella Sports Technologies, LLC Systems and methods for evaluating body motion
TWI633326B (zh) * 2017-09-11 2018-08-21 宏碁股份有限公司 多人定位系統以及多人定位方法
KR101987864B1 (ko) * 2017-12-22 2019-06-11 (주)네오인터넷 게임 유저의 액션 기반 전자 게임 제공방법
US10983604B2 (en) 2018-05-16 2021-04-20 Alcon Inc. Foot controlled cursor
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US11204648B2 (en) * 2018-06-12 2021-12-21 Mastercard International Incorporated Handshake to establish agreement between two parties in virtual reality
US10636118B2 (en) 2018-06-25 2020-04-28 Microsoft Technology Licensing, Llc Input scaling to keep controller inside field of view
US10958828B2 (en) 2018-10-10 2021-03-23 International Business Machines Corporation Advising image acquisition based on existing training sets
EP3726344A1 (en) 2019-04-16 2020-10-21 InterDigital CE Patent Holdings Method and apparatus for user control of an application and corresponding device
US10762716B1 (en) 2019-05-06 2020-09-01 Apple Inc. Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
TWI730500B (zh) * 2019-11-13 2021-06-11 財團法人資訊工業策進會 運動輔助裝置及運動輔助方法
USD954108S1 (en) * 2019-12-24 2022-06-07 Sony Corporation Display screen or portion thereof with an animated graphical user interface
US11554324B2 (en) * 2020-06-25 2023-01-17 Sony Interactive Entertainment LLC Selection of video template based on computer simulation metadata
US11615648B2 (en) 2021-05-28 2023-03-28 Sportsbox.ai Inc. Practice drill-related features using quantitative, biomechanical-based analysis
US20230267667A1 (en) * 2022-02-22 2023-08-24 Autodesk, Inc. Immersive analysis environment for human motion data

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (ja) * 1997-01-22 1998-08-07 Toshiba Corp ユーザインタフェース装置及び操作範囲呈示方法
JPH11272293A (ja) * 1998-03-24 1999-10-08 Sanyo Electric Co Ltd 遠隔制御装置
JP2003030686A (ja) * 2001-07-19 2003-01-31 Konami Co Ltd ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
JP2007241797A (ja) * 2006-03-10 2007-09-20 Konami Digital Entertainment:Kk 表示装置、表示方法、ならびに、プログラム
JP2007267858A (ja) * 2006-03-30 2007-10-18 Namco Bandai Games Inc サーバシステム、ゲーム端末、プログラム及び情報記憶媒体
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input
JP2009535167A (ja) * 2006-05-04 2009-10-01 ソニー・コンピュータ・エンタテインメント・アメリカ・インク 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP2010082386A (ja) * 2008-10-02 2010-04-15 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2011189066A (ja) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム

Family Cites Families (275)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JP2622620B2 (ja) 1989-11-07 1997-06-18 プロクシマ コーポレイション コンピュータにより発生されたデイスプレイ可視像を変更するためのコンピュータ入力システム
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
DE69229474T2 (de) 1991-12-03 2000-03-02 French Sportech Corp Interaktives videosystem zur beobachtung und zum training der leistungsfähigkeit einer person
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) * 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
CN100524015C (zh) 1995-06-22 2009-08-05 3Dv系统有限公司 生成距景物距离的图象的方法和装置
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US5813863A (en) * 1996-05-01 1998-09-29 Sloane; Sharon R. Interactive behavior modification system
JP2000510013A (ja) 1996-05-08 2000-08-08 リアル ヴィジョン コーポレイション 位置検出を用いたリアルタイムシミュレーション
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
JP2001504605A (ja) 1996-08-14 2001-04-03 ラティポフ,ヌラフメド,ヌリスラモビチ 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6124862A (en) 1997-06-13 2000-09-26 Anivision, Inc. Method and apparatus for generating virtual views of sporting events
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
WO1999015863A1 (en) 1997-09-24 1999-04-01 3Dv Systems, Ltd. Acoustical imaging system
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2002516121A (ja) 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6241612B1 (en) 1998-11-09 2001-06-05 Cirrus Logic, Inc. Voice communication during a multi-player game
US7483049B2 (en) 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
WO2000034919A1 (en) 1998-12-04 2000-06-15 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
WO2001018563A1 (en) 1999-09-08 2001-03-15 3Dv Systems, Ltd. 3d imaging system
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US6690618B2 (en) 2001-04-03 2004-02-10 Canesta, Inc. Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device
US7050177B2 (en) 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US7006236B2 (en) * 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US20030132950A1 (en) 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
DE19960180B4 (de) 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) * 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
US6767287B1 (en) 2000-03-16 2004-07-27 Sony Computer Entertainment America Inc. Computer system and method for implementing a virtual reality environment for a multi-player game
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6784901B1 (en) 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7327376B2 (en) 2000-08-29 2008-02-05 Mitsubishi Electric Research Laboratories, Inc. Multi-user collaborative graphical user interfaces
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US20020075334A1 (en) 2000-10-06 2002-06-20 Yfantis Evangelos A. Hand gestures and hand motion for replacing computer mouse events
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6809726B2 (en) 2000-12-11 2004-10-26 Xerox Corporation Touchscreen display calibration using results history
US20020126090A1 (en) * 2001-01-18 2002-09-12 International Business Machines Corporation Navigating and selecting a portion of a screen by utilizing a state of an object as viewed by a camera
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
AU2002315456A1 (en) 2001-06-22 2003-01-08 Canesta, Inc. Method and system to display a virtual input device
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US20030165048A1 (en) 2001-12-07 2003-09-04 Cyrus Bamji Enhanced light-generated interface for use with electronic devices
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US20030169906A1 (en) 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
US7607509B2 (en) 2002-04-19 2009-10-27 Iee International Electronics & Engineering S.A. Safety device for a vehicle
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7782297B2 (en) * 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
GB2398691B (en) 2003-02-21 2006-05-31 Sony Comp Entertainment Europe Control of data processing
US20040179039A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate
US7103852B2 (en) 2003-03-10 2006-09-05 International Business Machines Corporation Dynamic resizing of clickable areas of touch screen applications
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
EP3190546A3 (en) 2003-06-12 2017-10-04 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20050215319A1 (en) 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
JP5128276B2 (ja) * 2004-05-10 2013-01-23 任天堂株式会社 ゲーム装置、ゲームプログラム、コンピュータ読み取り可能な情報記憶媒体、ゲームシステムおよびゲーム処理方法
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
GB0417075D0 (en) 2004-07-30 2004-09-01 Hewlett Packard Development Co Calibrating digital pens
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
WO2006025137A1 (ja) 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
TWI316196B (en) 2004-11-01 2009-10-21 Ibm Apparatus method and system for improved feedback of pointing device event processing
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
EP2487624B1 (en) 2005-01-07 2020-02-19 Qualcomm Incorporated(1/3) Detecting and tracking objects in images
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
US8369795B2 (en) * 2005-01-12 2013-02-05 Microsoft Corporation Game console notification system
CN1304931C (zh) 2005-01-27 2007-03-14 北京理工大学 一种头戴式立体视觉手势识别装置
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
US7598942B2 (en) 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system
KR100688743B1 (ko) 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US7577925B2 (en) 2005-04-08 2009-08-18 Microsoft Corporation Processing for distinguishing pen gestures and dynamic self-calibration of pen-based computing systems
US20060258427A1 (en) 2005-05-13 2006-11-16 Igt Wide area table gaming monitor and control system
BRPI0613165A2 (pt) 2005-05-17 2010-12-21 Gesturetek Inc saìda de sinal sensìvel à orientação
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
JP4773170B2 (ja) * 2005-09-14 2011-09-14 任天堂株式会社 ゲームプログラムおよびゲームシステム
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
GB2431717A (en) 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US7834850B2 (en) * 2005-11-29 2010-11-16 Navisense Method and system for object control
US8241118B2 (en) 2006-01-27 2012-08-14 Great Play Holdings Llc System for promoting physical activity employing virtual interactive arena
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8004503B2 (en) 2006-02-21 2011-08-23 Microsoft Corporation Auto-calibration of a touch screen
US8668334B2 (en) * 2006-02-27 2014-03-11 Vital Art And Science Incorporated Vision measurement and training system and method of operation thereof
US7433024B2 (en) 2006-02-27 2008-10-07 Prime Sense Ltd. Range mapping using speckle decorrelation
JP5089060B2 (ja) * 2006-03-14 2012-12-05 株式会社ソニー・コンピュータエンタテインメント エンタテインメントシステムおよびゲームコントローラ
CN1828630A (zh) 2006-04-06 2006-09-06 上海交通大学 基于流形学习的人脸姿势识别方法
US8766983B2 (en) 2006-05-07 2014-07-01 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
US7721207B2 (en) 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US20080040692A1 (en) 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US8683386B2 (en) 2006-10-03 2014-03-25 Brian Mark Shuster Virtual environment for computer game
CA2700843C (en) 2006-10-26 2016-11-01 Richard John Baker Method and apparatus for providing personalised audio-visual instruction
US8157652B2 (en) 2006-11-10 2012-04-17 Igt Interactive gaming table
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
US20080146302A1 (en) * 2006-12-14 2008-06-19 Arlen Lynn Olsen Massive Multiplayer Event Using Physical Skills
JP2008152530A (ja) 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US20080200287A1 (en) * 2007-01-10 2008-08-21 Pillar Vision Corporation Trajectory detection and feedfack system for tennis
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US20090005141A1 (en) 2007-06-26 2009-01-01 Nokia Corporation Personalized Multiplayer Media Game or Quiz
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8630924B2 (en) * 2007-08-31 2014-01-14 Accenture Global Services Limited Detection of stock out conditions based on image processing
JP5430572B2 (ja) 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
WO2009059065A1 (en) 2007-10-30 2009-05-07 Hewlett-Packard Development Company, L.P. Interactive display system with collaborative gesture detection
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
WO2009067676A1 (en) 2007-11-21 2009-05-28 Gesturetek, Inc. Device access control
JP2011504710A (ja) * 2007-11-21 2011-02-10 ジェスチャー テック,インコーポレイテッド メディア嗜好
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US20110009194A1 (en) * 2007-12-06 2011-01-13 Oz Gabai Acoustic motion capture
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US20100039500A1 (en) 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US20090319459A1 (en) 2008-02-20 2009-12-24 Massachusetts Institute Of Technology Physically-animated Visual Display
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US20090237490A1 (en) * 2008-03-21 2009-09-24 Nelson Jr Douglas V System and method for stereoscopic image creation and transmission
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
JP4583472B2 (ja) * 2008-04-28 2010-11-17 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US8113991B2 (en) 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
JP5231903B2 (ja) 2008-09-03 2013-07-10 株式会社日立ハイテクノロジーズ プラズマ処理装置
US8127236B2 (en) * 2008-09-12 2012-02-28 International Business Machines Corporation Virtual universe subject matter expert assistance
US8619043B2 (en) 2009-02-27 2013-12-31 Blackberry Limited System and method of calibration of a touch screen display
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8294105B2 (en) * 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
WO2011113014A1 (en) 2010-03-12 2011-09-15 Shafa Wala Position capture input apparatus, system, and method therefor
US8562403B2 (en) * 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
EP2579955B1 (en) * 2010-06-11 2020-07-08 Harmonix Music Systems, Inc. Dance game and tutorial

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (ja) * 1997-01-22 1998-08-07 Toshiba Corp ユーザインタフェース装置及び操作範囲呈示方法
JPH11272293A (ja) * 1998-03-24 1999-10-08 Sanyo Electric Co Ltd 遠隔制御装置
JP2003030686A (ja) * 2001-07-19 2003-01-31 Konami Co Ltd ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
JP2007241797A (ja) * 2006-03-10 2007-09-20 Konami Digital Entertainment:Kk 表示装置、表示方法、ならびに、プログラム
JP2007267858A (ja) * 2006-03-30 2007-10-18 Namco Bandai Games Inc サーバシステム、ゲーム端末、プログラム及び情報記憶媒体
JP2009535167A (ja) * 2006-05-04 2009-10-01 ソニー・コンピュータ・エンタテインメント・アメリカ・インク 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input
JP2010082386A (ja) * 2008-10-02 2010-04-15 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2011189066A (ja) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017143992A (ja) * 2016-02-16 2017-08-24 株式会社トプコン 眼科検査システム及び眼科検査装置
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
JP2018005663A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、表示システム、プログラム
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation
JP2019533226A (ja) * 2016-09-30 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント 人による追跡装置のオクルージョンの影響を低減するシステム及び方法
JP2018084951A (ja) * 2016-11-24 2018-05-31 株式会社日立製作所 行動解析装置及び行動解析方法

Also Published As

Publication number Publication date
WO2011163011A3 (en) 2012-03-29
EP2585896A4 (en) 2016-03-23
TW201203089A (en) 2012-01-16
US9898675B2 (en) 2018-02-20
JP5943913B2 (ja) 2016-07-05
CN102947777A (zh) 2013-02-27
WO2011163011A2 (en) 2011-12-29
ES2669869T3 (es) 2018-05-29
US20100277411A1 (en) 2010-11-04
CA2800538A1 (en) 2011-12-29
CN102947777B (zh) 2016-08-03
EP2585896A2 (en) 2013-05-01
EP2585896B1 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
JP5943913B2 (ja) ユーザー追跡フィードバック
JP5632474B2 (ja) ユーザーから学習した入力を介し視覚表示を実写のようにする方法及びシステム
JP5865357B2 (ja) アバター・ジェスチャーの表示制限
JP5576932B2 (ja) キャラクターにアニメーションまたはモーションを加えるシステムおよび方法
JP5819856B2 (ja) モーション・キャプチャー・システムにおけるユーザー意図の認識
JP5635069B2 (ja) 連鎖アニメーション
JP5859456B2 (ja) プレゼンテーション用カメラ・ナビゲーション
JP5739872B2 (ja) モーションキャプチャにモデルトラッキングを適用するための方法及びシステム
CN102448560B (zh) 经由屏幕上化身进行用户移动反馈的系统和方法
CN102448561B (zh) 姿势教练

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150514

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160524

R150 Certificate of patent or registration of utility model

Ref document number: 5943913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees