JP2012525230A - 仮想ポート管理方法及びシステム - Google Patents

仮想ポート管理方法及びシステム Download PDF

Info

Publication number
JP2012525230A
JP2012525230A JP2012508733A JP2012508733A JP2012525230A JP 2012525230 A JP2012525230 A JP 2012525230A JP 2012508733 A JP2012508733 A JP 2012508733A JP 2012508733 A JP2012508733 A JP 2012508733A JP 2012525230 A JP2012525230 A JP 2012525230A
Authority
JP
Japan
Prior art keywords
user
gesture
virtual port
computing environment
port
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012508733A
Other languages
English (en)
Other versions
JP2012525230A5 (ja
JP5410596B2 (ja
Inventor
ストーン−ペレス,キャスリン
マーゴリス,ジェフリー
フィノッキオ,マーク・ジェイ
キーン,ブライアン・イー
プート,ルディ・ジャコバス
ラッタ,スティーヴン・ジー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2012525230A publication Critical patent/JP2012525230A/ja
Publication of JP2012525230A5 publication Critical patent/JP2012525230A5/ja
Application granted granted Critical
Publication of JP5410596B2 publication Critical patent/JP5410596B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3202Hardware aspects of a gaming system, e.g. components, construction, architecture thereof
    • G07F17/3204Player-machine interfaces
    • G07F17/3206Player sensing means, e.g. presence detection, biometrics
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3202Hardware aspects of a gaming system, e.g. components, construction, architecture thereof
    • G07F17/3204Player-machine interfaces
    • G07F17/3209Input means, e.g. buttons, touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

仮想ポートを管理するための技法が開示される。仮想ポートそれぞれが、例えば、特権、権利、又は選択肢など関連付けられた異なる特性を有し得る。1人以上のユーザーが、ジェスチャベースシステムのキャプチャシーンに存在するとき、本システムが、仮想ポートをユーザーと関連付け得、仮想ポートを維持し得る。仮想ポートとユーザーとの関係を断つか又は2人以上のユーザー間において仮想ポートを交換するための技法も提供される。
【選択図】図11

Description

本発明は、ジェスチャベースシステムに関し、具体的には仮想ポートを管理するための技法に関する。
[0001]典型的な計算環境において、ユーザーは、ケーブル接続、有線接続、無線接続、又はその他の接続手段によって計算環境と接続され得るキーボード、マウス、ジョイスティックなどの入力装置を有している。計算環境のコントロールが、接続されたコントローラーからジェスチャベースコントロールへ変えられた場合、もはやユーザーは、ユーザーが関連付けられているポートの計算環境へ通知するための接続機器を有し得ない。更に、複数のユーザーが、ジェスチャベース環境に関するキャプチャ領域に存在している場合、システムは、どのユーザーのジェスチャを無視するか、及び誰に注意を向けるか、又は誰がどのポートと関連付けられているか、を決定する必要がある。最終的に複数のユーザーが、ジェスチャベースの入力を計算環境へ同時に提供している場合、システムは、複数のユーザーを区別し、彼らに関する優先権又はプロトコルを決定する必要があり得る。
[0002]理論上のジェスチャベース制御システムにおけるユーザー体験は、いくつかの問題も提示し得る。例えば、計算環境が、コントローラー又はキーボードのような一連の入力を有しているとき、ユーザーは、その人がポートと接続されたコントローラーを有していること、その人がキー又はボタンを押下していること、システムが応答していること、を決定可能である。計算環境全域の制御がユーザーのジェスチャへ変えられたとき、ユーザーは、その人が感知されていること、システムにコントローラーとして結合されていることなどを知らせるフィードバックを必要とし得る。
[0003]したがって、計算環境が計算環境に関する主なユーザーを選択し得るためのシステム及び方法が必要とされる。コントロールがジェスチャベースであるとき、システムにオン又はオフするユーザーに合図し、計算環境の制御を引継ぎ、又は別の方法で取得、放棄、又は移動を可能にするための方法及びシステムを有することも必要とされる。
本発明の目的は、1人以上のユーザーが、ジェスチャベースシステムのキャプチャシーンに存在するとき、仮想ポートを管理し、フィードバックするための方法及びシステムを提供することである。
[0004]仮想ポートを管理するための技法が、本明細書に開示される。ユーザーをジェスチャベースシステムと結合し、フィードバックをユーザーに提供するための技法も本明細書に開示される。
[0005]実施形態において、システムの仮想ポートとのユーザーの対話レベルを示すいくつかの状態が定義される。これらの状態は、例えば、どのユーザーもキャプチャ領域において検出されず、キャプチャ装置がユーザーと結合されていない非結合/未検出状態を含み得る。状態は、ユーザーが領域において検出され得るが、しかし、システムが、ユーザーとまだ結合していない非結合/検出状態も含み得る。状態は、ユーザーがキャプチャ装置によって検出され、それと結合されている双方である結合/検出状態も含み得、ユーザーがジェスチャベースコマンドをジェスチャベースシステムに提供し得るのがこの状態であり得る。本システムは、結合されているユーザーが、キャプチャ装置の検出領域から退場する結合/未検出状態もあり得る。
[0006]現在のポート状態を示し、状態の変化を示すためのフィードバックが、ユーザーに提供され得る。上記フィードバックは、例えば、オン又はオフに切り替わる光、色を変える光、又は点滅する光であり得る視覚的な表示形式を取り得る。例えば、音声フィードバックのような適切な別のタイプのフィードバックも使用され得る。
[0007]別の実施形態が、ジェスチャベースシステムにおいて、ユーザーを仮想ポートと関連付けるためのシステム及び方法を提示する。コンピューティングセッションに参加する第1のユーザーが、入場ジェスチャを実行する。ジェスチャベースシステムが、この入場ジェスチャを検出したとき、本システムは、第1のユーザーをプライマリー仮想ポートと関連付け得る。第2のユーザーが、キャプチャ領域に参加し、入場ジェスチャを実行した場合、本システムは、第2のユーザーをセカンダリー仮想ポートと関連付け得る。第3のユーザーがキャプチャ領域に参加し、入場ジェスチャを実行した場合、本システムは、第3のユーザーを第3のポートと割り当て得る。ユーザーをそれぞれの仮想ポートに割り当てるこのパターンが、任意の数の更なるユーザーに対し繰り返され得る。それぞれの仮想ポートは、例えば、特権、権利、又は選択肢を含むそれ自身の一連の特性それぞれを有し得る。例えば、プライマリーポートは、必ずしも要するわけではないが、別のポートが利用できない付加的な機能を有し得る。
[0008]別の実施形態において、2人以上のユーザーが、仮想ポートの変更を決定し得る。例えば、1人がプライマリーポートを有し、別の1人がセカンダリーポートを有する2人のユーザーが存在する場合、ユーザーは、ジェスチャ、例えば、握手を実行し得、その後、計算機が2人のユーザーの仮想ポートを交換する。
[0009]別の実施形態において、第1のユーザーが、システムのジェスチャベースコントロールを終了するための退場ジェスチャを実行し得る。この実施形態の一態様において、計算環境において仮想ポートと関連付けられた別のユーザーが存在する場合、本システムは、第1のユーザーが退場すると、仮想ポートを再度関連付け得る。
[0010]別の実施形態において、アプリケーションは、ユーザーがシステムに入場、退場、引継、一時停止などを可能にする特定のジェスチャを有し得る。特定のアプリケーションは、個々のタスクに対する自発的活動も要求し得る。上記の状況において、1人以上のユーザーが、少なくとも特定タスクの期間、本システムに仮想ポートの再度の割当てをもたらし得る自発的ジェスチャを実行し得る。
[0011]ゲームをプレーしているユーザーとジェスチャベース制御システムの実施形態例を示している。 [0011]ゲームをプレーしているユーザーとジェスチャベース制御システムの実施形態例を示している。 [0011]ゲームをプレーしているユーザーとジェスチャベース制御システムの実施形態例を示している。 [0012]ジェスチャベースシステムにおいて使用され得るキャプチャ装置の実施形態例を示している。 [0013]ジェスチャベースシステムに結合され、仮想ポートと関連付けられたユーザーの1つ以上のジェスチャを解釈するために使用され得る計算環境の実施形態例を示している。 [0014]ジェスチャベースシステムに結合され、仮想ポートと関連付けられたユーザーの1つ以上のジェスチャを解釈するために使用され得る計算環境の別の実施形態例を示している。 [0015]ケーブル接続又は無線接続されたコントローラーが、計算環境を制御するために使用され得るゲームシステム関する以前のコントロール環境例を示している。 [0016]ユーザーと結合され得、彼らにフィードバックを提供し、彼らを仮想ポートと関連付け得るジェスチャベースシステムのキャプチャ領域における複数のユーザーを例示している。 [0017]ジェスチャベースシステムによってモデル化され得るユーザーの一例を示していて、ユーザーが、関節及び手足としてモデル化され得、これらの関節及び手足の動作が、ジェスチャベース計算環境に対するジェスチャを解釈するために使用され得る。 [0018]ユーザーがジェスチャベースシステムにおいて実行し得る一連のジェスチャを例示していて、上記ジェスチャは、1人以上のユーザーを仮想ポートと関連付けて、引継ぎ、退場、一時停止、選択、移動などを実行するために使用され得る。 [0019]ジェスチャベースシステムを非結合状態から結合状態へ変更し、ユーザーにその人の状態フィードバックを提供するための流れ図を表している [0020]ユーザーがキャプチャ領域から出ているとき、ユーザーにその人の状態に関するフィードバックを提供するために流れ図を表している。 [0021]仮想ポートをユーザーと関連付けるための流れ図を表している。 [0022]ジェスチャベースシステムからの自発的活動に関するリクエストに基づいて2人以上のユーザーを仮想ポートに関連付けるための流れ図を表している。 [0023]2人以上のユーザー間において仮想ポートの引継ぎを生成するための流れ図を表している。
[0024]本明細書に記載されるジェスチャベースシステムは、個人を結合し、彼らを仮想ポートと関連付けると同時に、結合状態及び仮想ポートの関連付けに関するフィードバックを提供し得る。計算環境の別の態様は、ユーザーと結合するか、又はユーザーに通知するか、その人を仮想ポートと関連付けるか、又は一貫した経験を維持するために適合し得る。
[0025]図1A及び図1Bは、ボクシングゲームをプレーしているユーザー(18)とジェスチャベースシステム(10)構成の実施形態例を示している。実施形態例において、ジェスチャベースシステム(10)は、ヒューマンターゲットを結合し、認識し、解析し、トラッキングし、関連付け、フィードバックを提供し、及び/又はユーザー(18)のようなヒューマンターゲットの態様に適合するために使用され得る。
[0026]図1Aのように、ジェスチャベースシステム(10)は、計算環境(12)を含み得る。計算環境(12)は、計算機、ゲームシステム、又はゲーム機などであり得る。実施形態例による計算環境(12)は、ハードウェアコンポーネント及び/又はソフトウェアコンポーネントを含み得、計算環境(12)が、ゲームアプリケーション、非ゲームアプリケーションなどのようなアプリケーションを実行するために使用され得る。
[0027]図1Aのようにジェスチャベースシステム(10)は更に、キャプチャ装置(20)を含み得る。キャプチャ装置(20)は、例えば、ユーザー(18)のような1人以上のユーザーを監視するために使用され得る検出器であり得、1人以上のユーザーによって実行されるジェスチャが、キャプチャされ得、解析され得、トラッキングされ得、より詳細に後述されるようにアプリケーション内において1つ以上のコントロール又は動作を実行し得る。
[0028]一実施形態によるジェスチャベースシステム(10)は、仮想ポート及び結合に関するフィードバック、ゲーム、又は映像アプリケーション及び/又は音声アプリケーションをユーザー(18)に提供し得るテレビ、モニター、ハイビジョンテレビ(HDTV)などのような視聴覚装置(16)と接続され得る。例えば、計算環境(12)は、グラフィックカードなどのビデオアダプター及び/又はサウンドカードなどの音声アダプターを含み得、仮想ポート及び結合に関するフィードバック、ゲームアプリケーション、非ゲームアプリケーションなどに関連する視聴覚信号を提供し得る。視聴覚装置(16)は、計算環境(12)から視聴覚信号を受信し得、その後、視聴覚信号と関連付けられたゲーム、又は映像アプリケーション及び/又は音声アプリケーションをユーザー(18)へ出力し得る。一実施形態による視聴覚装置(16)は、例えば、S−Videoケーブル、同軸ケーブル、HDMIケーブル、DVIケーブル、VGAケーブル、無線接続などを介し計算環境(12)と接続され得る。
[0029]図1A及び図1Bのようなジェスチャベースシステム(10)が、ユーザー(18)のようなヒューマンターゲットを認識し、解析し、及び/又はトラッキングするために使用され得る。例えば、ユーザー(18)が、キャプチャ装置(20)を使用しトラッキングされ得、ユーザー(18)の位置、動き、及びサイズが、計算機環境(12)によって実行されるアプリケーションに作用するために使用され得るコントロールとして解釈され得る。かくして一実施形態によるユーザー(18)は、彼又は彼女の体を動かし、アプリケーションを制御し得る。
[0030]どのユーザーもキャプチャ装置(20)のキャプチャ領域に存在しないとき、ジェスチャベースシステム(10)は、システム(10)のこの非結合/未検出状態に関してフィードバックを提供し得る。ユーザー(18)が、検出装置(20)のキャプチャ領域に参加したとき、状態フィードバックが、非結合/未検出状態から非結合又は検出に関する状態フィードバックへ変化し得る。その後、本システム(10)はユーザー(18)を結合し得、状態フィードバックを非結合/検出から結合へ変更し得る。ユーザー(18)が、ジェスチャベース計算環境(12)と結合された後、その人は、システム(10)の残りを起動するジェスチャを実行し得る。ユーザー(18)は、仮想ポートとの関連性へその人を参加させる第2のジェスチャも実行し得る。状態フィードバックは、ユーザー(18)が、仮想ポートと関連付けられていることがその人にわかるように変化し得る。その後、ユーザー(18)は、ジェスチャベースシステム(10)を制御するための一連のジェスチャを提供し得る。例えば、ユーザー(18)が、システム(10)の1つ以上のメニューをオープンするか又は1つ以上のプロセスを一時停止するように求めている場合、その人は、一時停止ジェスチャ又はメニュージェスチャを実行し得る。コンピューティングセッションの終了後、ユーザーは、ジェスチャベースシステム(10)にユーザー(18)と仮想ポートとの関係を断つための退場ジェスチャを実行し得る。これは、状態フィードバックを仮想ポートに関連付けられている状態から結合/検出状態への変化をもたらし得る。その後、ユーザー(18)は、センサー範囲から退場し得、状態フィードバックに結合/検出から未検出への変化をもたらし得る。システム(10)が、ユーザー(18)から結合解除した場合、状態フィードバックは非結合状態へ変化し得る。
[0031]図1A及び図1Bのような実施形態例において、計算環境(12)上で実行しているアプリケーションは、ユーザー(18)がプレー中のボクシングゲームであり得る。例えば、計算環境(12)は、ボクシングの対戦相手(22)の視覚的表示をユーザー(18)に提供するための視聴覚装置(16)を使用し得る。計算環境(12)は、ユーザー(18)が画面(14)上の彼又は彼女の動作を使って制御し得るユーザーのアバター(24)の視覚表示を提供するためにも視聴覚装置(16)を使用し得る。例えば、図1Bのようにユーザー(18)は、物理空間にパンチを食らわし、ユーザーのアバター(24)が、ゲーム空間にパンチを食らわすことをもたらし得る。かくして、実施形態例による計算機環境(12)及びジェスチャシステム(10)のキャプチャ装置(20)が、物理空間においてユーザー(18)のパンチを認識し、解析するために使用され得、パンチが、ゲーム空間においてユーザーのアバター(24)のゲームコントロールとして解釈され得る。
[0032]ユーザー(18)が、計算環境(12)において仮想ポートに関連付けられる。仮想ポートの状態フィードバックは、視聴覚装置(16)上の音声若しくは表示形式、又はLED若しくは電球のような表示形式、又は計算環境(12)上のスピーカー、又はユーザーにフィードバックを提供する別の任意の手段でユーザー(18)に与えられ得る。フィードバックは、ユーザー(18)が、キャプチャ装置(20)のキャプチャ領域に存在しているとき、ジェスチャベースシステム(10)と結合されている場合、その人がどの仮想ポートと関連付けられるか、及びアバター(24)のようなアバターをいつ管理するかその人に知らせるために使用され得る。ユーザー(18)によるジェスチャは、ユーザー(18)がシステム(10)から受信するシステム(10)の状態、ひいてはフィードバックを変更し得る。
[0033]素速く上下する、曲がって進む、足を引きずって歩く、妨害する、ジャブで突く、又は異なる様々なパンチ力で食らわすためのコントロールのようなユーザー(18)による別の動作も別のコントロール又は動作として解釈され得、使用され得る。更に、動作の中には、ユーザーのアバター(24)の制御以外の動作に相当し得るコントロールとして解釈され得るものもある。例えば、ユーザー(18)は、入場、退場、システムのオン又はオフ、一時停止、自発的活動、仮想ポートの切換え、ゲームのセーブ、レベル、プロファイル、又はメニューの選択、高得点の閲覧、又は友人との通信などの動作をプ使用し得る。加えると、ユーザー(18)の動作の範囲すべてが利用可能であって、使用され、アプリケーションと対話するために適切な任意の方法で解析され得る。
[0034]図1Cにおいて、ユーザー(18)のようなヒューマンターゲットは、ラケット(21)などの物体を有し得る。上記の実施形態において、コンピューターゲームのユーザーは、物体を手に持つ場合があって、ユーザーの動作と物体とが、例えば、画面上のボール(23)を打つようなゲームのパラメーターを調整し及び/又は制御するために使用され得る。ラケット(21)を手に持つユーザーの動作が、コンピュータースポーツゲームにおいて、スクリーン上のラケットを制御するためにトラッキングされ、利用され得る。別の実施形態例において、物体を手に持つユーザーの動作が、コンピューターの戦闘ゲームにおいて、スクリーン上の兵器を制御するためにトラッキングされ得、利用され得る。1つ以上のグローブ、ボール、バット、クラブ、ギター、マイクロフォン、スティック、ペット、動物、ドラムなどのように、別の任意のオブジェクトも含まれ得る。
[0035]別の実施形態例によるジェスチャベースシステム(10)が更に、オペレーティングシステム及び/又はゲーム分野以外のアプリケーションの制御装置として目標の動作を解釈するために利用され得る。例えば、実際に制御可能な任意のオペレーティングシステム及び/又はアプリケーションの態様が、ユーザー(18)のような目標の動作によって制御され得る。
[0036]図2のように実施形態例による画像カメラコンポーネント(25)は、シーンの立体画像をキャプチャするために使用され得る赤外線光コンポーネント(26)、立体(3−D)カメラ(27)、及びRGBカメラ(28)を含み得る。例えば、飛行時間解析においてキャプチャ装置(20)の赤外線光コンポーネント(26)は、赤外光をシーンに放射し得、その後、(示されていない)センサーを使用し、例えば、立体視カメラ(27)及び/又はRGBカメラ(28)を使用し、シーンにおける目標及び被写体の1つ以上の表面から後方散乱光を検出する。実施形態の中には、赤外線パルス光が使用され得るものもあって、出射パルス光と応答着信パルス光との間の時間が測定され得、キャプチャ装置(20)からシーンにおける目標又は被写体上の特定の位置までの物理的距離を決定するために使用され得る。加えると、別の実施形態例の中には出射パルス光波の位相が、位相変動を決定する着信光波の位相と比較され得るものもある。その後、位相変動が、キャプチャ装置から目標又は被写体上の特定の位置までの物理的距離を決定するために使用され得る。
[0037]別の実施形態例による飛行解析時間が使用され得、例えば、シャッターパルス光画像化を含む様々な技法を介し、長い時間をかけて反射される光線強度を解析することによってキャプチャ装置(20)から目標又は被写体上の特定位置までの物理的距離を間接的に決定し得る。
[0038]別の実施形態例において、キャプチャ装置(20)は、立体情報をキャプチャするために構造光を使用し得る。そのような解析において、パターン光(すなわち、周知のグリッドパターン又は縞模様のようなパターンとして表示される光)が、例えば、赤外線光コンポーネント(26)を介しシーン上に映し出され得る。シーンにおいて目標又は被写体1つ以上の表面を叩くと、それに応じてパターンが変形する。そのようなパターンの変形が、例えば、立体視カメラ(27)及び/又はRGBカメラ(28)によってキャプチャされ得、その後、キャプチャ装置から目標又は被写体上の特定位置までの物理的距離を決定するために解析され得る。
[0039]別の実施形態によるキャプチャ装置(20)は、分解され得る視覚的立体データを取得し立体情報を生成するために、異なる角度からシーンを眺め得る物理的に別個の2つ以上のカメラを含み得る。
[0040]キャプチャ装置(20)は更に、マイクロフォン(30)を含み得る。マイクロフォン(30)は、音声を受信し電気的信号に変換し得る変換器又はセンサーを含み得る。一実施形態によるマイクロフォン(30)は、ジェスチャベースシステム(10)のキャプチャ装置(20)と計算環境(12)との間のフィードバックを減少させるために使用され得る。加えると、マイクロフォン(30)は、計算環境(12)によって実行されるゲームアプリケーション、非ゲームのアプリケーションなどのようなアプリケーションを制御するためのユーザーによって提供され得る音声信号を受信するためにも使用され得る。
[0041]キャプチャ装置(20)は更に、フィードバックコンポーネント(31)を含み得る。フィードバックコンポーネント(31)は、LED又は電球などの光、スピーカーなどを含み得る。フィードバック装置は、色の変更、つけたり消したりして、明るさの増減、及び速度を変えたブラッシングのうち少なくとも1つを実行し得る。フィードバックコンポーネント(31)は、1つ以上の状態のフィードバックとして1つ以上の音声又は音を提供し得るスピーカーも含み得る。フィードバックコンポーネントは、計算環境(12)又はプロセッサー(32)と組み合わせても作用し得、キャプチャ装置、ジェスチャベースシステムの別の任意のエレメントなどによってユーザーに1つ以上の形式のフィードバックを提供し得る。
[0042]実施形態例において、キャプチャ装置(20)は更に、画像カメラコンポーネント(25)と作用し通信し得るプロセッサー(32)を含み得る。プロセッサー(32)は、立体画像を受信し、適切な目標が立体画像に含まれ得るか否か決定し、適切な目標を骨格表現又は目標モデル又は適切な別の任意の命令に変換するための命令を含み得る命令を実行し得る標準プロセッサー、専用プロセッサー、マイクロプロセッサーなどを含み得る。
[0043]キャプチャ装置(20)は更に、メモリーコンポーネント(34)を含み得、プロセッサー(32)によって実行される命令、3−Dカメラ若しくはRGBカメラによってキャプチャされる画像、又は画像フレーム、ユーザープロファイル又は別の適切な任意の情報、画像などをストアし得る。実施形態例によるメモリーコンポーネント(34)は、ランダムアクセスメモリー(RAM)、読み出し専用メモリー(ROM)、キャッシュメモリー、フラッシュメモリー、ハードディスク、又は別の適切な任意のストレージコンポーネントを含み得る。図2のように一実施形態において、メモリーコンポーネント(34)は、画像キャプチャコンポーネント(25)及びプロセッサー(32)と通信する別個のコンポーネントであり得る。別の実施形態によるメモリーコンポーネント(34)は、プロセッサー(32)及び/又は画像キャプチャコンポーネント(25)に統合され得る。
[0044]図2のようにキャプチャ装置(20)は、通信リンク(36)を介し計算環境(12)と通信し得る。通信リンク(36)は、例えば、USB接続、ファイヤーワイヤー接続、イーサネットケーブル接続などを含む有線接続、及び/又は無線802.11b, 11g, 11a, 又は11n接続などの無線接続であり得る。一実施形態による計算環境(12)が、例えば、通信リンク(36)を介し、シーンをいつキャプチャにするか決定するために使用され得るクロックをキャプチャ装置(20)に提供し得る。
[0045]加えると、キャプチャ装置(20)は、例えば、3−Dカメラ(27)及び/又はRGBカメラ(28)によってキャプチャされた立体情報及び画像、及びキャプチャ装置(20)によって生成され得る骨格モデルを、通信リンク(36)を介し計算環境(12)に提供し得る。その後、計算環境(12)が、骨格モデル、立体情報、及びキャプチャされた画像を使用し得、例えば、仮想画面を生成し、ユーザーインターフェースを適合させ得、ゲーム又はワードプロセッサーなどのアプリケーションをコントロールし得る。例えば、図2のように計算環境(12)は、ジェスチャライブラリー(190)を含み得る。ジェスチャライブラリー(190)は(ユーザーが動く)骨格モデルによって実行され得るジェスチャに関する情報をそれぞれ含むジェスチャフィルター集合を含み得る。カメラ(26)、(27)、及び機器(20)によってキャプチャされた骨格モデル形式データ及びそれに関連付けられた動作が、(骨格モデルによって示される)ユーザーが1つ以上のジェスチャをいつ実行したか識別するために、ジェスチャライブラリー(190)ジェスチャのフィルターと比較され得る。これらのジェスチャは、様々なアプリケーションコントロールと関連付けられ得る。かくして計算環境(12)が、骨格モデルの動作を解釈し、その動作に基づいてアプリケーションをコントロールするためにジェスチャライブラリー(190)を使用し得る。
[0046]図3は、目標認識、解析、及びトラッキングシステムにおいて、1つ以上のジェスチャを解釈するために使用され得る計算環境の実施形態例を示している。図1A〜図2に関連し前述した計算環境(12)のような計算環境は、ゲーム機などのマルチメディアコンソール(100)であり得る。図3のようにマルチメディアコンソール(100)は、レベル1キャッシュ(102)、レベル2キャッシュ(104)、及びフラッシュROM(読み出し専用メモリー)(106)を有する中央演算処理装置(CPU)(101)を有している。レベル1キャッシュ(102)及びレベル2キャッシュ(104)が、データを一時的にストアし、それによってメモリーアクセスサイクル数を減らし、その結果、処理速度及びスループットを改善する。2つ以上のコア、ひいては付加的なレベル1キャッシュ(102)及びレベル2キャッシュ(104)を有するCPU(101)が提供され得る。フラッシュROM(106)は、マルチメディアコンソール(100)が電源投入されたとき、ブートプロセスの初期段階の間、ロードされる実行プログラムをストアし得る。
[0047]グラフィック処理装置(GPU)(108)及び映像エンコーダー/映像コーデック(符号化器/デコーダー)(114)が、高速かつ高解像度画像処理用の映像処理パイプラインを形成する。データが、画像処理装置(108)から映像エンコーダー/映像コーデック(114)へバスを介し伝達される。映像処理パイプラインは、テレビ又はその他のディスプレイへの伝送用A/V(音声/映像)ポート(140)へデータを出力する。メモリーコントローラー(110)が、RAM(ランダムアクセスメモリー)に限定しないが、そのような様々なタイプのメモリー(112)へのプロセッサーへのアクセスを容易にするGPU(108)と接続される。
[0048]マルチメディアコンソール(100)は、I/Oコントローラー(120)、システム管理コントローラー(122)、音声処理装置(123)、ネットワークインターフェースコントローラー(124)、第1のUSBホストコントローラー(126)、第2のUSBコントローラー(128)、及び望ましくはモジュール(118)上に実装されるフロントパネルI/O部分組立体(130)を含む。USBコントローラー(126)及び(128)は、周辺機器コントローラー(142(1)〜142(2))、無線アダプター(148)、及び外部記憶装置(146)(例えば、フラッシュメモリー、外付けCD/DVD ROMドライブ、取り外し可能媒体など)に対しホスティングをする役目を果たす。ネットワークインターフェース(124)及び/又は無線アダプター(148)は、ネットワーク(例えば、インターネット、ホームネットワークなど)へのアクセスを提供し、イーサネットカード、モデム、ブルートゥースモジュール、ケーブルモデムなどを含む多種多様な有線又は無線アダプターコンポーネントのいずれかであり得る。
[0049]ブートプロセス中、ロードされるアプリケーションデータをストアするためのシステムメモリー(143)が提供される。媒体ドライブ(144)が提供され、DVD/CDドライブ、ハードドライブ、又はその他の取り外し可能媒体ドライブなどを含み得る。媒体ドライブ(144)は内蔵か又はマルチメディアコンソール(100)に外付けであり得る。アプリケーションデータが、マルチメディアコンソール(100)によって再生などを実行するために媒体ドライブ(144)を介しアクセスされ得る。媒体ドライブ(144)は、シリアルATAバス又は他の高速接続(例えばIEEE1394)などのバスを介しI/Oコントローラー(120)と接続される。
[0050]システム管理コントローラー(122)は、マルチメディアコンソール(100)の利用可能性保証に関連する様々なサービス機能を提供する。音声処理装置(123)及び音声コーデック(132)が、忠実性の高い三次元処理を用いて応答音声処理パイプライン処理装置を形成する。音声データが、音声処理装置(123)と音声コーデック(132)との間を通信リンクを介し伝達される。音声処理パイプラインが、音声機能を有する外付けオーディオプレーヤー又は装置によって再生するためにA/Vポート(140)へデータを出力する。
[0051]フロントパネルI/O部分組立体(130)が、マルチメディアコンソール(100)の外面上に見ることができる電源スイッチ(150)及びイジェクトボタン(152)並びにいくつかのLED(発光ダイオード)又はその他の指標の機能性を支援する。システム電力供給モジュール(136)が、マルチメディアコンソール(100)のコンポーネントに電力を提供する。ファン(138)がマルチメディアコンソール(100)内部の回路を冷却する。
[0052]フロントパネルI/O部分組立体(130)は、LED、視覚表示画面、電球、スピーカー、又はマルチメディアコントロール(100)の制御状態の音声又はビジュアルフィードバックをユーザー(18)に提供する別の任意の手段を含み得る。例えば、システムが、どのユーザーもキャプチャ装置(20)によって検出されない状態にある場合、そのような状態は、フロントパネルI/O部分組立体(130)に反映され得る。システムの状態が変化した場合、例えば、ユーザーがシステムに結合された場合、状態フィードバックが、フロントパネルI/O部分組立体上で更新され得、状態における変化を反映し得る。
[0053]マルチメディアコンソール(100)内部のCPU(101)、GPU(108)、メモリーコントローラー(110)、及びその他の様々なコンポーネントは、シリアルバス及びパラレルバス、メモリーバス、周辺機器用バス、及び様々なバスアーキテクチャのうちいずれかを使用したプロセッサーバス又はローカルバスを含む1つ以上のバスを介し相互に接続される。例として、上記アーキテクチャは、Peripheral Component Interconnects(PCI)バス、PCI−エクスプレスバスなどを含み得る。
[0054]マルチメディアコンソール(100)が電源投入されたとき、アプリケーションデータが、システムメモリー(143)からメモリー(112)及び/又はキャッシュ(102)、(104)へロードされ、CPU(101)上で実行される。アプリケーションは、マルチメディアコンソール(100)上で利用可能な異なる媒体のタイプへナビゲートするとき、一貫性したユーザー体験を提供するグラフィカルユーザーインターフェースを提示し得る。動作中、媒体ドライブ(144)内部に含まれるアプリケーション及び/又はその他の媒体は、媒体ドライブ(144)から起動され得るか又は再生され得、マルチメディアコンソール(100)に付加的機能性を提供し得る。
[0055]マルチメディアコンソール(100)は、システムをテレビ又はその他のディスプレイと単に接続することによって、単独で動作するシステムとして作動され得る。この単独動作モードのマルチメディアコンソール(100)によって1人以上のユーザーが、システムとの対話、映画の鑑賞、又は音楽の鑑賞が可能になる。しかしながら、ネットワークインターフェース(124)又は無線アダプター(148)を介し利用可能になるブロードバンドの接続性統合を用いると、マルチメディアコンソール(100)が更に、より大きなネットワークコミュニティに参加者として作動され得る。
[0056]マルチメディアコンソール(100)が電源投入時されたとき、設定された量のハードウェア資源が、マルチメディアコンソールのオペレーティングシステムによるシステムを使用するために予約される。これらのリソースは、メモリー(例えば16MB)、CPU及びGPUサイクル(例えば5%)、ネットワーク帯域幅(例えば8kbs)などの予約を含み得る。これらのリソースはシステムのブート時に予約されるため、アプリケーションの観点から予約されるリソースは存在しない。
[0057]具体的にメモリー予約は、望ましくは十分に大きく、起動カーネル、並列システムアプリケーション及びドライバーを含む。CPUの予約は、望ましくは一定であり、予約されたCPU利用が、システムアプリケーションによって使用されていない場合、アイドルスレッドが、いくらかの未使用サイクルを消費する。
[0058]GPUの予約に関すると、システムアプリケーションによって生成される軽い(例えばポップアップ)メッセージが、ポップアップをオーバーレイにレンダリングするプログラムをスケジューリングするGPU中断を使用することによって、表示される。オーバーレイに要求されるメモリーの総計は、オーバーレイ領域のサイズ及び望ましくは画面解像度を伴うオーバーレイスケールによって決まる。十分なユーザーインターフェースが、並行システムアプリケーションによって使用されるところでは、アプリケーション解像度に影響されずに解像度を利用することが望まれる。スケーラーがこの解像度を設定するために使用され得、テレビの周波数を変更して再同時性をもたらす必要性が省かれる。
[0059]マルチメディアコンソール(100)が起動し、システム資源が予約された後、システム機能性を提供する並列システムアプリケーションが実行する。システム機能性は、前述した予約されたシステム資源の範囲内で実行する一連のシステムアプリケーションにカプセル化される。オペレーティングシステムカーネルは、ゲームアプリケーションスレッドに対しシステムアプリケーションスレッドであるスレッドを識別する。本システムのアプリケーションは、望ましくは、一貫性のあるシステム資源の表示をアプリケーションに提供するために、所定の時間及び間隔でCPU(101)上で実行するようにスケジューリングされる。スケジューリングは、コンソール上で実行するゲームアプリケーションに対するキャッシュ分裂を最小化することである。
[0060]並行システムアプリケーションが音声を必要とするとき、音声処理が時間感度によって、ゲームアプリケーションと非同期にスケジューリングされる。(後述される)マルチメディアコンソールのアプリケーションマネージャは、システムアプリケーションがアクティブであるとき、ゲームアプリケーションの音声の(例えば、ミュート、減衰)レベルを制御する。
[0061]入力装置(例えば、コントローラー142(1)及び142(2))が、ゲームアプリケーション及びシステムアプリケーションによって共有される。入力装置は、予約される資源でないが、しかしシステムアプリケーションとゲームアプリケーションとの間で切換えられ、それぞれが装置のフォーカスを有し得る。アプリケーションマネージャが、ゲームアプリケーションの知識がなくても望ましくは入力ストリームの切換えを制御し、ドライバーが、フォーカス切換えに関する状態情報を維持する。カメラ(27)、(28)、及びキャプチャ装置(20)は、コンソール(100)用の付加入力装置を定義している。
[0062]図4は、目標認識、解析、及びトラッキングシステムにおいて1つ以上のジェスチャを解釈するために使用される図1A〜図2のような計算環境(12)である別の計算環境(220)の実施形態例を示している。計算システム環境(220)は、適切な計算環境の一例に過ぎず、開示される本対象項目の利用性又は機能性の範囲に関し、いかなる制限も提示するように意図されていない。計算環境(220)は、例示的動作環境(220)に示されている一コンポーネント又は任意の組み合わせに関連するいかなる依存性も要件も有していないものとして解釈されたい。実施形態の中には、示された様々な計算エレメントが、今開示される特定の態様を例示するように構成された回路を含み得るものもある。例えば、本開示において使用される用語の回路は、ファームウェア又はスイッチによって機能(単数又は複数)を実行するように構成される専用ハードウェアコンポーネントを含み得る。別の実施形態例の中には、用語の回路が、機能(単数又は複数)を実行するように作動可能なロジックを具体化するソフトウェア命令によって構成された汎用処理装置、メモリーなどを含み得るものもある。回路がハードウェア及びソフトウェアの組み合わせを含む実施形態例において、実装者がロジックを具体化するソースコードを記述し得、ソースコードが汎用演算処理装置によって処理され得る計算機読み出し可能プログラムへコンパイルされ得る。当業者は、技術の最先端が、ハードウェア、ソフトウェア、又はハードウェア/ソフトウェアの組み合わせの間の差異がほとんどない程度に発展していることを十分に理解し得るのであるから、特定機能を実現するためのハードウェア対ソフトウェアの選択は、実装者に任せられた設計選択である。より具体的には、当業者は、ソフトウェアプロセスが同等のハードウェア構造へ変換され得ることと、ハードウェア構造がそれ自体、同等のソフトウェア処理へ変換され得ることと、を十分に理解されよう。かくして、ハードウェア実装対ソフトウェア実装の選択は、設計選択の1つであって実装者に委ねられている。
[0063]図4において、計算環境(220)は、典型的に、様々な計算機可読媒体を含む計算機(241)を含む。計算機可読媒体は、計算機(241)によってアクセスされ得る利用可能な任意の媒体であり得、揮発性及び不揮発性媒体、及び取り外し可能及び取り外し不可能媒体双方を含む。システムメモリー(222)は、読み出し専用メモリー(ROM)(223)及びランダムアクセスメモリー(RAM)(260)などの揮発性及び/又は不揮発性メモリー形式の計算機記憶媒体を含む。起動中などに計算機(241)内部のエレメント間における情報送信を支援する基本ルーチンを含む基本入出力システム(BIOS)(224)は、典型的に、ROM(223)にストアされる。RAM(260)は、典型的に、演算処理装置(259)によって即座にアクセス可能な及び/又は目下作動されているデータ及び/又はプログラムモジュールを含む。非限定の例として、図4は、オペレーティングシステム(225)、アプリケーションプログラム(226)、その他のプログラムモジュール(227)、及びプログラムデータ(228)を示している。
[0064]計算機(241)は、別の取り外し可能/取り外し不可能、揮発性/不揮発性計算機記憶媒体も含み得る。ほんの一例として、図4は、取り外し不可能、不揮発性磁気媒体から読み出すか又はそれに書き込むハードディスクドライブ(238)、取り外し可能、不揮発性磁気ディスク(254)から読み出すか又はそれに書き込む磁気ディスクドライブ(239)、CD−ROM、又はその他の光学式媒体などの取り外し可能、不揮発性光学式ディスク(253)から読み出すか又はそれに書き込む光学式ディスクドライブ(240)を示している。例示的な動作環境において使用され得る別の取り外し可能/取り外し不可能、揮発性/不揮発性計算機記憶媒体は、磁気カセットテープ、フラッシュメモリーカード、デジタル多用途ディスク、デジタルビデオテープ、半導体RAM、半導体ROM等を含むがこれらに限定しない。ハードディスクドライブ(238)は、典型的に、インターフェース(234)のような取り外し不可能メモリーインターフェースを介しシステムバス(221)と接続され、磁気ディスクドライブ(239)及び光学式ディスクドライブ(240)は、典型的に、インターフェース(235)のような取り外し可能メモリーインターフェースによってシステムバス(221)と接続される。
[0065]図4に前述され例示されたドライブ及びそれらに関連する計算機記憶媒体が、計算機(241)に計算機可読命令、データ構造、プログラムモジュール、及び別のデータ記憶装置を提供する。図4において、例えばハードディスクドライブ(238)は、オペレーティングシステム(258)、アプリケーションプログラム(複数)(257)、その他のプログラムモジュール(複数)(256)、及びプログラムデータ(255)をストアするように例示されている。これらのコンポーネントが、オペレーティングシステム(225)、アプリケーションプログラム(複数)(226)、その他のプログラムモジュール(複数)(227)、及びプログラムデータ(228)と同一か又は異なるどちらか一方であり得ることを留意されたい。オペレーティングシステム(258)、アプリケーションプログラム(257)、その他のプログラムモジュール(256)、及びプログラムデータ(255)は、本明細書において異なる番号を付与されていて、異なる最小限の複製物であることを示している。ユーザーは、一般に、キーボード(251)のような入力装置、及びマウス、トラックボール又はタッチパッドとして参照されるポインティングデバイス(252)を介し、計算機(241)へコマンド及び情報を入力し得る。その他(示されていない)入力装置は、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナーなどを含み得る。これらの入力装置及びその他の入力装置は、多くの場合、システムバスに接続されるユーザー入力インターフェース(236)を介し演算処理装置(259)と接続されるが、パラレルポート、ゲームポート又はユニバーサルシリアルバス(USB)のような別のインターフェース及びバス構造によっても接続され得る。カメラ(27)、(28)、及びキャプチャ装置(20)は、コンソール(100)用の付加入力装置を定義している。モニター(242)又は別のタイプの表示装置もビデオインターフェース(232)のようなインターフェースを介しシステムバス(221)と接続される。モニターに加えて計算機は、周辺出力インターフェース(233)を介し接続され得るスピーカー(244)及びプリンター(243)のような別の周辺出力装置も含み得る。
[0066]計算機(241)は、リモートコンピューター(246)のような1つ以上のリモートコンピューターとの論理接続を使用し、ネットワーク環境において作動し得る。リモートコンピューター(246)は、パーソナルコンピューター、サーバー、ルーター、ネットワークPC、ピア装置、又は別の一般的なネットワークノードであり得、典型的に、前述した計算機(241)に関連するエレメントの多く又はすべてを含むが、図4にはメモリー記憶装置(247)だけが例示されている。図2に示される論理的な接続は、ローカルエリアネットワーク(LAN)(245)及び広域ネットワーク(WAN)(249)を含むが、別のネットワークも含み得る。そのようなネットワーク環境は、オフィス、企業規模のコンピューターネットワーク、イントラネット、及びインターネットにおいて一般的である。
[0067]LANネットワーク環境において使用されるとき、計算機(241)は、ネットワークインターフェース又はアダプター(237)を介しLAN(245)と接続される。WANネットワーク環境において使用されるとき、計算機(241)は、典型的にインターネットなどのようなWAN(249)を介し通信を確立するモデム(250)又はその他の手段を含む。内蔵又は外付けがあり得るモデム(250)が、ユーザー入力インターフェース(236)又はその他の適切な手段を介し、システムバス(221)と接続され得る。ネットワークの環境において、計算機(241)又はその一部に関連し示されるプログラムモジュールが、リモートメモリー記憶装置にストアされ得る。非限定の例として図4が、記憶装置(247)上に常駐するリモートアプリケーションプログラム(248)を示している。示されたネットワーク接続が例示的であって、計算機間の通信リンクを確立する別の手段が使用され得ることを十分に理解されよう。
[0068]図5は、接続されているコントロールだけを使用する従来システムの実施形態例を示している。上記実施形態においては、ゲームコントローラー、ジョイスティック、マウス、キーボードなどのようなコントローラー(294)が、ケーブル(292)又は無線のどちらか一方を用いて計算環境(12)と接続されている。特定のボタン又はキーの押下によって、設定された信号が計算環境へ送信されることをもたらし得る。更に、これらのコントローラーは、典型的に、特定の物理ポート(290)と関連付けられる。ゲーム環境の例において、コントローラー1が第1の物理ポートにプラグインされ得、コントローラー2が第2の物理ポートなどにプラグインされ得る。コントローラー1は、プライマリーコントロール、又は別のコントローラーが利用できないゲーム環境のいくつかの態様のコントロールと関連付けられている場合がある。例えば、格闘ゲームにおいて特定のレベル又は制御板を選択したとき、第1のコントローラーだけが選択され得る。
[0069]ジェスチャベースシステム(10)のようなジェスチャベースシステムは、従来技術の物理ケーブル及びポートを使用せずに、仮想ポートを1人以上のユーザーと関連付けて第1のコントローラーをユーザーと関連付ける必要があり得る。仮想ポートそれぞれと関連付けられる複数のユーザーが存在する場合、ユーザーは、彼らが関連付けられるポートを決定するためのフィードバックを必要とし得る。ユーザーと仮想ポートとの最初の関連付け後、ポートが第2のユーザーと再度関連付けられる必要がある場合、双方のユーザーは、仮想ポートが再度関連付けられていることを示す何らかのフィードバックを必要とし得る。仮想ポートが、異なるユーザーと再度関連付けたとき、(絶えず表示され得る標準のフィードバックに加えて)音声又は視覚的な付加的フィードバックが、再度関連付けられる時間又はその時間近くに提供され得、更に、再度関連付けが発生したことをユーザーに警告し得る。画面上のユーザーの登場人物、分割したゲーム画面上においてその上にユーザーが存在し得る画面側、及びその他の態様などユーザーゲーム環境それぞれの別の態様は、仮想ポートの再度の関連付けとともに変化し得ない。
[0070]図6は、図2に関連し前述されたキャプチャ装置(20)によってキャプチャされ得るキャプチャ領域(300)を例示している。実施形態において、どのユーザーもキャプチャ領域(300)のようなキャプチャ領域に存在しない場合、計算環境(12)のフロントパネル、キャプチャ装置(20)、又は視聴覚表示(16)が、その最初の状態フィードバックを提供し得る。上記最初の状態は、非結合/未検出状態であると考えられ得る。
[0071]図6の第2の実施形態において、第1のユーザー(302)が、キャプチャ領域(300)へ部分的に踏み入れ得る。図6において、第1のユーザー(302)が、キャプチャ装置(20)のキャプチャ領域(300)内において、ジェスチャベースシステム(10)が第1のユーザー(302)と結合し得ない不十分なことを意味し得る。上記イベントにおいて、計算環境(12)若しくはキャプチャ装置(20)によって又は視聴覚ディスプレイ(16)によって、第1のユーザー(302)に提供されるフィードバックは、非結合/検出状態を表し得る。ジェスチャベース制御システム(10)は、ユーザーがキャプチャ領域に一歩踏み込み得るか又はユーザーがユーザー(302)のように部分的にだけキャプチャ領域に存在するときはいつも非結合/検出状態であり得る。
[0072]別の実施形態において、第2のユーザー(304)がキャプチャ領域(300)に存在し得る。上記イベントにおいて、ジェスチャベース制御システム(10)は、ジェスチャベース制御システム(10)のコントローラーとして第2のユーザー(304)を結合している。フィードバックが、キャプチャ装置(20)、視聴覚ディスプレイ(16)、又は計算環境(12)のうち少なくとも1つによって結合状態のフィードバック形式でユーザー(304)に提供され得る。
[0073]別の態様において、(304)のような第2のユーザーが、ジェスチャベース制御システムと結合されていて、キャプチャ領域(300)から一歩踏み出した場合、本システムは、第2のユーザー(304)がまだシステム(10)に結合されているが、しかし、現在検出されていない状態を入力し得る。上記の状態は、結合/未検出状態であり得る。第2のユーザー(304)がまだジェスチャベース制御システムと結合されているその期間中に、その人がキャプチャ領域(300)へ戻ったとき、キャプチャ装置(20)、計算環境(12)、又は視聴覚装置(16)のうち少なくとも1つによってフィードバックが提供され得る。仮想ポートとユーザーとの関連付けなどは、ユーザーがキャプチャ領域(300)を退場している間、維持され得る。
[0074]複数のユーザーがキャプチャ領域(300)に存在する場合、ジェスチャベース制御システム(10)は、キャプチャ領域におけるユーザーそれぞれの状態に関するフィードバックを提供し得る。例えば、すべてのユーザーが、ジェスチャベースシステム(10)と結合され得、仮想ポートと関連付けられ得、それぞれのユーザーに特有の結合/関連付けの状態フィードバックが提供され得る。提供されるフィードバックは、第1のユーザー(302)及び第2のユーザー(304)への彼らが関連付けられ得る仮想ポートに関するフィードバックも含み得る。例えば、第1のユーザー(302)がプライマリー仮想ポートに関連付けられ得、その人がプライマリー仮想ポートと関連付けられていることを第1のユーザー(302)に示すフィードバックが提供され得る。
[0075]キャプチャ領域(300)を有するジェスチャベース制御システム(10)の別の態様において、ユーザーは、キャプチャ装置(20)に対し遠過ぎるか、近過ぎるか、又は左により過ぎるか若しくは右により過ぎるか、どちらか一方へ一歩踏み込み得る。上記の状況において、ジェスチャベース制御システム(10)は、「範囲外」の信号、又はキャプチャ装置(20)がその人の画像を適切にキャプチャするように、その人が特定方向に移動する必要があることをユーザーに知らせる特定のフィードバック、のどちらか一方の形式でフィードバックを提供し得る。例えば、第2のユーザー(304)が、左方向に動き過ぎた場合、その人を右方向へ戻す矢印が画面上にポップアップし得る。ユーザーに提供される上記の指示は、キャプチャ装置(20)か又は計算環境(12)によっても提供され得る。音声信号が、前述されたような視覚的なフィードバックと同時に生じ得る。
[0076]一実施形態において、異なる状態フィードバックは、異なる色の発光体形式を取り得る。例えば、「非結合/未検出」状態に関するフィードバックは、黒色か又は電源が落とされ得、「非結合/検出」状態に関するフィードバックは、黄色であり得、「結合/未検出」状態に関するフィードバックは、緑色であり得、「結合/未検出」又は「範囲外」状態に関するフィードバックは青色であり得る。この色付けスキームは、単に例として提供され得、別の任意の色付けスキームが使用され得る。別の実施形態において、状態フィードバックは、点滅に対して絶えず発光することを含み得る。例えば、「非結合/未検出」状態に関するフィードバックは電源オフであり得、「非結合/検出」状態に関するフィードバックは点滅であり得、結合状態に関するフィードバックは常時発光であり得る。別の実施形態において、状態の間又は特定状態の間の移動に関する音声フィードバックがあり得る。計算環境(12)のコントローラーとしてのその人の状態に関し、ユーザーに提供されるフィードバックが、上記例の任意の組み合わせ及びその他の適切な任意のフィードバックも含み得る。
[0077]それぞれのユーザーへのフィードバックは、キャプチャ装置(20)、計算環境(12)、又は視聴覚ディスプレイ(16)上のアバター、特定の光、又は表示と関連付けられ得る。1つ以上のコンピューティングセッションの間、ユーザーが関連付けられる仮想ポートの変更が存在し得る。実施形態の中には、ユーザーがある仮想ポートから別のものに切換えたフィードバックをユーザーに提供し得るものもあるが、しかし、計算環境及びユーザーへのフィードバックの態様の中には、変わらないままであり得るものもある。例えば、ユーザーが、その人のセッションと関連付けられた特定の光又はLEDを有している場合、その人が仮想ポートを切換えても、光又はLEDはまだその人を示している。別の例において、ユーザーが仮想ポートを切り替えても、ユーザーと関連付けられたアバターは変わらないままであり得る。更なる例として、ユーザーが仮想ポートを切換えた場合、ユーザーのアバターは強調される得か又は別の方法で外観における何らかの変更を示し得る。別の実施形態において、分割画面ゲーム又はユーザーがセッションを開始する画面側が存在する場合、これらのエレメントは、仮想ポートの再度の関連付けが存在するとき、変更され得ない。
[0078]図7は、キャプチャ装置(20)及び計算環境(12)を使用し生成されるヒューマンユーザーモデル(510)を表している。このモデルはジェスチャベースシステム(10)の1つ以上の態様によって、ジェスチャなどを決定するために使用され得る。モデルは、関節(512)及び骨(514)を含み得る。これらの関節及び骨をトラッキングすることによって、ジェスチャベースシステムは、ユーザーがどのジェスチャを実行しているか決定可能にし得る。これらのジェスチャは、ジェスチャベースシステムを制御するために使用され得る。
[0079]図8は、手を上げているか又は手を振っている(520)、腕を使ってXを作っている(522)、又はハイタッチ(524)をしているような一連のジェスチャを表している。いくつか示されたジェスチャによる、どの方法にも限定されないが、これらのジェスチャは、別の任意のものを加えたジェスチャベースシステム(10)に関するコマンドであり得る。一実施形態において、ジェスチャは普遍的なものであり得、それらが特定のソフトウェア又はハードウェアアプリケーションに限定されないことを意味している。別の実施形態において、計算環境(12)上で作動されるゲーム又は別のプログラムは、プログラム特有のジェスチャを有する。例えば、仮想ポートを引継ぐための普遍的ジェスチャはハンドシェイクであり得るが、しかし、レスリングゲームのようなゲームは、ユーザーが、ハイタッチ(524)を実行した場合、プログラム特有のコントロールの引継ぎを実行するジェスチャを有し得る。
[0080]ユーザーを仮想ポートと結合し関連付けるための普遍的ジェスチャは、ジェスチャを実行するユーザーを仮想ポートと関連付けるためのジェスチャ、仮想ポートとの関係を断つためのジェスチャ、一時停止ジェスチャ、メニュージェスチャ、自発的活動ジェスチャ、システム電源投入ジェスチャ、システム電源遮断ジェスチャ、選択ジェスチャ、退場ジェスチャ、引継ぎジェスチャなどを含み得る。
[0081]図9は、ジェスチャベースシステムにユーザーを結合し、その人の状態に関するフィードバックをその人に提供するためのブロック図(600)を表している。一実施形態において、コントローラーとしてユーザーを参加させるためのプロセスは、ユーザーを検出し、その後、それらを結合し、その後、ユーザーを仮想ポートと関連付ける特定のコマンドを検出する段階を包含する。システムからある種のフィードバックがないと、ユーザーは、ジェスチャベースシステムにおけるその人の状態に気づき得ない。例えば「非結合/検出」状態のユーザーは、例えば、夢中になってシステムを起動するジェスチャを実行し得る。本システムは、ユーザーがジェスチャベースシステムにおける状態に気付かない場合、ユーザーが結合状態になるまでこの機能が実行不可能であり得、その人に欲求不満をもたらし得る。別の例として、ジェスチャベースシステムに結合されて仮想ポートに関連付けられたユーザーがキャプチャ装置によって検出範囲から移動した場合、本システムは、コマンドの受信能力を喪失し得る。上記の状況において、キャプチャ領域に戻り、ジェスチャベースシステムにジェスチャベースコマンドを入力するために、ユーザーが移動することを必要とし得ることをその人に知らせるフィードバックをその人に提供することが重要であり得る。
[0082](602)において、どのユーザーもキャプチャ領域において検出されないとき、ジェスチャベースシステムは、非結合/未検出状態であり得、この状態を示すフィードバックを提供し得る。例えば、このフィードバックは、発光体のオフ状態、スピーカーからは無音状態であり得るか又はそれは、ある色、ある形状、若しくはある周期の発光体であり得る。
[0083](604)において、図1A〜図1Bに関連し前述したキャプチャ装置(20)上の1つ以上のセンサーがユーザーを検出し得る。一実施形態において、ユーザーは、キャプチャ装置の1つ以上のカメラのキャプチャ領域に参加する。別の実施形態において、マイクロフォンなどが、ユーザーからの音を検出する。
[0084](606)において、ユーザーが検出されたとき、ジェスチャシステムの状態フィードバックが、「非結合/未検出」の状態フィードバックから「非結合/検出」状態へ切り替え得る。この状態フィードバックは、特定色の発光体、音、又は点滅発光体であり得る。一実施形態において、この状態は完全に省略され、結合及び非結合の状態フィードバックだけがあり得る。
[0085](608)において、ジェスチャベースシステムが、ユーザーを結合し得る。結合は、本システムが、図7に関連し記述されたモデル(510)のようなモデルを構築したとき、生じ得る。別の実施形態において、結合は、1人以上のユーザープロファイルを検索することと、ユーザーのモデルをユーザープロファイルと比較することと、を包含し得る。(608)の結合の後、本システムは、ジェスチャをユーザーからのコマンドとして受信し、解釈し得るような状態にある。
[0086]610)において、本システムは、ユーザーが結合された状態にあることをその人に知らせるユーザーへのフィードバックを提供する。上記のように、このフィードバックは、任意の画面、表面、又は映像において、ジェスチャベースシステムからの任意の音又は光の放射形式を取り得る。
[0087]図10は、ユーザーをジェスチャベースシステムから結合を解除するためのブロック図(620)を表している。一実施形態において、(622)において、ポートとユーザーは結合状態にある。ユーザーがキャプチャ領域(300)のようなキャプチャ領域から単に退場し得、(624)において、それが検出される。ユーザーが戻らなかった場合、(628)において、状態フィードバックが結合状態から非結合/未検出状態へ切り換わる。一実施形態において、ユーザー(18)のようなユーザーがキャプチャ領域を退場するときと、本システムが非結合になり、非結合のフィードバックをユーザーに提供するときとの間には遅延があり得る。上記の遅延は、ユーザーが、セッション中又は短期間、キャプチャ領域を退場することと、その人の仮想ポートとその人の別のコンピューティングセッションエレメントとを維持しているキャプチャ領域に戻ることと、を可能にし得る。
[0088]図11は、1人以上の人々をジェスチャベースシステムの仮想ポートと関連付けるための実施形態例に関するブロック図(640)を表している。ジェスチャベースシステムにおいて、ユーザーは、典型的に、確立された物理ポートを用いたコントローラーを有していない。その代わり本システムは、仮想ポートを1人以上のユーザーに割り当てる必要がある。更に、これらの仮想ポートは、例えば、特権、権利、又は選択肢など異なる特性を彼らと関連付けさせるプライマリー、又はセカンダリー、又は第3のポートなどのどれかとして、割り当てられる必要があり得る。これらの特性は、1つ以上のコンピューティングセッションの過程において、変化し得る。
[0089](642)において、ユーザーが、前述したように本システムと結合され得る。一旦、ユーザーがジェスチャベースシステムと結合され得ると、その人は1つ以上のジェスチャを実行することによって、コマンドをシステムに提供し得る。上記のジェスチャの1つが入場ジェスチャであり得る。(644)において、ジェスチャベースシステムが、第1のユーザーから入場コマンドを検出し得る。入場コマンドは、選択機能であって、ユーザーは、必ずしもポートと関連付けられるために、入場コマンドを提供する必要があるわけではない。場合によってはキャプチャ領域に単に参加するか又は検出されることが、ポートと関連付けられるのに十分であり得る。
[0090](646)において、ジェスチャベースシステムが、ユーザーをプライマリー仮想ポートと関連付け得る。プライマリー仮想ポートは、ジェスチャベースシステムと関連付けられる別のポートが有し得ないジェスチャベースシステム全域の付加的なコントロールを有し得る。例えば、プライマリーポートと関連付けられたユーザーは、メニュー又はタイトルページ上で初期選択を実行することが許可され得る。プライマリーポートと関連付けられたユーザーは、ゲーム環境においてアバター又は制御板のような別のエレメントに関する選択を実行するための始まりでもあり得る。
[0091](648)において、参加し得る第2のユーザーが、キャプチャ領域において検出され得、ジェスチャベースシステムと結合され得る。一旦、第2のユーザーがジェスチャベースシステムと結合されると、その人は、1つ以上のジェスチャを実行することによってシステムにコマンドを提供可能になり得る。上記のジェスチャの1つが入場ジェスチャである。第2のユーザーによって提供される入場ジェスチャは同一で第1のユーザーによって提供される入場ジェスチャとは異なり得る。1つ以上の入場ジェスチャが存在し得、ユーザーはそのどれか1つを仮想ポートと関係付けるためにジェスチャベースシステムに提供する。入場コマンドは選択機能であって、ユーザーは、ポートに関連付けられるために、必ずしも入場コマンドを提供する必要があるわけではない。場合によっては、キャプチャ領域に単に参加するか又は検出されることが、ポートと関連付けられるのに十分であり得る。
[0092](652)において、第2のユーザーが、セカンダリー仮想ポートと関連付けられ得る。セカンダリー仮想ポートは、プライマリー仮想ポートと関連付けられるものと異なる特性を有し得る。一例において、セカンダリー仮想ポートは、そのカーソルを関連付けているが、しかし、カーソルは、あるメニュー画面上の選択又は画面選択などを実行するために使用され得ない。別の例において、セカンダリー仮想ポートがプライマリー仮想ポートが選択を実行する権利を有しないとき、ある画面上の1つ以上のオプションを選択するために使用され得る。例えば、第1のユーザーが画面の全域又は画面の一部においてどのコントロールも有し得ないとき、第2のユーザーがアバターなどを選択可能であり得る。
[0093]図12は、自発的活動をリクエストし、自発性に基づいて仮想ポートを割り当てるジェスチャベースシステムに関するブロック図(660)を表している。(662)において、2人以上のユーザーが、ジェスチャベース環境と結合され得、その1つがプライマリーポートである2つ以上のポートと関連付けられ得る。
[0094](664)において、ジェスチャベース環境が、1つ以上の自発的活動に対するリクエストをユーザーに提供し得る。一実施形態において、このプロセスは、1つ以上の仮想ポートを1人以上のユーザーに再度割当てるために使用され得る。別の実施形態において、ゲームアプリケーションなどのソフトウェア又はハードウェアアプリケーションにおいて、1人以上のユーザーが特定のタスクを割り当てられ得る自発的活動が使用され得る。ジェスチャベースシステムは、ユーザーが自発的ジェスチャを実行すること、キャプチャ領域の特定の場所へ移動することをリクエストし得るか、又はユーザーが自発的活動として作用するために実行し得る普遍的ジェスチャが存在し得る。別の実施形態において、ジェスチャベース環境が仮想スポットライトを空間に投影し得、自発的活動者が、自発的活動をするためにこの画面上の表現を有し得る仮想スポットライトの中へ一歩踏み込み得る。
[0095](666)において、本システムが1人以上のユーザーから1つ以上の自発的ジェスチャを検出し得る。(668)において、ジェスチャベースシステムが、自発的ジェスチャに基づいて仮想ポートを再度関連付け得る。一実施形態において、ユーザーが自発的活動をしたとき、プライマリーポートが自発的タスクの期間中、彼らと関連付けられ得る。別の実施形態において、プライマリーポートが、セッションが終了するか又は再度仮想ポートの関連付けを生成する別のイベントが発生するまで、自発的活動をするユーザーと関連付けられ得る。仮想ポートは再度関連付けられ得るが一方、本システムの別の態様は同一のままであり得る。例えば、アバター、場所、フィードバックなどは、仮想ポートの再度関連付けとともに変化し得ない。別の実施形態において、少なくとも1つのアバター、場所のフィードバックなどは、仮想ポートがユーザー間の関連付けを変化したとき、変化する。
[0096]図13は、2人以上のユーザー間において仮想ポートを引継ぐか又は切換えるための例示的方法のブロック図(680)を表している。(682)において、1人以上のユーザーが、計算環境において1つ以上の仮想ポートと関連付けられ得る。(684)において、ユーザーの1人が引継ぎジェスチャを実行し得、ジェスチャベースシステムによって検出される。(686)において、ジェスチャベースシステムが、引継ぎジェスチャに基づいて、1つ以上の仮想ポートを再度関連付け得る。
[0097]例として、第1の仮想ポートと関連付けられた第1のユーザーが、現在、どの仮想ポートとも関連付けられていない第2のユーザーに対し引継ぎジェスチャを実行し得る。これが第1の仮想ポートに、第1のユーザーから第2のユーザーへ切換えられることをもたらし得る。これは第1のユーザーに、別の利用可能な仮想ポートに再度割当てられることももたらし得る。
[0098]別の例として、第1の仮想ポートと関連付けられる第1のユーザーは、現在、第2の仮想ポートと関連付けられている第2のユーザーに対する引継ぎジェスチャを実行し得る。これが第1の仮想ポートに、第1のユーザーから第2のユーザーに切換えられることをもたらし得る。これは第2の仮想ポートに、第2のユーザーから第1のユーザーに切換えられることももたらし得る。
[0099]別の例として、レスリングゲームのタッグチームのような2人以上のユーザーが、仮想ポート又はゲームのコントロールを引継ぐためにハイタッチし得る。レスリングのタッグチームの例において、それぞれのユーザーは仮想ポートと関連付けられるが、しかし一度に1人のユーザーだけが、プライマリーポートに関連付けられ得、ひいてはプライマリーポートに対し排他的コマンドを実行できる。ハイタッチは、プライマリーポートがユーザーを切換え、かくして、別のユーザーが、プライマリーポートに対し排他的ジェスチャベースコマンドを実行可能な信号を送信し得る。別の例として、引継ぎジェスチャの中には、ユーザーの集合が、いくつかの項目又はオブジェクトを同時に制御可能にし得るものもある。例えば、引継ぎジェスチャの前に、第1のユーザーだけは、レスリングのリングにおけるアバターを制御するためのコマンドを入力し得る。しかしながら、引継ぎジェスチャの後、第1のユーザー及び第2のユーザーの双方が、アバターを同時に制御可能にし得る。
[0100]ジェスチャベースシステム(12)は、図2及び図3に関連する計算環境(12)において、メモリー(112)、メモリー(32)、又は別の任意のメモリーを有し得る。メモリーは、1人以上のユーザーに関連する情報を含む1つ以上のプロファイルをその上にストアしている。一実施形態において、プロファイルは、ユーザーを仮想ポートと自動的に関連付け得る情報を含み得る。例えば、ユーザーは、メモリーにストアされるプロファイルを設定し得、その人がキャプチャ領域に存在するときはいつも、その人をプライマリーポートと自動的に関連付ける。別の例として、計算環境は、1人以上のユーザーに関する、仮想ポートの関連付けのための典型的又はデフォルト順番を提供し得る情報をストアし得る。別の実施形態において、ジェスチャベースシステムのプライマリー利用者又は所有者は、その人がキャプチャ領域に存在するときはいつもプライマリーポートと関連付けられ得る。別の例として、ジェスチャベースシステムは、ジェスチャベースシステムを制御する際、1人以上のユーザーが有し得る不能に関する情報をストアし得、かくして、本システムは、典型的に彼らをセカンダリー又は第3のポートなどに関連付け得る。
[0101]ジェスチャベースシステムは、仮想ポートとの関連付けを確立するための別の情報も使用し得る。例えば、1人以上の子供が、親と一緒にキャプチャ領域へ一歩踏み込んだ場合、ジェスチャベースシステムは、ユーザーサイズ並びに親及び子供が存在する別の態様に基づいて決定し得る。その後、計算環境は、親がプライマリー仮想ポートと関連付けられるように仮想ポートを関連付け得るか又は再度関連付け得る。別の例として、1人以上のユーザーが、ジェスチャベース入力をジェスチャベースシステムに提供する困難性を有している場合、本システムは、プライマリーポートを別のユーザーと再度関連付けし得、関連付けられたポートの変更に関するフィードバックを提供し得る。
[0102]本明細書に記載した構成及び/又は手法は、本来、例示的であって、これらの具体的な実施形態又は例は、限定している意味として考えられないように理解されたい。本明細書に記載した特定のルーチン又は方法は、1つ以上の処理戦略をいくらでも示している。したがって、例示した様々な動作が、例示した順番で、別の順番で、並列などで実行され得る。同様に、前述したプロセスの順序は変更され得る。
[0103]加えると、本開示の対象項目は、本明細書に開示した様々なプロセス、システム、及び構成、並びにその他の特徴、機能、動作、及び/又は特性に関する組み合わせ及び部分的な組み合わせすべて、並びにその同等物を含む。
10 トラッキングシステム
12 計算環境
14 画面
16 視聴覚装置
18 ユーザー
20 キャプチャ装置
21 ラケット
22 ボクシングの対戦相手
23 ボール
24 ユーザーのアバター
25 画像キャプチャコンポーネント
26 赤外線光コンポーネント
27 立体視(3−D)カメラ
28 RGBカメラ
30 マイクロフォン
31 フィードバックコンポーネント
32 プロセッサー
34 メモリーコンポーネント
36 通信リンク
100 マルチメディアコンソール
101 中央演算処理装置
102 レベル1キャッシュ
104 レベル2キャッシュ
106 フラッシュROM
108 画像処理装置(GPU)
110 メモリーコントローラー
112 メモリー
114 映像エンコーダー/映像コーデック(符号化器/デコーダー)
118 モジュール
120 I/Oコントローラー
122 システム管理コントローラー
123 音声処理装置
124 ネットワークインターフェースコントローラー
126 第1のUSBコントローラー
128 第2のUSBコントローラー
130 フロントパネルI/O部分組立体
132 音声コーデック
136 システム電力供給モジュール
138 ファン
140 A/Vポート
143 システムメモリー
144 媒体ドライブ
146 外部記憶装置
148 無線アダプター
150 電源スイッチ
152 イジェクトボタン
190 ジェスチャライブラリー
220 計算環境
221 システムバス
222 システムメモリー
223 読み出し専用メモリー(ROM)
224 基本入出力システム(BIOS)
225 オペレーティングシステム
226 アプリケーションプログラム
227 その他のプログラムモジュール
228 プログラムデータ
229 画像処理装置(GPU)
230 ビデオメモリー
231 グラフィックインターフェース
232 ビデオインターフェース
233 周辺出力インターフェース
234 取り外し不可能メモリーインターフェース
235 取り外し可能メモリーインターフェース
236 ユーザー入力インターフェース
237 アダプター
238 ハードディスクドライブ
239 磁気ディスクドライブ
240 光学式ディスクドライブ
241 計算機
242 モニター
243 プリンター
244 スピーカー
245 ローカルエリアネットワーク(LAN)
246 リモートコンピューター
247 メモリー記憶装置
248 リモートアプリケーションプログラム
249 広域ネットワーク(WAN)
250 モデム
251 キーボード
252 ポインティングデバイス
253 不揮発性光学式ディスク
254 不揮発性磁気ディスク
255 プログラムデータ
256 その他のプログラムモジュール(複数)
257 アプリケーションプログラム(複数)
258 オペレーティングシステム
259 演算処理装置
260 ランダムアクセスメモリー(RAM)
290 物理ポート
292 ケーブル
294 コントローラー
300 キャプチャ領域
302 第1のユーザー
304 第2のユーザー
510 ヒューマンユーザーモデル
512 関節
514 骨
520 手を上げているか又は手を振っているジェスチャ
522 腕を使ってXを作っているジェスチャ
524 ハイタッチジェスチャ

Claims (15)

  1. ジェスチャベース計算環境の仮想ポートを管理するための方法であって、
    キャプチャ領域(300)において第1のユーザーを検出するステップ(642)と、
    前記第1のユーザーをプライマリー仮想ポートと関連付けるステップ(646)と、を含む方法。
  2. 更に、
    前記キャプチャ領域において、第2のユーザーを検出するステップ(648)と、
    前記第2のユーザーをセカンダリー仮想ポートと関連付けるステップ(652)と、を含む請求項1記載の方法。
  3. 引継ぎジェスチャに応答し(682)、前記プライマリー仮想ポートが、前記第1のユーザーから第2のユーザーへ渡されること(686)を特徴とする請求項1記載の方法。
  4. 引継ぎジェスチャに応答し(682)、前記第1のユーザーに関連付けられた特性が、第2のユーザーへ渡されることを特徴とする請求項1記載の方法。
  5. 前記第1のユーザーが、入場コマンドに応答して前記プライマリー仮想ポートと関連付けられる(644)ことを特徴とする請求項1記載の方法。
  6. 更に、前記第1のユーザーが前記キャプチャ領域(300)を退場すること、退場コマンドを実行すること、又はゲームに敗けることに応答し、前記プライマリー仮想ポートから前記第1のユーザーの関係を断つステップを含む請求項1記載の方法。
  7. 更に、
    前記プライマリー仮想ポートから前記第1のユーザーの関係を断つステップと、
    前記第2のユーザーの前記仮想ポートを前記セカンダリー仮想ポートから前記プライマリー仮想ポートへ更新するステップと、を含む請求項2記載の方法。
  8. 1人以上の人々が、自発的コマンドを発行すること(664)によって、前記計算環境における特定のタスクに対し自発的活動をすること(666)を特徴とする請求項1記載の方法。
  9. 更に、
    領域(300)において、1人以上のユーザー(18)の態様を決定するステップと、
    ユーザープロファイル情報を受信するステップと、
    前記ユーザーの前記態様及び前記ユーザープロファイル情報に基づいて仮想ポートの関連性を更新するステップと、を含む請求項1記載の方法。
  10. ジェスチャベース計算環境の1つ以上の仮想ポートを管理するためのシステムであって、
    キャプチャ領域(300)において、ユーザー(18)を検出するためのキャプチャ装置(20)と、
    プライマリー仮想ポートと、
    前記キャプチャ領域において、第1のユーザーを検出するステップ(642)と、
    前記第1のユーザーをプライマリー仮想ポートと関連付けるステップ(646)と、を含む命令を実行するプロセッサー(32)と、を含むシステム。
  11. 更に、セカンダリー仮想ポート(652)を含む請求項10記載のシステム。
  12. 前記キャプチャ装置が、1人以上のユーザーから1つ以上のジェスチャ(図8)を検出することと、少なくとも1つのジェスチャが入場ジェスチャであって、少なくとも1つのジェスチャが引継ぎジェスチャであって、少なくとも1つのジェスチャが退場ジェスチャであることと、を特徴とする請求項10記載のシステム。
  13. ジェスチャベース計算環境の仮想ポートを管理するための計算機実行可能命令をストアしている計算機可読媒体であって、
    キャプチャ領域(300)において第1のユーザーを検出するステップと、
    前記第1のユーザーをプライマリー仮想ポートと関連付けるステップ(646)と、を含む媒体。
  14. 更に、
    前記キャプチャ領域において第2のユーザーを検出するステップ(648)と、
    前記第2のユーザーをセカンダリー仮想ポートと関連付けるステップ(652)と、に関する命令を含む請求項13記載の計算機可読媒体。
  15. 更に、前記プライマリー仮想ポートを前記第1のユーザーから前記第2のユーザーへ渡し、前記セカンダリー仮想ポートを前記第2のユーザーから前記第1のユーザーへ渡すこと(686)によって引継ぎジェスチャ(684)に応答する命令を含む請求項14記載の計算機可読媒体。
JP2012508733A 2009-05-01 2010-04-29 仮想ポート管理方法及びシステム Active JP5410596B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/434,584 US8181123B2 (en) 2009-05-01 2009-05-01 Managing virtual port associations to users in a gesture-based computing environment
US12/434,584 2009-05-01
PCT/US2010/032975 WO2010127121A2 (en) 2009-05-01 2010-04-29 Managing virtual ports

Publications (3)

Publication Number Publication Date
JP2012525230A true JP2012525230A (ja) 2012-10-22
JP2012525230A5 JP2012525230A5 (ja) 2013-03-28
JP5410596B2 JP5410596B2 (ja) 2014-02-05

Family

ID=43031364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012508733A Active JP5410596B2 (ja) 2009-05-01 2010-04-29 仮想ポート管理方法及びシステム

Country Status (9)

Country Link
US (2) US8181123B2 (ja)
EP (1) EP2424632B1 (ja)
JP (1) JP5410596B2 (ja)
KR (1) KR101674234B1 (ja)
CN (1) CN102413887B (ja)
BR (1) BRPI1014358A2 (ja)
CA (1) CA2757057C (ja)
RU (1) RU2555220C2 (ja)
WO (1) WO2010127121A2 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL189514A (en) 2007-02-14 2011-12-29 Marvell Israel Misl Ltd Logical mediation system and method
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
DE102009024656A1 (de) * 2009-06-12 2011-03-24 Volkswagen Ag Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle
EP3447979B8 (en) * 2009-11-02 2020-08-05 Marvell Asia Pte, Ltd. Switching system and method based on virtual interfaces
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8795082B2 (en) * 2010-01-25 2014-08-05 Rambus Inc. Directional beam steering system and method to detect location and motion
JP2011186636A (ja) * 2010-03-05 2011-09-22 Sony Corp 情報処理装置および方法、並びにプログラム
US8964742B1 (en) 2010-07-28 2015-02-24 Marvell Israel (M.I.S.L) Ltd. Linked list profiling and updating
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US9167289B2 (en) * 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
KR20120051208A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사물을 이용한 제스쳐 인식 방법 및 장치
US20130318445A1 (en) * 2011-02-28 2013-11-28 April Slayden Mitchell User interfaces based on positions
US20120242793A1 (en) * 2011-03-21 2012-09-27 Soungmin Im Display device and method of controlling the same
CN103620535B (zh) 2011-06-13 2017-06-27 西铁城时计株式会社 信息输入装置
US9207767B2 (en) * 2011-06-29 2015-12-08 International Business Machines Corporation Guide mode for gesture spaces
US9142182B2 (en) * 2011-10-07 2015-09-22 Lg Electronics Inc. Device and control method thereof
CN103092810B (zh) 2011-11-02 2017-03-01 飞思卡尔半导体公司 处理器、对处理器编程的方法以及电子设备
US9164579B2 (en) * 2011-11-15 2015-10-20 Lg Electronics Inc. Electronic device for granting authority based on context awareness information
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
GB2512518B (en) * 2011-12-23 2017-06-14 Sensomotoric Instr Ges Fur Innovative Sensorik Mbh Method and system for presenting at least one image of at least one application on a display device
US10345911B2 (en) 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
US9678574B2 (en) * 2011-12-23 2017-06-13 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
WO2013095671A1 (en) 2011-12-23 2013-06-27 Intel Corporation Transition mechanism for computing system utilizing user sensing
US9684379B2 (en) 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
KR101237472B1 (ko) * 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
TW201405443A (zh) * 2012-07-17 2014-02-01 Wistron Corp 手勢輸入系統及方法
US9765612B2 (en) 2012-12-31 2017-09-19 Halliburton Energy Service, Inc. Time-frequency domain multiplexing apparatus, methods, and systems
US8814683B2 (en) 2013-01-22 2014-08-26 Wms Gaming Inc. Gaming system and methods adapted to utilize recorded player gestures
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
EP2924541B1 (en) * 2014-03-28 2019-05-29 Wipro Limited System and method for guided continuous body tracking for complex interaction
US9727778B2 (en) * 2014-03-28 2017-08-08 Wipro Limited System and method for guided continuous body tracking for complex interaction
CN104281265B (zh) * 2014-10-14 2017-06-16 京东方科技集团股份有限公司 一种应用程序的控制方法、装置及电子设备
US9977565B2 (en) 2015-02-09 2018-05-22 Leapfrog Enterprises, Inc. Interactive educational system with light emitting controller
RU168332U1 (ru) * 2016-06-06 2017-01-30 Виталий Витальевич Аверьянов Устройство для воздействия на виртуальные объекты дополненной реальности
US10973678B2 (en) 2016-07-27 2021-04-13 Purewick Corporation Apparatus and methods for receiving discharged urine
US10606364B2 (en) * 2018-06-14 2020-03-31 Dell Products, L.P. Two-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications
CN108965129B (zh) * 2018-06-25 2021-01-26 烽火通信科技股份有限公司 一种vpls业务组播物理端口迭代的实现方法
JP6936465B1 (ja) * 2019-11-13 2021-09-15 株式会社Abal 仮想空間体感システム
US11112875B1 (en) * 2020-03-20 2021-09-07 Huawei Technologies Co., Ltd. Methods and systems for controlling a device using hand gestures in multi-user environment
CN117170220B (zh) * 2023-09-12 2024-05-03 珠海笙科智能科技有限公司 一种基于虚拟midi端口实现ble midi控制器指令控制的方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
WO2009067676A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Device access control
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム

Family Cites Families (231)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
EP0590101B1 (en) 1991-12-03 1999-06-23 French Sportech Corporation Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
JP3869005B2 (ja) * 1995-06-22 2007-01-17 3ディブイ・システムズ・リミテッド テレセントリック立体カメラと方法
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
JP2000510013A (ja) 1996-05-08 2000-08-08 リアル ヴィジョン コーポレイション 位置検出を用いたリアルタイムシミュレーション
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6124862A (en) * 1997-06-13 2000-09-26 Anivision, Inc. Method and apparatus for generating virtual views of sporting events
US6075895A (en) * 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
WO1999015863A1 (en) 1997-09-24 1999-04-01 3Dv Systems, Ltd. Acoustical imaging system
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
US6411744B1 (en) 1997-10-15 2002-06-25 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6241612B1 (en) * 1998-11-09 2001-06-05 Cirrus Logic, Inc. Voice communication during a multi-player game
US7483049B2 (en) * 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7202898B1 (en) 1998-12-16 2007-04-10 3Dv Systems Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
WO2001018563A1 (en) * 1999-09-08 2001-03-15 3Dv Systems, Ltd. 3d imaging system
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US6823363B1 (en) * 1999-10-26 2004-11-23 Beth S. Noveck User-moderated electronic conversation process
US7050177B2 (en) * 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US7006236B2 (en) * 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US6690618B2 (en) 2001-04-03 2004-02-10 Canesta, Inc. Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device
US20030132950A1 (en) 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
DE19960180B4 (de) * 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) * 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
US6767287B1 (en) * 2000-03-16 2004-07-27 Sony Computer Entertainment America Inc. Computer system and method for implementing a virtual reality environment for a multi-player game
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7327376B2 (en) * 2000-08-29 2008-02-05 Mitsubishi Electric Research Laboratories, Inc. Multi-user collaborative graphical user interfaces
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US20020075334A1 (en) * 2000-10-06 2002-06-20 Yfantis Evangelos A. Hand gestures and hand motion for replacing computer mouse events
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) * 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
AU2002315456A1 (en) 2001-06-22 2003-01-08 Canesta, Inc. Method and system to display a virtual input device
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US20030165048A1 (en) 2001-12-07 2003-09-04 Cyrus Bamji Enhanced light-generated interface for use with electronic devices
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
AU2003219926A1 (en) 2002-02-26 2003-09-09 Canesta, Inc. Method and apparatus for recognizing objects
US7310431B2 (en) * 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
EP1497160B2 (de) 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS &amp; ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
US8125459B2 (en) * 2007-10-01 2012-02-28 Igt Multi-user input systems and processing techniques for serving multiple users
US7151530B2 (en) * 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
GB2398691B (en) * 2003-02-21 2006-05-31 Sony Comp Entertainment Europe Control of data processing
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US7372977B2 (en) * 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7620202B2 (en) 2003-06-12 2009-11-17 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US20050183035A1 (en) * 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
JP3847753B2 (ja) * 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20050215319A1 (en) * 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
KR100594005B1 (ko) * 2004-04-14 2006-06-30 삼성전자주식회사 이동통신 단말기용 육성 시뮬레이션 방법 및 장치
CN100573548C (zh) 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
US7991220B2 (en) * 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
EP1645944B1 (en) * 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7430312B2 (en) 2005-01-07 2008-09-30 Gesturetek, Inc. Creating 3D images of objects by illuminating with infrared patterns
EP1856470B1 (en) 2005-01-07 2013-02-27 Qualcomm Incorporated Detecting and tracking objects in images
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
US8369795B2 (en) * 2005-01-12 2013-02-05 Microsoft Corporation Game console notification system
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US8009871B2 (en) * 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
US20060205517A1 (en) * 2005-03-08 2006-09-14 Malabuyo Paolo V Systems and methods for providing a system level user interface in a multimedia console
KR100688743B1 (ko) * 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
WO2006099597A2 (en) * 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US20060258427A1 (en) * 2005-05-13 2006-11-16 Igt Wide area table gaming monitor and control system
US7389591B2 (en) 2005-05-17 2008-06-24 Gesturetek, Inc. Orientation-sensitive signal output
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
GB2431717A (en) * 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US8241118B2 (en) * 2006-01-27 2012-08-14 Great Play Holdings Llc System for promoting physical activity employing virtual interactive arena
US7433024B2 (en) * 2006-02-27 2008-10-07 Prime Sense Ltd. Range mapping using speckle decorrelation
WO2007130691A2 (en) * 2006-05-07 2007-11-15 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
US7721207B2 (en) * 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
EP2050067A1 (en) * 2006-08-03 2009-04-22 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8395658B2 (en) * 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US8683386B2 (en) * 2006-10-03 2014-03-25 Brian Mark Shuster Virtual environment for computer game
AU2007289025B2 (en) 2006-10-26 2009-04-23 Richard John Baker Method and apparatus for providing personalised audio-visual instruction
US8157652B2 (en) * 2006-11-10 2012-04-17 Igt Interactive gaming table
US20080134102A1 (en) * 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US20090005141A1 (en) * 2007-06-26 2009-01-01 Nokia Corporation Personalized Multiplayer Media Game or Quiz
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
CN101842810B (zh) 2007-10-30 2012-09-26 惠普开发有限公司 具有协作姿态检测的交互式显示系统
JP2011504710A (ja) * 2007-11-21 2011-02-10 ジェスチャー テック,インコーポレイテッド メディア嗜好
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
GB2455316B (en) * 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US8149210B2 (en) * 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
CN101299227B (zh) * 2008-06-27 2010-06-09 北京中星微电子有限公司 基于三维重构的多人游戏系统及方法
CN201254344Y (zh) 2008-08-20 2009-06-10 中国农业科学院草原研究所 植物标本及种子存贮器
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
WO2009067676A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Device access control
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム

Also Published As

Publication number Publication date
EP2424632A2 (en) 2012-03-07
RU2011144125A (ru) 2013-05-10
RU2555220C2 (ru) 2015-07-10
US20120144348A1 (en) 2012-06-07
CA2757057A1 (en) 2010-11-04
WO2010127121A2 (en) 2010-11-04
CN102413887A (zh) 2012-04-11
KR20120011023A (ko) 2012-02-06
US8181123B2 (en) 2012-05-15
US20100281437A1 (en) 2010-11-04
EP2424632A4 (en) 2013-11-06
CA2757057C (en) 2017-09-26
BRPI1014358A2 (pt) 2016-04-05
WO2010127121A3 (en) 2011-02-24
KR101674234B1 (ko) 2016-11-08
EP2424632B1 (en) 2018-11-14
CN102413887B (zh) 2014-05-07
JP5410596B2 (ja) 2014-02-05
US8762894B2 (en) 2014-06-24

Similar Documents

Publication Publication Date Title
JP5410596B2 (ja) 仮想ポート管理方法及びシステム
US9015638B2 (en) Binding users to a gesture based system and providing feedback to the users
US20170095738A1 (en) User movement feedback via on-screen avatars
JP5943913B2 (ja) ユーザー追跡フィードバック
US9195305B2 (en) Recognizing user intent in motion capture system
US9069381B2 (en) Interacting with a computer based application
KR101643020B1 (ko) 애니메이션을 체이닝하는 방법 및 애니메이션 블렌딩 장치
US9400695B2 (en) Low latency rendering of objects
US8605205B2 (en) Display as lighting for photos or video
US20150194187A1 (en) Telestrator system
JP2012525643A (ja) モーションキャプチャにモデルトラッキングを適用するための方法及びシステム
US20100295771A1 (en) Control of display objects
US9215478B2 (en) Protocol and format for communicating an image from a camera to a computing environment
US20120303937A1 (en) Computer system and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131106

R150 Certificate of patent or registration of utility model

Ref document number: 5410596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250