JP2009535167A - 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置 - Google Patents

1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置 Download PDF

Info

Publication number
JP2009535167A
JP2009535167A JP2009509745A JP2009509745A JP2009535167A JP 2009535167 A JP2009535167 A JP 2009535167A JP 2009509745 A JP2009509745 A JP 2009509745A JP 2009509745 A JP2009509745 A JP 2009509745A JP 2009535167 A JP2009535167 A JP 2009535167A
Authority
JP
Japan
Prior art keywords
action
gearing
input device
computer program
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009509745A
Other languages
English (en)
Other versions
JP4567805B2 (ja
Inventor
エム. ザルースキ ゲイリー
マオ シャドン
マークス リチャード
Original Assignee
ソニー・コンピュータ・エンタテインメント・アメリカ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/381,725 external-priority patent/US7783061B2/en
Priority claimed from US11/381,724 external-priority patent/US8073157B2/en
Priority claimed from US11/381,727 external-priority patent/US7697700B2/en
Priority claimed from US11/381,721 external-priority patent/US8947347B2/en
Priority claimed from US11/381,729 external-priority patent/US7809145B2/en
Priority claimed from US11/381,728 external-priority patent/US7545926B2/en
Priority claimed from US11/382,036 external-priority patent/US9474968B2/en
Priority claimed from US11/382,038 external-priority patent/US7352358B2/en
Priority claimed from US11/382,040 external-priority patent/US7391409B2/en
Priority claimed from US11/382,041 external-priority patent/US7352359B2/en
Application filed by ソニー・コンピュータ・エンタテインメント・アメリカ・インク filed Critical ソニー・コンピュータ・エンタテインメント・アメリカ・インク
Publication of JP2009535167A publication Critical patent/JP2009535167A/ja
Application granted granted Critical
Publication of JP4567805B2 publication Critical patent/JP4567805B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/71Game security or game management aspects using secure communication between game devices and game servers, e.g. by encrypting game data or authenticating players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition

Abstract

コンピュータゲームシステムとインタラクティブにインターフェースする方法及び装置が提供される。このコンピュータゲームシステムは、画像データをキャプチャするビデオキャプチャ装置を含む。ある方法において、入力デバイスがビデオキャプチャ装置に表示され、入力デバイスは、変調される複数の光源を有しており、これにより、この入力デバイスの位置と、キャプチャした画像データと複数の光源の状態との分析に基づくコンピュータゲームシステムにより解釈される通信データと、が伝達される。さらに上記方法において、コンピュータゲームシステムにより実行されるコンピュータゲームのオブジェクトの移動が定義される。これにより、オブジェクトの移動が、キャプチャされた画像データにおいて検出された入力デバイスの移動に対応づけられる。次に、上記方法において、コンピュータゲームのオブジェクトの移動と入力デバイスの移動との間のギアリングが定められる。ギアリングとは、入力デバイスの位置における移動とオブジェクトの移動との間の比率を定めるものである。ギアリングは、ゲームやユーザにより動的に設定されてもよいし、ソフトウェアまたはギアリングアルゴリズムに従って配置されたユーザにより事前に設定されてもよい。入力デバイスの各実施形態は、ギアリングが適用される、コンピュータゲームシステムにより解釈される慣性データを提供するために用いることができる。さらに、各実施形態は、画像キャプチャ、慣性キャプチャならびに音響キャプチャのミックスに加えて、音響検出システムを用いることができ、これにより所望のギアリングをかけることができる。

Description

ビデオゲーム産業は、長年にわたって多くの変化を経験してきた。演算能力が拡大するにつれ、ビデオゲームの開発者も同様に、この演算能力の増大を利用するゲームソフトウェアを作成してきている。
このために、ビデオゲーム開発者は、極めてリアルなゲーム体験を生み出すべく、高度な演算と数学を採用したゲームをコーディングしてきた。
ゲームプラットフォームの例に、ソニープレイステーションまたはソニープレイステーション2(PS2)があり、これらはそれぞれ、ゲームコンソールの形で販売されている。周知のように、ゲームコンソールはモニタ(通常はテレビ)と接続されて、手持ち式のコントローラによってユーザとのインタラクションを可能にするように設計されている。ゲームコンソールは、CPU、処理量の多いグラフィック操作のためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクトル装置などの特化した処理ハードウェアと、その他の繋ぎとなるハードウェア即ちグルーハードウェア、ファームウェアおよびソフトウェアなどを備えて設計される。
また、ゲームコンソールは、ゲームコンソールによるローカルプレイを行うためにゲームのコンパクトディスクを受け容れるための光ディスクトレイを備えて設計される。また、ユーザが、インターネット上で他のユーザと対戦して、または、他のユーザと一緒にインタラクティブにプレイすることができるオンラインゲームも可能である。
ゲームが複合的なものであることがプレーヤの興味を引き続けていることから、ゲームのソフトウェアおよびハードウェアのメーカは更なるインタラクティブ機能を実現するために革新を続けてきている。しかし、実際は、ユーザがゲームとインタラクトする手法は、長年にわたって劇的には変わることはなかった。一般に、ユーザは、未だに、手持ち式のコントローラを使用してコンピュータゲームをプレイしたり、マウスポインティングデバイスを使用してプログラムとのインタラクションを行っている。前述を鑑みて、ゲームプレイにおいてより高度なユーザインタラクティビティを可能にする方法およびシステムが求められている。
概して、本発明は、コンピューティングシステムとのダイナミックなユーザインタラクティビティを可能にする方法、システムおよび装置を提供することによって、このニーズを満たす。一実施形態では、コンピューティングシステムはプログラムを実行しており、プログラムがインタラクティブなものとなっている。プログラムは、例えば、インタラクティブなオブジェクトやフィーチャを定義するビデオゲームであってもよい。インタラクティビティには、処理が実行される際の程度の調整を行うギアリング要素を調整する能力をユーザに与えることが含まれる。一実施形態では、ギアリングは、入力デバイスの移動量対コンピュータプログラムのオブジェクトやフィーチャが行う移動量間の相対移動に設定することができる。
別の実施形態では、ギアリングは、コンピュータプログラムのフィーチャに対して設定することができ、入力デバイスからの検出は、慣性アナライザの処理に基づくものであってもよい。この慣性アナライザは、慣性アクティビティに対する入力デバイスを追跡し、その情報をプログラムに伝達する。次に、プログラムは、慣性アナライザからの出力を処理して、出力にギアリング量をかけることができるようにする。ギアリング量は、プログラムがオペレーションを計算する際の程度または比率を決定する。オペレーションは任意の数の形態をとることができ、オペレーションの一例としては、ノイズ、可変ノイズ、オブジェクトが行う移動、または変数の生成、を挙げることができる。出力が変数であれば、この変数(例えば、乗数など)を使用してプロセスを完了するようにしてもよい。これにより、プロセスはギアリング量を考慮するようになる。ギアリング量は、ユーザが事前に設定しても動的に設定してもよく、または要求に応じて調整することができる。
一実施形態では、追跡は音響アナライザによって行うことができる。音響アナライザは入力デバイスから音響信号を受信するように構成され、実行されているコマンドやインタラクションにかけられるギアリング量を伝達することができる。音響アナライザは、コンピュータプログラムのセグメントの形態であってもよく、または、音響信号情報を処理するように設計された回路に特別に形成されたものであってもよい。したがって、音響信号情報は、プログラムによって動的に設定されるか、要求に応じて、(コントローラ上のボタン、音声コマンドなどを選択することによって)入力デバイスを介してユーザにより設定されるギアリングデータを含むことができる。
一実施形態では、入力デバイスの追跡は、画像アナライザを介してなされてもよい。以下に説明しているように、画像アナライザは、ユーザならびに入力デバイスが位置する空間の画像をキャプチャするカメラを備え得る。この例では、画像アナライザは、処理プログラムのフィーチャにそれぞれのアクションを行わせるように、コントローラの位置を決定している。プログラムはゲームであり、フィーチャは入力デバイスによって制御されているオブジェクトであってもよい。さらに、画像アナライザは、位置データを入力ギアリング値とミックスするように構成される。ギアリング値は、ユーザにより、実行において動的に与えられてもよく、あるいは、実行セッションのアクティビティに応じてプログラムにより設定されてもよい。ギアリング入力は、ユーザによる入力ジェスチャやアクションに基づいて、コンピュータプログラムによる幾分かの処理に相対的インパクトを設定する。一実施形態では、ギアリングは、ユーザやユーザ入力デバイスからのコマンドやアクションをプログラムのフィーチャに変換する。プログラムのフィーチャは可視オブジェクトでなくてもよいが、音声、振動または画像の移動のいずれかのパラメータ、予測、あるいは変換を幾分か計算するように使用される変数の調整を含むことができる。したがって、ギアリングは、プログラムとプログラムのフィーチャ間に与えられるインタラクティビティを制御するための更なる意味を付加することになる。さらに別の実施形態では、ミキサアナライザが提供される。このミキサアナライザは、ゲームのフィーチャにハイブリッド効果をもたらすように設計される。例えば、ミキサアナライザは、画像アナライザ、音響アナライザ、慣性アナライザなどの組合せからの入力を扱う。したがって、一実施形態では、このミキサアナライザはいくつかのギアリング変数を受信する。これらの変数は混合ならびに合成されて、プログラムのフィーチャとのハイブリッドな結果、コマンド、あるいはインタラクションをもたらす。同様に、プログラムのフィーチャは視覚オブジェクトならびに非視覚オブジェクト、移動の処理に使用する変数、可聴反応に対する調節などを含むものと広く理解されるべきである。
1つの特定の例では、ユーザのコントローラによる移動をゲームのフィーチャ上の移動またはアクションに変換する量の少なくとも一部は設定された、あるいは決定されたギアリングに関係する。ギアリングは、ゲームに対して動的に設定もしくは事前に設定されてもよく、あるいはゲームのプレイ中にユーザによって調整されてもよい。さらに、この反応は、ビデオゲームのオブジェクトもしくはフィーチャに対応づけられ、別のレベルのユーザインタラクティビティと強化した体験とを与えることができる。
本発明は、プロセス、装置、システム、デバイスまたは方法など、多くの方法で実装することができる点を理解されたい。以下に本発明のいくつかの発明の実施形態を記載する。
一実施形態では、コンピュータゲームシステムとインタラクティブにインターフェースする方法が提供される。このコンピュータゲームシステムは、画像データをキャプチャするビデオキャプチャ装置を含む。上記方法において、入力デバイスがビデオキャプチャ装置に表示され、入力デバイスは、変調される複数の光源を有しており、この入力デバイスの位置と、キャプチャしたデータ分析ならびに複数の光源の状態に基づくコンピュータゲームシステムにより解釈される通信データとが伝達される。さらに上記方法において、コンピュータゲームシステムにより実行されるコンピュータゲームのオブジェクトの移動つまりムーブメントや動き、動作が定義される。これにより、オブジェクトの移動は、キャプチャした画像データで検出した入力デバイスの位置における移動あるいは移動や動作に対応づけられる。次に、上記方法において、コンピュータゲームのオブジェクトの移動と、入力デバイスの位置における移動あるいは移動と、の間のギアリングが定められる。ギアリングは、入力デバイスの移動とオブジェクトの移動との間の比率を定める。ギアリングは、ゲームやユーザにより動的に設定されてもよいし、ソフトウェアまたはギアリングアルゴリズムに従って配置されたユーザにより事前に設定されてもよい。
別の実施形態では、コンピュータゲームシステムとインタラクティブにインターフェースする方法が開示されている。コンピュータゲームシステムは、画像データをキャプチャするビデオキャプチャ装置を含む。上記方法にいおいて、入力デバイスがビデオキャプチャ装置に表示される。これにより、入力デバイスの位置と、キャプチャした画像データ分析に基づくコンピュータゲームシステムにより解釈される通信データとが伝達される。次に、上記方法において、コンピュータゲームシステムにより実行されるコンピュータゲームのオブジェクトの移動が定義され、さらに、このオブジェクトの移動がキャプチャした画像データで検出した入力デバイスの移動に対応づけられる。次に、上記方法において、コンピュータゲームのオブジェクトの移動対入力デバイスの移動間のギアリングが定められる。ギアリングは、入力デバイスの移動とオブジェクトの移動との間における、ユーザにより調節可能な比率を定める。
さらに別の実施形態では、コンピュータゲームシステムとインタラクティブにインターフェースするプログラム命令を含む、コンピュータ可読媒体が提供される。コンピュータゲームシステムは、画像データをキャプチャするビデオキャプチャ装置を含む。コンピュータ可読媒体は、入力デバイスの表示をビデオキャプチャ装置に検出するプログラム命令を含む。入力デバイスは、入力デバイスの位置とキャプチャした画像データ分析に基づくコンピュータゲームシステムによって解釈される通信データを伝達する。さらに、コンピュータ可読媒体は、コンピュータゲームシステムにより実行されるコンピュータゲームのオブジェクトの移動を定義するプログラム命令を含み、オブジェクトの移動は、キャプチャした画像データで検出した入力デバイスの移動に対応づけられる。さらに、コンピュータ可読媒体は、コンピュータゲームのオブジェクトの移動と入力デバイスの移動との間のギアリングを定めるプログラム命令を含み、ギアリングは入力デバイスの移動とオブジェクトの移動との間のユーザにより調節可能な比率を定める。ユーザにより調節可能な比率は、ゲームのプレイ中、ゲームプレイセッション前、あるいはゲーム中のある特定のアクションイベント中に動的に変更することができる。
さらに別の実施形態では、ユーザのアクションと、コンピュータプログラムのオブジェクトにより実施されるアクションとの間に動的なユーザインタラクティビティを可能にするシステムが提供される。上記システムは、コンピューティングシステム、コンピューティングシステムに結合されたビデオキャプチャ装置、コンピューティングシステムから入力を受信するディスプレイを備える。さらに、上記システムは、コンピューティングシステムにより実行されるコンピュータプログラムとインターフェースする入力デバイスを備える。入力デバイスは、対応付けられた入力デバイスと制御されるオブジェクトの移動との間の比率を定めるギアリングコントロールを有する。オブジェクトは、コンピュータプログラムにより定義されており、コンピューティングシステムにより実行される。入力デバイスの移動はビデオキャプチャ装置により識別される。また、ディスプレイに表示されたオブジェクトの移動は、入力デバイスのギアリングコントロールにより設定された、設定されたギアリング値を有する。この実施形態では、入力デバイスと対応づけられたギアリングを一般のアプリケーションに適用してもよく、ゲームに対して適用することが必須であるわけではない。
さらに別の実施形態では、ユーザのアクションと、コンピュータプログラムのオブジェクトにより実施されるアクション間に動的なユーザインタラクティビティを可能にする装置が提供されている。この装置には、コンピューティングシステムにより実行されるコンピュータプログラムとインターフェースする入力デバイスを含む。入力デバイスは、制御されるオブジェクトの移動に対応づけられた入力デバイスの移動間の比率を定めるギアリングコントロールを有する。オブジェクトはコンピュータプログラムにより定義されており、コンピューティングシステムにより実行され、入力デバイスの移動は、ビデオキャプチャ装置により識別され、オブジェクトの移動は、入力デバイスのギアリングコントロールによって設定された、設定されたギアリング値を有するものとしてディスプレイに表示される。
別の実施形態では、コンピュータプログラムのフィーチャにギアリングをかけることができ、入力デバイスからの検出は慣性アナライザの処理に基づくものであってもよい。慣性アナライザは、慣性アクティビティに対する入力デバイスを追跡し、その情報をプログラムに伝達する。次に、プログラムは、慣性アナライザからの出力を扱い、出力にギアリング量をかけることができるようにする。ギアリング量は、プログラムがオペレーションを計算する際の程度または比率を決定する。オペレーションは任意の数の形態をとることができ、その一例としては、ノイズ、可変ノイズ、オブジェクトが行う移動、または変数の生成を挙げることができる。
出力が変数であれば、この変数(例えば、乗数など)を使用してプロセスを完了するようにしてもよい。これにより、プロセスはギアリング量を考慮するようになる。ギアリング量は、ユーザが事前に設定しても動的に設定してもよく、または要求に応じて調整することができる。一実施形態では、追跡は音響アナライザによって行うことができる。音響アナライザは入力デバイスから音響信号を受信するように構成され、実行されているコマンドやインタラクションにかけられるギアリング量を伝達することができる。音響アナライザは、コンピュータプログラムのセグメントの形態であってもよく、または、音響信号情報を処理するように設計された回路に特別に形成されたものであってもよい。したがって、音響信号情報は、プログラムによって動的に設定されるか、要求に応じて、(コントローラ上のボタン、音声コマンドなどを選択することによって)入力デバイスを介してユーザにより設定されるギアリングデータを含むことができる。さらに別の実施形態では、ミキサアナライザが提供される。
このミキサアナライザは、ゲームのフィーチャにハイブリッド効果をもたらすように設計される。例えば、ミキサアナライザは、画像アナライザ、音響アナライザ、慣性アナライザなどの組合せからの入力を扱う。
したがって、一実施形態では、このミキサアナライザはいくつかのギアリング変数を受信する。これらの変数は混合ならびに合成されて、プログラムのフィーチャとのハイブリッドな結果、コマンド、あるいはインタラクションをもたらす。同様に、プログラムのフィーチャは視覚オブジェクトならびに非視覚オブジェクト、オペレーションの処理に使用する変数、可聴反応に対する調節などを含むものと広く理解されるべきである。本発明の利点は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。
本発明は添付の図面と併せて以下の詳細な説明を読めば容易に理解できるであろう。図面においては、同じ構造要素には同じ参照符号を付した。以下の説明では、本発明を完全に理解できるように、具体的な詳細を数多く記載する。しかし、これらの詳細な内容の一部または全てを用いなくとも本発明を実施し得ることは当業者にとって自明である。場合によっては、本発明を不必要にわかりにくくしないように、公知のプロセス操作については詳しく記載しない。
本明細書に記載する技術は、コンピュータプログラムとのインタラクションを行うために、アクティブにギアリング(gearing)がかけられた入力を与えるように使用することができる。ギアリングをかえることは、一般に広い意味では、大きさおよび/あるいは時間において程度を様々に異なるものとすることができる入力であるとして定義できる。ギアリングの程度がコンピューティングシステムに伝達される。ギアリングの程度がコンピューティングシステムにより実施されるプロセスにかけられる。例えるならば、プロセスは、入出力を備えた流体のバケツとイメージすることができる。この流体のバケツは、システム上で実行中のプロセスである。よって、ギアリングは、コンピューティングシステムによって実行される処理の形態を制御する。一例では、ギアリングは、バケツに入っていく流体の滴と考えられる入力量に対して、流体のバケツから出ていく速度を制御することができる。したがって、充てんならびに排水速度は動的であり、この排水速度はギアリングによる影響を受ける。よって、ゲームプログラムなどのプログラムに流れている変化値を調整するように、ギアリングを調整または時間設定することができる。
さらに、ギアリングは、移動データカウンタなどのカウンタに影響を及ぼし、プロセッサによるアクション、つまりは、ゲーム素子、オブジェクト、プレーヤ、キャラクタなどが行うアクションを制御する。この例をより具体的な計算例にしてみると、流体が出ていく速度は、コンピュータプログラムのフィーチャによって、いくらかの入力とギアリングに応じて制御がなされる速度、または制御が行われる速度である。このコンピュータプログラムのフィーチャは、オブジェクト、プロセス、変数、あるいは所定の/カスタムアルゴリズム、キャラクタ、ゲームプレーヤ、マウス(二次元もしくは三次元)などであってもよい。ギアリングによって変更され得た処理結果は、任意の数の方法でオブザーバに伝達することができる。
このような方法としては、ディスプレイ画面上で視覚的に伝達する方法、音声を介して可聴的に伝達する方法、手触りによる振動音響によって伝達する方法、これらの組合せによって伝達する方法、または、単にゲームやプログラムのインタラクティブエレメントに対する処理の反応を修正することで伝達する方法が挙げられる。入力は、(1)画像分析(2)慣性分析(3)音響分析あるいは、(1)(2)(3)のハイブリッドミックス分析を介して実行される追跡により取得することができる。画像分析ならびに適用されるギアリングに関しては様々な例が挙げられているが、追跡はビデオによる方法に限らず、様々な方法によって、具体的には、慣性分析、音響分析、これらをミックスしたものにより、および適切なアナライザによって行うことができることを理解されたい。
各種実施形態においては、ビデオカメラ(例えば、画像分析)を有するコンピュータあるいはゲームシステムは、画像データを処理し、焦点ゾーンあるいは所定の場所(ビデオカメラの前であってもよい)で行われている様々なアクションを識別する。一般的に、そのようなアクションとして、三次元空間でのオブジェクトの移動や回転、または、ボタン、ダイアル、ジョイスティックなどの様々なコントロールのアクチュエーションを挙げることができる。これらの技術に加えて、本発明の技術はさらに、本明細書ではギアリングと呼ばれるスケーリング因子を調整するさらなる機能を与え、ディスプレイ画面の1つ以上の対応するアクションやプログラムのフィーチャに対する入力に対して感度を調整するようにする。例えば、ディスプレイ画面のアクションは、ビデオゲームの焦点となり得るオブジェクトであってもよい。さらに、オブジェクトは、変数、乗数、または計算などのプログラムのフィーチャとすることもでき、音声、振動、ディスプレイ画面の画像、またはこれらとの組合せで表現され、さらに、ギアリングがかけられた出力の他の表現と組合せて表現される。
別の実施形態では、コンピュータプログラムのフィーチャにギアリングをかけることができ、入力デバイスの検出は慣性アナライザによる処理に基づくものであってもよい。慣性アナライザは、慣性アクティビティに対する入力デバイスを追跡し、その情報をプログラムに伝達する。
次に、プログラムは、慣性アナライザからの出力を扱い、出力にギアリング量をかけることができるようにする。ギアリング量は、プログラムがオペレーションを計算する際の程度または比率を決定する。オペレーションは任意の数の形態をとることができ、オペレーションの一例としては、ノイズ、可変ノイズ、オブジェクトの移動、または変数の生成、視覚および/あるいは可聴結果を出力するプログラムによる計算、を挙げることができる。出力が変数であれば、この変数を使用してプロセスを完了するようにしてもよい。これにより、プロセスはギアリング量を考慮するようになる。ギアリング量は、ユーザが事前に設定しても動的に設定してもよく、または要求に応じて調整することができる。
様々なタイプの慣性センサを使用して、6つの自由度(例えば、X、YおよびZ軸方向の変換(例えば、加速度)およびX、YおよびZ軸を中心とした回転)についての情報を提供することができる。6自由度についての情報を提供する適切な慣性センサーの例としては、加速度計、1つ以上の1軸加速度計、機械的ジャイロスコープ、リングレーザジャイロスコープ、あるいはこれらの2つ以上の組合せを挙げることができる。
センサーからの信号が分析されて、発明の方法に従うビデオゲームのプレイ中に、コントローラの動きおよび/あるいは方向が決定される。そのような方法は、プロセッサ読み取り可能媒体に記憶され、デジタルプロセッサ上で実行されるプログラムコード命令を実行可能な一連のプロセッサとして実装されてもよい。例えば、ビデオゲームシステムは1つ以上のプロセッサを備えることができる。各プロセッサは、例えばビデオゲームコンソールやカスタム設計のマルチプロセッサコアに通常使用されるマイクロプロセッサのような、デジタルプロセッサ装置であってもよい。一実施形態では、プロセッサは、プロセッサ読み取り可能命令の実行を通じて、慣性アナライザを実装してもよい。命令の一部はメモリに記憶されてもよい。
他の形態では、慣性アナライザは、例えば特定用途向け集積回路(ASIC)として、またはデジタルシグナルプロセッサ(DSP)としてハードウェアに実装されてもよい。そのようなアナライザハードウェアは、コントローラまたはコンソール上に設けられるか、または遠隔の場所に設けられてもよい。ハードウェアでの実装では、アナライザは、例えばプロセッサからの外部信号、または、例えばUSBケーブル、イーサネットにより、ネットワーク、インターネット、短距離無線接続、広帯域無線、ブルートゥース、またはローカルネットワークを介して接続される他の遠隔にあるソースからの外部信号に応じて、プログラム可能であってもよい。
慣性アナライザは、慣性センサにより生成される信号を分析する命令を備えるか実装し、コントローラの位置および/または方向に関する情報を利用してもよい。慣性センサ信号が分析されて、コントローラの位置および/または方向に関する情報を決定してもよい。この位置および/あるいは方向情報は、ビデオゲームのプレイ中にシステムとともに利用されてもよい。
一実施形態では、ゲームコントローラは、慣性信号を介して位置情報および/または方向情報をプロセッサに提供できる1つ以上の慣性センサを備えてもよい。方向情報には、コントローラの傾き、ロールあるいはヨーなどの角度情報が含まれてもよい。上述のように、また、一例として、慣性センサには、任意の数の加速度計、ジャイロスコープまたは傾斜センサ、またはこれらの任意の組合せが含まれていてもよい。一実施形態では、慣性センサには、傾斜およびロール軸に対するジョイスティックコントローラの方向を検知するように構成された傾斜センサと、ヨー軸沿いの加速度を検知するように構成された第1の加速度計、およびヨー軸に対する角加速度を検知するように構成された第2の加速度計を備える。加速度計は、例えば、1つ以上のばねで取り付けられた質量と1つ以上の方向に対する質量の変位を検知するセンサとを備えるMEMS装置として実装されてもよい。質量の変位に依存するセンサからの信号は、ジョイスティックコントローラの加速度決定に用いられてもよい。そのような技術は、メモリに記憶されプロセッサによって実行されるゲームプログラムや一般のプログラムからの命令によって実現される。
一例では、慣性センサーとして適切な加速度計は、例えばばねなどでフレームに3〜4点で伸縮自在に接続された単一の質量であってもよい。ピッチ軸とロール軸は、ジョイスティックコントローラに設けられたフレームと交差する面に存在する。フレーム(およびジョイスティックコントローラ)がピッチ軸、ロール軸の回りを回転するにつれて、質量が重力の影響下で変位し、ばねがピッチ角および/あるいはロール角に依存した態様で伸縮する。質量の変位が検知され、ピッチ量および/あるいはロール量に依存した信号に変換される。ヨー軸回りの角加速度またはヨー軸沿いの線形加速度は、ばねの伸縮または質量の動きの特徴的なパターンを生成し、それらのパターンは検知されて角加速度量または線形加速度の量に応じた信号に変換される。このような加速度装置は、質量の動きおよびばねの伸縮力を追跡することによって傾斜、ヨー軸回りのロール角加速度とおよびヨー軸沿いの線形加速度を計測できる。質量の位置および/あるいはそれに働く力を追跡する方法には多くの違った方法があり、それらには、抵抗ひずみゲージ材料、光センサ、磁気センサ、ホール効果素子、圧電素子、容量センサなどが含まれる。
さらに、光源は、例えば、パルスコード、振幅変調または周波数変調フォーマットでテレメトリ信号をプロセッサに提供してもよい。そのようなテレメトリ信号は、いずれのジョイスティックボタンが押されているか、および/またはどれ位強くボタンが押されているかを表してもよい。テレメトリ信号は、例えばパルス符号化、パルス幅変調、周波数変調または光強度(振幅)変調などによって、光信号に符号化されてもよい。プロセッサは、光信号からテレメトリ信号を復号化し、復号化されたテレメトリ信号に応じてゲームコマンドを実行してもよい。テレメトリ信号は、画像キャプチャ装置で得られたジョイスティックの画像の分析から復号化されてもよい。他の形態では、装置は、光源からのテレメトリ信号受信専用の、独立した光学センサを備えることができる。
プロセッサは、画像キャプチャ装置で検出された光源からの光信号、および/あるいは、マイクロホン配列によって検出された音響信号からの音源場所と音源特性情報とともに、慣性センサからの慣性信号を用いて、コントローラおよび/あるいはそのユーザの場所および/あるいは方向に関する情報を推測してもよい。例えば、「音響レーダ」の音源場所およびその特性は、マイクロフォン配列と共に用いられて、ジョイスティックコントローラの動きが(慣性センサおよび/または光源を通じて)独立に追跡されている間、移動音源を追跡する。音響レーダでは、較正済み聴取領域が実行時間において選択され、較正済み聴取領域以外の音源から生じる音声が除去される。較正済み聴取領域は、画像キャプチャ装置の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。
一実施形態では、音響アナライザによって追跡を行ってもよい。音響アナライザは入力デバイスからの音響信号を受信するように構成され、実行されるコマンドやインタラクションにかけられるギアリング量を伝達することができる。音響アナライザは、コンピュータプログラムセグメントの形態であってもよく、または、音響信号情報を処理するように設計された回路上に特別に形成されたものであってもよい。したがって、音響信号情報は、プログラムによって動的に設定されるか、要求に応じて、(コントローラ上のボタン、音声コマンドなどを選択することによって)入力デバイスを介してユーザにより設定されるギアリングデータを含むことができる。例えば、音声アナライザは、その開示内容が参照により本明細書に援用される、2006年5月4日に出願された米国特許出願"SELECTIVE SOUND SOURCE LISTENING IN CONJUNCTION WITH COMPUTER INTERACTIVE PROCESSING"(発明者:Xiadong Mao, Richard L. Marks and Gary, M. Zalewski、代理人整理番号:SCEA04005JUMBOUS)に記載されている。これらアナライザはマッピングチェーンを用いて構成することができる。マッピングチェーンは、アナライザやミキサに対する設定ができるように、ゲームプレイ中にゲームによって交換することができる。
一実施形態では、入力デバイスの追跡は画像アナライザによるものであってもよい。以下に説明しているように、画像アナライザは、ユーザならびに入力デバイスが位置する空間の画像をキャプチャするカメラを備え得る。この例では、画像アナライザは、処理プログラムのフィーチャにそれぞれのアクションを行わせるように、コントローラの位置を決定している。プログラムはゲームであり、フィーチャは入力デバイスによって制御されているオブジェクトであってもよい。さらに、画像アナライザは、位置データを入力ギアリング値とミックスするように構成される。ギアリング値は、ユーザにより、実行中に動的に与えられてもよく、または、実行セッションのアクティビティに応じてプログラムにより設定されてもよい。ギアリング入力は、ユーザによる入力ジェスチャやアクションに基づいて、コンピュータプログラムによる幾分かの処理に相対的インパクトを設定する。一実施形態では、ギアリングは、ユーザやユーザ入力デバイスからのコマンドやアクションをプログラムのフィーチャに変換する。プログラムのフィーチャは可視オブジェクトでなくてもよいが、音声、振動または画像の移動のいずれかのパラメータ、予測、あるいは変換を幾分か計算するように使用される変数の調整を含むことができる。 したがって、ギアリングは、プログラムとプログラムのフィーチャ間に与えられるインタラクティビティを制御するための更なる意味を付加することになる。
さらに別の実施形態では、ミキサアナライザが提供される。このミキサアナライザはゲームのフィーチャにハイブリッド効果をもたらすように設計される。例えば、ミキサアナライザは、画像アナライザ、音響アナライザ、慣性アナライザなどの組合せからの入力を扱う。したがって、一実施形態では、このミキサアナライザは、いくつかのギアリング変数を受信する。次に、これらの変数は混合ならびに合成されて、プログラムのフィーチャとのハイブリッドな結果、コマンド、あるいはインタラクションをもたらす。同様に、プログラムのフィーチャは視覚オブジェクトならびに非視覚オブジェクト、オペレーションの処理に使用する変数、可聴反応に対する調節などを含むものと広く理解されるべきである。
図1は、本発明の一実施形態によるインタラクティブ(対話型)ゲーム構成100を示す。インタラクティブゲーム構成100は、コンピュータ102(本明細書では「コンソール」とも呼ぶ)を有し、これは、ディスプレイ画面110と接続されうる。ディスプレイ画面110の上には画像キャプチャ装置105が置かれ、コンピュータ102と接続されうる。コンピュータ102は、一実施形態では、ユーザが、コントローラ108によってゲームをプレイしたり、ビデオゲームとインタフェースすることができるゲームシステムのコンソールであってもよい。コンピュータ102は、インタラクティブなオンラインゲームをすることができるように、インターネットにも接続されうる。画像キャプチャ装置105は、ディスプレイ画面110の上に置かれて示されているが、画像キャプチャ装置105が、ディスプレイ画面110のほぼ前方にある画像をキャプチャできれば、ほかの近くの位置に置かれていてもよいことが理解されよう。これらの移動およびインタラクションをキャプチャするための技術は変更し得るが、例示的な技術は、それぞれ2003年2月21日に出願された英国特許出願公開第0304024.3号明細書(国際公開第GB2004/000693号パンフレット)および英国特許出願公開第0304022.7明細書(国際公開第GB2004/000703号パンフレット)号に記載されており、これらの各々は参照によりここに援用される。
一実施形態では、画像キャプチャ装置105は、標準的なウェブカムのように単純なものであっても、あるいは高度な技術を備えたものであってもよい。画像キャプチャ装置105は、画像をキャプチャし、この画像をデジタル化して、画像データをコンピュータ102に送信することができる。一部の実施形態では、デジタル化を実行するための論理回路が、画像キャプチャ装置の内部に組み込まれていてもよく、別の実施形態では、画像キャプチャ装置105が、デジタル化のために、アナログビデオ信号をコンピュータ102に送信してもよい。いずれの場合も、画像キャプチャ装置105は、画像キャプチャ装置105の前方にある任意のオブジェクトの、カラー画像または白黒画像をキャプチャすることができる。
図2は、画像キャプチャおよび処理システムを使用した例示的なコンピュータインタラクション処理を示している。コンピュータ102は、視野202から画像を生成する画像キャプチャ装置105から画像データを受信する。視野202には、おもちゃの飛行機のオブジェクト215を操作するユーザ210が含まれる。オブジェクト215は、画像キャプチャ装置105から視覚的に認識可能な複数のLED212を含む。LED212は、オブジェクト215の位置情報および姿勢情報を提供する。さらに、オブジェクト215は、コンピュータの入力を生成するために、ボタン、トリガ、ダイアルなどの1つ以上の操作素子を含む。さらに、音声コマンドが使用されうる。一実施形態では、オブジェクト215は、画像キャプチャ装置105を介してデータをコンピュータ102に送信するために、LED212を変調する論理を含む回路220を含む。データは、操作手段の変調に応えて生成される符号化されたコマンドを含む。
オブジェクト215が画像キャプチャ装置105により、視覚的に認識可能な3次元空間で移動ならびに回転されると、画像データ中に表されるLEDの位置は、以下の図3〜6に関して説明しているように、3次元空間内の座標に変換される。この座標は、α、β、およびγ値に関する姿勢情報に加えて、x、y、およびz座標に関する位置情報を説明したものである。この座標はコンピュータのアプリケーションに送信される。このアプリケーションは、おもちゃの飛行機がディスプレイ110に、現実の、あるいは動画の飛行機215’として表示される飛行機ゲームであってもよく、飛行機215’はおもちゃの飛行機215の変調に応えて様々なスタントを行うことができる。他の形態では、ユーザ210は、おもちゃの飛行機215ではなくコントローラ108(図1に示す)を扱うこともでき、コントローラ108の移動は追跡可能であり、ディスプレイ画面でオブジェクトを移動させるようにコマンドがキャプチャされる。
一実施形態では、ユーザ210はさらに、動画の飛行機215’とのインタラクティビティの程度を変更あるいは修正するように選択することができる。インタラクティビティの程度は、ユーザ215が「ギアリング」構成要素を調整できるようにすることで変更することができる。このギアリング構成要素は、ユーザのコントローラ108(あるいは、おもちゃの飛行機215)による移動が動画の飛行機215’による移動に対応づけられる量を調整するものである。ゲームに対して動的に設定もしくは事前に設定され、あるいは、ユーザ210によるゲームのプレイ中に調整されるギアリングに応じて、動画の飛行機215’(例えば、ビデオゲームオブジェクト)に対応づけられる反応が変化し、別のレベルのユーザインタラクティビティと強化した体験とを与えることができる。ギアリングに関する詳細は、以下に図7〜20に関連して説明する。
図3は、本発明の実施形態を実装するために使用できる、グラフィックディスプレイ上のオブジェクトとのインタラクト処理を行うための例示的なユーザ入力システムのブロック図である。図3に示すように、ユーザ入力システムは、ビデオキャプチャ装置300、入力画像プロセッサ302、出力画像プロセッサ304、およびビデオ表示装置306から構成される。ビデオキャプチャ装置300は、ビデオ画像のシーケンスをキャプチャすることができる装置であればどのようなものでもよく、一実施形態では、デジタルビデオカメラ(ウェブカメラなど)や同様の画像キャプチャ装置などである。
ビデオキャプチャ装置300は、深度画像を提供するように構成されうる。本明細書では、「深度カメラ」および「三次元カメラ」との文言は、二次元のピクセル情報のほか、距離情報すなわち深度情報を取得することができる任意のカメラを指す。例えば、深度カメラは、制御された赤外線照明を利用して、距離情報を取得することができる。他の例示的な深度カメラに、立体カメラ対があり、これは2台の基準カメラを使用して距離情報を三角測量によって求める。同様に、「深度検知装置」との文言は、二次元のピクセル情報のほかに、距離情報を取得することができる任意のタイプの装置を指す。
このため、カメラ300は、通常の二次元のビデオ像に加えて、3番目の次元をキャプチャおよびマップする能力を提供することができる。通常のカメラと同様に、深度カメラは、ビデオ画像を構成している複数のピクセルの二次元のデータをキャプチャする。これらの値は、ピクセルの色の値であり、通常は、各ピクセルの赤、緑、青(RGB)の値である。このようにして、カメラによってキャプチャされたオブジェクトが、モニタに二次元オブジェクトとして表示される。しかし、従来のカメラとは異なり、深度カメラは、シーンの深度値を表すシーンのz成分もキャプチャする。通常、深度値はz軸に割り当てられるため、深度値は、「z値」と呼ばれることも多い。
オペレーションにおいては、シーンの各ピクセルについてz値がキャプチャされる。各z値は、カメラから、シーン内の関連するピクセルに対応するオブジェクトまでの距離を表している。また、最大検出範囲が、深度値が検出されなくなる境界を定義しうる。本発明の各種実施形態では、この最大範囲の面を使用して、ユーザ定義のオブジェクトのトラッキングを提供することができる。このため、深度カメラを使用することで、それぞれのオブジェクトを三次元でトラッキングすることができる。この結果、本発明の実施形態のコンピュータシステムは、二次元のピクセルデータと合わせてz値を利用して、強化された三次元のインタラクティブ環境をユーザのために作成することができる。深度分析の詳細については、2003年5月29日出願の米国特許出願第10/448,614号明細書「リアルタイムの三次元インタラクティブ環境を提供するためのシステムおよび方法(System and Method for Providing a Real-time three dimensional interactive environment)」を参照されたい。同文献を参照によりここに援用する。
深度カメラは、一実施形態に従って使用され得るが、三次元空間におけるオブジェクトの位置ならびに座標の場所を識別するために必要とされるものと解釈されてはならない。例えば、図2に描いたシナリオでは、オブジェクト215とカメラ105間の距離は、最左LED212と最右LED212の距離を測定することにより、推測することができる。画像キャプチャ装置105によって生成される画像において、LED212それぞれの距離が近いほど、オブジェクト215はカメラ105から離れている。したがって、一般のデジタルカメラによって生成される二次元画像から、z軸座標をかなり正確に推測することができる。
図3に戻ると、入力画像プロセッサ302は、キャプチャされた制御オブジェクトのビデオ画像(深度画像など)を信号に変換し、この信号が出力画像プロセッサに送られる。一実施形態では、入力画像プロセッサ302は、キャプチャされたビデオ画像の背景から、深度情報によって制御オブジェクトを分離し、制御オブジェクトの位置および/または移動に応じた出力信号を発生させるようにプログラムされる。出力画像プロセッサ304は、入力画像プロセッサ302から受け取った信号に応じて、ビデオ表示装置306に表示したオブジェクトの並進移動および/または回転移動を変更するようにプログラムされうる。本発明のこれらの態様やその他の態様は、ソフトウェア命令を実行する1つ以上のプロセッサによって実装され得る。本発明の一実施形態によれば、1つのプロセッサが入力画像処理と出力画像処理の両方を実行する。しかし、図に示すように、説明を容易にするために、オペレーション処理が、入力画像プロセッサ302と出力画像プロセッサ304に分けられるものとして説明する。本発明が、特定のプロセッサの構成(複数プロセッサなど)に限定されると解釈すべきではないことを留意すべきである。図3の複数の処理ブロックは、説明の便宜上、示したに過ぎない。
図4は、本明細書に記載した本発明の各種実施形態を実装するように構成されたコンピュータ処理システムの簡略ブロック図である。この処理システムは、メインメモリ420とグラフィック処理ユニット(GPU)426に結合された中央処理装置(CPU)424を備えた、コンピュータベースのエンターテイメントシステムの実施形態であってもよい。CPU424は、入出力プロセッサ(Input/Output Processor:IOP)バス428にも結合される。一実施形態では、GPU426は、ピクセルベースのグラフィックデータを高速に処理するために内部バッファを備える。更に、GPU426は、エンターテイメントシステムまたはその構成要素の外部に接続された表示装置427に送信するために、画像データを処理して、例えばNTSCやPALなどの標準のテレビジョン信号に変換する出力処理部またはその機能を備えうる。別の実施形態では、データ出力信号が、コンピュータモニタ、LCD(液晶ディスプレイ)装置やその他のタイプの表示装置などのテレビジョンモニタ以外の表示装置に供給されてもよい。
IOPバス428は、CPU424を、各種の入出力装置、または他のバスやデバイスに接続している。IOPバス428は、入出力プロセッサメモリ430、コントローラ432、メモリカード434、ユニバーサルシリアルバス(USB)ポート436、IEEE1394(Firewireインタフェースとも呼ばれる)ポート438、およびバス450に接続される。バス450は、システムの他のいくつかの構成要素をCPU424に接続しており、このような構成要素には、オペレーティングシステム(OS)ROM440、フラッシュメモリ442、音声処理ユニット(SPU)444、光ディスク制御4、ハードディスクドライブ(HDD)448がある。この実施形態の一態様では、ビデオキャプチャ装置は、IOPバス428に直結されていてもよく、これを介してCPU424に送信を行っており、CPU424では、ビデオキャプチャ装置からのデータを使用して、GPU426でグラフィック画像の生成に使用される値が変更または更新される。
更に、本発明の各種実施形態は、画像処理のさまざまな構成および技術を使用することができ、これには、2003年2月11日出願の米国特許出願第10/365,120号明細書「リアルタイムのモーションキャプチャのための方法および装置(METHOD AND APPARATUS FOR REAL TIME MOTION CAPTURE)」に記載されたものなどがある。同文献を参照によりその全体をここに援用する。コンピュータ処理システムは、CELL(登録商標)プロセッサで実行されうる。図5は、本発明の一実施形態に係る代替入力デバイスとして機能する操作用オブジェクトとの併用に適合されたビデオゲームコンソールの各種構成要素の構成を示すブロック図である。例示的なゲームコンソール510は、コンソール510全体を制御するためのマルチプロセッサユニット(MPU)512、プログラムの各種オペレーションおよびデータ保存に使用されうるメインメモリ514、幾何学処理に必要な浮動小数点のベクトル演算を実行するベクトル演算ユニット516、MPU512からの制御に基づいてデータを生成すると共に、ビデオ信号をモニタ110(CRTなど)に出力する画像プロセッサ520、MPU512またはベクトル演算ユニット516と画像プロセッサ520との間の伝送バス上で調停等を実行するグラフィックインタフェース(GIF)522、周辺機器との間でデータを送受信できるようにする入出力ポート524、カーネル等の制御を実行するための、フラッシュメモリ等で構成された内部OSD機能ROM(OSDROM)526、ならびにカレンダ機能およびタイマ機能を備えたリアルタイムクロック528を備える。
メインメモリ514、ベクトル演算ユニット516、GIF522、OSDROM526、リアルタイムクロック(RTC)528および入出力ポート524は、データバス530を介してMPU512に接続されている。バス530には、圧縮済みの動画およびテクスチャ画像を伸張して、これにより画像データを展開するプロセッサである画像処理ユニット538も接続されている。例えば、画像処理ユニット538は、MPEG2またはMPEG4の標準フォーマットに従って、ビットストリームをデコードおよび展開したり、マイクロブロックをデコードしたり、逆離散コサイン変換、色空間変換、ベクトル量子化などを実行する機能を担う。
音声システムは、MPU512からの命令に基づいて音楽やその他の音響効果を生成する音声処理ユニット(SPU)571、SPU571が波形データを記録するための音声バッファ573、およびSPU571が生成した音楽やその他の音響効果を出力するスピーカ575で構成されうる。なお、スピーカ575はモニタ110の一部として組み込まれていても、あるいは、外部スピーカ575を取り付けるための別個のオーディオライン出力端子として提供されてもよい。
バス530に接続されており、本発明に従ってデジタルデータの入出力を行うと共にデジタルコンテンツを入力する機能を備えたインタフェースである通信インタフェース540も提供される。例えば、オンラインビデオゲームアプリケーションを実現するために、この通信インタフェース540を介して、ネットワーク上のサーバ端末との間でユーザ入力データを送信したり、状態データを受信することができる。コンソール510に対してデータ(キー入力データまたは座標データなど)を入力する入力デバイス532(コントローラとも呼ばれる)と、各種プログラムおよびデータ(すなわちオブジェクトに関するデータ、テクスチャデータなど)を有するCD―ROMなどの光学ディスク569の内容を再生するディスク装置536とが入出力ポート524に接続されている。
更に、本発明は、デジタルビデオカメラ105を備え、これは入出力ポート524に接続される。入出力ポート524は、シリアルインタフェースやUSBインタフェースなどの1つ以上の入力インタフェースによって実装され得、デジタルビデオカメラ190は、USB入力や、カメラ105との併用に適したその他の任意の従来のインタフェースを有利に利用し得る。
上記の画像プロセッサ520は、レンダリングエンジン570、インタフェース572、画像メモリ574、およびディスプレイ制御装置576(プログラム可能なCRTコントローラなど)を備える。レンダリングエンジン570は、メモリインタフェース572を介して、かつMPU512から送られるレンダリングコマンドによって、所定の画像データを画像メモリにレンダリングする処理を実行する。レンダリングエンジン570は、NTSC方式またはPAL方式に準拠し、より詳細には、例えば、1/60秒〜1/30秒の間隔で10〜数十回を越えるレートで、320×240ピクセルまたは640×480ピクセルの画像データをリアルタイムに描画できる機能を備える。
メモリインタフェース572とレンダリングエンジン570との間にバス578が接続され、メモリインタフェース572と画像メモリ574との間に第2バス580が接続され得る。第1バス578と第2バス580のビット幅は、例えばそれぞれ128ビットであり、レンダリングエンジン570は、画像メモリに対して高速レンダリング処理を実行することができる。画像メモリ574は、一元化された記憶構造を採用しており、この構造では、例えば、テクスチャレンダリング領域と表示レンダリング領域とを同じ領域に設定することができる。
ディスプレイコントローラ576は、光ディスク装置536によって光ディスク569から取得したテクスチャデータ、またはメインメモリ514に作成されたテクスチャデータを、メモリインタフェース572を介して画像メモリ574のテクスチャレンダリング領域に書き込むように構成される。画像メモリ174の表示レンダリング領域にレンダリングされた画像データは、メモリインタフェース572を介して読み出されて、モニタ110に出力され、その画面に表示されうる。
図6は、本発明の一実施形態による、ユーザによるユーザ入力デバイスの操作中に、ユーザ入力デバイスに対応するピクセル群をトラッキングして判別するための機能ブロックを示すブロック図である。ブロックが表している諸機能は、図5のゲームコンソール510のMPU512によって実行されるソフトウェアによって実装される点を理解されたい。更に、図6のブロックが表している機能の全てが、各実施形態で使用されるとは限らない。最初に、カメラから入力されたピクセルデータが、入出力ポートインタフェース524を介してゲームコンソール510に送られ、これにより、以下に記載するプロセスがゲームコンソール510で実行される。まず、画像の各ピクセルが、例えばラスタベースでサンプリングされると、色分離処理ステップS201が実行される。これにより、各ピクセルの色が決定されて、画像が、色の異なるさまざまな二次元部分に分割される。次に、実施形態によっては、色遷移定位ステップS203が実行される。これにより、色の異なる部分が隣接している領域がより詳細に決定されて、はっきりした色の遷移が発生する画像の位置が特定される。次に、幾何学処理S205のステップが実行される。このステップでは、実施形態に応じて、エッジ検出プロセスまたは面積の統計値(area statistics:AS)の計算の実行が行われて、対象のオブジェクトのエッジに相当する線、曲線および/または多角形が代数的または幾何学的に定義される。
ステップS207で、アルゴリズムを用いてオブジェクトの三次元の位置および姿勢が計算される。このアルゴリズムについては、本発明の好ましい実施形態に関して後述する。質の向上のため、三次元の位置および姿勢のデータに対して、カルマンフィルタリング処理ステップS209が実行される。この処理を実行するのは、所定の時点においてオブジェクトが存在する位置を概算することで、発生することがあり得ないであろうことから正しいデータ群から外れていると考えられる、誤った測定値を除去するためである。カルマンフィルタリングを実行するもう1つの理由は、カメラ105は画像を30Hzで生成するが、一般的なディスプレイは60Hzで動作するため、カルマンフィルタリングによって、ゲームプログラムの動作の制御に使用するデータの不足分を埋めるためである。カルマンフィルタリングによる離散データのスムージングは、コンピュータビジョンの分野では公知であり、ここで詳述しない。図7は、オブジェクト705の移動を画像キャプチャ装置105によってとらえられる空間体積702に対応づける例示的画像処理システム700の概略的ブロック図を示す。この例では、オブジェクト705が三次元空間702で、xの距離を移動すると、画像処理システム700は、オブジェクト705のキャプチャしたビデオ画像を解釈し、オブジェクト705の移動を識別し、その後、対応するアクションをディスプレイ画面110に生成する。
具体的には、画像キャプチャ装置105は、当技術分野では周知のように、レンズを通過した後にセンサに入射する、画像を形成した光を表す画像データを生成するデジタル画像センサを含む。さらに、画像キャプチャ装置105は、光によって形成される画像を表すアナログ信号を生成するアナログビデオカメラを備えるようにしてもよい。後者の場合、アナログ信号は、画像をデジタル表現に変換し、その後、認識装置710による処理が行われる。三次元空間702の連続する二次元画像を表す画像データは、認識装置710に送られる。一実施形態では、認識装置710は、図6に関連して上述したように、オブジェクト705の識別のために様々な処理ステップを実行する。オブジェクト705の位置は、マッパ712に送られる。例えば、三次元空間702でのオブジェクト705の絶対座標が計算され、マッパ712に送信される。x軸方向の座標及びy軸方向の座標は、各画像に表示されたオブジェクトの位置から決定することができる。オブジェクトのz軸方向の座標は、オブジェクトの寸法から推測できる。つまり、オブジェクト705が画像キャプチャ装置105に近いほど、オブジェクトが画像に大きく表示される。したがって、オブジェクトが画像に表示されると、オブジェクトの直径などの寸法は、画像キャプチャ装置105からの距離、即ちz軸座標、を求めるように使用される。
位置情報に加えて、認識装置710は、オブジェクト705から受信したコマンドを識別する。コマンドは、オブジェクト705の伝送/変形、音声ならびに発光などから解釈される。オブジェクト705から受信したコマンドは、認識装置によって解釈され、受信したコマンドに対応するデータは、アプリケーション714に伝達される。アプリケーション714はゲームアプリケーションあるいはリクエストされたその他のコンピュータアプリケーションであってもよい。あるいは、そうでなければ、画像キャプチャ装置105からユーザの入力を受け入れることができるものである。一実施形態では、マッパ712は、認識装置710から絶対座標を入力し、これらの座標をギアリング量によってスケーリングされている出力座標に対応づける。
別の実施形態では、マッパ712は連続する座標情報を認識装置710から受信し、座標情報の変更をオブジェクト705のベクトル移動に変換する。例えば、オブジェクト705が、時間t1から時間tの間にxの距離を移動した場合、ベクトルx,0,0が生成され、アプリケーション714に送信される。時間tからtは、画像キャプチャ装置105により生成されるビデオの連続フレーム間の時間間隔であってもよい。マッパ712は、スケーリングアルゴリズムに従い、例えば、ベクトルにギアリング量を乗算することでベクトルをスケーリングしてもよい。別の実施形態では、各座標には、G、GならびにGなどの対応するギアリング因子(gearing factor)を乗算する。したがって、ディスプレイ110に表示されるように、仮想オブジェクト705’の対応する移動は距離xであり、xではない。
アプリケーション714は、認識装置710から受信したコマンド713に従ってギアリング量を変更するか、マッパ712にギアリングデータを送信し、ギアリング量を変更させるソフトウェアの通常のオペレーションに従ってギアリング量を変更する。ギアリングデータは、ユーザコマンド、各種イベント、またはアプリケーション714のオペレーションモードに応じてマッパ712に送信される。したがって、ギアリング量は、ユーザコマンドに応じてリアルタイムで変更されるか、ソフトウェアによって制御されてもよい。これにより、マッパ712は、オブジェクト705の動きの出力ベクトルをアプリケーション714に送信する。この出力は、空間702中のオブジェクト705の位置の変化ならびにギアリング量に対して変更される。一実施形態では、アプリケーション714はビデオゲームであり、出力ベクトルを対応するアクションに変換し、変換されたアクションがディスプレイ110に表示される。
図8は図7の画像処理システム700の例示的アプリケーションを示す。コンピュータシステム102は、シーン810をとらえる画像キャプチャ装置105を備える。シーン810は、認識装置(図7)によって認識されるオブジェクト804を把持したユーザ802を含む。このアプリケーションプログラムは、この例ではチェッカーゲームであり、オブジェクト804からのコマンドを認識し、チェッカーボード801にチェッカー808を拾い上げるか落す。ユーザがオブジェクト805を画像キャプチャ装置105の前に移動させると、コンピュータ102はオブジェクト804の移動を識別するように画像を処理し、その移動をディスプレイ110の仮想オブジェクト805’の移動に変換する。仮想オブジェクト805’が現実のオブジェクト805に対して移動する距離は、ギアリング量806によって決まる。この例では、ギアリング量はディスプレイ110「3」と表示される。一実施形態では、ギアリング量ユーザにより選択可能である。ギアリング量が大きければ、チェッカー805’がディスプレイ110で特定の距離を移動する、現実のオブジェクト805の移動は小さくてもよい。
図9、10は、画像キャプチャ装置105(図1)とのインタラクションを行う例示的コントローラ900を示す。コントローラ900は、各種のボタンおよびジョイスティックを含む複数のインターフェース装置を有するインターフェース902を備える。ここに記載するコントローラは、有線であっても無線であってもよい。WiFi、ブルートゥース(登録商標)、赤外線、音声、光などの技術が、ゲームコンソールなどのコンピュータとインタフェースするために使用され得る。一実施形態では、コントローラ900は、LEDアレイ905を有する。LEDアレイは、さまざまなレイアウトで構成することができ、このようなレイアウトには、例えば、各LEDが、想像上の矩形または正方形の結合ボックスの頂点に配置されている2×2のスタックがある。画像キャプチャ装置が作成する画像平面に投射されたときの、結合ボックスの位置および変形を追跡することによって、変化および変形がビデオアナライザで分析され、コントローラの位置および姿勢の情報が解読され得る。
LEDアレイ905は、赤外光または可視光を発し得る。画像キャプチャ装置105(図1)は、本発明のさまざまな実施形態に関して説明したように、LEDアレイ905を識別することができる。例えば、各コントローラに対して、スイッチ910を使用して、例えば、プレーヤ1〜プレーヤ4と割り振られ、これによって、ユーザが、プレーヤ番号1〜4から選択できるようになる。プレーヤ番号のそれぞれの選択は、LEDアレイ905が発光している一意的なLEDのパターンまたは変調に対応している。例えば、プレーヤ1の場合は、1番目、3番目および5番目のLEDが点灯する。このようなプレーヤ情報は符号化されて、複数のビデオフレーム間で、所定の期間にわたり、繰り返し伝送され得る。コントローラまたは装置のLEDが、トラッキングモードと伝送モードを切り替えるように、インタリーブ方式が使用されることが望ましいことがある。トラッキングモードでは、サイクルの第1の部分の間、全てのLEDが点灯しうる。
伝送モードでは、サイクルの第2の部分の間、LEDによって情報の変調が行われうる。所定の期間、LEDは、信号を受け取ることができるビデオアナライザまたは適切な装置に、トラッキング情報と通信情報を伝送する。伝送モードでは、LEDは、プレーヤのIDを表す情報を符号化しうる。期間と動作周期は、トラッキングの速度、点灯条件、コントローラの台数などに対応するように選択され得る。通信とトラッキング情報をインタリーブすることによって、ビデオキャプチャ装置は、適切な情報が与えられて、各コントローラのトラッキングパラメータを計算し、コントローラ同士を区別することができる。このような区別は、位置および姿勢や、コントローラの移動の他の評価基準をモニタおよびトラッキングする際に、各物理コントローラを分離するために、ビデオアナライザで使用され得る。伝送モードでは、コマンドまたは状態情報などの他の情報が、コントローラまたは装置のLEDによって、公知の符号化および変調の方式に従って伝送され得る。受信側では、ビデオキャプチャ装置に結合されたビデオアナライザが、LEDの状態と同期して、これをトラッキングし、情報とコントローラの移動を復号化し得る。伝送モードサイクルでは、フレーム間でデータを変調させることによって、高帯域が得られることが知られている。
ユーザがインタフェース902とのインタラクションを行うと、LEDアレイ905の1つ以上のLEDが変調および/または変色し得る。例えば、ユーザがジョイスティックを動かすと、LEDが明るさを変えるか、または情報を伝送しうる。強度または色の変化が、コンピュータシステムによってモニタされて、強度値としてゲームプログラムに提供される。更に、各ボタンが、LEDアレイ905の1つ以上のLEDの色または強度の変化にマッピングされうる。コントローラ900が三次元空間内で移動され、ロール、ヨーまたはピッチの方向のいずれかに回転されると、画像キャプチャ装置105は、コンピュータシステム102と共に、この変化を識別して、画像平面での移動を記述するために二次元ベクトルを、あるいは、三次元の空間での移動を記述するために三次元のベクトルを生成することができる。ベクトルは、画像キャプチャ装置105に対する相対移動および/または絶対位置を記述している一連の座標として提供されうる。当業者にとって明らかなように、画像キャプチャ装置105の見通線に垂直な面(画像平面)での移動は、画像キャプチャゾーン内の絶対位置によって特定することができる。これに対して、画像キャプチャ装置105にコントローラが近づくという移動は、LEDアレイによって、拡大するように見えることによって識別できる。
これらLED905が矩形に構成されていることから、3つの軸上でのコントローラ900の移動と、各軸を中心とした回転とが検出可能になる。図示しているのは4つのLEDだけであるが、これは例示のみを目的としており、いずれの構成においてもLEDは任意の個数とすることが可能である。コントローラ900が前後にピッチ運動すると、上下のLEDの距離が近づくが、左右のLED間の距離は変わらない。同様に、コントローラが左右にヨー運動すると、左右のLEDが接近して見えるが、上下のLED間の距離は変わらない。
コントローラのロール運動は、画像平面におけるLEDの向きを特定することによって検出することができる。コントローラが、画像キャプチャ装置105の見通線に沿って画像キャプチャ装置105に近づくと、全てのLEDが接近して見える。最後に、画像平面に沿ったコントローラの移動は、画像平面上のLEDの位置を特定することによってトラッキングすることができ、これにより、x軸およびy軸のそれぞれに沿った移動が特定できる。
さらに、コントローラ900は、可聴音または超音波を発生させるスピーカ915を含む。スピーカ915は、インタラクティビティを強化する音響効果を生成するか、インターフェース902からのコマンドを、マイクロフォンあるいは伝達を受け入れる他の素子を有するコンピュータシステムに伝達する。
図11は、図9、10のコントローラ900の例示的アプリケーションを示す。このアプリケーションでは、ドライビングシミュレーションはコントローラ900の回転を仮想自動車のハンドルの回転と解釈する。ユーザ(図示せず)が矢印1105に示すようにコントローラ900を回転させると、仮想ハンドル900’はディスプレイ110で矢印1105’に示すように回転する。一実施形態では、コントローラ900の回転のそれぞれの程度に対してハンドル900’の回転量を決定するギアリング量は、図8に関連して上述したように、ユーザが選択できる。別の実施形態では、ギアリング量は、図12の例示的グラフ1200に示すように、ソフトウェアにより制御される。この例では、ギアリング量はコントローラ900の中心部、つまり、垂直方向からの距離に対して変更される。これにより、コントローラ900を90度回転させるだけで、仮想ハンドル900’を最大540度回転させることができる。0度(中心部)に近い位置でギアリング量を低くしておくことで、通常は著しいハンドル回転を必要としない高速ドライビングに対して、高い制御性を保つことができる。コントローラ900が中心部から離れて回転されると、グラフ1200に示しているようにギアリング量は増加し、通常、低速時に求められる急カーブに対応できるようになる。
図13は、ユーザにより操作されるハンドル1305を有する別の例示的コントローラ1300を示す。この場合、ハンドル1305の回転ならびにインターフェース1302のボタン操作は、LED1310を介してデータの伝達を行うコントローラ1300により解釈される。
図14は、コントローラ1300の例示的なアプリケーションを示す。この例では、アプリケーションはドライビングシミュレーションであり、ハンドル1305の回転に応じて発行されるコマンドを受信し、このコマンドをディスプレイ110の仮想ハンドル1305に対応する回転として解釈する。ハンドル1305の回転を仮想ハンドル1305’の対応の回転にスケーリングするギアリング量は、インターフェース1302(図13)とのユーザインタラクションに応じて、あるいはソフトウェアによる制御に応じて変更することができる。
図15は、所定の期間におけるギアリング量の例示的な変化を描いた例示的グラフ1500を示す。一例では、ギアリングにおける変化は、ユーザにより、ゲームのプレイ中に動的に設定される。さらに、グラフ1500に示しているように、ギアリングは、長時間ステップ、短時間ステップ、あるいはこの組合せいおいて、滑らかに、または急激に遷移する。したがって、ギアリングは、ゲームセッション中の所定の期間、ゲームによって設定あるいは変更され、これにより、よりリアルなインタラクティブ体験を提供することができる。さらに、ユーザにギアリングを制御をさせることで、従来のゲームに見られる所定の制御を超えた、別次元の制御が可能となる。
図16は、ユーザインタラクションに応える画像処理システムの別の例示的アプリケーションを示す。この例では、ユーザ1602は、画像処理システムが入力オブジェクトと認識し得るおもちゃの野球バット1605をスイングすることにより、野球のシミュレーションとインタラクトする。このおもちゃの野球バットがスイングされると、ユーザおよび/またはソフトウェアはギアリング量を制御し、仮想野球バット1605’の速度や距離を操作する。一実施形態では、バットは、ゲームのプレイ中に押すことのできる多数のボタンを備えており、このボタンを押すことでギアリングを変更することができる。別の実施形態では、ユーザは、ギアリングレベルと組み合わせて事前に設定できるか、プログラムでき、バットのスイング時に適用されるようにする。
図17はそれぞれ別の時間t〜tにおいて、スイングの長さに沿った例示的なギアリング量を描いたグラフ1700を示す。このギアリング量は、バットをスイングする前にユーザにより設定されたものであるか、カメラ105がとらえたバットの位置に応じて、ゲームによって動的に設定されたものである。同様に、図17には、ギアリングが所定の期間においてどのように変化し、特定の時間間隔において一定に保たれ、または漸進的に増加される様子が示されている。グラフ1700においては、ギアリングは時間t〜t間にて高く設定されている。よって、バットのスイングは、ボールと接触したときによりパワフルなものになる。さらに、バットがボールと接触した後の時間t〜tにおいては、ギアリングは緩和される。一実施形態では、それぞれの時間は、ユーザによって予測されるか、コンピュータによって決定される。
一例では、ユーザは何度かスイングをし、コンピュータがユーザの実際のスイング能力に対応するいくつものタイムスロット例を定める。次に、ユーザは、どの程度ゲームインタラクティビティに影響を及ぼしたいかに応じて、それぞれの時間間隔に対して特定のギアリングを独自に割当てることができる。ギアリングが設定されると、ユーザによるバット1605の移動がバット1605’(例えば、ゲームオブジェクト)の移動に対応付けられる。同様に、ギアリングは、別のアクション中にゲームによって事前に設定され、ユーザによってゲーム中に設定され、さらに、ゲームのプレイ中にリアルタイムで調整される。
図18は、ユーザインタラクションに反応する画像処理システムの別の例示的なアプリケーションを示す。この例では、ユーザ(図示せず)は、おもちゃのフットボール用ボールを使って投球動作をし、作動装置(アクチュエータ)を押してボールを放すようにすることで、フットボールのシミュレーションとインタラクトする。当然、おもちゃのフットボール用ボールではなくて、コントローラを使用してもよい。仮想プレーヤー1802は、ユーザインタラクションに反応して仮想のフットボール用ボールを操作する。一実施形態では、作動装置は、フットボールシミュレーションアプリケーションに送信されるコマンドとして、LEDに、画像処理システムによって認識される色を明るくするか変化させるようにする。ユーザは、ボールを放した後に、選択した受信側の動作などの、フィールド上でのある特定のアクションを制御することができる。一実施形態では、ボールを放すことで、アプリケーションがマッパ(図7)にギアリングデータを送り、ギアリング量を変更して、例えば、入力オブジェクトのより細かな移動や動作を区別することができる。
図19は、ボールの“放した”後のギアリング量の変化を示した例示的グラフ1900を示す。グラフ1900は単純なグラフとして図示されているが、ギアリングはゲームのオブジェクトに応じてどのようなプロファイルにもなり得ることを理解されたい。
図20は、コンピュータプログラムに対するユーザ入力を受信する例示的な手順を示すフローチャート200を示す。この手順は開始ブロック2002に示すように開始し、操作2004に進み、コントロール入力の位置が特定される。コントロール入力は、図7に関して上述したような三次元空間における入力オブジェクトの位置か、図14に関して上述したようなユーザインターフェース装置の位置であってもよい。この位置は、1つの代表値、あるいはベクトルなどの複数の値として表される。この手順は、コントロール入力の位置を特定後に、操作2006に進む。
操作2006では、位置が変更したかどうかが判断される。位置に変更がなければ、手順は操作2004に戻る。一実施形態では、操作2004は、画像キャプチャ装置から新たな画像データのフレームを受信するまで遅延される。操作2006において、位置変更があったと判断されれば、手順は操作2008に進む。
操作2008では、移動ベクトルが計算される。この移動ベクトルは、いずれの次元数であってもよい。例えば、移動が三次元空間における入力オブジェクトであれば、移動ベクトルは三次元ベクトルとしての動作を説明する。しかし、移動がハンドルなどの、一次元のコントロール入力であれば、移動ベクトルは、ハンドルの回転量を説明する一次元ベクトルである。移動ベクトルを決定後に、手順は操作2010に進む。
操作2010では、移動ベクトルは現在のギアリング量に掛けられ、入力ベクトルが決定される。現在のギアリング量は、スカラ量または多次元値である。ギアリング量がスカラ量であれば、移動ベクトルの全次元が同じ量だけ掛けられる。ギアリング量が多次元値であれば、移動ベクトルの各次元は、対応する、ギアリング量の次元に掛けられる。ギアリング量はユーザ入力に応じて変化し、さらに、ギアリング量はソフトウェアの制御下にある。従って、現在のギアリング量はその都度変化する。移動ベクトルに現在のギアリング量を掛け合わせた後に、手順は操作2012に進む。
操作2012では、操作2010で求めた入力ベクトルを使って、仮想オブジェクトの新たな位置が計算される。この新たな位置は、カメラ位置や、仮想ハンドルなどのオブジェクトの位置であってもよい。仮想オブジェクトはディスプレイ画面には表示されない。仮想オブジェクトの新たな位置が計算されると、手順は操作2014に進み、新たな位置を表すデータがアプリケーションプログラムに送られる。手順は、終了ブロック2016に示すように終了する。しかし、このフローは事実上は例示的なものに過ぎず、他の形態が可能であることに留意されたい。
一実施形態では、操作において、入力デバイスならびに入力デバイスの移動が検出される。入力デバイスの移動は、入力デバイスをとらえているカメラによって決定される。ユーザによる制御や事前の設定あるいは事前にプログラムされた設定により、ギアリング値がかけられる。ギアリング値がユーザにより設定されたものであれば、ギアリング値は、例えば、ユーザに入力デバイス(例えば、コントローラ)のボタンを押させるようにすることで選択される。ギアリング量に応じて、移動制御がコンピュータゲームのオブジェクトに対応づけられる。ユーザがゲームのアクションフィギュアを制御するように入力デバイスを使用している場合、設定されたギアリングもしくは設定されるように制御されたギアリングは、入力デバイスの移動がコンピュータゲームのアクションフィギュアの移動にどのように対応づけられるかに対して影響を及ぼす。したがって、ギアリングとギアリングの変更により、コンピュータゲームの一部であり得るオブジェクトによって対応づけられた反応を動的に適用することが可能になる。
各種の実施形態では、強度値、コントローラのプレーヤー番号、コントローラを含む1つ以上の入力オブジェクトの姿勢および/または位置を決定するための上記の画像処理機能は、コンピュータシステムで実行中のプロセスで実行されてもよい。コンピューティングシステムは、本明細書では、アプリケーションプログラムと呼ばれ、ゲームアプリケーションであり得るメインプロセスを実行していてもよく、画像または音声処理から得られるデータを要求するか、このデータを受け取る。このようなデータには、コントローラのプレーヤ番号、コントローラを含む1つ以上の入力オブジェクトの姿勢および/または位置、コントローラの操作などが含まれる。
各種実施形態では、画像および/または音声処理機能を実行しているプロセスは、ビデオカメラまたはビデオ/音声監視装置のドライバであってもよく、このドライバは、一般に知られているように実装に特有であり、当業界で知られ、理解されているように、任意のタイプのプロセス間通信を介して、メインプロセスにデータを提供する。画像または音声処理を実行するプロセスは、ゲームソフトウェアや他のアプリケーションプログラムを実行しているものと同じプロセッサで実行されても、別のプロセッサで実行されてもよい。さらに、画像または音声処理とゲーム機能に対して、例えば、プロシージャコールを使用して、同じプロセス内で共通のプロセスとしてもよい。このため、本明細書において、入力ベクトルやほかの情報が「『プログラムに』提供される」と言及することがあるが、本発明には、1つのプロセスが、画像処理機能とゲーム機能の両方を実行することができるように、プロシージャコールやその他のソフトウェア機能を使用して、このようなデータをプロセスのルーチンに提供することも含まれていることを理解すべきである。
また、これら機能を異なるプロセスに分割して、共通のプロセッサコアまたは複数のプロセッサコアで実行される1つ以上のプロセスが、本明細書に記載したような画像および/または音声処理を実行して、別のプロセスがゲーム機能を実行してもよい。本発明は、ここに記載したように使用されても、ほかのユーザ入力機構、音の角度方向をトラッキングする他の機構、および/またはオブジェクトの位置を能動的または受動的にトラッキングする機構、機械的視野を使用する機構、これらの組み合わせと共に使用されてもよい。トラッキングされるオブジェクトは、システムへのフィードバックを操作する補助的制御部またはボタンを備えていてもよい。このようなフィードバックには、光源からの発光、音歪み手段または他の適切な送信器および変調器のほかに、ボタン、圧力パッドなどがあるが、これらに限定されない。これらは、その伝達または変調、符号化状態および/またはトラッキング対象の装置との間でやり取りされるコマンドに影響しうる。本発明は、ゲームコンソール、ゲームコンピュータまたはコンピューティング装置、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースのプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステムの構成によって実施されてもよい。
また、本発明は、分散コンピューティング環境で実施されてもよく、このような環境では、ネットワークを介してリンクされる遠隔処理デバイスによってタスクが実行される。例えば、オンラインのゲームシステムおよびソフトウェアが使用されてもよい。上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されたデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作は、物理量の物理的操作を必要とする。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。更に、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。本発明の一部を構成している、本明細書に記載した操作はいずれも、有用な機械的操作である。本発明は、これらの操作を実行するデバイスまたは装置にも関する。この装置は、上記に記載したキャリアネットワークなどの所望の目的のために特別に作製されたものであっても、あるいは汎用コンピュータであり、そのコンピュータに記憶されているコンピュータプログラムによって選択的に作動もしくは構成されてもよい。特に、各種の汎用の機械を、本明細書の教示に従って記述したコンピュータプログラムと併用してもよく、あるいは所望の操作を実行するために特化した機械を作製するほうが利便性が高いこともある。
本発明は、また、コンピュータ可読媒体上のコンピュータ可読コードとして実施されてもよい。コンピュータ可読媒体は、コンピュータシステムによって後から読取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものであってもよい。コンピュータ可読媒体の例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、FLASHベースメモリ、CD−ROM、CD−R、CD−RW、DVD、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、コンピュータ可読媒体は、コンピュータ可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。
さらに、ビデオゲームに関連してギアリングについて述べてきたが、コンピュータによって制御された環境であればどのような環境にもギアリングをかけることができることを理解すべきである。一例では、ギアリングは、情報のインタラクション、選択あるいは入力を可能にするコンピュータの入力デバイスに関連づけられる。様々な入力操作やインタラクティブ操作において、様々に異なるギアリングをかけることで、設定済みの制御設定を有する環境では通常みられない操作のさらなる程度が可能となる。したがって、本明細書に定義しているように、ギアリングの実施形態には広範囲にわたっての用途が与えられるべきである。
ギアリングが決定されると、このギアリングをジェスチャにかけることができ、これがコンピュータプログラムに伝達される。上述のように、ジェスチャや入力デバイスのトラッキングは、画像分析、慣性分析あるいは可聴音分析によって実現することができる。ジェスチャの例としては、ボールなどのオブジェクトを投げる、バットやゴルフクラブなどを振る、手押しポンプを押す、ドアまたは窓を開閉する、ハンドルまたは他の車両コントロールを回す、格闘家がパンチなどを出す、研磨動作、ワックス掛けとワックスふき取り、家のペンキ塗り、振動、おしゃべり、ロール、フットボール投げ、野球の投球、ノブを回す動き、3D/2Dマウスの動き、スクロール、周知のプロファイルを持った動き、記録可能なあらゆる動き、あらゆるベクトルに沿った前後の動き、すなわち、空間内の任意の方向に沿ったタイヤの空気入れ、経路に沿った移動、正確な停止時間と開始時間を持った動き、ノイズフロア内やスプライン内などで記録、追跡および繰返し可能なユーザ操作に基づく任意の時刻、などがあるがこれらに限定されない。
これらのジェスチャはそれぞれ、経路データから事前に記録し、時間基準のモデルとして記憶できる。このため、ギアリングは、ユーザまたはプログラムにより設定されたギアリングの程度に応じて、これらのジェスチャのうちのいずれか1つにかけることができる。上記に、本発明を明確に理解できるように多少詳細に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。
画像キャプチャ装置を有するインタラクティブゲーム構成の説明図。 画像処理システムを用いた例示的コンピュータインタラクションの説明図。 グラフディスプレイ上のオブジェクトとインタラクトする例示的ユーザ入力システムのブロック図。 本文に記載された発明の実施形態を実装するように構成されたコンピュータプロセスシステムの簡略ブロック図。 代替入力デバイスとして機能する操作用オブジェクトとの併用に適合されたビデオゲームコンソールの各種構成要素の構成を示すブロック図。 ユーザによる操作中に、ユーザ入力デバイスに対応するピクセル群をトラッキングして判別するための機能ブロックを示すブロック図。 例示的画像処理システムの概略ブロック図。 図7の画像処理システムの例示的アプリケーションの説明図。 画像キャプチャ装置とのインタラクションを行うための例示的なコントローラの平面図ならびに上面図。 画像キャプチャ装置とのインタラクションを行うための例示的なコントローラの平面図ならびに上面図。 図9および図10のコントローラに対する例示的アプリケーションの説明図。 図11に示したアプリケーションの例示的なソフトウェアの制御されたギアリング量を示した説明図。 ハンドルを有する例示的コントローラの説明図。 図13のコントローラの例示的アプリケーションの説明図。 所定の期間のギアリング量の例示的な変化を示した例示的グラフの説明図。 ユーザインタラクションに反応する画像処理システムの別の例示的アプリケーションの説明図。 図16に示したアプリケーションの野球バットのスイングの長さに沿った、異なる時間における例示的なギアリング量を示したグラフの説明図。 ユーザインタラクションに反応する画像処理システムの別の例示的アプリケーションの説明図。 図18に示したアプリケーションのフットボールを”放した”後のギアリング量の例示的変化を示したグラフの説明図。 ユーザ入力をコンピュータプログラムに受信する例示的手順を示したフローチャート。

Claims (93)

  1. 画像データをキャプチャするビデオキャプチャ装置を備えたコンピュータゲームシステムとインタラクティブにインターフェースする方法であって、
    前記ビデオキャプチャ装置に入力デバイスを表示するステップを含み、前記入力デバイスは、複数の光源を含み、これにより、前記キャプチャした画像データの分析に基づいて前記コンピュータゲームシステムによって解釈される前記入力デバイスの位置を伝達することができ、
    前記コンピュータゲームシステムによって実行されるアクションを定義するステップを含み、前記アクションは前記キャプチャした画像データに検出された前記入力デバイスの移動に反応するものであって、さらに、
    前記アクションと前記入力デバイスとの移動間のギアリングを定めるステップを含み、
    前記ギアリングは、前記入力デバイスの移動と前記アクションとの間の比率を定める、方法。
  2. 前記入力デバイスの前記移動は、前記ビデオキャプチャ装置によってキャプチャされる空間体積において検出される、請求項1記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  3. 前記入力デバイスの移動を識別するように、前記キャプチャした画像データを継続的に分析するステップと、
    前記識別された前記入力デバイスの移動に基づいて、アクションを継続的にアップデートするステップと、
    前記ギアリングがアップデート済みであるかどうかを判断するステップと、をさらに含む、請求項1記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  4. 前記ギアリングがアップデート済みであると判断された場合に、前記アップデートされたギアリングを、次のアクションの前に、または所定の期間にわたって段階的に、前記アクションの処理を続行しながら適用する、請求項3記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  5. 前記ギアリングがアップデート済みの場合、前記コンピュータゲームシステムは、前記アップデートされたギアリングを使用し、前記現在のアクションに影響を及ぼすようにする、請求項3記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  6. 前記複数の光源は、発光ダイオードから定義される、請求項1記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  7. 前記複数の光源の状態は、前記複数の光源のON/OFFの組合せの設定により表される、請求項1記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  8. 前記複数の光源を変調することで前記入力デバイスのトラッキングか可能となり、これにより前記移動が識別できるようになる、請求項1記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  9. 前記入力デバイスの移動は、前記入力デバイスの座標情報を識別するために分析され、前記座標情報は、ベクトルデータに変換されて前記アクションに適用され、さらに、前記アクションは、前記コンピュータゲームシステムにより実行されるコンピュータゲームのオブジェクトによる移動量を表示する、請求項1記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  10. 前記ベクトルデータは、前記ギアリングのアップデートに応じてスケーリングされる、請求項9記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  11. 前記ベクトルデータは、前記ベクトルデータを前記ギアリングにより定義されるギアリング量によって乗算することでスケーリングされる、請求項9記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  12. コンピュータゲームシステムとインタラクティブにインターフェースするプログラム命令を含むコンピュータ可読媒体であり、前記コンピュータゲームシステムは、画像データをキャプチャするビデオキャプチャ装置を備えており、前記コンピュータ可読媒体は、
    入力デバイスの表示をビデオキャプチャ装置に検出するプログラム命令を含み、前記入力デバイスは、前記入力デバイスの位置とキャプチャした画像データ分析に基づくコンピュータゲームシステムによって解釈される通信データを伝達するものであって、
    コンピュータゲームシステムにより実行されるコンピュータゲームのオブジェクトの移動を定義するプログラム命令を含み、前記オブジェクトの前記移動は、キャプチャした画像データで検出した入力デバイスの移動に対応づけられており、
    さらに、コンピュータゲームのオブジェクトの移動と入力デバイスの移動との間のギアリングを定めるプログラム命令を含み、前記ギアリングは前記入力デバイスの移動と前記オブジェクトの移動間にユーザにより調節可能な比率を定める、コンピュータ可読媒体。
  13. 前記キャプチャした画像データを少なくとも周期的に分析し、前記入力デバイスの前記移動を識別するプログラム命令と、
    前記入力デバイスの前記識別した移動に基づいて、前記オブジェクトの移動を少なくとも周期的に対応づけるプログラム命令と、
    前記ギアリングが前記対応付けの間にすでに調整されているかどうかを判断するプログラム命令と、を含む請求項12記載のコンピュータ可読媒体。
  14. 前記ギアリングが前記対応付けの間にすでに調整されているかどうかを判断するプログラム命令をさらに含み、前記調整されたギアリングは、前記オブジェクトの次の移動の前、前記オブジェクトの前記現在の移動の間、または、前記オブジェクトの現在の移動において段階的にかけられる、請求項12記載のコンピュータ可読媒体。
  15. ユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステムであって、
    コンピューティングシステムと、
    前記コンピューティングシステムに結合された画像キャプチャ装置と、
    前記コンピューティングシステムからの入力を受信するディスプレイと、
    前記コンピューティングシステムにより実行されるコンピュータプログラムとインターフェースする入力デバイスと、を含み、前記入力デバイスは、前記コンピュータプログラムにより定義され、前記コンピューティングシステムにより実行されるオブジェクトに適用されるアクションに対応づけられた前記入力デバイスの移動間の比率を定めるギアリングコントロールを有しており、前記画像キャプチャ装置により識別される前記入力デバイスの前記移動と前記アクションとは、前記オブジェクトに適用されるときに、前記入力デバイスのギアリングコントロールにより設定された、顕著なギアリング値でディスプレイに表示される、システム。
  16. 前記ギアリング値は、前記コンピュータプログラムの前記オブジェクトとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項15記載のシステム。
  17. 前記コンピュータプログラムはインタラクティブアプリケーションである、請求項15記載のシステム。
  18. 前記インタラクティブアプリケーションはビデオゲームである、請求項17記載のシステム。
  19. 前記入力デバイスは、コントローラまたは手持ち式のオブジェクトである、請求項17記載のシステム。
  20. 前記コントローラまたは手持ち式のオブジェクトは、位置検出のための発光ダイオードを含む、請求項19記載のシステム。
  21. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムに前記アクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項19記載のシステム。
  22. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピュータプログラムによりアクションが引き起こされるように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項19記載のシステム。
  23. ユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置であって、
    コンピューティングシステムにより実行される前記コンピュータプログラムとインターフェースする入力デバイスを含み、前記入力デバイスは前記コンピュータプログラムにより適用されるアクションに対応づけられた前記入力デバイスの移動データ間にスケーリング値を定めるギアリングコントロールを有する、装置。
  24. 前記ギアリングは、前記コンピュータプログラムとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項23記載の装置。
  25. 前記入力デバイスは、位置検出のための発光ダイオードを含むコントローラまたは手持ち式のオブジェクトである、請求項23記載の装置。
  26. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムにアクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項25記載の装置。
  27. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピュータプログラムによりアクションが引き起こされるように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項25記載の装置。
  28. コンピュータゲームシステムとインタラクティブにインターフェースする方法であって、
    前記コンピュータゲームシステムにより解釈される慣性データを伝達する入力デバイスを提供するステップと、
    前記コンピュータゲームシステムによって実行される、前記入力デバイスによって提供された前記慣性データに対応づけられているアクションを識別するステップと、
    前記コンピュータゲームシステムによって実行される前記アクションと、前記入力デバイスから受信した前記慣性データ間にギアリングをかけるステップと、を含み、
    前記ギアリングは、前記コンピュータゲームシステムによって実行される前記アクションに影響を与えるように調節をスケーリングする、方法。
  29. 前記アクションは、(a)前記コンピュータゲームシステムにより実行されたコンピュータゲームのオブジェクトにより、移動量を設定する(b)処理を実行する変数を設定する(a)音声または振動に影響を及ぼす処理に対して変化率を設定する、または(c)グラフィカルオブジェクトの移動の変化率を設定する、のうちの1つを含む、請求項28記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  30. 少なくとも周期的に前記慣性データを分析するステップと、
    前記ギアリングによりアップデートされた変更を用いて、少なくとも周期的に前記アクションを再度適用するステップと、を含む、請求項28記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  31. 前記ギアリングがアップデート済みであると判断された場合に、前記アップデートされたギアリングを、次のアクションの前に、または所定の期間において段階的に、前記アクションの処理を続行しながら適用する、請求項30記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  32. 前記ギアリングが調整済みの場合、前記調整済みのギアリングは(a)段階的に、(b)漸進的に、または(c)スムーズにかけられ、前記アクションに影響を与えるようにする、請求項30記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  33. 前記慣性データは、前記入力デバイスの座標情報を識別するために分析され、前記座標情報は、前記対応付けによってベクトルデータに変換されて前記アクションに適用される、請求項28記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  34. 前記ベクトルデータは、前記ギアリングの調整に応じてスケーリングされる、請求項33記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  35. 前記ベクトルデータは、前記ベクトルデータを前記ギアリングにより定義されるギアリング量で掛けることによりスケーリングされる、請求項33記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  36. 前記入力デバイスは、前記入力デバイスの位置と通信データとを検出するように使用される複数の光源を含む、請求項33記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  37. ユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステムであって、
    コンピューティングシステムと、
    前記コンピューティングシステムに結合されているか、または前記コンピューティングシステムにより実行される慣性検出アナライザと、
    前記コンピューティングシステムにより実行される前記コンピュータプログラムとインターフェースする入力デバイスと、を含み、前記入力デバイスは、前記入力デバイスで生成された慣性データと、前記慣性検出アナライザにより分析された前記コンピュータプログラムに適用されるアクションとの間にスケーリングを定めるギアリングコントロールを有する、システム。
  38. 前記ギアリングは、前記コンピュータプログラムの前記オブジェクトとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項37記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  39. 前記コンピュータプログラムは、インタラクティブアプリケーションである、請求項37記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  40. 前記インタラクティブアプリケーションは、ビデオゲームである、請求項39記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  41. 前記入力デバイスは、コントローラまたは手持ち式のオブジェクトである、請求項39記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  42. 前記コントローラまたは手持ち式のオブジェクトは、位置検出のための発光ダイオードを含む、請求項43記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  43. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムに前記アクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項41記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  44. 前記コントローラまたは手持ち式のオブジェクトは前記コンピュータプログラムによりアクションが引き起こされるように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項41記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  45. ユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置であって、
    コンピューティングシステムにより実行される前記コンピュータプログラムとインターフェースする入力デバイスを含み、前記入力デバイスは前記コンピューティングシステムにより適用されるアクションに対応づけられた前記入力デバイスの慣性データ間にスケーリング値を定めるギアリングコントロールを有する、装置。
  46. 前記ギアリングは、前記コンピュータプログラムとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項45記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  47. 前記入力デバイスは、位置検出のための発光ダイオードを含むコントローラまたは手持ち式のオブジェクトである、請求項45記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  48. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムに前記アクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項47記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  49. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピュータプログラムによるアクションを引き起こすように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項47記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  50. コンピュータゲームシステムとインタラクティブにインターフェースする方法であって、
    前記コンピュータゲームシステムにより解釈される音響データを伝達する入力デバイスを提供するステップと、
    前記コンピュータゲームシステムによって実行される、前記入力デバイスによって提供された前記音響データに対応づけられているアクションを識別するステップと、
    前記コンピュータゲームシステムによって実行される前記アクションと、前記入力デバイスから受信した前記音響データ間にギアリングをかけるステップと、を含み、
    前記ギアリングは、前記コンピュータゲームシステムによって実行される前記アクションに影響を与えるように調節をスケーリングする、方法。
  51. 前記アクションは、(a)前記コンピュータゲームシステムにより実行されたコンピュータゲームのオブジェクトにより、移動量を設定する(b)処理を実行する変数を設定する(a)音声または振動に影響を及ぼす処理に対して変化率を設定する、または(c)グラフィカルオブジェクトの移動の変化率を設定する、のうちの1つを含む、請求項50記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  52. 少なくとも周期的に前記音響データを分析するステップと、
    前記ギアリングによりアップデートされた変更を用いて、少なくとも周期的に前記アクションを再度適用するステップと、をさらに含む、請求項50記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  53. 前記ギアリングがアップデート済みであると判断された場合に、前記アップデートされたギアリングを、次のアクションの前に、または所定の期間において段階的に、前記アクションの処理を続行しながら適用する、請求項52記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  54. 前記ギアリングが調整済みの場合、前記調整済みのギアリングは(a)段階的に、(b)漸進的に、または(c)スムーズにかけられ、前記アクションに影響を与えるようにする、請求項52記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  55. 前記音響データは、前記入力デバイスの座標情報を識別するために分析され、前記座標情報は、前記対応付けによってベクトルデータに変換されて前記アクションに適用される、請求項50記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  56. 前記ベクトルデータは、前記ギアリングの調整に応じてスケーリングされる、請求項55記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  57. 前記ベクトルデータは、前記ベクトルデータを前記ギアリングにより定義されるギアリング量で掛けることによりスケーリングされる、請求項55記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  58. 前記入力デバイスは、前記入力デバイスの位置と通信データとを検出するように使用される複数の光源を含む、請求項55記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  59. ユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステムであって、
    コンピューティングシステムと、
    前記コンピューティングシステムに結合されているか、または前記コンピューティングシステムにより実行される音響検出アナライザと、
    前記コンピューティングシステムにより実行される前記コンピュータプログラムとインターフェースする入力デバイスを含み、前記入力デバイスは、前記入力デバイスで生成された音響データと、前記音響検出アナライザにより分析されたコンピュータプログラムに適用されるアクションとの間にスケーリングを定めるギアリングコントロールを有する、システム。
  60. 前記ギアリングは、前記コンピュータプログラムの前記オブジェクトとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項59記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  61. 前記コンピュータプログラムは、インタラクティブアプリケーションである、請求項59記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  62. 前記インタラクティブアプリケーションは、ビデオゲームである、請求項61記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  63. 前記入力デバイスは、コントローラまたは手持ち式のオブジェクトである、請求項61記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  64. 前記コントローラまたは手持ち式のオブジェクトは、位置検出のための発光ダイオードを含む、請求項63記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  65. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムに前記アクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項63記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  66. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピュータプログラムによるアクションを引き起こすように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項63記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  67. ユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置であって、
    コンピューティングシステムにより実行される前記コンピュータプログラムとインターフェースする入力デバイスを含み、前記入力デバイスは前記コンピューティングシステムにより適用されるアクションに対応づけられた前記入力デバイスの音響データ間にスケーリング値を定めるギアリングコントロールを有する、装置。
  68. 前記ギアリングは、前記コンピュータプログラムとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項67記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  69. 前記入力デバイスは、位置検出のための発光ダイオードを含むコントローラまたは手持ち式のオブジェクトである、請求項67記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  70. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムに前記アクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項69記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  71. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピュータプログラムによるアクションを引き起こすように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項69記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  72. コンピュータゲームシステムとインタラクティブにインターフェースする方法であって、
    前記コンピュータゲームシステムにより解釈される多チャンネルのミックスされた入力データを伝達する入力デバイスを提供するステップと、
    前記コンピュータゲームシステムによって実行される、前記入力デバイスによって提供された前記多チャンネルのミックスされた入力データに対応づけられているアクションを識別するステップと、
    前記コンピュータゲームシステムによって実行される前記アクションと、前記入力デバイスから受信した前記多チャンネルのミックスされた入力データ間にギアリングをかけるステップと、を含み、
    前記ギアリングは、前記コンピュータゲームシステムによって実行される前記アクションに影響を与えるように調節をスケーリングする、方法。
  73. 前記アクションは、(a)前記コンピュータゲームシステムにより実行されたコンピュータゲームのオブジェクトにより、移動量を設定する(b)処理を実行する変数を設定する(a)音声または振動に影響を及ぼす処理に対して変化率を設定する、または(c)グラフィカルオブジェクトの移動の変化率を設定する、のうちの1つを含む、請求項72記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  74. 少なくとも周期的に前記多チャンネルのミックスされた入力データを分析するステップと、
    少なくとも前記ギアリングによりアップデートされた変更を用いて、前記アクションを再度適用するステップと、を含む、請求項72記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  75. 前記ギアリングがアップデート済みであると判断された場合に、前記アップデートされたギアリングを、次のアクションの前に、または所定の期間において段階的に、前記アクションの処理を続行しながら適用する、請求項74記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  76. 前記ギアリングが調整済みの場合、前記調整済みのギアリングは(a)段階的に、(b)漸進的に、または(c)スムーズにかけられ、前記アクションに影響を与えるようにする、請求項74記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  77. 前記多チャンネルのミックスされた入力データは、前記入力デバイスの座標情報を識別するために分析され、前記座標情報は、前記対応付けによってベクトルデータに変換されて前記アクションに適用される、請求項72記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  78. 前記ベクトルデータは、前記ギアリングの調整に応じてスケーリングされる、請求項77記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  79. 前記ベクトルデータは、前記ベクトルデータを前記ギアリングにより定義されるギアリング量で掛けることによりスケーリングされる、請求項77記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  80. 前記入力デバイスは、前記入力デバイスの位置と通信データとを検出するように使用される複数の光源を含む、請求項77記載のコンピュータゲームシステムとインタラクティブにインターフェースする方法。
  81. ユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステムであって、
    コンピューティングシステムと、
    前記コンピューティングシステムに結合されているか、または前記コンピューティングシステムにより実行される多チャンネルのミックスされた入力検出アナライザと、
    前記コンピューティングシステムにより実行される前記コンピュータプログラムとインターフェースする入力デバイスを含み、前記入力デバイスは、前記入力デバイスで生成された多チャンネルのミックスされた入力データと、前記多チャンネルのミックスされた入力検出アナライザにより分析された前記コンピュータプログラムに適用されるアクションとの間にスケーリングを定めるギアリングコントロールを有する、システム。
  82. 前記ギアリングは、前記コンピュータプログラムの前記オブジェクトとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項81記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  83. 前記コンピュータプログラムは、インタラクティブアプリケーションである、請求項81記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  84. 前記インタラクティブアプリケーションは、ビデオゲームである、請求項83記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  85. 前記入力デバイスは、コントローラまたは手持ち式のオブジェクトである、請求項83記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  86. 前記コントローラまたは手持ち式のオブジェクトは、位置検出のための発光ダイオードを含む、請求項85記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  87. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムに前記アクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項85記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  88. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピュータプログラムによるアクションを引き起こすように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項85記載のユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にするシステム。
  89. ユーザのアクションとコンピュータプログラムにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置であって、
    コンピューティングシステムにより実行される前記コンピュータプログラムとインターフェースする入力デバイスを含み、前記入力デバイスは前記コンピューティングシステムにより適用されるアクションに対応づけられた前記入力デバイスの多チャンネルのミックスされた入力データ間にスケーリング値を定めるギアリングコントロールを有する、装置。
  90. 前記ギアリングは、前記コンピュータプログラムとのインタラクティビティ前に、インタラクティビティの間に、またはインタラクティビティの後に設定することができる、請求項89記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  91. 前記入力デバイスは、位置検出のための発光ダイオードを含むコントローラまたは手持ち式のオブジェクトである、請求項89記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  92. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピューティングシステムに前記アクションを行わせるようにする音声または超音波信号を伝達するためのスピーカを含む、請求項91記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
  93. 前記コントローラまたは手持ち式のオブジェクトは、前記コンピュータプログラムによるアクションを引き起こすように、前記コンピューティングシステムと通信するためのユーザからの入力を受信するマイクロフォンを含む、請求項91記載のユーザのアクションとコンピュータプログラムのオブジェクトにより実行されるアクション間に動的なユーザインタラクティビティを可能にする装置。
JP2009509745A 2006-05-04 2007-05-04 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置 Active JP4567805B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US11/381,729 US7809145B2 (en) 2006-05-04 2006-05-04 Ultra small microphone array
US11/381,728 US7545926B2 (en) 2006-05-04 2006-05-04 Echo and noise cancellation
US11/381,724 US8073157B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for targeted sound detection and characterization
US11/381,727 US7697700B2 (en) 2006-05-04 2006-05-04 Noise removal for electronic device with far field microphone on console
US11/381,725 US7783061B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for the targeted sound detection
US11/381,721 US8947347B2 (en) 2003-08-27 2006-05-04 Controlling actions in a video game unit
US11/382,036 US9474968B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to visual tracking
US11/382,038 US7352358B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to acoustical tracking
US11/382,040 US7391409B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to multi-channel mixed input
US11/382,041 US7352359B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to inertial tracking
PCT/US2007/010852 WO2007130582A2 (en) 2006-05-04 2007-05-04 Computer imput device having gearing effects

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2008333907A Division JP4598117B2 (ja) 2006-05-04 2008-12-26 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP2009141043A Division JP5277081B2 (ja) 2006-05-04 2009-06-12 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置

Publications (2)

Publication Number Publication Date
JP2009535167A true JP2009535167A (ja) 2009-10-01
JP4567805B2 JP4567805B2 (ja) 2010-10-20

Family

ID=38668336

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2009509745A Active JP4567805B2 (ja) 2006-05-04 2007-05-04 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP2008333907A Active JP4598117B2 (ja) 2006-05-04 2008-12-26 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP2009141043A Active JP5277081B2 (ja) 2006-05-04 2009-06-12 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2008333907A Active JP4598117B2 (ja) 2006-05-04 2008-12-26 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP2009141043A Active JP5277081B2 (ja) 2006-05-04 2009-06-12 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置

Country Status (4)

Country Link
EP (1) EP2013865A4 (ja)
JP (3) JP4567805B2 (ja)
KR (1) KR101060779B1 (ja)
WO (1) WO2007130582A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252468A (ja) * 2011-06-01 2012-12-20 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2013539565A (ja) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション ユーザー追跡フィードバック
JP2015506739A (ja) * 2011-12-21 2015-03-05 株式会社ソニー・コンピュータエンタテインメント ビデオゲームのための方向性入力
JP2017525047A (ja) * 2014-07-30 2017-08-31 リニア アルジェブラ テクノロジーズ リミテッド 低電力コンピュータイメージング
JP2018517190A (ja) * 2015-04-15 2018-06-28 トムソン ライセンシングThomson Licensing 3次元の動きの変換の設定

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090075711A1 (en) 2007-06-14 2009-03-19 Eric Brosius Systems and methods for providing a vocal experience for a player of a rhythm action game
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
WO2010006054A1 (en) 2008-07-08 2010-01-14 Harmonix Music Systems, Inc. Systems and methods for simulating a rock and band experience
CN102265241B (zh) * 2008-10-27 2014-10-29 索尼电脑娱乐公司 带有可配置模式的球形端部控制器
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
KR20100138725A (ko) 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
WO2011070596A1 (en) * 2009-12-09 2011-06-16 Danilo Pasquariello Control device for console-based videogames
US8568234B2 (en) 2010-03-16 2013-10-29 Harmonix Music Systems, Inc. Simulating musical instruments
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
CA2802348A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Dance game and tutorial
KR101441289B1 (ko) * 2010-08-27 2014-09-29 에스케이플래닛 주식회사 휴대 단말의 입력 감도를 고려한 디지털 컨텐츠 제작 방법 및 장치
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
US8884949B1 (en) 2011-06-06 2014-11-11 Thibault Lambert Method and system for real time rendering of objects from a low resolution depth camera
US20130080976A1 (en) * 2011-09-28 2013-03-28 Microsoft Corporation Motion controlled list scrolling
JP6177145B2 (ja) * 2014-01-21 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6193135B2 (ja) 2014-01-21 2017-09-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US10130883B2 (en) 2014-01-21 2018-11-20 Sony Interactive Entertainment Inc. Information processing device and information processing method
JP6027554B2 (ja) 2014-01-21 2016-11-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、ブロックシステム、および情報処理方法
JP6177147B2 (ja) * 2014-01-21 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6177146B2 (ja) * 2014-01-21 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
WO2016100931A1 (en) * 2014-12-18 2016-06-23 Oculus Vr, Llc Method, system and device for navigating in a virtual reality environment
IT201700020955A1 (it) * 2017-02-24 2018-08-24 Xplored S R L Metodo ed apparato per controllare videogiochi
CN108733211B (zh) 2017-04-21 2020-05-22 宏达国际电子股份有限公司 追踪系统、其操作方法、控制器、及电脑可读取记录媒体
US10653957B2 (en) * 2017-12-06 2020-05-19 Universal City Studios Llc Interactive video game system
EP3650988A1 (de) * 2018-11-09 2020-05-13 iXperienz GmbH & Co. KG Eingabevorrichtung und verfahren zur eingabe von informationen sowie verfahren zur erzeugung eines virtuellen zeigers
US10946272B2 (en) 2019-07-26 2021-03-16 Arkade, Inc. PC blaster game console
US10773157B1 (en) 2019-07-26 2020-09-15 Arkade, Inc. Interactive computing devices and accessories
US10893127B1 (en) * 2019-07-26 2021-01-12 Arkade, Inc. System and method for communicating interactive data between heterogeneous devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284166A (ja) * 1993-03-12 1995-10-27 Mitsubishi Electric Corp 遠隔操作装置
JP2003126548A (ja) * 2001-10-19 2003-05-07 Konami Co Ltd ゲーム装置及びゲームシステム
JP2005046422A (ja) * 2003-07-30 2005-02-24 Samii Kk ゲーム機用コントローラ

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE504846C2 (sv) * 1994-09-28 1997-05-12 Jan G Faeger Styrutrustning med ett rörligt styrorgan
US5633657A (en) * 1994-10-11 1997-05-27 Falcon; Fernando D. Mouse driver arrangement for providing advanced scrolling capabilities to a conventional mouse
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
JPH10177451A (ja) * 1996-12-16 1998-06-30 Fujitsu Ltd 指示入力装置
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6203432B1 (en) * 1999-05-11 2001-03-20 Madcatz, Inc. System for adjusting the response characteristic of an electronic game input device
JP3847058B2 (ja) * 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
JP3403685B2 (ja) * 2000-01-14 2003-05-06 コナミ株式会社 ゲームシステムおよびコンピュータ読み取り可能な記憶媒体
US20020085097A1 (en) * 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
JP3611807B2 (ja) * 2001-07-19 2005-01-19 コナミ株式会社 ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
JP4123878B2 (ja) * 2001-09-17 2008-07-23 富士ゼロックス株式会社 光電変換ユニット、位置方向測定装置および位置方向測定方法
JP5109221B2 (ja) * 2002-06-27 2012-12-26 新世代株式会社 ストロボスコープを使った入力システムを備える情報処理装置
JP3511518B1 (ja) * 2003-03-07 2004-03-29 任天堂株式会社 ゲーム装置、ゲームプログラムおよび情報記憶媒体
US20040212589A1 (en) * 2003-04-24 2004-10-28 Hall Deirdre M. System and method for fusing and displaying multiple degree of freedom positional input data from multiple input sources
WO2005003945A1 (ja) * 2003-07-02 2005-01-13 Ssd Company Limited 情報処理装置、情報処理システム、操作物、情報処理方法、情報処理プログラム、及び、ゲームシステム
JP4779070B2 (ja) * 2004-05-11 2011-09-21 新世代株式会社 エンターテインメント装置及びその動作方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284166A (ja) * 1993-03-12 1995-10-27 Mitsubishi Electric Corp 遠隔操作装置
JP2003126548A (ja) * 2001-10-19 2003-05-07 Konami Co Ltd ゲーム装置及びゲームシステム
JP2005046422A (ja) * 2003-07-30 2005-02-24 Samii Kk ゲーム機用コントローラ

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
JP2013539565A (ja) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション ユーザー追跡フィードバック
JP2012252468A (ja) * 2011-06-01 2012-12-20 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2015506739A (ja) * 2011-12-21 2015-03-05 株式会社ソニー・コンピュータエンタテインメント ビデオゲームのための方向性入力
JP2017525047A (ja) * 2014-07-30 2017-08-31 リニア アルジェブラ テクノロジーズ リミテッド 低電力コンピュータイメージング
JP2018517190A (ja) * 2015-04-15 2018-06-28 トムソン ライセンシングThomson Licensing 3次元の動きの変換の設定

Also Published As

Publication number Publication date
WO2007130582A3 (en) 2008-12-04
KR101060779B1 (ko) 2011-08-30
JP2009266241A (ja) 2009-11-12
JP5277081B2 (ja) 2013-08-28
EP2013865A2 (en) 2009-01-14
JP4598117B2 (ja) 2010-12-15
JP2009112829A (ja) 2009-05-28
JP4567805B2 (ja) 2010-10-20
WO2007130582A2 (en) 2007-11-15
EP2013865A4 (en) 2010-11-03
KR20090025228A (ko) 2009-03-10

Similar Documents

Publication Publication Date Title
US10406433B2 (en) Method and system for applying gearing effects to visual tracking
JP4567805B2 (ja) 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
US7391409B2 (en) Method and system for applying gearing effects to multi-channel mixed input
US7352358B2 (en) Method and system for applying gearing effects to acoustical tracking
US7352359B2 (en) Method and system for applying gearing effects to inertial tracking
US10369466B2 (en) Combiner method for altering game gearing
CN101484933B (zh) 基于一个或多个视觉的、听觉的、惯性的和混合的数据来应用传动效应到输入的方法和设备
US9891741B2 (en) Controller for interfacing with an interactive application
US10220302B2 (en) Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8019121B2 (en) Method and system for processing intensity from input devices for interfacing with a computer program
EP1937380B1 (en) Wireless video game controller and method for operating a wireless video game controller
JP5116679B2 (ja) 強度のコンピュータ画像および音声処理、ならびにコンピュータプログラムとインタフェースするための入力装置
EP2194509A1 (en) Method for providing affective characteristics to computer generated avatar during gameplay

Legal Events

Date Code Title Description
A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090811

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090818

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090914

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090924

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091013

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100519

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100805

R150 Certificate of patent or registration of utility model

Ref document number: 4567805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130813

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250