JP2009514106A - コンピュータプログラムとインタフェースするためのシステムおよび方法 - Google Patents

コンピュータプログラムとインタフェースするためのシステムおよび方法 Download PDF

Info

Publication number
JP2009514106A
JP2009514106A JP2008537992A JP2008537992A JP2009514106A JP 2009514106 A JP2009514106 A JP 2009514106A JP 2008537992 A JP2008537992 A JP 2008537992A JP 2008537992 A JP2008537992 A JP 2008537992A JP 2009514106 A JP2009514106 A JP 2009514106A
Authority
JP
Japan
Prior art keywords
interface object
interface
capture device
computing system
image capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008537992A
Other languages
English (en)
Inventor
マークス リチャード
デシュパンデ フリシケシュ
エム. ザルースキ ゲイリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of JP2009514106A publication Critical patent/JP2009514106A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1006Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals having additional degrees of freedom
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

コンピューティングシステムで実行されているプログラムのコマンドをトリガするための方法が提供される。上記方法では、まず、インタフェースオブジェクトが提供される。1つのインタフェースオブジェクトは、ハンドルに連結されたオブジェクトによって定義され、ハンドルは、オブジェクトから延びる線に略直交する長尺部材を有する。別のインタフェースオブジェクトはゲームコントローラに連結される。別のインタフェースオブジェクトは、球形オブジェクトのペアによって定義される。次に、画像キャプチャ装置の視野内にインタフェースオブジェクトが配置され、画像キャプチャ装置の視野内のインタフェースオブジェクトの位置の変化により、コンピューティングシステムで実行されているプログラムでインタフェースコマンドがトリガされる。また、プログラムの命令をトリガするシステムも記載される。

Description

本発明は、一般に、コンピュータシステムへのジェスチャ入力に関し、より詳細には、装置の変化を視覚によって検出し、この変化によりコンピュータシステム側でアクションをトリガすることに関する。
コンピューティングシステム用の代わりの入力装置を探し出すことが大きな関心を集めている。詳しくいえば、視覚によるジェスチャ入力装置の普及が一層進んでいる。一般的にいうと、ジェスチャ入力とは、コンピューティングシステム、ビデオゲームコンソール、インテリジェント家電(smart appliance)などの電子装置を、オブジェクトをトラッキングするビデオカメラがキャプチャした何らかのジェスチャに反応させることを指す。
デジタルビデオカメラを使用して移動するオブジェクトをトラッキングし、ビデオ画像を処理してさまざまな表示を生成することは、当業界で知られている。例えば、図1は、ユーザの手がボール101を保持している状態を示す。ボール101はビデオカメラの視野に配置されており、ビデオカメラは、ボールの円形状を検出することで、ボールの位置をトラッキングすることができる。ボール101の位置がわかれば、この情報を使用して、当業界で一般に知られている各種方法によって、コンピュータプログラムを制御することができる。例として、モニタ上の動画を形成する仮想オブジェクトを考える。これは、ボール101の移動に対応しているとする。この仮想オブジェクトを表示するには、計算で求めた情報を使用して、コンピュータの記憶空間内でこの仮想オブジェクトの位置および向きを固定して、次に公知の処理によってこの画像のレンダリングを実行し、三次元情報を現実的な遠近表示に変換する。
しかし、上記の知見および技術を使用しても、さまざまな課題によりオブジェクトのトラッキングができない状況が続いており、なかでも困難なのが、ビデオ画像内のピクセルのうち、対象のボール101に間違いなく対応しているピクセルのみを正確に抽出することである。例えば、図1に示すように、ボール101を保持している手によって、ボールの一部がブロックされる。この結果、ビデオカメラによってキャプチャされるボール101の画像の形状が完全な円でなくなってしまう。ボール101を保持している手によってボールの一部がブロックされるため、特定の円のオブジェクトを検出することで機能するオブジェクトのトラッキング法は、誤りが非常に起こりやすい。
別の例では、入力をキャプチャするために、ビデオカメラによってトラッキングされるセンサを備えた手袋をユーザが着用し、ビデオカメラが、この手袋もトラッキングする場合もある。このような手袋は試されてきたものの、手袋を頻繁に着脱しなければならず不便であるため、この手袋はユーザに受け入れられていない。
このため、ユーザにとって使い勝手のよい、インタフェースオブジェクトをトラッキングするためのより信頼性の高い方法およびシステムを提供することが求められている。
大まかにいうと、本発明は、コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムおよび方法を提供することによって、このようなニーズを満たす。本発明は、方法、システムまたは装置など、多くのやり方で実装することができる点を理解されたい。以下に本発明のいくつかの発明の実施形態を記載する。
発明の第1の態様によれば、コンピューティングシステムで実行されているプログラムのコマンドをトリガするための方法が提供される。前記方法では、画像キャプチャ装置の視野が監視され、前記視野内でインタフェースオブジェクトが特定される。前記インタフェースオブジェクトは、球形オブジェクトのペアによって定義され、前記特定されたインタフェースオブジェクトの位置の変化が分析される。前記インタフェースオブジェクトの位置の変化が検出されると、前記変化によって、前記コンピューティングシステムで実行されている前記プログラムでインタフェースコマンドがトリガされ、前記トリガは前記インタフェースオブジェクトの前記検出された変化の結果である。
発明の第2の態様によれば、コンピューティングシステムで実行されているプログラムのコマンドをトリガするための方法が提供される。前記方法では、インタフェースオブジェクトが提供される。ここで、前記インタフェースオブジェクトは、ハンドルに連結されたオブジェクトによって定義され、前記ハンドルは、前記オブジェクトから延びる線に略直交する長尺部材を有する。画像キャプチャ装置の視野内に前記インタフェースオブジェクトが配置され、前記画像キャプチャ装置の前記視野内の前記インタフェースオブジェクトの位置の変化により、前記コンピューティングシステムで実行されている前記プログラムでインタフェースコマンドがトリガされる。
発明の第3の態様によれば、コンピューティングシステムで実行されているプログラムのコマンドをトリガするためのシステムが提供される。前記システムは、画像キャプチャ装置と、前記画像キャプチャ装置と通信している前記コンピューティングシステムと、を有する。前記システムは、前記画像キャプチャ装置の視野内に配置されるように構成されたインタフェースオブジェクトも更に有する。前記インタフェースオブジェクトは、ハンドルに取り付けられたオブジェクトによって定義され、前記ハンドルは、前記オブジェクトから延びる線に略直交する長尺部材を有する。前記ハンドルは、前記ハンドルを保持している手が、前記画像キャプチャ装置が前記球形オブジェクトを視界にいれる(あるいは捉える)のをブロックしないよう制限するように構成されている。
更に別の実施形態によれば、ゲームシステムが開示される。前記システムは、画像キャプチャ装置と、前記画像キャプチャ装置とインタフェースする前記コンピューティングシステムと、を有する。前記コンピューティングシステムとインタフェースするゲームコントローラも提供される。前記ゲームコントローラは、インタフェースオブジェクトとの連結が可能であり、前記インタフェースオブジェクトは、ポスト、および前記コントローラとインタフェースするコネクタを有する。前記インタフェースオブジェクトは、前記ポストの、前記コネクタに対向する端で前記ポストに連結された形状オブジェクトを有する。前記コンピューティングシステムは、前記画像キャプチャ装置によって得られた画像データの分析によって前記形状オブジェクトを捉えるように構成されており、前記画像データの前記分析は、前記コンピューティングシステム上で実行されるコンピュータプログラムによるインタラクティブなアクションをトリガするように構成されている。
更に別の実施形態によれば、ゲームコントローラが開示される。前記ゲームコントローラは、コンピューティングシステムとインタフェースするためのものである。前記ゲームコントローラは、インタフェースオブジェクトとの連結が可能であり、前記インタフェースオブジェクトは、ポスト、および前記コントローラとインタフェースするコネクタを有する。前記インタフェースオブジェクトは、前記ポストの、前記コネクタに対向する端で前記ポストに連結された形状オブジェクトを有する。前記コンピューティングシステムは、前記形状オブジェクトを捉えるように構成されたキャプチャ装置を有し、前記キャプチャ装置からの画像データの分析は、前記コンピューティングシステム上で実行されるコンピュータプログラムによるインタラクティブなアクションをトリガするように構成されている。
別の実施形態では、ゲームコントローラが提供される。前記ゲームコントローラは、人のユーザの左右の手による取り扱いに適合可能な第1面および第2面を有することが可能な本体を有する。第1端および第2端を有するポストが提供される。前記第1端は、前記本体を前記第1面と前記第2面の間に連結するためのコネクタを有する。形状オブジェクトが前記ポストの前記第2端に連結されており、前記形状オブジェクトは、前記本体が前記人のユーザによって取り扱われると、前記形状オブジェクトの空間位置および光強度の一方または両方を、画像キャプチャ装置によって認識することができる。
本発明の他の態様および利点は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。
本発明は添付の図面と併せて以下の詳細な説明を読めば容易に理解できるであろう。図面においては、同じ構造要素には同じ参照符号を付した。
コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムおよび方法について、本発明を記載する。しかし、本発明を、このような詳細な内容の一部または全てを用いなくても実施しうることは当業者にとって自明である。場合によっては、本発明を不必要にあいまいにすることのないよう、公知の処理操作は詳述していない。
ここに記載する各種実施形態は、コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムおよび方法を提供する。一実施形態では、画像キャプチャ装置によって検出されるように構成されたインタフェースオブジェクトは、変形可能なハンドルに取り付けられた球形オブジェクトのペアによって定義される。画像キャプチャ装置は、このインタフェースオブジェクトにより、2種類の移動をキャプチャすることができる。一方の移動は、画像キャプチャ装置に対するインタフェースオブジェクトの移動である。以下に更に詳しく説明するように、2番目の移動は、インタフェースオブジェクトを保持しており、インタフェースオブジェクトに圧力をかけ、球形オブジェクトのペアを互いに対して移動させる手である。別の実施形態では、インタフェースオブジェクトは、T字状のハンドルに取り付けられたオブジェクトによって定義される。以下に更に詳しく説明するように、このハンドルは、ハンドルを保持している手が、画像キャプチャ装置がオブジェクトを捉えるのをブロックしないよう制限するように構成されている。更に別の実施形態では、ゲームコントローラが提供される。ゲームコントローラは、インタフェースオブジェクトとインタフェースすることができる。コントローラのオブジェクトのインタフェースは、コントローラに一体化されていても、接続インタフェースを介してコントローラと接続できてもよい。コントローラと接続されている場合に、形状オブジェクト(球形など)に光が提供されてもよい。この光は、着色光であっても、強度が異なる光であってもよく、一部の実施形態では、この光は、インタラクティブな信号を示すか、あるいは、コンピューティングシステムとの制御操作のインタラクティブ性と連係していてもよい。このため、各種の実施形態を、図面の順序に従って説明する。しかし、これらは、記載した特許請求の範囲の趣旨ならびに広い範囲に含まれる、数多くの入れ替え、組合せおよび/または変形を示すものであるため、特定の構造または構成に限定するものではない。
図2は、本発明の一実施形態による、インタフェースオブジェクトをトラッキング可能なシステム構成全体の高水準模式図である。ゲームインタフェースシステム100は、画像キャプチャ装置104およびディスプレイ106と通信しているコンピューティングシステム102を備える。コンピューティングシステム102は、コードを実行し、画像キャプチャ装置104とインタフェースすることができる任意のコンピュータ装置(すなわちプロセッサとメモリを有する装置)を備えうる。例示的なコンピューティングシステム102は、コンピュータ、デジタルビデオディスク(DVD)プレーヤ、インテリジェント家電、ソニープレイステーション2、ソニープレイステーション3(N)、他のブランドのゲームなどのゲームコンソール、あるいは汎用コンピューティングシステムなどを備える。コンピューティングシステム102は、ユーザ108が、プログラムのグラフィックとインタフェースできるようにするプログラムを実行することができる。
画像キャプチャ装置104は、視野110内の画像のフレームを、キャプチャしてデジタル化してから、コンピューティングシステム102に転送できるようにするビデオキャプチャ装置であってもよい。画像キャプチャ装置104の例として、画像をコンピューティングシステム102に転送する際に、画像をキャプチャして、多くのフレームにデジタル化するウェブカメラタイプのビデオキャプチャ装置がある。更に、画像キャプチャ装置104は、生ビデオを連続的にキャプチャして、その後、この生ビデオをコンピューティングシステム102に転送するアナログタイプのビデオキャプチャ装置でもよく、コンピューティングシステムが生ビデオをフレームにデジタル化する。
図2に示すように、画像キャプチャ装置104は、コンピューティングシステム102上で実行されているプログラム(ビデオゲームなど)とのインタラクションを可能にするために、インタフェースオブジェクト112の移動をキャプチャするように設計されている。
例えば、ユーザ108は、プログラムとのインタラクションを可能にするために、インタフェースオブジェクト112の移動を利用することができる。詳細には、一実施形態では、ユーザ108は、ハンドルによって連結された球形オブジェクトのペアを備えたインタフェースオブジェクト112を保持している。以下に更に詳しく説明するように、ユーザ108が、2つの球形オブジェクトに圧力をかけて、握ることによって、球形オブジェクトのペアを互いに対して移動させうる。ユーザ108がインタフェースオブジェクト112を画像キャプチャ装置104の視野110内に移動させると、画像キャプチャ装置は、インタフェースオブジェクトの物理的特徴(サイズ、形、および色など)をキャプチャする。次に、ユーザ108は、手(または体の一部)を使って、インタフェースオブジェクト112の球形オブジェクトを互いに対して移動させるか、または画像キャプチャ装置104に対して移動させ、プログラムとのインタラクションを生じさせる。
画像キャプチャ装置104がインタフェースオブジェクト112の物理的特徴をキャプチャしたら、コンピューティングシステム102は、インタフェースオブジェクトの二次元または三次元の描写を計算し(このような描写には、二次元または三次元の空間におけるインタフェースオブジェクトの位置および向きなどが含まれる)、この描写が、コンピューティングシステムのメモリ内に適宜記憶される。ユーザ108がインタフェースオブジェクト112の位置および/または向きを変更すると、コンピューティングシステム102上で実行され、ディスプレイ106に表示されているプログラムとインタフェースするために、メモリ内のインタフェースオブジェクトの描写と、画像メモリのレンダリング領域内のインタフェースオブジェクトの対応する表現とが絶えず更新される。例えば、図2に示すように、インタフェースオブジェクト112を移動させることにより、ユーザ108が、プログラムのオブジェクト114(例えばカーソル、図面、ウィンドウ、メニューなど)を操作できるようにするインタフェースコマンドがトリガされる。一例として、インタフェースオブジェクト112を移動させると、マウスに似たクリックおよびドラッグ機能が可能となる。すなわち、インタフェースオブジェクト112を握るか、これを移動させるか、この両方を行うことによって、ユーザ108は、ディスプレイ106に表示されているオブジェクト114を移動させたり、またはこれを操作することができる。
図3は、本発明の一実施形態による、インタフェースオブジェクトとの併用に適したコンピューティングシステムの各種構成要素の構成を示すブロック図である。コンピューティングシステムは、本発明によるエンタテインメントシステム210全体の一構成要素であり、図3に示すように、システム全体を制御するためのマルチプロセッサユニット(MPU)212、プログラムの各種操作およびデータ記憶に使用されるメインメモリ214、幾何学処理に必要な浮動小数点のベクトル演算を実行するベクトル演算ユニット216、MPUからの制御に基づいてデータを生成すると共に、ビデオ信号をディスプレイ106(例えばCRTモニタ、液晶ディスプレイモニタなど)に出力する画像プロセッサ220、MPUまたはベクトル演算ユニットと画像プロセッサとの間の伝送バス上で調停等を実行するグラフィックインタフェース(GIF)222、周辺機器との間でデータを送受信できるようにする入出力ポート224、カーネル等の制御を実行するための、フラッシュメモリ等で構成された内部OSD機能ROM(OSDROM)226、ならびにカレンダ機能およびタイマ機能を備えたリアルタイムクロック228を備える。
メインメモリ214、ベクトル演算ユニット216、GIF222、OSDROM226、リアルタイムクロック(RTC)228および入出力ポート224は、データバス230を介してMPU212に接続されている。バス230には、圧縮済みの動画およびテクスチャ画像を伸張して、これにより画像データを展開するプロセッサである画像処理ユニット238も接続されている。例えば、画像処理ユニット238は、MPEG2またはMPEG4の標準フォーマットに従って、ビットストリームをデコードおよび展開したり、マクロブロックをデコードしたり、逆離散コサイン変換、色空間変換、ベクトル量子化などを実行する機能を担う。
サウンドシステムは、MPU212からの命令に基づいて音楽やその他の音響効果を生成するサウンド処理ユニット(SPU)271、SPUが波形データを記録するためのサウンドバッファ273、およびSPUが生成した音楽やその他の音響効果を出力するスピーカ275で構成される。なお、スピーカ275はディスプレイ106の一部として組み込まれていても、あるいは、外部スピーカ275に取り付けられた別個のオーディオライン出力接続として提供されてもよい。
バス230に接続されており、本発明に従ってデジタルデータの入出力を行うと共にデジタルコンテンツを入力する機能を備えたインタフェースである通信インタフェース240も提供される。例えば、オンラインビデオゲームアプリケーションを実現するために、この通信インタフェース240を介して、ネットワーク上のサーバ端末との間で、ユーザ入力データを送信したり、状態データを受信することができる。エンタテインメントシステム210に対してデータ(キー入力データまたは座標データなど)を入力する入力装置232(コントローラとも呼ばれる)と、各種プログラムおよびデータ(すなわちオブジェクトに関するデータ、テクスチャデータなど)を有するCD−ROMなどの光学ディスク70の内容を再生する光ディスク装置236とが入出力ポート224に接続されている。
本発明は、入力装置の機能を拡張するかこれに代わるものとして、入出力ポート224に接続された画像キャプチャ装置104を備える。入出力ポート224は、シリアルインタフェースやUSBインタフェースなどの1つ以上の入力インタフェースによって実装することができ、画像キャプチャ装置104は、画像キャプチャ装置との併用に適したUSB入力やその他の任意の従来のインタフェースを有利に利用することができる。
上記の画像プロセッサ220は、レンダリングエンジン270、インタフェース272、画像メモリ274、およびディスプレイコントローラ276(プログラム可能なCRTコントローラなど)を備える。レンダリングエンジン270は、メモリインタフェース272を介して、かつMPU212から送られるレンダリング命令に従って、所定の画像データを画像メモリにレンダリングする処理を実行する。レンダリングエンジン270は、例えば、NTSC方式またはPAL方式に準拠し、より詳細には、1/60秒〜1/30秒の間隔で10〜数何十回を越えるレートで、320×240ピクセルまたは640×480ピクセルの画像データをリアルタイムに描画できる機能を備える。
メモリインタフェース272とレンダリングエンジン270との間にバス278が接続されており、メモリインタフェース272と画像メモリ274との間に第2バス280が接続されている。第1バス278と第2バス280のビット幅は、例えばそれぞれ128ビットであり、レンダリングエンジン270は、画像メモリに対して高速レンダリング処理を実行することができる。画像メモリ274は、一元化された記憶構造を採用しており、この構造では、例えば、テクスチャレンダリング領域とディスプレイレンダリング領域とを一元化された領域に設定することができる。
ディスプレイコントローラ276は、光ディスク装置236によって光ディスク70から取得したテクスチャデータ、またはメインメモリ214に作成されたテクスチャデータを、メモリインタフェース272を介して画像メモリ274のテクスチャレンダリング領域に書き込むように構成されている。画像メモリ274のディスプレイレンダリング領域にレンダリングされた画像データは、メモリインタフェース272を介して読み出されて、ディスプレイ106に出力され、画像データがその画面に表示される。
図4は、本発明の一実施形態による、ユーザがインタフェースオブジェクトを操作しているときに、インタフェースオブジェクトに対応するピクセル群をトラッキングして判別するための機能ブロックを示すブロック図である。ブロックが表している諸機能は、コンピューティングシステムのMPUによって実行されるソフトウェアによって実装される点を理解されたい。更に、図4のブロックが表している機能の全てが、各実施形態で使用されるとは限らない。
最初に、画像キャプチャ装置104から入力されたピクセルデータが、入出力ポートインタフェースを介してコンピューティングシステムに送られ、これにより、以下に記載するプロセスがコンピューティングシステムで実行されうる。まず、画像の各ピクセルが、例えばラスタベースでサンプリングされると、色分離処理操作301が実行される。これにより、各ピクセルの色が決定されて、画像が、色の異なるさまざまな二次元セグメントに分割される。次に、特定の実施形態では、色遷移定位操作303が実行される。これにより、色の異なるセグメントが隣接している領域がより詳細に決定されて、はっきりと色が遷移している画像の位置が特定される。次に、幾何学処理305の操作が実行される。この操作では、実施形態に応じて、端縁検出プロセスまたは面積の統計値(area statistics)の計算の実行が行われて、対象のオブジェクトの端縁に相当する線、曲線および/または多角形が代数的または幾何学的に定義される。例えば、図2に示すインタフェースオブジェクトの実施形態では、ピクセル領域には、インタフェースオブジェクトの直交正面像に対応する2つの略円形の形状が含まれる。この円形状の代数的または幾何学的な表現から、インタフェースオブジェクトに対応するピクセル群の中心、半径および向きを定義することができる。
図4を参照すると、操作307で、アルゴリズムに従ってオブジェクトの三次元の位置および向きが計算される。このアルゴリズムについては、本発明の好ましい実施形態に関して後述する。性能向上のため、三次元の位置および向きのデータに対して、カルマン(Kalman)フィルタリング処理操作309が実行される。この処理を実行するのは、所定の時点においてオブジェクトが存在するであろう位置を概算して、起こり得ず、このため正しいデータ群から外れていると考えられる誤った測定値を除去するためである。カルマンフィルタリングを実行するもう1つの理由は、画像キャプチャ装置104は画像を30Hzで生成するが、一般的なディスプレイは60Hzで動作するため、カルマンフィルタリングによって、ゲームプログラムの動作の制御に使用するデータの不足分を埋めるためである。カルマンフィルタリングによる離散データのスムージングは、コンピュータビジョンの分野では公知であり、ここで詳述しない。
図5A,Bは、本発明の一実施形態による、図2に示したインタフェースオブジェクトをより詳細に示す模式図である。図5Aに示すように、インタフェースオブジェクト112は、ハンドル404によって互いに連結された球形オブジェクト402のペアを備える。球形オブジェクト402のそれぞれは球形の本体を有しており、この本体は、中実であっても中空であってもよい。球形オブジェクト402は、適切な材料であればどのような材料でもよい。代表的な材料には、プラスチック、木、セラミック、金属などがある。更に、球形オブジェクト402の表面が、任意の適切な色またはパターンを有していてもよい。例えば、球形オブジェクト402が、球形オブジェクトを容易に特定できるように、暗い背景とはっきり対照をなす白であってもよい。更に、画像キャプチャ装置がパターンの向きをキャプチャして、コンピューティングシステムが、画像キャプチャ装置に対する球形オブジェクトの向きを決定できるように、球形オブジェクト402の表面にパターンが付されていてもよい。
ハンドル404は、2つの球形オブジェクト402を連結する変形可能な部材であれば、どのようなものでもよい。例えば、一実施形態では、ハンドル404は、2つの対向する端を有し、これにより、それぞれの端が、1つの球形オブジェクト402に連結されている変形可能なU字状部材であってもよい。インタフェースオブジェクト112を保持している手が、球形オブジェクト402のペアをブロックしないよう制限するために、ハンドル404は、球形オブジェクトから離れて延在し、一実施形態では、ハンドルはユーザの手のひらにフィットするように設計されている。ハンドル404は、圧力をかけると変形し、圧力が解放されると元の形に復元する材料であれば、どのような材料から形成されてもよい。代表的な変形可能材料には、プラスチック、金属、木などがある。
図5Bは、インタフェースオブジェクト112に圧力をかけている状態を示す。力406(すなわち圧力)をかけることで、球形オブジェクト402のペアが互いに対して移動する。例えば、図5Bに示すように、ハンドル404または球形オブジェクト402に力406をかけると、球形オブジェクトのペアが、反対方向から互いに近づく。あるいは、力406が解放されると、ハンドル404が、力の解放に伴って元の形状に戻るため、球形オブジェクト402のペアが、反対方向に互いに離れる。
図6は、本発明の一実施形態による、画像キャプチャ装置の視野内にある状態の、図5A,5Bに示したインタフェースオブジェクトの模式図である。図6に示すように、インタフェースオブジェクト112が、画像キャプチャ装置104の視野502内に配置されている。インタフェースオブジェクト112は、X、YおよびZの各方向に移動および/または回転することができる。インタフェースオブジェクト112が視野502内にありさえすれば、画像キャプチャ装置104は、ほぼどの方向、どの角度でも、球形オブジェクト402のペアの円形状を検出する。換言すれば、各オブジェクト402は球形であるため、球形オブジェクトは、X軸、Y軸およびZ軸のどの方向、どの角度からみても円形状を有する。例えば、図6に示すように、画像キャプチャ装置104は、球形オブジェクト402のペアが、XZ平面に沿って垂直に並んでいる状態で、インタフェースオブジェクト112の直交正面像に対応する2つの略円形の形状を検出する。図6に示すように、インタフェースオブジェクト112がXY平面に沿って90°時計回りに回転してもなお、画像キャプチャ装置104は2つの略円形の形状を検出する。球形オブジェクト402は、異なる方向および角度からみても形状が歪まないため、2つの円形状を検出して、インタフェースオブジェクト112を単純にトラッキングすることができる。
図7は、本発明の一実施形態による、図5A,5Bに示したインタフェースオブジェクトを使用して、コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムの模式図である。図7に示すように、画像キャプチャ装置104は、コンピューティングシステム102と通信しており、コンピューティングシステム102はディスプレイ106と通信している。インタフェースオブジェクト112が画像キャプチャ装置104の視野内に与えられると、画像キャプチャ装置はインタフェースオブジェクトを検出する。インタフェースオブジェクト112は、X方向、Y方向およびZ方向でトラッキングされて、コンピューティングシステム102上で実行されているプログラムのイベントをトリガできるように構成されている。インタフェースオブジェクト112は、前述のように色および/または円形状によってトラッキングすることができる。すなわち、インタフェースオブジェクト112は、画像キャプチャ装置104の視野内にあるときに、検出可能な特徴的な色と、特徴的な円形状とを有しうる。一実施形態では、インタフェースオブジェクト112は、手のひらのなかにフィットすることができる。このため、インタフェースオブジェクト112に圧力をかけると、インタフェースオブジェクトの球形オブジェクトのペアが、XZ平面に沿って反対方向から互いに近づき、この位置の変化が画像キャプチャ装置104によって検出される。逆に、画像キャプチャ装置104は、圧力が解放されると、球形オブジェクトが、XZ平面に沿って反対方向に互いに離れることを検出しうる。更に、手により、インタフェースオブジェクト112を、画像キャプチャ装置104に対して、X方向、Y方向およびZ方向に沿って移動させうる。例えば、X方向に沿ったインタフェースオブジェクト112の位置の変化を検出するために、画像キャプチャ装置104によってキャプチャされたインタフェースオブジェクトの球形オブジェクトのサイズが、事前にプログラムされている基準サイズと比較されて、画像キャプチャ装置に対するインタフェースオブジェクトの距離が決定されうる。この検出された位置の変化がコンピューティングシステム102に伝達されて、この結果、コンピューティングシステム上で実行され、ディスプレイ106に表示されているプログラムでインタフェースコマンドがトリガされる。例えば、ディスプレイ106に表示されているプログラムのオブジェクト(画像604または点602など)を選択したり、これにアクセスしたり、これを移動させたりできるように、インタフェースオブジェクト112を、マウスと同様に使用することができる。
一実施形態では、点602で画像604をグラブして、自由にドラッグしたり操作したりすることができる。インタフェースオブジェクト112がマウスと同様の機能を実現する任意の数の適切な操作を実行できることを当業者は理解されよう。当然、インタフェースオブジェクト112を使用して、マウスに似た機能を必要とするビデオゲームや、その他の適したインタラクティブゲームをプレイすることができる。一実施形態では、インタフェースオブジェクト112の球形オブジェクト同士の相対移動が、ディスプレイ106に表示されているオブジェクト(画像604および点602など)を選択させるマウスクリックと同様のインタフェースコマンドをトリガする。更に、インタフェースオブジェクト112の位置を、画像キャプチャ装置104に対して、X方向、Y方向およびZ方向に移動すると、ディスプレイ106に表示されているオブジェクトが移動されうる。例えば、インタフェースオブジェクト112を移動させると、ディスプレイ106で画像604が移動される。本明細書に記載したマウスに似た機能を適用できる用途が数多く存在することを当業者は理解されよう。
図8A,8B,8Cは、インタフェースオブジェクトの別の実施形態の模式図である。図8Aに示すように、インタフェースオブジェクト112は、ハンドル706に連結されたオブジェクト704を備える。この実施形態では、ハンドル706は、オブジェクト704から延びる線と略直交する第1の長尺部材732のほか、2つの対向する端を有する第2の長形部材730を更に備える。このうちの一方の端が第1の長尺部材の略中間地点に連結され、もう一方の端がオブジェクトに連結されている。したがって、一実施形態では、ハンドル706はT字状であると定義される。ここで使用しているように、「実質的」および「略」との文言は、特定の用途について、特定の寸法またはパラメータが、製造許容差内で変わってもよいことを指す。一実施形態では、製造許容差は+25%である。ハンドル706は、適切な材料であればどのような材料でもよい。代表的な材料には、プラスチック、木、セラミック、金属などがある。
図8Aに示すように、オブジェクト704は、形状が球形状であってもよい。しかし、オブジェクト704は、球形に限定されず、任意の適切な形状を有することができる。例えば、図8Cに示すように、オブジェクト704は立方体でもよい。オブジェクト704の代表的な形状には、このほか、ドーム、半球、角錐、半立方体などがある。オブジェクト704の表面が、任意の適切な色またはパターンを有していてもよい。例えば、オブジェクト704が、オブジェクトを容易に特定できるように、白い背景とはっきり対照をなす黒であってもよい。一実施形態では、オブジェクト704は色が変わってもよい。例えば、図8Aに示すように、オブジェクト704は、ある色を有する。しかし、図8Bに示すように、ボタン710が押されると、ボタンにより、オブジェクト704の色が変化する。一実施形態では、変色は、オブジェクト704内に色光源(例えば発光ダイオード(LED)のライトなど)を設けることによって容易に行うことができる。オブジェクト内で着色光を発するように着色光源が駆動されると、オブジェクト704の色が変化する。更に、オブジェクト704の表面がパターンを有し、画像キャプチャ装置に対するオブジェクトの向きを決定するために、パターンの向きを検出できるようになっていてもよい。パターンは、適切であればどのような形状、色およびサイズであってもよい。例えば、図8Cに示すように、立方体の各表面が、L字状のパターン712を有する。それぞれのL字状パターン712は色と向きが異なっており、画像キャプチャ装置が色とパターンを検出することで、コンピューティングシステムが、画像キャプチャ装置に対するインタフェースオブジェクト112の向きおよび位置を決定できるようになる。
図9A,9Bは、図8A〜8Cに示したインタフェースオブジェクトを保持している手の模式図である。図9A,9Bに示すように、インタフェースオブジェクト112が、画像キャプチャ装置104の視野内に配置されている。インタフェースオブジェクト112を保持している手903が、オブジェクト704をブロックしないように、ハンドル706が設けられている。つまり、ハンドル706は、画像キャプチャ装置104がオブジェクト704を視界にいれて捉えることをハンドルを保持している手903がブロックしないように制限する。手903がオブジェクト704をブロックしないよう制限するために、ハンドル706はオブジェクトから離れて延在しており、オブジェクト704から延びる線と略直交する部材を備える。したがって、インタフェースオブジェクト112を保持している手903は、オブジェクト704から所定の距離、離間した状態に保たれる。すなわち、手903は、オブジェクト704を保持せず、4本の指が長尺部材とてのひらを包み込むように、自然にハンドル706を持つ。親指は、長尺部材の端の一方に置かれうる。手903は、図9Aに示すように、オブジェクト704が上を向くようにインタフェースオブジェクト112を保持するか、あるいは、図9Bに示すように、オブジェクトが画像キャプチャ装置104のほうを向くようにインタフェースオブジェクトを保持しうる。
図10A〜10Dは、画像キャプチャ装置の視野内にある状態の、図8A〜8Cに示したインタフェースオブジェクトの模式図である。上で説明したように、ハンドルは、インタフェースオブジェクト112を保持している手がハンドルに連結されたオブジェクトをブロックしないよう制限するように構成されている。つまり、手に自然にハンドルを保持させることで、ユーザが画像キャプチャ装置104の視野502内でインタフェースオブジェクト112を保持しているときに、ハンドルに連結されたオブジェクトがブロックされてみえなくなることが一般に防げる。例えば、図10Aは、ユーザが、インタフェースオブジェクト112を画像キャプチャ装置104のほうに直接向けている状態を示す。インタフェースオブジェクト112のハンドルを保持している手がハンドルに取り付けられたオブジェクトの後ろにあるため、画像キャプチャ装置104は、オブジェクトを妨害されずに視界にいれ、捉えることができる。図10Bは、ユーザが、腕を前腕に実質的に垂直にして、インタフェースオブジェクト112を保持している状態を示す。この角度では、手がオブジェクトの下にあるため、インタフェースオブジェクト112を保持している手がハンドルと連結されているオブジェクトをブロックすることはない。したがって、画像キャプチャ装置104は、この場合も、この角度でオブジェクトを妨害されずに捉えることができる。更に、図10Cは、ユーザが、腕と前腕を床に向けてインタフェースオブジェクト112を保持している状態を示す。この角度では、手がオブジェクトの後ろにあるため、インタフェースオブジェクト112を保持している手がハンドルと連結されているオブジェクトをブロックすることはない。このため、画像キャプチャ装置104は、インタフェースオブジェクト112が床を向いている場合であってもオブジェクトを妨害されずに捉えることができる。
しかし、ハンドルは、画像キャプチャ装置104の視野502内に配置されているときに、ハンドルに取り付けられたオブジェクトがブロックされるのを完全には防ぐことはできない。図10Dに示すように、インタフェースオブジェクト112がブロックされてみえなくなる可能性のある腕の位置の1つが、腕と肘を直接画像キャプチャ装置104に向けている状態である。前腕が曲がり、インタフェースオブジェクト112がユーザの肩の後ろにある。したがって、この1つの腕位置では、インタフェースオブジェクト112が、画像キャプチャ装置104から遠ざけて向けられ、インタフェースオブジェクトが肘と前腕の後ろにある。このため、この腕の角度では、肘と前腕が、画像キャプチャ装置104の視野からインタフェースオブジェクト112をブロックしている。
図11Aは、ゲームコントローラ1102が、オブジェクト1112が連結されているインタフェースオブジェクト1104に取り付けるためのコネクタ1114を有する例示的な1100を示す。オブジェクト1112は、後述するように、コンピューティングシステムとのインタフェースを複数選択できるように構成されうる。一実施形態では、コネクタ1114は、係合コネクタ1106に取り付けられる。係合コネクタ1106では、コネクタ1114を囲むかまたはこれを支えるクリップまたはラッチ機構は、コントローラ1102にある係合コネクタ1106と接続されると、更に機械的に安定させることが可能である。別の実施形態では、係合コネクタ1106は、ユニバーサルシリアルバス(USB)ポート(USB接続のメスコネクタなど)などの機械電気的接続機構を有する。相手側の係合コネクタ1114が、インタフェースオブジェクト1104の一端に提供されている。一実施形態では、相手側の係合コネクタ1114は、USBポート(USB接続のオスコネクタなど)であってもよい。別の実施形態では、各種アクセサリを接続するために、ゲームコントローラ1102に2つのミニUSBポート1106,1108が設けられてもよい。アクセサリの例には、ビデオゲームシステムまたは一般的なコンピューティングシステムに適した振動装置、音声入力装置、足踏み式ペダル、その他のアクセサリなどがあるが、これらに限定されない。このため、一実施形態では、インタフェースオブジェクト1104は、ゲームコントローラ1102のアクセサリとして提供され、所望のインタフェースの実装に応じて着脱することができる。
係合コネクタ1106がミニUSBポートなどの通信ポートを備えている場合には、インタフェースオブジェクト1104に追加のインタラクティブ機能を提供することができる。例えば、インタフェースオブジェクト1104が、LEDなどの光電気イルミネータおよび/またはスピーカなどの音声発生装置を備えうる。例示的な実施形態では、インタフェースオブジェクト1104が、ゲームコントローラ1102を介してコンピューティングシステム102と電気的通信を行っており(図2)、このため、コンピューティングシステム102上で実行されているプログラムにインタラクティブに反応しうる(図2)。
一実施形態では、ポスト1110は、硬質または半硬質であり、ジョイント、ヒンジを有していても、破損することなく曲がるように、弾性的に変形可能であってもよい。例えば、ポスト1110は、粘弾性を有するプラスチック材料から形成されるか、または弾性スプリングの内部を有する軟性プラスチックから形成されうる。オブジェクト1112が照明手段を有する実施形態では、ポスト1110は、中空であるか、オブジェクト1112からインタフェースオブジェクトコネクタ1114まで延びる電気導体のまわりに成型され(図15を参照)、例えば、ミニUSBプラグである。このため、ポスト1110は、オブジェクト1112からコネクタ1114に延びる長尺部材であってもよい。
一実施形態では、オブジェクト1112は、オブジェクト1112内の照明手段がオブジェクト1112を照明するように、半透明のプラスチック材料の楕円体であってもよい。多色および/または変調のLEDデバイスを使用することにより、ゲームコントローラ1102または関連するコンピューティング装置から(有線または無線で)受け取ったデータに応じて、オブジェクト1112を、明るさをさまざまに変えて、異なる色で照明することができる。オブジェクト1112、コネクタ1114、ポスト1110内に、あるいは、コントローラ1102、コネクタ1114またはポスト1110の異なる部分に沿って、回路(図15)を設けることができる。一実施形態では、この回路は、受信したデータを解釈して、所望の色と明るさを発生させるために、イルミネータに適切な電圧を給電する。得られる色および/または明るさが、変調されたり、コンピュータプログラムまたはゲームのシーケンスとのインタラクティブなインタフェースに応じて起動されうる。
図11Bは、等角コネクタ1114’を有する別のコントローラ1102を示す。一例では、等角コネクタ1114’は、コントローラへ留まるクランプのように機能する。別の実施形態では、等角コネクタ1114’は、コントローラ1102の正面領域と係合するように構成されている。等角コネクタ1114’にはオスUSBコネクタ1115が設けられており、このコネクタ1115は、コントローラ1102の正面にあるメスコネクタ(図示せず)に挿入される。等角コネクタ1114’は、コントローラ1102の正面にぴったり安定して係合するように、適切なクリップ構造を備えて構成されている。このようにして、プレーヤ/ユーザがゲームプレイ中に興奮して、時にはコントローラ1102を用いたプレイが多少乱暴になったとしても、インタフェースオブジェクト1104は、ほぼ安定して、コントローラ1102の正面に取り付けられている状態を保つ。
インタフェースオブジェクト1104をコントローラ1102に取り付ける方法を示すために、例示的な形状と構造を示したが、インタフェースオブジェクト1104を固定する他の方法を提供することができることを理解すべきである。更に、USB以外の他のタイプの電気通信コネクタも可能であり、コントローラ1102とインタフェースオブジェクト1104間で電気信号を伝達するために、他の特殊コネクタ、専用コネクタ、カスタムコネクタおよび標準のコネクタを使用してもよいことを理解すべきである。
図12A,12Bは、ゲームコントローラ1102の背面1202にある、少なくとも1つの背面コネクタ1204,1206で接続が行われる別の実施形態を示す。一実施形態では、インタラクティブオブジェクト1104(図11)が背面コネクタ1204または1206に接続され、インタラクティブオブジェクト1104のポスト1110がゲームコントローラ1102から水平に延びている。別の実施形態では、ゲームコントローラ1204は、図12Bに分解した形で示すように、ポスト1110がコネクタ1114”から垂直に上に延びることができるように、90°(または他の任意の適切な角度)の曲げを有する。
図13Aでは、ゲームインタフェースシステム1300は、画像キャプチャ装置104と電気的に通信しているコンピューティングシステム102を備え、このため、図2を参照して上で説明したように、コンピューティングシステム102は、画像キャプチャ装置104からビデオ画像データを受け取る。この実施形態では、ユーザ1308は、インタフェースオブジェクト1104が取り付けられているゲームコントローラ1102を操作している。上で説明したように、インタフェースオブジェクト1104は、ゲームプログラムまたは一般のコンピュータによって実行されるプログラムなどの、コンピューティングシステム102上で実行されているアプリケーションプログラム内のアクションに反応しうる。
一例として、ゲームプログラムがフライトシミュレーションプログラムの場合、インタフェースオブジェクト1104は、ミサイルが搭載されているとき、燃料残量が低下したとき、または標的に照準を定めたときに、色を変えたり、点滅したり、変調したりする。更に、インタフェースオブジェクト1104が画像キャプチャ装置104の視野に入っていれば、インタフェースオブジェクトの移動が、画像キャプチャ装置104から受信されたビデオ画像データから解釈されうる。このため、フライトシュミレータの例では、ゲームコントローラ1102の移動が、航空機の操縦やその他の操作に使用される一方で、ゲームコントローラ1102のボタンや、ジョイスティック、その他の制御装置は、例えば、カメラアングルを選択または変更したり、武器のタイプを選択するなど、さまざまなシステムを起動するのに使用されうる。
一実施形態では、ゲームコントローラ1102は、図13Aに示すようにコンピューティングシステム102と無線通信する。例えば、ゲームコントローラ1102は、コンピューティング装置102と無線で通信するための無線Wi−Fi IEEE 802.11x対応の無線トランシーバ、あるいは赤外(IR)モジュレータを備え、この場合、コンピューティング装置102は、互換の赤外線トランシーバまたはセンサユニット(図示せず)を備える。別の実施形態では、ゲームコントローラ1102は、画像キャプチャ装置104を介してユーザーコマンドをコンピューティング装置102に伝送するために、コントローラにあるインタラクティブオブジェクト1104またはほかの発光素子(図示せず)を使用して、視覚により通信する。この技術に関する更に詳しい詳細は2006年5月4日出願の、関連米国特許出願第11/429,414号「強度のコンピュータ画像および音声処理、ならびにコンピュータプログラムとインタフェースするための入力装置(Computer Image And Audio Processing of Intensity And Input Devices For Interfacing With A Computer Program)」に記載されている。同出願を、参照により援用する。
動作時に、画像キャプチャ装置104は視野を撮像し、画像キャプチャ装置104が捉えている視覚的視野を表すビデオデータを送信する。コンピューティング装置102は、このビデオデータを解釈して、ビデオフレームに対するインタラクティブオブジェクト1104の位置を特定する。次に、この位置情報が、データを要求しているプログラムまたはソフトウェアルーチンに送信されうる。別の実施形態では、画像キャプチャ装置104は、画像キャプチャ装置104の内部的な画像データを解釈して、次に、インタラクティブオブジェクト1104を特定するために、視野の位置情報をコンピューティング装置102に送信するマイクロプロセッサまたはデジタル信号処理装置を備える。図13Bは、図13Aの無線接続の代わりに、ケーブルを介してコントローラ1102がコンピューティング装置102に接続されている例1300’を示す。この例では、ワイヤが別のUSB接続を介してコントローラに接続されていても、接続がコントローラに一体化されていてもよい。
図14Aは、コントローラ1102の本体の異なる部分にインタフェースオブジェクト1104を接続することができるコントローラ1102を示す。この例では、2つのインタフェースオブジェクト1104を有することで、コンピューティング装置102が、空間位置1400を決定することが可能となる。空間位置1400の例には、上述したフライトシミュレーションプログラムで使用されるようなチルト、ロール、およびヨーがある。ポスト1110のコントローラ1102への接続は、USB接続、または電気線、配線、音声、光または一般的な信号伝達の1つ以上を可能にするその他の接続を介したものであってよい。図14Bの例では、インタフェースオブジェクト1114aにクロスポスト1110’構成が提供されている。図に示すように、クロスポスト1110’は、2つのオブジェクト1112に連結することができる。クロスポスト1110’は一例に過ぎず、ほかのポスト構成も可能である。
図14C,14Dは、そのような他のポストの構成を示す。例えば、図14Cにおいて、ポスト1110”は完全な十字の構成を提供し、図14Dでは、ポスト1110’”は可撓部材を提供する。このため、オブジェクト1112は、ポストを介してインタフェースして、前述の追加の位置情報を提供することができる。
図15は、ポスト1110がコネクタ1114とオブジェクト1112を接続している一例を示す。オブジェクト1112の内部に、色の光の駆動、制御および切替を行う回路1502が設けられている。別の例では、回路が、コントローラ1102またはコンピューティング装置102に設けられてもよい。回路がオブジェクト1112の中にある場合、回路1502は発光ダイオード(LED)1504,1506を有しうる。LED1504と1506の色は、同じであっても、異なっていてもよい。LED1504,1506は、互いに独立して、変調されたり、光の強度を変えたり、動作することができる。回路1502は、スピーカを備えるか、またはスピーカ1509とインタフェースすることができる。スピーカは、インタラクティビティの実装に応じて、光と同期して音を出力するか、あるいは、独立して音または振動を発生させるように駆動されうる。
図16は、本発明の一実施形態による、図8A〜8Cに示したインタフェースオブジェクトを使用して、コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムの模式図である。図11に示すように、画像キャプチャ装置104は、コンピューティングシステム102と通信しており、コンピューティングシステム102はディスプレイ106と通信している。インタフェースオブジェクト112が画像キャプチャ装置104の視野内に与えられると、画像キャプチャ装置はインタフェースオブジェクトを検出する。インタフェースオブジェクト112は、X方向、Y方向およびZ方向でトラッキングされて、ディスプレイに表示されるイベントをトリガできるように構成されている。インタフェースオブジェクト112は、前述のように色および/または形状によってトラッキングすることができる。すなわち、インタフェースオブジェクト112は、画像キャプチャ装置104の視野内にあるときに、検出可能な特徴的な色と、特徴的な形状とを有しうる。インタフェースオブジェクト112を保持している手が、インタフェースオブジェクトを、画像キャプチャ装置104に対して、X方向、Y方向およびZ方向に沿って移動させうる。更に、インタフェースオブジェクト112は色を変えうる。画像キャプチャ装置104は、この位置と色の変化を検出することができ、検出されたこの変化が、コンピューティングシステム102に伝達される。この結果、コンピューティングシステム上で実行され、ディスプレイ106に表示されているプログラムでインタフェースコマンドがトリガされる。例えば、ディスプレイ106に表示されているオブジェクト(画像604または点602など)を選択したり、これにアクセスしたり、これを移動させたりできるように、インタフェースオブジェクト112を、マウスと同様に使用することができる。一実施形態では、インタフェースオブジェクト112の色の変化が、ディスプレイ106に表示されているオブジェクト(画像604および点602など)を選択させるマウスクリックと同様のインタフェースコマンドをトリガする。更に、インタフェースオブジェクト112の位置を、画像キャプチャ装置104に対してX方向、Y方向およびZ方向に移動すると、ディスプレイ106に表示されているオブジェクトが移動される。このため、インタフェースオブジェクト112を使用して、点602において画像604をグラブして、この画像を自由にドラッグしたり操作することができる。この場合も、本明細書に記載したマウスに似た機能を適用できる用途が数多く存在することを当業者は理解されよう。
図17は、本発明の一実施形態による、コンピューティングシステムで実行されているプログラムのコマンドをトリガする方法操作のフローチャート図である。操作1702で開始し、画像キャプチャ装置の視野がモニタされる。インタフェースオブジェクトが提供され、画像キャプチャ装置の視野内に配置される。上で説明したように、一実施形態では、インタフェースオブジェクトは、球形オブジェクトのペアによって定義される。別の実施形態では、インタフェースオブジェクトは、ハンドルに取り付けられたオブジェクトによって定義され、ハンドルは、オブジェクトから延びる線に略直交する長尺部材を有する。
図17に示すように、インタフェースオブジェクトが視野内で特定されて(1704)、インタフェースオブジェクトの位置または色の変化が検出されうる(1706)。上で説明したように、一実施形態では、位置の変化は、画像キャプチャ装置に対するインタフェースオブジェクトの移動であり、別の実施形態では、インタフェースオブジェクトの球形オブジェクトのペアの互いに対する移動でもよい。更に、一実施形態では、色の変化は、インタフェースオブジェクト内で着色光を発光させることで容易に行うことができる。操作1708において、位置または色の変化によって、コンピューティングシステム上で実行されているプログラムでインタフェースコマンドがトリガされる。代表的なインタフェースコマンドには、ディスプレイ上のオブジェクトの選択、ディスプレイ上のオブジェクトの移動、コンピュータプログラムの起動などがある。
以上まとめると、上記の発明は、コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムおよび方法を提供する。一実施形態では、インタフェースオブジェクトは、球形オブジェクトのペアによって定義される。ハンドルは、画像キャプチャ装置が球形オブジェクトのペアを捉えるのをブロックしないようにハンドルを保持している手を制限する。各球形オブジェクトは、どの方向、どの角度からみても円形状の形状を有する。1つ以上の球形オブジェクトは、完全に球形でも、そうでなくてもよい。球形オブジェクトは、異なる方向および角度からみても形状が歪まないため、画像キャプチャ装置は、妨害のない円形状を検出することによって、インタフェースオブジェクトを確実にトラッキングすることができる。しかし、オブジェクトが円形でない場合にも、オブジェクトの形状を検出することができ、このため、他の形状も想定される。別の実施形態では、インタフェースオブジェクトは、T字状のハンドルに連結されたオブジェクトによって定義される。手は、当然、オブジェクトを保持せずに、画像キャプチャ装置が捉えているオブジェクトを手がブロックしにくいようにハンドルを保持する。ユーザは、インタフェースコマンドをトリガするために、ハンドルを把握して、対応するインタフェースオブジェクトを、画像キャプチャ装置の視野内に保持させるだけでよいため、上記のインタフェースオブジェクトにより、ユーザは、インタフェースオブジェクトを使い勝手よく使用および保持できるようになる。オブジェクトは、ビデオゲームのプレイで使用されるコントローラに接続することもできる。オブジェクトは、コネクタを介してインタフェースされ、オブジェクトは、追加のインタラクティブに検出可能な視覚、音声、構成または位置を提供する、光、音声またはその他の効果によって給電されうる。
上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されたデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作は、物理量の物理的操作を必要とする。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。更に、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。
本発明は、また、計算機可読媒体上の計算機可読コードとして実施されてもよい。計算機可読媒体は、コンピュータシステムによって後から読取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものであってもよい。計算機可読媒体には、コンピュータコードが実装される電磁搬送波も含まれる。計算機可読媒体の例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、計算機可読媒体は、計算機可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。
本発明の一部を構成している、本明細書に記載した操作はいずれも、有用な機械的操作である。本発明は、これらの操作を実行するデバイスまたは装置にも関する。この装置は、所望の目的のために特別に作製されたものであっても、あるいは汎用コンピュータであり、そのコンピュータに記憶されているコンピュータプログラムによって選択的に作動もしくは構成されてもよい。特に、各種の汎用の機械を、本明細書の教示に従って記述したコンピュータプログラムと併用してもよく、あるいは所望の操作を実行するために特化した機械を作製するほうが利便性が高いこともある。
上記した発明は、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成によって実施されてもよい。上記に、本発明を明確に理解できるように多少詳細に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。特許請求の範囲において、各種構成要素および/またはステップの順序は、請求項に明示的に記載されていない限り、特定の操作の順序を示すものではない。
従来のインタフェースオブジェクトを保持しているユーザの手の説明図である。 本発明の一実施形態による、インタフェースオブジェクトをトラッキング可能なシステム構成全体の高水準説明図である。 本発明の一実施形態による、インタフェースオブジェクトとの併用に適したコンピューティングシステムの各種構成要素の構成を示すブロック図である。 本発明の一実施形態による、ユーザがインタフェースオブジェクトを操作しているときに、インタフェースオブジェクトに対応するピクセル群をトラッキングして判別するための機能ブロックを示すブロック図である。 本発明の一実施形態による、図2に示したインタフェースオブジェクトをより詳細に示す説明図である。 本発明の一実施形態による、図2に示したインタフェースオブジェクトをより詳細に示す説明図である。 本発明の一実施形態による、画像キャプチャ装置の視野内にある状態の、図5A,5Bに示したインタフェースオブジェクトの説明図である。 本発明の一実施形態による、図5A,5Bに示したインタフェースオブジェクトを使用して、コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムの説明図である。 インタフェースオブジェクトの別の実施形態の説明図である。 インタフェースオブジェクトの別の実施形態の説明図である。 インタフェースオブジェクトの別の実施形態の説明図である。 図8A〜8Cに示したインタフェースオブジェクトを保持している手の説明図である。 図8A〜8Cに示したインタフェースオブジェクトを保持している手の説明図である。 画像キャプチャ装置の視野内にある状態の、図8A〜8Cに示したインタフェースオブジェクトの説明図である。 画像キャプチャ装置の視野内にある状態の、図8A〜8Cに示したインタフェースオブジェクトの説明図である。 画像キャプチャ装置の視野内にある状態の、図8A〜8Cに示したインタフェースオブジェクトの説明図である。 画像キャプチャ装置の視野内にある状態の、図8A〜8Cに示したインタフェースオブジェクトの説明図である。 本発明の一実施形態による、コンピュータプログラムとのインタフェースに使用することができる、コントローラに接続されたインタフェースオブジェクトの例を示す。 本発明の一実施形態による、コンピュータプログラムとのインタフェースに使用することができる、コントローラに接続されたインタフェースオブジェクトの例を示す。 本発明の一実施形態による、1つ以上のインタフェースオブジェクトをコントローラに接続するための代替の接続面の例を示す。 本発明の一実施形態による、1つ以上のインタフェースオブジェクトをコントローラに接続するための代替の接続面の例を示す。 本発明の一実施形態による、コンピューティング装置との通信を検出する際に、インタフェースオブジェクトと接続されているコントローラの例を示す。 本発明の一実施形態による、コンピューティング装置との通信を検出する際に、インタフェースオブジェクトと接続されているコントローラの例を示す。 本発明の一実施形態による、1つ以上のインタフェースオブジェクトをコントローラに接続するための別例を示す。 本発明の一実施形態による、1つ以上のインタフェースオブジェクトをコントローラに接続するための別例を示す。 本発明の一実施形態による、1つ以上のインタフェースオブジェクトをコントローラに接続するための別例を示す。 本発明の一実施形態による、1つ以上のインタフェースオブジェクトをコントローラに接続するための別例を示す。 本発明の一実施形態による、インタフェースオブジェクトのオブジェクトに一体化することができる回路、スピーカおよび光デバイスを示す。 本発明の一実施形態による、図8A〜8Cに示したインタフェースオブジェクトを使用して、コンピューティングシステム上で実行されているプログラムのコマンドをトリガするためのシステムの説明図である。 本発明の一実施形態による、コンピューティングシステムで実行されているプログラムのコマンドをトリガする高水準の方法操作のフローチャート図である。

Claims (43)

  1. コンピューティングシステムで実行されているプログラムのコマンドをトリガするための方法であって、
    キャプチャ装置の視野を監視するステップを有し、
    前記視野内で、球形オブジェクトのペアによって定義されるインタフェースオブジェクトを特定するステップであって、前記特定されたインタフェースオブジェクトの位置の変化が分析されるものであるステップを有し、
    前記インタフェースオブジェクトの前記位置の変化を検出するステップを有し、
    前記コンピューティングシステムで実行されている前記プログラムでインタフェースコマンドをトリガするステップであって、前記トリガは前記インタフェースオブジェクトの前記変化が検出された結果発生するものであるステップを有する方法。
  2. 前記画像キャプチャ装置に対する前記インタフェースオブジェクトの向きを決定するために、前記インタフェースオブジェクトの表面にあるパターンの向きを検出するステップを更に有する請求項1に記載の方法。
  3. 前記画像キャプチャ装置は、前記インタフェースオブジェクトの色、色の変化または色の強度の変化をトラッキングする請求項1に記載の方法。
  4. 前記インタフェースオブジェクトの前記位置の変化は、前記インタフェースオブジェクトの前記画像キャプチャ装置に対する移動によって定義される請求項1に記載の方法。
  5. 前記インタフェースオブジェクトの前記位置の変化は、前記球形オブジェクトのペアの互いの相対移動によって定義される請求項1に記載の方法。
  6. 前記相対移動は、前記球形オブジェクトのペアの反対方向からの互いの接近によって定義される請求項5に記載の方法。
  7. 前記相対移動は、前記球形オブジェクトのペアの反対方向への互いの離隔によって定義される請求項5に記載の方法。
  8. 前記インタフェースコマンドによって、前記コンピューティングシステムに接続されているディスプレイに表示されているオブジェクトが選択される請求項1に記載の方法。
  9. 前記インタフェースコマンドによって、前記コンピューティングシステムに接続されているディスプレイに表示されているオブジェクトが移動される請求項1に記載の方法。
  10. ハンドルが前記球形オブジェクトのペアを連結しており、前記ハンドルは、前記画像キャプチャ装置からの前記球形オブジェクトのペアへの視界をブロックすることがないように前記ハンドルを保持している手を制限するように構成されている請求項1に記載の方法。
  11. ポストが前記球形オブジェクトのペアを一緒にコントローラに連結している請求項1に記載の方法。
  12. コンピューティングシステムで実行されているプログラムのコマンドをトリガするための方法であって、
    長尺部材を備えるハンドルに連結されたオブジェクトによって定義されるインタフェースオブジェクトを提供するステップと、
    画像キャプチャ装置の視野内に前記インタフェースオブジェクトを配置するステップと、
    前記コンピューティングシステムで実行されている前記プログラムでインタフェースコマンドをトリガするために、前記画像キャプチャ装置の前記視野内で前記インタフェースオブジェクトの位置を変えるステップと、を有する方法。
  13. 前記ハンドルは、前記画像キャプチャ装置から前記球形オブジェクトへの視界を前記ハンドルを保持している手がブロックすることがないよう制限するように構成されている請求項12に記載の方法。
  14. 前記ハンドルはコントローラに連結されている請求項11に記載の方法。
  15. 前記インタフェースコマンドによって、前記コンピューティングシステムに接続されているディスプレイに表示されているオブジェクトが移動される請求項12に記載の方法。
  16. 前記コンピューティングシステムで実行されている前記プログラムで前記インタフェースコマンドをトリガするために、前記インタフェースオブジェクトの色、色の変化、色の強度の変化または明るさの変化のうちの1つを検出するステップを更に有する請求項12に記載の方法。
  17. 前記画像キャプチャ装置は、前記インタフェースオブジェクトの色、色の変化、色の強度の変化または明るさの変化をトラッキングするかまたはこれに反応する請求項12に記載の方法。
  18. コンピューティングシステムで実行されているプログラムのコマンドをトリガするためのシステムであって、
    画像キャプチャ装置と、
    前記画像キャプチャ装置と通信している前記コンピューティングシステムと、
    前記画像キャプチャ装置の視野内に配置されるように構成され、ハンドルに取り付けられたオブジェクトによって定義されるインタフェースオブジェクトと、を有し、前記ハンドルは、前記オブジェクトから延びる線に略直交し、前記画像キャプチャ装置からの前記球形オブジェクトへの視界が前記ハンドルを保持している手によってブロックされることがないよう制限するように構成された第1の長尺部材を有するシステム。
  19. 前記ハンドルは、
    前記第1の長尺部材と、
    第1端、および前記第1端に対向する第2端を有する第2の長尺部材と、を有し、前記第1端は前記第1の長尺部材の略中間に連結されており、前記第2端は前記オブジェクトに連結されている請求項18に記載のシステム。
  20. 前記ハンドルはT字状に定義される請求項18に記載のシステム。
  21. 前記オブジェクトは、球、ドーム、半球、立方体、角錐および半立方体のうちの1つによって定義される請求項18に記載のシステム。
  22. 前記オブジェクトは表面にパターンを有する請求項18に記載のシステム。
  23. 前記コンピューティングシステムは、
    前記画像キャプチャ装置の前記視野を監視する回路と、
    前記視野内で前記インタフェースオブジェクトを特定する回路であって、前記特定されたインタフェースオブジェクトの位置の変化が分析される回路と、
    前記インタフェースオブジェクトの前記位置の変化を検出する回路と、
    前記コンピューティングシステムで実行されている前記プログラムでインタフェースコマンドをトリガする回路と、を有し、前記トリガは前記インタフェースオブジェクトの前記変化が検出された結果発生する請求項18記載のシステム。
  24. 画像キャプチャ装置と、
    前記画像キャプチャ装置とインタフェースする前記コンピューティングシステムと、
    前記コンピューティングシステムとインタフェースするゲームコントローラと、を有し、前記ゲームコントローラは、インタフェースオブジェクトとの連結が可能であり、前記インタフェースオブジェクトは、ポスト、および前記コントローラとインタフェースするコネクタを有し、前記インタフェースオブジェクトは、前記ポストの、前記コネクタに対向する端で前記ポストに連結された形状オブジェクトを有し、前記コンピューティングシステムは、前記画像キャプチャ装置によって得られた画像データの分析によって前記形状オブジェクトを捉えるように構成されており、前記画像データの前記分析は、前記コンピューティングシステム上で実行されるコンピュータプログラムによるインタラクティブなアクションをトリガするように構成されているゲームシステム。
  25. 前記画像データの前記分析は、前記形状オブジェクトの空間位置の変化を特定する請求項24に記載のゲームシステム。
  26. 前記画像データの前記分析は、前記形状オブジェクトの色の変化を特定する請求項24に記載のゲームシステム。
  27. 前記画像データの前記分析は、前記形状オブジェクトで出力された音を特定する請求項24に記載のゲームシステム。
  28. 前記画像データの前記分析は、前記形状オブジェクトが発する光の強度変化を特定する請求項24に記載のゲームシステム。
  29. 前記インタフェースオブジェクトは、2つ以上の形状オブジェクトを備え、前記画像データの前記分析において、前記2つ以上の形状オブジェクトの位置の変化が検出され、これにより、前記コンピュータプログラムによる1つ以上のアクションがトリガされる請求項24に記載のゲームシステム。
  30. 前記インタフェースオブジェクトは、3つの形状オブジェクトを備え、前記コントローラの空間位置の変化により、前記コントローラのチルト、ヨーおよびロールの1つまたは全てが検出され、前記検出は、前記コンピュータプログラムによって駆動されるように、前記コンピューティングシステムによって処理される請求項24に記載のゲームシステム。
  31. 前記コネクタは、前記形状オブジェクトと前記コントローラ間で信号をインタフェースすることができる請求項24に記載のゲームシステム。
  32. 前記コネクタはユニバーサルシリアルバス(USB)コネクタである請求項24に記載のゲームシステム。
  33. 回路が前記形状オブジェクトに組み込まれている請求項31に記載のゲームシステム。
  34. 前記回路は発光素子に接続されている請求項33に記載のゲームシステム。
  35. 前記インタフェースオブジェクトは、前記コントローラの面へ留まるクランプモールドと連結される請求項24に記載のゲームシステム。
  36. 前記インタフェースオブジェクトと前記コントローラ間で信号を伝達するためのコネクタが前記クランプモールドに提供されている請求項25に記載のゲームシステム。
  37. コンピューティングシステムとインタフェースするゲームコントローラを有し、
    前記ゲームコントローラは、インタフェースオブジェクトとの連結が可能であり、
    前記インタフェースオブジェクトは、ポスト、および前記コントローラとインタフェースするコネクタを有し、
    前記インタフェースオブジェクトは、前記ポストの、前記コネクタに対向する端で前記ポストに連結された形状オブジェクトを有し、
    キャプチャ装置を備えた前記コンピューティングシステムは、前記形状オブジェクトを捉えるように構成され、
    前記キャプチャ装置からの画像データの分析は、前記コンピューティングシステム上で実行されるコンピュータプログラムによるインタラクティブなアクションをトリガするように構成されているゲームコントローラ。
  38. 前記画像データの前記分析は、前記形状オブジェクトの空間位置の変化を特定する請求項37に記載のゲームコントローラ。
  39. 前記画像データの前記分析は、前記形状オブジェクトの色の変化を特定する請求項37に記載のゲームコントローラ。
  40. 前記画像データの前記分析は、前記形状オブジェクトが発する光の強度変化を特定する請求項37に記載のゲームコントローラ。
  41. 前記インタフェースオブジェクトは、2つ以上の形状オブジェクトを備え、前記画像データの前記分析において、前記2つ以上の形状オブジェクトの位置の変化が検出され、これにより、前記コンピュータプログラムによる1つ以上のアクションがトリガされる請求項37に記載のゲームコントローラ。
  42. 人のユーザの左右の手による取り扱いに適合可能な第1面および第2面を有することが可能な本体と、
    前記本体を前記第1面と前記第2面の間に連結するためのコネクタを有する第1端、および第2端を有するポストと、
    前記ポストの前記第2端に連結された形状オブジェクトと、を有し、前記形状オブジェクトは、前記本体が前記人のユーザによって取り扱われると、画像キャプチャ装置によって、前記形状オブジェクトの空間位置および光強度の一方または両方を認識することができるゲームコントローラ。
  43. 前記コネクタは、前記形状オブジェクトと、前記ゲームコントローラの前記本体との間で信号が伝達されるようにする請求項42に記載のゲームコントローラ。
JP2008537992A 2005-10-26 2006-10-26 コンピュータプログラムとインタフェースするためのシステムおよび方法 Pending JP2009514106A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US73065905P 2005-10-26 2005-10-26
PCT/US2006/041995 WO2007050885A2 (en) 2005-10-26 2006-10-26 System and method for interfacing with a computer program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2011021087A Division JP2011134338A (ja) 2005-10-26 2011-02-02 コンピュータプログラムとインタフェースするためのコントローラ及びインターフェースオブジェクト
JP2011021086A Division JP2011096284A (ja) 2005-10-26 2011-02-02 プログラムのコマンドをトリガするための方法

Publications (1)

Publication Number Publication Date
JP2009514106A true JP2009514106A (ja) 2009-04-02

Family

ID=37684082

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2008537992A Pending JP2009514106A (ja) 2005-10-26 2006-10-26 コンピュータプログラムとインタフェースするためのシステムおよび方法
JP2011021087A Pending JP2011134338A (ja) 2005-10-26 2011-02-02 コンピュータプログラムとインタフェースするためのコントローラ及びインターフェースオブジェクト
JP2011021086A Pending JP2011096284A (ja) 2005-10-26 2011-02-02 プログラムのコマンドをトリガするための方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2011021087A Pending JP2011134338A (ja) 2005-10-26 2011-02-02 コンピュータプログラムとインタフェースするためのコントローラ及びインターフェースオブジェクト
JP2011021086A Pending JP2011096284A (ja) 2005-10-26 2011-02-02 プログラムのコマンドをトリガするための方法

Country Status (4)

Country Link
US (6) US8062126B2 (ja)
EP (4) EP2296079A3 (ja)
JP (3) JP2009514106A (ja)
WO (1) WO2007050885A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
JP2012529112A (ja) * 2009-05-30 2012-11-15 株式会社ソニー・コンピュータエンタテインメント オブジェクト追跡のための色較正
JP2015506739A (ja) * 2011-12-21 2015-03-05 株式会社ソニー・コンピュータエンタテインメント ビデオゲームのための方向性入力
JP2015152973A (ja) * 2014-02-10 2015-08-24 レノボ・シンガポール・プライベート・リミテッド 入力装置、入力方法、及びコンピュータが実行可能なプログラム

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8062126B2 (en) * 2004-01-16 2011-11-22 Sony Computer Entertainment Inc. System and method for interfacing with a computer program
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US9573056B2 (en) * 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
KR100682455B1 (ko) * 2005-03-17 2007-02-15 엔에이치엔(주) 게임 스크랩 시스템, 게임 스크랩 방법 및 상기 방법을실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한기록매체
JP4895352B2 (ja) * 2006-02-07 2012-03-14 任天堂株式会社 対象選択プログラム、対象選択装置、対象選択システム、および対象選択方法
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
JP4187768B2 (ja) * 2007-03-20 2008-11-26 株式会社コナミデジタルエンタテインメント ゲーム装置、進行制御方法、および、プログラム
ES2350028T3 (es) * 2007-03-29 2011-01-17 Cam-Trax Technologies Ltd Sistema y procedimiento para realizar un seguimiento de un dispositivo electrónico.
JP4569613B2 (ja) 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US7814115B2 (en) * 2007-10-16 2010-10-12 At&T Intellectual Property I, Lp Multi-dimensional search results adjustment system
US7950631B2 (en) * 2007-10-22 2011-05-31 Lennox Industries Inc. Water distribution tray
GB2456773A (en) * 2008-01-22 2009-07-29 In2Games Ltd Sensing the position of a mobile object relative to a fixed object via ultrasound and infrared
WO2009147571A1 (en) * 2008-05-26 2009-12-10 Microsoft International Holdings B.V. Controlling virtual reality
US8221229B2 (en) * 2008-10-27 2012-07-17 Sony Computer Entertainment Inc. Spherical ended controller with configurable modes
WO2010055737A1 (ja) 2008-11-14 2010-05-20 株式会社ソニー・コンピュータエンタテインメント 操作デバイス
US20100188429A1 (en) * 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Navigate and Present Image Libraries and Images
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565477B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8565476B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US9195317B2 (en) * 2009-02-05 2015-11-24 Opentv, Inc. System and method for generating a user interface for text and item selection
GB2467951A (en) * 2009-02-20 2010-08-25 Sony Comp Entertainment Europe Detecting orientation of a controller from an image of the controller captured with a camera
US20120121128A1 (en) * 2009-04-20 2012-05-17 Bent 360: Medialab Inc. Object tracking system
US8608564B2 (en) * 2009-04-21 2013-12-17 Nyko Technologies, Inc. Connector for video game controller, and video game controller including the same
US10705692B2 (en) 2009-05-21 2020-07-07 Sony Interactive Entertainment Inc. Continuous and dynamic scene decomposition for user interface
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
JP2010277508A (ja) 2009-06-01 2010-12-09 Sony Computer Entertainment Inc 操作デバイス
JP2011008601A (ja) 2009-06-26 2011-01-13 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
US9539510B2 (en) * 2010-04-30 2017-01-10 Microsoft Technology Licensing, Llc Reshapable connector with variable rigidity
CA2798148A1 (en) * 2010-05-04 2011-11-10 Timocco Ltd. System and method for tracking and mapping an object to a target
JP5147900B2 (ja) * 2010-06-14 2013-02-20 株式会社ソニー・コンピュータエンタテインメント ゲームコントローラに取り付けられるアタッチメント、及び、コントローラアッセンブリ
JP5395956B2 (ja) 2010-07-02 2014-01-22 株式会社ソニー・コンピュータエンタテインメント 情報処理システムおよび情報処理方法
TW201216123A (en) * 2010-10-08 2012-04-16 Primax Electronics Ltd Separatable game controller
EP2455841A3 (en) * 2010-11-22 2015-07-15 Samsung Electronics Co., Ltd. Apparatus and method for selecting item using movement of object
TW201222429A (en) * 2010-11-23 2012-06-01 Inventec Corp Web camera device and operating method thereof
TWI423114B (zh) * 2011-02-25 2014-01-11 Liao Li Shih 互動式裝置及其運作方法
JP5781353B2 (ja) 2011-03-31 2015-09-24 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、および位置情報のデータ構造
JP5774889B2 (ja) 2011-03-31 2015-09-09 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
FR2978847B1 (fr) * 2011-08-02 2014-03-07 Archos Procede et dispositif de controle a distance d'un appareil esclave relie a une camera par un appareil maitre.
US8951120B2 (en) * 2011-09-19 2015-02-10 Sony Computer Entertainment America Llc Systems and methods for calibration and biasing for game controller
US8523674B2 (en) * 2011-10-19 2013-09-03 Brad Kaldahl Video game controller for multiple users
US8540572B2 (en) * 2011-10-19 2013-09-24 Brad Kaldahl Video game controller for multiple users
US8740707B1 (en) 2011-10-19 2014-06-03 Brad Kaldahl Video game controller for multiple users
CN103135756B (zh) * 2011-12-02 2016-05-11 深圳泰山体育科技股份有限公司 生成控制指令的方法和系统
WO2013117173A1 (en) 2012-02-11 2013-08-15 Princip A.S. The game device
JP5773944B2 (ja) 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US10150028B2 (en) * 2012-06-04 2018-12-11 Sony Interactive Entertainment Inc. Managing controller pairing in a multiplayer game
EP2711806B1 (en) 2012-07-13 2018-09-26 Sony Interactive Entertainment Inc. Input device, information processing system, information processing device and information processing method
WO2014064870A1 (ja) 2012-10-22 2014-05-01 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP2014106732A (ja) 2012-11-27 2014-06-09 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
CN103869943A (zh) * 2012-12-14 2014-06-18 鸿富锦精密工业(武汉)有限公司 显示内容修改系统及方法
JP5843751B2 (ja) 2012-12-27 2016-01-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
JP5856947B2 (ja) * 2012-12-28 2016-02-10 京楽産業.株式会社 遊技機
US9912857B2 (en) 2013-04-05 2018-03-06 Andra Motion Technologies Inc. System and method for controlling an equipment related to image capture
KR20140138424A (ko) * 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
JP2014238731A (ja) 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、および画像処理方法
US9678583B2 (en) * 2013-07-23 2017-06-13 University Of Kentucky Research Foundation 2D and 3D pointing device based on a passive lights detection operation method using one camera
US20150077340A1 (en) * 2013-09-18 2015-03-19 Genius Toy Taiwan Co., Ltd. Method, system and computer program product for real-time touchless interaction
JP2015088098A (ja) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP6025690B2 (ja) 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
JP2015088095A (ja) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2015088096A (ja) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US10130883B2 (en) 2014-01-21 2018-11-20 Sony Interactive Entertainment Inc. Information processing device and information processing method
JP6027554B2 (ja) 2014-01-21 2016-11-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、ブロックシステム、および情報処理方法
JP6193135B2 (ja) 2014-01-21 2017-09-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US10210629B2 (en) 2014-02-14 2019-02-19 Sony Interactive Entertainment Inc. Information processor and information processing method
JP6039594B2 (ja) 2014-02-20 2016-12-07 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US9684369B2 (en) 2014-04-08 2017-06-20 Eon Reality, Inc. Interactive virtual reality systems and methods
WO2015157102A2 (en) * 2014-04-08 2015-10-15 Eon Reality, Inc. Interactive virtual reality systems and methods
US9542011B2 (en) 2014-04-08 2017-01-10 Eon Reality, Inc. Interactive virtual reality systems and methods
JP6340414B2 (ja) 2014-04-16 2018-06-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
JP5923792B2 (ja) * 2014-04-30 2016-05-25 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス
JP6129119B2 (ja) 2014-06-04 2017-05-17 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理システム、撮像装置、および画像処理方法
JP6009502B2 (ja) 2014-07-29 2016-10-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP2016038886A (ja) 2014-08-11 2016-03-22 ソニー株式会社 情報処理装置および情報処理方法
JP2016039618A (ja) 2014-08-11 2016-03-22 ソニー株式会社 情報処理装置および情報処理方法
JP6096161B2 (ja) 2014-10-15 2017-03-15 ソニー株式会社 情報処理装置および情報処理方法
JP2016081249A (ja) 2014-10-15 2016-05-16 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2016136306A (ja) * 2015-01-23 2016-07-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9977565B2 (en) * 2015-02-09 2018-05-22 Leapfrog Enterprises, Inc. Interactive educational system with light emitting controller
JP6548518B2 (ja) 2015-08-26 2019-07-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6629055B2 (ja) 2015-11-30 2020-01-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6650848B2 (ja) 2016-08-22 2020-02-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US10572024B1 (en) 2016-09-28 2020-02-25 Facebook Technologies, Llc Hand tracking using an ultrasound sensor on a head-mounted display
US10888773B2 (en) 2016-10-11 2021-01-12 Valve Corporation Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof
US10649583B1 (en) 2016-10-11 2020-05-12 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US10987573B2 (en) 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US11625898B2 (en) 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
US10549183B2 (en) 2016-10-11 2020-02-04 Valve Corporation Electronic controller with a hand retainer, outer shell, and finger sensing
US10691233B2 (en) 2016-10-11 2020-06-23 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US10391400B1 (en) 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US11185763B2 (en) 2016-10-11 2021-11-30 Valve Corporation Holding and releasing virtual objects
JP6602743B2 (ja) 2016-12-08 2019-11-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
WO2018232375A1 (en) 2017-06-16 2018-12-20 Valve Corporation Electronic controller with finger motion sensing
JP6755843B2 (ja) 2017-09-14 2020-09-16 株式会社東芝 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
CN109558000B (zh) * 2017-09-26 2021-01-22 京东方科技集团股份有限公司 一种人机交互方法及电子设备
JP7254802B2 (ja) * 2017-12-07 2023-04-10 バルブ コーポレーション 指検知及び調節可能な手保持具を備えた電子コントローラ
GB2572590B (en) * 2018-04-04 2020-09-23 Bentley Motors Ltd Display control system and display controller
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10814222B2 (en) 2018-09-21 2020-10-27 Logitech Europe S.A. Gaming controller with adaptable input configurations
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
US10761611B2 (en) * 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications
WO2020116529A1 (ja) * 2018-12-07 2020-06-11 株式会社ソニー・インタラクティブエンタテインメント 発光制御装置、操作デバイス、発光制御方法及びプログラム
US11112886B2 (en) * 2019-01-30 2021-09-07 Disney Enterprises, Inc. Model and detachable controller for augmented reality / virtual reality experience
US11273367B1 (en) * 2019-09-24 2022-03-15 Wayne Hughes Beckett Non-CRT pointing device
US11011071B1 (en) 2020-03-30 2021-05-18 Mobilizar Technologies Pvt Ltd Interactive learning system and a method
US12002461B2 (en) 2020-10-20 2024-06-04 Adrenalineip Voice based wagering
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
US11762481B2 (en) * 2021-04-23 2023-09-19 Lucasfilm Entertainment Company Ltd. Light capture device
US11978154B2 (en) 2021-04-23 2024-05-07 Lucasfilm Entertainment Company Ltd. System and techniques for lighting adjustment for an immersive content production system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0689342A (ja) * 1992-09-08 1994-03-29 Toshiba Corp 動画像処理装置
JPH09265346A (ja) * 1996-03-29 1997-10-07 Bijiyuaru Sci Kenkyusho:Kk 空間マウス及びマウス位置検出装置及び映像化装置
JP2001056742A (ja) * 1999-08-19 2001-02-27 Alps Electric Co Ltd 入力装置
WO2004012073A2 (en) * 2002-07-27 2004-02-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
WO2005073838A2 (en) * 2004-01-16 2005-08-11 Sony Computer Entertainment Inc. Method and apparatus for light input device

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4404865A (en) * 1982-02-10 1983-09-20 Wico Corporation Trackball device
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4787051A (en) * 1986-05-16 1988-11-22 Tektronix, Inc. Inertial mouse system
US5128671A (en) * 1990-04-12 1992-07-07 Ltv Aerospace And Defense Company Control device having multiple degrees of freedom
US5528265A (en) * 1994-07-18 1996-06-18 Harrison; Simon J. Orientation-operated cursor control device
SE504846C2 (sv) * 1994-09-28 1997-05-12 Jan G Faeger Styrutrustning med ett rörligt styrorgan
JP3319667B2 (ja) * 1994-12-20 2002-09-03 松下電器産業株式会社 映像フォーマット変換装置
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5734372A (en) * 1996-04-24 1998-03-31 Primax Electronics Ltd. Monitor cursor controlling device provided with signaling element
US6243491B1 (en) * 1996-12-31 2001-06-05 Lucent Technologies Inc. Methods and apparatus for controlling a video system with visually recognized props
CA2248745C (en) * 1998-02-13 2005-08-23 Arista Interactive Llc Wireless game control units
JP2000172431A (ja) 1998-12-09 2000-06-23 Sony Corp 情報入力装置及びゲーム装置
US6417836B1 (en) 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
US6375572B1 (en) * 1999-10-04 2002-04-23 Nintendo Co., Ltd. Portable game apparatus with acceleration sensor and information storage medium storing a game progam
US6565441B1 (en) * 2000-04-07 2003-05-20 Arista Enterprises Inc. Dedicated wireless digital video disc (DVD) controller for video game consoles
TW470910B (en) * 2000-08-04 2002-01-01 Primax Electronics Ltd Indicator device with a scrolling wheel capable of illuminating
US20020085097A1 (en) * 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
US6641480B2 (en) * 2001-01-29 2003-11-04 Microsoft Corporation Force feedback mechanism for gamepad device
GB2388418A (en) * 2002-03-28 2003-11-12 Marcus James Eales Input or pointing device with a camera
US7227976B1 (en) 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US20040063480A1 (en) * 2002-09-30 2004-04-01 Xiaoling Wang Apparatus and a method for more realistic interactive video games on computers or similar devices
US20040212589A1 (en) * 2003-04-24 2004-10-28 Hall Deirdre M. System and method for fusing and displaying multiple degree of freedom positional input data from multiple input sources
TW571812U (en) * 2003-06-11 2004-01-11 Vision Electronics Co Ltd Audio device for TV game machine
JP5130504B2 (ja) * 2003-07-02 2013-01-30 新世代株式会社 情報処理装置、情報処理方法、プログラム及び記憶媒体
US20050009605A1 (en) * 2003-07-11 2005-01-13 Rosenberg Steven T. Image-based control of video games
US8062126B2 (en) 2004-01-16 2011-11-22 Sony Computer Entertainment Inc. System and method for interfacing with a computer program
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7489299B2 (en) * 2003-10-23 2009-02-10 Hillcrest Laboratories, Inc. User interface devices and methods employing accelerometers
US20060084504A1 (en) * 2004-04-30 2006-04-20 Chan Andy K Wireless communication systems
US7296007B1 (en) * 2004-07-06 2007-11-13 Ailive, Inc. Real time context learning by software agents
US7263462B2 (en) * 2004-07-30 2007-08-28 Ailive, Inc. Non-disruptive embedding of specialized elements
US7620316B2 (en) 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
US7834850B2 (en) 2005-11-29 2010-11-16 Navisense Method and system for object control
US7636645B1 (en) * 2007-06-18 2009-12-22 Ailive Inc. Self-contained inertial navigation system for interactive control using movable controllers
JP4481280B2 (ja) 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US7636697B1 (en) * 2007-01-29 2009-12-22 Ailive Inc. Method and system for rapid evaluation of logical expressions
US20090017910A1 (en) * 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
US7937243B2 (en) * 2007-08-03 2011-05-03 Ailive, Inc. Method and apparatus for non-disruptive embedding of specialized elements
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US9545571B2 (en) * 2008-01-25 2017-01-17 Nintendo Co., Ltd. Methods and apparatus for a video game magic system
US8655622B2 (en) * 2008-07-05 2014-02-18 Ailive, Inc. Method and apparatus for interpreting orientation invariant motion
KR101709470B1 (ko) * 2010-09-02 2017-02-23 엘지전자 주식회사 영상표시기기 및 그 동작 방법
US20140125698A1 (en) * 2012-11-05 2014-05-08 Stephen Latta Mixed-reality arena

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0689342A (ja) * 1992-09-08 1994-03-29 Toshiba Corp 動画像処理装置
JPH09265346A (ja) * 1996-03-29 1997-10-07 Bijiyuaru Sci Kenkyusho:Kk 空間マウス及びマウス位置検出装置及び映像化装置
JP2001056742A (ja) * 1999-08-19 2001-02-27 Alps Electric Co Ltd 入力装置
WO2004012073A2 (en) * 2002-07-27 2004-02-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
JP2005535022A (ja) * 2002-07-27 2005-11-17 株式会社ソニー・コンピュータエンタテインメント 変形可能な装置を使用したマンマシンインターフェース
WO2005073838A2 (en) * 2004-01-16 2005-08-11 Sony Computer Entertainment Inc. Method and apparatus for light input device
JP2007527573A (ja) * 2004-01-16 2007-09-27 株式会社ソニー・コンピュータエンタテインメント 光入力デバイス用の装置及びその方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
JP2012529112A (ja) * 2009-05-30 2012-11-15 株式会社ソニー・コンピュータエンタテインメント オブジェクト追跡のための色較正
JP2015506739A (ja) * 2011-12-21 2015-03-05 株式会社ソニー・コンピュータエンタテインメント ビデオゲームのための方向性入力
JP2015152973A (ja) * 2014-02-10 2015-08-24 レノボ・シンガポール・プライベート・リミテッド 入力装置、入力方法、及びコンピュータが実行可能なプログラム

Also Published As

Publication number Publication date
EP2293172A2 (en) 2011-03-09
US20190105564A1 (en) 2019-04-11
US20070117625A1 (en) 2007-05-24
US20210213355A1 (en) 2021-07-15
US8602894B2 (en) 2013-12-10
US11731044B2 (en) 2023-08-22
EP2293172A3 (en) 2011-04-13
EP2296079A2 (en) 2011-03-16
EP1946203A2 (en) 2008-07-23
US10143920B2 (en) 2018-12-04
US20110074669A1 (en) 2011-03-31
JP2011096284A (ja) 2011-05-12
WO2007050885A3 (en) 2007-12-06
US10960307B2 (en) 2021-03-30
US20110077082A1 (en) 2011-03-31
US8562433B2 (en) 2013-10-22
EP1967942A1 (en) 2008-09-10
JP2011134338A (ja) 2011-07-07
US20140045594A1 (en) 2014-02-13
US8062126B2 (en) 2011-11-22
WO2007050885A2 (en) 2007-05-03
EP2296079A3 (en) 2011-04-13

Similar Documents

Publication Publication Date Title
US11731044B2 (en) Voice command controller for communicating with a gaming system
US11842432B2 (en) Handheld controller with finger proximity detection
US10445884B2 (en) Control device for communicating visual information
JP4234677B2 (ja) 変形可能な装置を使用したマンマシンインターフェース
JP5084052B2 (ja) コンピュータプログラムとのインタフェース時に方向検出を可能にするための方法およびシステム
US8295549B2 (en) Peripheral device having light emitting objects for interfacing with a computer gaming system claim of priority
US8277316B2 (en) Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
KR101751078B1 (ko) 애니메이션 또는 모션들을 캐릭터에 적용하는 시스템 및 방법
US9539510B2 (en) Reshapable connector with variable rigidity
US8403753B2 (en) Computer-readable storage medium storing game program, game apparatus, and processing method
US20080100825A1 (en) Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
JP5665752B2 (ja) コンフィグレーション可能モードを備えて球形端部を有するコントローラ
KR100817647B1 (ko) 변형될 수 있는 장치를 사용하는 인간-컴퓨터간 인터페이스

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110202

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110701