JP5575228B2 - ベースステーションの移動検出および補償 - Google Patents

ベースステーションの移動検出および補償 Download PDF

Info

Publication number
JP5575228B2
JP5575228B2 JP2012509815A JP2012509815A JP5575228B2 JP 5575228 B2 JP5575228 B2 JP 5575228B2 JP 2012509815 A JP2012509815 A JP 2012509815A JP 2012509815 A JP2012509815 A JP 2012509815A JP 5575228 B2 JP5575228 B2 JP 5575228B2
Authority
JP
Japan
Prior art keywords
base station
controller
input device
data
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012509815A
Other languages
English (en)
Other versions
JP2012525917A (ja
Inventor
エム. ザルースキ ゲイリー
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2012525917A publication Critical patent/JP2012525917A/ja
Application granted granted Critical
Publication of JP5575228B2 publication Critical patent/JP5575228B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/358Adapting the game course according to the network or server load, e.g. for reducing latency due to different connection speeds between clients
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1018Calibration; Key and button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/534Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for network load management, e.g. bandwidth optimization, latency reduction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • A63F2300/6054Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands by generating automatically game commands to assist the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/634Methods for processing data by generating or executing the game program for controlling the execution of the game in time for replaying partially or entirely the game actions since the beginning of the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8088Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game involving concurrently several players in a non-networked game, e.g. on the same game console

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Description

テレビゲーム業界は、長年にわたり多くの変化を遂げてきた。コンピュータの処理能力の向上とともに、テレビゲームの開発者らも、このような処理能力の高度化を利用したゲームソフトウェアを開発してきた。このため、テレビゲームの開発者らは、非常にリアルなゲーム体験となるように高度な演算や数値演算を組み込んだゲームをコーディングしてきた。
このようなゲームのプラットフォームの例には、ソニープレイステーション(R)、ソニープレイステーション2(R)(PS2)およびソニープレイステーション3(R)(PS3)があり、これらは共にゲームコンソールの形態で販売されている。周知のように、ゲームコンソールは、モニタ(通常、テレビ受像機)に接続して、ハンドヘルドコントローラを介してユーザインタラクションが可能になるように設計される。
ゲームコンソールは、CPU、重いグラフィック演算を処理するためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクトル演算ユニット、およびグルーハードウェアと呼ばれるその他のハードウェア、ファームウェア、およびソフトウェアを含む専用の処理ハードウェアで設計されている。ゲームコンソールは、ゲームコンソールを介してローカルでプレイするためのゲームのコンパクトディスクを受け入れるための光ディスクトレイを備えるようにさらに設計される。また、ユーザが、インターネット上で他のユーザと対戦して、または、他のユーザと一緒にインタラクティブにプレイすることができるオンラインゲームも可能である。
ゲームを複雑にしてプレーヤの興味を引き付けるために、ゲームおよびハードウェアの製造業者らは、新しい手法を取り入れてさらなるインタラクティビティ、つまり対話性、とコンピュータプログラムとを可能にしようとしてきた。
コンピュータゲーム業界においては、ユーザとゲームシステム間のインタラクションを高めるゲームを開発する傾向が広がっている。より質の高いインタラクティブな体験を実現する1つのやり方として、プレーヤの動きをトラッキングして、この動きをゲームの入力として使用するために、ゲームシステムによって移動がトラッキングされる無線ゲームコントローラを使用する方法がある。一般的にいうと、ジェスチャ入力とは、コンピューティングシステム、テレビゲームコンソール、インテリジェント家電などの電子装置を、物体をトラッキングするビデオカメラがキャプチャした何らかのジェスチャに反応させることを指す。
しかし、ビデオカメラやその他の電子装置を置いてユーザ入力をトラッキングするのは困難な場合がある。テレビやモニタが大型化しているので、全体像をとらえるには、ユーザはテレビからさらに離れて立つ必要がある。通常、コンソールはテレビの近くに置かれるために、センサの性能が低下してしまう。同様に、ユーザがカメラから離れるときに、トラッキング用ビデオカメラと深度検知用ビデオカメラの性能は低下してしまう。
本発明の実施形態は、この状況においてなされたものである。
概して、本発明は、ユーザ入力をゲームコンソールに送信するために使用されるベースステーションの移動を略リアルタイムで補償するものである。ある実施形態では、ベースステーションは、ゲームコンソールに関連づけられるコントローラの位置に関する深度データを抽出するために画像データをキャプチャし処理するようにさらに構成されている。
コンピュータで実行するコンピュータプログラムとインターフェースする入力デバイスから受信したインタラクティブな通信を処理するための方法が提供されている。コンピュータとインターフェースするベースステーションにおいて、第1入力デバイスと第2入力デバイスとから入力データを受信するステップを含む方法も提供される。第1入力デバイスと第2入力デバイスは、コンピュータプログラムとインタラクティブにインターフェースするために相互に独立して移動可能である。この方法では、ベースステーションを介して第1入力デバイスと第2入力デバイスの位置をトラッキングし、トラッキングした第1入力デバイスと第2入力デバイスの略同一の位置変化が生じたことを特定する。次いで、この方法では、略同一の位置変化を特定するとフラグを設定する。フラグは、コンピュータプログラムとのインタラクティビティの間に取るべきアクションを設定するコンピュータプログラムにより処理される。一例では、ベースステーションは、移動を確認できる慣性センサを含む。移動が確認された場合、フラグが処理されて、コンピュータプログラムで定められたアクションが行なわれる。
一実施形態では、ゲームコンソールで実行され、スクリーンに表示されるコンピュータゲームとインターフェースするときにインタラクティブな通信を検出するための方法が開示されている。方法は、第1入力デバイスと第2入力デバイスとから入力と位置とを受信する操作を含む。第1入力デバイスと第2入力デバイスとは、コンピュータゲームとインタラクティブにインターフェースするために、第1ユーザと第2ユーザそれぞれにより独立して移動される。ベースステーションは入力と位置とを第1入力デバイスと第2入力デバイスとから受信し、この入力および位置をゲームコンソールに無線でインターフェースする。方法は、第1入力デバイスと第2入力デバイス両方の略同一位置変化が検出されればコンピュータゲームのインタラクションを表示するスクリーンに示される、第1入力デバイスおよび第2入力デバイス両方の位置を補正する操作をさらに含む。
別の実施形態では、テレビゲームをインタラクティブに制御するシステムが開示されている。システムは、ゲームコンソールと、ゲームコンソールから離れた場所に置かれるベースステーションとを含む。ベースステーションは、ベースステーションとゲームコンソール間のインターフェースを可能にする通信回路を有する。ベースステーションは、プレイゾーン内の画像データをキャプチャするためのビデオカメラをさらに有する。システムは、ベースステーションとゲームコンソールの一方または両方とインターフェースされるコントローラをさらに含む。コントローラを含む画像データの分析を利用により、プレイゾーン内のコントローラの移動が決定される。コントローラの移動はゲームコンソールによりテレビゲームのインタラクティブな制御に相関される。
さらに別の実施形態では、テレビゲームを制御するためのゲームコンソールとインターフェースするシステムが開示されている。システムは、ゲームコンソールと、ゲームコンソールとインターフェースするベースステーションとを含む。ベースステーションは、ベースステーションとゲームコンソール間のデータを送受信するように構成された処理回路をさらに含む。ベースステーションは、位置データを処理するようにさらに構成されている。システムは、ベースステーションとインターフェースするコントローラをさらに含む。コントローラは、コントローラの移動データを検出し、この移動データをベースステーションへ送信するハードウェアを含む。ベースステーションは、ベースステーションに対するコントローラの相対位置を決定するためにベースステーションからゲームコンソールへと中継されるコントローラの位置データを処理するものであり、コントローラの相対位置が変わると、テレビゲームとのインタラクティブな制御がしやすくなる。
本発明の他の態様は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。
本発明の一実施形態による、ベースステーション、ゲームコンソールとともにコントローラを操作するユーザ、およびモニタを含むシーンを例示的に示した図。 本発明の一実施形態による、コントローラの例示的略図。 本発明の一実施形態による、コントローラの別の例示的略図。 本発明の一実施形態による、ベースステーションの例を示した図。 本発明の一実施形態による、ベースステーションの例を示した図。 本発明の一実施形態による、多数のカメラ位置を備えたベースステーションの他の実施形態を示した図。 本発明の一実施形態による、多数のカメラ位置を備えたベースステーションの他の実施形態を示した図。 本発明の一実施形態による、多数のカメラ位置を備えたベースステーションの他の実施形態を示した図。 本発明の一実施形態による、多数のカメラ位置を備えたベースステーションの他の実施形態を示した図。 本発明の一実施形態による、多数のカメラ位置を備えたベースステーションの他の実施形態を示した図。 本発明の一実施形態による、ベースステーションのハードウェアを例示的に示した図。 本発明の一実施形態による、スクリーンの例示的上面図。 本発明の一実施形態による、距離測定から絶対深度測定への変換を示した図。 本発明の一実施形態による、ベースステーションの水平移動の検出法を示した図。 本発明の一実施形態による、ベースステーションの水平移動の検出法を示した図。 本発明の一実施形態による、テレビゲームのインタラクティブな制御を示した図。 本発明の一実施形態による、ベースステーション内のカメラを用いてキャプチャしたインタラクティブ制御の画像データの図。 本発明の一実施形態による、エンターテイメントシステムにおける各種要素のブロック図。 本発明の一実施形態による、コントローラの位置を決定するために用いられうるハードウェアとユーザインターフェースの図。 本発明の一実施形態による、命令の処理に利用されうる付加的ハードウェアの図。 本発明の一実施形態による、シーンA〜シーンEと、インターネットを介してサーバ処理に接続されているゲームクライアントとインターフェース中のそれぞれのユーザA〜ユーザEを例示的に示した図。
コンピュータプログラムとインターフェースする入力デバイスからのインタラクティブな通信を処理するための方法およびシステムが開示されている。方法は、コンピュータとインターフェースするベースステーションにおいて、第1入力デバイスと第2入力デバイスとから入力データを受信するステップを含む。ベースステーションは、有線あるいは無線であってよい。各入力デバイスは、1人のユーザによって把持されてもよく、この場合は1つの入力デバイスがそれぞれの手に把持される。あるいは、2人以上の別々のユーザが1つの入力デバイスを把持してもよい。第1入力デバイスと第2入力デバイスとは、コンピュータプログラムとインタラクティブにインターフェースするために、相互に独立して移動可能である。
一実施形態では、コンピュータプログラムはコンピュータゲームプログラムである。しかし、他の実施形態では、コンピュータプログラムは汎用オフィスプログラム、エンターテイメントプログラム、あるいは特殊用途プログラムであってよい。、
実施形態によれば、この方法ではベースステーションを介して第1入力デバイスと第2入力デバイスの位置をトラッキングする。
例えば、各入力デバイスはベースステーションと通信し、それぞれの位置を知らせるようにするか、データを与えてそれぞれの位置を確認する。入力デバイスの位置は、入力デバイスからデータを受信するベースステーションから位置データを受信し、その後、(ゲームコンソールなどの)コンピュータで処理されるようにしてもよい。いずれの実施形態でも、第1入力デバイスおよび第2入力デバイスの、トラッキングされた位置における略同一の位置変化を特定するために、位置をトラッキングする必要がある。
この方法は、略同一の位置変化を特定後にフラグを設定するように構成されている。フラグは、コンピュータプログラムとのインタラクティビティの間に取るべきアクションを設定するコンピュータプログラムにより処理される。一例では、ベースステーションは移動を確認できる慣性センサを含む。移動が確認されれば、フラグは、コンピュータプログラム(あるいはゲームプログラム)において定められているアクションを取るように処理される。
他の実施形態では、ベースステーション内には画像データをキャプチャするためのカメラが設けられており、該画像データは、入力デバイスの位置を特定するために用いられる。さらに別の実施形態では、入力デバイスとベースステーション間の超音波通信を利用して入力デバイスの位置が決定される。以下に各種の例を図面を参照しながら説明する。
図1は、本発明の一実施形態による、ベースステーション101、ゲームコンソール108とともにコントローラ102を操作するユーザ104、およびモニタ106を含むシーンを例示している。モニタ106は、ゲームコンソール108からのビデオ出力を表示する。ユーザ104は、コントローラ102とベースステーション101とにより、モニタ106に表示される映像を介してゲームコンソール108とインタラクトする。一実施形態では、モニタ106は、ゲームコンソール108からの音声出力の再生も可能なテレビである。他の実施形態では、ゲームコンソール108からの音声出力が複数のスピーカによって再生され、仮想のマルチメディア体験が作り出される。ベースステーション101は、プレイゾーン110でゲームコンソール108とコントローラ102間の通信を行う。
ベースステーションを利用することで、プレイゾーン110がコンソール108から離れて画定される。プレイゾーン110をコンソール108から離して設ける利点としては、ベースステーション内のセンサをユーザ104に近づけることができる点が挙げられるが、これに限定されない。ベースステーションにより、シーン100全体を移動可能なコントローラへのデータ送受信が可能なセンサ用モバイルプラットフォームが設けられる。ベースステーションは可動性なので、センサをコンソールから離し、ユーザと、関連するコントローラとに近づけることができる。ベースステーションとコントローラとが非常に近接することで、コントローラの移動の検出が改善され、さらに、インタラクティビティが高まる。一実施形態では、ベースステーションはユーザ104に視覚フィードバックおよび音声フィードバックを送る。また、これを利用して、シーン100においてコ
ントローラ102の位置が決定される。
一実施形態では、コントローラ102はブルートゥース(R)やIEEE802.11の仕様書で定義されているプロトコルのうちの1つ(これらに限定されない)などの無線通信プロトコルによりベースステーションと通信する。別の実施形態では、ベースステーション101とコントローラ102間は、赤外光または赤外光と無線通信プロトコルとの組合せにより通信される。図1はコントローラ102を持つ一人のユーザ104だけを示しているが、ベースステーション101は複数のユーザからの複数のコントローラからのユーザ入力の受信と処理とが可能である。ベースステーション101は、同様の無線通信プロトコルを用いてゲームコンソール108と通信することができる。さらに、ある実施形態では、有線接続によってベースステーション101とゲームコンソール108間の通信が実現されうる。
ユーザ104の、コントローラ102への入力は、ある実施形態の場合はベースステーション101により受信される。ベースステーション内のコンピュータのハードウェアは、ユーザ入力がゲームコンソール108へ中継される前にユーザ入力を処理する。他の実施形態では、ベースステーション101はコンピュータのハードウェアを含んでおらず、ユーザ入力はベースステーション101からゲームコンソール108へ中継される。他の実施形態では、ベースステーション101は、ユーザ入力がゲームコンソール108へ中継される前にユーザー入力の一部を処理するコンピュータのハードウェアを含む。一実施形態では、ベースステーション101は、シーン100においてコントローラ102をトラッキングできる。
図2Aは、本発明の一実施形態による、コントローラ102の例示的略図である。コントローラ102は、コントローラ102に関連づけられたハードウェア112を含む。ハードウェア112によりシーンにおけるコントローラの移動が検出される。例えば、一実施形態では、3次元空間におけるコントローラ102の移動はハードウェア112により検出される。同様に、ハードウェア112は、コントローラのロール、ピッチ、ヨーの検出も可能である。一実施形態では、ハードウェア112は、3つのジャイロスコープ、3つの加速度計、および3つの磁力計を含む。そのような実施形態では、加速度計により重力方向が得られ、さらに、ピッチとロールに対する絶対参照が得られる。同様に、磁力計はヨーに対する絶対参照を与える。
ジャイロスコープ、加速度計、および磁力計の組合せより収集されるデータにより、コントローラ102の相対位置を決定することができる。コントローラ102の他の実施形態では、ハードウェアは様々なセンサの組み合わせを利用することができる。この検討されたジャイロスコープ、加速度計、および磁力計の特定の組合せは、他の組合せも可能であることから、限定的なものと解釈すべきではない。図示している実施形態では、ハードウェア112はコントローラ102に埋め込まれるか一体化されて例示されている。しかし、他の実施形態では、オブジェクトの動作を検出をできるようにするために、モジュラアタッチメントによってハードウェア112がオブジェクトに付加される。
図2Bは、本発明の一実施形態による、別のコントローラ102を例示的に示したものである。コントローラ102は、ハードウェア112を含み、さらに、超音波送信機154と超音波受信機152に加えて超音波のアコースティックチャンバ150を含む。超音波送信機とエミッタとを実装することにより、超音波エコーロケーションを用いて、コントローラの位置を更に得ることができる。超音波エミッタと受信機とを実装したコントローラ102の実施形態は、エミッタと受信機とを適切に機能させることができるように、適切な外観の特徴を備えて構成されるものである。
図2Aと2Bとに図示したそれぞれの実施形態では、コントローラ102は、ベースステーションとの通信を可能にする無線ハードウェアをさらに含む。無線ハードウェアにより、コントローラ102をベースステーションと関連づけることができる。複数のコントローラがベースステーションと関連づけられる実施形態では、ベースステーションとの信頼性の高い通信を確実に行うために、各種コントローラは様々に異なる無線周波数を使用しうる。複数のコントローラからの信号をベースステーションからの信号と区別するために他の技術を使用してもよく、また、提供されている特定の例を限定的に解釈すべきではない。さらに、無線ハードウェアは、ハードウェア112からのデータをベースステーション101に送信する。
図3Aおよび図3Bは、本発明の実施形態による、ベースステーション101の一例である。ベースステーション101は、コントローラの移動を検出するためのハードウェアやセンサを含むゲームコンソールに関連づけられたポータブルデバイスである。ハードウェアは、各ユーザと各ユーザのそれぞれのコントローラに非常に近づけて置くことができるので、ベースステーション101内に動作検出ハードウェアがあることは有利である。ゲームコンソールは、ユーザがコントローラを操作する場所から比較的遠く離れた棚やラックに置かれることが多い。ベースステーションからゲームコンソールを離すことにより、動作検出センサをコントローラに非常に近づけることができる。センサとコントローラとが非常に近いことで、動作検出の分解能が向上し、さらに、動作検出が向上するのでユーザインタラクティビティが高まり、より充実したゲーム体験を与えることができる。さらに、ベースステーションは、ベースステーションがゲームコンソールから離れている状態で、視覚フィードバックと音声フィードバックとがユーザに送られる、別の領域として機能しうる。
図3Aでは、ベースステーション101は、エレメント200をコーナに備えたベーシックボックスとして図示されている。そのような実施形態では、ベースステーション101は、床またはゲームコンソールとユーザ間の面に置かれる。一実施形態では、エレメント200は、すりガラスや透明ガラス、あるいは半透明のプラスチックなどの材料から作られる。これにより、エレメント200は、光と組み合わせることで、ライトパイプやライトチューブとして機能することができ、ユーザに視覚フィードバックを送ることができる。他の実施形態では、エレメント200は、視覚フィードバックを送るための小型の逆光式液晶ディスプレー(LCD)アレイである。ある実施形態では、光とエレメント200との組み合わせにより、ゲームプレイ中に発生するイベントに基づいて視覚フィードパックを送ることができる。他の実施形態では、エレメント200は、ベースステーションに対するユーザの位置に基づいて視覚フィードバックを送ることができる。図3Aに示す実施形態は、エレメント200の方向や位置についての限定とみなされるべきではない。他の実施形態では、複数のエレメント200をベースステーションの周りにリング状に配置することができる。さらに別の実施形態では、複数のエレメント200を複数のパターンで配置してもよいし、ベースステーション101の全側面がエレメント200であってもよい。
図3Bに、ベースステーション101の別の例示的実施形態を示す。本実施形態もまたユーザに視覚フィードバックを送るためのエレメント200を含む。エレメント200は球体202に含まれており、これは、基部(ベース)206に取り付けられているアーム204に取り付けられているものである。図3Bに示す実施形態は、限定的に解釈されるべきものではなく、また、球体202を他の3次元の形状体に置き換えることができる。各種実施形態では、アーム204を短くすることができる。これによりベース206上方の球体202の高さを調整することができる。球体202の高さが調整可能なことで、基準面の較正に対応することができる。他の実施形態では、球体202はジンバル上のアーム204に取り付けられており、これにより、ユーザは、アーム204の端部の球体202の方向を調整することができる。
ベースステーション101に回路を有する図3Aと図3Bとに示すベースステーション101の実施形態では、加速度計、ジャイロスコープ、および磁力計(これらに限定されない)等のハードウェアからのデータに基づいて基準面が確立されうる。基準面を利用して、この基準面に対するコントローラの移動が、各コントローラに関連づけられるハードウェアからのデータ測定値に基づいて決定されうる。ベースステーション101の他の実施形態では、光を利用した基準面を確立するうえで、ユーザインタラクションが役立つ。例えば、球体202を含む各実施形態では、球体202の高さと方向により、ベースステーションに関連付けられるコントローラの相対的位置を決定するために利用されうる基準面を確立することができる。
図3Aおよび3Bを参照すると、両方に図示されているベースステーション101の実施形態では、エレメント200には、プレイゾーン内の1以上のコントローラの画像をキャプチャする一台以上のカメラが含まれ、1以上のコントローラの相対運動を決定するようにしてもよい。ベースステーション101の1台以上のカメラは、エレメント200内だけ内蔵される訳ではない。図3B−1および3B−2は、本発明の各実施形態による、複数のカメラ位置を備えたベースステーションの別の各実施形態を示す。図3B−1は、ベースステーション101の上部のドーム(半球体)に配置されたカメラ226を含む。カメラ226は、ベースステーション101全体にわたる画像データをキャプチャするように一定の間隔を置いて配置されている。図3B−2では、カメラ226は、エレメント200から離れた領域に設置されて図示されている。図3B−3、3B−4、および3B−5は、エレメント200から離れたカメラ226の様々な位置を示したベースステーション101の別の実施形態である。
加えて、図3Bに示す実施形態では、球体202の高さを調節すると、ベースステーション101内に取り付けられた1台以上のカメラを、プレイゾーンのモニタリングを行うように配置することができる。ベースステーション101は、ベースステーションを動作させるための付加的センサやプロセッサを含むベースステーションハードウェア208をさらに含む。
図3Cは、本発明の一実施形態による、ベースステーションハードウェア208を例示的に示したものである。ベースステーションハードウェア208は、バッテリ232、無線機212と通信するコントローラポジションプロセッサ210、音声プロセッサ214、画像プロセッサ216、超音波送信機240と超音波受信機242に結合された超音波プロセッサ238、および光コントローラ218を含む。ベースステーションハードウェア208は、動作検出ハードウェア236および無線機212と通信するベースステーションポジションプロセッサ234をさらに含む。
バッテリ232は任意に設けられ、ベースステーションの無線の実施形態で使用される。他の実施形態では、ベースステーションはケーブルを使用してゲームコンソールに結合される。ケーブルには複数の導線が含まれており、これにより、ベースステーションはゲームコンソールと通信し、ゲームコンソールからの電力を使用することができるようになる。一実施形態では、コントローラポジションプロセッサ210とベースステーションポジションプロセッサ234とはカスタマイズされた特定用途向け集積回路(ASIC)であり、サウンドプロセッサ214、画像プロセッサ216および超音波プロセッサ238はデジタルシグナルプロセッサ(DSP)である。
無線機212はアンテナ220に接続されており、ベースステーションの無線の実施形態では、無線機212は、ゲームコンソールへのデータを送受信する。無線機212はさらに、関連するコントローラへデータを送信し、関連するコントローラからのデータを受信するようにも構成されている。コントローラから受信されるデータにはハードウェアからのデータが含まれる。コントローラからのデータはコントローラポジションプロセッサ210へ送信され、ベースステーションに対するコントローラの位置を決定するように使用される。各種の実施形態では、無線機212は、ブルートゥースなどの標準無線通信プロトコルによる1つの無線機を含みうる。他の実施形態では、無線機212は、様々な無線通信プロトコルで動作する複数の無線機を含みうる。例えば、ベースステーションの無線の実施形態では、ベースステーションとゲームコンソール間ではwi−fi通信が用いられ、ベースステーションと関連するいずれのコントローラ間ではブルートゥースが用いられうる。
ある実施形態では、ベースステーションは音声プロセッサに接続されたスピーカ224とマイクロフォン222とを含む。他の実施形態では、マイクロフォン222は、マイクロフォンアレイに配列された複数のマイクロフォンを代表するマイクロフォンである。指向性マイクロフォンアレイを利用して、ゲームプレイを向上させるようにしてもよい。音声認識ソフトウェアと組み合わせられた指向性マイクロフォンにより、ユーザによるゲームプレイを制御するための音声命令の発行が可能となった。スピーカ224はベースステーション内に収容された複数のスピーカを代表するスピーカでありうる。スピーカ224により、ベースステーションは、ユーザへ音声フィードバック送ることができる。音声フィードバックはゲーム内のイベントに基づいて送られてもよいし、ゲームコンソールへのノーティフィケーション、例えば通知やメッセージがフィードバックに含まれていてもよい。ゲーム内のイベントの音声フィードバックの例としては、プレーヤがゲーム内の蒸気に近づくとベースステーションから生じる水が流れる音、が挙げられる。ゲームコンソールのメッセージの例としては、ベースステーションが、コントローラのバッテリを交換する必要あり、との可聴音や音声命令を発しているもの、が挙げられる。
光コントローラ218は、コントローラポジションプロセッサ210からのデータを受信し、ライトアレイ228やライトエミッタ230を介してユーザに視覚フィードバックを送る。一実施形態では、ライトアレイ228は、一連の発光ダイオード(Light Emitting Diode:LED)である。他の実施形態では、ライトアレイは、1以上の液晶ディスプレイ(LCD)である。ライトアレイ228は、ゲーム内のイベントに基づいて、ユーザに視覚フィードバックを送ることができる。ライトアレイ228を用いた、有効なゲーム内の視覚フィードバックの例としては、プレーヤに関連づけられる光の色を変化させることが挙げられる。別の実施形態では、ライトアレイ228は、ゲームコンソールステータスの伝達に使用されうる。ゲームコンソールステータスの例としては、ゲームコンソールに関連するインターネット接続の性能を示した棒グラフが挙げられる。同様に、ライトアレイにはチャットリクエストやeメール通知が表示されうる。ベースステーションのライトアレイ228は、メインディスプレイ上のゲームとは関連し得ないことから、ゲームコンソールのステータス情報を表示するには好ましい場所である。さらに、ベースステーションをユーザに近づけて置くことができるので、ライトアレイは、ゲームコンソールに直接取り付けられた小型の表示装置よりも認識しやすくなる。
さらに別の実施形態では、ライトアレイ228はコントローラステータスの伝達に使用される。コントローラステータスの例としては、コントローラのバッテリを交換する必要がある、との視覚メッセージが挙げられる。コントローラステータスの別の例としては、ある色をある特定のコントローラと関連づけ、コントローラがベースステーションの周りを移動すると、この色をライトアレイ228に移すこと、が挙げられる。例えば、2人のユーザがゲームをしている場合に、ライトコントローラはライトアレイ228の半分を使って第1ユーザ用に第1の色を発光させ、第2ユーザ用に第2の色を発光させることができる。さらに、ポジションプロセッサからのデータに基づいて、第1ユーザ用に発光させるライトアレイ228の半分は、第1ユーザに実際に一番近い側の半分であってよい。
画像プロセッサ216は、カメラ226からの画像データを処理する。ベースステーション周辺からの画像データを得るために、ベースステーションの外側の様々な位置に複数のカメラが実装される。ある実施形態では、カメラ226は、プレイゾーン内の画像をキャプチャするのに必要なカメラの台数を最小にするために広角レンズを使用する。一実施形態では、カメラ226は、その視覚においてオブジェクトの深度データをキャプチャする深度カメラである。深度データと画像データとは、画像プロセッサ216により処理される。また、ある実施形態では、処理済の画像データがコントローラポジションプロセッサ210へ送られて、ベースステーションに対するコントローラの位置を決定するようにする。
画像プロセッサデータは、ベースステーションポジションプロセッサ234へも送られ、ベースステーションが押しやられたかあるいは移動されたかが判断される。動作検出ハードウェア236は、ベースステーションポジションプロセッサ234へさらなるデータを送り、ベースステーションの相対運動を決定するようにする。一実施形態では、動作検出ハードウェアは、加速度計、ジャイロスコープおよび磁力計を含む。一実施形態では、ベースステーションポジションプロセッサ234が画像データを分析してオブジェクトの同一シフト、あるいは複数のオブジェクトが同様にシフトされていることが検出されると、ベースステーションの移動が検出される。一実施形態では、ベースステーションポジションプロセッサ234は、動作検出ハードウェア236からデータを受信する。動作検出ハードウェアからのデータがベースステーションの移動を示す閾値を超えるときに、ベースステーションポジションプロセッサ234は、画像プロセッサ216からの画像データの分析をトリガし、分析を開始させる。画像データの分析のトリガした後に、このトリガイベント前後の画像データの分析を行い、画像内のエレメントを同時にシフトさせるようにする。図示していないが、ベースステーションハードウェアは、画像プロセッサからの画像データを記録またはバッファリングするために利用されるメモリを含む。トリガイベントが発生すると、バッファリングされた画像データへのアクセス及び分析がなされ、ベースステーションが押しやられたか移動されたかが判断される。
一実施形態では、ベースステーションポジションプロセッサ234は、プレイゾーン内の複数のプレーヤの相対位置を利用することができる。そのような実施形態では、各プレーヤに対するそれぞれのコントローラの相対位置を利用して、トリガイベント後の同時のシフトを決定するようにしてもよい。他の実施形態では、プレイゾーン内にプレーヤが1人しかいない場合は、ベースステーションプロセッサ234は、プレイゾーン外のアイテムに関連付けられた視覚データとともにコントローラの位置を利用することができる。プレイゾーン内のプレーヤが1人である別の実施形態では、ベースステーションプロセッサは、動作検出ハードウェアからのデータと1人のユーザの画像データに依存する。上述の実施形態は限定を目的としたものではなく、他の実施形態においても、画像データと動作検出データの両方を用いてベースステーションの動作を決定するための方法を含むことができる。
図4は、本発明の一実施形態によるスクリーン400の例示的上面図である。スクリーンは、ディスプレイ106に表示されるインタラクティブなコンピュータプログラムを実行中のゲームコンソール108を含む。プレーヤAは、コントローラC1を使用して、ゲームコンソール108により実行されているコンピュータプログラムとインタラクションを行う。同様に、プレーヤBとプレーヤCとは、それぞれのコントローラC2とC3とを使用して、コンピュータプログラムとインタラクトする。本実施形態では、ベースステーション101は、ゲームコンソール108と間隔を設けて配置されており、コントローラC1、C2およびC3からのユーザ入力をゲームコンソール108へ中継している。さらに、ベースステーション101内のカメラ226は、プレーヤA、プレーヤB、およびプレーヤCの画像データをそれぞれのコントローラC1、C2およびC3とともにキャプチャしている。本実施形態では、キャプチャされたベースステーションからの画像データを利用して、それぞれのコントローラからベースステーション101までの距離、距離dz1、dz2、およびdz3が決定される。他の実施形態では、コントローラから発せられた超音波放射を利用して距離dz1、dz2およびdz3が決定される。さらに他の実施形態では、超音波放射とベースステーションのカメラからキャプチャした深度データとの組合せからdz1、dz2およびdz3が決定される。さらに他の実施形態では、コントローラは、画像データから特定される特定の幾何学的形状体を含む。一実施形態では、コントローラは一体化された楕円体を含み、これはカメラ226が認識できるものである。従って、楕円体がカメラに近づくと、カメラ226によりキャプチャされた画像データ内の円形のピクセル領域が増加し、また、逆の場合も同じである。
一実施形態では、キャプチャされた画像データを利用して、コントローラの2次元の位置が決定される。この位置は、プレイゾーンなどの3次元空間での平面や直線における一点を決定する2つの座標xおよびy、(x、y)、により特定される。x値とy値とを示すために水平位置と垂直位置とが用いられる場合がある。さらに、原点からの角度やベクトル値などの、他の種類の座標が用いられる。同様に、3次元空間内では、空間での一点を特定するために様々な座標系を利用することができ、これには例えば、x、yおよびz直交座標や、xおよびy座標プラス原点からのベクトル、あるいは、原点からの2つの角度とベクトル、が含まれる。
ベースステーション101のマイクロフォンは、プレイゾーン内の音声データをキャプチャする。一実施形態ではコントローラC1、C2およびC3から生じる音声がマイクロフォンにより受信される、片方向通信が利用される。超音波通信により、プレーヤの体験が干渉されずに済む。一実施形態では、コントローラは音声が生じるスピーカを含み、音声キャプチャデバイスはプレイゾーン内の音声を検出するための複数のマイクロフォンを含む。一実施形態では、プレイゾーン外からの不要なノイズをキャプチャしないためのフィルタリング技術により、プレイゾーンのフォーカスがクリアになる。さらに、一つあるいは複数のマイクロフォンが、超音波通信で使用されない周波数をフィルタリングし、不要な音源からの干渉をさらに減らすことができる。さらにまた、プレイエリア近くの面から反射される音により、音声通信が間違って読み取られてしまう場合がある。一実施形態では、コンピューティングシステム102は、指向性フィルタ、音響分析などの音響反射により引き起こされてしまう間違った読み取りをしないためのメカニズムを含む。
別の実施形態では、コントローラと画像キャプチャデバイス106間は双方向通信であり、コントローラまたは音声デバイスのいずれか一方が超音波メッセージを送信または受信する。さらにまた別の実施形態では、片方向通信は、各コントローラに超音波マイクロフォンを備え、音声エミッタデバイスをディスプレイ近くに設けた状態で、反対方向に流れる。
超音波通信は、音声信号がその目的地に到着するまでの時間を分析することにより、コントローラと音声キャプチャデバイス間の距離、つまりdzを測定するために用いられる。さらに、受信した信号の位相コヒーレンスを分析して、より正確に距離を決定するようにしてもよい。片方向通信が利用される場合は、音声が音源から目的地へと移動するための時間を正確に測定するために、正確なクロック同期が必要とされる。当業者であれば、クロック同期を得るための適切な周知の方法が簡単に分かるであろう。例えば、クロックを同期させるために、コントローラとコンピューティングデバイス間のWiFi(商標)チャネルを使用することができる。Zalewskiに付与された(参照のために本明細書に組み入れられている) 米国特許第5,991,693号は、本発明を利用したトラッキングモードを提供している。
キャプチャした画像データに基づいて得られた点(x、y)と、距離dzとにより、3次元のキャプチャエリア内での一点が決定する。dzは第3次元と呼ばれることもある。その理由は、dzは、既述のx軸とy軸に直交のz軸内の値に変換されうるからである。z測定値はキャプチャエリア内の深度と称される。
図5は、本発明の一実施形態による、距離測定から絶対深度(z)測定への変換を示した図である。dzは、座標が(x、y、z)の、コントローラ102からベースステーション101への距離である。画像キャプチャデータにより、コントローラ102の水平座標(x)と垂直座標(y)が求められる(不図示)。コントローラ102のz値を求める場合は、音声キャプチャデバイスを中心とした半径dz1の球体とともに、3次元空間で(x、y)のいずれの点により定義される直線を交差させる。この直線は、以下の方程式により定義される。
この方程式は、全体の歪みがない空間を想定する。他の実施形態は画像キャプチャデバイスからの斜視図による、想定される歪みを補償する。球体は、以下の方程式により定義される。
球体の方程式をxをxに、yをyに置換すると、深度値zに対応するz値を返す。方程式は2つのz値を返すであろうが、プレイゾーン内には1つの値しか存在しない点に留意されたい。
上述した計算は超音波送信に基づいて深度値を決定する方法を開示する。他の実施形態では、ベースステーションに関連づけられるカメラによりキャプチャされる画像データを利用して、ベースステーションからのコントローラの距離や深度を決定することができる。例えば、複数のカメラを利用するベースステーションの実施形態では、少なくとも2台のカメラからの画像データに基づいて、コントローラの深度の三角測量を決定することができる。既述したように、他の形態では、コントローラに関連づけられる特徴的なオブジェクトのピクセルの相対数から深度データを決定することもできる。さらに他の実施形態では、ベースステーションのカメラは深度カメラであってよい。上述の実施形態は、限定を目的としたものでなく、実施形態の各種組み合わせにより、コントローラの、ベースステーションへの距離を決定することができる。
図6Aおよび図6Bに、本発明の一実施形態による、ベースステーション101の水平移動の検出法を示す。図6Aは、シーン600の上面図とベースステーションビュー600−1とを含む。シーン600では、ベースステーション101はゲームコンソール108とユーザAおよびBとの間に存在する。ユーザAはコントローラC1を操作し、ユーザBはコントローラC2を操作して、ゲームコンソール108により実行されているコンピュータプログラムとインタラクトする。ベースステーションビュー600−1では、ベースステーション101と関連づけられるカメラによりキャプチャされたシーン600を示す。従って、ユーザAとユーザBの位置はシーン600のビューとは逆になっている。図6Aおよび図6Bに例示するベースステーションビューはユーザAおよびユーザbの画像を示しているが、ベースステーションに関連づけられる付加的カメラにより、プレイゾーン110内のさらなる深度データがキャプチャされうる。
図6Bに図6Aの位置からのベースステーション101の移動を示す。ベースステーション101はゲームコンソールのユーザの比較的近くに配置することができるポータブルデバイスなので、ベースステーションが押しやられたり誤って移動(誤ってキックされるなどして)されてしまうことがある。例えば、ベースステーション101が移動してしまう原因としては、ユーザAかユーザBのいずれか一方によるゲームプレイが乱暴なことや、ペットがベースステーション101を押しのけてしまうことが挙げられるが、これらに限定されることはない。上述したように、ベースステーション101の移動は、ベースステーション101に関連づけられる動作検出ハードウェアにより検出されうる。加速時計、慣性センサ、空間トラッキングシステムなどの多くの方法で動作検出を決定することができる。
図6Bに示すように、ベースステーション101は距離x分右へシフトしている。よって、ベースステーションビュー602−1に示すように、キャプチャしたユーザAおよびユーザBの画像データは、ユーザAおよびユーザBの略同一の位置の変更を示す。図6Aおよび図6Bは画像データを利用して示されているが、他の実施形態では、両ユーザや2つの別々のコントローラ(入力デバイスなど)の、略同時のシフトを検出することができる。
別の実施形態では、一ユーザがそれぞれの手に入力デバイスを把持していてもよい。よって、ユーザがコンピュータプログラムとインターフェースしていたときにベースステーションが移動したかどうかを決定することが必要となりうる。よって、一方法においては、コンピュータで実行されるコンピュータプログラムとインターフェースする入力デバイスから受信されるインタラクティブな通信の処理を含みうる。コンピュータは単一のコンピュータ、ネットワークコンピュータ、ゲームコンソール、ネットワークゲームコンソール、あるいはその組合せであってもよい。この方法には、コンピュータとインターフェースするベースステーションにおいて、第1入力デバイスと第2入力デバイスとから入力データを受信するステップが含まれる。第1入力デバイスと第2入力デバイスとは、コンピュータプログラムとインタラクティブにインターフェースするために相互に独立して移動可能である。この方法は、ベースステーションを介して第1入力デバイスと第2入力デバイスの位置をトラッキングするステップを含む。他の実施形態によりトラッキングが処理されてもよいことを理解されたい。
例示的実施形態では、第1入力デバイスおよび第2入力デバイスの位置が以下のステップによりトラッキングされる。(a)第1入力デバイスと第2入力デバイスとから位置を受信し、(b)ベースステーションにおいて、第1入力デバイスおよび第2入力デバイスから受信したデータから位置データを計算し、(c)第1入力デバイスおよび第2入力デバイスあるいはベースステーションから受信したデータに基づいて、コンピュータにおいて位置データを計算し、(d)第1入力デバイスおよび第2入力デバイスの位置を一部決定し、ベースステーションの位置を一部決定し、
(e)第1入力デバイスおよび第2入力デバイス、ベースステーション、およびコンピュータから得たデータに基づいて位置データを一部決定する。位置は、処理が行われる場所に応じて、画像処理、超音波データ処理、入力ジョイスティック動作、ピッチ−ロール−ヨーデータ、有線または無線入力、あるいは入力ボタン選択のうちの一つ以上により処理されうる。
方法は、トラッキングされた、第1入力デバイスおよび第2入力デバイスの位置の、略同一の位置の変化を特定するように構成されている。略同一の位置の変化は検出可能な大きさを有する。本例示的方法によれば、略同一の位置の変化が特定されるとフラグが設定される。本文中で使用されているように、フラグは、コード、ビット、ビットパターン、例外、オブジェクト、コードトリガなどの多くの形態で表示されうる。フラグの形態は、フラグを受信するプログラムやコードに応じて変わる。例えば、プログラムがコンピュータゲームであれば、コンピュータゲームのプログラム命令はフラグを読み取り、そのフラグについて知得した情報に応じて処理すべきことを決定することができる。ある場合では、フラグは、他のプログラムからもコミュニケートされ、これは、システムにローカルに、またはリモートシステムに、あるいは、ネットワークを介したコンピュータになされる。
一実施形態では、フラグは、コンピュータプログラムとのインタラクティビティの間に操作するように設定されたコンピュータプログラムにより処理される。コンピュータプログラムがコンピュータゲームであれば、略同一の位置変化を差し引く、第1入力デバイスおよび第2入力デバイス両方を補正する、コンピュータゲームを中断する、コンピュータゲームを巻き戻す、コンピュータゲームをリスタートする、あるいは、ベースステーションの移動を知らせる、のうちの一つのアクションが取られうる。
コンピュータプログラムがコンピュータゲーム以外であれば、アクションとしては、プログラムの環境には通常の形態のものが取られてよい。例えば、ユーザがブラウザとインターフェースしており、テキストを選択するために入力デバイスが利用されていれば、フラグによりテキストが除外されてしまうか、最終のインタラクティブアクションがなされる前の状態にユーザを戻す。従って、コンピュータプログラムとのインタラクションの間に発生するアクションは、コンピュータプログラムの形態に基づいて事前に設定されている。
またさらに、一実施形態では、略同一の位置の変化が発生する大きさが閾値を越えれば、ベースステーションで移動が発生したことを示すようにシステムをプログラムすることができる。さらに別の実施形態では、ベースステーションが移動したかどうかを決定するための回路と論理とをベースステーション自体が備えていてもよい。ベースステーションに内蔵された移動検出器や慣性センサなどによりこの決定がなされてもよい。
従って、ベースステーションは、移動の発生時を決定し、さらに、この移動が大きさを超えているかどうかを決定するためにプログラムされうる。従って、ある実施形態では、2種類の異なる大きさと、2種類の異なる閾値レベルとがチェックされうる。従って、フラグに関わるアクションを発生させる前に、入力デバイスの略同一の位置の変化が生じたかどうかがまず決定され、さらに、ベースステーション自体が移動したかどうかがチェックされる。
各種実施形態では、ユーザ入力から略同一の位置変化の分が差し引かれてベースステーションの移動を補正するようにしてもよい。他の実施形態では、プレイゾーン内のオブジェクトの、同時で略同一のシフトだけに依存すると、ベースステーションの移動が誤って決定されてしまうことがある。従って、一実施形態では、ベースステーションの移動を検出するための、同時のシフトに対するコントローラデータは、動作検出ハードウェアが閾値を超えるベースステーションの移動を検出した後に比較される。略同一の位置変化に対するコントローラデータを調べるにあたって、閾値が超過するのを待つことは必須ではなく、これは任意のものであると考えらるべきである。
プレイゾーン内でオブジェクトまたはコントローラの略同一のシフトが検出されると、ベースステーションをリアルタイムで再調整しゲームプレイに対する影響を最小限に抑えるようにしてもよい。一実施形態では、2映像フレーム以内か、わずかな映像フレームで再調整されうる。通常、映像は一秒につき約30フレームで表示されるので、この再調整期間は取るに足らないか気付かないほどに短くてよいものである。従って、図6Aおよび図6Bに示すように、ベースステーションが右にシフトされたことをベースステーションが検出すれば、ベースステーションは、ユーザ入力をコントローラC1およびC2に変更することで補償し、ゲームプレイを中断しないようにする。
図6Aおよび図6Bは、ベースステーションの、ユーザAおよびユーザBに対する側方向の移動を示す。上述したように、これらの実施形態は両手に1つのコントローラを持つ単一ユーザにも適用される。ユーザが2人の場合の例を続けると、ベースステーションは、ユーザAおよびユーザBに近づくように、あるいは、ユーザAおよびユーザBから離れるように移動あるいは押しやられる。この場合、光深度カメラ又は超音波センサからの深度データを利用してベースステーションの移動を決定するようにしてもよい。
図6Cに、本発明の一実施形態によるテレビゲームのインタラクティブな制御を示し、図6Dに、本発明の一実施形態による、ベースステーション内のカメラを利用したインタラクティブな制御をキャプチャした画像データを示す。図6Cでは、ユーザAは動作M1と、これに続く動作M2においてコントローラC1を操作し、スケートアバタ650を制御する。動作M1とM2とは、方向と大きさの両方を含むことから、ベクトルである。この場合、動作の大きさとは、動作が完了する速度である。本実施形態では、動作M1は、スケートアバタ650の速度を高めるために用いられる。動作M2は、傾斜台652の最上部でスケートアバタ650をジャンプさせるように用いられる。ゲームコンソール108はゲームをレンダリングしており、モニタ106に表示されるビデオ信号を出力する。
図6DのフレームAは、動作M1が行われるときの、キャプチャされたコントローラC1の中間画像データを示す。時間tと時間tにおいてのコントローラC1の2つの画像が図示されており、時間tは動作M1が完了する前の時間である。画像を分析すると、時間tでのコントローラC1の大きさは、時間tでのコントローラC1の大きさよりも大きいことが明らかである。つまり、時間tとtの間に、コントローラC1がベースステーション101に近づいたということである。フレームBは、時間t3での動作M1の完了を示す。明瞭化のために、フレームBは時間tとtにおいてのコントローラC1を示す。一実施形態では、画像データ、特にピクセルデータの分析を利用して、コントローラC1がベースステーションに近づいたか、離れたかを決定するようにしてもよい。コントローラC1を構成するピクセル数が、時間tよりも時間tにおいて多ければ、コントローラC1はベースステーション101に近づいたということである。コントローラC1を構成するピクセル数がtにおいて少なければ、コントローラC1はベースステーションから離れたということである。ベースステーションに向かう距離の相対的変化を決定することと、図6Cのスケートアバタの速度変化とは相関しうる。
フレームCは、動作M1の開始時である時間tにおける画像データとtにおける動作M2の完了時における画像データとを比較したものである。ベースステーション内のカメラによりキャプチャされた画像データにおいて、時間t1、t2、t3及びt4間のコントローラC1の相対的大きさを比較することにより、ゲームコンソールはコントローラの移動と相関させて、モニタ106に表示されるテレビゲームとインタラクトできるようになる。画像データと深度データとに基づくユーザ入力により、空間内のベクトル移動をあらゆるテレビゲーム制御にマッピングすることができるので、図6Cと図6Dに示す制御をあらゆるテレビゲームに応用することができる。例えば、ボクシングシミュレーションや魚釣りシミュレーション、ドライビングシミュレーションのスロットル制御であってもこの制御を用いることができる。上記に挙げられた特定の例は例としてみなされるべきであり、限定するものとみなされるべきではない。
図7は、本発明の一実施形態による、ゲームコンソール108、ベースステーション101、およびコントローラ102のブロック図である。本実施形態において、また、簡素化のために、ゲームコンソール108はプロセッサ、メモリ領域、クロック、および通信インターフェースを備えて示されている。通信インターフェースは、ベースステーションとコントローラへの無線通信用の無線通信(RF)インターフェースを含む。他の実施形態では、コントローラは、ベースステーションのみと通信している。そのような実施形態では、ベースステーションとゲームコンソール間の通信プロトコルはWi−Fiであり、コントローラとベースステーション間の通信はブルートゥースプロトコルを利用する。上述のように、ベースステーションは、画像キャプチャリング、音声の送受信(本実施形態では、超音波)および発光体を含む、他の通信方法を含みうる。
ベースステーション101の様々な通信プロトコルは、コンピューティングシステム内のそれぞれのコントローラに接続する。メモリ領域は、実行中のプログラム、画像処理領域、音声処理領域、およびクロック同期領域を含む。実行中のプログラムは、画像処理プログラム、音声処理プログラム、クロック同期プログラムなどを含む。これらのプログラムは対応するメモリ領域を使用し、例えば、画像データを含む画像処理領域、超音波通信データを含む音声処理領域、および、遠隔装置との同期のために使用されるクロック同期領域、などが挙げられる。
プレーヤ環境領域でのコントローラの構成についての実施形態がいくつか図示されている。コントローラAは、上述したような多くの特徴を備えた「フル装備の(フルロードの)」コントローラである。コントローラAは、ゲームコンソール108と同期するために使用されるクロック同期(Clock Synchronization(CS))モジュールと、超音波データを受信するための音声受信機(Sound Receiver(SRx)、超音波データを送信するための音声送信機(Sound Transmitter(SRx))ゲームコンソール108とのWiFi通信のためのWiFi(WF)モジュール、コントローラのフロントおよび/またはサイド間へ音声を伝達するためのアコースティックチャンバ(Acoustic Chamber(AC))、画像データをキャプチャするための、デジタルビデオカメラなどの画像キャプチャ(Image Capture(IC))デバイス、および、ゲームコンソール108において、画像処理モジュールからの画像認識を容易にするための、赤外線スペクトルまたは可視スペクトルでの発光体(Light Emitter(LE))を含む。
図8は、本発明の一実施形態による、コントローラの位置を決定するために使用されうるハードウェアおよびユーザインターフェースを示す。図22は本発明の一実施形態による、3次元コントローラの位置決めシステムを実装可能なコンソールであるソニー(R)プレイステーション3(R)エンターテインメントデバイスのシステムアーキテクチャ全体を模式的に示す。システムユニット140は、システムユニット1400に接続可能な様々な周辺機器を備える。システムユニット1400は、セルプロセッサ(Cellプロセッサ)1428、Rambus(R)ダイナミックランダムアクセスメモリ(XDRAM)ユニット1426、専用のビデオランダムアクセスメモリ(VRAM)ユニット1432を有するリアリティシンセサイザ(Reality Synthesizer)グラフィックユニット1430、およびI/Oブリッジ1434を備える。また、システムユニット1400は、I/Oブリッジ1434を介してアクセス可能な、ディスク1440aから読み出すためのブルーレイ(R)ディスクBD−ROM(R)(Blu Ray(R)Disk BD−ROM(R))光ディスクリーダ1440、および着脱可能なスロットインハードディスクドライブ(HDD)1436も備える。任意選択で、システムユニット1400は、同様にI/Oブリッジ1434を介してアクセス可能な、コンパクトフラッシュ(登録商標)メモリカード、メモリスティック(R)メモリカードなどを読み出すためのメモリカードリーダ1438も備える。
また、I/Oブリッジ1434は、6つのユニバーサルシリアルバス(Universal Serial Bus(USB))2.0ポート1424、ギガビットイーサネット(登録商標)ポート1422、IEEE 802.11b/g無線ネットワーク(Wi−Fi)ポート1420、および最大7つのブルートゥース(R)接続に対応可能なブルートゥース(R)無線リンクポート1418にも接続している。
動作時に、I/Oブリッジ1434は、1台以上のゲームコントローラ1402〜1403からのデータを含む、全ての無線、USB、およびイーサネット(登録商標)データを処理する。例えば、ユーザがゲームをプレイ中に、I/Oブリッジ1434はブルートゥースリンクを介してゲームコントローラ1402〜1403からデータを受信して、これをセルプロセッサ1428に転送し、セルプロセッサ1428が適宜ゲームの現在の状態を更新する。
また、無線、USB、およびイーサネット(登録商標)の各ポートを介して、ゲームコントローラ1402〜1402のほかに、他の周辺機器も接続することが可能となる。このような周辺機器には、例えば、リモコン1404、キーボード1406、マウス1408、ソニープレイステーションポータブル(R)エンターテイメントデバイスなどのポータブルエンターテイメントデバイス1410、アイトーイ(R)(EyeToy(R))ビデオカメラ1412などのビデオカメラ、マイクロフォンヘッドセット1414、および、マイクロフォン1415などがある。
このため、これらの周辺機器は、原則としてシステムユニット1400に無線で接続されうる。例えば、ポータブルエンターテイメントデバイス1410はWi−Fiアドホック接続を介して通信し、マイクロフォンヘッドセット1414はブルートゥースリンクを介して通信しうる。
これらのインターフェースを提供することにより、プレイステーション3デバイスは、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、ポータブルメディアプレーヤ、VoIP電話、携帯電話、プリンタ、およびスキャナなどの他の周辺機器と場合によっては互換となりうる。
さらに、USBポート1424を介して旧式メモリカードリーダ1416をシステムユニットに接続することができ、プレイステーション(R)デバイスまたはプレイステーション2(R)で用いられていたタイプのメモリカード1448の読み出しが可能となる。
本実施形態では、ゲームコントローラ1402〜1403は、ブルートゥースリンクを介してシステムユニット1400と無線通信するように動作可能である。しかし、その代わりに、ゲームコントローラ1402〜1403が、USBポートに接続されてもよく、これにより、ゲームコントローラ1402〜1403のバッテリに充電するための電力も供給する。ゲームコントローラ1402〜1403は、メモリ、プロセッサ、メモリカードリーダ、フラッシュメモリなどの永続的なメモリ、LEDや赤外光などの発光体、超音波通信用のマイクロフォンおよびスピーカ、アコースティックチャンバ、デジタルカメラ、内部クロック、ゲームコンソールに面している球形部分などの認識可能な形状、および、ブルートゥース(R)、WiFi(商標)などのプロトコルを使用した無線通信、などを含むことができる。
図1〜10で説明したように、ゲームコントローラ1402は、両手で使用するように設計されたコントローラであり、ゲームコントローラ1403は片手用のコントローラである。1つ以上のアナログジョイスティックおよび従来のコントロールボタンに加えて、ゲームコントローラは、3次元の位置決定に敏感である。このため、従来のボタンやジョイスティックコマンドに加えて、あるいはこれらの代わりに、ゲームコントローラのユーザによるジェスチャや動作がゲームへの入力として変換されうる。任意選択で、プレイステーション(商標)ポータブルデバイスなどの他の無線対応の周辺機器をコントローラとして使用することができる。プレイステーション(商標)ポータブルデバイスの場合、追加のゲーム情報または制御情報(例えば、制御命令あるいはライブの数)が該デバイスの画面に提示されうる。他の代替的または補助的な制御装置が使用されてもよく、これには、ダンスマット(不図示)、ライトガン(不図示)、ハンドルおよびペダル(不図示)、あるいは、即答クイズゲームのための1つまたは複数の大型のボタン(これも図示なし)などの特注品のコントローラなどがある。
また、リモコン1404も、ブルートゥースリンクを介してシステムユニット1400と無線通信するように動作可能である。リモコン1404は、ブルーレイ(商標)ディスクBD−ROMリーダ1440の操作、およびディスク内容の閲覧のために適した制御を備える。
ブルーレイ(商標)ディスクBD−ROMリーダ1440は、従来の記録済みCD、記録可能CD、およびいわゆるスーパーオーディオCDのほか、プレイステーションデバイスおよびプレイステーション2デバイスと互換のCD−ROMを読み出すように動作可能である。また、リーダ1440は、従来の記録済みDVDおよび記録可能DVDのほか、プレイステーション2デバイスおよびプレイステーション3デバイスと互換のDVD−ROMを読み出すように動作可能である。さらに、リーダ1440は、従来の記録済みブルーレイディスクおよび記録可能ブルーレイディスクのほか、プレイステーション3デバイスと互換のBD−ROMを読み出すように動作可能である。
システムユニット1400は、リアリティシンセサイザグラフィックユニット1430を介して、プレイステーション3デバイスによって生成またはデコードされた音声およびビデオを、音声コネクタおよびビデオコネクタ経由で、ディスプレイ1444および1つ以上のスピーカ1446を備えた表示および音声出力デバイス1442(モニタまたはテレビ受像機など)に提供するように動作可能である。音声コネクタ1450は、従来のアナログ出力およびデジタル出力を備える一方、ビデオコネクタ1452は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、および1つ以上のハイデフマルチメディアインタフェース(High Definition Multimedia Interface:HDMI)の出力などを種々備えうる。したがって、ビデオ出力は、PALまたはNTSC、あるいは720p、1080iまたは1080pの高解像度などのフォーマットであってもよい。
音声処理(生成、デコードなど)はセルプロセッサ1428によって実行される。プレイステーション3デバイスのオペレーティングシステムは、ドルビー(R)5.1サラウンドサウンド、ドルビー(R)シアターサラウンド(Dolby Theatre Surround)(DTS)、およびブルーレイ(R)ディスクからの7.1サラウンドサウンドのデコードに対応している。
本実施形態では、ビデオカメラ1412は、1つの電荷結合素子(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮およびエンコード装置を備え、圧縮ビデオデータが、システムユニット1400によるデコードのために、イントラ画像ベースのMPEG(Motion Picture Expert Group)標準などの適切なフォーマットで送信されるようになる。カメラのLEDインジケータは、例えば不利な照明条件を示す適切な制御データをシステムユニット1400から受け取ると、発光するように配置されている。ビデオカメラ1412の実施形態は、USB、ブルートゥースまたはWi−Fiの通信ポートを介して、システムユニット1400にさまざまな方法で接続しうる。ビデオカメラの実施形態は、1つ以上の関連するマイクロフォンを備えており、音声データを送信することができる。ビデオカメラの実施形態では、CCDは、高解像度のビデオキャプチャに適した分解能を備えうる。使用時に、ビデオカメラによってキャプチャされた画像が、例えば、ゲーム内に取り込まれるか、またはゲームの制御入力として解釈されうる。別の実施形態では、カメラは、赤外光の検出に適した赤外線カメラである。
一般に、システムユニット1400の通信ポートの1つを介して、ビデオカメラまたはリモコン等などの周辺機器とのデータ通信がうまく行われるように、デバイスドライバ等の適切なソフトウェアを提供する必要がある。デバイスドライバ技術は公知であり、ここで詳細に説明しないが、当業者であればデバイスドライバまたは同様のソフトウェアインタフェースが、記載する本実施形態で必要とされうることを理解するであろう。
図9に、本発明の一実施形態による、命令の処理に使用されうる付加的ハードウェアを示す。セルプロセッサ1428は、メモリコントローラ1560およびデュアルバスインタフェースコントローラ1570A、Bを含む外部入出力構造、パワープロセッシングエレメント(Power Processing Element)1550と呼ばれるメインプロセッサ、シナジスティックプロセッシングエレメント(Synergistic Processing Element(SPE))1510A〜Hと呼ばれる8基のコプロセッサ、要素相互接続バス(Element Interconnect Bus)1580と呼ばれる上記のコンポーネントに接続している環状データバス、の4つの基本コンポーネントを備えたアーキテクチャを有する。プレイステーション2デバイスのエモーションエンジン(Emotion Engine)は6.2ギガフロップスであるのに対し、Cellプロセッサの総浮動小数点演算性能は、218ギガフロップスである。
パワープロセッシングエレメント(PPE))1550は、3.2GHzの内部クロックで動作し、双方向同時マルチスレッディングPower1470準拠のPowerPCコア(PPU)1555をベースにしている。PPE1550は、512kBのレベル2(L2)キャッシュと、32kBのレベル1(L1)キャッシュとを備える。PPE1550は、クロックサイクルごとに8つのシングルポジション操作、いわゆる単一位置操作ができ、これは、3.2GHzで25.6ギガフロップスに相当する。PPE1550の主な役割は、演算作業負荷の大部分を処理するシナジスティックプロセッシングエレメント1510A〜Hのコントローラとして機能することにある。動作時に、PPE1550はジョブキューを保持し、シナジスティックプロセッシングエレメント1510A〜Hのジョブをスケジュールしており、その進捗を監視する。したがって、各シナジスティックプロセッシングエレメント1510A〜Hはカーネルを実行し、その役割は、ジョブを取り出して、これを実行し、PPE1550と同期されることにある。
各シナジスティックプロセッシングエレメント(SPE)1510A〜Hは、シナジスティックプロセッシングユニット(Synergistic Processing Unit(SPU))1520A〜Hおよびメモリフローコントローラ(Memory Flow Controller(MFC))1540A〜Hをそれぞれ備え、MFC1540A〜Hは、ダイナミックメモリアクセスコントローラ(Dynamic Memory Access Controller(DMAC)1542A〜H、メモリ管理ユニット(Memory Management Unit(MMU)1544A〜H、およびバスインタフェース(不図示)をそれぞれ備える。各SPU1520A〜Hは3.2GHzでクロック供給され、原則として4GBまで拡張可能な256kBのローカルRAM1530A〜Hを備えたRISCプロセッサである。各SPEは、理論的には単精度処理性能で25.6ギガフロップスを示す。1つのSPUは、1クロックサイクルに、4つの単精度浮動小数点数、4つの32ビット数、8つの16ビット整数または16の8ビット整数を処理することができる。同じクロックサイクルで、メモリ操作も実行することができる。SPU1520A〜HはシステムメモリXDRAM1426に直接アクセスしない。SPU1520A〜Hが作成した64ビットアドレスがMFC1540A〜Hに渡され、MFC1540A〜Hが、自身のDMAコントローラ1542A〜Hに対して、要素相互接続バス1580およびメモリコントローラ1560を介してメモリにアクセスするように指示する。
要素相互接続バス(EIB)1580は、セルプロセッサ1428内部の論理的には環状の通信バスであり、上記のプロセッサ要素(すなわち、PPE1550、メモリコントローラ1560、デュアルバスインタフェース1570A、B、および8基のSPE1510A〜H、合計12個のパーティシパント)を接続している。パーティシパントは、1クロックサイクルにつき8バイトの速度で、バスに同時に読み出しおよび書き込みを行うことができる。上で説明したように、各SPE1510A〜Hは、長いリードまたはライトのシーケンスをスケジュールするためのDMAC1542A〜Hを備える。EIBは、4つのチャネルを備え、そのうち2つは時計回り方向であり、残り2つは反時計回り方向である。したがって、12のパーティシパントについて、2つのパーティシパント間のステップ方式の最長のデータフローは、適切な方向で6ステップとなる。このため、パーティシパント間でアービトレーションが行われて完全な利用度が実現されると、12のスロットの理論上のピーク瞬間EIB帯域幅は、1クロックにつき96Bとなる。これは、3.2GHzのクロック速度で307.2GB/s(ギガバイト/秒)の理論上のピーク帯域幅に相当する。
メモリコントローラ1560は、ラムバス社(Rambus Incorporated)によって開発されたXDRAMインターフェース1562を備える。このメモリコントローラは、25.6GB/sの理論上のピーク帯域幅で、Rambus XDRAM1426とインターフェースする。
デュアルバスインタフェース1570A、Bは、Rambus FlexIO(R)システムインタフェース1572A、Bを備える。このインターフェースは、それぞれ8ビット幅の12のチャネルに編成されており、このうち、5の経路が受信用、7つの経路が送信用である。これにより、セルプロセッサと、コントローラ170Aを介してI/Oブリッジ1434間、およびコントローラ170Bを介してリアリティシミュレータ(Reality Simulator)グラフィックユニット200間で、理論上のピーク帯域幅が62.4GB/s(送信36.4GB/s、受信26GB/s)が得られる。セルプロセッサ1428によってリアリティシミュレータグラフィックユニット1430に送信されるデータには、通常、表示リストが含まれ、これは、頂点を描画したり、ポリゴンにテクスチャを貼り付けたり、照明条件を指定するなどための一連のコマンドである。
実施形態では、現実世界のユーザをより正確に特定し、アバターまたはシーンのアクティビティを管理するために深度データのキャプチャが行われてもよい。物体は、人物が把持している物体であっても、人物の手であってもよい。本明細書においては、「深度カメラ」および「3次元カメラ」との用語は、距離情報や深度情報のほかに、2次元のピクセル情報も得ることができるカメラを指す。例えば、距離情報を得るために、深度カメラは制御された赤外光を利用してもよい。別の例示的な深度カメラは、2台のスタンダードカメラを使用して距離情報の三角測量を行う複数のカメラ構成であってよい。同様に、「深度感知デバイス」なる用語は、距離情報のほかに2次元のピクセル情報も得ることができるデバイスを指す。
3次元画像の最近の進歩により、リアルタイムでのインタラクティブなコンピュータアニメーションの実現性を高める可能性が広がっている。特に、新たな「深度カメラ」により、通常の二次元ビデオ画像に加えて、3次元ビデオ画像をキャプチャしマッピングすることができる。新たな深度データを使用して、本発明の実施形態は、コンピュータで生成されたオブジェクトをリアルタイムで他のオブジェクトの背後を含むビデオシーン内の様々な位置に配置することができる。
さらに、本発明の実施形態は、リアルタイムでのインタラクティブなゲーム体験をユーザにさせることができる。例えば、ユーザは、コンピュータが生成したさまざまなオブジェクトとリアルタイムでインタラクションを行うことができる。さらに、ユーザのゲーム体験を高めるためにビデオシーンをリアルタイムで変更することができる。例えば、コンピュータが生成したコスチュームを、ユーザの服にはめ込んだり、コンピュータが生成した光源を利用して、ビデオシーン内に仮想の影を表示させることができる。このため、本発明の各種実施形態と深度カメラを使用して、ユーザは自分のリビングルームでインタラクティブなゲーム環境を体験することができる。深度カメラは、通常のカメラと同様に、ビデオ画像を含む複数のピクセルに対する2次元データをキャプチャする。これらの値はピクセルのカラー値であり、通常は、各ピクセルの赤、緑、青(RGB)の値である。このようにして、カメラによってキャプチャされたオブジェクトは、モニタ上で2次元のオブジェクトとして現れる。
さらに本発明の実施形態は分散型の画像処理構成についても考察している。例えば、本発明は、1つの場所(CPUなど)や2つの場所(CPUと他の1つの素子など)で行われるキャプチャ画像および表示画像の処理に限定されない。例えば、入力画像処理は、処理を実行することができる関連のCPU、プロセッサまたは装置において容易に行うことができ、基本的には、画像処理の全てを、相互接続システム全体に分散させることができる。このため、本発明は、特定の画像処理ハードウェア回路および/またはソフトウェアに限定されない。また、本明細書に記載した実施形態は、一般的なハードウェア回路および/またはソフトウェアの特定の組み合わせに限定されず、処理コンポーネントによって実行される命令の特定のソースにも限定されない。
図10は、本発明の一実施形態による、シーンA〜シーンEと、インターネットを介して処理サーバに接続されているゲームクライアントやゲームコンソール1002とインターフェースしているそれぞれのユーザA〜Eの例示的な図である。上述のように、ゲームクライアントは、ユーザがインターネットを介してサーバアプリケーションや処理サーバへの接続を可能にするデバイスである。ゲームクライアントにより、ユーザは、ゲーム、映画、音楽、および写真など(これらに限定されない)のオンラインエンターテインメントコンテンツにアクセスしこれらを再生することができる。さらに、ゲームクライアントは、VOIP、テキストチャットプロトコル、およびeメールなどのオンライン通信アプリケーションへアクセスできるようにする。
ユーザはコントローラを介してゲームクライアントとインタラクトする。ある実施形態では、コントローラはゲームクライアント固有のコントローラであり、他の実施形態では、コントローラはキーボードとマウスの組み合わせであってよい。一実施形態では、ゲームクライアントは音声および画像信号を出力し、モニタ/テレビおよび関連づけられる音声環境によりマルチメディア環境を生成することができる独立型のデバイスである。例えば、ゲームクライアントは、薄型のクライアント、内蔵型PCIエクスプレスカード、外付けPCIエクスプレスデバイス、エクスプレスカード(ExpressCard)デバイス、内蔵型、外付け、あるいは無線USBデバイス、ファイヤーワイヤー(Firewire)デバイスなどでありうるが、これらに限定されない。他の実施形態では、ゲームクライアントは、DVR、ブルーレイプレーヤ、DVDプレーヤ、あるいはマルチチャネルレシーバと一体化されている。
図10のシーンAでは、ユーザAは、ゲームクライアント1002Aとペアにされたコントローラ102を使用して、モニタ106に表示されるクライアントアプリケーションとインタラクトする。同様に、シーンBでは、ユーザBは、ゲームクライアント1002Bとペアにされたコントローラ102を使用して、モニタ106に表示される別のクライアントアプリケーションとインタラクトする。シーンCは、ユーザがゲームクライアント1002Cからの友人リストあるいはバディリストとゲームが表示されているモニタを見ているユーザCの背後からのビューを示す図である。図10は、一実施形態における一つの処理サーバモジュールを図示しているが、多くの処理サーバモジュールが世界中で存在する。各処理サーバモジュールは、ユーザセッションコントロール、共有/通信論理、ユーザのジオロケーション(地理位置情報)、ロードバランス処理サービスのためのサブモジュールを含む。さらに、処理サーバモジュールは、ネットワーク処理と分散型記憶装置とを含む。
ゲームクライアント1002が処理サーバモジュールに接続するときに、ユーザセッションコントロールを利用してユーザ認証を行うようにしてもよい。認証されたユーザは、関連する視覚化された分散型記憶装置と視覚化されたネットワーク処理とを有することができる。ユーザの視覚化された分散型記憶装置の一部として記憶されうるアイテムの例としては、ゲーム、ビデオおよび音楽などの購入された媒体が挙げられるが、これらに限定されない。さらに、複数のゲームのゲームステータスや、個々のゲームのカスタマイズ設定、ゲームクライアントの一般的な設定をセーブするために分散型記憶装置を利用してもよい。一実施形態では、処理サーバのユーザジオロケーションモジュールを用いて、ユーザと、ユーザのそれぞれのゲームクライアントのジオロケーションが決定される。複数の処理サーバモジュールの処理命令と地理的位置とに基づいてパフォーマンスを最適化するように、共有/通信論理とロードバランス処理サービスとによりこのユーザの地理的位置が用いられてもよい。ネットワーク処理とネットワーク記憶装置の一方あるいは両方を視覚化することにより、十分に活用されていない処理サーバモジュールへゲームクライアントからの処理タスクを動的にシフトさせることができる。従って、ロードバランスを利用して、記憶装置からのリコールと、処理サーバモジュールとゲームクライアント間のデータ送信とに関連づけられるレイテンシーを最小限に抑えるようにしてもよい。
図10に示しているように、処理サーバモジュールは、例えば、サーバアプリケーションAおよびサーバアプリケーションBを有する。処理サーバモジュールは、サーバアプリケーションXとサーバアプリケーションXによって示されるような複数のサーバアプリケーションに対応することができる。一実施形態では、処理サーバは、クラスタコンピューティングアーキテクチャに基づくものであり、このアーキテクチャにより、クラスタ内の複数のプロセッサはサーバアプリケーションを処理することができる。別の実施形態では、サーバアプリケーションを処理するために、様々なタイプのマルチコンピュータプロセッシングスキームが適用される。これにより、複数のクライアントアプリケーションと、対応のサーバアプリケーションとを実行する、より多くのゲームクライアントに対応することができるように、処理サーバを増やすことができる。他の形態では、要求の多いグラフィック処理やゲーム、ビデオ圧縮、あるいはアプリケーションの複雑さにより求められる、増加するコンピューティング命令に対応するように処理サーバを増やすことができる。一実施形態では、処理サーバモジュールは、サーバアプリケーションを介して処理の大部分を実行する。これにより、グラフィックプロセッサ、RAM、および汎用プロセッサなどの比較的高額な要素を中央に位置決めすることができ、ゲームクライアントのコストを削減することができる。処理されたサーバアプリケーションデータは、インターネットを介して対応するゲームクライアントに送り戻され、モニタに表示されるようにする。
シーンCは、ゲームクライアントと処理サーバモジュールにより実行される例示的なアプリケーションを示す。例えば、一実施形態では、ゲームクライアント1002Cにより、ユーザCは、ユーザA、ユーザB、ユーザD、およびユーザEを含む友人リストあるいはバディリスト(buddy list:BL)1020を生成し、これを見ることができる。図示しているように、シーンCでは、ユーザCは、モニタ106Cでリアルタイム画像か、それぞれのユーザのアバタのいずれか一方を見ることができる。処理サーバでは、ゲームクライアント1002Cのそれぞれのアプリケーションが、ユーザA、ユーザB、ユーザDおよびユーザDのそれぞれのゲームクライアント1002により実行される。ゲームクライアントBが実行中のアプリケーションを処理サーバが認識しているので、ユーザAの友人リストにユーザBがプレイ中のゲームを表示することができる。さらにまた、一実施形態では、ユーザAは、ユーザBが直接みているゲームビデオを直接見ることができる。これは、ユーザBに対する処理済のサーバアプリケーションデータを、ゲームクライアントBだけでなく、ゲームクライアントAに送信するだけでできるようになる。
友人からの映像を見ることができるだけでなく、この通信アプリケーションにより、友人間でリアルタイム通信ができるようになる。上述した例に適用しているように、これにより、ユーザAはユーザBのリアルタイム映像を見ている間に、激励したりヒントを与えることができる。一実施形態では、双方向リアルタイム音声通信は、クライアント/サーバアプリケーションを介して確立される。別の実施形態では、クライアント/サーバアプリケーションはテキストでのチャットを可能にする。さらに別の実施形態では、クライアント/サーバアプリケーションは、音声やスピーチをテキストに変換して友人のスクリーンに表示する。シーンDは、ゲームコンソール1010Dとインタラクト中のユーザDを、シーンEは、ゲームコンソール1010Eとインタラクト中のユーザEを示す。各ゲームコンソール1010Dと1010Eは、処理サーバモジュールに接続されており、この処理サーバモジュールがゲームコンソールとゲームクライアント両方に対するゲームプレイを調整しているネットワークを示す。
上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されているデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。さらに、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。
上記した発明は、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成によって実施されてもよい。また、本発明は、分散コンピューティング環境で実施されてもよく、このような環境では、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される。
また、本発明は、コンピュータ可読媒体上のコンピュータ可読コードとして実施されてもよい。コンピュータ可読媒体は、電磁搬送波を含め、コンピュータシステムによって後から読取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものに存在してもよい。コンピュータ可読媒体の例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、コンピュータ可読媒体は、コンピュータ可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。上記に、本発明を明確に理解できるように多少詳細に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。

Claims (28)

  1. コンピュータで実行されるコンピュータプログラムとインターフェースされる入力デバイスから受信されるインタラクティブな通信を処理するための方法であって、
    前記コンピュータとインターフェースされるベースステーションにおいて、第1入力デバイスと第2入力デバイスとから入力データを受信するステップを含み、前記第1入力デバイスと第2入力デバイスとは前記コンピュータプログラムとインタラクティブにインターフェースするために、相互に独立して移動可能なものであって、
    前記ベースステーションを介して、前記第1入力デバイスと第2入力デバイスの位置をトラッキングするステップと、
    トラッキングされた、前記第1入力デバイスと第2入力デバイスの略同一の位置の変化を特定するステップと、
    前記略同一の位置の変化を特定後にフラグを設定するステップと、を含み、前記フラグは前記コンピュータプログラムとのインタラクティビティの間に発生する、前記第1入力デバイスと第2入力デバイスの前記同一の位置の変化を補償するためのアクションをセットするようコンピュータプログラムにより処理される、方法。
  2. 前記コンピュータプログラムとのインタラクティビティの間に発生させる前記アクションは、前記コンピュータプログラムの態様に応じて事前設定されている、請求項1記載の方法。
  3. 前記ベースステーションにおいて、前記ベースステーションの移動の大きさを決定する慣性感知操作を処理するステップをさらに含む、請求項1記載の方法。
  4. 前記ベースステーションの移動の大きさが閾値を越える場合に、前記フラグの処理により前記アクションがセットされる、請求項3記載の方法。
  5. 前記コンピュータプログラムはコンピュータゲームであり、前記セットされるアクションは、前記略同一の位置の変化を差し引く、前記第1入力デバイスおよび第2入力デバイスの両方を補正する、コンピュータゲームを中断する、コンピュータゲームを巻き戻す、コンピュータゲームをリスタートする、あるいは、ベースステーションの移動を知らせる、のうちの1つである、請求項2記載の方法。
  6. 前記略同一の位置の変化は大きさを有し、前記大きさが閾値レベルを超えた場合、前記フラグは前記アクションをセットするように処理され、前記位置のトラッキングが前記ベースステーションを介して行われることから、前記閾値レベルを超える前記大きさは、前記ベースステーションの移動を示すものである、請求項1記載の方法。
  7. 前記第1入力デバイスと第2入力デバイスの前記位置のトラッキングには、
    (a)前記第1入力デバイスと第2入力デバイスとから位置を受信するステップ、
    (b)ベースステーションにおいて、前記第1入力デバイスおよび第2入力デバイスから受信したデータから位置データを計算するステップ、
    (c)前記第1入力デバイスおよび第2入力デバイスあるいは前記ベースステーションから受信したデータに基づいて、前記コンピュータにおいて位置データを計算するステップ、
    (d)前記第1入力デバイスおよび第2入力デバイスの位置を一部決定し、前記ベースステーションの位置を一部決定するステップ、あるいは、
    (e)前記第1入力デバイスおよび第2入力デバイス、前記ベースステーション、および前記コンピュータから得たデータに基づいて位置データを一部決定するステップ、
    のうちの一つまたはこれらの組合せを含む、請求項1記載の方法。
  8. 前記位置は、画像処理、超音波データ処理、入力ジョイスティック動作、ピッチ−ロール−ヨーデータ、有線または無線入力、あるいは入力ボタン選択、のうちの1つ以上により処理される、請求項7記載の方法。
  9. 前記コンピュータはゲームコンソールであり、前記第1入力デバイスと第2入力デバイスとは、前記ゲームコンソールとさらにインターフェースされる、請求項1記載の方法。
  10. 画像処理は、前記略同一の位置の変化が生じたことを確認するために、前記第1入力デバイスと第2入力デバイスの両方を含む1つ以上のフレームからの画像データを比較するステップを含む、請求項9記載の方法。
  11. 前記ベースステーションは、有線接続か無線接続により前記ゲームコンソールとインターフェースされる、請求項9記載の方法。
  12. テレビゲームのインタラクティブな制御を行うシステムであって、
    ゲームコンソールと、
    前記ゲームコンソールから離れた位置に配置されているベースステーションと、を含み、前記ベースステーションは、前記ベースステーションと前記ゲームコンソール間のインターフェースを可能にする通信回路を有しており、前記ベースステーションはさらに、プレイゾーン内で画像データをキャプチャするためのビデオカメラを有しており、さらに、
    前記ベースステーションと前記ゲームコンソールの一方あるいは両方とインターフェースを行う第1コントローラと第2コントローラとを含み、前記第1コントローラ及び第2コントローラを含む画像データの分析を利用して、前記ゲームコンソールによって前記テレビゲームのインタラクティブな制御に関する前記プレイゾーン内の前記第1コントローラ及び第2コントローラの移動を決定し、
    前記ゲームコンソールは、前記決定された第1コントローラ及び第2コントローラの略同一の位置の変化を特定し、前記略同一の位置の変化を特定後にフラグを設定し、前記フラグは前記テレビゲームとのインタラクティビティの間に発生する、前記第1コントローラと第2コントローラの前記同一の位置の変化を補償するためのアクションをセットするようテレビゲームにより処理されるシステム。
  13. 前記ベースステーションは、動作検出回路をさらに含み、前記動作検出回路は、前記動作検出回路からのデータを分析するように構成されたベースステーションポジションプロセッサとインターフェースする、請求項12記載のシステム。
  14. 前記ベースステーションポジションプロセッサは、前記動作検出回路からのデータが閾値を超えた場合に、前記ベースステーションの再調整をトリガする、請求項13記載のシステム。
  15. 前記第1コントローラ及び第2コントローラが前記ゲームコンソールと前記ベースステーションの両方とインターフェースされるときに、前記ベースステーションは、前記第1コントローラ及び第2コントローラの移動を決定するために、前記画像データを一部分析するための回路をさらに含む、請求項12記載のシステム。
  16. 前記ベースステーションにより一部が分析された前記画像データは、前記画像データの分析を完了するための回路をさらに含む前記ゲームコンソールに送信される、請求項15記載のシステム。
  17. 前記第1コントローラ及び第2コントローラは、前記画像データを分析するための回路をさらに含むベースステーションとのインターフェースがなされる、請求項12記載のシステム。
  18. 前記ビデオカメラは、前記プレイゾーン内のオブジェクトに対する深度データをキャプチャするようにさらに構成されている、請求項12記載のシステム。
  19. 前記第1コントローラ及び第2コントローラと前記ベースステーションとはそれぞれ、超音波送信機と超音波受信機をそれぞれ含む、請求項12記載のシステム。
  20. 前記超音波送信機と超音波受信機とは、前記ベースステーションからの前記第1コントローラ及び第2コントローラの距離を決定する、請求項19記載のシステム。
  21. テレビゲームを制御するためのゲームコンソールとインターフェースするシステムであって、
    ゲームコンソールと、
    前記ゲームコンソールとインターフェースされているベースステーションと、を含み、前記ベースステーションは前記ベースステーションと前記ゲームコンソール間でデータを送受信するように構成されている処理回路を有しており、前記ベースステーションは位置データを処理するように構成されているものであって、さらに、
    前記ベースステーションとインターフェースする第1コントローラ及び第2コントローラを含み、前記第1コントローラ及び第2コントローラは、それぞれ当該コントローラの移動データを検出して前記移動データを前記ベースステーションへ伝達するためのハードウェアを有しており、前記ベースステーションは前記コントローラの前記位置データを処理し、前記位置データは、前記ベースステーションに対する前記コントローラの相対位置を決定するために、前記ベースステーションから前記ゲームコンソールへと中継されるものであって、前記コントローラの前記相対位置の変化により、前記テレビゲームとのインタラクティブな制御が支援され、
    前記ゲームコンソールは、前記決定された第1コントローラ及び第2コントローラの略同一の位置の変化を特定し、前記略同一の位置の変化を特定後にフラグを設定し、前記フラグは前記テレビゲームとのインタラクティビティの間に発生する、前記第1コントローラと第2コントローラの前記同一の位置の変化を補償するためのアクションをセットするようコンピュータプログラムにより処理される、システム。
  22. 前記ベースステーションは、前記ゲームコンソールと、ユーザの手に把持されるように構成された前記コントローラとの間に配置される、請求項21記載のシステム。
  23. 前記ベースステーションは、床のスペースに配置され、前記ベースステーションは、超音波を局所的にキャプチャし送信できるプレイゾーンを画定する、請求項21記載のシステム。
  24. 前記ベースステーションは、前記ベースステーションの位置較正を開始するベース同期回路を有する、請求項21記載のシステム。
  25. 前記第1コントローラと第2コントローラは、それぞれ、前記ベースステーションに対する位置較正を開始するための移動同期回路を有する、請求項21記載のシステム。
  26. 前記ゲームコンソールは、前記ベースステーションに対する位置較正を処理する、請求項24記載のシステム。
  27. 前記ゲームコンソールは、前記ベースステーションの前記位置をモニタリングし、前記ベースステーションの前記位置が、位置変化における閾値を超えたかどうかを検出する、請求項26記載のシステム。
  28. 前記ゲームコンソールは、前記ベースステーションの位置の再較正をトリガする、請求項27記載のシステム。
JP2012509815A 2009-05-08 2010-03-12 ベースステーションの移動検出および補償 Active JP5575228B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/463,360 US8142288B2 (en) 2009-05-08 2009-05-08 Base station movement detection and compensation
US12/463,360 2009-05-08
PCT/US2010/027200 WO2010129093A1 (en) 2009-05-08 2010-03-12 Base station movement detection and compensation

Publications (2)

Publication Number Publication Date
JP2012525917A JP2012525917A (ja) 2012-10-25
JP5575228B2 true JP5575228B2 (ja) 2014-08-20

Family

ID=42173499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012509815A Active JP5575228B2 (ja) 2009-05-08 2010-03-12 ベースステーションの移動検出および補償

Country Status (5)

Country Link
US (1) US8142288B2 (ja)
EP (1) EP2427811B1 (ja)
JP (1) JP5575228B2 (ja)
CN (1) CN102576257B (ja)
WO (1) WO2010129093A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8342968B2 (en) 2008-02-01 2013-01-01 Fuccillo Ralph C Methods and system for improving a user's reaction time and accuracy in propelling an object
CN101569540B (zh) * 2008-04-29 2011-05-11 香港理工大学 无线超声波扫描系统
WO2011010414A1 (ja) * 2009-07-21 2011-01-27 株式会社ソニー・コンピュータエンタテインメント ゲーム装置
WO2011094846A1 (en) * 2010-02-03 2011-08-11 Visual Sports Systems Collapsible enclosure for playing games on computers and gaming consoles
TWI478759B (zh) * 2010-05-17 2015-04-01 Hon Hai Prec Ind Co Ltd 具有釣魚遊戲桿的遊戲裝置
US10560621B2 (en) * 2010-11-19 2020-02-11 Symbol Technologies, Llc Methods and apparatus for controlling a networked camera
WO2012128675A1 (en) * 2011-03-18 2012-09-27 Telefonaktiebolaget L M Ericsson (Publ) Indicating physical change in relation to an exterior of a network node module
US20120270497A1 (en) * 2011-04-20 2012-10-25 SIFTEO, Inc. Manipulable Cubes Base Station
US11133096B2 (en) * 2011-08-08 2021-09-28 Smith & Nephew, Inc. Method for non-invasive motion tracking to augment patient administered physical rehabilitation
US9495018B2 (en) 2011-11-01 2016-11-15 Qualcomm Incorporated System and method for improving orientation data
US9724597B2 (en) * 2012-06-04 2017-08-08 Sony Interactive Entertainment Inc. Multi-image interactive gaming device
US8944914B2 (en) * 2012-12-11 2015-02-03 PNI Sensor Corporation Control of translational movement and field of view of a character within a virtual world as rendered on a display
US9264749B2 (en) 2012-12-13 2016-02-16 Microsoft Technology Licensing, Llc Server GPU assistance for mobile GPU applications
US9350924B2 (en) 2014-08-25 2016-05-24 John G. Posa Portable electronic devices with integrated image/video compositing
GB2543019A (en) * 2015-07-23 2017-04-12 Muzaffar Saj Virtual reality headset user input system
US10942252B2 (en) * 2016-12-26 2021-03-09 Htc Corporation Tracking system and tracking method
IT201700020955A1 (it) 2017-02-24 2018-08-24 Xplored S R L Metodo ed apparato per controllare videogiochi
EP3444016A1 (fr) * 2017-08-17 2019-02-20 Bigben Interactive SA Procede de contrôle d'un element d'affichage par une console de jeux
JP6755843B2 (ja) 2017-09-14 2020-09-16 株式会社東芝 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
US11032345B2 (en) 2018-05-10 2021-06-08 Microsoft Technology Licensing, Llc Client side data stream processing
US10924525B2 (en) 2018-10-01 2021-02-16 Microsoft Technology Licensing, Llc Inducing higher input latency in multiplayer programs
US11567186B2 (en) 2019-03-19 2023-01-31 Kabushiki Kaisha Toshiba Compensating radio tracking with comparison to image based tracking
JP6905578B1 (ja) * 2019-12-26 2021-07-21 株式会社スクウェア・エニックス 発光システム、プログラム、及び発光方法
US11711571B2 (en) * 2020-03-06 2023-07-25 Advanced Micro Devices, Inc. Client-side offload of graphics effects processing

Family Cites Families (319)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3943277A (en) * 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
US4313227A (en) * 1979-01-29 1982-01-26 Texas Instruments Incorporated Light energy information transmission system
US4263504A (en) * 1979-08-01 1981-04-21 Ncr Corporation High density matrix code
US6772057B2 (en) * 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US4565999A (en) * 1983-04-01 1986-01-21 Prime Computer, Inc. Light pencil
US4558864A (en) 1984-06-13 1985-12-17 Medwedeff Marion C Handgrip exercising, computer game controller
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPS6347616A (ja) 1986-08-15 1988-02-29 Ricoh Co Ltd 移動量測定方法
US4802227A (en) * 1987-04-03 1989-01-31 American Telephone And Telegraph Company Noise reduction processing arrangement for microphone arrays
GB2206716A (en) 1987-07-06 1989-01-11 Gen Electric Plc Apparatus for monitoring the presence or movement of an object
IT1219405B (it) 1988-06-27 1990-05-11 Fiat Ricerche Procedimento e dispositivo per la visione strumentale in condizioni di scarsa visibilita in particolare per la guida nella nebbia
US5260556A (en) 1988-12-20 1993-11-09 Australian Meat & Live-Stock Research & Development Corp. Optically readable coded target
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
US5055840A (en) 1990-01-16 1991-10-08 Carroll Touch Incorporated Infrared touch input device and light emitted activation circuit
DE69016463T2 (de) 1990-05-01 1995-09-07 Wang Laboratories Handfreie hardwaretastatur.
US5111401A (en) 1990-05-19 1992-05-05 The United States Of America As Represented By The Secretary Of The Navy Navigational control system for an autonomous vehicle
US5662111A (en) 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US5485273A (en) * 1991-04-22 1996-01-16 Litton Systems, Inc. Ring laser gyroscope enhanced resolution system
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5144594A (en) 1991-05-29 1992-09-01 Cyber Scientific Acoustic mouse system
US5455685A (en) 1991-09-04 1995-10-03 Fuji Photo Film Co., Ltd. Video camera exposure control apparatus for controlling iris diaphragm and automatic gain control operating speed
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5444462A (en) 1991-12-16 1995-08-22 Wambach; Mark L. Computer mouse glove with remote communication
US5790834A (en) * 1992-08-31 1998-08-04 Intel Corporation Apparatus and method using an ID instruction to identify a computer microprocessor
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US7098891B1 (en) 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US5394168A (en) * 1993-01-06 1995-02-28 Smith Engineering Dual-mode hand-held game controller
US5335011A (en) 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
US5815411A (en) 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JP3679426B2 (ja) 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
US5677710A (en) 1993-05-10 1997-10-14 Apple Computer, Inc. Recognition keypad
US5297061A (en) 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision
US5959596A (en) * 1993-06-24 1999-09-28 Nintendo Co., Ltd. Airline-based video game and communications system
US5581270A (en) 1993-06-24 1996-12-03 Nintendo Of America, Inc. Hotel-based video game and communication system
US5473701A (en) * 1993-11-05 1995-12-05 At&T Corp. Adaptive microphone array
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
FR2714502A1 (fr) 1993-12-29 1995-06-30 Philips Laboratoire Electroniq Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
US5543818A (en) 1994-05-13 1996-08-06 Sony Corporation Method and apparatus for entering text using an input device having a small number of keys
US5846086A (en) * 1994-07-01 1998-12-08 Massachusetts Institute Of Technology System for human trajectory learning in virtual environments
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5641319A (en) 1994-08-10 1997-06-24 Lodgenet Entertainment Corporation Entertainment system for providing interactive video game responses to the game interrogations to the video game engines without being processed by the host computer
GB2301514B (en) 1994-12-01 1999-06-09 Namco Ltd Apparatus and method for image synthesization
JP3270643B2 (ja) 1994-12-22 2002-04-02 キヤノン株式会社 指示位置検出方法及び装置
US5929444A (en) 1995-01-31 1999-07-27 Hewlett-Packard Company Aiming device using radiated energy
US5568928A (en) 1995-02-01 1996-10-29 Exertron, Inc. Video game controller for use with an exercise apparatus
US5638228A (en) 1995-02-14 1997-06-10 Iomega Corporation Retroreflective marker for data storage cartridge
US5930741A (en) * 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5583478A (en) 1995-03-01 1996-12-10 Renzi; Ronald Virtual environment tactile system
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US5706364A (en) 1995-04-28 1998-01-06 Xerox Corporation Method of producing character templates using unsegmented samples
EP0823683B1 (en) 1995-04-28 2005-07-06 Matsushita Electric Industrial Co., Ltd. Interface device
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5649021A (en) 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
AU6135996A (en) 1995-06-22 1997-01-22 3Dv Systems Ltd. Improved optical ranging camera
DE69607472T2 (de) 1995-07-26 2000-08-24 Tegic Communications Inc System zur unterdrückung der vieldeutigkeit in einer verringerten tastatur
US6311214B1 (en) 1995-07-27 2001-10-30 Digimarc Corporation Linking of computers based on optical sensing of digital data
US5768415A (en) 1995-09-08 1998-06-16 Lucent Technologies Inc. Apparatus and methods for performing electronic scene analysis and enhancement
US5611731A (en) * 1995-09-08 1997-03-18 Thrustmaster, Inc. Video pinball machine controller having an optical accelerometer for detecting slide and tilt
US5850222A (en) 1995-09-13 1998-12-15 Pixel Dust, Inc. Method and system for displaying a graphic image of a person modeling a garment
US5818424A (en) 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US6281930B1 (en) 1995-10-20 2001-08-28 Parkervision, Inc. System and method for controlling the field of view of a camera
US5963250A (en) 1995-10-20 1999-10-05 Parkervision, Inc. System and method for controlling the field of view of a camera
US5719561A (en) 1995-10-25 1998-02-17 Gilbert R. Gonzales Tactile communication device and method
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
US5870100A (en) 1995-11-22 1999-02-09 Compaq Computer Corporation Filling of graphical regions
WO1997020305A1 (en) 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US6049619A (en) 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US5991693A (en) 1996-02-23 1999-11-23 Mindcraft Technologies, Inc. Wireless I/O apparatus and method of computer-assisted instruction
RU2069885C1 (ru) 1996-03-01 1996-11-27 Йелстаун Корпорейшн Н.В. Способ наблюдения объектов при пониженной освещенности и устройство для его осуществления
JPH09244793A (ja) 1996-03-04 1997-09-19 Alps Electric Co Ltd 入力装置
CN1177634C (zh) 1996-03-05 2004-12-01 世嘉企业股份有限公司 控制器和电子装置
JP3920348B2 (ja) * 1996-04-02 2007-05-30 コグネックス コーポレイション 平坦な鏡面基板の指標を観察する画像形成装置
US5937081A (en) * 1996-04-10 1999-08-10 O'brill; Michael R. Image composition system and method of using same
US5923318A (en) 1996-04-12 1999-07-13 Zhai; Shumin Finger manipulatable 6 degree-of-freedom input device
US5917493A (en) 1996-04-17 1999-06-29 Hewlett-Packard Company Method and apparatus for randomly generating information for subsequent correlating
US5881366A (en) 1996-05-01 1999-03-09 Logitech, Inc. Wireless peripheral interface
US6516466B1 (en) 1996-05-02 2003-02-04 Vincent C. Jackson Method and apparatus for portable digital entertainment system
US6151009A (en) 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US6400374B2 (en) 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US5930383A (en) 1996-09-24 1999-07-27 Netzer; Yishay Depth sensing camera systems and methods
US5832931A (en) 1996-10-30 1998-11-10 Photogen, Inc. Method for improved selectivity in photo-activation and detection of molecular diagnostic agents
NL1004648C2 (nl) 1996-11-11 1998-05-14 Johan Michiel Schaaij Computerspelsysteem.
US5914723A (en) 1996-12-30 1999-06-22 Sun Microsystems, Inc. Method and system for converting images in computer systems
US6243491B1 (en) 1996-12-31 2001-06-05 Lucent Technologies Inc. Methods and apparatus for controlling a video system with visually recognized props
US5850473A (en) 1997-01-07 1998-12-15 Lucent Technologies Inc. Method and apparatus for compensating for color variation in a video system
US6021219A (en) 1997-01-07 2000-02-01 Lucent Technologies Inc. Methods and apparatus for distinguishing among several visual patterns
US5796354A (en) 1997-02-07 1998-08-18 Reality Quest Corp. Hand-attachable controller with direction sensing
US5993314A (en) 1997-02-10 1999-11-30 Stadium Games, Ltd. Method and apparatus for interactive audience participation by audio command
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
AU2228197A (en) 1997-03-07 1998-09-22 3Dv Systems Ltd. Optical shutter
US6061055A (en) 1997-03-21 2000-05-09 Autodesk, Inc. Method of tracking objects with an imaging device
US6144367A (en) * 1997-03-26 2000-11-07 International Business Machines Corporation Method and system for simultaneous operation of multiple handheld control devices in a data processing system
US8120652B2 (en) * 1997-04-02 2012-02-21 Gentex Corporation System for controlling vehicle equipment
US6587573B1 (en) * 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
JP3009633B2 (ja) 1997-04-03 2000-02-14 コナミ株式会社 画像装置、画像表示方法および記録媒体
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6809776B1 (en) 1997-04-23 2004-10-26 Thomson Licensing S.A. Control of video level by region and content of information displayed
US6428411B1 (en) 1997-05-02 2002-08-06 Konami Co., Ltd. Volleyball video game system
NO304715B1 (no) 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
JP3183632B2 (ja) 1997-06-13 2001-07-09 株式会社ナムコ 情報記憶媒体及び画像生成装置
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
US6094625A (en) 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
EP0928460B1 (en) 1997-07-29 2003-01-29 Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
US6044181A (en) 1997-08-01 2000-03-28 Microsoft Corporation Focal length estimation method and apparatus for construction of panoramic mosaic images
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6297838B1 (en) 1997-08-29 2001-10-02 Xerox Corporation Spinning as a morpheme for a physical manipulatory grammar
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6031934A (en) 1997-10-15 2000-02-29 Electric Planet, Inc. Computer vision system for subject characterization
JPH11154240A (ja) 1997-11-20 1999-06-08 Nintendo Co Ltd 取込み画像を用いて画像を作成するための画像作成装置
US6166744A (en) 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
US6762794B1 (en) 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
US6677987B1 (en) 1997-12-03 2004-01-13 8×8, Inc. Wireless user-interface arrangement and method
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6160540A (en) 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface
US6134346A (en) 1998-01-16 2000-10-17 Ultimatte Corp Method for removing from an image the background surrounding a selected object
US6331911B1 (en) 1998-02-08 2001-12-18 3Dv Systems Ltd. Large aperture optical image shutter
US6115052A (en) 1998-02-12 2000-09-05 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence
US6175343B1 (en) 1998-02-24 2001-01-16 Anivision, Inc. Method and apparatus for operating the overlay of computer-generated effects onto a live image
US6037942A (en) 1998-03-10 2000-03-14 Magellan Dis, Inc. Navigation system character input device
US6411392B1 (en) 1998-04-15 2002-06-25 Massachusetts Institute Of Technology Method and apparatus for data hiding in printed images
US6173059B1 (en) 1998-04-24 2001-01-09 Gentner Communications Corporation Teleconferencing system with visual feedback
US6593956B1 (en) 1998-05-15 2003-07-15 Polycom, Inc. Locating an audio source
US6473516B1 (en) 1998-05-22 2002-10-29 Asa Systems, Inc. Large capacity steganography
JP3646969B2 (ja) 1998-05-25 2005-05-11 富士通株式会社 3次元画像表示装置
JP3841132B2 (ja) * 1998-06-01 2006-11-01 株式会社ソニー・コンピュータエンタテインメント 入力位置検出装置及びエンタテインメントシステム
FR2780176B1 (fr) 1998-06-17 2001-01-26 Gabriel Guary Pistolet de tir pour jeu video
JP2000020163A (ja) 1998-06-30 2000-01-21 Sony Corp 情報処理装置
US6504535B1 (en) 1998-06-30 2003-01-07 Lucent Technologies Inc. Display techniques for three-dimensional virtual reality
IL125221A0 (en) 1998-07-06 1999-03-12 Toy Control Ltd Motion activation using passive sound source
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6256398B1 (en) 1998-08-22 2001-07-03 Kenneth H. P. Chang Encoding and decoding a message within an image
US6970183B1 (en) 2000-06-14 2005-11-29 E-Watch, Inc. Multimedia surveillance and monitoring system including network configuration
US6621938B1 (en) 1998-09-18 2003-09-16 Fuji Photo Film Co., Ltd. Image capture apparatus and method
US6184863B1 (en) 1998-10-13 2001-02-06 The George Washington University Direct pointing apparatus and method therefor
DE19849515C1 (de) 1998-10-19 2000-12-28 Gerhard Wergen Verfahren zur Übergabe von Zeichen insbesondere an einen Computer und Eingabevorrichtung unter Einsatz dieses Verfahrens
US6307568B1 (en) 1998-10-28 2001-10-23 Imaginarix Ltd. Virtual dressing over the internet
US6409602B1 (en) 1998-11-06 2002-06-25 New Millenium Gaming Limited Slim terminal gaming system
JP2000172431A (ja) 1998-12-09 2000-06-23 Sony Corp 情報入力装置及びゲーム装置
US6533420B1 (en) * 1999-01-22 2003-03-18 Dimension Technologies, Inc. Apparatus and method for generating and projecting autostereoscopic images
US7139767B1 (en) 1999-03-05 2006-11-21 Canon Kabushiki Kaisha Image processing apparatus and database
JP2000261752A (ja) 1999-03-05 2000-09-22 Hewlett Packard Co <Hp> 音声付き画像録画再生装置
JP2000259856A (ja) 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元コンピュータグラフィックス表示方法及び装置
US6323942B1 (en) 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
US7164413B2 (en) 1999-05-19 2007-01-16 Digimarc Corporation Enhanced input peripheral
US6791531B1 (en) * 1999-06-07 2004-09-14 Dot On, Inc. Device and method for cursor motion control calibration and object selection
JP2000350859A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk マーカ配置方法及び複合現実感装置
JP2000350865A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP2000356972A (ja) 1999-06-15 2000-12-26 Pioneer Electronic Corp 発光パネルの駆動装置及び方法
US6952198B2 (en) 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
US6819318B1 (en) 1999-07-23 2004-11-16 Z. Jason Geng Method and apparatus for modeling via a three-dimensional image mosaic system
US6545706B1 (en) 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
US6417836B1 (en) 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
JP2001056742A (ja) 1999-08-19 2001-02-27 Alps Electric Co Ltd 入力装置
US6556704B1 (en) 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
DE69922706T2 (de) 1999-09-08 2005-12-08 3Dv Systems Ltd. 3d- bilderzeugungssystem
JP3796174B2 (ja) 1999-09-17 2006-07-12 有限会社ネイチャーテクノロジー 撮影システム並びに画像処理装置及びカメラ
US6441825B1 (en) 1999-10-04 2002-08-27 Intel Corporation Video token tracking system for animation
JP3847058B2 (ja) * 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
US6753849B1 (en) 1999-10-27 2004-06-22 Ken Curran & Associates Universal remote TV mouse
US20050037844A1 (en) 2002-10-30 2005-02-17 Nike, Inc. Sigils for use with apparel
WO2001042930A1 (en) 1999-12-09 2001-06-14 Zephyr Media, Inc. System and method for integration of a universally publicly accessible global network
JP4403474B2 (ja) 1999-12-09 2010-01-27 ソニー株式会社 触覚提示機構及びこれを用いた力触覚提示装置
US6785329B1 (en) 1999-12-21 2004-08-31 Microsoft Corporation Automatic video object extraction
KR100384406B1 (ko) 2000-01-24 2003-05-22 (주) 베스트소프트 컴퓨터 프로그램 구동조작장치
US20010056477A1 (en) 2000-02-15 2001-12-27 Mcternan Brennan J. Method and system for distributing captured motion data over a network
WO2001064481A2 (en) 2000-03-02 2001-09-07 Donnelly Corporation Video mirror systems incorporating an accessory module
JP2001265275A (ja) * 2000-03-16 2001-09-28 Olympus Optical Co Ltd 画像表示装置
US6676522B2 (en) 2000-04-07 2004-01-13 Igt Gaming system including portable game devices
US6924787B2 (en) 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
AU2001264954A1 (en) 2000-05-25 2001-12-03 Realitybuy, Inc. A real time, three-dimensional, configurable, interactive product display systemand method
US20020056114A1 (en) 2000-06-16 2002-05-09 Fillebrown Lisa A. Transmitter for a personal wireless network
TW527518B (en) * 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
AU2001287948A1 (en) 2000-07-24 2002-02-05 Herman Ehrenburg Computer-compatible, color-coded manual input system
US20020094189A1 (en) 2000-07-26 2002-07-18 Nassir Navab Method and system for E-commerce video editing
JP3561463B2 (ja) 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
JP4815661B2 (ja) 2000-08-24 2011-11-16 ソニー株式会社 信号処理装置及び信号処理方法
US7071914B1 (en) 2000-09-01 2006-07-04 Sony Computer Entertainment Inc. User input device and method for interaction with graphic images
WO2002061707A2 (en) 2000-09-08 2002-08-08 Honeywell International Inc. Pilot internet practice system and methods
US6884171B2 (en) 2000-09-18 2005-04-26 Nintendo Co., Ltd. Video game distribution network
FR2814965A1 (fr) 2000-10-11 2002-04-12 Janick Simeray Ordinateur et jouets cooperants
US7061507B1 (en) 2000-11-12 2006-06-13 Bitboys, Inc. Antialiasing method and apparatus for video applications
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
AU2002226956A1 (en) 2000-11-22 2002-06-03 Leap Wireless International, Inc. Method and system for providing interactive services over a wireless communications network
KR100385563B1 (ko) * 2000-12-01 2003-05-27 한국과학기술원 구동수단을 갖는 분광 광도계와 광도 측정방법
US6751338B1 (en) 2000-12-15 2004-06-15 Cognex Corporation System and method of using range image data with machine vision tools
US20020085097A1 (en) 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
AU2002303082A1 (en) 2001-01-26 2002-09-12 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US6741741B2 (en) * 2001-02-01 2004-05-25 Xerox Corporation System and method for automatically detecting edges of scanned documents
US6789967B1 (en) 2001-02-02 2004-09-14 George Forester Distal chording keyboard
US20020134151A1 (en) 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
US6746124B2 (en) * 2001-02-06 2004-06-08 Robert E. Fischer Flashlight producing uniform high brightness
US7116330B2 (en) 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
GB2376397A (en) 2001-06-04 2002-12-11 Hewlett Packard Co Virtual or augmented reality
JP2002369969A (ja) 2001-06-15 2002-12-24 Sun Corp 通信ゲーム用プログラム、アダプタおよびゲーム端末
JP2003018604A (ja) 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd 画像信号符号化方法、画像信号符号化装置および記録媒体
US20030014212A1 (en) 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
JP3611807B2 (ja) 2001-07-19 2005-01-19 コナミ株式会社 ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
US7039253B2 (en) 2001-07-24 2006-05-02 Casio Computer Co., Ltd. Image display device, image display method, program, and projection system
KR20030009919A (ko) * 2001-07-24 2003-02-05 삼성전자주식회사 관성 센서를 구비하는 컴퓨터 게임용 입력 장치
US7148922B2 (en) 2001-08-02 2006-12-12 Olympus Optical Co., Ltd. Electronic camera which detects flash influence on an image and controls white balance in accordance with the flash influence
JP3442754B2 (ja) 2001-08-10 2003-09-02 株式会社コナミコンピュータエンタテインメント東京 ガンシューティングゲーム装置、コンピュータの制御方法及びプログラム
US6631991B2 (en) 2001-08-31 2003-10-14 Adaptive Optics Associates, Inc. Ophthalmic instrument having hartmann wavefront sensor deriving location of spots with spot fitting techniques
KR100846761B1 (ko) 2001-09-11 2008-07-16 삼성전자주식회사 포인터 표시방법, 그 포인팅 장치, 및 그 호스트 장치
JP2003114640A (ja) 2001-10-04 2003-04-18 Nec Corp プラズマディスプレイパネル及びその駆動方法
JP4028708B2 (ja) 2001-10-19 2007-12-26 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲームシステム
US20030093591A1 (en) 2001-11-09 2003-05-15 David Hohl System and method for fast data transfer to display driver
FR2832892B1 (fr) 2001-11-27 2004-04-02 Thomson Licensing Sa Camera video d'effets speciaux
US20030100363A1 (en) 2001-11-28 2003-05-29 Ali Guiseppe C. Method and apparatus for inputting appearance of computer operator into a computer program
US20040070565A1 (en) 2001-12-05 2004-04-15 Nayar Shree K Method and apparatus for displaying images
KR20030048570A (ko) 2001-12-12 2003-06-25 한국전자통신연구원 부가적 버튼을 장착한 키패드 및 그의 작동방법
US7106366B2 (en) 2001-12-19 2006-09-12 Eastman Kodak Company Image capture system incorporating metadata to facilitate transcoding
US7305114B2 (en) 2001-12-26 2007-12-04 Cognex Technology And Investment Corporation Human/machine interface for a machine vision sensor and method for installing and operating the same
US7436887B2 (en) * 2002-02-06 2008-10-14 Playtex Products, Inc. Method and apparatus for video frame sequence-based object tracking
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20030160862A1 (en) 2002-02-27 2003-08-28 Charlier Michael L. Apparatus having cooperating wide-angle digital camera system and microphone array
GB2388418A (en) 2002-03-28 2003-11-12 Marcus James Eales Input or pointing device with a camera
US6847311B2 (en) 2002-03-28 2005-01-25 Motorola Inc. Method and apparatus for character entry in a wireless communication device
US7006009B2 (en) 2002-04-01 2006-02-28 Key Energy Services, Inc. Servicing system for wells
US20030199324A1 (en) 2002-04-23 2003-10-23 Xiaoling Wang Apparatus and a method for more realistic shooting video games on computers or similar devices using visible or invisible light
JP2004021345A (ja) 2002-06-12 2004-01-22 Toshiba Corp 画像処理装置及びその方法
US20030232649A1 (en) 2002-06-18 2003-12-18 Gizis Alexander C.M. Gaming system and method
US20040001082A1 (en) 2002-06-26 2004-01-01 Amir Said System and method of interaction with a computer controlled image display system using a projected light source
JP5109221B2 (ja) 2002-06-27 2012-12-26 新世代株式会社 ストロボスコープを使った入力システムを備える情報処理装置
CA2390072C (en) 2002-06-28 2018-02-27 Adrian Gh Podoleanu Optical mapping apparatus with adjustable depth resolution and multiple functionality
US7227976B1 (en) 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US8073157B2 (en) * 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7545926B2 (en) * 2006-05-04 2009-06-09 Sony Computer Entertainment Inc. Echo and noise cancellation
US7809145B2 (en) * 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7970147B2 (en) * 2004-04-07 2011-06-28 Sony Computer Entertainment Inc. Video game controller with noise canceling logic
US7613310B2 (en) 2003-08-27 2009-11-03 Sony Computer Entertainment Inc. Audio input system
US8797260B2 (en) * 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7783061B2 (en) * 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US7697700B2 (en) * 2006-05-04 2010-04-13 Sony Computer Entertainment Inc. Noise removal for electronic device with far field microphone on console
US20040017355A1 (en) 2002-07-24 2004-01-29 Youngtack Shim Cursor control systems and methods
US10086282B2 (en) * 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US7352359B2 (en) * 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to inertial tracking
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US20070015559A1 (en) * 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US20060282873A1 (en) * 2002-07-27 2006-12-14 Sony Computer Entertainment Inc. Hand-held controller having detectable elements for tracking purposes
US8313380B2 (en) * 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US20070261077A1 (en) * 2006-05-08 2007-11-08 Gary Zalewski Using audio/visual environment to select ads on game platform
US7760248B2 (en) * 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US20070260517A1 (en) * 2006-05-08 2007-11-08 Gary Zalewski Profile detection
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US20070061413A1 (en) * 2005-09-15 2007-03-15 Larsen Eric J System and method for obtaining user information from voices
US20060264260A1 (en) * 2002-07-27 2006-11-23 Sony Computer Entertainment Inc. Detectable and trackable hand-held controller
US9474968B2 (en) * 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8139793B2 (en) * 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US7854655B2 (en) * 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US9393487B2 (en) * 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US7039199B2 (en) 2002-08-26 2006-05-02 Microsoft Corporation System and process for locating a speaker using 360 degree sound source localization
US6917688B2 (en) 2002-09-11 2005-07-12 Nanyang Technological University Adaptive noise cancelling microphone system
US20040063480A1 (en) 2002-09-30 2004-04-01 Xiaoling Wang Apparatus and a method for more realistic interactive video games on computers or similar devices
EP1411461A1 (en) 2002-10-14 2004-04-21 STMicroelectronics S.r.l. User controlled device for sending control signals to an electric appliance, in particular user controlled pointing device such as mouse or joystick, with 3D-motion detection
US6995666B1 (en) 2002-10-16 2006-02-07 Luttrell Clyde K Cellemetry-operated railroad switch heater
JP2004145448A (ja) 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
US8206219B2 (en) 2002-10-30 2012-06-26 Nike, Inc. Interactive gaming apparel for interactive gaming
JP2006504504A (ja) * 2002-10-30 2006-02-09 ナイキ・インコーポレーテッド 対話型活動装置で使用する標的
US20040095327A1 (en) 2002-11-14 2004-05-20 Lo Fook Loong Alphanumeric data input system and method
US8012025B2 (en) * 2002-12-13 2011-09-06 Applied Minds, Llc Video game controller hub with control input reduction and combination schemes
US7212308B2 (en) 2002-12-18 2007-05-01 Morgan Carol L Interactive photo kiosk
US20040140955A1 (en) 2003-01-21 2004-07-22 Metz Kristofer Erik Input device for a computer and method of operation
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
JP2004261236A (ja) * 2003-02-20 2004-09-24 Konami Co Ltd ゲームシステム
JP3849654B2 (ja) 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
GB2398691B (en) 2003-02-21 2006-05-31 Sony Comp Entertainment Europe Control of data processing
GB2398690B (en) * 2003-02-21 2006-05-10 Sony Comp Entertainment Europe Control of data processing
US7519186B2 (en) 2003-04-25 2009-04-14 Microsoft Corporation Noise reduction systems and methods for voice applications
US7019537B2 (en) * 2003-05-16 2006-03-28 General Electric Company Non-destructive determination of machining induced surface defects on metal parts
US7379559B2 (en) 2003-05-28 2008-05-27 Trw Automotive U.S. Llc Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system
US6881147B2 (en) 2003-06-06 2005-04-19 Nyko Technologies, Inc. Video game controller with integrated microphone and speaker
TW571812U (en) 2003-06-11 2004-01-11 Vision Electronics Co Ltd Audio device for TV game machine
EP1489596B1 (en) * 2003-06-17 2006-09-13 Sony Ericsson Mobile Communications AB Device and method for voice activity detection
US7116342B2 (en) 2003-07-03 2006-10-03 Sportsmedia Technology Corporation System and method for inserting content into an image sequence
KR20050012596A (ko) * 2003-07-26 2005-02-02 (주)이진공작 클라이언트 시스템의 동작 동기화 장치와 방법 및 이를이용한 통신망을 통한 상호 작용 시스템 및 게임방법
JP2005046422A (ja) 2003-07-30 2005-02-24 Samii Kk ゲーム機用コントローラ
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
WO2005044098A1 (en) 2003-10-28 2005-05-19 Welch Allyn, Inc. Digital documenting ophthalmoscope
US20050105777A1 (en) 2003-11-18 2005-05-19 Kozlowski William J.Jr. Personalized multimedia summary
US7734729B2 (en) 2003-12-31 2010-06-08 Amazon Technologies, Inc. System and method for obtaining information relating to an item of commerce using a portable imaging device
TW200531724A (en) * 2004-03-17 2005-10-01 Zeroplus Technology Co Ltd Game controlling system with displacement detecting capability
US7296007B1 (en) * 2004-07-06 2007-11-13 Ailive, Inc. Real time context learning by software agents
US7263462B2 (en) * 2004-07-30 2007-08-28 Ailive, Inc. Non-disruptive embedding of specialized elements
DE102005011356B3 (de) * 2005-03-04 2006-11-02 Hannes Perkunder Eingabevorrichtung mit Drehregler und Eingabeverfahren sowie ein entsprechendes computerlesbares Speichermedium
US7613610B1 (en) * 2005-03-14 2009-11-03 Escription, Inc. Transcription data extraction
KR100630118B1 (ko) * 2005-04-21 2006-09-27 삼성전자주식회사 망간 광섬유 공유 시스템
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7620316B2 (en) 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
US7834850B2 (en) 2005-11-29 2010-11-16 Navisense Method and system for object control
JP5204381B2 (ja) * 2006-05-01 2013-06-05 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP5089079B2 (ja) * 2006-05-08 2012-12-05 任天堂株式会社 プログラム、情報記憶媒体及び画像生成システム
US7636645B1 (en) * 2007-06-18 2009-12-22 Ailive Inc. Self-contained inertial navigation system for interactive control using movable controllers
JP4481280B2 (ja) 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
JP5294442B2 (ja) * 2006-09-13 2013-09-18 任天堂株式会社 ゲーム装置およびゲームプログラム
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US20080225000A1 (en) * 2007-03-16 2008-09-18 Thomas Alexander Bellwood Cancellation of Environmental Motion In Handheld Devices
US7937243B2 (en) * 2007-08-03 2011-05-03 Ailive, Inc. Method and apparatus for non-disruptive embedding of specialized elements
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
WO2009072126A2 (en) * 2007-12-06 2009-06-11 Senplay Technologies Ltd. Acoustic motion capture
US8165345B2 (en) * 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
US8655622B2 (en) * 2008-07-05 2014-02-18 Ailive, Inc. Method and apparatus for interpreting orientation invariant motion

Also Published As

Publication number Publication date
CN102576257A (zh) 2012-07-11
JP2012525917A (ja) 2012-10-25
EP2427811A1 (en) 2012-03-14
WO2010129093A1 (en) 2010-11-11
US20100285883A1 (en) 2010-11-11
EP2427811B1 (en) 2017-07-12
US8142288B2 (en) 2012-03-27
CN102576257B (zh) 2016-04-20

Similar Documents

Publication Publication Date Title
JP5575228B2 (ja) ベースステーションの移動検出および補償
US11413525B2 (en) Device for interfacing with a computing program using a projected pattern
US8393964B2 (en) Base station for position location
US10076703B2 (en) Systems and methods for determining functionality of a display device based on position, orientation or motion
JP5730324B2 (ja) モーションセンシティブコントローラを介したポータブルデバイスインタラクション
US8784203B2 (en) Determination of controller three-dimensional location using image analysis and ultrasonic communication
US8888593B2 (en) Directional input for a video game

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140108

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140210

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140310

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140701

R150 Certificate of patent or registration of utility model

Ref document number: 5575228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250