JP2009535173A - 3D input control system, method and apparatus - Google Patents

3D input control system, method and apparatus Download PDF

Info

Publication number
JP2009535173A
JP2009535173A JP2009509932A JP2009509932A JP2009535173A JP 2009535173 A JP2009535173 A JP 2009535173A JP 2009509932 A JP2009509932 A JP 2009509932A JP 2009509932 A JP2009509932 A JP 2009509932A JP 2009535173 A JP2009535173 A JP 2009535173A
Authority
JP
Grant status
Application
Patent type
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009509932A
Other languages
Japanese (ja)
Inventor
エム ザレウスキー ゲイリー
マオ シャドン
エル マークス リチャード
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Abstract

【解決手段】ユーザが双方向型ゲームをプレーすることを可能とするためのゲームプログラムのプロセッサによる実行を制御するための情報を取得するときに用いられるゲームコントローラ、追跡装置、及び関連する装置が開示される。 A game controller used when a user obtains the information for controlling the execution by the processor of the game program for making it possible to play the interactive game, tracking devices, and associated equipment It is disclosed. ビデオゲームのコントローラを追跡し、システムへの入力を提供するための方法もまた開示される。 Track controller of a video game, the method for providing an input to the system is also disclosed.
【選択図】図5A .FIELD 5A

Description

本発明は、一般的には、コンピュータエンタテインメントシステムに関し、より具体的には、そのようなコンピュータエンタテインメントシステムのコントローラのユーザによる操作に関する。 The present invention relates generally to computer entertainment systems, and more particularly, to operation by the user of the controller of such computer entertainment systems.

コンピュータエンタテインメントシステムは、一般に、ハンドヘルドコントローラ、ゲームコントローラ、又はその他のコントローラを含む。 Computer entertainment system generally includes a handheld controller, game controller, or other controller. ユーザ又はプレイヤーは、コマンド又はその他の命令をエンタテインメントシステムに送信して、プレーされているビデオゲーム又はその他のシミュレーションを制御するために、コントローラを用いる。 The user or player is to send commands or other instructions to the entertainment system, to control a video game or other simulation being played, using the controller. 例えば、コントローラには、ユーザにより操作されるジョイスティックなどの操作部が設けられてもよい。 For example, the controller, the operation unit such as a joystick may be provided which is operated by a user. 操作されたジョイスティックの変量は、アナログ値からディジタル値に変換され、ゲーム機のメインフレームへ送信される。 Variate engineered joystick is converted from an analog value to a digital value, it is transmitted to the main frame of the game machine. コントローラには、ユーザが操作可能なボタンが設けられてもよい。 Controller may be user-operable button is provided.

本発明は、これら又はその他の背景となる情報要素に関して発展させたものである。 The present invention was developed with respect to the information element to be these or other background.

本発明の実施の形態にしたがって動作するビデオゲームシステムを例示した図である。 It is a diagram illustrating a video game system that operates in accordance with an embodiment of the present invention. 本発明の実施の形態に係るコントローラの透視図である。 It is a perspective view of a controller according to the embodiment of the present invention. 本発明の実施の形態に係るコントローラにおいて用いられる加速度計を示す3次元概略図である。 It is a 3-dimensional schematic diagram illustrating an accelerometer that is used in the controller according to the embodiment of the present invention. 図3Aの加速度計をピッチ又はロール軸の周りに回転した状態を示す断面概略図である。 The accelerometer of FIG. 3A is a cross-sectional schematic view showing a rotational state around the pitch or roll axes. 図3Aの加速度計に並進加速度を与えた状態を示す断面概略図である。 It is a cross-sectional schematic view showing a state in which given translational acceleration to the accelerometer of FIG. 3A. 図3Aの加速度計にヨー軸の周りの回転加速度を与えた状態を示す平面概略図である。 Is a schematic plan view showing a state in which given rotational acceleration about the yaw axis accelerometer of FIG 3A. 図3Aの加速度計にヨー軸の周りの回転加速度を与えた状態を示す平面概略図である。 Is a schematic plan view showing a state in which given rotational acceleration about the yaw axis accelerometer of FIG 3A. 本発明の実施の形態に係る方向依存ゼロ点加速度計信号の補正を示す3次元概略図である。 It is a 3-dimensional schematic diagram illustrating correction of direction-dependent zero-point accelerometer signal in accordance with an embodiment of the present invention. 図1のビデオゲームシステムの一部のブロック図である。 It is a block diagram of a portion of a video game system of FIG. 本発明の実施の形態に係るビデオゲームシステムのコントローラを追跡するための方法のフロー図である。 It is a flow diagram of a method for tracking a controller of a video game system according to an embodiment of the present invention. 本発明の実施の形態に係るビデオゲームシステムにおいてゲームプレー中に位置及び/又は方向の情報を利用するための方法を例示したフロー図である。 It is a flow diagram illustrating a method for utilizing position and / or orientation information during game play in the video game system according to an embodiment of the present invention. 本発明の実施の形態に係るビデオゲームシステムを例示したブロック図である。 It is a block diagram illustrating a video game system according to an embodiment of the present invention. 本発明の実施の形態に係るビデオゲームシステムのセルプロセッサによる実装のブロック図である。 Is a block diagram of an implementation according to the cell processor of the video game system according to an embodiment of the present invention.

・優先権の主張 本出願は、米国特許出願11/381,729(発明者:シャドン・マオ、発明の名称:「超小型マイクロフォン配列」、代理人事件番号:SCEA05062US00、出願日:2006年5月4日)、米国特許出願11/381,728(発明者:シャドン・マオ、発明の名称:「エコー及びノイズキャンセル」、代理人事件番号:SCEA05064US00、出願日:2006年5月4日)、米国特許出願11/381,725(発明者:シャドン・マオ、発明の名称:「対象音声検出方法及び装置」、代理人事件番号:SCEA05072US00、出願日:2006年5月4日)、米国特許出願11/381,727(発明者:シャドン・マオ、発明の名称:「コンソール上の遠距離場マイクロフォンによる電子 · Priority of claim the present application, US patent application Ser. No. 11 / 381,729 (inventors: Shadon Mao, entitled: "ultra-compact microphone array", Attorney Docket number: SCEA05062US00, filing date: May 2006 4, 2009), US patent application Ser. No. 11 / 381,728 (inventors: Shadon Mao, entitled: "echo and noise cancellation", Attorney Docket number: SCEA05064US00, filing date: May 4, 2006), United States patent application Ser. No. 11 / 381,725 ​​(inventors: Shadon Mao, entitled: "target speech detection method and apparatus", Attorney Docket number: SCEA05072US00, filing date: May 4, 2006), US patent application Ser. No. 11 / 381,727 (inventors: Shadon Mao, entitled: "electrons by far-field microphone on the console 機器のノイズ除去」、代理人事件番号:SCEA05073US00、出願日:2006年5月4日)、米国特許出願11/381,724(発明者:シャドン・マオ、発明の名称:「対象音声検出及びキャラクタリゼーションのための方法及び装置」、代理人事件番号:SCEA05079US00、出願日:2006年5月4日)、米国特許出願11/381,721(発明者:シャドン・マオ、発明の名称:「コンピュータ対話処理に連動した選択的音源聴取」、代理人事件番号:SCEA04005JUMBOUS、出願日:2006年5月4日)の優先権を主張し、これらの全てはここに参照として組み込まれる。 Equipment of noise removal ", Attorney Docket number: SCEA05073US00, filing date: May 4, 2006), US patent application Ser. No. 11 / 381,724 (inventors: Shadon Mao, entitled:" target speech detection and characterization method and apparatus ", attorney docket number for the Characterization: SCEA05079US00, filing date: May 4, 2006), US patent application Ser. No. 11 / 381,721 (inventors: Shadon Mao, entitled:" computer dialogue processing selective sound source listening in conjunction to ", attorney docket number: SCEA04005JUMBOUS, filing date: claiming the priority of may 4, 2006), all of which are incorporated herein by reference.

本出願は、さらに、米国特許出願11/382,031(発明者:ゲイリー・ザレウスキーら、発明の名称:「多入力ゲーム制御ミクサ」、代理人事件番号:SCEA06MXR1、2006年5月6日出願)、米国特許出願11/382,032(発明者:ゲイリー・ザレウスキーら、発明の名称:「環境内のユーザ操作を追跡するためのシステム」、代理人事件番号:SCEA06MXR2、2006年5月6日出願)の優先権を主張し、これらはここに参照として組み込まれる。 The present application further, US patent application Ser. No. 11 / 382,031 (inventors: Gary Zalewski et al., Entitled: "multi-input game control the mixer", Attorney Docket number: SCEA06MXR1, 5 May 6, 2006 filed) , US patent application Ser. No. 11 / 382,032 (inventors: Gary Zalewski et al., entitled "system for tracking the user operation in the environment", Attorney Docket number: SCEA06MXR2, 5 May 6, 2006, filed claims priority), which are incorporated herein by reference.

本出願は、さらに、同時係属の米国特許出願11/418,988(発明者:シャドン・マオ、発明の名称:「音声を取得するための聴取領域を調整するための方法及び装置」、代理人事件番号:SCEA−00300、出願日:2006年5月4日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, co-pending U.S. patent application 11 / 418,988 (inventors: Shadon Mao, entitled "Method and apparatus for adjusting the listening area to obtain the voice," attorneys Docket: SCEA-00300, filed on claims the priority of may 4, 2006), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/418,989(発明者:シャドン・マオ、発明の名称:「視覚画像に基づいて音声信号を取得するための方法及び装置」、代理人事件番号:SCEA−00400、出願日:2006年5月4日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, co-pending U.S. patent application 11 / 418,989 (inventors: Shadon Mao, entitled "visual image method and apparatus for obtaining an audio signal based on the" Attorney number: SCEA-00400, filed on claims the priority of may 4, 2006), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/429,047(発明者:シャドン・マオ、発明の名称:「信号の位置に基づいて音声信号を取得するための方法及び装置」、代理人事件番号:SCEA−00500、出願日:2006年5月4日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, co-pending U.S. patent application 11 / 429,047 (inventors: Shadon Mao, entitled "Method for obtaining an audio signal based on the position signal and Apparatus", Attorney Docket: SCEA-00500, filed on claims the priority of may 4, 2006), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/429,133(発明者:リチャード・L・マークス、発明の名称:「コンピュータ対話処理に連動した選択的音源聴取」、代理人事件番号:SCEA04005US01−SONYP045、出願日:2006年5月4日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, the United States co-pending patent applications 11 / 429,133 (inventors: Richard · L · Marks, entitled: "selective sound source listening in conjunction to computer dialogue process", Attorney Docket number: SCEA04005US01 -SONYP045, filed on claims the priority of may 4, 2006), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/429,414(発明者:リチャード・L・マークス、発明の名称:「コンピュータ画像及び音声強度処理及びコンピュータプログラムとのインタフェースのための入力装置」、代理人事件番号:SONYP052、出願日:2006年5月4日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 429,414 (inventors co-pending: Richard · L · Marks, entitled "Input device for interfacing with a computer image and the voice level processing and computer programs" , Attorney Docket number: SONYP052, filing date: claiming the priority of may 4, 2006), the entire disclosure of which is incorporated herein by reference.

本出願は、さらに、同時係属の米国特許出願11/382,033(発明の名称:「3次元入力制御システム、方法及び装置」、代理人事件番号:SCEA06INRT1、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 382,033 (entitled copending: "three-dimensional input control system, method and apparatus", Attorney Docket: SCEA06INRT1, filed on May 6, 2006 ) claims priority to, the entire disclosures of which are incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,035(発明の名称:「慣性的に追跡可能なハンドヘルドコンピュータ」、代理人事件番号:SCEA06INRT2、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, US patent application Ser. No. 11 / 382,035 of co-pending (entitled: "inertially traceable handheld computer", Attorney Docket number: SCEA06INRT2, filing date: May 6, 2006) claims priority, the entire disclosures of which are incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,036(発明の名称:「視覚追跡にギアリング効果を適用するための方法及び装置」、代理人事件番号:SONYP058A、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 382,036 (entitled copending: "Visual tracking method and apparatus for applying a gearing effect", Attorney Docket: SONYP058A, filing date: 2006 claims the priority of the year may 6, 2009), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,041(発明の名称:「慣性追跡にギアリング効果を適用するための方法及び装置」、代理人事件番号:SONYP058B、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 382,041 (entitled copending: "Method and apparatus for applying a gearing effect to the inertia track", Attorney Docket: SONYP058B, filing date: 2006 claims the priority of the year may 6, 2009), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,038(発明の名称:「音響追跡にギアリング効果を適用するための方法及び装置」、代理人事件番号:SONYP058C、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 382,038 (entitled copending: "Method and apparatus for applying a gearing effect to the sound track", Attorney Docket: SONYP058C, filing date: 2006 claims the priority of the year may 6, 2009), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,040(発明の名称:「多チャンネル混合入力にギアリング効果を適用するための方法及び装置」、代理人事件番号:SONYP058D、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 382,040 (entitled copending: "Multi-channel mixing input method and apparatus for applying a gearing effect", Attorney Docket: SONYP058D, filing date : claiming the priority of may 6, 2006), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,034(発明の名称:「ゲームコントローラ本体のユーザ操作を検知及び追跡するための機構」、代理人事件番号:SCEA05082US00、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 382,034 (entitled copending: "mechanism for detecting and tracking a user operation of a game controller body", Attorney Docket: SCEA05082US00, filing date: 2006 claims the priority of the year may 6, 2009), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,037(発明の名称:「ハンドヘルドコンピュータの動きをシステムへの入力に変換するための機構」、代理人事件番号:86324、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, U.S. Patent Application 11 / 382,037 (entitled copending: "mechanism for converting the movement of the handheld computer to the input of the system", Attorney Docket: 86324, filing date: claims the priority of may 6, 2006), the entire disclosure of which is incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,043(発明の名称:「検知可能で追跡可能なハンドヘルドコンピュータ」、代理人事件番号:86325、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, US patent application Ser. No. 11 / 382,043 of co-pending (entitled: "detectable traceable handheld computer", Attorney Docket number: 86325, filed on May 6, 2006) claims priority, the entire disclosures of which are incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願11/382,039(発明の名称:「ハンドヘルドコンピュータの動きをゲームコマンドにマッピングするための方法」、代理人事件番号:86326、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, co-pending US patent application Ser. No. 11 / 382,039 (entitled: "Method for mapping the movement of the handheld computer to the game command", Attorney Docket number: 86326, filing date: 2006 priority may 6) claims, the entire disclosures of which are incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願29/259,349(発明の名称:「赤外線ポート付きのコントローラ(商標)」、代理人事件番号:SCEA06007US00、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, US Patent Application 29 / 259,349 of co-pending (entitled: "controller with an infrared port (TM)", Attorney Docket number: SCEA06007US00, filing date: May 6, 2006) claims priority, the entire disclosures of which are incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願29/259,350(発明の名称:「追跡センサ付きのコントローラ(商標)」、代理人事件番号:SCEA06008US00、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, co-pending US patent application 29 / 259,350 (entitled: "controller with a tracking sensor (TM)", Attorney Docket number: SCEA06008US00, filing date: May 6, 2006) claims priority, the entire disclosures of which are incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願60/798,031(発明の名称:「動的対象インタフェース」、代理人事件番号:SCEA06009US00、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, US Patent Application 60 / 798,031 of co-pending priority of (entitled: "dynamic object interface", Attorney Docket Number:: SCEA06009US00, filed on May 6, 2006) claiming, the entire disclosures of which are incorporated herein by reference. 本出願は、さらに、同時係属の米国特許出願29/259,348(発明の名称:「追跡されるコントローラ装置(商標)」、代理人事件番号:SCEA06010US00、出願日:2006年5月6日)の優先権を主張し、その全ての開示はここに参照として組み込まれる。 The present application further, US Patent Application 29 / 259,348 of co-pending (entitled: "controller is tracking device (TM)", Attorney Docket number: SCEA06010US00, filing date: May 6, 2006) claims priority, the entire disclosures of which are incorporated herein by reference.

・関連出願への相互参照 本出願は、米国特許出願10/207,677(発明の名称:「変形可能な装置を用いたマン・マシン・インタフェース」、出願日:2002年7月27日)、米国特許出願10/650,409(発明の名称:「音声入力システム」、出願日:2003年8月27日)、米国特許出願10/663,236(発明の名称:「追跡された頭の動きにしたがって表示されたシーンの視界を調整するための方法及び装置」、出願日:2003年9月15日)、米国特許出願10/759,782(発明の名称:「光入力装置のための方法及び装置」、出願日:2004年1月16日)、米国特許出願10/820,469(発明の名称:「音声妨害を検知及び除去するための方法及び装置」、出願日:2004年4月7日 - Cross-Reference to Related present application to the applicant, US patent application Ser. No. 10 / 207,677 (entitled: "man-machine interface using a deformable device", filed on July 27, 2002), US patent application Ser. No. 10 / 650,409 (entitled: "voice input system", filed on August 27, 2003), US patent application Ser. No. 10 / 663,236 (entitled: "tracked the movement of the head mETHOD aND aPPARATUS "for adjusting the visibility of the displayed scene in accordance, filed on September 15, 2003), U.S. Patent application 10 / 759,782 (entitled" method for the optical input device and device ", filed on January 16, 2004), U.S. Patent application 10 / 820,469 (entitled" method and apparatus for detecting and removing speech disturbance ", filed on April 2004 7 days )、米国特許出願11/301,673(発明の名称:「頭及び手の相対位置を用いてカメラ追跡を介したポインティングインタフェースを実現するための方法」、出願日:2005年12月12日)、米国特許出願60/718,145(発明の名称:「音声、映像、シミュレーション、及びユーザインタフェースの実例」、出願日:2005年9月15日)に関連し、それらの全ての開示はここに参照として組み込まれる。 ), U.S. Patent Application 11 / 301,673 (entitled "Method for realizing a pointing interface via the camera tracking using the relative positions of head and hands", filed on December 12, 2005) , U.S. Patent application 60 / 718,145 (entitled "audio, video, simulation, and user interface instances", filed on September 15, 2005) in connection with, here all their disclosure It is incorporated by reference.

・特定の実施の形態の説明 下記の詳細な説明は、例示を目的として多くの特定の詳細を含むが、下記の詳細に対する多くの変形及び置換が本発明の範囲に入ることは、当業者に認識されるところである。 - Detailed description of the following particular embodiment, contains many specific details for purposes of illustration, be many variations and substitutions to the following details are within the scope of the present invention, to those skilled in the art it is where to be recognized. したがって、下記に説明する本発明の実施の形態は、請求された発明の一般性を失わせることなく、また限定を付加することもなく説明される。 Accordingly, embodiments of the present invention to be described below, without loss of generality of the claimed invention, also it is described without adding the limiting.

ここで説明される方法、装置、機構及びシステムの種々の実施の形態は、コントローラ全体のユーザによる移動、動作、及び/又は操作の検出、取得、及び追跡を提供する。 Methods described herein, devices, mechanisms, and various embodiments of the system, the movement by the user of the overall controller, operation, and / or manipulation detection, acquisition, and to provide tracking. 検出されたコントローラ全体のユーザによる移動、動作、及び/又は操作は、プレーされているゲーム又は他のシミュレーションの種々の態様を制御するための更なるコマンドとして用いられてもよい。 Movement by the detected controller overall user, operation, and / or operations may be used as a further commands to control various aspects of the game or other simulation being played.

ゲームコントローラ本体のユーザによる操作の検出及び追跡は、様々な方法で実現されうる。 Detection and tracking the operation of the user of the game controller body may be implemented in various ways. 例えば、ある実施の形態において、加速度計又はジャイロスコープなどの慣性センサが、ハンドヘルドコントローラ本体の動きを検出し、それらをゲームにおけるアクションに転換するために、コンピュータエンタテインメントシステムとともに利用可能である。 For example, in one embodiment, an inertial sensor such as an accelerometer or gyroscope detects the movement of the handheld controller body, in order to convert them into action in the game, it is available with computer entertainment system. 慣性センサは、コントローラの多数の異なる型の動き、例えば、上下移動、ひねり、左右移動、引っ張り、棒を振るような動作、突き出しなどを検出するために用いられてもよい。 Inertial sensors, many different types of movements of the controller, for example, vertical movement, twisting, lateral movement, tension, operations such as swinging the rod may be used to detect a protrusion. これらの動きは、ゲームにおけるアクションに転換するために、種々のコマンドに対応づけられてもよい。 These movements, in order to convert the action in the game, may be associated with various commands.

ユーザによるゲームコントローラの操作の検出及び追跡は、例えば、剣やライトサーベルにより交戦したり、アイテムの形をなぞるために棒を用いたり、種々のスポーツ大会において戦ったり、オンスクリーン戦やその他の遭遇戦において戦ったりすることなどをユーザに可能とするための様々なタイプのゲーム、シミュレーションなどを実現するために利用可能である。 Detection and tracking operations of the game controller by a user, for example, to engage with the sword and light saber, or using a bar to trace the shape of items, or fighting in various sporting events, on-screen game and other encounter various types of games in order to enable such as that or fighting in the war to the user, the simulation can be used to implement the like.

図1には、本発明の実施の形態にしたがって動作するシステム100が示される。 1 shows a system 100 that operates in accordance with an embodiment of the present invention is shown. 図示されたように、コンピュータエンタテインメントコンソール102は、ビデオゲーム又はその他のシミュレーションの画像を表示するためのテレビジョン又はその他の映像表示装置104に接続されてもよい。 As shown, computer entertainment console 102 may be connected to a television or other video display device 104 for displaying an image of a video game or other simulation. ゲーム又はその他のシミュレーションは、コンソール102に挿入されたDVD、CD、フラッシュメモリ、USBメモリ、又はその他の記憶媒体106に格納されてもよい。 Game or other simulation, DVD inserted in the console 102, CD, flash memory, may be stored USB memory, or other storage medium 106. ユーザ又はプレイヤー108は、ビデオゲーム又はその他のシミュレーションを制御するためにゲームコントローラ110を操作する。 User or player 108 manipulates a game controller 110 to control a video game or other simulation. 図2において、ゲームコントローラ110は、ゲームコントローラ110の位置、動き、方向、又は方向の変化に応じて信号を生成する慣性センサ112を含む。 2, the game controller 110 includes a position of the game controller 110, motion, direction, or the inertial sensor 112 that generates a signal depending on the direction of change. ゲームコントローラ110は、慣性センサに加えて、従来の制御入力デバイス、例えば、ジョイスティック111、ボタン113、R1、L1などを含んでもよい。 The game controller 110, in addition to the inertial sensor, the conventional control input devices, e.g., joysticks 111, buttons 113, R1, L1, etc. may contain.

動作中、ユーザ108はコントローラ110を物理的に移動させる。 In operation, the user 108 moves the controller 110 physically. 例えば、ユーザ108は、コントローラ110を任意の方向、例えば、上下左右に移動させたり、ひねったり、回転させたり、振ったり、引いたり、突いたりしてもよい。 For example, the user 108, the controller 110 in any direction, for example, or move up and down and right and left, twist, or rotate, or shaking, pulling, may or poking. 以下に説明する方法により慣性センサ112からの信号の分析を通じて追跡するために、コントローラ110のこれらの動き自体をカメラ114により検出し取得してもよい。 To track through analysis of signals from the inertial sensor 112 by the method described below, it may be obtained by detecting these movements themselves camera 114 of the controller 110.

再び図1を参照して、システム100は、カメラ又はその他の映像取得装置114を選択的に含んでもよい。 Referring again to FIG. 1, system 100 may include a camera or other video acquisition device 114 selectively. カメラは、コントローラ110がその視野116の範囲内になる位置に設けられてもよい。 The camera may be provided at a position where the controller 110 is within its field of view 116. 映像取得装置114からの画像の分析は、慣性センサ112からのデータの分析に関連して用いられてもよい。 Analysis of images from the image acquisition device 114 may be used in conjunction with analysis of data from the inertial sensor 112. 図2に示すように、コントローラ110には、映像分析による追跡を容易にするために、LED202、204、206、208などの光源が選択的に設けられてもよい。 As shown in FIG. 2, the controller 110, in order to facilitate tracking by video analysis, the light source may be selectively provided such LED202,204,206,208. コントローラ110を追跡することを目的とした、そのような映像の分析は、例えば、米国特許出願11/382,034(発明の名称:「ユーザによるゲームコントローラ本体の操作を検出し追跡するための機構」、代理人事件番号:SCEA05082US00)に記述されており、ここに参照として組み込まれる。 To track the controller 110 for the purpose, the analysis of such images, for example, U.S. Patent Application 11 / 382,034 (entitled "detects an operation of a game controller body by the user tracing a mechanism for "Attorney Docket: SCEA05082US00) are described in, and incorporated herein by reference. コンソール102は、マイクロフォン配列118を含んでもよい。 Console 102 may include a microphone array 118. コントローラ110は、マイクロフォン配列118によるコントローラ110の音響的追跡や音響信号処理を容易にするための音源を提供するために、音響信号生成部210(例えば、スピーカ)を含んでもよい。 Controller 110, in order to provide a sound source to facilitate acoustic tracking and sound signal processing controller 110 by the microphone array 118, sound signal generator 210 (e.g., a speaker) may contain. その技術は、例えば、米国特許出願11/381,724に記述されており、ここに参照として組み込まれる。 The technique, for example, U.S. are described in patent application 11 / 381,724, incorporated herein by reference.

一般に、慣性センサからの信号は、コントローラ110の位置及び方向データを生成するために用いられる。 In general, signals from the inertial sensor is used to generate position and orientation data of the controller 110. これらのデータは、コントローラ110の移動の多数の物理的態様、例えば、任意の軸に沿った加速度及び速度、傾き、勾配、ヨー、回転など、コントローラ110の任意のテレメトリデータを算出するために用いられてもよい。 These data, using a number of physical aspects of the movement of the controller 110, for example, acceleration and velocity along any axis, tilt, slope, yaw, rotation, etc., in order to calculate any telemetry data of the controller 110 it may be. ここでは、テレメトリとは、概ね、遠隔測定と、対象となる情報のシステム又はシステム設計者又はオペレータへの報告とのことをいう。 Here, telemetry and is generally referred to as telemetry, that the reporting of the target information to the system or system designer or operator.

コントローラ110の動きを検出し追跡することにより、予め定義されたコントローラ110の動きが行われたか否かを判定することができる。 By tracking and detecting a motion of the controller 110 can move the controller 110 a predefined to determine whether or not made. すなわち、コントローラ110の特定の動きのパターン又はジェスチャーを予め定義しておき、ゲーム又はその他のシミュレーションの入力コマンドとして用いることができる。 That is, it is possible to use a pattern or gesture of a particular movement of the controller 110 in advance have defined as an input command of a game or other simulation. 例えば、コントローラ110を下に突き出すジェスチャーをあるコマンドとして定義し、コントローラ110をひねるジェスチャーを別のコマンドとして定義し、コントローラ110を振るジェスチャーを更に別のコマンドとして定義することができる。 For example, it is possible to define a command in the gesture shove controller 110 down, to define the gesture twisting the controller 110 as another command, defined as a further command gestures swinging the controller 110. このように、ユーザ108がコントローラ110を物理的に動かす方法を、ゲームを制御するための入力として用いることにより、ユーザにより刺激的で娯楽性の高い経験を提供することができる。 Thus, how the user 108 moves the controller 110 physically, by using as an input for controlling the game, it is possible to provide a highly exciting and entertaining experience by the user.

慣性センサ112は、例えば加速度計でもよいが、それに限定されない。 Inertial sensor 112 may be, for example, an accelerometer, but is not limited thereto. 図3Aは、例えば、スプリング306、308、310、312により、4点でフレーム304に弾性的に結合された単純な質量302の形式の加速度計300の例を示す。 Figure 3A, for example, by a spring 306, 308, 310, 312, shows the format of the example of the accelerometer 300 in a simple mass 302 elastically coupled at four points to a frame 304. ピッチ軸及びロール軸(それぞれX及びYで示される)は、フレームに交差する平面上にある。 Pitch axis and roll axis (indicated by X and Y, respectively) are in a plane that intersects the frame. ヨー軸Zは、ピッチ軸X及びロール軸Yを含む平面に垂直な方向である。 Yaw axis Z is the direction perpendicular to the plane containing the pitch axis X and the roll axis Y. フレーム304は、任意の適当な方式でコントローラ110に搭載されてもよい。 Frame 304 may be mounted to the controller 110 in any suitable manner. フレーム304(及びジョイスティックコントローラ110)が加速され及び/又は回転されると、質量302は、フレーム304から相対的に変位し、スプリング306、308、310、312は、並進及び/又は回転の加速度の値及び方向及び/又はピッチ及び/又はロール及び/又はヨーの角度に依存して伸縮する。 When the frame 304 (and the joystick controller 110) is accelerated and / or rotation, the mass 302 is relatively displaced from the frame 304, the spring 306, 308, 310, 312 of the acceleration of the translation and / or rotation the value and direction and / or pitch and / or roll and / or, depending on the yaw angle expands and contracts. 質量302の変位量及び/又はスプリング306、308、310、312の伸縮量は、例えば、適切なセンサ314、316、318、320により検知され、既知又は確定可能な方法で、ピッチ及び/又はロールの加速度に依存する信号に変換される。 Amount of extension of displacement and / or the spring 306, 308, 310, 312 of the mass 302, for example, be detected by appropriate sensors 314, 316, 318, 320, in known or determinable way, pitch and / or roll It is converted into a signal depending on the acceleration.

質量の位置及び/又はそれに与えられる力を追跡する異なる方法が多く存在する。 Different ways to track the position and / or force applied thereto a mass there are many. それらの方法は、抵抗歪みゲージ物質、光学センサ、磁気センサ、ホール効果デバイス、圧電デバイス、容量センサなどを含む。 These methods include resistive strain gauge material, an optical sensor, magnetic sensor, Hall-effect devices, piezoelectric devices, and the like capacitive sensor. 本発明の実施の形態は、任意の数及び形式のセンサを含んでもよいし、複数の形式のセンサの組み合わせを含んでもよい。 Embodiments of the present invention may include sensors of any number and type may include a combination of sensors of a plurality of formats. センサ314、316、318、320は、質量302の上に配置されたギャップ電極であってもよい。 Sensors 314, 316, 318, 320 may be arranged gap electrodes on the mass 302. 質量とそれぞれの電極との間の容量は、質量の位置がそれぞれの電極に対して相対的に変化するにつれて変化する。 Mass and capacitance between each of the electrodes varies as the mass of the position is varied relative to each electrode. それぞれの電極は、電極に対する質量302の容量(及び近接性)に関連する信号を生成する回路に接続されてもよい。 Each of the electrodes may be connected to a circuit for generating a signal related to the capacity of the mass 302 relative to the electrode (and proximity). さらに、スプリング306、308、310、312は、スプリングの伸縮に関連した信号を生成する抵抗歪みゲージセンサを含んでもよい。 Further, the spring 306, 308, 310, 312 may include resistive strain gauge sensors that produce signals related to the expansion and contraction of the spring.

ある実施の形態において、フレーム304は、加速度計300がピッチ及び/又はロール及び/又はヨー軸に関して固定的な方向を維持するためにコントローラ110に搭載されたジンバルであってもよい。 In some embodiments, frame 304 may be gimbal mounted to the controller 110 to the accelerometer 300 maintains a fixed orientation with respect to pitch and / or roll and / or yaw axis. これによれば、現実世界の座標軸に対するコントローラの軸の傾きを考慮する必要なく、コントローラのX、Y、Z軸を、直接現実世界の対応する軸にマップすることができる。 According to this, the reality without the need to consider the inclination of the controller axes with respect to the coordinate axes of the world, the controller of the X, Y, and Z-axis may be mapped to a corresponding axis of direct real world.

図3B−3Dは、加速及び/又は回転の異なる条件下でのスプリング306、308、310、312の異なる伸縮の例を示す。 Figure 3B-3D illustrate examples of different stretch Spring 306, 308, 310, 312 under different conditions of acceleration and / or rotation. 具体的には、図3Bは、フレーム304がY軸の周りに回転した状況を示す。 Specifically, Figure 3B shows a situation where the frame 304 is rotated about the Y axis. 質量302に作用する重量のために、スプリング306、310は伸張し、質量302はセンサ314、318に接近し、センサ316、320から遠ざかる。 For the weight acting on the mass 302, springs 306, 310 extend, the mass 302 approaches the sensor 314, 318, away from the sensor 316, 320. Y(ロール)軸に関する反対方向の回転により、同様にスプリング306、310が伸張するが、質量はセンサ316、320に接近し、センサ314、318から遠ざかる。 The rotation in the opposite direction about the Y (roll) axis, likewise spring 306, 310 is extended, but the mass approaches the sensor 316, 320, away from the sensor 314, 318. 同様に、X(ピッチ)軸に関する回転により、スプリング308、312が伸張し、質量は、回転の方向に依存するが、センサ314、316に接近し、センサ318、320から遠ざかる。 Similarly, rotation about the X (pitch) axis, the spring 308, 312 is stretched, the mass depends on the direction of rotation, close to the sensor 314, 316, away from the sensor 318, 320.

図3Cは、フレーム304が水平面を保ったまま下方(矢印で示される)へ急激に加速された状況を示す。 3C shows a situation in which the frame 304 is rapidly accelerated downward while keeping the horizontal plane (indicated by arrows). この状況においては、4つのスプリング306、308、310、312は全て伸張し、質量は4つのセンサ314、316、318、320の全てに接近する。 In this situation, four springs 306, 308, 310, 312 are all stretched, mass approaches the all four sensors 314, 316, 318. 図3Dでは、フレーム304は水平面を保ったまま左(矢印で示される)へ加速される。 In FIG. 3D, the frame 304 is accelerated to the left while keeping the horizontal plane (indicated by arrows). この状況においては、スプリング306、308、及び312は伸張し、スプリング310は圧縮される。 In this situation, the spring 306, 308, and 312 extend, spring 310 is compressed. 質量302は、センサ314、318から遠ざかり、センサ316、320に接近する。 Mass 302 moves away from the sensor 314, 318, approaches the sensor 316, 320. 図3Eは、フレーム304がZ(ヨー)軸の周りの角加速度を与えられ、4つのスプリング306、308、310、312の全てが伸張し、質量302が4つのセンサ314、316、318、320の全てから遠ざかる状況を示す。 Figure 3E, the frame 304 is given an angular acceleration about the Z (yaw) axis, all four springs 306, 308, 310, 312 are stretched, the mass 302 is four sensors 314, 316, 318, 320 It shows the situation away from all of. 図3B−3Eから分かるように、異なるフレーム304の動き及び/又は方向は、特定の信号の組み合わせを生成するので、信号の組み合わせを分析することにより、フレーム304(及びコントローラ110)の方向及び/又は動きを決定することができる。 As can be seen from FIG. 3B-3E, the motion and / or direction different frames 304, because it produces a combination of specific signals, by analyzing the combination of signals, the direction of the frame 304 (and controller 110) and / or it is possible to determine the motion.

質量302に作用する外力がない場合、質量302の安定位置からのZ軸に沿った変位は、Z軸に沿った加速度におおよそ比例する。 If there is no external force acting on the mass 302, the displacement along the Z axis from the stable position of the mass 302, roughly proportional to the acceleration along the Z-axis. 検出器314、316、318、320は、質量302の変位に比例し、したがって、Z軸に沿ったフレーム304(及びコントローラ110)の加速度に比例した信号を生成する。 Detector 314, 316, 318, 320 is proportional to the displacement of the mass 302, thus generating a signal proportional to the acceleration of the frame 304 along the Z-axis (and the controller 110). 同様に、センサからの信号は、X及びY軸に沿った加速度を推定するための用いられてもよい。 Similarly, the signal from the sensor may be used for estimating the acceleration along the X and Y axes. ここで、重力が質量302に作用する場合、センサ314、316、318、320は、ゼロでない信号を生成するであろうことに留意すべきである。 Here, if the gravity acting on the mass 302, the sensor 314, 316, 318, 320 It should be noted that will produce non-zero signal. 例えば、安定状態において、ジョイスティックコントローラにピッチ又はロールが印加されないとき、Z軸は(重力により決定される)垂直軸に一致する。 For example, in a stable state, when the pitch or roll to the joystick controller is not applied, the Z-axis (determined by gravity) coincides with the vertical axis. 重力は、質量302を、重力がない場合に仮定される位置から移動させる。 Gravity, the mass 302 is moved from the position assumed in the absence of gravity. 変位の結果として、センサは、ゼロでない信号V を生成する。 As a result of the displacement, the sensor generates a signal V 0 is not zero. ここでは、これを「ゼロ点」加速度信号と呼ぶ。 Here, this is referred to as a "zero point" acceleration signal. ゼロ点加速度信号V は、典型的には、センサ314、316、318、320からの生の信号を分析する前に、加速度計の信号Vから減じられる。 Zero-point acceleration signal V 0 is typically before analyzing the raw signals from the sensors 314, 316, 318, 320, is subtracted from the signal V of the accelerometer.

フレーム304(及びコントローラ110)がピッチ及びロールに関して同じ方向に保たれていれば、ゼロ点加速度信号V は一定である。 If the frame 304 (and controller 110) if maintained in the same direction with respect to pitch and roll the zero-point acceleration signal V 0 is constant. しかし、ゼロ点加速度信号V は、ピッチ及びロール軸に関する回転量に依存する。 However, the zero-point acceleration signal V 0 is dependent on the amount of rotation about the pitch and roll axes. 本発明の実施の形態は、ゼロ点加速度信号V に対するピッチ及びロールの効果を考慮に入れる。 Embodiments of the present invention takes into account the effects of pitch and roll with respect to the zero-point acceleration signal V 0. 例えば、図4は、Z軸に沿ったチューブ404の中で移動することを強いられた質量402を有する単一軸加速度計400に関する状況を示す。 For example, Figure 4 shows the situation for a single axis accelerometer 400 having a mass 402 that is forced to move in a tube 404 along the Z-axis. スプリング406は、チューブ404の底面において質量402に接続する。 Spring 406 is connected to the mass 402 at the bottom of the tube 404. センサ408は、例えば、上述した容量センサである。 Sensor 408 is, for example, a capacitive sensor described above. チューブ404のピッチ及びロールにより、チューブ軸Zが垂直方向Z'に対して角度θ傾く(波線で示す)と、「回転された」ゼロ点加速度信号V 'は、V 及びθと以下のように関連すると考えられる。 The pitch and roll of the tube 404, the tube axis Z is vertical Z 'inclined angle θ with respect to a (shown by a broken line), "rotated" zero-point acceleration signal V 0' is the following to V 0 and θ It believed to be related to.
'=V cosθ V 0 '= V 0 cosθ
θ=90°の極端なケースにおいては、V '=0となることに留意されたい。 In the extreme case of θ = 90 °, it is noted that the V 0 '= 0.

角度θは、一般に、ピッチ及びロールの角度に依存する。 Angle θ is generally dependent on the angle of pitch and roll. これらは、別個のセンサからの信号により決定されてもよい。 These may be determined by a signal from a separate sensor. チューブ軸Zに沿った単位ベクトルzは、加速度計の軸が垂直軸に沿った単位ベクトルz'に一致する方向などの既知の初期方向に関するピッチ及びロールの既知の絶対値から構成されてもよい。 Unit vector z along the tube axis Z may be constructed from known absolute values ​​of known pitch and roll about the initial direction of such a direction that the axis of the accelerometer is equal to the unit vector z 'along the vertical axis . 初期方向は、加速度計400から不変の信号を生成するジョイスティックコントローラの任意の方向であってもよい。 The initial direction may be any direction of the joystick controller that produces invariant signal from the accelerometer 400. 単位ベクトルzとz'の内積は、それらの間の角θの余弦で与えられる。 Inner product of the unit vectors z and z 'is given by the cosine of the angle θ between them. この内積は、所望の補正因子を提供するためにゼロ点信号V0に乗算され、センサ408から取得される加速度信号から減算されてもよい。 This inner product is desired is multiplied by the zero point signal V0 for providing a correction factor may be subtracted from the acceleration signal obtained from the sensor 408.

本実施の形態のセンサにおいて、様々な種類の慣性センサ装置が、6自由度(例えば、X、Y及びZ方向の平行移動、及びX、Y及びZ軸の周りの回転)の情報を提供するために用いられてもよい。 In the sensor of the present embodiment, various types of inertial sensor devices, to provide information 6 degrees of freedom (e.g., X, parallel movement in the Y and Z directions, and X, rotation about the Y and Z-axis) it may be used for. 6自由度の情報を提供するために適当な慣性センサの例は、図3Aに示した種類の加速度計、1以上の単一軸加速度計、機械的なジャイロスコープ、リングレーザージャイロスコープ、又はこれらの2以上の組み合わせを含む。 Suitable inertial sensors for providing six degrees of freedom information example, an accelerometer of the type shown in FIG. 3A, 1 or more single axis accelerometers, mechanical gyroscopes, ring laser gyroscope, or their comprising two or more of the combination.

センサからの信号は、発明の方法に係るビデオゲームのプレー中に、コントローラ110の動き及び/又は方向を判定するために分析されてもよい。 Signal from the sensor, during play of a video game according to the method of the invention may be analyzed to determine the motion and / or orientation of the controller 110. このような方法は、プロセッサにより読み取り可能な媒体に格納され、ディジタルプロセッサ上で実行されるプログラムコード命令を実行可能な一連のプロセッサとして実現されてもよい。 Such methods may be stored in a medium readable by the processor may be implemented as a series of processor executable program code instructions executed on a digital processor. 例えば、図5Aに示すように、ビデオゲームシステム100は、コンソール102上にプロセッサ502を含んでもよい。 For example, as shown in FIG. 5A, the video game system 100 may include a processor 502 on the console 102. プロセッサ502は、ビデオゲームコンソールに一般的に用いられる種類のマイクロプロセッサなどの任意の適当なディジタルプロセッサユニットであってもよい。 The processor 502 may be any suitable digital processor unit such as the type of microprocessor commonly used in video game consoles. プロセッサは、プロセッサ読み取り可能な命令の実行により慣性分析部504を実現してもよい。 The processor may implement an inertial analyzer 504 through execution of processor readable instructions. 命令の一部はメモリ506に格納されてもよい。 Some of the instructions may be stored in the memory 506. 別の例では、慣性分析部504は、ASICなどのハードウェアにより実現されてもよい。 In another example, the inertial analyzer 504 may be implemented by hardware such as ASIC. このような分析部のハードウェアは、コントローラ110又はコンソール102に配置されてもよいし、他の場所に隔てて配置されてもよい。 Such analyzer hardware may be disposed in the controller 110 or console 102 may be arranged at other locations. ハードウェアによる実装において、分析部504は、プロセッサ502や、USBケーブル、無線、又はネットワークにより接続された他の遠隔配置された信号源などからの外部信号に応じてプログラム可能であってもよい。 In a hardware implementation, the analysis unit 504, and processor 502, USB cable, wireless, or may be programmable in response to external signals such as from other remotely located source, which is connected by a network.

慣性分析部504は、慣性センサ112により生成された信号を分析し、コントローラ110の位置及び/又は方向に関する情報を利用する命令を包含又は実行してもよい。 Inertial analyzer 504 analyzes the signals generated by the inertial sensor 112 may include or execute an instruction that uses the information about the position and / or orientation of the controller 110. 例えば、図5Bのフロー図510に示すように、信号は、ブロック512に示されるように、慣性センサ112により生成されてもよい。 For example, as shown in the flow diagram 510 of FIG. 5B, the signal, as shown in block 512, may be generated by the inertial sensor 112. ブロック514に示されるように、慣性センサ信号は、コントローラ110の位置及び/又は方向に関する情報を決定するために分析されてもよい。 As shown in block 514, the inertial sensor signals may be analyzed to determine information regarding the position and / or orientation of the controller 110. 位置/及び又は方向情報は、ブロック516に示されるように、システム100においてビデオゲームのプレー中に利用されてもよい。 Position and / or orientation information as indicated at block 516, may be utilized during play of a video game in a system 100.

ある実施の形態において、位置及び/又は方向の情報は、ゲームのプレー中に、ユーザ108により行われたジェスチャーに関連して用いられてもよい。 In certain embodiments, the position and / or orientation information during game play, may be used in conjunction with the gesture made by the user 108. 図5Cのフロー図520に示すように、コントローラ110のパスは、ブロック522に示すように、位置及び/又は方向の情報を用いて追跡されてもよい。 As shown in the flow diagram 520 of FIG. 5C, a path of the controller 110, as shown in block 522 may be tracked using the position and / or orientation information. 限定されない例において、パスは、ある座標系に関するコントローラの重心の位置を示す一連の点を含んでもよい。 In a non-limiting example, the path may comprise a series of points indicating the position of the controller of the center of gravity for a certain coordinate system. それぞれの位置の点は、直行座標系におけるX、Y及びZ座標など、1以上の座標により表現されてもよい。 The points of each position, X in the Cartesian and Y and Z coordinates may be represented by one or more coordinates. パスの形状と、パスに沿ったコントローラの進行状況の双方を監視できるようにするために、時間がパス上のそれぞれの点に関連づけられてもよい。 The shape of the path, in order to be able to monitor both the progress of the controller along the path may be time associated with each point on the path. さらに、パス上のそれぞれの点は、コントローラの方向を示すデータ、例えば、コントローラの重心に関する1以上の回転角に関連づけられてもよい。 Furthermore, each point on the path, the data indicating the direction of the controller, for example, may be associated with one or more rotation angle for the center of gravity of the controller. さらに、パス上のそれぞれの点は、コントローラの重心の速度及び加速度や、コントローラの重心に関する角速度及び加速度に関連づけられてもよいし、 Furthermore, each point on the path, speed and or acceleration of the center of gravity of the controller may be associated with the angular velocity and acceleration about the center of gravity of the controller,

ブロック524に示されるように、追跡されたパスは、プレーされているビデオゲームの状況に関連した、既知及び/又は予め記録されたジェスチャー508に対応する1以上の格納されたパスと比較されてもよい。 As shown in block 524, the tracked path, associated with the status of the video game being played, the known and / or is compared with the corresponding one or more of the stored path pre-recorded gestures 508 it may be. 分析部504は、ユーザを認識し、又は、音響認証されたジェスチャーなどを処理することが可能に構成されてもよい。 Analyzer 504 recognizes the user, or may be configured to be capable to process and audio authenticated gestures. 例えば、ユーザは、ジェスチャーと、ジェスチャーがユーザを特定できることを用いて、分析部504により識別されてもよい。 For example, a user gesture and, with that gesture can identify the user may be identified by the analysis unit 504. このような特定のジェスチャーは、メモリ506に予め記録されたジェスチャー508に記録され含められてもよい。 This particular gesture such as may be included is recorded in advance on the recording gesture 508 in the memory 506. 記録処理において、ジェスチャーの記録中に生成された音をさらに格納してもよい。 In the recording process may further store the sound generated during the recording of the gesture. 検知された環境は、多チャンネル分析部にサンプリングされ、処理される。 Sensed environment is sampled into a multi-channel analyzer and processed. 処理部は、ユーザ又はオブジェクトを、声又は音響パターンに基づいて、高い精度及び性能で判定し、認証し、及び/又は識別するために、ジェスチャーモデルを参照してもよい。 Processing unit, the user or object, based on voice or acoustic patterns, determined with high accuracy and performance, authenticate, and / or to identify, reference may be made to gesture models.

図5Aに示されるように、ジェスチャーは、メモリ506に格納されてもよい。 As shown in Figure 5A, the gesture may be stored in memory 506. ジェスチャーの限定されない例として、例えば、ボールなどの物体を投げる、バット又はゴルフクラブなどの物体を振る、手動ポンプを動かす、ドア又は窓を開く又は閉じる、ステアリングホイール又はその他の乗物制御手段を回転させる、パンチなどの格闘技の動作、砂をまく動作、ワックスがけ、ワックスはがし、家を塗装する、振る、ガタガタ鳴らす、回す、フットボールを投げる、ノブを回す動作、3Dマウス動作、スクロール動作、既知の輪郭の動作、任意の記録可能な動作、タイヤに空気を入れるなどの任意のベクトルに沿った前後動作だが空間中の任意の回転を伴う動作、パスに沿った動作、雑音レベルの範囲内で記録され、追跡され、及び繰り返されることが可能なユーザの操作に基づく任意の正確な停止及び開始時期を持 Non-limiting examples of the gesture, for example, throwing an object such as a ball, swinging an object such as bat or golf club, moving the manual pump, open or close the door or window, turning steering wheel or other vehicle control unit , Martial Arts of operations such as punching, operations sow the sand, waxing, remove the wax, painting the house, shake, sound rattled, turn, throw a football, the operation of turning the knob, 3D mouse movements, scrolling behavior, known contours operation, any recordable operation, but the operation before and after along any vector, such as air into the tire, but operation with any rotation in space, motion along a path, is recorded within the noise level , are tracked, and repeated that any precise stop and start timing based on the possible user actions equity 動作、キーをつける動作などを含む。 Action, including action to put a key. これらのジェスチャーのそれぞれは、パスデータから予め記録され、時間に基づいたモデルとして格納されてもよい。 Each of these gestures may be pre recorded from path data may be stored as a model based on time. パスと格納されたジェスチャーとの比較は、安定状態の仮定から開始してもよく、パスが安定状態から外れれば、消去プロセスにより、格納されたジェスチャーとパスを比較してもよい。 Comparison of the path and stored gestures may start with the assumption of the stable state, if the path is outside the stable state, the erase process may compare the stored gestures and path. ブロック526において合致がなければ、分析部504は、ブロック522においてコントローラのパスの追跡を継続してもよい。 If a match at block 526, the analyzer 504 may continue tracking the controller passes at block 522. パス(又はその一部)と格納されたジェスチャーとの間に十分な合致があれば、ゲームの状態は、528に示すように変更されてもよい。 If there is sufficient match between the path (or a portion thereof) with the stored gestures, game state, it may be modified as shown in 528. ゲームの状態の変更は、割り込み、制御信号の送信、変数の変更などを含むが、これらに限定されない。 Game of the state change, interrupt, transmission of control signals, including such as changing the variables, not limited thereto.

これが起こりうる例を示す。 An example of this can occur. コントローラ110がパスの安定状態から外れたと判定すると、分析部504は、コントローラ110の動作を追跡する。 When the controller 110 determines that out of the stable state of the path, the analyzer 504 tracks the operation of the controller 110. コントローラ110のパスが、格納されたジェスチャーモデル508において定義されたパスを満たしている限り、これらのジェスチャーは「ヒット」する可能性がある。 Path controller 110 as long as they fulfill the paths defined in the gesture model 508 stored, these gestures are likely to "hit". コントローラ110のパスが任意のジェスチャーモデル508から(設定されたノイズ許容範囲で)外れると、そのジェスチャーモデルはヒットリストから消去される。 The path of the controller 110 (at the set noise tolerance) from any gesture model 508 disengaged, the gesture model is deleted from the hit list. それぞれのジェスチャー参照モデルは、ジェスチャーが記録された時間基準を含む。 Each gesture reference model includes a time reference gesture is recorded. 分析部504は、適切な時間インデックスにおいて、コントローラのパスデータと格納されたジェスチャー508とを比較する。 Analyzer 504, at the appropriate time index, and compares the gesture 508 stored with the controller path data. 安定状態条件の発生によりクロックがリセットされる。 Clock is reset by the occurrence of a stable state conditions. 安定状態から外れたとき(すなわち、動作がノイズ閾値を超えて追跡されたとき)、ヒットリストは全ての可能性のあるジェスチャーモデルが投入される。 When deviating from steady state (i.e., when the operation is tracked beyond the noise threshold) the hit list all possible gesture model is turned. クロックが開始され、コントローラの動きがヒットリストに比較される。 Clock is started and movements of the controller are compared to the hit list. 再び、比較が時間の経過にしたがって行われる。 Again, a comparison is made over time. ヒットリスト中のいずれかのジェスチャーが、ジェスチャーの最後まで達すると、それがヒットとなる。 One of the gesture in the hit list has reached the end of the gesture, made it a hit.

ある実施の形態において、分析部504は、特定のイベントが発生したときにゲームプログラムに通知してもよい。 In some embodiments, the analyzer 504 may notify the game program when certain events occur. そのようなイベントの例は、下記を含む。 Examples of such events include the following.

・ゼロ加速度点到達割り込み(X、Y、及び/又はZ軸):あるゲーム状況において、分析部504は、コントローラの加速度が変曲点に達したときに、ゲームプログラム中のルーチンに通知又は割り込みをかけてもよい。 Zero acceleration point reached interrupt (X, Y, and / or Z-axis): In some game situation, the analysis unit 504, when the acceleration of the controller reaches the inflection point, notify or interrupt routine in the game program it may be over. 例えば、ユーザ108は、フットボールシミュレーションゲームにおいてクォーターバックを表現したゲームアバターを制御するためにコントローラ110を用いてもよい。 For example, the user 108 may use the controller 110 to control the game avatar representing the quarterback in a football simulation game. 分析部504は、慣性センサ112からの信号から生成されたパスを介して、フットボールを表現するコントローラを追跡してもよい。 Analyzer 504 via a path generated from signals from the inertial sensor 112 may track the controller representing the football. コントローラ110の加速度の特定の変化は、フットボールのリリースの合図となってもよい。 Specific changes in the acceleration of the controller 110 may be a sign of football release. この点において、分析部は、リリース時のコントローラの位置、及び/又は速度及び/又は方向に基づいてフットボールの軌跡をシミュレートする、物理シミュレーションパッケージなどのプログラム中の別のルーチンのトリガーとなってもよい。 In this regard, the analysis unit the position of the controller at the time of release, and / or velocity and / or on the basis of a direction to simulate the trajectory of the football, becomes another routine trigger in the program, such as physics simulation package it may be.

・認識された新しいジェスチャーの割り込み。 - interruption of the recognized new gesture.

さらに、分析部504は、1以上の入力により設定されてもよい。 Further, the analysis unit 504 may be set by one or more inputs. そのような入力の例は、下記を含む。 Examples of such inputs include the following.

・ノイズレベルの設定(X、Y又はZ軸)。 Noise level setting (X, Y or Z-axis). ノイズレベルは、ゲームにおいてユーザの手が小刻みに震えるのを分析するときに用いられる参照許容範囲であってもよい。 Noise level may be a reference tolerance used when a user's hand to analyze wiggle tremble in the game.

・サンプリングレートの設定。 • Setting the sampling rate. ここでは、サンプリングレートとは、分析部504が慣性センサから信号をサンプリングする頻度のことをいう。 Here, the sampling rate refers to how often the analyzer 504 samples the signals from the inertial sensor. サンプリングレートは、信号をオーバーサンプリングする、又は、平均化するために設定されてもよい。 The sampling rate is oversampled signal, or may be set to average.

・ギアリングの設定。 Gearing settings. ここでは、ギアリングとは、一般に、コントローラの動きとゲーム内で発生する動きとの比率のことをいう。 Here, the gearing generally refers to the ratio of the motion occurring in the controller of the movement and games. ビデオゲームの制御におけるこのような「ギアリング」の例は、米国特許出願11/382,040(2006年5月7日出願、代理人事件番号:SONYP058D)に記述されており、ここに参照として組み込まれる。 Examples of such "gearing" in the control of the video game, US patent application Ser. No. 11 / 382,040 (May 7, 2006 application, Attorney Docket: SONYP058D) are described in, as herein by reference It is incorporated.

・マッピングチェインの設定。 Mapping chain settings. ここでは、マッピングチェインとは、ジェスチャーモデルのマッピングのことをいう。 Here, the mapping chain refers to the mapping of the gesture model. ジェスチャーモデルマッピングは、特定の入力チャンネル(例えば、慣性センサ信号のみから生成されたパスデータ)、又は混合部において生成された混合チャンネルに適合されてもよい。 Gesture model mapping a particular input channel (e.g., path data is generated only from the inertial sensor signal), or may be adapted to the mixed channels generated in the mixing unit. 慣性分析部504に類似した2以上の異なる分析部により、3つの入力チャンネルが供給されてもよい。 The two or more different analyzer similar to the inertial analyzer 504, three input channels may be supplied. これらは、とくに、ここに記述される慣性分析部504、例えば米国特許出願11/382,034(発明の名称:「ゲームコントローラ本体のユーザ操作を検出し追跡するための機構」、代理人事件番号:SCEA05082US00、ここに参照として組み込まれる)に記述された映像分析部、例えば米国特許出願11/381,721(ここに参照として組み込まれる)に記述された音響分析部を含んでもよい。 These are, in particular, where the inertial analyzer 504 as described, for example, U.S. Patent Application 11 / 382,034 (entitled "mechanism for tracking and detecting a user operation of a game controller body", Attorney Docket No. : SCEA05082US00, image analyzer described in incorporated) by reference herein, for example, U.S. Patent application 11 / 381,721 (which may include an acoustic analyzer described in incorporated) by reference herein. 分析部に、マッピングチェインが組み込まれてもよい。 The analysis unit may be incorporated mapping chain. マッピングチェインは、ゲーム中にゲームによりスワップアウトされ、分析部及び混合部のために設定されてもよい。 Mapping chains can be swapped out by the game during the game may be set for analysis section and mixing unit.

再び図5Bを参照して、ブロック512において、慣性センサ112から信号を生成する方法が数多くあることは、当業者に認識されるところである。 Referring to FIG. 5B again, at block 512, that there are many methods to generate signals from the inertial sensor 112 is about to be recognized by those skilled in the art. いくつかの例は図3a−3Eに関連して上述した。 Some examples have been described above in connection with FIGS. 3a-3E. ブロック514を参照して、コントローラ110の位置及び/又は方向に関連した情報を取得するために、ブロック512において生成された検知信号を分析する方法は数多く存在する。 Referring to block 514, in order to obtain information associated with the position and / or orientation of the controller 110, there are many ways to analyze the sensing signal generated at block 512. 例えば、位置及び/又は方向の情報は、下記のパラメータを個別に又は任意の組み合わせで含んでもよい。 For example, the position and / or orientation information may include individually or in any combination of the following parameters.

・コントローラの方向。 And direction of the controller. コントローラ110の方向は、ある参照方向に関するピッチ、ロール、又はヨー角に関して、例えばラジアンで表現されてもよい。 Direction of the controller 110, the pitch for a certain reference direction, a roll, or with respect to the yaw angle, may be represented, for example, radians. コントローラの方向の変化率(例えば、角速度又は角加速度)は、位置及び/又は方向の情報に含まれてもよい。 Rates of change of controller orientation (e.g., angular velocity or angular acceleration) may be included in the position and / or orientation information. 慣性センサ112がジャイロスコープのセンサを含む場合、コントローラの方向の情報は、ピッチ、ロール、又はヨー角に比例する1以上の出力値の形式で直接取得されてもよい。 If the inertial sensor 112 comprises a sensor of the gyroscope, the direction information of the controller, pitch, roll, or may be obtained directly in the form of the yaw angle one or more output value proportional to the.

・コントローラの位置(例えば、ある参照フレームにおけるコントローラ110の直交座標X、Y、Z)。 Controller position (e.g., Cartesian coordinates X of the controller 110 in a certain reference frame, Y, Z).

・コントローラのX軸速度。 Controller of the X-axis speed.

・コントローラのY軸速度。 Controller of the Y-axis speed.

・コントローラのZ軸速度。 Controller of the Z-axis speed.

・コントローラのX軸加速度。 Controller of the X-axis acceleration.

・コントローラのY軸加速度。 Controller of the Y-axis acceleration.

・コントローラのZ軸加速度。 Controller of the Z-axis acceleration.

位置、速度及び加速度に関して、位置及び/又は方向の情報は、直交座標系以外の座標系で表現されてもよい。 Position, with respect to velocity and acceleration, position and / or orientation information may be expressed in a coordinate system other than the Cartesian coordinate system. 例えば、位置、速度及び加速度のために、円筒座標又は旧座標が用いられてもよい。 For example, the position, for speed and acceleration, cylindrical coordinates or old coordinates may be used. X、Y及びZ軸に関する加速度情報は、例えば図3A−3Eに関連して上述したような加速度計の形式のセンサから直接取得されてもよい。 X, acceleration information related to Y and Z axes may be obtained directly from format sensor accelerometer as described above in connection with FIGS. 3A-3E, for example. X、Y及びZ方向の加速度は、X、Y及びZ方向の速度の変化を決定するために、ある初期時からの時間に関して積分されてもよい。 X, acceleration in the Y and Z directions, X, in order to determine the change in Y and Z direction of the velocity may be integrated with respect to time from some initial time. これらの速度は、初期時における既知のX、Y及びZ方向の速度に速度の変化分を加えることにより算出されてもよい。 These rates, known X at the initial time, may be calculated by adding the speed variation of the the speed of the Y and Z directions. X、Y及びZ方向の速度は、コントローラのX、Y及びZ方向の変位を決定するために、時間に関して積分されてもよい。 X, the speed of the Y and Z directions, the controller of X, to determine the displacement in the Y and Z directions, may be integrated with respect to time. X、Y及びZ方向の位置は、初期時における既知のX、Y及びZ方向の位置に変位を加えることにより決定されてもよい。 X, the position of the Y and Z directions are known X at the initial time may be determined by adding the displacement to the position in the Y and Z directions.

・安定状態(Y/N)。 And stable state (Y / N). この特別な情報は、コントローラが安定状態にあるか否かを示す。 This special information indicates whether the controller is in a stable state. この情報は、任意の位置に定義されてもよく、変更される可能性もある。 This information may be defined at any position, there is a possibility to change. 好ましい実施の形態において、安定状態の位置は、だいたいユーザの腰と同じ高さにおいて、より高い又は低いレベルの方向にコントローラが保持された状態であってもよい。 In a preferred embodiment, the position of the stable state, roughly at the same height as the waist of the user, may be in a state in which the controller is held in a higher or lower level direction.

・最後の安定状態からの時間は、一般に、上記の安定状態が最後に検出されてから経過した時間に関連するデータのことである。 - the time since the last stable state, in general, is that the data associated with the time at which the steady state has elapsed since the last detected. この時間の決定は、前述したように、現実の時間において計算されてもよいし、プロセッサの周波数又はサンプリング周期において計算されてもよい。 The time determination, as described above, may be computed in real time, it may be calculated in the frequency or sampling period of the processor. 最後の安定状態からの時間のデータは、ゲーム環境におけるキャラクタ又はオブジェクトのマッピングの精度を確保するための初期位置に関するコントローラの追跡のリセットに関して重要である。 Time data from the last stable state is important with respect to the reset of the controller of the tracking related initial position to ensure the accuracy of the mapping of characters or objects in the game environment. このデータは、ゲーム環境においてつづいて排他的にも包括的にも実行されるであろう可能なアクション又はジェスチャーを決定することに関しても重要である。 This data is also important with regard to determining the possible actions or gestures would be executed exclusively comprehensive be followed in the game environment.

最後に認識されたジェスチャーは、一般に、ハードウェア又はソフトウェアにより実現されたジェスチャー認識部505により最後に認識されたジェスチャーのことである。 Last known gesture, generally, is that the last known gesture by gesture recognition unit 505 is realized by hardware or software. 最後に認識されたジェスチャーの識別は、前回のジェスチャーが、続いて認識される可能性のあるジェスチャー又はゲーム環境において実行されるその他のアクションに関連する可能性があるという事実に関して重要である。 Identification of the last known gesture, previous gesture is important for the fact that subsequently may be related to other actions to be executed in the potential gesture or gaming environment recognized.

・最後にジェスチャーが認識された時間。 • The last time the gesture has been recognized.

上記の出力は、ゲームプログラム又はソフトウェアにより任意のタイミングでサンプリングされてもよい。 The output of the above may be sampled at any time by the game program or software.

本発明の実施の形態によれば、上述したタイプのビデオゲームシステム及び方法は、図6に示すように実現される。 According to the embodiment of the present invention, a video game system and method of the type described above it is implemented as shown in FIG. ビデオゲームシステム600は、プロセッサ601及びメモリ602(例えば、RAM、DRAM、ROMなど)を含んでもよい。 Video game system 600 includes a processor 601 and memory 602 (e.g., RAM, DRAM, ROM, and the like). さらに、ビデオゲームシステム600は、並列処理が実装される場合には、複数のプロセッサ601を有してもよい。 Further, the video game system 600, when the parallel processing is implemented may comprise a plurality of processors 601. メモリ602は、上述したように構成される部分を含むデータ及びゲームプログラムコード604を含む。 Memory 602 includes data and game program code 604 including a portion configured as described above. とくに、メモリ602は、上述したコントローラの格納されたパス情報を含む慣性信号データ606を含んでもよい。 In particular, the memory 602 may include inertial signal data 606 including the path information stored in the controller as described above. メモリ602は、ゲームプログラム604に関連した1以上のジェスチャーを示すデータなど、格納されたジェスチャーデータ608を更に含んでもよい。 Memory 602, data indicating one or more gestures associated with the game program 604 may further include a gesture data 608 stored.

システム600は、入出力(I/O)要素611、電源(P/S)612、クロック(CLK)613、及びキャッシュ614など、既知の支援機能を更に含んでもよい。 System 600 includes input and output (I / O) elements 611, power (P / S) 612, a clock (CLK) 613, and a cash 614 may further include a known support functions. 装置600は、プログラム及び/又はデータを格納するために、ディスクドライブ、CD−ROMドライブ、テープドライブなどの大容量記憶装置615を含んでもよい。 Apparatus 600 for storing programs and / or data, disk drives, CD-ROM drives, may include a mass storage device 615 such as a tape drive. コントローラは、コントローラ600とユーザの間のインタラクションを容易にするために、表示ユニット616及びユーザインタフェースユニット618を更に含んでもよい。 The controller, in order to facilitate interaction between the controller 600 and the user may further include a display unit 616 and user interface unit 618. 表示ユニット616は、テキスト、数字、表示シンボル、又は画像を表示するブラウン管(CRT)又は平面ディスプレイの形式であってもよい。 Display unit 616, text, numbers, display symbols, or images may be a cathode ray tube (CRT) or flat format display for displaying. ユーザインタフェース618は、キーボード、マウス、ジョイスティック、ライトペン、又は他のデバイスを含んでもよい。 The user interface 618 includes a keyboard, a mouse, a joystick, may include light pen or other device. さらに、ユーザインタフェース618は、分析すべき信号を直接取得するために、マイクロフォン、ビデオカメラ、又は他の信号変換デバイスを含んでもよい。 Furthermore, the user interface 618, in order to obtain the signal to be analyzed directly, microphone may include a video camera or other signal conversion device. 図6に示すように、プロセッサ601、メモリ602、及び他のシステム600の構成要素は、システムバス620を介して相互に信号(例えば、コード命令及びデータ)を交換してもよい。 As shown in FIG. 6, the processor 601, the components of the memory 602 and other system 600, are mutually signals via a system bus 620 (e.g., code instructions and data) may exchange.

マイクロフォン配列622は、入出力機能611を介してシステム600に接続されてもよい。 The microphone array 622 may be connected via the input-output function 611 in the system 600. マイクロフォン配列は、約2から8、好ましくは約4のマイクロフォンを含んでもよく、隣接するマイクロフォンは、約4センチメートル以下、好ましくは約1から2センチメートルの距離で分離されてもよい。 The microphone array is about 2 to 8, preferably may comprise about 4 microphones, adjacent microphones, about 4 centimeters or less, preferably may be separated by a distance of from about 1 to 2 centimeters. 配列622中のマイクロフォンは、無指向性マイクロフォンであることが好ましい。 Microphone in the array 622 is preferably a non-directional microphone. 任意に設けられた画像取得ユニット623(例えば、ディジタルカメラ)は、入出力機能611を介して装置600に接続されてもよい。 The image acquisition unit 623 provided in any (e.g., digital camera) may be connected to the apparatus 600 through the input-output function 611. カメラに機械的に接続された1以上のポインティングアクチュエータ(P/A)625は、入出力機能611を介してプロセッサ601との間で信号を交換してもよい。 1 or more pointing actuators mechanically connected to the camera (P / A) 625 may exchange signals with the processor 601 via the input-output function 611.

ここでは、入出力という語は、一般に、システム600から又はシステム600へ、及び、周辺装置から又は周辺装置へデータを転送する任意のプログラム、演算、又はデバイスのことを言う。 Here, the term output is generally, from the system 600 or to the system 600, and any program that transfers data from the peripheral device or to the peripheral device, computing, or refers to a device. 全てのデータは、1つの装置から出力され、別の装置へ入力されるとみなされてもよい。 All data is output from one device may be considered to be input to another device. 周辺装置は、書き込み可能なCD−ROMなど入出力の双方が可能な装置だけでなく、キーボードやマウスなどの入力装置や、プリンタなどの出力装置も含む。 Peripheral, not only both a device capable of input and output such as a writeable CD-ROM, including an input device and an output device such as a printer such as a keyboard or a mouse. 「周辺装置」という語は、CD−ROMドライブ、CD−Rドライブ、内蔵モデム、又は、フラッシュメモリリーダ/ライタ、ハードディスクなどの他の周辺装置などの内部装置だけでなく、マウス、キーボード、プリンタ、モニタ、マイクロフォン、ゲームコントローラ、カメラ、外部Zipドライブ、又はスキャナなどの外部装置も含む。 The term "peripheral device", CD-ROM drives, CD-R drive, built-in modem, or, not only the internal device such as a flash memory reader / writer, other peripheral devices such as a hard disk, mouse, keyboard, printer, monitor, microphone, game controller, camera, even an external device such as an external Zip drive or scanner including.

本発明のある実施の形態において、装置600は、有線(例えばUSBケーブル)又は無線により入出力機能611を介してプロセッサに接続されたコントローラ630を含むビデオゲームユニットであってもよい。 In one embodiment of the present invention, apparatus 600 may be a video game unit including a controller 630 coupled to the processor via the wired (e.g., USB cable) or wirelessly by output function 611. ある実施の形態において、ジョイスティックコントローラ630はユーザの体に装着可能であってもよい。 In some embodiments, the joystick controller 630 may be mountable to the body of the user. コントローラ630は、ビデオゲームのプレー中に一般的に用いられる制御信号を提供するアナログジョイスティック631及び従来のボタン633を有してもよい。 The controller 630 may have analog joystick 631 and the conventional buttons 633 that provide general control signals used during play of video games. このようなビデオゲームは、プロセッサにより読み取り可能なデータ、及び/又は、メモリ602や大容量記憶装置615などに関連づけられたものなど他のプロセッサ読み取り可能な媒体に格納されたプログラム604からの命令により実現されてもよい。 Such video games, data readable by the processor, and / or by instructions from the program 604 stored in other processor-readable media such as those associated with such a memory 602 and mass storage 615 it may be realized.

ジョイスティック631は、一般に、スティックを左右に動かすとX軸に沿った動作を示し、前後又は上下に動かすとY軸に沿った動作を示すように構成される。 Joystick 631, typically, moving the stick in the left-right shows the operation along the X axis, configured to indicate motion along moving the Y-axis back and forth or up and down. 3次元の動作のために構成されたジョイスティックにおいて、スティックを左(反時計回り)又は右(時計回り)にねじると、Z軸に沿った動作を示すようにしてもよい。 In joysticks that are configured for three-dimensional operation, when twisting the stick left (counter-clockwise) or right (clockwise) may indicate an operation along the Z axis. これらのX、Y、及びZの3軸は、しばしば、とくに飛行機に関連して、それぞれ、ロール、ピッチ、及びヨーと呼ばれる。 These X, Y, and three axes of Z are often especially in connection with aircraft, respectively, called roll, pitch, and yaw.

コントローラ630は、従来の特徴に加えて、位置及び/又は方向の情報を慣性信号を介してプロセッサ601に提供する1以上の慣性センサ632を含んでもよい。 The controller 630, in addition to conventional features, the position and / or orientation of the information through the inertial signal may include one or more inertial sensors 632 provided to the processor 601. 方向情報は、コントローラ630の傾き、ロール、又はヨーなどの角度情報を含んでもよい。 Direction information, the inclination of the controller 630 may include angular information such as a roll, or yaw. 例えば、慣性センサ632は、任意の数及び/又は組み合わせの加速度計、ジャイロスコープ、又は傾きセンサを含んでもよい。 For example, the inertial sensors 632 may include any number and / or combination accelerometers may include a gyroscope or tilt sensor. 好適な実施の形態において、慣性センサ632は、傾き及びロール軸に関するジョイスティックコントローラの方向を検知するための傾きセンサ、ヨー軸に沿った加速度を検知するための第1の加速度計、及び、ヨー軸に関する角加速度を検知するための第2の加速度計を含む。 In a preferred embodiment, the inertial sensor 632, tilt sensor for detecting the direction of the joystick controller relating to inclination and roll axes, a first accelerometer for sensing acceleration along a yaw axis, and the yaw axis relates comprises a second accelerometer for detecting an angular acceleration. 加速度計は、例えば、1以上のスプリングにより搭載された質量と、1以上の方向に関する質量の変位を検知するためのセンサを含むMEMSデバイスとして実現されてもよい。 Accelerometer, for example, a mass mounted by one or more springs, may be implemented as a MEMS device including a sensor for sensing displacement of the mass about the one or more directions. 質量の変位に依存したセンサからの信号は、ジョイスティックコントローラ630の加速度を決定するために用いられてもよい。 Signal from the sensor which is dependent on the displacement of the mass may be used to determine the acceleration of the joystick controller 630. このような技術は、メモリ602に格納され、プロセッサ601により実行されるゲームプログラム604からの命令により実現されてもよい。 Such techniques are stored in the memory 602 may be implemented by instructions from the game program 604 executed by the processor 601.

例えば、慣性センサ632に適した加速度計は、例えばスプリングによりフレームに3又は4点で弾性的に結合された単純な質量であってもよい。 For example, an accelerometer suitable for the inertial sensor 632, for example, may be a simple mass elastically coupled at three or four points to a frame by a spring. ピッチ及びロール軸は、ジョイスティックコントローラ630に搭載されたフレームに交差する平面にある。 Pitch and roll axes are in a plane that intersects the frame, which is mounted to the joystick controller 630. フレーム(及びジョイスティックコントローラ630)がピッチ及びロール軸の周りで回転すると、質量は重力の影響下で変位し、スプリングはピッチ及び/又はロール軸に依存するように伸縮する。 The frame (and the joystick controller 630) rotates about pitch and roll axes the mass will displace under the influence of gravity, the spring expands and contracts to be dependent on the pitch and / or roll axes. 質量の変位が検知され、ピッチ及び/又はロールの量に依存する信号に変換される。 The displacement and of the mass can be sensed and converted to a signal that depends on the amount of pitch and / or roll. ヨー軸の周りの角加速度又はヨー軸に沿った直線加速度も、検知され、ピッチ及び/又はロールの量に依存する信号に変換されるスプリングの伸縮又は質量の動きの特徴的なパターンを生成することがある。 Linear acceleration along the angular acceleration or the yaw axis around the yaw axis also is detected to produce a characteristic pattern of expansion and contraction or mass movement of the spring is converted into a signal that depends on the amount of pitch and / or roll Sometimes. このような加速度計は、質量の動き又はスプリングの伸縮力を追跡することにより、ヨー軸の周りの傾き、ロール角加速度、及びヨー軸に沿った直線加速度を測定することができる。 Such accelerometer, by tracking the stretching force of the mass movement or spring can tilt about the yaw axis, measured roll angular acceleration and linear acceleration along the yaw axis. 質量の位置及び/又はそれに及ぼされる力を追跡する方法は、抵抗ひずみゲージ物質、光センサ、磁気センサ、ホール効果デバイス、圧電デバイス、容量センサなど、数多く存在する。 Method of tracking the position and / or force exerted on its mass, the resistance strain gauge material, optical sensors, magnetic sensors, Hall-effect devices, piezoelectric devices, such as capacitive sensors, there are many. ある実施の形態において、慣性センサ632は、ジョイスティックコントローラ630の「本体」に着脱可能に搭載されてもよい。 In some embodiments, the inertial sensor 632 may be capable of be mounted detachably on the "body" of the joystick controller 630.

さらに、ジョイスティックコントローラ630は、発光ダイオード(LED)などの1以上の光源634を含んでもよい。 Further, the joystick controller 630 may include one or more light sources 634 such as light emitting diodes (LED). 光源634は、コントローラを他のコントローラと区別するために用いられてもよい。 Light source 634 may be used to distinguish one controller from the other. 例えば、1以上のLEDにより、LEDパターンコードを点滅又は持続させることにより、これを達成することができる。 For example, by one or more LED, by flashing or sustain an LED pattern code, it is possible to achieve this. 例えば、5つのLEDを直線又は2次元パターンでコントローラ630に設けてもよい。 For example, five LED in a linear or two-dimensional pattern may be provided on the controller 630. LEDを直線的に配列させることが好ましいが、画像取得ユニット623により取得されたLEDのパターンの画像を解析する際にLEDの像平面の決定を容易にするために、LEDを矩形又はアーチ形のパターンに配列してもよい。 It is preferable to linearly arrange the LED, but in order to facilitate the determination of the LED image plane of when analyzing the LED of the pattern image acquired by the image acquisition unit 623, LED rectangular or arched it may be arranged in a pattern. さらに、LEDパターンコードは、ゲームプレー中にジョイスティックコントローラ630の位置を決定するために用いられてもよい。 Furthermore, LED pattern codes may be used to determine the position of the joystick controller 630 during game play. 例えば、LEDは、コントローラの傾き、ヨー、及びロールを特定するのに役立つ。 For example, LED is the inclination of the controller, yaw, and serve to identify the role. この検出パターンは、航空機飛行ゲームなどのゲームにおいて、ユーザの使用感を向上させるのに役立つ。 This detection pattern can assist in the game, such as aircraft flight game, improve the user experience. 画像取得ユニット623は、ジョイスティックコントローラ630及び光源634を含む画像を取得してもよい。 The image acquisition unit 623 may acquire an image including the joystick controller 630 and light source 634. このような画像の分析により、ジョイスティックコントローラの位置及び/又は方向を決定することができる。 Analysis of such images can determine the position and / or orientation of the joystick controller. このような分析は、メモリ602に格納されプロセッサ601により実行されるプログラムコード命令604により実現されてもよい。 Such analysis may be implemented by program code instructions 604 to be executed by being stored in the memory 602 processor 601. 画像取得ユニット623による光源634の画像の取得を容易にするために、光源634は、ジョイスティックコントローラ630の2以上の異なる側面、例えば、表と裏(波線で示される)に配置されてもよい。 To facilitate the acquisition of images of the light sources 634 by the image acquisition unit 623, a light source 634, two or more different sides of the joystick controller 630, e.g., it may be disposed in front and back (shown in dashed lines). このような配置により、画像取得ユニット623は、ジョイスティックコントローラ630がユーザによりどのように把持されるかに依存して、ジョイスティックコントローラ630の方向が異なっても、光源634の画像を取得することができる。 Such an arrangement, the image acquisition unit 623, depending on whether the joystick controller 630 is held how the user, even different directions of the joystick controller 630 can acquire the image of the light source 634 .

さらに、光源634は、例えばパルスコード、振幅変調、又は周波数変調などの方式で、プロセッサ601に対して遠隔計測信号を提供してもよい。 Further, the light source 634, for example, a pulse code in a manner such as amplitude modulation or frequency modulation, may provide telemetry signals to the processor 601. このような遠隔計測信号は、どのジョイスティックボタンが押されたか、及び/又は、そのボタンがどのくらい強く押されたかを示してもよい。 Such telemetry signals may what joystick button is pressed, and / or may indicate whether the strongly pressed the button how much. 遠隔計測信号は、パルスコード、パルス幅変調、周波数変調、光度(振幅)変調などにより、光信号にエンコードされてもよい。 Telemetry signal, pulse code, pulse width modulation, frequency modulation, or the like intensity (amplitude) modulation, may be encoded into the optical signal. プロセッサ601は、光信号から遠隔計測信号をデコードし、デコードされた遠隔計測信号に応じて、ゲームコマンドを実行してもよい。 The processor 601, a telemetry signal decoded from an optical signal, in response to the decoded telemetry signal, it may perform the game command. 遠隔計測信号は、画像取得ユニット623により取得されたジョイスティックコントローラ630の画像の分析からデコードされてもよい。 Telemetry signals may be decoded from analysis of acquired image of the joystick controller 630 by the image acquisition unit 623. または、装置600は、光源634から遠隔計測信号を受信するために設けられた別の光学センサを含んでもよい。 Or, device 600 may include another optical sensor provided to receive telemetry signals from the light source 634. コンピュータプログラムと連動して強度を決定するためにLEDを用いることは、例えば、米国特許出願11/429,414(発明者:リチャード・L・マークスら、発明の名称:「コンピュータプログラムと連動した強度及び入力装置のコンピュータ画像音声処理」、代理人事件番号:SONYP052)に記述されており、ここに参照として組み込まれる。 The use of LED to determine the intensity in conjunction with a computer program, for example, U.S. Patent Application 11 / 429,414 (inventors: Richard · L · Marks et al, entitled: "strength in conjunction with a computer program and computer image audio processing "of the input device, Attorney Docket: SONYP052) are described in, and incorporated herein by reference. さらに、光源634を含む画像の解析は、遠隔計測と、ジョイスティックコントローラ630の位置及び/又は方向の決定の双方に用いられてもよい。 Furthermore, analysis of images containing the light source 634, and telemetry may be used for both the position and / or orientation of the determination of the joystick controller 630. このような技術は、メモリ602に格納されプロセッサ601により実行されるプログラム604の命令により実現されてもよい。 Such techniques may be implemented by instructions of the program 604 to be executed by being stored in the memory 602 processor 601.

プロセッサ601は、コントローラ630及び/又はそのユーザの位置及び/又は方向に関する情報を推定するために、画像取得ユニット623により検出された光源634からの光学信号及び/又はマイクロフォン配列622により検出された音響信号からの音源位置及び特徴情報と併用して、慣性センサ632からの慣性信号を用いてもよい。 The processor 601, sound to estimate the information about the position and / or orientation of the controller 630 and / or the user, which is detected by the optical signal and / or a microphone array 622 from the light source 634 detected by the image acquisition unit 623 in combination with the sound source position and the feature information from the signal, it may be used inertial signals from the inertial sensor 632. 例えば、ジョイスティックコントローラの動きが(慣性センサ632及び/又は光源634により)独立して追跡される間、音声の動きを追跡するために、マイクロフォン配列622と併用して、光源位置及び特徴を検出する「音波レーダー」が用いられてもよい。 For example, (by the inertial sensor 632 and / or the light source 634) movement of the joystick controller while being tracked independently, to track the movement of the voice, in conjunction with the microphone array 622 to detect the light source position and wherein it may be used a "sound wave radar." 音響レーダーにおいて、予め較正された聴取領域が実行時に選択され、予め較正された聴取領域外の音源から発せられる音声は除去される。 In acoustic radar a pre-calibrated listening zone is selected at run time, the sound emitted from the pre-calibrated listening zone outside of the sound source are removed. 予め較正された聴取領域は、画像取得ユニット623の焦点のボリューム又は視野に対応する聴取領域を含んでもよい。 Pre-calibrated listening zone was may include a listening area that corresponds to the volume or the field of view of the focal point of the image acquisition unit 623. 音響レーダーの例は、米国特許出願11/381,724(発明者:シャドン・マオ、発明の名称:「対象となる音声の検出及び特徴化方法及び装置」、出願日:2006年5月4日)に詳細に記述されており、ここに参照として組み込まれる。 Examples of acoustic radar are described in U.S. Patent Application 11 / 381,724 (inventors: Shadon Mao, entitled "speech to be detected and wherein method and device", filed on May 4, 2006 ) to have been described in detail and incorporated herein by reference. プロセッサ601に制御信号を提供する異なる態様の、任意の数の異なる組み合わせが、本発明の実施の形態に関連して用いられてもよい。 Different embodiments to provide a control signal to the processor 601, different combinations of any number may be used in connection with the embodiment of the present invention. このような技術は、メモリ602に格納されプロセッサ601により実行されるプログラムコード命令604により実現されてもよく、予め較正された聴取領域を実行時に選択し、予め較正された聴取領域外の音源から発せられる音声を除去するように、1以上のプロセッサに対して指示する1以上の命令を含んでもよい。 Such techniques may be implemented by program code instructions 604 to be executed by being stored in the memory 602 the processor 601 selects the pre-calibrated listening zone at runtime, the pre-calibrated listening zone outside of the sound source as the removal of sound emitted, it may include one or more instructions to instruct the one or more processors. 予め較正された聴取領域は、画像取得ユニット623の焦点のボリューム又は視野に対応する聴取領域を含んでもよい。 Pre-calibrated listening zone was may include a listening area that corresponds to the volume or the field of view of the focal point of the image acquisition unit 623.

プログラム604は、マイクロフォン配列622のマイクロフォンM0〜MMからの離散時間領域入力信号xm(t)を生成し、聴取領域を決定し、入力信号xm(t)から異なる音源を分離するための有限インパルス応答フィルタ係数を選択するためのセミブラインド音源分離に聴取領域を用いるために、1以上のプロセッサに対して指示する1以上の命令を含んでもよい。 Program 604 generates a discrete time domain input signal xm from the microphone M0~MM microphone array 622 (t), to determine the listening area, a finite impulse response for separating different sound sources from input signal xm (t) in order to use the listening area to semi-blind source separation to select the filter coefficients, may include one or more instructions to instruct the one or more processors. プログラム604は、参照マイクロフォンM0からの入力信号x0(t)以外の選択された入力信号xm(t)に対して、1以上の部分的遅延を適用するための命令を含んでもよい。 Program 604, the input signal from the reference microphone M0 x0 (t) other than the selected input signals xm (t), it may include instructions to apply one or more partial delay. それぞれの部分的遅延は、マイクロフォン配列からの離散時間領域出力信号y(t)のノイズ比に対して信号を最適化するために選択されてもよい。 Each partial delays may be selected to optimize the signal to noise ratio of a discrete time domain output signal y from the microphone array (t). 部分的遅延は、参照マイクロフォンM0からの信号が、配列の他のマイクロフォンからの信号に比べて、時間的に最初になるように選択されてもよい。 Partial delay, the signal from the reference microphone M0 is compared to signals from other microphone array may be selectively temporally to be the first. プログラム604は、部分的時間遅延Δを下記のようにマイクロフォン配列の出力信号y(t)に導入するための命令を含んでもよい。 Program 604, a partial time delay Δ may include instructions to introduce the output signal y of the microphone array (t) as follows.
y(t+Δ)=x(t+Δ)*b0+x(t-1+Δ)*b1+x(t-2+Δ)*b2+…+x(t-N+Δ)bN y (t + Δ) = x (t + Δ) * b0 + x (t-1 + Δ) * b1 + x (t-2 + Δ) * b2 + ... + x (t-N + Δ) bN
ただし、Δは0と±1の間このような技術の例は、米国特許出願11/381,729(発明者:シャドン・マオ、発明の名称:「超小型マイクロフォン配列」、出願日:2006年5月4日)に記述されており、ここに参照として組み込まれる。 However, examples of such techniques between Δ 0 and ± 1, the US patent application Ser. No. 11 / 381,729 (inventors: Shadon Mao, entitled: "ultra-compact microphone array", filing date: 2006 on May 4, 2009) are described, which are incorporated herein by reference.

プログラム604は、実行時にシステム600に音源を含む予め較正された聴取領域を選択させるための1以上の命令を含んでもよい。 Program 604 may include one or more instructions for selecting a pre-calibrated listening zone containing the sound source to the system 600 at runtime. このような命令は、音源が初期領域の範囲内又は初期領域の特定の側にあるか否かを装置に決定させてもよい。 Such instructions, sound source may be determined in the apparatus whether a particular side of the range or the initial region of the initial region. 音源が初期設定の領域の範囲内にない場合、命令は、実行時に、初期設定の範囲の特定の側にある異なる領域を選択してもよい。 If the sound source is not within the area of ​​the initial setting, the instructions, when executed, may select a different sector on the particular side of the range of the initial setting. 異なる領域は、最適値に最も近い入力信号の減衰により特徴づけられてもよい。 Different regions may be characterized by the attenuation of the input signals that is closest to an optimum value. これらの命令は、実行時に、マイクロフォン配列622からの入力信号の減衰と、最適値への減衰を算出してもよい。 These instructions, when executed, may be calculated and the attenuation of the input signal from the microphone array 622, the attenuation of the optimum value. 命令は、実行時に、装置600に、1以上の領域の入力信号の減衰値を決定し、減衰が最適値に最も近い領域を選択させてもよい。 Instructions, when executed, the device 600, to determine the attenuation of the input signal of one or more regions, the attenuation may be to select the area closest to the optimum value. このような技術の例は、米国特許出願11/381,725(発明者:シャドン・マオ、発明の名称:「対象音声検出方法及び装置」、出願日:2006年5月4日)に記述されており、ここに参照として組み込まれる。 Examples of such techniques are described in U.S. Patent Application 11 / 381,725 ​​(inventors: Shadon Mao, entitled "target speech detection method and apparatus", filed on May 4, 2006) is described in and, incorporated herein by reference.

慣性センサ632からの信号は、追跡情報入力の一部を提供し、1以上の光源634の追跡から画像取得ユニット623により生成される信号は、追跡情報入力の別の一部を提供してもよい。 Signals from the inertial sensor 632 may provide part of the tracking information input and signals generated by the image acquisition unit 623 from tracking the one or more light sources 634, also provide another part of the tracking information input good. このような「混合方式」の信号は、例えば、フットボール形式のビデオゲームにおいて、クォーターバックが頭を左に動かしてフェイクした後にボールを右に投げる場合などに用いられてもよい。 Signal of such "mixed system" is, for example, in football format video game, may be used, for example, when you throw the ball to the right after the quarterback was fake move the head to the left. 具体的には、コントローラ630を把持するゲームプレイヤーは、頭を左に動かして、コントローラを右に振ってフットボールであるかのように投げる動作をしながら音声を発生させてもよい。 Specifically, the game player holds the controller 630, by moving his head to the left, may be generated voice while the action of throwing as if it were a football waving the controller to the right. 「音響レーダー」プログラムコードに連動したマイクロフォン配列622は、ユーザの声を追跡することができる。 Microphone array 622 in conjunction with "acoustic radar" program code can track the user's voice. 画像取得ユニット623は、ユーザの頭の動きを追跡し、又は、音声又はコントローラの使用を必要としない他のコマンドを追跡することができる。 The image acquisition unit 623 can track the motion of the user's head, or track other commands that do not require the use of speech or controller. センサ632は、ジョイスティックコントローラ(フットボールを表現する)の動きを追跡してもよい。 Sensor 632 may track the movement of the joystick controller (representing the football). 画像取得ユニット623は、コントローラ632上の光源634を更に追跡してもよい。 The image acquisition unit 623 may further track the light sources 634 on the controller 632. ユーザは、ジョイスティックコントローラ630の加速度が特定の量及び/又は方向に達したとき、又は、コントローラ630上のボタンを押下することによりキーコマンドが発生したときに、「ボール」を離すことができる。 The user, when the acceleration of the joystick controller 630 has reached a specific amount and / or direction, or, when the key command is generated by pressing a button on the controller 630 can release the "ball".

本発明のある実施の形態において、例えば加速度計又はジャイロスコープからの慣性信号は、コントローラ630の位置を決定するために用いられてもよい。 In one embodiment of the present invention, for example, an inertial signal from an accelerometer or gyroscope may be used to determine the position of the controller 630. 具体的には、加速度計からの加速度信号は、速度の変化を決定するために、いったん時間に関して積分されてもよく、速度は、位置の変化を決定するために時間に関して積分されてもよい。 Specifically, the acceleration signal from the accelerometer, in order to determine the change in velocity may be integrated with respect to once time, speed may be integrated with respect to time to determine a change in position. ある時点での初期状態の位置及び速度の値が既知である場合、これらの値と、速度及び位置の変化量を用いて、絶対位置を決定することができる。 If the value of the position and velocity of the initial state at a certain point in time is known, by using these values, the variation of velocity and position, it is possible to determine the absolute position. 慣性センサを用いた位置決定は、画像取得ユニット623及び光源634を用いるよりも、より高速に実行できるが、慣性センサ632は、誤差が時間とともに蓄積され、慣性信号から算出されたジョイスティック631の位置(波線で示される)と、ジョイスティックコントローラ630の現実の位置との間の不一致Dが生じる「ドリフト」と呼ばれる一種のエラーの影響を受けやすい。 Position determination using an inertial sensor, rather than using the image acquisition unit 623 and light source 634, can be run faster, the inertial sensor 632, the error is accumulated over time, the position of the joystick 631 calculated from the inertial signal and (indicated by dashed lines), susceptible to a type of error mismatch D is generated called "drift" between the actual position of the joystick controller 630. 本発明の実施の形態は、このようなエラーに対処するための多くの方法を可能とする。 Embodiments of the present invention enables a number of ways to deal with such errors.

例えば、コントローラ630の初期位置を、現在の算出された位置に等しくなるようにリセットすることにより、ドリフトを手動でキャンセルすることができる。 For example, the initial position of the controller 630, by resetting to be equal to a position that is the current calculation, the drift may be canceled out manually. ユーザは、初期位置をリセットするためのコマンドのトリガとして、コントローラ630上の1以上のボタンを用いることができる。 The user as a trigger command to reset the initial position, it is possible to use one or more buttons on the controller 630. または、画像ベースのドリフトは、現在位置を、画像取得ユニット623から取得された画像から決定された位置を参照としてリセットすることにより実行されてもよい。 Alternatively, the image-based drift, the current position may be performed by resetting the position determined from the acquired image from the image acquisition unit 623 as a reference. このような画像ベースのドリフト補償は、ユーザがジョイスティックコントローラ630の1以上のボタンを始動したときなどに、手動で実行されてもよい。 Such image-based drift compensation, such as when a user has started one or more of the buttons on the joystick controller 630 may be performed manually. または、画像ベースのドリフト補償は、例えば定期的に又はゲームプレーに応じて、自動的に実行されてもよい。 Alternatively, the image-based drift compensation, for example in accordance with the regular or game play may be automatically executed. このような技術は、メモリ602に格納されプロセッサ601により実行されるプログラムコード命令604により実現されてもよい。 Such techniques may be implemented by program code instructions 604 to be executed by being stored in the memory 602 processor 601.

ある実施の形態において、慣性センサ信号における誤ったデータを補正することが望ましい。 In certain embodiments, it is desirable to correct the erroneous data in the inertial sensor signal. 例えば、慣性センサ632からの信号はオーバーサンプリングされてもよく、慣性センサ信号から誤ったデータを除去するために、オーバーサンプリングされた信号から移動平均(スライディング平均)を算出してもよい。 For example, it may be a signal from the inertial sensor 632 is over-sampled, in order to remove the erroneous data from the inertial sensor signal, the moving average from the oversampled signal (sliding average) may be calculated. ある状況において、信号をオーバーサンプリングし、データ点の部分集合から高い及び/又は低い値を除去し、残ったデータ点から移動平均を算出することが望ましい。 In some situations, the signal over-sampling, removal of high and / or low value from a subset of the data points, it is desirable to calculate the moving average from the remaining data points. さらに、データのオーバーサンプリング及び取扱技術は、誤ったデータの重要性を除去又は低減するために、慣性センサからの信号を調整するために用いられてもよい。 Furthermore, over-sampling and handling techniques of data, in order to remove or reduce the significance of the erroneous data may be used to adjust the signals from the inertial sensor. 技術の選択は、信号の種類、信号に対して実行すべき演算、ゲームプレーの種類、又はこれらの2以上の組み合わせに依存してもよい。 Selection techniques types of signals, operation to be performed on the signal, the kind of game play, or may depend on a combination of two or more of these. これらの技術は、メモリ602に格納されプロセッサ601により実行されるプログラム604の命令により実現されてもよい。 These techniques may be implemented by instructions of the program 604 to be executed by being stored in the memory 602 processor 601.

プロセッサ601は、上述したように、データ606と、メモリ602に格納され、取得され、プロセッサモジュール601により実行されるプログラム604のプログラムコード命令とに応じて、慣性信号データ606の分析を行ってもよい。 The processor 601, as described above, and the stored data 606, the memory 602, is obtained, in accordance with the program code instructions of a program 604 to be executed by the processor module 601, even if the analysis of inertial signal data 606 good. プログラム604のコードの一部は、アセンブラ、C++、JAVA(登録商標)、又はその他の多くの言語などの異なる多くのプログラミング言語のいずれかに準拠してもよい。 Some code of the program 604, an assembler, C ++, JAVA (registered trademark), or may conform to any of a number of programming languages ​​with different like many other languages. プロセッサモジュール601は、汎用コンピュータを構成する。 Processor module 601 may constitute a general-purpose computer. それは、プログラムコード604などのプログラムを実行するときには、特定の目的のコンピュータとなる。 It is the ability to run a program, such as program code 604, a specific purpose computer. ここでは、プログラムコード604が、汎用コンピュータ上で実行されるソフトウェアとして実現される場合について説明したが、ASICやその他のハードウェア回路などのハードウェアを用いもタスク管理の方法が実現できることは、当業者に理解されるところである。 Here, the program code 604 has been described to be implemented as software executed on a general purpose computer, the method also task management using hardware such as an ASIC or other hardware circuitry can realize, those is it is understood by skilled in the art. 同様に、本発明の実施の形態の一部又は全部が、ソフトウェア、ハードウェア、又はそれらの組み合わせにより実現できることも理解されるところである。 Similarly, some or all of the embodiments of the present invention, software is where also be understood that can be implemented by hardware, or a combination thereof.

ある実施の形態において、プログラムコード604は、図5Bの方法510及び図5Cの方法520又はそれらの2以上の組み合わせと同様の特徴を有する方法を実現するプロセッサ読み取り可能な命令のセットを含んでもよい。 In some embodiments, program code 604 may include a processor-readable set of instructions for implementing a method having two or more combinations and similar features of the method 520 or their methods 510 and 5C of Figure 5B . プログラムコード604は、一般に、1以上のプロセッサに、慣性センサ632からの信号を分析して位置及び/又は方向の情報を生成し、ビデオゲームのプレー中にその情報を利用するよう指示する1以上の命令を含んでもよい。 Program code 604 generally in one or more processors, analyzes the signals from the inertial sensor 632 to generate position and / or orientation information, one or more of an instruction to use the information during play of a video game of it may include instructions.

プログラムコード604は、実行時に画像取得ユニット623に画像取得ユニット623の前の視野を監視させ、視野内の1以上の光源634を識別させ、光源634から発せられる光の変化を検知させ、変化を検知したときにプロセッサ601に入力コマンドを引き起こす1以上の命令を含むプロセッサ読み取り可能な命令を更に含んでもよい。 Program code 604, the runtime viewing of the previous image acquisition unit 623 to the image acquisition unit 623 is monitored, to identify one or more light sources 634 within the field of view, to detect a change in light emitted from the light source 634, a change it may further include a processor readable instructions including one or more instructions that cause input command to the processor 601 when it detects. ゲームコントローラにおけるアクションを誘発するための画像取得装置に関連したLEDの使用は、米国特許出願10/759,782(発明者:リチャード・L・マークス、出願日:2004年1月16日、発明の名称:「光入力デバイスのための方法及び装置」)に記述されており、ここに参照として組み込まれる。 Use of LED associated with the image acquisition apparatus for inducing action in a game controller, U.S. Patent Application 10 / 759,782 (inventors: Richard · L · Marks, filed on January 16, 2004, the invention name: are described in "method and apparatus for an optical input device"), incorporated herein by reference.

プログラムコード604は、実行時に慣性センサからの信号と、1以上の光源を追跡することにより画像取得ユニットから生成された信号とを、上述したようにゲームシステムに対する入力として用いる1以上の命令を含むプロセッサ読み取り可能な命令を更に含んでもよい。 Program code 604 includes a signal from the inertial sensor at run time, and a signal generated from the image acquisition unit by tracking one or more light sources, one or more instructions for use as an input to the game system as described above it may further include a processor readable instructions. プログラムコード604は、実行時に慣性センサ632におけるドリフトを補償する1以上の命令を含むプロセッサ読み取り可能な命令を更に含んでもよい。 Program code 604 may further include a processor readable instructions including one or more instructions to compensate for drift in the inertial sensor 632 at runtime.

本発明の実施の形態において、ビデオゲームコントローラ630に関する例について説明したが、システム600を含む本発明の実施の形態は、ユーザにより操作される本体、モデリングされたオブジェクト、ノブ、構造体などに対して、慣性検知機能及び慣性センサ信号送信機能とともに、無線又は別の方法で用いられてもよい。 In the embodiment of the present invention, an example has been described about the video game controller 630, embodiments of the present invention including a system 600 includes a main body which is operated by the user, the modeled object, knob, to such structures Te, with inertial sensing capability and inertial sensor signal transmission capability, may be used in a wireless or otherwise.

例えば、本発明の実施の形態は、並列処理システム上で実行されてもよい。 For example, embodiments of the present invention may be performed on a parallel processing system. このような並列処理システムは、典型的には、別々のプロセッサにおいてプログラムの一部を並列に実行するように構成された2以上のプロセッサ要素を含む。 Such parallel processing systems typically include two or more processor elements that are configured to execute parts of a program in parallel in separate processors. 限定されない例として、図7は、本発明の実施の形態に係るセルプロセッサ700の一種を示す。 As a non-limiting example, FIG. 7 illustrates a type of cell processor 700 according to an embodiment of the present invention. セルプロセッサ700は、図6のプロセッサとして用いられてもよいし、図5Aのプロセッサ502として用いられてもよい。 Cell processor 700 may be used as the processor of FIG. 6 may be used as the processor 502 of FIG. 5A. 図7に示した例において、セルプロセッサ700は、メインメモリ702、PPE(power processor element)704、及び複数のSPE(synergistic processor element)706を含む。 In the example shown in FIG. 7, the cell processor 700 includes a main memory 702, PPE (power processor element) 704 and a plurality of SPE (synergistic processor element) 706,. 図7に示した例では、セルプロセッサ700は、一つのPPE704と8つのSPE706を含む。 In the example shown in FIG. 7, the cell processor 700 includes one PPE704 the eight SPEs 706. このような構成において、7つのSPE706は並列処理のための用いられ、1つは他の7つのいずれかが機能しなくなったときのバックアップとしてリザーブされてもよい。 In such a configuration, seven SPE706 is used for parallel processing and one may be reserved as a backup when either the other seven should fail. または、セルプロセッサは、複数のグループのPPE(PPEグループ)及び複数のグループのSPE(SPEグループ)を含んでもよい。 Or, the cell processor may include a plurality of groups PPE (PPE groups) and multiple groups SPE (SPE groups). この場合、ハードウェアリソースは、グループ内の単位の間で共有されてもよい。 In this case, the hardware resources may be shared between units within a group. しかし、SPE及びPPEは、独立した要素としてソフトウェアとみなされなければならない。 However, SPE and the PPE, must be regarded as software as independent elements. 本発明の実施の形態は、図7に示した構成により利用されることに限定されない。 Embodiments of the present invention is not limited to be utilized by the configuration shown in FIG.

メインメモリ702は、典型的には、システム設定、データ転送の同期、メモリにマップされた入出力、及び入出力サブシステムなどの機能のために用いられる特定目的のハードウェアレジスタ又は配列だけでなく、汎用かつ不揮発性の記憶装置を含む。 The main memory 702 is typically a system setting, synchronization of the data transfer, input and output that are mapped to the memory, and not only the hardware registers or arrays of particular interest to be used for functions such as input and output subsystem includes a general purpose, non-volatile memory device. 本発明の実施の形態において、ビデオゲームプログラム703は、メインメモリ702に常駐されてもよい。 In the embodiment of the present invention, a video game program 703 may be resident in main memory 702. メモリ702は、信号データ709を含んでもよい。 Memory 702 may include signal data 709. ビデオプログラム703は、図5A、5B、又は5Cに関連して上述したように構成された分析部又はこれらのいくつかの組み合わせを含んでもよい。 Video program 703, FIG. 5A, 5B, or may include some combination analyzer or these constructed as described above in relation to 5C. プログラム703は、PPE上で実行されてもよい。 Program 703 may be executed on the PPE. プログラム703は、SPE及び/又はPPE上で実行可能な複数の信号処理タスクに分割されてもよい。 Program 703 may be divided into multiple signal processing tasks that can be executed on the SPE and / or PPE.

例えば、PPE704は、キャッシュL1及びL2が結合された64ビットPPU(PowerPC Processor Unit)であってもよい。 For example, PPE 704 may be a 64-bit PPU cache L1 and L2 are coupled (PowerPC Processor Unit). PPE704は、メモリ保護テーブルなどのシステム管理リソースにアクセス可能な汎用処理ユニットである。 PPE704 is accessible general purpose processing unit to system management resources, such as memory protection table. ハードウェアリソースは、PPEが参照できるように、実アドレス空間に明示的にマップされてもよい。 Hardware resources for reference PPE may be mapped explicitly to a real address space. したがって、PPEは、適切な有効アドレス値を用いて、任意のこれらのリソースをアドレス指定することができる。 Therefore, PPE is able to use an appropriate effective address value to address any of these resources. PPE704の主機能は、セルプロセッサ706のSPE706のためのタスクの管理及び割り当てである。 The main function of the PPE704 is the management and allocation of tasks for SPE706 cell processor 706.

図7には1つのPPEのみが示されているが、セルブロードバンドエンジンアーキテクチャー(cell broadband engine architecture:CBEA)などのセルプロセッサの実装においては、セルプロセッサ700は、1以上のPPEグループにまとめられた複数のPPEを有してもよい。 Although only one PPE is shown in FIG. 7, the cell broadband engine architecture (cell broadband engine architecture: CBEA) in the implementation of the Cell processor, such as, cell processor 700 are grouped into one or more of the PPE group it may have a plurality of PPE was. これらのPPEグループは、メインメモリ702に対するアクセスを共有してもよい。 These PPE groups may share access to main memory 702. さらに、セルプロセッサ700は、2以上のSPEグループを含んでもよい。 Additionally, the cell processor 700 may include two or more SPE groups. SPEグループも、メインメモリ702に対するアクセスを共有してもよい。 SPE groups may also share access to the main memory 702. このような構成は、本発明の範囲内である。 Such an arrangement is within the scope of the present invention.

それぞれのSPE706は、SPU(synergistic processor unit)及びそれ自身のローカル格納領域LSを含む。 Each SPE706 include SPU (synergistic processor unit) and its own local storage area LS. ローカル格納領域LSは、それぞれが特定のSPUに関連づけられた1以上の分割されたメモリの領域を含んでもよい。 Local storage area LS may include one or more of the divided regions of the memory are, each associated with a particular SPU. それぞれのSPUは、それ自身に関連づけられたローカル格納領域内からの命令(データロード及びデータストア命令を含む)のみを実行するように構成されてもよい。 Each SPU may be configured to only execute instructions from the local storage area associated with itself (including data load and data store instruction). このような構成において、ローカル格納領域LSとシステム700の他の構成との間のデータ転送は、(個々のSPEの)ローカル格納領域へ又はローカル格納領域から転送するためのメモリフローコントローラ(MFC)からのDMA(direct memory access)コマンドを発行することにより実行されてもよい。 In such a configuration, data transfer between the other configuration of the local storage area LS and system 700 (of the individual SPE) memory flow controller for transfer to local storage area or from a local storage area (MFC) it may be performed by issuing a DMA (direct memory access) command from. SPUは、システム管理機能を実行しない点において、PPE704よりも複雑ではない計算ユニットである。 SPU is in that it does not perform any system management functions is a computation unit less complex than PPE 704. SPUは、一般に、1回の命令で複数データに対する処理を同時に行う機能(SIMD)を有し、典型的には、割り当てられたタスクを実行するために、データを処理し、要求された任意のデータ転送を(PPEにより設定されたプロパティにアクセスすることを前提として)起動する。 The SPU generally have simultaneously function processing for a plurality data in one instruction (SIMD), typically in order to perform the assigned tasks, processes the data, requested any data transfer (assuming that the access properties set by PPE) starts. SPUの目的は、より高い計算ユニットの密度を要求し、提供された命令セットを効率的に用いることができるアプリケーションを可能とすることにある。 The purpose of the SPU is to request a density of higher computational unit is to enable applications that can be used the provided instruction set efficiently. PPE704により管理されるシステムにおける多数のSPEにより、広範囲のアプリケーションにわたって費用効率の高い処理が可能となる。 Numerous SPE in the system managed by the PPE 704, allows a high process cost effective over a wide range of applications.

それぞれのSPE706は、メモリ保護情報及びアクセス許可情報を保持し処理することが可能なメモリ管理ユニットを含む専用のメモリフローコントローラ(MFC)を含んでもよい。 Each SPE706 may include a dedicated memory flow controller including a memory management unit that can be treated by holding the memory protection information and access permission information (MFC). MFCは、セルプロセッサのメインストレージとSPEのローカルストレージとの間のデータ転送、保護、及び同期のための主要な方法を提供する。 MFC provides data transfer between the local storage of the main storage and SPE of the cell processor, protection, and a primary method for synchronization. MFCコマンドは、実行されるべき転送を表現する。 MFC command representing a transfer to be performed. データを転送するためのコマンドは、MFCダイレクトメモリアクセス(DMA)コマンド(MFCDMAコマンド)とも呼ばれる。 Commands for transferring data are also referred to as MFC direct memory access (DMA) commands (MFC DMA commands).

それぞれのMFCは、複数のDMA転送を同時にサポートし、複数のMFCコマンドを保持し処理することができる。 Each MFC can simultaneously support multiple DMA transfers, to hold a plurality of MFC command processing. それぞれのMFC・DMAデータ転送コマンドリクエストは、ローカルストレージアドレス(LSA)と有効アドレス(EA)の双方を含んでもよい。 Each MFC · DMA data transfer command request may include both a local storage address (LSA) and an effective address (EA). ローカルストレージアドレスは、関連づけられたSPEのローカル格納領域のみを直接アドレス指定してもよい。 Local storage address only the local storage area of ​​the associated SPE may directly address. 有効アドレスは、より一般的なアプリケーションを有してもよく、例えば、実アドレス空間にエイリアスされている限り全てのSPEローカル格納領域を含むメインストレージを参照可能であってもよい。 The effective address may have a more general application, for example, may be capable of referring to the main storage, including all the SPE local storage areas as long as they are aliased into the real address space.

SPE706間及び/又はSPE706とPPE704との間の通信を容易にするために、SPE706及びPPE704は、信号伝達イベントに関係する信号通知レジスタを含んでもよい。 The communication between the SPEs 706 between and / or SPEs 706 and PPE704 for ease, SPEs 706 and PPE704 may include signal notification registers that relate to signaling events. PPE704及びSPE706は、PPE704がSPE706にメッセージを送信するためのルータとして機能するスター型トポロジーにより接続されてもよい。 PPE704 and SPEs 706 may be coupled by a star topology that functions as a router for PPE704 sends a message to SPEs 706. または、それぞれのSPE706及びPPE704は、メールボックスとして参照される一方向の信号通知レジスタを有してもよい。 Or, respectively SPE706 and PPE704 may have a one-way signal notification register referred to as a mailbox. メールボックスは、オペレーティングシステム(OS)の同期のために用いられてもよい。 Mailbox may be used for synchronization of the operating system (OS).

セルプロセッサ700は、セルプロセッサ700がマイクロフォン配列712、画像取得ユニット713及びゲームコントローラ730などの周辺装置とインタフェースをとることが可能な入出力(I/O)機能708を含んでもよい。 Cell processor 700, the cell processor 700 may include a microphone array 712, the image acquisition unit 713 and game controller 730 capable of taking peripherals and interfaces, such as input-output (I / O) function 708. ゲームコントローラユニットは、慣性センサ732及び光源734を含んでもよい。 Game controller unit may include an inertial sensor 732 and light source 734. さらに、要素相互接続バス710が上述した種々のコンポーネントを接続してもよい。 Furthermore, Element Interconnect Bus 710 may connect the various components described above. それぞれのSPE及びPPEは、バスインタフェースユニットBIUを介してバス710にアクセス可能である。 Each SPE and the PPE can access the bus 710 through the bus interface unit BIU. セルプロセッサ700は、プロセッサに典型的に見られる、バス710とメインメモリ710との間でデータのフローを制御するメモリインタフェースコントローラMICと、I/O708とバス710との間でデータのフローを制御するバスインタフェースコントローラBICの2つのコントローラを更に含んでもよい。 Cell processor 700 are typically found in a processor, a Memory Interface Controller MIC that controls the flow of data between the bus 710 and the main memory 710, controls the flow of data between the I / O708 and the bus 710 it may further include the two controller bus interface controller BIC to. MIC、BIC、BIU及びバス710の要件は、異なる実装において大きく異なりうるが、それらの機能及び実装のための回路は、当業者によく知られるところである。 MIC, BIC, BIU and requirements of the bus 710, but may vary widely in different implementations, the circuitry for those functions and implementation are well known by those skilled in the art.

セルプロセッサ700は、内部割り込みコントローラIICを更に含んでもよい。 Cell processor 700 may further include an internal interrupt controller IIC. IICコンポーネントは、PPEに伝達される割り込みの優先度を管理する。 IIC component manages the priority of the interrupt to be transmitted to the PPE. IICにより、セルプロセッサ700の他のコンポーネントからの割り込みを、メインシステム割り込みコントローラを用いることなく扱うことができる。 The IIC, the interrupts from the other components the cell processor 700, can be handled without using a main system interrupt controller. IICは、第2のレベルのコントローラとみなされてもよい。 IIC may be regarded as a second level controller. メインシステム割り込みコントローラは、セルプロセッサの外部からの割り込みを扱ってもよい。 The main system interrupt controller may handle interrupts from external to the cell processor.

本発明の実施の形態において、上述した部分的遅延などの特定の計算は、PPE704及び/又は1以上のSPE706を用いて並列して実行されてもよい。 In the embodiment of the present invention, certain computations, such as the above-mentioned partial delay may be performed in parallel with PPE704 and / or one or more SPEs 706. それぞれの部分的遅延計算は、異なるSPE706が実行可能となるように1以上に分割されたタスクとして実行されてもよい。 Each partial delay calculation may be run as a task that is divided into one or more differently SPE706 can be executed.

上記は、本発明の好ましい実施の形態の完全な説明であるが、種々の代替、修正及び等価物を用いることができる。 While the above is a complete description of the preferred embodiments of the present invention, various alternatives may be used, modifications and equivalents. したがって、本発明の範囲は、上記の説明を参照して決定されるべきではなく、添付された特許請求の範囲をそれらと等価な範囲の全てとともに参照して決定されるべきである。 Accordingly, the scope of the present invention is not to be determined with reference to the above description, but should be determined to the appended claims with reference with all of them and equivalent scope. ここで記述される全ての特徴は、好ましいか否かにかかわらず、ここで記述される他の全ての特徴に結合されてもよい。 Here all of the features described in, whether preferred or not, may be coupled to all other features described herein. 特許請求の範囲において、不定冠詞に続くものは、別段の明示がない限り、1以上の事項の数量をさす。 In the claims, which follows the indefinite article, unless otherwise indicated, it refers to the quantity of one or more items. 添付された特許請求の範囲は、「〜するための手段」という語句を用いて明示的に限定されない限り、ミーンズプラスファンクションの限定を含むものと解釈されるべきではない。 Appended claims, unless expressly limited by using the phrase "means for ..." should not be interpreted as including means-plus-function limitations.

Claims (66)

  1. ビデオゲームシステムのコントローラを追跡するための方法であって、 A method for tracking a controller of a video game system,
    前記ビデオゲームシステムのコントローラ上に配置された慣性センサから1以上の信号を生成するステップと、 And generating one or more signals from the inertial sensors placed on the controller of the video game system,
    前記コントローラの位置及び/又は方向の情報を決定するために前記1以上の信号を分析するステップと、 And analyzing the one or more signals to determine the position and / or orientation information of said controller,
    前記ビデオゲームシステムにおいてビデオゲームのプレー中に前記位置及び/又は方向の情報を利用するステップと、 A step of utilizing the position and / or orientation information during play of a video game in the video game system,
    を備えることを特徴とする方法。 Method characterized in that comprises a.
  2. 前記1以上の信号は、1以上の方向に関する前記コントローラの平行移動の加速度に関連する信号を含むことを特徴とする請求項1に記載の方法。 The one or more signals, the method according to claim 1, characterized in that it comprises a signal related to the acceleration of the translation of the controller for one or more directions.
  3. 前記1以上の信号を分析するステップは、速度信号を生成するために、平行移動の加速度信号又は前記平行移動の加速度信号から生成されるデータを時間に関して積分するステップを含むことを特徴とする請求項1に記載の方法。 Analyzing said one or more signals in order to generate a speed signal, wherein characterized in that it comprises a step of integrating with respect to the data generated from the acceleration signal or acceleration signal of the translation of the translation time the method according to claim 1.
  4. 前記1以上の信号を分析するステップは、変位信号を生成するために、前記平行移動の加速度信号又は前記平行移動の加速度信号から生成されるデータを時間に関して2階積分するステップを含むことを特徴とする請求項1に記載の方法。 Analyzing said one or more signals in order to generate a displacement signal, comprising the step of second-order integration with respect to the data generated from the acceleration signal or acceleration signal of the translation of the translation time the method of claim 1,.
  5. 前記1以上の信号は、ピッチ又はヨー軸に関する前記コントローラの回転に関連する信号を含むことを特徴とする請求項1に記載の方法。 The one or more signals, the method according to claim 1, characterized in that it comprises a signal related to the rotation of the controller about the pitch or yaw axis.
  6. 前記ビデオゲームシステムにおいて前記ビデオゲームのプレー中に前記位置及び/又は方向の情報を利用するステップは、前記位置及び/又は方向の情報から前記コントローラのパスを決定するステップを含むことを特徴とする請求項1に記載の方法。 Step of utilizing the position and / or orientation of the information in the video game system during play of the video game, characterized in that it comprises a step of determining the path of the controller from the position and / or orientation information the method of claim 1.
  7. 前記コントローラのパスを、1以上の既知のジェスチャーと比較するステップを更に備えることを特徴とする請求項6に記載の方法。 The method of claim 6, further comprising the step of the path of the controller is compared with one or more known gesture.
  8. 前記コントローラのパス又はその一部が1以上の既知のジェスチャーに一致する場合、前記ビデオゲームの状態を変更するステップを更に備えることを特徴とする請求項7に記載の方法。 If the path or a part thereof of the controller coincides with one or more known gesture, the method according to claim 7, characterized by further comprising the step of changing the state of the video game.
  9. システムへの入力の提供に用いられる方法であって、 A method for use in providing input to the system,
    前記システムのコントローラ上に配置された慣性センサから1以上の信号を生成するステップと、 And generating one or more signals from the inertial sensors placed on the controller of said system,
    前記コントローラの位置及び/又は方向の情報を決定するために前記1以上の信号を分析するステップと、 And analyzing the one or more signals to determine the position and / or orientation information of said controller,
    決定された位置及び/又は方向の情報と、1以上のコマンドに関連づけられた既定の位置情報とを比較するステップと、 A determined position and / or orientation of the information, and comparing the predetermined position information associated with the one or more commands,
    決定された位置及び/又は方向の情報が、コマンドのための既定の位置情報に合致する場合、前記システムの状態を変更するステップと、 If the information of the determined position and / or direction, matches the predetermined position information for a command, and changing the state of said system,
    を備えることを特徴とする方法。 Method characterized in that comprises a.
  10. ゲームコントローラであって、 A game controller,
    本体と、 And the main body,
    ユーザからの入力を登録するためにユーザにより操作可能な、前記本体に取り付けられた少なくとも1つの入力装置と、 At least one input device operable by a user, which is attached to the body in order to register an input from the user,
    前記本体の空間中の動きを定量化するための情報を生成可能な慣性センサと、 An inertial sensor which can generate information to quantify the movement in space of the main body,
    を備えることを特徴とするゲームコントローラ。 Game controller, characterized in that it comprises a.
  11. 信号エンコーダと、 A signal encoder,
    前記信号エンコーダからの信号を用いて、大気を介して赤外線信号を送信可能な赤外線信号送信部と、を更に備え、 Using signals from the signal encoder further comprises a infrared signal transmission unit capable of transmitting infrared signals through the air,
    前記信号エンコーダは、赤外線受信機と、選択された1つの信号コードにより動作可能な信号デコーダとを有する電子機器による受信のために、複数の信号コードのうち選択された1つにより信号をエンコードするようプログラム可能であることを特徴とする請求項10に記載のゲームコントローラ。 The signal encoder encodes an infrared receiver, for reception by an electronic device having a operable signal decoder by one signal code selected, a signal by a selected one of a plurality of signal code game controller according to claim 10, characterized in that Yo is programmable.
  12. 前記本体は、手で把持可能なハウジングを含み、 The body includes a grippable housing by hand,
    前記入力装置は、前記ユーザからの入力を登録するために、前記ゲームコントローラの前記本体に対してユーザにより移動可能な要素を含む ことを特徴とする請求項10に記載のゲームコントローラ。 Wherein the input device, in order to register an input from the user, the game controller according to claim 10, characterized in that it comprises a movable element by the user relative to the body of the game controller.
  13. 前記ハウジングは、手で握持可能な握りを含むことを特徴とする請求項12に記載のゲームコントローラ。 The housing game controller according to claim 12, characterized in that it comprises a grip can grip by hand.
  14. 前記ゲームコントローラの前記本体は、ユーザの体に装着可能であることを特徴とする請求項10に記載のゲームコントローラ。 The body of the game controller, the game controller of claim 10, wherein the body of the user can be attached.
  15. 前記慣性センサは、第1の軸に沿った前記本体の動きの第1の成分を定量化するための情報を生成可能であることを特徴とする請求項10、及び12から14のいずれかに記載のゲームコントローラ。 The inertial sensor is in any one of claims 10, and 12 to 14, characterized in that it is capable of generating information for quantifying the first component of the motion of the body along a first axis game controller described.
  16. 前記慣性センサは、前記第1の軸に直交する第2の軸に沿った前記動きの第2の成分を定量化するための情報を生成可能であることを特徴とする請求項15に記載のゲームコントローラ。 The inertial sensor according to claim 15, characterized in that it is capable of generating information for quantifying the second component of the movement along a second axis orthogonal to said first axis game controller.
  17. 前記慣性センサは、前記第1の軸及び前記第2の軸に直交する第3の軸に沿った前記動きの第3の成分を定量化するための情報を生成可能であることを特徴とする請求項16に記載のゲームコントローラ。 The inertial sensor is characterized in that it is capable of generating information for quantifying the third component of the movement along a third axis orthogonal to said first axis and said second axis game controller according to claim 16.
  18. 前記慣性センサは、少なくとも1つの加速度計を含むことを特徴とする請求項15から17のいずれかに記載のゲームコントローラ。 The inertia sensor, the game controller according to any one of claims 15 to 17, characterized in that it comprises at least one accelerometer.
  19. 前記慣性センサは、少なくとも1つの機械的ジャイロスコープを含むことを特徴とする請求項15から17のいずれかに記載のゲームコントローラ。 The inertia sensor, the game controller according to any one of claims 15 to 17, characterized in that it comprises at least one mechanical gyroscopes.
  20. 前記慣性センサは、少なくとも1つのレーザージャイロスコープを含むことを特徴とする請求項19に記載のゲームコントローラ。 Game controller according to claim 19 wherein the inertial sensor, characterized in that it comprises at least one laser gyroscopes.
  21. 前記慣性センサは、少なくとも3つの自由度における前記本体の動きを定量化するための情報を生成可能であることを特徴とする請求項10に記載のゲームコントローラ。 The inertia sensor, the game controller according to claim 10, characterized in that it is capable of generating information for quantifying the movement of the body in at least three degrees of freedom.
  22. 前記少なくとも3つの自由度は、ピッチ、ヨー及びロールを含むことを特徴とする請求項21に記載のゲームコントローラ。 Wherein the at least three degrees of freedom, the game controller according to claim 21, characterized in that it comprises a pitch, yaw and roll.
  23. 前記少なくとも3つの自由度は、それぞれ互いに直交するx軸、y軸及びz軸を含むことを特徴とする請求項21に記載のゲームコントローラ。 Game controller according to claim 21 wherein the at least three degrees of freedom, the x-axis orthogonal to each other, characterized in that it comprises a y-axis and z-axis.
  24. 前記慣性センサは、前記3つの自由度と、ピッチ、ヨー及びロールを含む6つの自由度における前記動きを定量化することが可能であることを特徴とする請求項23に記載のゲームコントローラ。 The inertia sensor, the game controller of claim 23, wherein the three degrees of freedom, pitch, that it is possible to quantify the movement in six degrees of freedom including yaw and roll.
  25. 前記慣性センサにより生成された前記情報から、時間的に異なる点における少なくとも1つの軸に沿った前記本体の加速度を示す一連のサンプルを取得することが更に可能であることを特徴とする請求項15から24のいずれかに記載のゲームコントローラ。 Claim 15, wherein the from the information generated by the inertial sensor, is possible to obtain a series of samples representing the acceleration of the body along at least one axis at different points in time can be further the game controller according to any one of 24 from.
  26. 前記一連のサンプルを用いて前記本体の速度を決定可能なプロセッサを更に備えることを特徴とする請求項25に記載のゲームコントローラ。 Game controller according to claim 25, further comprising a processor capable determines the speed of the body using the series of samples.
  27. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分することにより、前記速度を決定可能であることを特徴とする請求項26に記載のゲームコントローラ。 Wherein the processor is by integrating the acceleration values ​​obtained from the series of samples over an interval of time, the game controller of claim 26, wherein it is possible determine the speed.
  28. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分し、積分した結果を時間の間隔にわたって積分することにより、前記本体の空間における変位を決定可能であることを特徴とする請求項26に記載のゲームコントローラ。 Wherein the processor integrates the value of the acceleration obtained from the series of samples over an interval of time, by integrating the integral result over time interval, it is possible to determine the displacement in space of the main body game controller according to claim 26,.
  29. 前記プロセッサは、前記本体の空間における現在の位置を決定するために、以前に決定された位置に対する前記変位を決定可能であることを特徴とする請求項28に記載のゲームコントローラ。 Wherein the processor, the game controller according to claim 28, characterized in that in order to determine the current position in space of the main body, it is possible to determine the displacement for previously determined position.
  30. 請求項25に記載のゲームコントローラを含み、 It includes game controller according to claim 25,
    ユーザが操作可能な前記入力装置を介した入力にしたがってユーザによりプレー可能な双方向型ゲームを提供するためのプログラムを実行可能なプロセッサを更に備え、 User further comprises executable processor programs for providing a playable interactive game by a user in accordance with the input through the operable said input device,
    前記プロセッサは、前記一連のサンプルを用いて前記本体の速度を決定可能であることを特徴とする装置。 Wherein the processor is apparatus characterized by using the series of samples can be determined the speed of the body.
  31. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分することにより、前記速度を決定可能であることを特徴とする請求項30に記載の装置。 Wherein the processor is by integrating the acceleration values ​​obtained from the series of samples over an interval of time, according to claim 30, characterized in that it is possible determine the speed.
  32. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分し、積分した結果を積分することにより、前記本体の空間における変位を決定可能であることを特徴とする請求項30に記載の装置。 Claim wherein the processor is the value of the acceleration obtained from the series of samples integrated over time interval, by integrating the integral result, which is a determinable displacement in space of the main body the apparatus according to 30.
  33. 前記プロセッサは、以前に決定された位置に対する前記変位を決定することにより、前記本体の空間における位置を決定可能であることを特徴とする請求項30に記載の装置。 Wherein the processor is by determining the displacement for previously determined position, according to claim 30, characterized in that it is able to determine the position in space of the main body.
  34. ユーザが双方向型ゲームをプレーすることを可能とするためのゲームプログラムのプロセッサによる実行を制御するための情報を取得するときに用いられる追跡装置であって、 User a tracking device that is used to obtain information for controlling the execution by the processor of the game program for making it possible to play the interactive game,
    本体と、 And the main body,
    前記本体の空間中の動きを定量化するための情報を生成可能な慣性センサと、 An inertial sensor which can generate information to quantify the movement in space of the main body,
    を備えることを特徴とする追跡装置。 Tracking device, characterized in that it comprises a.
  35. 前記本体は、ゲームコントローラに搭載可能であり、 The body is to be installed in a game controller,
    前記ゲームコントローラは、 The game controller,
    ゲームコントローラ本体と、 And a game controller body,
    ユーザからの入力を登録するためにユーザにより操作可能な、前記ゲームコントローラ本体に取り付けられた少なくとも1つの入力装置とを含む ことを特徴とする請求項34に記載の追跡装置。 To register an input from the user can be operated by a user, tracking device according to claim 34, characterized in that it comprises at least one input device attached to the game controller body.
  36. 請求項35に記載の追跡装置及びゲームコントローラを含む装置。 Apparatus including a tracking device and a game controller of claim 35.
  37. 前記追跡装置の前記本体は、ユーザの体に装着可能であることを特徴とする請求項34に記載の追跡装置。 Wherein the body of the tracking device, tracking apparatus according to claim 34, characterized in that the body of the user can be attached.
  38. 前記慣性センサは、第1の軸に沿った前記本体の動きの第1の成分を定量化するための情報を生成可能であることを特徴とする請求項34、36及び37のいずれかに記載の追跡装置。 The inertial sensor according to any one of claims 34, 36 and 37, characterized in that it is capable of generating information for quantifying the first component of the motion of the body along a first axis tracking units.
  39. 前記慣性センサは、前記第1の軸に直交する第2の軸に沿った前記動きの第2の成分を定量化するための情報を生成可能であることを特徴とする請求項38に記載の追跡装置。 The inertial sensor according to claim 38, characterized in that it is capable of generating information for quantifying the second component of the movement along a second axis orthogonal to said first axis tracking device.
  40. 前記慣性センサは、前記第1の軸及び前記第2の軸に直交する第3の軸に沿った前記動きの第3の成分を定量化するための情報を生成可能であることを特徴とする請求項39に記載の追跡装置。 The inertial sensor is characterized in that it is capable of generating information for quantifying the third component of the movement along a third axis orthogonal to said first axis and said second axis tracking apparatus according to claim 39.
  41. 前記慣性センサは、少なくとも1つの加速度計を含むことを特徴とする請求項38から40のいずれかに記載の追跡装置。 The inertial sensor is tracking apparatus according to claim 38, wherein 40 in that it comprises at least one accelerometer.
  42. 前記慣性センサは、少なくとも1つの機械的ジャイロスコープを含むことを特徴とする請求項38から40のいずれかに記載の追跡装置。 The inertial sensor is tracking apparatus according to any of claims 38 40, characterized in that it comprises at least one mechanical gyroscopes.
  43. 前記慣性センサは、少なくとも1つのレーザージャイロスコープを含むことを特徴とする請求項42に記載の追跡装置。 The inertial sensor is tracking apparatus according to claim 42, characterized in that it comprises at least one laser gyroscopes.
  44. 前記慣性センサは、少なくとも3つの自由度における前記本体の動きを定量化するための情報を生成可能であることを特徴とする請求項34に記載の追跡装置。 The inertial sensor is tracking apparatus according to claim 34, characterized in that it is capable of generating information for quantifying the movement of the body in at least three degrees of freedom.
  45. 前記少なくとも3つの自由度は、ピッチ、ヨー及びロールを含むことを特徴とする請求項44に記載の追跡装置。 Wherein the at least three degrees of freedom, tracking device according to claim 44, characterized in that it comprises a pitch, yaw and roll.
  46. 前記少なくとも3つの自由度は、それぞれ互いに直交するx軸、y軸及びz軸を含むことを特徴とする請求項45に記載の追跡装置。 Wherein the at least three degrees of freedom, x-axis orthogonal to each other, tracking device according to claim 45, characterized in that it comprises a y-axis and z-axis.
  47. 前記慣性センサは、前記3つの自由度と、ピッチ、ヨー及びロールを含む6つの自由度における前記動きを定量化することが可能であることを特徴とする請求項46に記載の追跡装置。 The inertial sensor is tracking apparatus according to claim 46, wherein the three degrees of freedom, pitch, that it is possible to quantify the movement in six degrees of freedom including yaw and roll.
  48. 前記慣性センサにより生成された前記情報から、時間的に異なる点における少なくとも1つの軸に沿った前記本体の加速度を示す一連のサンプルを取得することが更に可能であることを特徴とする請求項38から47のいずれかに記載の追跡装置。 Claim 38, wherein the from the information generated by the inertial sensor, is possible to obtain a series of samples representing the acceleration of the body along at least one axis at different points in time can be further tracking apparatus according to any one of 47.
  49. 前記一連のサンプルを用いて前記本体の速度を決定可能なプロセッサを更に備えることを特徴とする請求項48に記載の追跡装置。 Tracking device of claim 48, further comprising a processor capable determines the speed of the body using the series of samples.
  50. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分することにより、前記速度を決定可能であることを特徴とする請求項49に記載の追跡装置。 Wherein the processor is by integrating the acceleration values ​​obtained from the series of samples over an interval of time, tracking device according to claim 49, characterized in that it is possible determine the speed.
  51. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分し、積分した結果を時間の間隔にわたって積分することにより、前記本体の空間における変位を決定可能であることを特徴とする請求項48に記載の追跡装置。 Wherein the processor integrates the value of the acceleration obtained from the series of samples over an interval of time, by integrating the integral result over time interval, it is possible to determine the displacement in space of the main body tracking device of claim 48,.
  52. 前記プロセッサは、前記本体の空間における現在の位置を決定するために、以前に決定された位置に対する前記変位を決定可能であることを特徴とする請求項51に記載の追跡装置。 Wherein the processor is tracking apparatus according to claim 51, characterized in that in order to determine the current position in space of the main body, it is possible to determine the displacement for previously determined position.
  53. 請求項48に記載の追跡装置を含み、 Includes tracking device according to claim 48,
    前記慣性センサにより生成された情報を処理することにより取得された入力にしたがってユーザによりプレー可能な双方向型ゲームを提供するためのプログラムを実行可能なプロセッサを更に備えることを特徴とする装置。 Device characterized by further comprising a processor capable of executing a program for providing a playable interactive game by the user in accordance with the acquired input by processing the information generated by the inertial sensor.
  54. 前記プロセッサ及び前記ゲームコントローラのうちいずれか、又は前記プロセッサ及び前記ゲームコントローラの双方との間でディジタル通信を実行可能な通信インタフェースを更に備えることを特徴とする請求項34から36のいずれかに記載の追跡装置。 One of the processor and the game controller, or according to further claim 34, wherein 36 further comprising a communication interface capable of performing digital communication between both the processor and the game controller tracking units.
  55. 前記通信インタフェースは、汎用非同期送受信回路(Universal Asynchronous Receiver Transmitter:UART)を含むことを特徴とする請求項54に記載の追跡装置。 The communication interface, universal asynchronous receiver circuit (Universal Asynchronous Receiver Transmitter: UART) tracking device of claim 54, which comprises a.
  56. 前記汎用非同期送受信回路は、当該追跡装置の動作を制御するための制御信号の受信、及び、他の装置との通信のための当該追跡装置からの信号の送信のうち少なくとも一方を実行可能であることを特徴とする請求項55に記載の追跡装置。 The universal asynchronous receiver circuit, receiving the control signal for controlling the operation of the tracking device, and is capable of executing at least one of the transmission signals from the tracking device for communicating with other devices tracking apparatus according to claim 55, characterized in that.
  57. 前記通信インタフェースは、汎用シリアルバス(Universal Serial Bus:USB)コントローラを含むことを特徴とする請求項54又は55に記載の追跡装置。 The communication interface, universal serial bus (Universal Serial Bus: USB) tracking device according to claim 54 or 55, characterized in that it comprises a controller.
  58. 前記汎用シリアルバスコントローラは、当該追跡装置の動作を制御するための制御信号の受信、及び、他の装置との通信のための当該追跡装置からの信号の送信のうち少なくとも一方を実行可能であることを特徴とする請求項57に記載の追跡装置。 The universal serial bus controller, receiving the control signal for controlling the operation of the tracking device, and is capable of executing at least one of the transmission signals from the tracking device for communicating with other devices tracking apparatus according to claim 57, characterized in that.
  59. 前記プロセッサは、前記一連のサンプルを用いて前記本体の速度を決定可能であることを特徴とする請求項53に記載の装置。 The processor apparatus of claim 53, wherein using the series of samples can be determined the speed of the body.
  60. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分することにより、前記速度を決定可能であることを特徴とする請求項53に記載の装置。 Wherein the processor is by integrating the acceleration values ​​obtained from the series of samples over an interval of time, according to claim 53, characterized in that it is possible determine the speed.
  61. 前記プロセッサは、前記一連のサンプルから取得される加速度の値を時間の間隔にわたって積分し、積分した結果を時間の間隔にわたって積分することにより、前記本体の空間における変位を決定可能であることを特徴とする請求項53に記載の装置。 Wherein the processor integrates the value of the acceleration obtained from the series of samples over an interval of time, by integrating the integral result over time interval, it is possible to determine the displacement in space of the main body the apparatus of claim 53.
  62. 前記プロセッサは、以前に決定された位置に対する前記変位を決定することにより、前記本体の空間における位置を決定可能であることを特徴とする請求項53に記載の装置。 Wherein the processor is by determining the displacement for previously determined position, according to claim 53, characterized in that it is able to determine the position in space of the main body.
  63. 前記慣性センサは、前記本体に着脱可能に搭載されることを特徴とする請求項10から29のいずれかに記載のゲームコントローラ。 The inertia sensor, the game controller according to any one of claims 10 29, characterized in that it is removably mounted to the body.
  64. 前記慣性センサは、前記本体に着脱可能に搭載されることを特徴とする請求項30から33のいずれかに記載の装置。 The inertial sensor according to any one of claims 30 to 33, characterized in that it is removably mounted to the body.
  65. 前記慣性センサは、前記本体に着脱可能に搭載されることを特徴とする請求項34から52及び54から62のいずれかに記載の追跡装置。 The inertial sensor is tracking apparatus according to any one of 62 claims 34 to 52 and 54, characterized in that it is removably mounted to the body.
  66. 前記慣性センサは、前記コントローラ本体に着脱可能に搭載されることを特徴とする請求項35又は36に記載の追跡装置。 The inertial sensor is tracking apparatus according to claim 35 or 36, characterized in that it is removably mounted on the controller body.
JP2009509932A 2002-07-27 2007-04-19 3D input control system, method and apparatus Pending JP2009535173A (en)

Priority Applications (47)

Application Number Priority Date Filing Date Title
US11382258 US7782297B2 (en) 2002-07-27 2006-01-10 Method and apparatus for use in determining an activity level of a user in relation to a system
US11382251 US20060282873A1 (en) 2002-07-27 2006-01-10 Hand-held controller having detectable elements for tracking purposes
US11382259 US20070015559A1 (en) 2002-07-27 2006-01-10 Method and apparatus for use in determining lack of user activity in relation to a system
US11381724 US8073157B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for targeted sound detection and characterization
US11429414 US7627139B2 (en) 2002-07-27 2006-05-04 Computer image and audio processing of intensity and input devices for interfacing with a computer program
US11381725 US7783061B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for the targeted sound detection
PCT/US2006/017483 WO2006121896A3 (en) 2005-05-05 2006-05-04 Microphone array based selective sound source listening and video game control
US11429133 US7760248B2 (en) 2002-07-27 2006-05-04 Selective sound source listening in conjunction with computer interactive processing
US11381721 US8947347B2 (en) 2003-08-27 2006-05-04 Controlling actions in a video game unit
US11429047 US8233642B2 (en) 2003-08-27 2006-05-04 Methods and apparatuses for capturing an audio signal based on a location of the signal
US11418988 US8160269B2 (en) 2003-08-27 2006-05-04 Methods and apparatuses for adjusting a listening area for capturing sounds
US11418989 US8139793B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for capturing audio signals based on a visual image
US11381728 US7545926B2 (en) 2006-05-04 2006-05-04 Echo and noise cancellation
US11381727 US7697700B2 (en) 2006-05-04 2006-05-04 Noise removal for electronic device with far field microphone on console
US11381729 US7809145B2 (en) 2006-05-04 2006-05-04 Ultra small microphone array
US79803106 true 2006-05-06 2006-05-06
US11382038 US7352358B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to acoustical tracking
US11382032 US7850526B2 (en) 2002-07-27 2006-05-06 System for tracking user manipulations within an environment
US11382035 US8797260B2 (en) 2002-07-27 2006-05-06 Inertially trackable hand-held controller
US29259349 2006-05-06
US29259348 2006-05-06
US29259350 USD621836S1 (en) 2006-05-06 2006-05-06 Controller face with tracking sensors
US11382036 US9474968B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to visual tracking
US11382034 US20060256081A1 (en) 2002-07-27 2006-05-06 Scheme for detecting and tracking user manipulation of a game controller body
US11382031 US7918733B2 (en) 2002-07-27 2006-05-06 Multi-input game control mixer
US11382037 US8313380B2 (en) 2002-07-27 2006-05-06 Scheme for translating movements of a hand-held controller into inputs for a system
US11382033 US8686939B2 (en) 2002-07-27 2006-05-06 System, method, and apparatus for three-dimensional input control
US11382040 US7391409B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to multi-channel mixed input
US11382041 US7352359B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to inertial tracking
US11382043 US20060264260A1 (en) 2002-07-27 2006-05-07 Detectable and trackable hand-held controller
US11382039 US9393487B2 (en) 2002-07-27 2006-05-07 Method for mapping movements of a hand-held controller to game commands
US11382252 US20060274032A1 (en) 2002-07-27 2006-05-08 Tracking device for use in obtaining information for controlling game program execution
US29246766 2006-05-08
US29246765 2006-05-08
US29246767 USD572254S1 (en) 2006-05-08 2006-05-08 Video game controller
US11430593 US20070261077A1 (en) 2006-05-08 2006-05-08 Using audio/visual environment to select ads on game platform
US29246743 USD571367S1 (en) 2006-05-08 2006-05-08 Video game controller
US11430594 US20070260517A1 (en) 2006-05-08 2006-05-08 Profile detection
US29246768 USD571806S1 (en) 2006-05-08 2006-05-08 Video game controller
US11382256 US7803050B2 (en) 2002-07-27 2006-05-08 Tracking device with sound emitter for use in obtaining information for controlling game program execution
US29246759 2006-05-08
US29246762 2006-05-08
US29246744 USD630211S1 (en) 2006-05-08 2006-05-08 Video game controller front face
US29246763 2006-05-08
US11382250 US7854655B2 (en) 2002-07-27 2006-05-08 Obtaining input for controlling execution of a game program
US29246764 USD629000S1 (en) 2006-05-08 2006-05-08 Game interface device with optical port
PCT/US2007/067005 WO2007130792A3 (en) 2006-01-10 2007-04-19 System, method, and apparatus for three-dimensional input control

Publications (1)

Publication Number Publication Date
JP2009535173A true true JP2009535173A (en) 2009-10-01

Family

ID=46469882

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2009509932A Pending JP2009535173A (en) 2002-07-27 2007-04-19 3D input control system, method and apparatus
JP2007121964A Active JP4553917B2 (en) 2002-07-27 2007-05-02 How to get the input for controlling the execution of the game program
JP2009185086A Active JP5465948B2 (en) 2002-07-27 2009-08-07 How to get the input for controlling the execution of the game program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2007121964A Active JP4553917B2 (en) 2002-07-27 2007-05-02 How to get the input for controlling the execution of the game program
JP2009185086A Active JP5465948B2 (en) 2002-07-27 2009-08-07 How to get the input for controlling the execution of the game program

Country Status (3)

Country Link
JP (3) JP2009535173A (en)
CN (2) CN102580314B (en)
WO (2) WO2007130793A3 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120289334A9 (en) * 2005-10-26 2012-11-15 Sony Computer Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
KR101250513B1 (en) * 2008-10-27 2013-04-03 소니 컴퓨터 엔터테인먼트 인코포레이티드 Spherical ended controller with configurable modes
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
JP5659453B2 (en) 2007-11-15 2015-01-28 セイコーエプソン株式会社 Ink composition
GB2458297B (en) * 2008-03-13 2012-12-12 Performance Designed Products Ltd Pointing device
WO2010007765A1 (en) * 2008-07-15 2010-01-21 パナソニック株式会社 Mobile terminal and method for identifying position of the mobile terminal
KR20100138725A (en) * 2009-06-25 2010-12-31 삼성전자주식회사 Method and apparatus for processing virtual world
JP5534729B2 (en) * 2009-07-16 2014-07-02 株式会社タイトー Screen coordinate position detecting method using a double circular indicator and screen coordinate position detecting device and cancerous game device
US20120277001A1 (en) * 2011-04-28 2012-11-01 Microsoft Corporation Manual and Camera-based Game Control
US8870654B2 (en) * 2011-11-23 2014-10-28 Sony Computer Entertainment America Llc Gaming controller
CN103974752B (en) 2011-12-19 2016-05-18 英派尔科技开发有限公司 For gesture-based game pause and restart programs
US8672765B2 (en) * 2012-03-13 2014-03-18 Sony Computer Entertainment America Llc System and method for capturing and sharing console gaming data
US9690392B2 (en) 2012-10-15 2017-06-27 Sony Corporation Operating device including a touch sensor
US9789395B2 (en) 2012-10-15 2017-10-17 Sony Interactive Entertainment Inc. Operating device
GB2533394A (en) * 2014-12-19 2016-06-22 Gen Electric Method and system for generating a control signal for a medical device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642971A (en) * 1990-05-18 1994-02-18 British Aerospace Plc <Baf> Sensor
JPH06198075A (en) * 1992-09-11 1994-07-19 Shinichi Tsubota Game controller
WO1997032641A1 (en) * 1996-03-05 1997-09-12 Sega Enterprises, Ltd. Controller and extension unit for controller
JPH11253656A (en) * 1998-03-09 1999-09-21 Omron Corp Attachment of game controller
JP2000308756A (en) 1999-04-27 2000-11-07 Taito Corp Input controller of game device
JP2002090384A (en) * 2000-09-13 2002-03-27 Microstone Corp Structure of motion sensor and internal connecting method
JP2002515976A (en) * 1996-05-31 2002-05-28 ザ リージェンツ オブ ザ ユニヴァーシティ オブ カリフォルニア Ultra-small precision vibration rate gyroscope
JP2003131796A (en) * 2001-10-22 2003-05-09 Sony Corp Information input device, its method and computer program
JP2006031515A (en) * 2004-07-20 2006-02-02 Vodafone Kk Mobile communication terminal, application program, image display control device, and image display control method
JP2006075218A (en) * 2004-09-07 2006-03-23 Nintendo Co Ltd Game program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5181181A (en) 1990-09-27 1993-01-19 Triton Technologies, Inc. Computer apparatus input device for three-dimensional information
US6069594A (en) * 1991-07-29 2000-05-30 Logitech, Inc. Computer input device with multiple switches using single line
JPH07284166A (en) * 1993-03-12 1995-10-27 Mitsubishi Electric Corp Remote controller
US6022274A (en) * 1995-11-22 2000-02-08 Nintendo Co., Ltd. Video game system using memory module
JPH1021000A (en) * 1996-06-28 1998-01-23 Sumitomo Metal Ind Ltd Signal input device
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP4805433B2 (en) * 1999-03-31 2011-11-02 株式会社カプコン Signal input device and the regulating member
US6417836B1 (en) * 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
JP3847058B2 (en) * 1999-10-04 2006-11-15 任天堂株式会社 Game system and game information storage medium used therefor
US6489948B1 (en) * 2000-04-20 2002-12-03 Benny Chi Wah Lau Computer mouse having multiple cursor positioning inputs and method of operation
JP3611807B2 (en) * 2001-07-19 2005-01-19 コナミ株式会社 Video game device, simulated camera viewpoint movement control method and a program in a video game
EP1514257A4 (en) * 2002-04-12 2015-12-30 Henry K Obermeyer Multi-axis joystick and transducer means therefore
JP4179162B2 (en) * 2003-12-26 2008-11-12 株式会社セガ The information processing apparatus, a game device, an image generating method, the game image generation method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642971A (en) * 1990-05-18 1994-02-18 British Aerospace Plc <Baf> Sensor
JPH06198075A (en) * 1992-09-11 1994-07-19 Shinichi Tsubota Game controller
WO1997032641A1 (en) * 1996-03-05 1997-09-12 Sega Enterprises, Ltd. Controller and extension unit for controller
JP2002515976A (en) * 1996-05-31 2002-05-28 ザ リージェンツ オブ ザ ユニヴァーシティ オブ カリフォルニア Ultra-small precision vibration rate gyroscope
JPH11253656A (en) * 1998-03-09 1999-09-21 Omron Corp Attachment of game controller
JP2000308756A (en) 1999-04-27 2000-11-07 Taito Corp Input controller of game device
JP2002090384A (en) * 2000-09-13 2002-03-27 Microstone Corp Structure of motion sensor and internal connecting method
JP2003131796A (en) * 2001-10-22 2003-05-09 Sony Corp Information input device, its method and computer program
JP2006031515A (en) * 2004-07-20 2006-02-02 Vodafone Kk Mobile communication terminal, application program, image display control device, and image display control method
JP2006075218A (en) * 2004-09-07 2006-03-23 Nintendo Co Ltd Game program

Also Published As

Publication number Publication date Type
WO2007130792A3 (en) 2008-09-12 application
JP2009254888A (en) 2009-11-05 application
WO2007130792A2 (en) 2007-11-15 application
JP4553917B2 (en) 2010-09-29 grant
CN102989174B (en) 2016-06-29 grant
CN102580314B (en) 2015-05-20 grant
CN102989174A (en) 2013-03-27 application
JP2007296367A (en) 2007-11-15 application
WO2007130793A2 (en) 2007-11-15 application
CN102580314A (en) 2012-07-18 application
JP5465948B2 (en) 2014-04-09 grant
WO2007130793A3 (en) 2008-12-11 application

Similar Documents

Publication Publication Date Title
US7716008B2 (en) Acceleration data processing program, and storage medium, and acceleration data processing apparatus for use with the same
US20060178212A1 (en) Semantic gaming and application transformation
US20110242134A1 (en) Method for an augmented reality character to maintain and exhibit awareness of an observer
US7424388B2 (en) Motion determining apparatus and storage medium having motion determining program stored thereon
US20100150404A1 (en) Tracking system calibration with minimal user input
US20080132334A1 (en) Game system and storage medium storing game program
US20080287189A1 (en) System and method for using accelerometer outputs to control an object rotating on a display
US20080291160A1 (en) System and method for recognizing multi-axis gestures based on handheld controller accelerometer outputs
US20070050597A1 (en) Game controller and game system
US20070211027A1 (en) Image processing apparatus and storage medium storing image processing program
US20080001951A1 (en) System and method for providing affective characteristics to computer generated avatar during gameplay
US20120086631A1 (en) System for enabling a handheld device to capture video of an interactive application
US20050009605A1 (en) Image-based control of video games
US20110021274A1 (en) Game apparatus and recording medium recording game program for displaying a motion matching a player&#39;s intention when moving an input device
US20080015031A1 (en) Game program and game apparatus
US20080009348A1 (en) Combiner method for altering game gearing
US7627139B2 (en) Computer image and audio processing of intensity and input devices for interfacing with a computer program
US20100033427A1 (en) Computer Image and Audio Processing of Intensity and Input Devices for Interfacing with a Computer Program
US20110195782A1 (en) Systems and methods for determining controller functionality based on position, orientation or motion
US20120157203A1 (en) Skeletal control of three-dimensional virtual world
US20070222750A1 (en) Position calculation apparatus, storage medium storing position calculation program, game apparatus, and storage medium storing game program
US20070270217A1 (en) System and method for detecting moment of impact and/or strength of a swing based on accelerometer data
US20110065488A1 (en) Storage medium having stored thereon information processing program and information processing apparatus
JP2000157745A (en) Game machine, game control and recording medium having recorded program
US20080096654A1 (en) Game control using three-dimensional motions of controller

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101126

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131106

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131114

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140131