JP5465948B2 - How to get input to control the execution of a game program - Google Patents

How to get input to control the execution of a game program Download PDF

Info

Publication number
JP5465948B2
JP5465948B2 JP2009185086A JP2009185086A JP5465948B2 JP 5465948 B2 JP5465948 B2 JP 5465948B2 JP 2009185086 A JP2009185086 A JP 2009185086A JP 2009185086 A JP2009185086 A JP 2009185086A JP 5465948 B2 JP5465948 B2 JP 5465948B2
Authority
JP
Japan
Prior art keywords
information
controller
input
input information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009185086A
Other languages
Japanese (ja)
Other versions
JP2009254888A (en
Inventor
マオ シャドン
エル マークス リチャード
エム ザレウスキー ゲイリー
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/429,133 external-priority patent/US7760248B2/en
Priority claimed from US11/429,047 external-priority patent/US8233642B2/en
Priority claimed from US11/429,414 external-priority patent/US7627139B2/en
Priority claimed from US11/381,725 external-priority patent/US7783061B2/en
Priority claimed from US11/381,729 external-priority patent/US7809145B2/en
Priority claimed from US11/381,727 external-priority patent/US7697700B2/en
Priority claimed from US11/418,989 external-priority patent/US8139793B2/en
Priority claimed from US11/381,728 external-priority patent/US7545926B2/en
Priority claimed from US11/418,988 external-priority patent/US8160269B2/en
Priority claimed from PCT/US2006/017483 external-priority patent/WO2006121896A2/en
Priority claimed from US11/381,724 external-priority patent/US8073157B2/en
Priority claimed from US11/381,721 external-priority patent/US8947347B2/en
Priority claimed from US11/382,031 external-priority patent/US7918733B2/en
Priority claimed from US11/382,036 external-priority patent/US9474968B2/en
Priority claimed from US11/382,035 external-priority patent/US8797260B2/en
Priority claimed from US29/259,350 external-priority patent/USD621836S1/en
Priority claimed from US11/382,033 external-priority patent/US8686939B2/en
Priority claimed from US11/382,038 external-priority patent/US7352358B2/en
Priority claimed from US11/382,034 external-priority patent/US20060256081A1/en
Priority claimed from US11/382,032 external-priority patent/US7850526B2/en
Priority claimed from US11/382,037 external-priority patent/US8313380B2/en
Priority claimed from US11/382,039 external-priority patent/US9393487B2/en
Priority claimed from US11/382,043 external-priority patent/US20060264260A1/en
Priority claimed from US11/382,040 external-priority patent/US7391409B2/en
Priority claimed from US11/382,041 external-priority patent/US7352359B2/en
Priority claimed from US29/246,768 external-priority patent/USD571806S1/en
Priority claimed from US11/382,256 external-priority patent/US7803050B2/en
Priority claimed from US29/246,744 external-priority patent/USD630211S1/en
Priority claimed from US11/382,251 external-priority patent/US20060282873A1/en
Priority claimed from US29/246,764 external-priority patent/USD629000S1/en
Priority claimed from US11/430,593 external-priority patent/US20070261077A1/en
Priority claimed from US11/382,258 external-priority patent/US7782297B2/en
Priority claimed from US29/246,743 external-priority patent/USD571367S1/en
Priority claimed from US11/382,250 external-priority patent/US7854655B2/en
Priority claimed from US11/382,259 external-priority patent/US20070015559A1/en
Priority claimed from US29/246,767 external-priority patent/USD572254S1/en
Priority claimed from US11/382,252 external-priority patent/US10086282B2/en
Priority claimed from US11/430,594 external-priority patent/US20070260517A1/en
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2009254888A publication Critical patent/JP2009254888A/en
Application granted granted Critical
Publication of JP5465948B2 publication Critical patent/JP5465948B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Description

本発明は、一般に人間とコンピュータとのインタフェースに関し、特に、一つまたは複数のコントローラのユーザによる操作を追跡するための複数チャネル入力処理に関する。   The present invention relates generally to human-computer interfaces, and more particularly to multi-channel input processing for tracking user operation of one or more controllers.

通常、コンピュータエンタテインメントシステムは、手持ち型コントローラ、ゲームコントローラ、またはその他のコントローラを備える。ユーザすなわちプレイヤは、コントローラを使ってコマンドや他の指令をエンタテインメントシステムに送り、プレイ中のビデオゲームやその他のシミュレーションを制御する。例えば、コントローラには、ジョイスティックなどのユーザが操作するマニピュレータが設けられてもよい。ジョイスティック操作での変量は、AD変換されてゲームマシーンのメインフレームに送られる。コントローラには、ユーザが操作できるボタンも設けられる。   Computer entertainment systems typically include handheld controllers, game controllers, or other controllers. The user or player uses the controller to send commands and other commands to the entertainment system to control the video game being played and other simulations. For example, the controller may be provided with a manipulator operated by a user such as a joystick. Variables in the joystick operation are AD converted and sent to the main frame of the game machine. The controller is also provided with buttons that can be operated by the user.

本発明は、これら従来の情報要素およびその他の情報要素に関して進化したものである。   The present invention has evolved with respect to these conventional and other information elements.

ゲームプログラムの実行を制御するための入力を取得する方法が開示される。a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから受け取る。コントローラが使用される環境から追加入力情報を受け取る。コントローラ入力情報と追加入力情報とを処理して組合せ入力を得ることによって、ゲームプログラムの実行を制御するための組合せ入力を取得する。   A method for obtaining input for controlling execution of a game program is disclosed. a) Information specifying the current position of the control stick movable by the user of the game controller in relation to the stop position of the control stick, or b) Specifying whether the switch included in the game controller is in operation. Controller input information including at least one of the information is received from a game controller operable by the user. Receive additional input information from the environment in which the controller is used. A combination input for controlling the execution of the game program is obtained by processing the controller input information and the additional input information to obtain a combination input.

本発明が教示するものは、添付の図面と併せて、以下の詳細な説明を考慮することによって容易に理解される。   The teachings of the present invention can be readily understood by considering the following detailed description in conjunction with the accompanying drawings, in which:

本発明の一実施形態にしたがって作動するビデオゲームシステムを示す図である。1 illustrates a video game system that operates in accordance with one embodiment of the present invention. FIG. 本発明の一実施形態にしたがって作られたコントローラの透視図である。2 is a perspective view of a controller made in accordance with one embodiment of the present invention. FIG. 本発明の一実施形態によるコントローラに用いられる加速度計を示す3次元概略図である。It is a three-dimensional schematic diagram showing an accelerometer used in a controller according to an embodiment of the present invention. 本発明の一実施形態による各種制御入力のミキシングシステムのブロック図である。1 is a block diagram of a mixing system for various control inputs according to an embodiment of the present invention. 図1のビデオゲームシステム部のブロック図である。It is a block diagram of the video game system part of FIG. 本発明の一実施形態によるビデオゲームシステムのコントローラ追跡方法を示すフロー図である。FIG. 5 is a flowchart illustrating a controller tracking method of a video game system according to an embodiment of the present invention. 本発明の一実施形態によるビデオゲームシステムでのゲームプレイ中の、位置情報および/または方向情報の利用方法を示すフロー図である。It is a flowchart which shows the utilization method of a positional information and / or direction information during the game play in the video game system by one Embodiment of this invention. 本発明の一実施形態によるビデオゲームシステムを示すブロック図である。1 is a block diagram illustrating a video game system according to an embodiment of the present invention. 本発明の一実施形態によるビデオゲームシステムにおけるセルプロセッサ実装のブロック図である。1 is a block diagram of a cell processor implementation in a video game system according to an embodiment of the present invention. FIG.

以下の詳細な説明には、説明のための多くの具体的な詳細事項が含まれるが、それらに対する多くの変更や修正も本発明の技術範囲に含まれることは、当業者であれば誰でも理解するであろう。したがって、以下に説明する本発明の好適な実施形態は、クレームされた発明の普遍性をなんら損なうことなく、また限定も行うことなく記載されている。   In the following detailed description, there are many specific details for explanation, and it is understood by those skilled in the art that many changes and modifications thereto are also included in the technical scope of the present invention. You will understand. Accordingly, the preferred embodiments of the invention described below are described without impairing or limiting the universality of the claimed invention.

本明細書に記述した方法、装置、スキームおよびシステムに関する様々な実施形態は、ユーザによるコントローラ本体そのものの移動、動きおよび/または操作の検出、取り込み、および追跡を提供する。ユーザによるコントローラ本体全体の検出された移動、動き、および/または操作は、プレイ中のゲームや他のシミュレーションの様々な局面を制御する付加コマンドとして用いられる。   Various embodiments relating to the methods, apparatus, schemes and systems described herein provide for detection, capture and tracking of movement, movement and / or manipulation of the controller body itself by the user. The detected movement, movement, and / or operation of the entire controller body by the user is used as additional commands to control various aspects of the game being played and other simulations.

ユーザによるゲームコントローラ本体の操作の検出および追跡は、様々な態様で実現されうる。例えば、加速度計やジャイロスコープなどの慣性センサやデジタルカメラなどの撮像装置をコンピュータエンタテインメントシステムと共に使用し、手持ちのコントローラ本体の動きを検出してゲームの中のアクションにその動きを送ることができる。慣性センサによるコントローラ追跡の例は、例えば、米国特許出願第11/382,033号の”SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL”(代理人整理番号SCEA06INRTI)に開示されており、その開示内容は参照により本明細書に援用される。撮像装置を用いたコントローラ追跡の例は、例えば、米国特許出願第11/382,034号の”SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY”(代理人整理番号SCEA05082US00)に開示されており、その開示内容は参照により本明細書に援用される。さらに、コントローラおよび/またはユーザを、マイクロホン配列および適切な信号処理を用いて音響的に追跡することもできる。そのような音響追跡の例は、米国特許出願第11/381,721号に開示されており、その開示内容は参照により本明細書に援用される。   Detection and tracking of the operation of the game controller main body by the user can be realized in various modes. For example, an inertial sensor such as an accelerometer or a gyroscope or an imaging device such as a digital camera can be used with a computer entertainment system to detect the movement of the controller body that is held and send the movement to an action in the game. An example of controller tracking by inertial sensors is disclosed, for example, in “SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL” (Attorney Docket No. SCEA06INRTI) in US Patent Application No. 11 / 382,033. Is incorporated herein by reference. An example of controller tracking using an imaging device is disclosed, for example, in “SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY” in US patent application Ser. No. 11 / 382,034 (agent number SCEA05082US00). The disclosure is incorporated herein by reference. In addition, the controller and / or user can be tracked acoustically using a microphone array and appropriate signal processing. An example of such acoustic tracking is disclosed in US patent application Ser. No. 11 / 381,721, the disclosure of which is hereby incorporated by reference.

音響検出、慣性検出および撮像をそれぞれ独立に用いるかまたは組み合わせて用いることで、コントローラの多くの違った動き方、例えば上下動、ねじり、水平動、急な動き(jerking movements)、棒のような動き(wand-like motions)、急降下の動きなどを検出することができる。そのような動きは、様々なコマンドに対応し、ゲームの中のアクションに移されるようになされていてもよい。ユーザによるゲームコントローラ本体の操作を検出し追跡することによって、多くの違ったタイプのゲームやシミュレーションなどが実現できる。例えば、刀やライトセーバーで闘ったり、物の形をたどるために棒を使ったり、各種のスポーツイベントに参加したり、画面上での闘いやその他の遭遇戦等を行うことができる。ゲームプログラムは、コントローラの動きを追跡し、追跡した動きから事前に記録されているジェスチャを認識するように構成されていてもよい。こういった動きを一つ以上認識すると、ゲーム状態に変化が起きるようになされていてもよい。   By using acoustic detection, inertia detection and imaging independently or in combination, many different ways of movement of the controller, such as vertical movement, torsion, horizontal movement, jerking movements, sticks, etc. Motion (wand-like motions), sudden descent motion, etc. can be detected. Such movement may correspond to various commands and be transferred to actions in the game. Many different types of games and simulations can be realized by detecting and tracking the operation of the game controller by the user. For example, fighting with a sword or lightsaber, using a stick to follow the shape of an object, participating in various sporting events, fighting on the screen, and other encounters can be performed. The game program may be configured to track the movement of the controller and recognize a pre-recorded gesture from the tracked movement. If one or more of these movements are recognized, the game state may be changed.

本発明の実施形態では、これら異なったソースから得られるコントローラパス情報が、ジェスチャ認識の分析前に組み合わされてもよい。異なったソース(例えば音響、慣性および撮像)からの追跡データは、ジェスチャ認識の可能性を高めるような態様で組み合わせられる。   In embodiments of the present invention, controller path information obtained from these different sources may be combined before analysis of gesture recognition. Tracking data from different sources (eg, sound, inertia and imaging) are combined in a manner that increases the likelihood of gesture recognition.

図1を参照する。本発明の一実施形態にしたがって作動するシステム100が図示されている。図示のように、コンピュータエンタテインメントコンソール102は、テレビまたは他のビデオディスプレイ104に接続され、ビデオゲームや他のシミュレーションが画面上に表示される。ゲームまたは他のシミュレーションは、コンソール102に挿入されたDVD、CD,フラッシュメモリ、USBメモリ、または他の記録媒体106に保存できる。ユーザすなわちプレイヤ108は、ゲームコントローラ110を操作してビデオゲームまたは他のシミュレーションを制御する。図2に示されるように、ゲームコントローラ110は、ゲームコントローラ110の位置、動き、方向、または方向の変化に応じて信号を生成する慣性センサ112を備える。この慣性センサに加えて、ゲームコントローラ110は、既知の制御入力装置、例えば、ジョイスティック111、ボタン113、R1、L1などを備えていてもよい。   Please refer to FIG. Shown is a system 100 that operates in accordance with one embodiment of the present invention. As shown, the computer entertainment console 102 is connected to a television or other video display 104 to display video games and other simulations on the screen. A game or other simulation can be stored on a DVD, CD, flash memory, USB memory, or other recording medium 106 inserted into the console 102. The user or player 108 operates the game controller 110 to control the video game or other simulation. As shown in FIG. 2, the game controller 110 includes an inertial sensor 112 that generates a signal in accordance with the position, movement, direction, or change in direction of the game controller 110. In addition to the inertial sensor, the game controller 110 may include a known control input device such as a joystick 111, buttons 113, R1, and L1.

操作中、ユーザ108はコントローラ110を物理的に動かす。例えば、コントローラ110は、ユーザ108によって、上下動、水平動、ねじり、ロール、振動、急な動き、または急降下など、どの方向に動かされてもよい。以下に説明する態様で慣性センサ112からの信号を分析して追跡するために、コントローラ110自体のこれらの動きがカメラ114によって検出され撮像されてもよい。   During operation, the user 108 physically moves the controller 110. For example, the controller 110 may be moved by the user 108 in any direction, such as up / down movement, horizontal movement, torsion, roll, vibration, sudden movement, or sudden drop. These movements of the controller 110 itself may be detected and imaged by the camera 114 to analyze and track the signal from the inertial sensor 112 in the manner described below.

再び図1に戻り、システム100は、カメラまたは他のビデオ撮像装置114を任意に具備してもよく、それらはコントローラ110がカメラ視野角116内に入るように配置される。画像撮像装置114からの画像の分析は、慣性センサ112からのデータの分析と併せて利用される。図2に示されるように、コントローラ110には、発光ダイオード(LED)202、204、206、208などの光源が任意に設けられ、画像分析による追跡を容易にするようになされてもよい。これらの光源はコントローラ110の本体に取り付けられてもよい。本明細書において、「本体」という用語は、手で保持する(または、着用できるゲームコントローラであれば着用する)ゲームコントローラ110の一部分を意味する。   Returning again to FIG. 1, the system 100 may optionally include a camera or other video imaging device 114, which is positioned such that the controller 110 falls within the camera viewing angle 116. The analysis of the image from the image capturing device 114 is used in conjunction with the analysis of data from the inertial sensor 112. As shown in FIG. 2, the controller 110 may optionally be provided with a light source such as light emitting diodes (LEDs) 202, 204, 206, 208 to facilitate tracking by image analysis. These light sources may be attached to the main body of the controller 110. In this specification, the term “main body” means a part of the game controller 110 that is held by hand (or worn if it can be worn).

コントローラ110の追跡目的のビデオ画像分析は、例えば、米国特許出願第11/382,034号の”SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY”(代理人整理番号SCEA05082US00)、発明者Gary M. Zalewskiに開示されており、その開示内容は参照により本明細書に援用される。コンソール102は、マイクロホン配列118などの音響トランスデューサ(変換器)を備えてもよい。コントローラ110はさらに、音響信号発生器210(例えば、スピーカ)も備え、コントローラ110の音響追跡を容易にする音源を、マイクロホン配列118や、米国特許出願第11/381,724号に開示されているような適切な音響信号処理装置に提供するようにしてもよい。前掲の米国特許出願の開示内容は、参照により本明細書に援用される。   Video image analysis for tracking purposes of the controller 110 is, for example, “SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY” (Attorney Docket No. SCEA05082US00) of US patent application Ser. No. 11 / 382,034. The disclosure of which is incorporated herein by reference. The console 102 may include an acoustic transducer such as a microphone array 118. The controller 110 further includes an acoustic signal generator 210 (eg, a speaker) that provides a sound source that facilitates acoustic tracking of the controller 110 as disclosed in the microphone array 118 and US patent application Ser. No. 11 / 381,724. You may make it provide for an appropriate acoustic signal processing apparatus. The disclosures of the above-cited US patent applications are hereby incorporated by reference.

一般に、慣性センサ112からの信号は、コントローラ110に対する位置データおよび方向データの生成に用いられる。そのようなデータは、コントローラ110の動きに関する多くの物理的側面、例えば、コントローラ110の場所の遠隔測定(テレメトリ)だけではなく、任意の軸方向の加速度や速度、傾斜、ピッチ、ヨー、ロールなどの計算に用いることができる。本明細書において、遠隔測定とは、一般に、対象の情報を遠隔で計測し、システムまたはシステムのデザイナやオペレータに報告することを言う。   In general, the signal from the inertial sensor 112 is used to generate position data and direction data for the controller 110. Such data includes many physical aspects related to the movement of the controller 110, such as telemetry of the location of the controller 110, as well as any axial acceleration and velocity, tilt, pitch, yaw, roll, etc. Can be used to calculate In the present specification, telemetry generally means that information of an object is measured remotely and reported to a system or a designer or operator of the system.

コントローラ110の動きを検出し追跡できることにより、コントローラ110について予め決められた動きが行われているか否かがわかる。すなわち、コントローラ110の特定の動きのパターンまたはジェスチャを、ゲームまたは他のシミュレーションの入力コマンドとして予め決めて用いることができる。例えば、コントローラ110を下方に急降下させるジェスチャを一つのコマンドとして定義し、捻るジェスチャを別のコマンドとして定義し、振動させるジェスチャをさらに別のコマンドとして定義できる。このように、ユーザ108が物理的にコントローラ110を動かす態様を、ゲームを制御する別の入力として使用して、より刺激的で楽しい体験をユーザに与えることができる。   By detecting and tracking the movement of the controller 110, it can be determined whether or not a predetermined movement is being performed for the controller 110. That is, a specific movement pattern or gesture of the controller 110 can be predetermined and used as an input command for a game or other simulation. For example, a gesture that causes the controller 110 to descend downward can be defined as one command, a twisting gesture can be defined as another command, and a gesture that vibrates can be defined as another command. In this way, the manner in which the user 108 physically moves the controller 110 can be used as another input to control the game, giving the user a more exciting and enjoyable experience.

例示として、またいかなる限定を行うことなく、慣性センサ112は加速度計であってよい。図3に、フレーム304に4点で、例えばスプリング306、308、310、および312によって伸縮自在に取り付けられた単一質量302の形態での加速度計300を示す。ピッチ軸およびロール軸(それぞれX軸、Y軸で表示)はフレームを横断する面内にある。ヨー軸Zは、ピッチ軸Xとロール軸Yを含む平面に対して垂直に置かれている。フレーム304は適切な形態でコントローラ110に取り付けられている。フレーム304(およびゲームコントローラ110)の加速および/または回転に応じて、質量302はフレーム304に対して相対的に変位する。スプリング306、308、310、312は、並進加速度および/または回転加速度の量と方向、および/またはピッチ、ロール、ヨーの角度に応じて伸縮する。質量302の変位、および/またはスプリング306、308、310、312の伸縮量が、例えば適切なセンサ314、316、318、320を用いて計測され、公知のまたは確定可能な方法でピッチおよび/またはロールの加速度量に応じた信号に変換される。   By way of example and without limitation, inertial sensor 112 may be an accelerometer. FIG. 3 shows an accelerometer 300 in the form of a single mass 302 that is telescopically attached to frame 304 at four points, for example, by springs 306, 308, 310, and 312. The pitch axis and roll axis (represented by the X axis and Y axis, respectively) lie in a plane that traverses the frame. The yaw axis Z is placed perpendicular to a plane including the pitch axis X and the roll axis Y. Frame 304 is attached to controller 110 in a suitable form. In response to acceleration and / or rotation of the frame 304 (and game controller 110), the mass 302 is displaced relative to the frame 304. The springs 306, 308, 310, 312 expand and contract according to the amount and direction of translational acceleration and / or rotational acceleration, and / or the pitch, roll, and yaw angles. The displacement of the mass 302 and / or the amount of expansion / contraction of the springs 306, 308, 310, 312 is measured, for example using suitable sensors 314, 316, 318, 320, and the pitch and / or in a known or determinable manner. It is converted into a signal corresponding to the amount of roll acceleration.

質量の位置および/またはそれに働く力を追跡する方法には、抵抗歪みゲージ、音響センサ、磁気センサ、ホール素子、圧電素子、容量センサなど、多くの異なった方法がある。本発明の実施形態では、任意の数のセンサ、または任意のタイプ、任意の組み合わせのセンサを備えてもよい。例示として、またいかなる限定も行うことなく、センサ314、316、318、320は質量320の上方に配置されたギャップ封鎖電極とすることができる。質量と各電極間の静電容量は、各電極に対する質量の位置変化に応じて変わる。各電極は、電極に対しての質量302の静電容量に関する信号(したがって質量の接近に関する信号)を生成する回路に接続されてもよい。さらに、スプリング306、308、310、312は、伸縮に関連した信号を生成する抵抗歪みゲージを備えてもよい。   There are many different ways to track the position of the mass and / or the forces acting on it, such as resistive strain gauges, acoustic sensors, magnetic sensors, Hall elements, piezoelectric elements, capacitive sensors, etc. Embodiments of the present invention may include any number of sensors, or any type, any combination of sensors. By way of example and without any limitation, the sensors 314, 316, 318, 320 can be gap-blocking electrodes disposed above the mass 320. The capacitance between the mass and each electrode changes according to the change in the position of the mass with respect to each electrode. Each electrode may be connected to a circuit that generates a signal related to the capacitance of the mass 302 to the electrode (and thus a signal related to the proximity of the mass). Further, the springs 306, 308, 310, 312 may include resistance strain gauges that generate signals related to expansion and contraction.

いくつかの実施形態では、フレーム304はコントローラ110に取り付けられるジンバルであってもよく、これによって、加速度計300はピッチ軸、ロール軸、および/またはヨー軸に対して一定の方向を保つことができる。このような態様にすると、実空間座標軸に対するコントローラ軸の傾きを考慮することなく、コントローラのX軸、Y軸、Z軸を実空間における対応軸に直接にマッピングすることが可能になる。   In some embodiments, the frame 304 may be a gimbal that is attached to the controller 110 so that the accelerometer 300 maintains a constant orientation relative to the pitch, roll, and / or yaw axes. it can. In this manner, it is possible to directly map the X axis, Y axis, and Z axis of the controller to the corresponding axes in the real space without considering the inclination of the controller axis with respect to the real space coordinate axes.

上述のように、慣性ソース、撮像ソースおよび音響ソースからのデータを分析して、コントローラ110の位置および/または方向を追跡する経路を生成することができる。図4のブロック図に示されるように、本発明の一実施形態によるシステム400は、慣性分析部402、画像分析部404、および音響分析部406を備えてもよい。これらの分析部はいずれも、被計測環境401からの信号を受信する。分析部402、406、408は、ハードウェア、ソフトウェア(またはファームウェア)、またはこれらの複数の組み合わせで実装される。各分析部は、対象物の位置および/または方向に関係する追跡情報を生成する。例示として、対象物は上述のコントローラ110であってよい。画像分析部404が一緒に作動し、下記の場、および米国特許出願第11/382,034号(代理人整理番号SCEA05082US00)に開示の方法に対する場を形成してもよい。慣性分析部402が一緒に作動し、下記の場、および米国特許出願第11/382,033号の”SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENTIONAL INPUT CONTROL”(代理人整理番号SCEA06INRT1)に開示の方法に対する場を形成してもよい。音響分析部406が一緒に作動し、下記の場、および米国特許出願第11/381,724号に開示の方法に対する場を形成してもよい。   As described above, data from inertial sources, imaging sources, and acoustic sources can be analyzed to generate a path that tracks the position and / or orientation of the controller 110. As shown in the block diagram of FIG. 4, a system 400 according to an embodiment of the present invention may include an inertial analysis unit 402, an image analysis unit 404, and an acoustic analysis unit 406. Each of these analysis units receives a signal from the measured environment 401. The analysis units 402, 406, and 408 are implemented by hardware, software (or firmware), or a combination of these. Each analysis unit generates tracking information related to the position and / or orientation of the object. By way of example, the object may be the controller 110 described above. The image analyzer 404 may work together to form the following fields and fields for the method disclosed in US patent application Ser. No. 11 / 382,034 (Attorney Docket No. SCEA05082US00). The inertial analysis unit 402 works together to provide the following method and for the method disclosed in “SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENTIONAL INPUT CONTROL” (Attorney Docket No. SCEA06INRT1) of US Patent Application No. 11 / 382,033. A field may be formed. The acoustic analyzer 406 may work together to form the following fields and fields for the method disclosed in US patent application Ser. No. 11 / 381,724.

分析部402、404および406は、位置情報および/または方向情報に関する入力の異なるチャネルに関連付けられると考えてもよい。ミキサ408は複数の入力チャネルを受け付けることができ、それらのチャネルは、チャネル視点からの被計測環境401を特徴付けるサンプルデータを含んでもよい。慣性分析部402、画像分析部404および音響分析部406で生成された位置および/または方向情報は、ミキサ408の入力に接続できる。ミキサ408および分析部402、404、406は、ゲームソフトウェアプログラム410の問い合わせを受けてもよく、イベントに応じてゲームソフトウェアを中断するように構成されてもよい。イベントには、ジェスチャ認識イベント、ギアリング変更、構成変更、ノイズレベル設定、サンプリングレート設定、マッピングチェーン変更などが含まれてよい。これらの例については後述する。ミキサ408が一緒に作動し、下記の場、およびここで説明する方法に対する場を形成してもよい。   The analyzers 402, 404, and 406 may be considered to be associated with different channels of input regarding position information and / or direction information. The mixer 408 can accept a plurality of input channels, which may include sample data that characterizes the environment to be measured 401 from the channel viewpoint. The position and / or direction information generated by the inertial analysis unit 402, the image analysis unit 404 and the acoustic analysis unit 406 can be connected to the input of the mixer 408. The mixer 408 and the analysis units 402, 404, and 406 may receive an inquiry from the game software program 410, and may be configured to interrupt the game software in response to an event. Events may include gesture recognition events, gearing changes, configuration changes, noise level settings, sampling rate settings, mapping chain changes, and the like. These examples will be described later. Mixers 408 may work together to form the following fields and fields for the methods described herein.

上述のように、例えば、慣性センサ、ビデオ画像および/または音響センサなどの異なる入力チャネルからの信号は、それぞれ、慣性分析部402、画像分析部404および音響分析部406によって分析されて、本発明の方法によるビデオゲームプレイ中のコントローラ110の動きおよび方向を決定してもよい。そのような方法は、プロセッサ読み取り可能なメディアに保存され、デジタルプロセッサ上で実行されるプログラムコード指令を実行可能な、一連のプロセッサとして実装されてもよい。例えば、図5Aに示されるように、ビデオゲームシステム100は、ハードウェアまたはソフトウェアのいずれかで実装された慣性分析部402、画像分析部404および音響分析部406を有するコンソール102を具備してもよい。例示として、分析部402、404および406は、適切なプロセッサ502で作動するソフトウェア指令として実装されてもよい。例示として、プロセッサ502は、例えば、ビデオゲームコンソールに通常使用されるマイクロプロセッサのような、デジタルプロセッサであってもよい。指令の一部はメモリ506に保存されてもよい。代替的に、慣性分析部402、画像分析部404および音響分析部406は、例えば特定用途向け集積回路(ASIC)などのハードウェアとして実装されてもよい。そのような分析ハードウェアは、コントローラ110かまたはコンソール102上に設けられるか、または遠隔の場所に設けられてもよい。ハードウェアでの実装では、分析部402、404、406は、プロセッサ502からの外部信号、または、例えばUSBケーブル、無線接続またはネットワークを介して接続される他の遠隔にあるソースからの外部信号に応じて、プログラム可能であってもよい。   As described above, signals from different input channels such as inertial sensors, video images and / or acoustic sensors, for example, are analyzed by the inertial analysis unit 402, the image analysis unit 404 and the acoustic analysis unit 406, respectively, to obtain the present invention. The movement and direction of the controller 110 during video game play according to the method may be determined. Such a method may be implemented as a series of processors capable of executing program code instructions stored on a processor readable medium and executed on a digital processor. For example, as shown in FIG. 5A, the video game system 100 may include a console 102 having an inertial analysis unit 402, an image analysis unit 404, and an acoustic analysis unit 406 implemented in either hardware or software. Good. By way of example, the analyzers 402, 404 and 406 may be implemented as software instructions that run on a suitable processor 502. By way of example, the processor 502 may be a digital processor, such as, for example, a microprocessor commonly used in video game consoles. A part of the command may be stored in the memory 506. Alternatively, the inertial analysis unit 402, the image analysis unit 404, and the acoustic analysis unit 406 may be implemented as hardware such as an application specific integrated circuit (ASIC). Such analysis hardware may be provided on the controller 110 or console 102 or may be provided at a remote location. In a hardware implementation, the analyzers 402, 404, 406 can receive external signals from the processor 502 or external signals from, for example, a USB cable, a wireless connection or other remote source connected via a network. Accordingly, it may be programmable.

慣性分析部402は、慣性センサ112により生成される信号を分析する命令を備えるか実装し、コントローラ110の位置および/または方向に関する情報を利用してもよい。同様に、画像分析部404は、撮像装置114で撮影された画像を分析する命令を実装してもよい。さらに、音響分析部は、マイクロホン配列118で捉えた像を分析する命令を実装してもよい。図5Bのフロー図510に示すように、これらの信号および/または画像は、ブロック512で示すように、分析部402、404、406で受け取られてもよい。信号および/または画像は分析部402、404、406で分析されて、ブロック514で示されるように、コントローラ110の位置および/または方向に関する慣性追跡情報403、画像追跡情報405および音響追跡情報407を決定してもよい。追跡情報403、405および407は、1以上の自由度に関連付けられる。コントローラ110または他の追跡物の操作を特徴付けるために、6自由度が追跡されることが好ましい。そのような自由度は、コントローラの傾き、ヨー、ロール、およびX軸、Y軸、Z軸方向の位置、速度または加速度と関連してもよい。   Inertial analyzer 402 may include or implement instructions to analyze the signal generated by inertial sensor 112 and may utilize information regarding the position and / or orientation of controller 110. Similarly, the image analysis unit 404 may implement a command for analyzing an image captured by the imaging device 114. Furthermore, the acoustic analysis unit may implement a command for analyzing an image captured by the microphone array 118. As shown in the flow diagram 510 of FIG. 5B, these signals and / or images may be received by the analyzers 402, 404, 406, as indicated by block 512. The signals and / or images are analyzed by the analyzers 402, 404, 406 to obtain inertial tracking information 403, image tracking information 405, and acoustic tracking information 407 regarding the position and / or orientation of the controller 110 as indicated by block 514. You may decide. The tracking information 403, 405 and 407 is associated with one or more degrees of freedom. Preferably 6 degrees of freedom are tracked to characterize the operation of the controller 110 or other tracked object. Such degrees of freedom may be related to controller tilt, yaw, roll, and position, velocity or acceleration in the X-, Y- and Z-axis directions.

ブロック516で示されるように、ミキサ408は慣性情報403、画像情報405および音響情報407を組み合わせて、正確な位置情報および/または方向情報409を生成する。例示として、ミキサ408は、ゲームや環境条件に基づき慣性情報403、画像情報405、音響情報407に異なる重みを与え、荷重平均を求めてもよい。さらに、ミキサ408は、独自にミキサ分析部を備えて、組み合わされた位置/方向情報を分析し、他の分析部で生成された組み合わせ情報を包含する独自の「ミキサ」情報を生成してもよい。   As indicated by block 516, the mixer 408 combines the inertia information 403, the image information 405, and the acoustic information 407 to generate accurate position information and / or direction information 409. As an example, the mixer 408 may give different weights to the inertia information 403, the image information 405, and the acoustic information 407 based on the game and environmental conditions, and obtain the load average. Furthermore, the mixer 408 has its own mixer analysis unit, analyzes the combined position / direction information, and generates unique “mixer” information including the combination information generated by the other analysis units. Good.

本発明の実施形態では、ミキサ408は、分析部402、404、406からの追跡情報403、405、407に対して分配値を割り当ててもよい。上記の通り、入力コントロールデータセットの一部が平均されていてもよい。しかし、本実施形態においては、入力コントロールデータは、平均される前に、分析上の重要度を考慮した値が割り当てられる。   In the embodiment of the present invention, the mixer 408 may assign distribution values to the tracking information 403, 405, 407 from the analysis units 402, 404, 406. As described above, a part of the input control data set may be averaged. However, in the present embodiment, the input control data is assigned a value considering the importance of analysis before being averaged.

ミキサ408は、本システムの文脈において、観察、訂正、安定化、導出、結合、ルーティング、ミキシング、報告、緩衝、他の処理の中断、および分析などを含む多くの機能を持つことができる。そのような機能は、一つ以上の分析部402、404、406から受け取る追跡情報403、405、407に対して実行することができる。分析部402、404、406のそれぞれが特定の追跡情報を受信および/または導出している間、受信した追跡情報403、405、407の使用を最適化し正確な追跡情報409を生成するためにミキサ408を実装してもよい。   The mixer 408 can have many functions in the context of the present system, including observation, correction, stabilization, derivation, combination, routing, mixing, reporting, buffering, interrupting other processes, and analysis. Such a function can be performed on tracking information 403, 405, 407 received from one or more analysis units 402, 404, 406. A mixer to optimize the use of the received tracking information 403, 405, 407 and generate accurate tracking information 409 while each of the analyzers 402, 404, 406 receives and / or derives specific tracking information 408 may be implemented.

分析部402、404、406およびミキサ408は、同様の出力フォーマットを持つ追跡情報を提供するように構成されるのが好ましい。分析部402、404、406のいずれかからの追跡情報パラメータは、分析部における単一のパラメータにマッピングすることができる。代替的に、ミキサ408は、一つ以上の分析部402、404、406からの一つ以上の追跡情報パラメータを処理して、分析部402、404、406のいずれかに対して追跡情報を作成してもよい。ミキサは、分析部402、404、406から得られる同一タイプのパラメータを持つ追跡情報の複数の要素を組み合わせてもよく、および/または、分析部で生成される追跡情報の複数のパラメータにまたがる機能を実行して、複数の入力チャネルから生成される利点を有する合成出力セットを作り出してもよい。   The analyzers 402, 404, 406 and the mixer 408 are preferably configured to provide tracking information having a similar output format. Tracking information parameters from any of the analysis units 402, 404, 406 can be mapped to a single parameter in the analysis unit. Alternatively, the mixer 408 processes one or more tracking information parameters from one or more analyzers 402, 404, 406 to create tracking information for any of the analyzers 402, 404, 406. May be. The mixer may combine multiple elements of tracking information having the same type of parameters obtained from the analyzers 402, 404, 406 and / or functions across multiple parameters of tracking information generated by the analyzer May be performed to produce a composite output set having the advantages of being generated from multiple input channels.

正確な追跡情報409は、ブロック518で示されるように、システム100でのビデオゲームプレイ中に利用できる。ある実施形態では、位置情報および/または方向情報を、ゲームプレイ中のユーザ108のジェスチャに関して利用することができる。いくつかの実施形態では、ミキサ408はジェスチャ認識部505と一緒に作動し、ゲーム環境中の少なくとも一つのアクションと、ユーザからの一つ以上のアクション(例えば、空間におけるコントローラの操作)とを関連付けてもよい。   Accurate tracking information 409 can be utilized during video game play with system 100, as indicated by block 518. In some embodiments, location information and / or direction information may be utilized in relation to user 108 gestures during game play. In some embodiments, the mixer 408 operates in conjunction with the gesture recognizer 505 to associate at least one action in the gaming environment with one or more actions from the user (eg, controller operation in space). May be.

図5Cのフロー図520に示されるように、コントローラ110の経路は、ブロック522で示される通り、位置情報および/または方向情報を用いて追跡することができる。例示として、またいかなる限定を与えることなく、この経路には、いくつかの座標系に対するコントローラの質量中心位置を示す点セットが含まれてもよい。各位置ポイントは、一つ以上の座標、例えば、デカルト座標系におけるX,Y,Z座標で表されてもよい。経路上の各点が時刻と関連付けられていてもよく、これによって、経路の形状と経路に沿ったコントローラの進行の両方を監視することができる。さらに、前記セットの各点は、コントローラの方向を表すデータ、例えば、コントローラの質量中心回りの一つ以上の回転角などと関連付けられてもよい。さらに、経路上の各点は、コントローラの質量中心の速度および加速度、質量中心回りのコントローラの角回転率および角加速度率の各値と関連付けられてもよい。   As shown in the flow diagram 520 of FIG. 5C, the path of the controller 110 may be tracked using position information and / or direction information, as indicated by block 522. By way of example and without giving any limitation, this path may include a set of points that indicate the center of mass position of the controller for several coordinate systems. Each position point may be represented by one or more coordinates, for example, X, Y, Z coordinates in a Cartesian coordinate system. Each point on the path may be associated with a time of day, so that both the shape of the path and the progress of the controller along the path can be monitored. Further, each point of the set may be associated with data representing the direction of the controller, such as one or more rotation angles about the center of mass of the controller. Further, each point on the path may be associated with a value of the speed and acceleration of the center of mass of the controller, and the angular rotation rate and angular acceleration rate of the controller around the center of mass.

ブロック524に示されるように、追跡経路は、プレイ中のビデオゲームの状況に関連した既知のジェスチャおよび/または事前に記録されているジェスチャ508に対応する一つ以上の記憶された経路と比較されてもよい。認識部505は、ユーザを認識するか、または音声認証ジェスチャなどを処理するように構成されていてもよい。例えば、ユーザに特有のジェスチャを通して、認識部505によりユーザを特定してもよい。そのような特有のジェスチャは、メモリ506に保存されている事前に記録されたジェスチャ508に記録されて含められる。記録処理においては、任意に、ジェスチャの記録中に生成される音を保存してもよい。被計測環境がマルチチャネルの分析部でサンプリングされて処理される。プロセッサは、ジェスチャモデルを参照し、音声パターンまたは音響パターンに基づいて、高精度かつ高能率でユーザまたは物体を決定、認証、および/または特定できる。   As shown in block 524, the tracking path is compared to one or more stored paths corresponding to known gestures and / or pre-recorded gestures 508 related to the status of the video game being played. May be. The recognition unit 505 may be configured to recognize a user or process a voice authentication gesture or the like. For example, the user may be specified by the recognition unit 505 through a gesture unique to the user. Such specific gestures are recorded and included in pre-recorded gestures 508 stored in memory 506. In the recording process, the sound generated during the recording of the gesture may be optionally stored. The measurement environment is sampled and processed by a multi-channel analysis unit. The processor can refer to the gesture model and determine, authenticate, and / or identify the user or object with high accuracy and efficiency based on the voice pattern or the acoustic pattern.

図5Aに示されるように、ジェスチャを表すデータ508はメモリ506に保存される。ジェスチャの例として、ボールのような物を投げる、バットやゴルフクラブのようなものを振る、手押しポンプを押す、ドアまたは窓を開閉する、ハンドルまたは他の車両コントロールを回す、格闘家がパンチなどを出す、研磨(sanding)動作、ワックス掛けとふき取り、家のペンキ塗り、振動、おしゃべり、ロール、フットボール投げ、ノブを回す動き、3Dマウスの動き、スクロール、既知の輪郭を持った動き、記録可能なあらゆる動き、あらゆるベクトルに沿った前後の動き、すなわち空間内の任意の方向に沿ったタイヤの空気入れ、小道に沿った移動、正確な停止時間と開始時間を持った動き、ノイズフロア内やスプライン内などで記録、追跡および繰り返し可能なユーザ操作に基づく任意の時刻、などがあるが、これらに限定されない。これらのジェスチャはそれぞれ、経路データから事前に記録し、時間基準のモデルとして保存できる。経路が安定状態から外れると、その経路が除去処理という保存ジェスチャと比較される、という安定状態についての仮定から、経路と保存ジェスチャとの比較がスタートする。ブロック526において一致しなければ、分析部はブロック522に戻ってコントローラ110の経路追跡を継続できる。経路(またはその一部分)と保存ジェスチャとの間で十分な一致があれば、528に示されるように、ゲーム状態を変えることができる。ゲーム状態の変化は、これらに限定されないが、中断、コントロール信号の送信、変数の変化などを含んでもよい。   As shown in FIG. 5A, data representing a gesture 508 is stored in memory 506. Examples of gestures include throwing something like a ball, shaking something like a bat or golf club, pushing a hand pump, opening or closing a door or window, turning a handle or other vehicle control, a fighter punching, etc. , Sanding motion, waxing and wiping, home paint, vibration, chatting, roll, football throwing, knob turning motion, 3D mouse motion, scrolling, motion with known contour, recordable Any movement, back-and-forth movement along any vector, i.e. tire inflation along any direction in space, movement along a path, movement with precise stop and start times, noise floor and Any time based on user operations that can be recorded, tracked and repeated within a spline, etc., but is not limited to these. Yes. Each of these gestures can be pre-recorded from route data and saved as a time-based model. The comparison between the path and the stored gesture starts from the assumption about the stable state that when the path deviates from the stable state, the path is compared with the stored gesture of removal processing. If there is no match at block 526, the analyzer can return to block 522 to continue the path tracking of the controller 110. If there is a sufficient match between the path (or a portion thereof) and the saved gesture, the game state can be changed, as shown at 528. Changes in the game state may include, but are not limited to, interruption, transmission of control signals, changes in variables, and the like.

起こり得る例を一つ示す。コントローラ110が経路の安定状態から外れたと判断すると、分析部402、404、406、または412はコントローラ110の動きを追跡する。コントローラ110の経路が保存されているジェスチャモデル508に定義される経路と合致している間は、これらのジェスチャは「ヒット」であり得る。コントローラ110の経路が、いずれかのジェスチャモデル508から外れると(耐ノイズ設定内で)、そのジェスチャモデルはヒットリストから除去される。各ジェスチャ参照モデルは、ジェスチャが記録される時間軸を備える。分析部402、404、406または412は、適切な時間指標で、コントローラの経路データを保存ジェスチャ508と比較する。安定状態条件が発生するとクロックをリセットする。安定状態から外れる(すなわち、ノイズしきい値外で動きが追跡される)と、ヒットリストには、可能性のあるジェスチャモデルすべてが入ってくる。クロックがスタートして、コントローラの動きがヒットリストと比較される。再び、時系列で見ると比較はたやすい。ヒットリスト内のいずれかのジェスチャがジェスチャの端に到達すると、それはヒットである。   Here is one possible example. If the controller 110 determines that the path is out of the stable state, the analysis unit 402, 404, 406, or 412 tracks the movement of the controller 110. While the path of the controller 110 matches the path defined in the stored gesture model 508, these gestures may be “hits”. If the path of the controller 110 deviates from any gesture model 508 (within the noise immunity setting), that gesture model is removed from the hit list. Each gesture reference model has a time axis on which gestures are recorded. The analysis unit 402, 404, 406, or 412 compares the controller path data with the stored gesture 508 with an appropriate time index. Resets the clock when a steady state condition occurs. When out of steady state (ie, movement is tracked outside of the noise threshold), the hit list will contain all possible gesture models. The clock starts and the controller movement is compared to the hit list. Again, it is easy to compare in time series. If any gesture in the hit list reaches the end of the gesture, it is a hit.

ある実施形態では、ミキサ408および/または個々の分析部402、404、406、および412は、特定のイベントが発生する時間をゲームプログラムに通知してもよい。そのようなイベントの例には下記のものが含まれる。   In certain embodiments, the mixer 408 and / or the individual analyzers 402, 404, 406, and 412 may notify the game program when a particular event occurs. Examples of such events include the following:

・加速度0点への到達で中断(X軸、Y軸、および/またはZ軸)
あるゲーム状況において、コントローラの加速度が変曲点で変化すると、分析部は、ゲームプログラム内のルーチンに通知するかまたはルーチンを中断できる。例えば、ユーザ108は、コントローラ110を使ってフットボールシミュレーションゲーム内のクォータバックを表すゲームアバターを制御できる。分析部は、慣性センサ112からの信号から生成される経路を介して(フットボールを表す)コントローラを追跡してもよい。コントローラ110のある特定の加速度変化は、フットボールが投げられたことを信号発信してもよい。このときに、分析部はプログラム内の別のルーチン(例えば、物理シミュレーションパッケージ)をトリガして、投てき点におけるコントローラの位置、速度および/または方向に基づき、フットボールの軌道をシミュレーションできる。
・ Suspend when reaching zero acceleration (X-axis, Y-axis, and / or Z-axis)
If the acceleration of the controller changes at the inflection point in a certain game situation, the analysis unit can notify the routine in the game program or interrupt the routine. For example, the user 108 can use the controller 110 to control a game avatar that represents a quarterback in a football simulation game. The analyzer may track the controller (representing football) via a path generated from the signal from the inertial sensor 112. A certain acceleration change in the controller 110 may signal that a football has been thrown. At this time, the analyzer can trigger another routine in the program (eg, a physics simulation package) to simulate a football trajectory based on the controller's position, velocity and / or direction at the throw point.

・新しいジェスチャの認識で中断 ・ Suspend on recognition of new gesture

また、分析部は一つ以上の入力で構成されてもよい。そのような入力の例を以下に示すが、これらに限定されない。   The analysis unit may be configured with one or more inputs. Examples of such input are shown below, but are not limited thereto.

・ノイズレベルの設定(X軸、Y軸またはZ軸)
ノイズレベルは、ゲーム中のユーザの手の震えを分析するときの基準許容誤差であってもよい。
-Noise level setting (X-axis, Y-axis or Z-axis)
The noise level may be a reference tolerance when analyzing a user's hand tremor during a game.

・サンプリングレート設定
本明細書において、サンプリングレートとは、分析部による慣性センサからの信号のサンプリング頻度を言う。サンプリングレートは信号のオーバーサンプリングかまたは平均化に設定されてもよい。
-Sampling rate setting In this specification, a sampling rate means the sampling frequency of the signal from an inertial sensor by an analysis part. The sampling rate may be set to signal oversampling or averaging.

・ギアリング設定
本明細書において、ギアリングとは、概してゲーム内で起こる動きに対するコントローラの動きの比を言う。ビデオゲーム制御の文脈におけるこのような「ギアリング」の例は、2006年5月7日付米国特許出願第11/382,040号(代理人整理番号SONYP058D)に開示されており、その開示内容は参照により本明細書に援用される。
Gearing setting As used herein, gearing generally refers to the ratio of controller movement to movement occurring in the game. An example of such “gearing” in the context of video game control is disclosed in US patent application Ser. No. 11 / 382,040 (Attorney Docket SONYP058D) dated May 7, 2006, the disclosure of which is incorporated by reference. Incorporated herein by reference.

・マッピングチェーンの設定
本明細書において、マッピングチェーンとはジェスチャモデルのマップを言う。ジェスチャモデルマップは特定の入力チャネルに対して(例えば、慣性センサ信号だけから生成される経路データに対して)、またはミキサ装置に形成されるハイブリッドチャネルに対して作成される。慣性分析部402と同様の2台以上の異なった分析部によって、3つの入力チャネルが供給される。具体的には、これらには、ここで述べた慣性分析部402、例えばその開示内容が参照により本明細書に援用される米国特許出願第11/382,034号の”SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY”(代理人整理番号SCE05082US00)、発明者Gary M Zalewski、に開示されたビデオ分析部、および、例えばその開示内容が参照により本明細書に援用される米国特許出願第11/381,721号に開示される音響分析部が含まれてもよい。これら分析部はマッピングチェーンを用いて構成することができる。マッピングチェーンは、分析部やミキサに対する設定ができるように、ゲームプレイ中にゲームによって交換することができる。
-Setting of mapping chain In this specification, a mapping chain means a map of a gesture model. A gesture model map is created for a particular input channel (eg, for path data generated solely from inertial sensor signals) or for a hybrid channel formed in a mixer device. Three input channels are provided by two or more different analyzers similar to inertial analyzer 402. Specifically, these include inertial analysis unit 402 described herein, eg, “SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF” in US patent application Ser. No. 11 / 382,034, the disclosure of which is incorporated herein by reference. A GAME CONTROLLER BODY "(Attorney Docket No. SCE05082US00), Video Analysis Department disclosed by inventor Gary M Zalewski, and US Patent Application No. 11 / 381,721, the disclosure of which is incorporated herein by reference, for example. The acoustic analysis unit disclosed in the issue may be included. These analysis units can be configured using a mapping chain. The mapping chain can be exchanged by the game during game play so that settings for the analyzer and mixer can be made.

再び図5B、ブロック512に戻る。当業者であれば、慣性センサ112からの信号を生成するには多くの方法があることは理解するであろう。とりわけ2〜3の例についてここで説明する。ブロック514を参照して、ブロック512で生成されるセンサ信号を分析しコントローラ110の位置および/または方向に関係する追跡情報を得るには多くの方法がある。例示として、またいかなる限定を行うことなく、追跡情報には、個別にまたは任意の組み合わせて以下のパラメータに関する情報が含まれるが、これらに限定されない。   Returning again to FIG. One skilled in the art will appreciate that there are many ways to generate a signal from inertial sensor 112. In particular, a few examples will be described here. Referring to block 514, there are many ways to analyze the sensor signal generated at block 512 to obtain tracking information related to the position and / or orientation of controller 110. By way of example and without limitation, the tracking information includes, but is not limited to, information about the following parameters individually or in any combination.

・コントローラの方向
コントローラ110の方向は、ある基準方向に対するピッチ、ロール、またはヨー角(例えばラジアン)で表されてもよい。コントローラ方向の変化率(例えば、角速度または角加速度)は、位置情報および/または方向情報に含まれていてもよい。例えば、慣性センサ112がジャイロスコープセンサを含む場合、コントローラの方向情報は、ピッチ角、ロール角、またはヨー角に比例した一つ以上の出力値の形で直接求めることができる。
Controller Direction The direction of the controller 110 may be represented by a pitch, roll, or yaw angle (eg, radians) with respect to a certain reference direction. The rate of change in the controller direction (eg, angular velocity or angular acceleration) may be included in the position information and / or direction information. For example, if the inertial sensor 112 includes a gyroscope sensor, the controller direction information can be directly determined in the form of one or more output values proportional to the pitch angle, roll angle, or yaw angle.

・コントローラの位置(例えば、ある基準フレームにおけるコントローラ110のデカルト座標X、Y,Z)
・コントローラのX軸速度
・コントローラのY軸速度
・コントローラのZ軸速度
・コントローラのX軸加速度
・コントローラのY軸加速度
・コントローラのZ軸加速度
Controller position (eg, Cartesian coordinates X, Y, Z of controller 110 in a certain reference frame)
・ Controller X-axis speed ・ Controller Y-axis speed ・ Controller Z-axis speed ・ Controller X-axis acceleration ・ Controller Y-axis acceleration ・ Controller Z-axis acceleration

位置、速度および加速度に関して、位置情報および/または方向情報がデカルト以外の座標系で表されてもよいことに注意する。例えば、円柱座標系または球座標系を位置、速度、加速度のために使用してもよい。X軸、Y軸、Z軸に対する加速度情報を、例えば本明細書で説明したような加速度計タイプのセンサから直接に求めてもよい。X速度、Y速度、Z速度における変化を決定するために、ある初期時刻からの時間に対してX加速度、Y加速度、Z加速度を積分してもよい。これらの速度は、初期時刻における既知の値であるX速度、Y速度、およびZ速度に速度変化を加えることで算出してもよい。コントローラのX変位、Y変位およびZ変位を決定するために、時間に対してX速度、Y速度およびZ速度を積分してもよい。X位置、Y位置およびZ位置は、初期時刻における既知のX位置、Y位置およびZ位置に変位を加えることで決定してもよい。   Note that for position, velocity, and acceleration, position information and / or direction information may be expressed in a coordinate system other than Cartesian. For example, a cylindrical coordinate system or a spherical coordinate system may be used for position, velocity, and acceleration. The acceleration information for the X axis, the Y axis, and the Z axis may be obtained directly from an accelerometer type sensor as described in the present specification, for example. In order to determine changes in X speed, Y speed, and Z speed, X acceleration, Y acceleration, and Z acceleration may be integrated with respect to time from a certain initial time. These speeds may be calculated by adding a speed change to the X speed, Y speed, and Z speed, which are known values at the initial time. To determine the X displacement, Y displacement and Z displacement of the controller, the X velocity, Y velocity and Z velocity may be integrated over time. The X position, Y position, and Z position may be determined by adding displacement to the known X position, Y position, and Z position at the initial time.

・安定状態 Y/N
この特殊な情報はコントローラが安定状態にあるかどうかを示し、いずれの位置として定義することができ、また変化もする。好適な実施例では、安定状態にある位置とは、コントローラが、ユーザの腰とほぼ同じ高さにあっておおよそ水平方向に保持されているような位置としてもよい。
・ Stable state Y / N
This special information indicates whether the controller is in a stable state, can be defined as any position, and also varies. In a preferred embodiment, the stable position may be such that the controller is approximately level with the user's waist and is held approximately horizontally.

・前回の安定状態からの時間
「前回の安定状態からの時間」は、概して、(上述したような)安定状態が最後に検出された以降に経過した期間の長さに関係するデータを指す。その時間の決定は、前に注目したように、実時間、処理サイクル、またはサンプリング周期で計算されてもよい。「前回の安定状態からの時間」のデータ時間は、ゲーム環境におけるキャラクタまたは物体のマッピングの正確さを確保するために、初期点に関するコントローラの追跡をリセットすることに対して重要である。このデータはまた、ゲーム環境でその後に(排他的にまたは包括的に)実行される可能性のある利用可能なアクションおよび/またはジェスチャの決定に対しても重要である。
Time since last stable state “Time since last stable state” generally refers to data related to the length of the period that has elapsed since the last time a stable state (as described above) was detected. The time determination may be calculated in real time, processing cycle, or sampling period, as noted previously. The data time of “time from the previous stable state” is important for resetting the controller tracking with respect to the initial point to ensure the accuracy of the character or object mapping in the game environment. This data is also important for determining available actions and / or gestures that may be subsequently (exclusively or comprehensively) performed in the gaming environment.

・認識された最後のジェスチャ
「認識された最後のジェスチャ」とは、概して、(ハードウェアまたはソフトウェアで実装可能な)ジェスチャ認識部505によって認識された最後のジェスチャを指す。後に認識される可能性のあるジェスチャまたはゲーム環境で起こる他のアクションに前回のジェスチャが関係し得るという事実に対して、認識された最後のジェスチャの特定は重要である。
Recognized last gesture “Recognized last gesture” generally refers to the last gesture recognized by the gesture recognizer 505 (which can be implemented in hardware or software). The identification of the last recognized gesture is important to the fact that the previous gesture may be related to gestures that may be recognized later or other actions that occur in the gaming environment.

・認識された最後のジェスチャ時間 ・ Last gesture time recognized

上記の出力は、ゲームプログラムまたはソフトウェアでいつでもサンプリングできる。   The above output can be sampled at any time by a game program or software.

本発明の一実施形態では、ミキサ408は、分析部402、404、406からの追跡情報403、405、407に対して、分配値を割り当ててもよい。上述したように、入力コントロールデータの特定のセットが平均化されてもよい。しかしながら、本実施形態では、入力コントロールデータには平均化される前にある値が割り当てられ、これによって、一部の分析部からの入力コントロールデータが他の分析部からのデータよりも分析上より重要となっている。   In one embodiment of the present invention, the mixer 408 may assign distribution values to the tracking information 403, 405, 407 from the analysis units 402, 404, 406. As described above, a particular set of input control data may be averaged. However, in this embodiment, the input control data is assigned a value before being averaged, so that the input control data from some analysis units is analytically more than the data from other analysis units. It is important.

例えば、ミキサ408は、加速度と安定状態に関連した追跡情報を要求してもよい。ミキサ408は次に、上記の通り、追跡情報403、405、407を受け取る。追跡情報には、例えば上述したような加速度および安定状態に関係するパラメータが含まれていてもよい。この情報を表すデータを平均化する前に、ミキサ408は、追跡情報データセット403、405、407に分配値を割り当ててもよい。例えば、慣性分析部402からのX加速度パラメータおよびY加速度パラメータが90%の値で重み付けされてもよい。しかし、画像分析部406からのX加速度データおよびY加速度データが、わずか10%しか重み付けされなくてもよい。加速度パラメータに関係する音響分析部の追跡情報407には0%の重みを与える、すなわちデータ値がなくてもよい。   For example, the mixer 408 may request tracking information related to acceleration and steady state. Mixer 408 then receives tracking information 403, 405, 407 as described above. The tracking information may include parameters related to acceleration and a stable state as described above, for example. Prior to averaging the data representing this information, the mixer 408 may assign distribution values to the tracking information data sets 403, 405, 407. For example, the X acceleration parameter and the Y acceleration parameter from the inertia analysis unit 402 may be weighted with a value of 90%. However, the X acceleration data and Y acceleration data from the image analysis unit 406 need only be weighted by 10%. The tracking information 407 of the acoustic analysis unit related to the acceleration parameter is given a weight of 0%, that is, there may be no data value.

同様に、慣性分析部402からのZ軸追跡情報パラメータには10%の重み付けがなされ、画像分析部のZ軸追跡情報には90%の重み付けがなされてもよい。音響分析部の追跡情報407には再度0%の重み付けがなされ、音響分析部406からの安定状態追跡情報には100%の重み付けがなされ、残りの分析部の追跡情報には0%の重み付けがなされてもよい。   Similarly, the Z-axis tracking information parameter from the inertia analysis unit 402 may be weighted by 10%, and the Z-axis tracking information of the image analysis unit may be weighted by 90%. The tracking information 407 of the acoustic analysis unit is again weighted by 0%, the stable state tracking information from the acoustic analysis unit 406 is weighted by 100%, and the tracking information of the remaining analysis units is weighted by 0%. May be made.

適当な分配重みが割り当てられた後、入力コントロールデータはその重みと一緒に平均されて加重平均された入力コントロールデータセットとなり、その後ジェスチャ認識部505により分析されてゲーム環境におけるある特定のアクションと関連付けられる。関連付けられる値は、ミキサ408または特定のゲームタイトルによって事前に定義されていてもよい。それらの値は、種々の分析部からのデータのうち特定の品質のものを識別しこれにより後述するようなダイナミック調節を行うミキサ408の結果であってもよい。また、この調節は、特定の環境においておよび/または所与のゲームタイトルの特有性に応じて、特定のデータが特定の値となる時期について過去の知識を構築した結果であってもよい。   After appropriate distribution weights are assigned, the input control data is averaged together with the weights to form a weighted average input control data set that is then analyzed by the gesture recognizer 505 and associated with a particular action in the game environment. It is done. The associated value may be predefined by the mixer 408 or a particular game title. These values may be the result of a mixer 408 that identifies specific quality data from various analyzers and thereby performs dynamic adjustment as described below. This adjustment may also be the result of building past knowledge about when specific data will have a specific value in a specific environment and / or depending on the uniqueness of a given game title.

ミキサ408はゲームプレイ中、ダイナミックに作動するように構成されていてもよい。例えば、ミキサ408が様々な入力コントロールデータを受け取るとき、あるデータが、許容できる範囲またはデータ品質から連続して外れていること、または、関連した入力装置で処理エラーが起こったことを示す破損データを反映していることなどを認識してもよい。   The mixer 408 may be configured to operate dynamically during game play. For example, when the mixer 408 receives various input control data, the corrupted data indicates that some data is continuously out of acceptable range or data quality, or that a processing error has occurred at the associated input device. You may recognize that it reflects.

さらに、実世界環境では、特定の条件が変化する場合もある。例えば、家庭のゲーム環境では、午前から午後になると自然光が増加し、このために画像データの撮像に問題が生じる。さらに、日が進むにつれて近所や家の中が騒々しくなり、音響データの取り込みに問題が生じる。同様に、ユーザが数時間もプレイを続けると反射が段々シャープではなくなり、このために慣性データの解釈に問題が生じる。   In addition, certain conditions may change in a real world environment. For example, in a home game environment, natural light increases from morning to afternoon, which causes a problem in capturing image data. Furthermore, as the day progresses, the neighborhood and the house become noisy, causing problems in capturing acoustic data. Similarly, if the user continues to play for several hours, the reflection becomes less sharp and this causes a problem in the interpretation of inertial data.

これらの例、または入力コントロールデータの特定のフォームの品質が問題になるような他の例においては、ミキサ408は、上記のように、特定の入力コントロールデータに多少とも重要性が与えられるような特定の装置からの特定のデータセットに対しては、分配重みを動的に再割り当てしてもよい。同様に、ゲーム環境がゲームの流れの中で変わるために、特定のゲームへのニーズが変わって、その結果、特定の入力コントロールデータに対する数値やニーズの再割り当てが要求されてもよい。   In these examples, or in other examples where the quality of a particular form of input control data is an issue, the mixer 408 may be more or less important to the particular input control data as described above. Distribution weights may be dynamically reassigned to specific data sets from specific devices. Similarly, as the game environment changes in the course of the game, the needs for a particular game may change, and as a result, reassignment of numerical values and needs to particular input control data may be required.

同様に、ミキサ408は、ジェスチャ認識部505に渡されるデータのうち、処理間違いデータ、処理スピードの遅いデータ、または処理間違いやジェスチャ認識部505で生成されるデータのフィードバックにまったく基づかないデータがあることを認識してもよい。このフィードバックに応じて、またはこれらの処理上の困難(例えば、画像分析データが許容範囲内にある間、ジェスチャ認識部505によって関連付けられるときにはエラーが生じる)を認識して、ミキサ408は、どの分析部からの、どの時間の入力コントロールデータに対しても調節できる。ミキサ408はさらに、データを渡される前に、適切な分析部による入力コントロールデータの分析と処理を要求してもよく、そのことによって、データの再処理(例えば、データの平均)を行ってジェスチャ認識部505に渡すデータが効果的に適切に処理されることをさらに保証するようになされていてもよい。   Similarly, the mixer 408 includes processing error data, data with a low processing speed, or data that is not based at all on processing errors or feedback of data generated by the gesture recognition unit 505 among the data passed to the gesture recognition unit 505. You may recognize that. In response to this feedback or recognizing these processing difficulties (eg, an error occurs when associated by the gesture recognizer 505 while the image analysis data is within acceptable limits), the mixer 408 determines which analysis You can adjust the input control data of any time from the department. The mixer 408 may further request analysis and processing of the input control data by an appropriate analyzer before passing the data, thereby re-processing the data (eg, averaging the data) and gesturing. It may be further ensured that data passed to the recognition unit 505 is effectively processed appropriately.

ある実施形態では、ミキサ408は、特定のデータが破損している、無効である、または特定の変数から外れている、などを認識し、そのデータに関連した特定の入力コントロールデータや変数を要求し、それによって、間違ったデータを置換したり、または必要な変数に対してデータを適切に分析または計算するようになされていてもよい。   In some embodiments, the mixer 408 recognizes that certain data is corrupted, invalid, or deviates from certain variables, etc., and requests certain input control data or variables associated with that data. Thus, the wrong data may be replaced, or the data may be appropriately analyzed or calculated for the necessary variables.

本発明による実施形態では、上述のタイプのビデオゲームシステムと方法は、図6に示すように実装することができる。ビデオゲームシステム600は、プロセッサ601とメモリ602(例えば、RAM、DRAM、ROMなど)を備える。さらに、ビデオゲームシステム600は、並列処理が実装されるのであれば、複数のプロセッサ601を備えてもよい。メモリ602はデータとゲームプログラムコード604を備え、上述のように構成された部分を備える。具体的には、メモリ602は上述したような保存コントローラ経路情報を含む慣性信号データ606を備えてもよい。メモリ602は、保存ジェスチャデータ608、例えば、ゲームプログラム604に関連した一つ以上のジェスチャを表すデータなどを含んでもよい。プロセッサ602で実行されるコード化された命令には、上述のように構成され機能する複数入力ミキサ605が実装されていてもよい。   In an embodiment according to the present invention, a video game system and method of the type described above can be implemented as shown in FIG. The video game system 600 includes a processor 601 and a memory 602 (for example, RAM, DRAM, ROM, etc.). Furthermore, the video game system 600 may include a plurality of processors 601 as long as parallel processing is implemented. The memory 602 includes data and game program code 604, and includes a portion configured as described above. Specifically, the memory 602 may include inertial signal data 606 including stored controller path information as described above. The memory 602 may include stored gesture data 608, such as data representing one or more gestures associated with the game program 604. A coded instruction executed by the processor 602 may include a multi-input mixer 605 configured and functioning as described above.

システム600はさらに、入出力(I/O)装置611、電源(P/S)612、クロック(CLK)613およびキャッシュ614などの公知のサポート機能610を備えてもよい。装置600は任意に、プログラムおよび/またはデータ保存のためのディスクドライブ、CD−ROMドライブ、テープドライブなどの大容量記憶装置615を備えてもよい。コントローラは任意に、コントローラ630とユーザとの相互作用を容易にするために、ディスプレイ装置616とユーザインタフェース618を備えてもよい。ディスプレイ装置616は、テキスト、数値、グラフ記号や画像を表示する陰極線管(CRT)、またはフラットパネルスクリーンの形であってもよい。ユーザインタフェース618は、キーボード、マウス、ジョイスティック、ライトペンや他の装置を備えてもよい。また、ユーザインタフェース618は分析対象の信号を直接取り込むために、マイクロホン、ビデオカメラ、またはその他の信号変換装置を備えてもよい。システム600のプロセッサ601、メモリ602、および他の部品は図6に示すように、システムバス620を介して、互いに信号(例えばコード命令およびデータ)を交換してもよい。   The system 600 may further include known support functions 610 such as an input / output (I / O) device 611, a power supply (P / S) 612, a clock (CLK) 613, and a cache 614. The device 600 may optionally comprise a mass storage device 615 such as a disk drive, CD-ROM drive, tape drive, etc. for storing programs and / or data. The controller may optionally include a display device 616 and a user interface 618 to facilitate interaction between the controller 630 and the user. Display device 616 may be in the form of a cathode ray tube (CRT) that displays text, numbers, graph symbols and images, or a flat panel screen. User interface 618 may include a keyboard, mouse, joystick, light pen, and other devices. The user interface 618 may also include a microphone, video camera, or other signal converter to directly capture the signal to be analyzed. The processor 601, memory 602, and other components of the system 600 may exchange signals (eg, code instructions and data) with each other via a system bus 620 as shown in FIG.

マイクロホン配列622は、入出力装置611を介してシステム600に接続されてもよい。マイクロホン配列は、約2〜約8個のマイクロホン、好ましくは約4個を、隣接のマイクロホンとは約4cm未満、好ましくは約1〜2cmの距離離間して備えてもよい。好適には、配列622のマイクロホンは無指向性マイクロホンである。オプションの撮像装置623(例えばデジタルカメラ)は、入出力装置611を介して装置600に接続されてもよい。カメラに機械的に接続された一つ以上の位置決めアクチュエータ625が、入出力装置611を介してプロセッサ601との間で信号を交換してもよい。   Microphone array 622 may be connected to system 600 via input / output device 611. The microphone array may comprise about 2 to about 8 microphones, preferably about 4 and separated from adjacent microphones by a distance of less than about 4 cm, preferably about 1-2 cm. Preferably, the microphones in array 622 are omnidirectional microphones. An optional imaging device 623 (for example, a digital camera) may be connected to the device 600 via the input / output device 611. One or more positioning actuators 625 mechanically connected to the camera may exchange signals with the processor 601 via the input / output device 611.

本明細書では、「入出力装置」という用語は、概してシステム600との間および周辺装置との間でデータを送受信するプログラム、操作または装置のいずれかを指す。すべてのデータ送受信は、ある装置からの出力と別の装置への入力と考えてよい。周辺装置には、キーボードやマウスなどの入力専用装置、プリンタなどの出力専用装置に加えて、入力装置および出力装置の両方として作動できる書き込み可能CD-ROMなどの装置が含まれてもよい。「周辺装置」という言葉には、マウス、キーボード、プリンタ、モニタ、マイクロホン、ゲームコントローラ、カメラ、外部Zipドライバまたはスキャナなどの外部装置に加えて、CD−ROMドライブ、CD−Rドライブまたは内部モデムなどの内部装置、または、フラッシュメモリ読み取りおよび書き込みハードドライブなどの他の周辺装置が含まれる。   As used herein, the term “input / output device” generally refers to any program, operation or device that sends and receives data to and from system 600 and peripheral devices. All data transmission and reception may be considered as output from one device and input to another device. Peripheral devices may include devices such as a writable CD-ROM that can operate as both an input device and an output device, in addition to an input-only device such as a keyboard and mouse, and an output-only device such as a printer. The term “peripheral device” includes an external device such as a mouse, keyboard, printer, monitor, microphone, game controller, camera, external Zip driver or scanner, CD-ROM drive, CD-R drive or internal modem, etc. Internal devices, or other peripheral devices such as flash memory read and write hard drives.

本発明のある実施形態では、装置600は、有線(例えばUSBケーブル)または無線を通した入出力装置611を介してプロセッサに接続されたコントローラ630を具備したビデオゲーム装置であってもよい。コントローラ630は、ビデオゲームプレイ中に通常使用されるコントロール信号を提供するアナログジョイスティックコントロール631と既知のボタン633を具備してもよい。そのようなビデオゲームは、メモリ602、または大容量記憶装置615に関連する他のプロセッサ読み取り可能媒体に保存されるプログラム604からの、プロセッサ読み取り可能データおよび/または指令として実装されてもよい。いくつかの実施形態では、ミキサ605は、アナログジョイスティックコントロール631とボタン633から入力を受信できる。   In some embodiments of the present invention, the device 600 may be a video game device comprising a controller 630 connected to the processor via an input / output device 611 that is wired (eg, USB cable) or wireless. The controller 630 may include an analog joystick control 631 that provides control signals normally used during video game play and a known button 633. Such a video game may be implemented as processor readable data and / or instructions from a program 604 stored in memory 602 or other processor readable medium associated with mass storage device 615. In some embodiments, mixer 605 can receive input from analog joystick control 631 and button 633.

ジョイスティックコントロール631は、通常、コントロールスティックを左右に動かすとX軸沿いの動きの信号を発信し、前後(上下)に動かすとY軸沿いの信号を発信するように構成されていてもよい。3次元の動き用に構成されたジョイスティックでは、スティックを左(反時計回り)または右(時計回り)に捻るとZ軸沿いの動きの信号を発信してもよい。これらX,Y,Zの3軸は、特に航空機に関する場合に、それぞれロール、ピッチ、ヨーと呼ばれることがある。   In general, the joystick control 631 may be configured to transmit a signal along the X axis when the control stick is moved left and right, and to transmit a signal along the Y axis when the control stick is moved back and forth (up and down). In a joystick configured for three-dimensional movement, a signal of movement along the Z axis may be transmitted when the stick is twisted to the left (counterclockwise) or right (clockwise). These three axes of X, Y, and Z may be referred to as roll, pitch, and yaw, respectively, particularly when related to an aircraft.

ゲームコントローラ630は、プロセッサ602およびゲームコントローラ630の少なくとも一つまたはその両方と、デジタル通信を行うように作動するコミュニケーションインタフェースを備えてもよい。コミュニケーションインタフェースは、万能非同期送受信機(universal asynchronous receiver transmitter:UART)を具備してもよい。UARTは、追跡装置の稼動を制御するための、または他の装置と通信するために追跡装置からの信号を送信するためのコントロール信号を受信するよう動作可能であってもよい。代替的に、コミュニケーションインタフェースはUSBコントローラを備えてもよい。USBコントローラは、追跡装置の操作を制御するための、または他の装置と通信するために追跡装置からの信号を送信するためのコントロール信号を受信するように動作可能であってもよい。   Game controller 630 may include a communication interface that operates to perform digital communication with at least one or both of processor 602 and game controller 630. The communication interface may comprise a universal asynchronous receiver transmitter (UART). The UART may be operable to receive a control signal for controlling the operation of the tracking device or for transmitting signals from the tracking device to communicate with other devices. Alternatively, the communication interface may comprise a USB controller. The USB controller may be operable to receive control signals for controlling the operation of the tracking device or for transmitting signals from the tracking device to communicate with other devices.

さらに、コントローラ630は、慣性信号を介して位置情報および/または方向情報をプロセッサ601に提供できる一つ以上の慣性センサ632を備えてもよい。方向情報には、コントローラ630の傾き、ロールまたはヨーなどの角度情報が含まれていてもよい。例示として、慣性センサ632には、任意の数の加速度計、ジャイロスコープまたは傾斜センサ、またはこれらの任意の組み合わせが含まれていてもよい。好適な実施形態では、慣性センサ632には、傾斜およびロール軸に対するゲームコントローラ630の方向を検知するように適応された傾斜センサ、ヨー軸沿いの加速度を検知するように適応された第1の加速度計、およびヨー軸に対する角加速度を検知するように適応された第2の加速度計を備える。加速度計は、例えば、一つ以上のばねで取り付けられた質量と一つ以上の方向に対する質量の変位を検知するセンサとを備えるMEMS装置として実装されてもよい。質量の変位に依存するセンサからの信号は、ゲームコントローラ630の加速度決定に用いられてもよい。そのような技術は、メモリ602に保存されプロセッサ601によって実行されるゲームプログラム604からの命令によって実現される。   Further, the controller 630 may include one or more inertial sensors 632 that can provide position and / or direction information to the processor 601 via inertial signals. The direction information may include angle information such as tilt, roll or yaw of the controller 630. By way of example, the inertial sensor 632 may include any number of accelerometers, gyroscopes or tilt sensors, or any combination thereof. In a preferred embodiment, the inertial sensor 632 includes a tilt sensor adapted to sense the direction of the game controller 630 relative to the tilt and roll axis, a first acceleration adapted to sense acceleration along the yaw axis. And a second accelerometer adapted to sense angular acceleration relative to the yaw axis. The accelerometer may be implemented, for example, as a MEMS device that includes a mass attached with one or more springs and a sensor that detects the displacement of the mass in one or more directions. A signal from the sensor that depends on the displacement of the mass may be used to determine the acceleration of the game controller 630. Such a technique is realized by instructions from the game program 604 stored in the memory 602 and executed by the processor 601.

例示として、慣性センサ632として適した加速度計は、例えば、ばねなどで、フレームに3〜4点で伸縮自在に接続された単一の質量であってもよい。ピッチ軸とロール軸は、ゲームコントローラ630に設けられたフレームと交差する面に存在する。フレーム(およびゲームコントローラ630)がピッチ軸、ロール軸の回りを回転するにつれて、質量が重力の影響下で変位し、ばねがピッチ角および/またはロール角に依存する態様で伸縮する。質量の変位が検知され、ピッチ量および/またはロール量に依存した信号に変換される。ヨー軸回りの角加速度またはヨー軸沿いの線形加速度は、ばねの伸縮または質量の動きの特徴的なパターンを生成し、それらのパターンは検知されて角加速度量または線形加速度量に応じた信号に変換される。そのような加速度計装置は、質量の動きおよびばねの伸縮力を追跡することによって、傾斜、ヨー軸回りのロール角加速度およびヨー軸沿いの線形加速度を計測できる。質量の位置および/またはそれに働く力を追跡する方法には多くの違った方法があり、それらの方法には、抵抗歪みゲージ、音響センサ、磁気センサ、ホール効果素子、圧電素子、容量センサなどが含まれる。   By way of example, an accelerometer suitable as the inertial sensor 632 may be a single mass that is telescopically connected to the frame at 3-4 points, for example, with a spring or the like. The pitch axis and the roll axis exist on a plane that intersects the frame provided in the game controller 630. As the frame (and game controller 630) rotates about the pitch and roll axes, the mass is displaced under the influence of gravity and the springs expand and contract in a manner that depends on the pitch and / or roll angle. The displacement of the mass is detected and converted into a signal depending on the pitch amount and / or the roll amount. Angular acceleration around the yaw axis or linear acceleration along the yaw axis generates characteristic patterns of spring expansion and contraction or mass movement, which are detected and signaled according to the amount of angular acceleration or linear acceleration. Converted. Such an accelerometer device can measure tilt, roll angular acceleration about the yaw axis, and linear acceleration along the yaw axis by tracking mass movement and spring stretching force. There are many different ways to track the position of the mass and / or the forces acting on it, including resistive strain gauges, acoustic sensors, magnetic sensors, Hall effect elements, piezoelectric elements, capacitive sensors, etc. included.

また、ゲームコントローラ630は、発光ダイオード(LED)などの光源634を一つ以上含んでもよい。光源634は、コントローラを他のコントローラと識別するために用いられる。例えば、一つ以上のLEDがあれば、LEDのパターンコードをぱっと光らせたり保持することで識別できる。例示として、ゲームコントローラ630上に5個のLEDが直線または2次元模様で設けることができる。LEDを直線状に配列することが好ましいが、他の方法として、四角形またはアーチ状に配置して、撮像装置623で得られたLEDパターン画像の分析時に、LED配列の画面の決定を容易にするようになされてもよい。さらに、LEDパターンコードは、ゲームプレイ中のゲームコントローラ630の位置決定にも使用できる。例えば、LEDは、コントローラの傾斜、ヨーおよびロールの特定を助けることができる。この検出パターンによって、例えば飛行機ゲームなどのゲームで、ユーザによりよい感情を提供できる。撮像装置623は、ゲームコントローラ630と光源634を含む像を撮影してもよい。そのような画像を分析すると、ゲームコントローラの位置および/または方向が決定できる。そのような分析は、メモリ602に保存されプロセッサ601で実行されるプログラムコード命令604によって実現されてもよい。撮像装置623による光源634の撮像を容易にするために、光源634は、ゲームコントローラ630の複数の異なる端部、例えば、前方と後方に配置してもよい(図6に影として示す)。そのような配置することによって、撮像装置623は、ユーザのゲームコントローラ630の保持の仕方に応じたゲームコントローラ630の種々の方向に対して、光源634の像を得ることができる。   In addition, the game controller 630 may include one or more light sources 634 such as light emitting diodes (LEDs). The light source 634 is used to distinguish the controller from other controllers. For example, if there are one or more LEDs, they can be identified by flashing or holding the LED pattern code. For example, five LEDs may be provided on the game controller 630 in a straight line or a two-dimensional pattern. Although it is preferable to arrange the LEDs in a straight line, as another method, the LEDs are arranged in a square shape or an arch shape to facilitate determination of the LED arrangement screen when analyzing the LED pattern image obtained by the imaging device 623. It may be made like this. Furthermore, the LED pattern code can also be used to determine the position of the game controller 630 during game play. For example, LEDs can help identify controller tilt, yaw and roll. With this detection pattern, it is possible to provide better emotions to the user in games such as airplane games. The imaging device 623 may capture an image including the game controller 630 and the light source 634. When such an image is analyzed, the position and / or orientation of the game controller can be determined. Such analysis may be implemented by program code instructions 604 stored in memory 602 and executed by processor 601. In order to facilitate imaging of the light source 634 by the imaging device 623, the light source 634 may be disposed at a plurality of different ends of the game controller 630, for example, forward and backward (shown as shadows in FIG. 6). With such an arrangement, the imaging device 623 can obtain an image of the light source 634 in various directions of the game controller 630 depending on how the user holds the game controller 630.

さらに、光源634は、例えば、パルスコード、振幅変調または周波数変調フォーマットでテレメトリ信号をプロセッサ601に提供してもよい。そのようなテレメトリ信号は、いずれのジョイスティックボタンが押されているか、および/またはどれ位強くボタンが押されているかを表してもよい。テレメトリ信号は、例えばパルス符号化、パルス幅変調、周波数変調または光強度(振幅)変調などによって、光信号に符号化されてもよい。プロセッサ601は、光信号からテレメトリ信号を復号化し、復号化されたテレメトリ信号に応じてゲームコマンドを実行してもよい。テレメトリ信号は、撮像装置623で得られたゲームコントローラ630の画像の分析から復号化されてもよい。または、装置600は、光源634からのテレメトリ信号受信専用の独立した光学センサを具備してもよい。コンピュータプログラムとのインタフェースにおける強度決定に併せてのLEDの使用は、例えば、2006年5月4日出願の米国特許出願第11/429,414号の”Computer Image and Audio Processing of Intensity and Input Devices for Interfacing With A Computer Program”(代理人整理番号SONYP052)、発明者Richard L. Marks et al.に開示されており、その開示内容は全体として、参照により本明細書に援用される。また、光源634を含む画像の分析は、テレメトリおよびゲームコントローラ630の位置および/または方向の決定にも用いることができる。そのような技術は、メモリ602に保存されプロセッサ601によって実行されるプログラム604の命令によって実現されてもよい。   Further, the light source 634 may provide a telemetry signal to the processor 601 in a pulse code, amplitude modulation, or frequency modulation format, for example. Such a telemetry signal may represent which joystick button is pressed and / or how hard the button is pressed. The telemetry signal may be encoded into an optical signal by, for example, pulse encoding, pulse width modulation, frequency modulation, or light intensity (amplitude) modulation. The processor 601 may decode the telemetry signal from the optical signal and execute the game command according to the decoded telemetry signal. The telemetry signal may be decoded from an analysis of the game controller 630 image obtained by the imaging device 623. Alternatively, the apparatus 600 may comprise an independent optical sensor dedicated to receiving telemetry signals from the light source 634. The use of LEDs in conjunction with intensity determination in an interface with a computer program is described, for example, in “Computer Image and Audio Processing of Intensity and Input Devices for Interfacing With” in US Patent Application No. 11 / 429,414, filed May 4, 2006. A Computer Program "(attorney docket number SONYP052), inventor Richard L. Marks et al., The disclosure of which is incorporated herein by reference in its entirety. The analysis of the image including the light source 634 can also be used to determine the position and / or orientation of telemetry and game controller 630. Such a technique may be realized by the instructions of the program 604 stored in the memory 602 and executed by the processor 601.

プロセッサ601は、撮像装置623で検出された光源634からの光信号、および/またはマイクロホン配列622によって検出された音響信号からの音源場所と音源特性情報と共に、慣性センサ632からの慣性信号を用いて、コントローラ630および/またはユーザの場所および/または方向に関する情報を推測してもよい。例えば、「音響レーダ」の音源場所およびその特性は、マイクロホン配列622と共に用いられて、ゲームコントローラの動きが(慣性センサ632および/または光源634を通して)独立に追跡されている間、移動音源を追跡する。音響レーダ選択において、較正済み聴取領域が実行時間中に選択され、較正済み聴取領域以外の音源から発生した音はフィルタされて除かれる。較正済み聴取領域は、撮像装置623の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。音響レーダの例は、2006年5月4日出願の米国特許出願第11/381,724号の”METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION”、発明者Xiadong Maoに詳細に開示されており、その開示内容は参照により本明細書に援用される。コントロール信号をプロセッサ601に供給するための種々の形態を種々組み合わせたものも、本発明の実施形態と併せて用いられてもよい。そのような技術は、メモリ602に保存されプロセッサ601で実行されるプログラムコード命令604によって実現されてもよく、また、任意に、実行時間中は較正済み聴取領域を選択し、較正済み聴取領域以外の音源から発生した音はフィルタをかけて除くための一つ以上のプロセッサを指揮する一以上の指令を含んでもよい。較正済み聴取領域は、撮像装置623の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。   The processor 601 uses the inertial signal from the inertial sensor 632 together with the optical signal from the light source 634 detected by the imaging device 623 and / or the sound source location and sound source characteristic information from the acoustic signal detected by the microphone array 622. , Information regarding the location and / or orientation of the controller 630 and / or the user may be inferred. For example, the “acoustic radar” sound source location and its characteristics may be used with the microphone array 622 to track the moving sound source while game controller movement is being tracked independently (through inertial sensor 632 and / or light source 634). To do. In acoustic radar selection, a calibrated listening area is selected during execution time, and sounds generated from sound sources other than the calibrated listening area are filtered out. The calibrated listening area may include a listening area corresponding to the volume at the focus or field of view of the imaging device 623. An example of an acoustic radar is disclosed in detail in US Patent Application No. 11 / 381,724 filed May 4, 2006, “METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION”, inventor Xiadong Mao. Is incorporated herein by reference. Various combinations of various forms for supplying control signals to the processor 601 may also be used in conjunction with embodiments of the present invention. Such techniques may be implemented by program code instructions 604 stored in memory 602 and executed by processor 601 and optionally select a calibrated listening area during execution time, other than the calibrated listening area. The sound generated from the sound source may include one or more instructions that direct one or more processors to be filtered out. The calibrated listening area may include a listening area corresponding to the volume at the focus or field of view of the imaging device 623.

プログラム604は任意に、マイクロホン配列622のマイクロホンM0〜MMから離散時間領域入力信号X(t)を生成し、聴取セクタを決定し、有限インパルス応答フィルタ係数を選択するセミブラインド(semi-blind)音源分離において聴取セクタを用いて、入力信号X(t)から異なる音源を分離する一つ以上のプロセッサを指揮する一以上の命令を含んでもよい。プログラム604には、基準マイクロホンMからの入力信号X(t)以外の選択入力信号X(t)に、一つ以上の非整数遅延(fractional delay)を適用する命令をさらに備えてもよい。マイクロホン配列からの離散時間領域出力信号y(t)の信号対雑音比を最適化するために、各非整数遅延が選択されてもよい。非整数遅延は、基準マイクロホンMからの信号が、配列の他のマイクロホンからの信号に対して最初であるように選択されてもよい。プログラム604は、非整数遅延Δを、y(t+Δ) = x(t+Δ)*b0 + x(t-1+Δ)*b1 + x(t-2+Δ)*b2 +…+ x(t-N+Δ)bNとなるようにマイクロホン配列の出力信号y(t)に導入する命令を含んでもよい。ここで、Δは0〜±1である。そのような技術の例は、2006年5月4日出願の米国特許出願第11/381,729号"ULTRA SMALL MICROPHONE ARRAY"、発明者Xiadong Maoに詳細に開示されており、その開示内容は参照により本明細書に援用される。 The program 604 optionally generates a discrete time domain input signal X m (t) from the microphones M0-MM of the microphone array 622, determines the listening sector, and selects a finite impulse response filter coefficient semi-blind. One or more instructions may be included that direct one or more processors to separate different sound sources from the input signal X m (t) using a listening sector in sound source separation. The program 604 may further include instructions for applying one or more fractional delays to a selected input signal X m (t) other than the input signal X 0 (t) from the reference microphone M 0. Good. Each non-integer delay may be selected to optimize the signal to noise ratio of the discrete time domain output signal y (t) from the microphone array. Fractional delays the signal from the reference microphone M 0 may be chosen to be the first to signals from other microphones of the array. The program 604 sets the non-integer delay Δ to y (t + Δ) = x (t + Δ) * b 0 + x (t−1 + Δ) * b 1 + x (t−2 + Δ) * b 2 An instruction to be introduced into the output signal y (t) of the microphone array so that +... + X (t−N + Δ) b N may be included. Here, Δ is 0 to ± 1. Examples of such techniques are disclosed in detail in US Patent Application No. 11 / 381,729 “ULTRA SMALL MICROPHONE ARRAY” filed May 4, 2006, inventor Xiadong Mao, the disclosure of which is hereby incorporated by reference. Incorporated herein by reference.

プログラム604は、実行されると、システム600に、音源を含んだ事前較正済み聴取領域を選択させる一つ以上の命令を含んでもよい。そのような命令によって、音源が最初の領域内にあるか、またはその領域の特定の側にあるか否かを装置が判断するようになされていてもよい。音源が初期設定領域内に存在しない場合、命令は、実行時に、初期設定領域の特定の側にある別の領域を選択してもよい。別の領域は、最適値に最も近い入力信号の減衰によって特徴付けられてもよい。これらの命令は、実行されると、マイクロホン配列622からの入力信号の減衰と最適値への減衰を計算してもよい。命令は、実行されると、装置600が、一つ以上の領域に対する入力信号の減衰値を決定し、減衰が最適値に最も近い領域を選択するようになされてもよい。そのような技術の例は、2006年5月4日出願の米国特許出願第11/381,725号の"METHOD AND APPARATUS FOR TARGETED SOUND DETECTION"、発明者Xiadong Maoに開示されており、その開示内容は参照により本明細書に援用される。   The program 604, when executed, may include one or more instructions that cause the system 600 to select a pre-calibrated listening area that includes a sound source. Such an instruction may cause the device to determine whether the sound source is in the initial region or on a particular side of the region. If the sound source is not in the default area, the instruction may select another area on a particular side of the default area when executed. Another region may be characterized by the attenuation of the input signal closest to the optimal value. When executed, these instructions may calculate the attenuation of the input signal from the microphone array 622 and the attenuation to an optimum value. The instructions may be executed such that when the device 600 is executed, the apparatus 600 determines an attenuation value of the input signal for one or more regions and selects the region where the attenuation is closest to the optimal value. An example of such technology is disclosed in US Patent Application No. 11 / 381,725 filed May 4, 2006, “METHOD AND APPARATUS FOR TARGETED SOUND DETECTION”, inventor Xiadong Mao, the disclosure of which is referred to Is incorporated herein by reference.

慣性センサ632からの信号は追跡情報入力の一部を提供し、撮像装置623による一つ以上の光源634の追跡から生成された信号は追跡情報入力の別の部分を提供する。例示として、またいかなる限定を行うことなく、そのような「混合モード」の信号は、フットボールタイプのビデオゲームで用いられ、ここでは、クォータバックが頭を左に動かすフェイントをかけた後ボールを右に投げる。具体的には、コントローラ630を保持したゲームプレイヤは、頭を左に向け、フットボールでするように、コントローラを右に振って投げる動作をしながら声を出す。「音響レーダ」プログラムコードと併せて、マイクロホン配列622はユーザの声を追跡できる。撮像装置623は、ユーザの頭の動きや、または、音やコントローラを必要としない他の命令を追跡できる。センサ632はゲームコントローラ(フットボールを表す)の動きを追跡してもよい。撮像装置623はまた、コントローラ630の光源634を追跡してもよい。ユーザは、ゲームコントローラ630の加速度がある量、および/またはある方向に達したとき、またはコントローラ630のボタンを押してトリガされるキーコマンドに基づいて、「ボール」を投げることができる。   The signal from inertial sensor 632 provides part of the tracking information input, and the signal generated from tracking one or more light sources 634 by imaging device 623 provides another part of the tracking information input. By way of example and without limitation, such a “mixed mode” signal is used in a football-type video game where the quarterback is applied to the right after the feint moving the head to the left. Throw into. Specifically, the game player holding the controller 630 makes a voice while turning his head to the right and throwing it like a football, with his head turned to the left. Along with the “acoustic radar” program code, the microphone array 622 can track the user's voice. The imaging device 623 can track the movement of the user's head or other commands that do not require sound or a controller. Sensor 632 may track the movement of the game controller (representing football). The imaging device 623 may also track the light source 634 of the controller 630. The user can throw a “ball” when the acceleration of the game controller 630 reaches a certain amount and / or in a certain direction, or based on a key command triggered by pressing a button on the controller 630.

本発明のある実施形態では、加速度計またはジャイロスコープなどからの慣性信号は、コントローラ630の位置決めに用いられてもよい。具体的には、加速度計からの加速度信号は、速度変化を決定するために一旦時間積分されてもよく、速度は位置変化を決定するために時間積分されてもよい。ある時刻における初期位置と速度が既知であれば、これらの値と速度および位置変化とを用いて絶対位置を決定できる。慣性センサを用いた位置決定は、撮像装置623や光源634を用いる方法よりも早く行えるが、慣性センサ632は「ドリフト」として知られるタイプの誤差が起こりやすい。これは、時間と共に累積される誤差によって、慣性信号から計算されるジョイスティックの位置(図6に影で示す)とゲームコントローラの実際の位置との間で不一致Dが生じうる現象である。本発明の実施形態では、様々な方法でそのような誤差を処理できる。   In some embodiments of the present invention, inertial signals such as from accelerometers or gyroscopes may be used to position controller 630. Specifically, the acceleration signal from the accelerometer may be temporally integrated once to determine the speed change, and the speed may be time integrated to determine the position change. If the initial position and speed at a certain time are known, the absolute position can be determined using these values, speed and position change. Although the position determination using the inertial sensor can be performed faster than the method using the imaging device 623 and the light source 634, the inertial sensor 632 is prone to a type of error known as “drift”. This is a phenomenon in which a mismatch D may occur between the position of the joystick (shown by a shadow in FIG. 6) calculated from the inertial signal and the actual position of the game controller due to errors accumulated over time. Embodiments of the present invention can handle such errors in various ways.

例えば、コントローラ630の初期位置を現在の計算位置と等しくなるように設定することにより、ドリフトを手動でキャンセルすることができる。ユーザは、コントローラ630の一つ以上のボタンを使って、初期位置を再設定する命令をトリガできる。代替的に、画像ベースのドリフトであれば、撮像装置623から得られた基準となる画像から決定される位置に現在位置を再設定することによりキャンセルすることができる。そのような画像ベースのドリフトに対する補償は、例えば、ユーザがゲームコントローラ630の一つ以上のボタンをトリガするときに、手動で行うことができる。または、画像ベースのドリフトに対する補償は、例えば、一定の間隔で、またはゲームプレイに応じて自動的に行える。そのような技術は、メモリ602に保存されプロセッサ601によって実行されるプログラムコード命令604によって実現される。   For example, the drift can be manually canceled by setting the initial position of the controller 630 to be equal to the current calculated position. The user can trigger an instruction to reset the initial position using one or more buttons on the controller 630. Alternatively, if it is an image-based drift, it can be canceled by resetting the current position to a position determined from a reference image obtained from the imaging device 623. Compensation for such image-based drift can be performed manually, for example, when the user triggers one or more buttons of game controller 630. Alternatively, compensation for image-based drift can be performed automatically, for example, at regular intervals or in response to game play. Such a technique is implemented by program code instructions 604 stored in memory 602 and executed by processor 601.

ある実施形態では、慣性センサ信号の誤りデータを補正することが望ましい。例えば、慣性センサ632からの信号をオーバーサンプリングし、オーバーサンプリングされた信号から移動平均(sliding average)を計算して、慣性センサ信号から誤りデータを取り除くことができる。ある状況では、信号をオーバーサンプリングし、高い値および/または低い値をデータポイントの一部のサブセットから除き、残りのデータポイントから移動平均を計算することが望ましい。また、慣性センサからの信号を調節して誤りデータから優位性を除去または軽減する他のデータサンプリング技術やデータ処理技術も使用できる。いずれの技術を選択するかは、信号の性質、信号に対しての計算、ゲームプレイの性質、またはこれらの複数の組み合わせに依存する。そのような技術は、メモリ602に保存されプロセッサ601によって実行されるプログラム604の命令によって実現される。   In some embodiments, it may be desirable to correct error data in the inertial sensor signal. For example, the signal from inertial sensor 632 can be oversampled and a sliding average can be calculated from the oversampled signal to remove error data from the inertial sensor signal. In certain situations, it may be desirable to oversample the signal, remove high and / or low values from some subset of data points, and calculate a moving average from the remaining data points. Also, other data sampling techniques and data processing techniques that adjust the signal from the inertial sensor to remove or reduce the superiority from the error data can be used. Which technique is selected depends on the nature of the signal, the computation on the signal, the nature of the game play, or a combination of these. Such a technique is realized by instructions of a program 604 stored in the memory 602 and executed by the processor 601.

プロセッサ601は、上述のように、データ606と、メモリ602に保存、検索されプロセッサモジュール601によって実行されるプログラム604のプログラムコード命令とに応じて、慣性信号データ606の分析を実行する。プログラム604のコード部分は、アセンブリ、C++、JAVA(登録商標)またはその他の多くの言語などの多くの異なるプログラム言語のいずれにも準拠してよい。プロセッサモジュール601は、プログラムコード604などのプログラムを実行するときに専用コンピュータとなる汎用コンピュータを形成する。ここでは、プログラムコード604はソフトウェアに組み込まれ、汎用コンピュータで実行されるように説明したが、当業者には、タスク管理方法は、別の方法として、特定用途向け集積回路(ASIC)やその他のハードウェア回路などのハードウェアを用いて実現されることは理解されるであろう。このように、本発明の実施形態は、全体であれ一部分であれ、ソフトウェア、ハードウェアおよびその両方の組み合わせで実現されることは理解されるべきである。   As described above, the processor 601 performs analysis of the inertia signal data 606 in accordance with the data 606 and the program code instructions of the program 604 stored and retrieved in the memory 602 and executed by the processor module 601. The code portion of program 604 may be compliant with any of many different programming languages such as assembly, C ++, JAVA, or many other languages. The processor module 601 forms a general-purpose computer that becomes a dedicated computer when executing a program such as the program code 604. Here, the program code 604 is described as being embedded in software and executed by a general-purpose computer. However, for those skilled in the art, a task management method is another method such as an application specific integrated circuit (ASIC) or other It will be understood that it is implemented using hardware such as a hardware circuit. Thus, it should be understood that embodiments of the present invention, whether in whole or in part, are implemented in software, hardware, and a combination of both.

ある実施形態では、とりわけ、プログラムコード604は、図5Bの方法510と図5Cの方法520、またはこれらの複数の組み合わせに共通な特長を持った方法を実現するプロセッサ読み取り可能な命令セットを備えてもよい。プログラムコード604は、通常、一つ以上のプロセッサを指揮する一つ以上の命令を備えていて、慣性センサ632からの信号を分析し、位置情報および/または方向情報を生成して、ビデオゲームプレイ中、その情報を活用する。   In some embodiments, among other things, the program code 604 comprises a processor readable instruction set that implements a method having features common to the method 510 of FIG. 5B and the method 520 of FIG. 5C, or combinations thereof. Also good. Program code 604 typically includes one or more instructions that direct one or more processors to analyze signals from inertial sensor 632 and generate position and / or direction information for video game play. Use the information inside.

プログラムコード604は、実行されると、撮像装置623に、前方の視野を監視し、視野内の一つ以上の光源634を特定し、光源634からの光の変化を検出させ、変化の検出に応じてプロセッサ601に対する入力指令をトリガさせる、一つ以上の命令を含んだプロセッサ実行可能指令を任意に備えてもよい。ゲームコントローラのアクションをトリガするために撮像装置と共にLEDを使用することは、2004年1月16日出願の米国特許出願第10/759,782号の"METHOD AND APPARATUS FOR LIGHT INPUT DEVICE"、発明者Richard L. Marksに開示されており、その開示内容は参照により本明細書に援用される。   When executed, the program code 604 causes the imaging device 623 to monitor the front field of view, identify one or more light sources 634 within the field of view, detect changes in light from the light sources 634, and detect changes. In response, a processor executable instruction including one or more instructions that trigger an input instruction to the processor 601 may be optionally provided. Using an LED with an imaging device to trigger the action of a game controller is described in US Patent Application No. 10 / 759,782, filed January 16, 2004, "METHOD AND APPARATUS FOR LIGHT INPUT DEVICE", inventor Richard L. Marks, the disclosure of which is hereby incorporated by reference.

プログラムコード604は、実行されると上述のように、ゲームシステムへの入力として、慣性センサからの信号と一つ以上の光源を追跡する撮像装置からの信号とを用いる一つ以上の命令を含むプロセッサ実行可能な命令を、任意に含んでもよい。プログラムコード604は、実行されると、慣性センサ632のドリフトを補償する一つ以上の命令を含むプロセッサ実行可能な命令を、任意に備えてもよい。   When executed, program code 604 includes one or more instructions that, as described above, use a signal from an inertial sensor and a signal from an imaging device that tracks one or more light sources as inputs to the game system. Processor-executable instructions may optionally be included. Program code 604 may optionally comprise processor-executable instructions that, when executed, include one or more instructions that compensate for inertial sensor 632 drift.

さらに、プログラムコード604は、実行されると、ゲーム環境に対するコントローラ操作のギアリングおよびマッピングを調整する一つ以上の命令を含むプロセッサ実行可能な命令を、任意に備えてもよい。そのような特徴によって、ユーザは、ゲームコントローラ630の操作のゲーム状態に対する「ギアリング(比率)」を変えることができる。例えば、ゲームコントローラ630を45°回転させると、ゲーム物体の45°回転に一致する。しかし、この1:1伝動比は、コントローラのX°回転(または傾斜、ヨー、「操作」)がゲーム物体のY°回転(または傾斜、ヨー、「操作」)に変わるように変更できる。伝動比は1:1、1:2、1:XまたはX:Yにできる。ここでX,Yは任意の値である。さらに、ゲームコントローラへの入力チャネルのマッピングも、時間をかけて、または即座に変更できる。変更は、ジェスチャの軌跡モデルの変更、位置、スケール、ジェスチャしきい値などの変更を含む。そのようなマッピングは、ユーザに操作上のダイナミックレンジを提供するために、プログラム化されてもよいし、ランダムであってもよいし、段階的(tiered)であってもよいし、互い違い(staggered)であってもよい。マッピング、ギアリングまたは伝動比の変更は、ゲームコントローラ630にあるユーザ変更ボタン(キーパッドなど)を介したゲームプレイ、ゲーム状態に応じて、または広くは入力チャネルに応じて、ゲームプログラム604によって調節される。入力チャネルは、ユーザ音、コントローラで生成される音、コントローラで生成される音の追跡、コントローラボタン状態、ビデオカメラ出力、および、加速度計データ、傾斜、ヨー、ロール、位置、加速度、およびユーザまたはユーザが操作する物体を追跡できる他の任意のセンサからのデータを含むコントローラ遠隔操作データを含むことができるが、これらに限定されない。   Further, the program code 604 may optionally comprise processor-executable instructions that, when executed, include one or more instructions that adjust the gearing and mapping of controller operations to the gaming environment. Such a feature allows the user to change the “gearing (ratio)” of the operation of the game controller 630 relative to the game state. For example, when the game controller 630 is rotated by 45 °, it matches the 45 ° rotation of the game object. However, the 1: 1 transmission ratio can be changed such that the controller's X ° rotation (or tilt, yaw, “operation”) changes to a Y ° rotation (or tilt, yaw, “operation”) of the game object. The transmission ratio can be 1: 1, 1: 2, 1: X or X: Y. Here, X and Y are arbitrary values. Furthermore, the mapping of input channels to the game controller can also change over time or instantly. The change includes a change of a gesture trajectory model, a change of a position, a scale, a gesture threshold, and the like. Such mapping may be programmed, random, tiered or staggered to provide operational dynamic range to the user. ). Changes in mapping, gearing or transmission ratio are adjusted by game program 604 depending on game play, game state via user change button (such as keypad) on game controller 630, or broadly depending on input channel Is done. Input channels include user sound, controller generated sound, controller generated sound tracking, controller button state, video camera output, and accelerometer data, tilt, yaw, roll, position, acceleration, and user or It can include, but is not limited to, controller remote control data including data from any other sensor that can track an object that the user operates.

ある実施形態では、ゲームプログラム604は、所定の時間依存態様において、あるスキームからの経過時間によるマッピングまたはギアリング、または別のスキームへの伝動比を、それぞれ変更することができる。ギアリングとマッピング変更は、種々の方法でゲーム環境に応用できる。一例では、ビデオゲームキャラクタは、キャラクタが健康なときには一つのギアリングスキーム下でキャラクタを制御し、キャラクタの健康が損なわれるにつれて、キャラクタにコマンドをジェスチャで伝えるためのコントローラの動きに悪影響を及ぼすように、システムがコントローラコマンドを適合させることもできる。方向感覚を失ったビデオゲームキャラクタには、ユーザとしての入力チャネルマッピングを変更しなければならず、例えば、新しいマッピングの下でキャラクタのコントロールを取り戻すように入力調節するよう要求してもよい。入力チャネルのゲームコマンドへの変換を変更するマッピングスキームは、ゲームプレイ中に変わってもよい。この変換は、ゲーム状態に応じて、または入力チャネルの一つ以上の要素の下で発行された修正コマンドに応じて、様々な方法で発生する。ギアリングおよびマッピングは、入力チャネルの一つ以上の要素の構成および/または処理に影響を及ぼすように構成されてもよい。   In some embodiments, the game program 604 can change the mapping or gearing according to elapsed time from one scheme, or the transmission ratio to another scheme, respectively, in a predetermined time-dependent manner. Gearing and mapping changes can be applied to the game environment in various ways. In one example, the video game character controls the character under a single gearing scheme when the character is healthy, and as the character's health is compromised, the video game character may adversely affect the controller's movement to communicate commands to the character. In addition, the system can adapt the controller command. Video game characters who have lost their sense of direction must change their input channel mapping as a user and may require, for example, input adjustments to regain control of the character under the new mapping. The mapping scheme that changes the conversion of input channels to game commands may change during game play. This conversion occurs in various ways depending on the game state or in response to a modification command issued under one or more elements of the input channel. Gearing and mapping may be configured to affect the configuration and / or processing of one or more elements of the input channel.

さらに、例えばスピーカ、ブザー、ホーンまたはパイプなどのサウンドエミッタ636がジョイスティックコントローラ630に取り付けられてもよい。ある実施形態では、サウンドエミッタはジョイスティックコントローラ630の「本体」に脱着可能に取り付けられてもよい。プログラムコード604によってマイクロホン配列622で検出した音の場所が特定され特性が明らかになる「音響レーダ」の実施例では、サウンドエミッタ636が、マイクロホン配列622によって検出可能でありプログラムコード604で用いられてゲームコントローラ630の位置を追跡する音響信号を提供してもよい。サウンドエミッタ636はさらに、ゲームコントローラ630からプロセッサ601へ、追加の「入力チャネル」を提供するように用いられてもよい。サウンドエミッタ636からの音響信号は、周期的にパルス化され、音響レーダが場所を追跡するためのビーコンを提供してもよい。音響信号(パルス化されたものまたはその他)は、可聴であっても超音波であってもよい。音響レーダはユーザのゲームコントローラ630の操作を追跡し、この場合、そのような操作の追跡には、ゲームコントローラ630の位置および方向に関する情報(例えば、ピッチ角、ロール角、ヨー角など)が含まれてもよい。パルスは、当業者が適用可能な適当なデューティサイクルでトリガされてもよく、また、システムから調整されたコントロール信号に基づいて開始されてもよい。システム600は、(プログラムコード604を介して)プロセッサ601に接続された複数のジョイスティックコントローラ630の間でコントロール信号の送信を調整し、複数のコントローラの追跡が可能なことを保証してもよい。   In addition, a sound emitter 636 such as a speaker, buzzer, horn or pipe may be attached to the joystick controller 630. In some embodiments, the sound emitter may be removably attached to the “body” of the joystick controller 630. In an “acoustic radar” embodiment where the location of the sound detected by the microphone array 622 is identified and characterized by the program code 604, the sound emitter 636 can be detected by the microphone array 622 and used in the program code 604. An acoustic signal that tracks the position of the game controller 630 may be provided. Sound emitter 636 may also be used to provide an additional “input channel” from game controller 630 to processor 601. The acoustic signal from the sound emitter 636 may be periodically pulsed to provide a beacon for the acoustic radar to track the location. The acoustic signal (pulsed or otherwise) may be audible or ultrasonic. The acoustic radar tracks the user's operation of the game controller 630, where such operation tracking includes information about the position and direction of the game controller 630 (eg, pitch angle, roll angle, yaw angle, etc.). May be. The pulse may be triggered at an appropriate duty cycle applicable by those skilled in the art and may be initiated based on a control signal adjusted from the system. System 600 may coordinate the transmission of control signals between multiple joystick controllers 630 connected to processor 601 (via program code 604) to ensure that multiple controllers can be tracked.

ある実施形態では、ミキサ605は、アナログジョイスティックコントロール631やボタン633など、ゲームコントローラ630の既知のコントロールから受信した入力を使って、ゲームプログラム604の実行を制御するための入力を取得するように構成されてもよい。具体的には、ミキサ605の受信は、コントローラ630からのコントローラ入力情報の受信であってよい。コントローラ入力情報は、a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含んでもよい。ミキサ605はさらに、コントローラ630が使用されている環境から追加入力情報を受け取ってもよい。例示として、またいかなる限定を行うことなく、追加入力情報には、i)環境中の撮像装置(例えば、撮像装置623)から得られる情報、および/または、ii)ゲームコントローラまたはユーザの少なくとも一つに関連付けられた慣性センサ(例えば、慣性センサ632)からの情報、および/または、iii)環境中の音響トランスデューサから得られる音響情報(例えば、マイクロホン配列622からの音響情報、場合によってはサウンドエミッタ636で生成された音響信号とともに)、の一つ以上を含んでもよい。   In some embodiments, the mixer 605 is configured to obtain inputs for controlling execution of the game program 604 using inputs received from known controls of the game controller 630, such as analog joystick controls 631 and buttons 633. May be. Specifically, the reception of the mixer 605 may be reception of controller input information from the controller 630. The controller input information includes: a) information specifying the current position of the control stick that can be moved by the user of the game controller in relation to the stop position of the control stick; or b) whether the switch included in the game controller is operating. It may include at least one of information specifying whether or not. The mixer 605 may further receive additional input information from the environment in which the controller 630 is used. By way of example and without limitation, additional input information may include i) information obtained from an imaging device in the environment (eg, imaging device 623), and / or ii) at least one of a game controller or user. And / or iii) acoustic information obtained from acoustic transducers in the environment (eg, acoustic information from microphone array 622, and possibly sound emitter 636). In addition to the acoustic signal generated in step 1).

コントローラ入力情報にはさらに、圧力感知式ボタンが作動中であるか否かを特定する情報が含まれてもよい。
ミキサ605は、コントローラ入力情報と追加入力情報とを処理して組合せ入力を求めることによって、ゲームプログラムの実行を制御するための組合せ入力を求めてもよい。
The controller input information may further include information identifying whether or not the pressure sensitive button is activated.
The mixer 605 may obtain a combination input for controlling execution of the game program by processing the controller input information and the additional input information to obtain a combination input.

組合せ入力には、ゲームプログラム604実行中のそれぞれ個々の機能を制御する個々の融合された入力が含まれてもよい。個々の融合された入力の少なくとも一部は、特定の個々の機能に関連したコントローラ入力情報と特定の個々の機能に関連した追加入力情報とを融合することによって、求めることができる。組合せ入力には、ゲームプログラム604実行中の機能を制御する融合された入力を含む。融合された入力の少なくとも一部は、機能に関連したコントローラ入力情報と機能に関連した追加入力情報とを融合することによって、求めることができる。そのような場合、コントローラ入力情報を表す値と追加入力情報を表す値とを平均することで、融合を実行してもよい。例示として、コントローラ入力情報の値は、追加入力情報の値と1:1の割合で平均されてもよい。代替的に、コントローラ入力情報と追加入力情報にはそれぞれ異なる重みが割り当てられ、割り当てられた重みに応じてコントローラ入力情報の値と追加入力情報の値との加重平均として、平均を求めてもよい。   The combination inputs may include individual fused inputs that control each individual function during execution of the game program 604. At least some of the individual fused inputs can be determined by fusing controller input information associated with a particular individual function with additional input information associated with a particular individual function. The combination input includes a fused input that controls the function during execution of the game program 604. At least a portion of the fused inputs can be determined by fusing controller input information associated with the function with additional input information associated with the function. In such a case, the fusion may be performed by averaging the value representing the controller input information and the value representing the additional input information. As an example, the value of the controller input information may be averaged at a ratio of 1: 1 with the value of the additional input information. Alternatively, different weights may be assigned to the controller input information and the additional input information, and an average may be obtained as a weighted average of the controller input information value and the additional input information value according to the assigned weight. .

いくつかの実施形態では、コントローラ入力情報または追加入力情報の最初のものの値を、コントローラ入力情報または追加入力情報の第2のものの少なくとも一つに応じて起動される依然としてアクティブな機能に対する制御を修正するためのゲームプログラムに対する修正入力として、利用することができる。追加入力情報には、慣性センサ632の作動によって得られる慣性センサ情報、および/またはユーザの移動可能な物体の方向を表す方向情報が含まれてもよい。代替的に、追加入力情報には、ユーザの移動可能な物体の位置または方向の少なくとも一つを示す情報が含まれてもよい。本明細書において、ユーザの移動可能な物体とは、コントローラ630、またはコントローラ630本体に取り付けられた物を指してもよい。追加入力情報は、ユーザの移動可能な物体の方向を示す情報を含んでいてもよい。例示として、そのような方向情報には、ピッチ、ヨーまたはロールのうち少なくとも一つを示す情報が含まれてもよい。   In some embodiments, the value of the first of the controller input information or additional input information is modified to control the still active function activated in response to at least one of the controller input information or the second of the additional input information It can be used as a correction input for the game program to be performed. The additional input information may include inertial sensor information obtained by actuation of the inertial sensor 632 and / or direction information representing the direction of the movable object of the user. Alternatively, the additional input information may include information indicating at least one of the position or direction of the movable object of the user. In the present specification, the movable object of the user may refer to the controller 630 or an object attached to the controller 630 main body. The additional input information may include information indicating the direction of the movable object of the user. For example, such direction information may include information indicating at least one of pitch, yaw, and roll.

いくつかの実施形態では、コントロールスティック(例えばアナログスティック631の一つ)の位置を表すコントローラ入力情報の値と、ユーザの移動可能な物体の方向を表す追加入力情報の値とを融合することによって、組合せ入力を求めてもよい。上述のように、ユーザの移動可能な物体は、ゲームコントローラ630に取り付けられた物体、および/またはゲームコントローラ630であってもよい。ピッチを正の値(上昇)へと増加させつつコントロールスティックを後方に動かすとき、組合せ入力が増大されたピッチアップ入力を反映してもよい。同様に、ピッチを負の値(下降)へと減少させつつコントロールスティックを前方に動かすとき、組合せ入力が増大されたピッチダウン入力を反映してもよい   In some embodiments, by fusing the value of controller input information representing the position of a control stick (eg, one of the analog sticks 631) with the value of additional input information representing the direction of the user's movable object. The combination input may be obtained. As described above, the user's movable object may be an object attached to the game controller 630 and / or the game controller 630. When the control stick is moved backward while increasing the pitch to a positive value (rising), the combined input may reflect the increased pitch up input. Similarly, when the control stick is moved forward while decreasing the pitch to a negative value (down), the combined input may reflect the increased pitch down input.

大まかな制御情報としてコントロールスティックの位置を表すコントローラ入力情報の値を割り当て、微細な制御情報としてユーザが移動可能な物体の方向を表す追加入力情報の値を割り当てることによって、組合せ入力を求めてもよい。代替的に、大まかな制御情報としてゲームコントローラのスイッチが作動中であるか否かを特定するコントローラ入力情報の値を割り当て、微細な制御情報としてユーザが移動可能な物体の方向を表す追加入力情報の値を割り当てることによって、組合せ入力を求めてもよい。さらに、大まかな制御情報としてユーザが移動可能な物体の方向を表す追加入力情報の値を割り当て、微細な制御情報としてコントロールスティックの位置を表すコントローラ入力情報の値を割り当てることによって、組合せ入力を求めてもよい。さらに、微細な制御情報としてゲームコントローラのスイッチが作動中であるか否かを特定するコントローラ入力情報の値を割り当て、大まかな制御情報としてユーザが移動可能な物体の方向を表す追加入力情報の値を割り当てることによって、組合せ入力を求めてもよい。これらの場合のいずれか、またはすべての場合において、組合せ入力は、微細な制御情報に応じて比較的わずかな量だけ調節された大まかな制御情報の値を表してもよい。   By assigning a value of controller input information that represents the position of the control stick as rough control information, and assigning a value of additional input information that represents the direction of an object that the user can move as fine control information, a combination input can be obtained. Good. Alternatively, controller input information that specifies whether or not the switch of the game controller is operating is assigned as rough control information, and additional input information that represents the direction of an object that the user can move as fine control information The combination input may be obtained by assigning a value of. Further, a combination input is obtained by assigning a value of additional input information indicating the direction of an object movable by the user as rough control information and assigning a value of controller input information indicating the position of the control stick as fine control information. May be. Furthermore, a value of controller input information that specifies whether or not the switch of the game controller is operating is assigned as fine control information, and a value of additional input information that represents the direction of the object that the user can move as rough control information A combination input may be obtained by assigning. In any or all of these cases, the combined input may represent a rough control information value adjusted by a relatively small amount in response to fine control information.

いくつかの実施形態では、コントローラ入力情報によって表される値と追加入力情報によって表される値とを加算的に組み合わることによって組合せ入力が求められ、その結果、組合せ入力が、コントローラ入力情報または追加入力情報の値のいずれか単独の値よりも小さな値を持つ信号を提供するようにしてもよい。または、組合せ入力が、コントローラ入力情報または追加入力情報の値のいずれか単独の値よりも時間変化がよりゆるやかな平滑化された値を持つ信号をゲームプログラムに対して提供するようにしてもよい。組合せ入力が、増大した信号内容を有する高解像度信号をゲームプログラムに対して提供するようにしてもよい。高解像度信号は、コントローラ入力情報または追加入力情報の値のいずれか単独の値よりも急速な時間変化にさらされてもよい。
本発明の実施形態をビデオゲームコントローラ630に関連する例として記述したが、システム600を含む本発明の実施形態は、慣性センシング能力を有し、かつ無線であれそれ以外の方法であれ慣性センサ信号送信能力を有するユーザにより操作される本体、成型品、ノブ、または構造物などのいずれにも使用することができる。
In some embodiments, the combination input is determined by additively combining the value represented by the controller input information and the value represented by the additional input information so that the combination input is either controller input information or A signal having a value smaller than any one of the values of the additional input information may be provided. Alternatively, the combination input may provide the game program with a signal having a smoothed value with a gentler time change than the single value of either the controller input information or the additional input information. . The combination input may provide a high resolution signal with increased signal content to the game program. The high resolution signal may be subjected to more rapid time changes than either the controller input information or the value of the additional input information alone.
Although embodiments of the present invention have been described as examples associated with a video game controller 630, embodiments of the present invention, including system 600, have inertial sensing capabilities, and inertial sensor signals, whether wireless or otherwise. It can be used for any of a main body, a molded product, a knob, or a structure operated by a user having transmission capability.

例示として、本発明の実施形態は、並列処理システムに実装することができる。このような並列処理システムは、通常、別々のプロセッサを用いて並列にプログラムの一部を実行するように構成される複数のプロセッサを備える。例示として、また限定を行うことなく、図7は本発明の実施形態によるあるタイプのセルプロセッサ700を示す。セルプロセッサ700は、図6のプロセッサ601、または図5Aのプロセッサ502として使用することができる。図7の例では、セルプロセッサ700は、メインメモリ702、パワープロセッサ要素(power processor element:PPE)704、および多数の相乗的プロセッサ要素(synergistic processor element:SPE)706を備える。図7の例では、セルプロセッサ700は、1個のPPE704と8個のSPE706とを備える。このような構成では、7個のSPE706が並列処理に用いられ、1個は他の7個の一つが故障したときのバックアップとして確保されている。代替的に、セルプロセッサは、複数のPPEからなる複数のグループ(PPEグループ)と、複数のSPEからなる複数のグループ(SPEグループ)とを備えてもよく、そのような場合、1グループ内の各ユニットでハードウェアリソースが共有される。しかしながら、SPEとPPEは、ソフトウェアにとって独立要素であるように見える必要がある。このように、本発明の実施形態は、図7に示される構成での使用に限定されるものではない。   By way of illustration, embodiments of the invention can be implemented in a parallel processing system. Such parallel processing systems typically include a plurality of processors configured to execute portions of a program in parallel using separate processors. By way of example and without limitation, FIG. 7 illustrates one type of cell processor 700 according to an embodiment of the present invention. The cell processor 700 can be used as the processor 601 in FIG. 6 or the processor 502 in FIG. 5A. In the example of FIG. 7, the cell processor 700 includes a main memory 702, a power processor element (PPE) 704, and a number of synergistic processor elements (SPE) 706. In the example of FIG. 7, the cell processor 700 includes one PPE 704 and eight SPEs 706. In such a configuration, seven SPEs 706 are used for parallel processing, and one is reserved as a backup when one of the other seven fails. Alternatively, the cell processor may include a plurality of groups consisting of a plurality of PPEs (PPE groups) and a plurality of groups consisting of a plurality of SPEs (SPE groups). Each unit shares hardware resources. However, SPE and PPE need to appear to be independent elements to the software. Thus, the embodiment of the present invention is not limited to use in the configuration shown in FIG.

メインメモリ702は、通常、汎用の不揮発性記憶装置に加えて、システム構成、データ同期転送、メモリーマップドI/O、およびI/Oサブシステムなどの機能に用いられる専用のハードウェアレジスタまたはアレイも備える。本発明の実施形態では、ビデオゲームプログラム703がメインメモリ702内に常駐してもよい。ビデオプログラム703は、図4、図5A、図5Bおよび図5Cについて上述したような、またはこれらの組み合わせで表わされる慣性分析部、画像分析部、音響分析部、およびミキサを備えてもよい。プログラム703は、SPEおよび/またはPPEで実行される複数の信号処理タスクに分割されてもよい。   Main memory 702 is typically a dedicated hardware register or array used for functions such as system configuration, data synchronous transfer, memory mapped I / O, and I / O subsystems in addition to general purpose non-volatile storage. Also equipped. In an embodiment of the present invention, the video game program 703 may reside in the main memory 702. Video program 703 may comprise an inertial analysis unit, an image analysis unit, an acoustic analysis unit, and a mixer as described above for FIGS. 4, 5A, 5B and 5C, or a combination thereof. The program 703 may be divided into a plurality of signal processing tasks executed at the SPE and / or PPE.

例示として、PPE704は、関連するキャッシュL1およびL2を持った64ビットのパワーPCプロセッサユニット(PPU)であってもよい。PPE704は、システム管理リソース(例えば、メモリ保護テーブルなど)にアクセス可能な汎用処理装置である。ハードウェアリソースは、PPEに見られるように実アドレス空間に明示的にマップされてもよい。したがって、PPEは適当な実効アドレス値を用いて、直接これらのリソースのいずれにでもアドレス指定できる。PPE704の主な機能は、セルプロセッサ700のSPE706に対するタスク管理とタスク割り当てである。   By way of example, PPE 704 may be a 64-bit power PC processor unit (PPU) with associated caches L1 and L2. The PPE 704 is a general-purpose processing device that can access system management resources (for example, a memory protection table). Hardware resources may be explicitly mapped to the real address space as seen by the PPE. Therefore, the PPE can address any of these resources directly using the appropriate effective address value. The main functions of the PPE 704 are task management and task assignment for the SPE 706 of the cell processor 700.

図7では1個のPPEだけが示されているが、セルブロードバンドエンジンアーキテクチャ(CBEA)などのセルプロセッサ実装では、セルプロセッサ700は、複数のPPEが存在するPPEグループに系統だてられた複数のPPEを有してもよい。これらのPPEグループはメインメモリ702へのアクセスを共有してもよい。さらに、セルプロセッサ700は二つ以上のSPEを備えてもよい。SPEグループもメインメモリ702へのアクセスを共有してもよい。このような構成も本発明の範囲内である。   In FIG. 7, only one PPE is shown, but in a cell processor implementation such as Cell Broadband Engine Architecture (CBEA), the cell processor 700 is divided into a plurality of PPE groups organized into a plurality of PPE groups. You may have PPE. These PPE groups may share access to the main memory 702. Further, the cell processor 700 may include two or more SPEs. SPE groups may also share access to main memory 702. Such a configuration is also within the scope of the present invention.

SPE706のそれぞれは、SPUと独自のローカル記憶領域LSとを含む。ローカル記憶領域LSは、メモリ記憶内の一つ以上の分離領域を備えており、それぞれの領域は専用のSPUと関連付けられている。各SPUは、独自の関連付けられた記憶領域内からの命令(データロードとデータ保存操作とを含む)だけを実行するように構成されてもよい。そのような構成では、ローカル記憶領域LSとシステム700のそれ以外の間とのデータ転送は、メモリフローコントローラ(MFC)からダイレクトメモリアクセス(DMA)命令を出すことによって行われ、(個々のSPEの)ローカル記憶領域との間でデータ転送される。なんらシステム管理機能を果たさないSPUは、PPE704よりは簡単な構造のコンピュータ装置である。SPUは、一般にSIMD(single instruction, multiple data)機能を有し、通常はデータ処理を行い、割り当てられたタスクを行うために(PPEにより設定されたアクセス特性にしたがって)要求されたデータ転送を開始する。SPUの目的は、より高いコンピュータ装置密度を要求するアプリケーションを可能として、提供された命令セットを有効に利用できるようにすることである。PPE704で管理されるシステムにおけるかなり多くのSPEは、広範囲のアプリケーションにおいて費用効果の高い処理を可能にする。   Each SPE 706 includes an SPU and a unique local storage area LS. The local storage area LS includes one or more separation areas in the memory storage, and each area is associated with a dedicated SPU. Each SPU may be configured to execute only instructions (including data load and data save operations) from within its own associated storage area. In such a configuration, data transfer between the local storage area LS and the rest of the system 700 is performed by issuing a direct memory access (DMA) instruction from the memory flow controller (MFC) (for each individual SPE). ) Data is transferred to and from the local storage area. The SPU that does not perform any system management function is a computer device having a simpler structure than the PPE 704. SPUs typically have SIMD (single instruction, multiple data) functions, usually perform data processing and initiate the requested data transfer (according to the access characteristics set by the PPE) to perform the assigned task To do. The purpose of the SPU is to enable applications that require higher computer device densities so that the provided instruction set can be used effectively. A significant number of SPEs in systems managed by PPE 704 allow for cost-effective processing in a wide range of applications.

各SPE706は、メモリ保護情報とアクセス許可情報を保持し処理できる関連メモリ管理ユニットを備えた専用のメモリフローコントローラ(MFC)を備えている。MFCは、セルプロセッサのメイン記憶とSPEのローカル記憶間でのデータ転送、保護および同期化のための主要な方法を提供する。MFC命令は実行される転送を記述する。データ転送命令は、MFCダイレクトメモリアクセス(DMA)命令(またはMFCDMA命令)と呼ばれることがある。   Each SPE 706 includes a dedicated memory flow controller (MFC) with an associated memory management unit that can hold and process memory protection information and access permission information. The MFC provides the main method for data transfer, protection and synchronization between the main storage of the cell processor and the local storage of the SPE. The MFC instruction describes the transfer to be performed. Data transfer instructions may be referred to as MFC direct memory access (DMA) instructions (or MFCDMA instructions).

各MFCは、同時に複数のDMA転送をサポートし、複数のMFC命令を維持、処理してもよい。各MFCDMAデータ転送命令要求は、ローカルストレージアドレス(LSA)と有効アドレス(EA)の両方を伴ってもよい。ローカルストレージアドレスは、関連するSPEのローカルストレージアドレスだけに直接アドレス指定できる。実効アドレスは、例えば、実アドレス空間に名前を変えられれば、すべてのSPEローカルストレージ領域を含むメイン記憶を参照できるなどの、もっと一般的なアプリケーションを備えてもよい。   Each MFC may support multiple DMA transfers simultaneously and maintain and process multiple MFC instructions. Each MFCDMA data transfer instruction request may be accompanied by both a local storage address (LSA) and an effective address (EA). A local storage address can be addressed directly only to the local storage address of the associated SPE. The effective address may comprise a more general application, for example, if it can be renamed to the real address space, it can refer to the main memory including all SPE local storage areas.

SPE706同士の間、および/またはSPE706とPPE704との間の通信を容易にするために、SPE706とPPE704は、シグナリングイベントに関する信号通知レジスタを備えてもよい。PPE704とSPE706は、PPE704がSPE706にメッセージを送信するルータのように働くスター構成(topology)によって接続されてもよい。代替的に、各SPE706とPPE704は、メールボックスと呼ばれる一方向信号通知レジスタを有してもよい。メールボックスは、SPE706によって使用されOSの同期操作を主催する。   To facilitate communication between SPEs 706 and / or between SPE 706 and PPE 704, SPE 706 and PPE 704 may include signal notification registers for signaling events. PPE 704 and SPE 706 may be connected by a star topology that acts like a router where PPE 704 sends messages to SPE 706. Alternatively, each SPE 706 and PPE 704 may have a one-way signal notification register called a mailbox. The mailbox is used by the SPE 706 to host OS synchronization operations.

セルプロセッサ700は、マイクロホン配列712、任意の撮像装置713およびゲームコントローラ730などの周辺装置とインタフェースできる入出力(I/O)機能を備えてもよい。ゲームコントローラユニットは慣性センサ732と光源734を備えてもよい。さらに、要素相互接続バス710は、上記に挙げた種々の部品を接続できる。各SPEおよびPPEは、バスインタフェースユニット(BIU)を介してバス710にアクセスできる。セルプロセッサ700は、通常プロセッサに見られる二つのコントローラと、バス710とメインメモリ702の間のデータ流れを制御するメモリインタフェースコントローラ(MIC)と、I/O708とバス710の間のデータ流れを制御するバスインタフェースコントローラ(BIC)とを備えてもよい。MIC、BIC,BIUおよびバス710に対する要件は、実装が異なると大きく変わるが、当業者はそれらの機能および実装回路については精通しているだろう。   The cell processor 700 may include an input / output (I / O) function that can interface with peripheral devices such as a microphone array 712, an optional imaging device 713, and a game controller 730. The game controller unit may include an inertial sensor 732 and a light source 734. Furthermore, the element interconnection bus 710 can connect the various parts listed above. Each SPE and PPE can access the bus 710 via a bus interface unit (BIU). The cell processor 700 controls the data flow between the I / O 708 and the bus 710, the two controllers normally found in the processor, the memory interface controller (MIC) that controls the data flow between the bus 710 and the main memory 702. A bus interface controller (BIC). Although the requirements for MIC, BIC, BIU and bus 710 vary greatly from implementation to implementation, those skilled in the art will be familiar with their functionality and implementation circuitry.

セルプロセッサ700は、内部割り込みコントローラ(IIC)を備えてもよい。IIC装置は、PPEに提示される割り込みの優先権を管理する。IICによって、セルプロセッサ700の他の要素からの割り込みを、メインシステムの割り込みコントローラを用いずに処理できる。IICは第2レベルのコントローラと考えることもできる。メインシステムの割り込みコントローラは、セルプロセッサの外部で発生した割り込みを処理してもよい。   The cell processor 700 may include an internal interrupt controller (IIC). The IIC device manages the priority of interrupts presented to the PPE. The IIC can handle interrupts from other elements of the cell processor 700 without using the main system interrupt controller. The IIC can also be thought of as a second level controller. The interrupt controller of the main system may process an interrupt generated outside the cell processor.

本発明の実施形態では、上述の非整数遅延などの計算は、PPE704および/または一つ以上のSPE706を用いて並列に実行されてもよい。各非整数遅延計算は、使用可能な異なるSPE706が別々に請け負う一つ以上の別々のタスクとして実行されてもよい。   In embodiments of the invention, computations such as the non-integer delays described above may be performed in parallel using PPE 704 and / or one or more SPEs 706. Each non-integer delay calculation may be performed as one or more separate tasks undertaken by different available SPEs 706 separately.

上記は、本発明の好適な実施形態に関する完全な記述であるが、種々の変形、変更および等価物を用いることが可能である。したがって、本発明の技術範囲は、上記の内容を参照して決定されるべきではなく、その代わりに、添付の特許請求の範囲およびそれらの等価物の全範囲と併せて決定されるべきである。本明細書で説明した好適なまたはそれ以外のすべての特徴は、本明細書に記載された他の好適なまたはそれ以外のいかなる特徴とも組み合わせることができる。特許請求の範囲においては、不定冠詞“A”または“An”は、特にそうでないと明確に述べられた場合を除いて、冠詞に続く品目の一つ以上の数量を指す。添付の特許請求の範囲は、”means for”の句を使って明確にそのような限定が行われない限り、ミーンズプラスファンクションの限定が含まれると解釈されるべきではない。   While the above is a complete description of the preferred embodiment of the present invention, it is possible to use various modifications, changes and equivalents. Accordingly, the scope of the invention should not be determined with reference to the above content, but instead should be determined in conjunction with the appended claims and their full scope of equivalents. . All suitable or otherwise described features herein may be combined with any other suitable or otherwise described features herein. In the claims, the indefinite article "A" or "An" refers to one or more quantities of an item that follows the article, unless expressly stated otherwise. The appended claims should not be construed to include means plus function limitations, unless such limitations are expressly made using the phrase “means for”.

優先権の主張
本出願は、2006年5月4日出願の”ULTARA SMALL MICROPHONE ARRAY”、米国特許出願第11/381,729号、発明者Xiao Dong Mao;2006年5月4日出願の”ECHO AND NOISE CANCELLATION”、米国特許出願第11/381,728号、発明者Xiao Dong Mao;2006年5月4日出願の”METHOD AND APPARATUS FOR TARGETED SOUND DETECTION“、発明者Xiao Dong Mao;2006年5月4日出願の”NOISE REMOVAL FOR ELECTRONIC DEVICE WITH FAR FIELD MICROPHONE CONSOLE”、米国特許出願第11/381,727号、発明者Xiao Dong Mao;2006年5月4日出願の”METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION”、米国特許出願第11/381,724号、発明者Xiao Dong Mao;および2006年5月4日出願の”SELECTIVE SOUND SOURCE LISTENING IN CONJUNCTION WITH COMPUTER INTERACIVE PROCESSING”、米国特許出願第11/381,721号、発明者Xiao Dong Maoに対して優先権を主張し、その全開示内容が参照により本明細書に援用される。
This application is filed as “ULTARA SMALL MICROPHONE ARRAY” filed May 4, 2006, US Patent Application No. 11 / 381,729, inventor Xiao Dong Mao; “ECHO AND NOISE” filed May 4, 2006 CANCELLATION ”, US patent application No. 11 / 381,728, inventor Xiao Dong Mao; filed on May 4, 2006“ METHOD AND APPARATUS FOR TARGETED SOUND DETECTION ”, inventor Xiao Dong Mao; filed on May 4, 2006 “NOISE REMOVAL FOR ELECTRONIC DEVICE WITH FAR FIELD MICROPHONE CONSOLE”, US patent application No. 11 / 381,727, inventor Xiao Dong Mao; “METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION” filed May 4, 2006, US patent Application No. 11 / 381,724, inventor Xiao Dong Mao; and “SELECTIVE SOUND SOURCE LISTENING IN CONJUNCTION WITH COMPUTER INTERACIVE PROCESSING”, filed May 4, 2006, US patent application No. 11 / 381,721, inventor Xiao Dong Mao Claiming priority over this, the entire disclosure of which is incorporated herein by reference. It is.

本出願は、2006年5月4日出願の”METHODS AND APPARATUS FOR ADJUSTING A LISTENING AREA FOR CAPTURING SOUNDS”、同時係属米国特許出願第11/418,988号、発明者Xiao Dong Mao;2006年5月4日出願の”METHODS AND APPARATUSES FOR CAPTURING AN AUDIO SIGNAL BASED ON VISUAL IMAGE”、同時係属米国特許出願第11/418,989号、発明者Xiao Dong Mao;2006年5月4日出願の”METHODS AND APPARATUS FOR CAPTURING AN AUDIO SIGNAL BASED ON A LOCATION OF THE SIGNAL”、同時係属出願第11/429,047号,発明者Xiao Dong Mao;2006年5月4日出願の”SELECTIVE SOUND SOURCE LISTENING IN CONJUNCTION WITH COMPUTER INTERACTIVE PROCESSING”、同時係属出願第11/429,133号、発明者Richard Marks et al.;および2006年5月4日出願の”Computer Image and Audio Processing of Intensity and Input Devices for Interfacing With A Computer Program”、同時係属出願第11/429,414号、発明者Richard Marks et al.に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This application is “METHODS AND APPARATUS FOR ADJUSTING A LISTENING AREA FOR CAPTURING SOUNDS” filed May 4, 2006, co-pending US patent application No. 11 / 418,988, inventor Xiao Dong Mao; filed May 4, 2006 "METHODS AND APPARATUSES FOR CAPTURING AN AUDIO SIGNAL BASED ON VISUAL IMAGE", co-pending US patent application No. 11 / 418,989, inventor Xiao Dong Mao; "METHODS AND APPARATUS FOR CAPTURING AN AUDIO SIGNAL" filed May 4, 2006 BASED ON A LOCATION OF THE SIGNAL ”, co-pending application No. 11 / 429,047, inventor Xiao Dong Mao;“ SELECTIVE SOUND SOURCE LISTENING IN CONJUNCTION WITH COMPUTER INTERACTIVE PROCESSING ”, filed May 4, 2006, co-pending application No. 11 No. 429,133, inventor Richard Marks et al .; and “Computer Image and Audio Processing of Intensity and Input Devices for Interfacing With A Computer Program” filed May 4, 2006, co-pending application No. 11 / 429,414, invention Claiming priority to Richard Marks et al. The indications are incorporated herein by reference.

本出願はさらに、2006年5月6日出願の”MULTI-INPUT GAME CONTROL MIXER”、米国特許出願第11/382,031号;2006年5月6日出願の”SYSTEM FOR TRACKING USER MANIPULATIONS WITHIN AN ENVIRONMENT”、米国特許出願第11/382,032号;2006年5月6日出願の”SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL”、米国特許出願第11/382,033号;2006年5月6日出願の”INERTIALLY TRACKABLE HAND-HELD CONTROLLER”、米国特許出願第11/382,035号;2006年5月6日出願の”METHOD AND SYSTEM FOR APPLYING GEARING EFFECTS TO VISUAL TRACKING”、米国特許出願第11/382,036号;2006年5月7日出願の”METHOD AND SYSTEM FOR APPLYING GEARING EFFECTS TO INERTIAL TRACKING”、米国特許出願第11/382,041号;および2006年5月6日出願の”SYSTEM FOR APPLYING GEARING EFFECTS TO ACOUSTIC TRACKING”、米国特許出願第11/382,038号;2006年5月7日出願の”METHOD AND SYSTEM FOR APPLYING GEARING EFFECTS TO MULTI-CHANNEL MIXED INPUT”、米国特許出願第11/382,040号;2006年5月6日出願の”SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY”、米国特許出願第11/382,034号;2006年5月6日出願の”SCHEME FOR TRANSLATING MONEMENTS OF A HAND-HELD CONTROLLER INTO INPUTS FOR A SYSTEM”、米国特許出願第11/382,O37号;2006年5月7日出願の”DETECTABLE AND TRACKABLE HAND-HELD CONTROLLER”、米国特許出願第11/382,043号;2006年5月7日出願の”METHOD FOR MAPPING MOVEMENTS OF A HAND-HELD CONTROLLER TO GAME COMMANDS”、米国特許出願第11/382,039号;2006年5月6日出願の”CONTROLLER WITH INFRARED PORT”、米国意匠出願第29/259,349号;2006年5月6日出願の”CONTROLLER WITH TRACKING SENSORS”、米国意匠出願第29/259,350号;2006年5月6日出願の”DYNAMIC TARGET INTERFACE”、米国特許出願第60/798,031号;および2006年5月8日出願の”OBTAINING INPUT FOR CONTROLLING EXECUTION OF A GAME PROGRAM”、米国特許出願第11/382,250号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This application further includes “MULTI-INPUT GAME CONTROL MIXER” filed on May 6, 2006, US Patent Application No. 11 / 382,031; “SYSTEM FOR TRACKING USER MANIPULATIONS WITHIN AN ENVIRONMENT” filed May 6, 2006, US Patent Application No. 11 / 382,032; “SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL”, filed May 6, 2006, US Patent Application No. 11 / 382,033; filed May 6, 2006 INERTIALLY TRACKABLE HAND-HELD CONTROLLER ”, US Patent Application No. 11 / 382,035;“ METHOD AND SYSTEM FOR APPLYING GEARING EFFECTS TO VISUAL TRACKING ”, US Patent Application No. 11 / 382,036, filed May 6, 2006; “METHOD AND SYSTEM FOR APPLYING GEARING EFFECTS TO INERTIAL TRACKING” filed on May 7, US patent application No. 11 / 382,041; and “SYSTEM FOR APPLYING GEARING EFFECTS TO ACOUSTIC TRACKING” filed May 6, 2006, US patent application 11 / 382,038; “METHOD AND SYSTEM FOR APPLYING GEARING EFFECTS TO MULTI-CHANNEL MI” filed May 7, 2006 "XED INPUT", US Patent Application No. 11 / 382,040; "SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY", filed May 6, 2006, US Patent Application No. 11 / 382,034; May 6, 2006 “SCHEME FOR TRANSLATING MONEMENTS OF A HAND-HELD CONTROLLER INTO INPUTS FOR A SYSTEM”, US Patent Application No. 11/382, O37; “DETECTABLE AND TRACKABLE HAND-HELD CONTROLLER” filed May 7, 2006, US Patent Application No. 11 / 382,043; “METHOD FOR MAPPING MOVEMENTS OF A HAND-HELD CONTROLLER TO GAME COMMANDS” filed May 7, 2006; US Patent Application No. 11 / 382,039; filed May 6, 2006 “CONTROLLER WITH INFRARED PORT”, US Design Application No. 29 / 259,349; “CONTROLLER WITH TRACKING SENSORS” filed on May 6, 2006; US Design Application No. 29 / 259,350; “DYNAMIC” filed on May 6, 2006 TARGET INTERFACE ”, US Patent Application No. 60 / 798,031; and“ OBTAINING INPUT FOR CONTROLLING EXECUTION OF A GAME PROGRAM ”filed May 8, 2006. Claims priority to U.S. Patent Application No. 11 / 382,250, the disclosure of which is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”SYSTEM AND METHOD FOR USING USER’S VISUAL/ADIOU ENVIRONMENT TO SELECT ADVERTISING”、米国特許出願第11/430,594号、発明者Gary Zalewski およびRiley R. Russellに対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification is further directed to “SYSTEM AND METHOD FOR USING USER'S VISUAL / ADIOU ENVIRONMENT TO SELECT ADVERTISING” filed May 8, 2006, US Patent Application No. 11 / 430,594, inventors Gary Zalewski and Riley R. Russell. And claims the priority, the disclosure of which is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”Using Audio/Visual Environment To Select Ads On Game Platform”、米国特許出願第11/430,593号、発明者Gary Zalewski およびRiley R. Russellに対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further takes precedence over “Using Audio / Visual Environment To Select Ads On Game Platform” filed May 8, 2006, US Patent Application No. 11 / 430,593, inventors Gary Zalewski and Riley R. Russell. And the disclosure of which is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”Method and apparatus for use in determining lack of user activity in relation to a system”、米国同時係属出願第11/382,259号、発明者Gary Zalewski et al.に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further describes `` Method and apparatus for use in determining lack of user activity in relation to a system '' filed May 8, 2006, U.S. co-pending application No. 11 / 382,259, inventor Gary Zalewski et al. The disclosure of which is hereby incorporated by reference.

本明細書はさらに、2006年5月8日出願の”Method and apparatus for use in determining an activity level of a user in relation to a system”、米国特許出願第11/382,258号、発明者Gary Zalewski et al.に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further describes “Method and apparatus for use in determining an activity level of a user in relation to a system” filed May 8, 2006, US Patent Application No. 11 / 382,258, inventor Gary Zalewski et al. And the disclosure of which is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”Hand-held controller having detectable elements for tracking purposes”、米国同時係属出願第11/382,251号、発明者Gary Zalewski et al.に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further gives priority to “Hand-held controller having detectable elements for tracking purposes” filed May 8, 2006, US co-pending application No. 11 / 382,251, inventor Gary Zalewski et al. And the disclosure of which is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”TRACKING DEVICE FOR USE IN OBTAINING INFORMATION FOR CONTROLLING GAME PROGRAM EXECUTION”、米国同時係属出願第11/382,252号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims the priority of “TRACKING DEVICE FOR USE IN OBTAINING INFORMATION FOR CONTROLLING GAME PROGRAM EXECUTION” filed on May 8, 2006, US co-pending application No. 11 / 382,252, and its disclosure. Is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”TRACKING DEVICE WITH SOUND EMITTER FOR USE IN OBTAINING INFORMATION FOR CONTROLLING GAME PROGRAM EXECUTION”、米国同時係属出願第11/382,256号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to "TRACKING DEVICE WITH SOUND EMITTER FOR USE IN OBTAINING INFORMATION FOR CONTROLLING GAME PROGRAM EXECUTION", filed May 8, 2006, US co-pending application 11 / 382,256, The disclosure of which is hereby incorporated by reference.

本明細書はさらに、2006年5月8日出願の”VIDEO GAME CONTROLLER FRONT FACE”、米国同時係属出願第29/246,744号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “VIDEO GAME CONTROLLER FRONT FACE” filed May 8, 2006, US co-pending application No. 29 / 246,744, the disclosure of which is incorporated herein by reference. Incorporated.

本明細書はさらに、2006年5月8日出願の”VIDEO GAME CONTOLLER”、米国意匠出願第29/246,743号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “VIDEO GAME CONTOLLER”, US Design Application No. 29 / 246,743, filed on May 8, 2006, the disclosure of which is incorporated herein by reference. .

本明細書はさらに、2006年5月8日出願の”VIDEO GAME CONTROLLER”、米国同時係属意匠出願第29/246,767号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “VIDEO GAME CONTROLLER” filed May 8, 2006, US copending design application No. 29 / 246,767, the disclosure of which is incorporated herein by reference. Is done.

本明細書はさらに、2006年5月8日出願の”VIDEO GAME CONTROLLER”、米国同時係属意匠出願第29/246,768号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “VIDEO GAME CONTROLLER” filed on May 8, 2006, US co-pending design application No. 29 / 246,768, the disclosure of which is incorporated herein by reference. Is done.

本明細書はさらに、2006年5月8日出願の”ERGONOMIC GAME CONTROLLER DEVICE WITH LEDS AND OPTICAL PORTS”、米国同時係属意匠出願第29/246,763号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “ERGONOMIC GAME CONTROLLER DEVICE WITH LEDS AND OPTICAL PORTS” filed May 8, 2006, US co-pending design application No. 29 / 246,763, the disclosure content of which is referred to. Is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”GAME CONTROLLER DEVICE WITH LEDS AND OPTICAL PORTS”、米国同時係属意匠出願第29/246,759号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “GAME CONTROLLER DEVICE WITH LEDS AND OPTICAL PORTS” filed May 8, 2006, US co-pending design application No. 29 / 246,759, the disclosure of which is incorporated herein by reference. Incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”DESIGN FOR OPTICAL GAME CONTROLLER INTERFACE”、米国同時係属意匠出願第29/246,765号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “DESIGN FOR OPTICAL GAME CONTROLLER INTERFACE” filed May 8, 2006, US copending design application No. 29 / 246,765, the disclosure of which is hereby incorporated by reference. Incorporated into the book.

本明細書はさらに、2006年5月8日出願の”DUAL GRIP GAME CONTROLLER DEVICE WITH LEDS AND OPTICAL PORTS”、米国同時係属意匠出願第29/246,766号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “DUAL GRIP GAME CONTROLLER DEVICE WITH LEDs AND OPTICAL PORTS” filed on May 8, 2006, US co-pending design application No. 29 / 246,766, the disclosure of which Which is incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”GAME INTERFACE DEVICE WITH LEDS AND OPTICAL PORTS”、米国同時係属意匠出願第29/246,764号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “GAME INTERFACE DEVICE WITH LEDS AND OPTICAL PORTS” filed May 8, 2006, US co-pending design application No. 29 / 246,764, the disclosure of which is incorporated herein by reference. Incorporated herein by reference.

本明細書はさらに、2006年5月8日出願の”ERGONOMIC GAME INTERFACE DEVICE WITH LEDS AND OPTICAL PORTS”、米国同時係属意匠出願第29/246,762号に対して優先権を主張し、その開示内容が参照により本明細書に援用される。   This specification further claims priority to “ERGONOMIC GAME INTERFACE DEVICE WITH LEDS AND OPTICAL PORTS” filed May 8, 2006, US co-pending design application No. 29 / 246,762, the disclosure content of which is referred to. Is incorporated herein by reference.

関連出願に対する相互参照
本出願は、2005年9月15日出願の”AUDIO, VIDEO, SIMULATION,AND USER INTERFACE PARADIGMS”、米国仮出願番号第60/718,145号に関連し、その開示内容が参照によって本明細書に援用される。
This application is related to “AUDIO, VIDEO, SIMULATION, AND USER INTERFACE PARADIGMS”, US Provisional Application No. 60 / 718,145, filed September 15, 2005, the disclosure of which is hereby incorporated by reference. Incorporated herein by reference.

本出願は、2002年7月27日出願の”MAN-MACHINE INTERFACE USING A DEFORMABLE DEVICE”、米国特許出願第10/207,677号;2003年8月27日出願の”AUDIO INPUT SYSTEM”、米国特許出願第10/650,409号;2003年9月15日出願の”METHOD AND APPARATUS FOR ADJUSTING A VIEW OF A SCENE BEING DISPLAYED ACCORDING TO TRACKED HEAD MOTION”、米国特許出願第10/663,236号;2004年1月16日出願の”METHOD AND APPARATUS FOR LIGHT INPUT DEVICE”、米国特許出願第10/759,782号;2004年4月7日出願の”METHOD AND APPARATUS TO DETECT AND REMOVE AUDIO DISTURBANCES”、米国特許出願第10/820,469号;2005年12月12日出願の”METHOD FOR USING RELATIVE HEAD AND HAND POSITIONS TO ENABLE A POINTING INTERFACE VIA CAMERA TRACKING”、米国特許出願第11/301,673号;および2005年6月22日出願の”DELAY MATCHING IN AUDIO/VIDEO SYSTEM”、米国特許出願第11/165,473号に関連し、その開示内容が参照によって本明細書に援用される。   This application is “MAN-MACHINE INTERFACE USING A DEFORMABLE DEVICE” filed July 27, 2002, US Patent Application No. 10 / 207,677; “AUDIO INPUT SYSTEM” filed August 27, 2003, US Patent Application No. 10 / 650,409; “METHOD AND APPARATUS FOR ADJUSTING A VIEW OF A SCENE BEING DISPLAYED ACCORDING TO TRACKED HEAD MOTION” filed on September 15, 2003; US Patent Application No. 10 / 663,236; filed on January 16, 2004 “METHOD AND APPARATUS FOR LIGHT INPUT DEVICE”, US Patent Application No. 10 / 759,782; “METHOD AND APPARATUS TO DETECT AND REMOVE AUDIO DISTURBANCES”, US Patent Application No. 10 / 820,469; 2005, filed April 7, 2004; “METHOD FOR USING RELATIVE HEAD AND HAND POSITIONS TO ENABLE A POINTING INTERFACE VIA CAMERA TRACKING” filed on December 12, US Patent Application No. 11 / 301,673; and “DELAY MATCHING IN AUDIO / VIDEO” filed June 22, 2005 SYSTEM ”, related to US patent application Ser. No. 11 / 165,473, the disclosure of which is incorporated herein by reference. It is.

本発明はさらに、2006年4月10日出願の”System And Method For Obtaining user Information From Voices”、米国同時係属特許出願第11/400,997号に関連し、その開示内容が参照によって本明細書に援用される。   The present invention further relates to “System And Method For Obtaining user Information From Voices” filed Apr. 10, 2006, US copending patent application No. 11 / 400,997, the disclosure of which is incorporated herein by reference. Is done.

Claims (21)

デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムにおいて実行されるゲームプログラムの実行中の個々の機能を制御するための入力を取得する方法であって、
a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから前記入出力装置が受信するステップと、
前記コントローラが使用される環境から追加入力情報を前記入出力装置が受信するステップと、
前記デジタルプロセッサが、前記コントローラ入力情報と前記追加入力情報とを処理して組合せ入力を求めることによって、ゲームプログラムの実行を制御するための組合せ入力を取得するステップと、を含み、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、前記追加入力情報であるピッチが正の値(上昇)へと増加しつつ前記コントロールスティックが後方に動かされるとき、増大されたピッチアップ入力を前記組合せ入力に反映させるか、または、ピッチが負の値(下降)へと減少しつつ前記コントロールスティックが前方に動かされるとき、増大されたピッチダウン入力を前記組合せ入力に反映させる
ことを特徴とする方法。
A method for obtaining inputs for controlling individual functions during execution of a game program executed in a video game system having an input / output device that transmits and receives data to and from a digital processor, a memory, and a peripheral device. ,
a) Information specifying the current position of the control stick movable by the user of the game controller in relation to the stop position of the control stick, or b) Specifying whether the switch included in the game controller is in operation. The input / output device receiving controller input information including at least one of information from a game controller operable by the user;
The input / output device receiving additional input information from an environment in which the controller is used;
The digital processor processing the controller input information and the additional input information to obtain a combination input, thereby obtaining a combination input for controlling execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor may reflect the increased pitch-up input to the combination input when the control stick is moved backward while the additional input information pitch is increased to a positive value (rising), or A method of reflecting an increased pitch down input to the combination input when the control stick is moved forward while the pitch is reduced to a negative value (down).
デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムにおいて実行されるゲームプログラムの実行中の個々の機能を制御するための入力を取得する方法であって、
a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから前記入出力装置が受信するステップと、
前記コントローラが使用される環境から追加入力情報を前記入出力装置が受信するステップと、
前記デジタルプロセッサが、前記コントローラ入力情報と前記追加入力情報とを処理して組合せ入力を求めることによって、ゲームプログラムの実行を制御するための組合せ入力を取得するステップと、を含み、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、大まかな制御情報として前記コントロールスティックの位置を表すコントローラ入力情報の値を割り当て、微細な制御情報として前記ユーザが移動可能な物体の方向を表す追加入力情報の値を割り当てることによって、前記組合せ入力を求めるか、または、
前記デジタルプロセッサは、大まかな制御情報として前記ゲームコントローラのスイッチが作動中であるか否かを特定する前記コントローラ入力情報の値を割り当て、微細な制御情報として前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値を割り当てることによって、前記組合せ入力を求め、
前記組合せ入力は、前記微細な制御情報にしたがって調節された前記大まかな制御情報の値を表すことを特徴とする方法。
A method for obtaining inputs for controlling individual functions during execution of a game program executed in a video game system having an input / output device that transmits and receives data to and from a digital processor, a memory, and a peripheral device. ,
a) Information specifying the current position of the control stick movable by the user of the game controller in relation to the stop position of the control stick, or b) Specifying whether the switch included in the game controller is in operation. The input / output device receiving controller input information including at least one of information from a game controller operable by the user;
The input / output device receiving additional input information from an environment in which the controller is used;
The digital processor processing the controller input information and the additional input information to obtain a combination input, thereby obtaining a combination input for controlling execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor assigns a value of controller input information representing the position of the control stick as rough control information, and assigns a value of additional input information representing the direction of the object that the user can move as fine control information. Ask for the combination input, or
The digital processor assigns a value of the controller input information that specifies whether or not the switch of the game controller is operating as rough control information, and indicates the direction of the object that the user can move as fine control information. Determining the combination input by assigning a value of the additional input information to represent,
The method wherein the combination input represents a value of the rough control information adjusted according to the fine control information.
デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムにおいて実行されるゲームプログラムの実行中の個々の機能を制御するための入力を取得する方法であって、
a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから前記入出力装置が受信するステップと、
前記コントローラが使用される環境から追加入力情報を前記入出力装置が受信するステップと、
前記デジタルプロセッサが、前記コントローラ入力情報と前記追加入力情報とを処理して組合せ入力を求めることによって、ゲームプログラムの実行を制御するための組合せ入力を取得するステップと、を含み、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、大まかな制御情報として前記ゲームコントローラのスイッチが作動中であるか否かを特定する前記コントローラ入力情報の値を割り当て、微細な制御情報として前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値を割り当てることによって、前記組合せ入力を求め、
前記組合せ入力は、前記微細な制御情報にしたがって調節された前記大まかな制御情報の値を表すことを特徴とする方法。
A method for obtaining inputs for controlling individual functions during execution of a game program executed in a video game system having an input / output device that transmits and receives data to and from a digital processor, a memory, and a peripheral device. ,
a) Information specifying the current position of the control stick movable by the user of the game controller in relation to the stop position of the control stick, or b) Specifying whether the switch included in the game controller is in operation. The input / output device receiving controller input information including at least one of information from a game controller operable by the user;
The input / output device receiving additional input information from an environment in which the controller is used;
The digital processor processing the controller input information and the additional input information to obtain a combination input, thereby obtaining a combination input for controlling execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor assigns a value of the controller input information that specifies whether or not the switch of the game controller is operating as rough control information, and indicates the direction of the object that the user can move as fine control information. Determining the combination input by assigning a value of the additional input information to represent,
The method wherein the combination input represents a value of the rough control information adjusted according to the fine control information.
デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムにおいて実行されるゲームプログラムの実行中の個々の機能を制御するための入力を取得する方法であって、
a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから前記入出力装置が受信するステップと、
前記コントローラが使用される環境から追加入力情報を前記入出力装置が受信するステップと、
前記デジタルプロセッサが、前記コントローラ入力情報と前記追加入力情報とを処理して組合せ入力を求めることによって、ゲームプログラムの実行を制御するための組合せ入力を取得するステップと、を含み、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、大まかな制御情報として前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値を割り当て、微細な制御情報として前記コントロールスティックの位置を表す前記コントローラ入力情報の値を割り当てることによって、前記組合せ入力を求め、
前記組合せ入力は、前記微細な制御情報にしたがって調節された前記大まかな制御情報の値を表すことを特徴とする方法。
A method for obtaining inputs for controlling individual functions during execution of a game program executed in a video game system having an input / output device that transmits and receives data to and from a digital processor, a memory, and a peripheral device. ,
a) Information specifying the current position of the control stick movable by the user of the game controller in relation to the stop position of the control stick, or b) Specifying whether the switch included in the game controller is in operation. The input / output device receiving controller input information including at least one of information from a game controller operable by the user;
The input / output device receiving additional input information from an environment in which the controller is used;
The digital processor processing the controller input information and the additional input information to obtain a combination input, thereby obtaining a combination input for controlling execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor assigns the value of the additional input information that represents the direction of the object that the user can move as rough control information, and assigns the value of the controller input information that represents the position of the control stick as fine control information. To obtain the combination input,
The method wherein the combination input represents a value of the rough control information adjusted according to the fine control information.
デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムにおいて実行されるゲームプログラムの実行中の個々の機能を制御するための入力を取得する方法であって、
a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから前記入出力装置が受信するステップと、
前記コントローラが使用される環境から追加入力情報を前記入出力装置が受信するステップと、
前記デジタルプロセッサが、前記コントローラ入力情報と前記追加入力情報とを処理して組合せ入力を求めることによって、ゲームプログラムの実行を制御するための組合せ入力を取得するステップと、を含み、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、微細な制御情報として前記ゲームコントローラのスイッチが作動中であるか否かを特定する前記コントローラ入力情報の値を割り当て、大まかな制御情報として前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値を割り当てることによって、前記組合せ入力を求め、
前記組合せ入力は、前記微細な制御情報にしたがって調節された前記大まかな制御情報の値を表すことを特徴とする方法。
A method for obtaining inputs for controlling individual functions during execution of a game program executed in a video game system having an input / output device that transmits and receives data to and from a digital processor, a memory, and a peripheral device. ,
a) Information specifying the current position of the control stick movable by the user of the game controller in relation to the stop position of the control stick, or b) Specifying whether the switch included in the game controller is in operation. The input / output device receiving controller input information including at least one of information from a game controller operable by the user;
The input / output device receiving additional input information from an environment in which the controller is used;
The digital processor processing the controller input information and the additional input information to obtain a combination input, thereby obtaining a combination input for controlling execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor assigns a value of the controller input information that specifies whether or not the switch of the game controller is operating as fine control information, and indicates the direction of the object that the user can move as rough control information. Determining the combination input by assigning a value of the additional input information to represent,
The method wherein the combination input represents a value of the rough control information adjusted according to the fine control information.
前記デジタルプロセッサは、前記コントローラ入力情報によって表される値と、前記追加入力情報によって表される値とを加算的に組み合わせることによって前記組合せ入力を求め、その結果、前記組合せ入力が、コントローラ入力情報または追加入力情報の値のいずれか単独の値よりも小さな値を持つ信号を前記ゲームプログラムに対して提示することを特徴とする請求項1ないし5のいずれかに記載の方法。 The digital processor obtains the combination input by additively combining the value represented by the controller input information and the value represented by the additional input information, and as a result, the combination input is obtained from the controller input information. or method according to any one of claims 1 to 5, characterized in that presenting a signal having a value smaller than one single value of the value of the additional input information to the game program. 前記デジタルプロセッサは、前記組合せ入力として、前記コントローラ入力情報または前記追加入力情報の値のいずれか単独の値よりも時間変化がよりゆるやかな平滑化された値を持つ信号を前記ゲームプログラムに対して提示することを特徴とする請求項1ないし5のいずれかに記載の方法。 The digital processor outputs, as the combination input, a signal having a smoothed value with a gentler temporal change than the single value of either the controller input information or the additional input information to the game program. the method according to any one of claims 1 to 5, characterized in that presented. 前記デジタルプロセッサは、前記組合せ入力として、前記コントローラ入力情報または前記追加入力情報の値のいずれか単独の値よりも急速に時間変化し、かつ信号内容が増加した高解像度信号を前記ゲームプログラムに対して提示することを特徴とする請求項1ないし5のいずれかに記載の方法。 The digital processor outputs, as the combination input, a high-resolution signal whose time changes more rapidly than the single value of either the controller input information or the additional input information and the signal content is increased to the game program. the method according to any one of claims 1 to 5, characterized in that presenting Te. 前記追加入力情報は、環境中の音響トランスデューサから得られる音響情報を含むことを特徴とする請求項1ないし5のいずれかに記載の方法。 Said additional input information, The method according to any one of claims 1 to 5, characterized in that it comprises an acoustic information obtained from the acoustic transducer in the environment. 前記コントローラ入力情報は、前記ゲームコントローラに搭載された圧力感知式ボタンが作動中であるか否かを特定する情報を含むことを特徴とする請求項1ないし5のいずれかに記載の方法。 The controller input information, The method according to any one of claims 1 to 5 wherein the pressure-sensitive button mounted on the game controller, characterized in that it comprises information identifying whether in operation. 前記追加入力情報は、i)環境中の撮像装置から得られる情報、ii)ゲームコントローラまたはユーザの少なくとも一つに関連付けられた慣性センサからの情報、またはiii)環境中の音響トランスデューサから得られる情報のうち、少なくとも一つの情報を含むことを特徴とする請求項1ないし5のいずれかに記載の方法。 The additional input information is i) information obtained from an imaging device in the environment, ii) information from an inertial sensor associated with at least one of a game controller or a user, or iii) information obtained from an acoustic transducer in the environment. of a method according to any one of claims 1 to 5, characterized in that it comprises at least one information. 前記追加入力情報は、環境中の撮像装置から得られる情報と、ゲームコントローラまたはユーザの少なくとも一つに関連付けられた慣性センサからの情報と、環境中の音響トランスデューサから得られる情報とを含むことを特徴とする請求項1ないし5のいずれかに記載の方法。 The additional input information includes information obtained from an imaging device in the environment, information from an inertial sensor associated with at least one of the game controller or the user, and information obtained from an acoustic transducer in the environment. 6. A method according to any one of claims 1 to 5 , characterized in that: デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムであって、該ゲームシステムで実行されるゲームプログラムにおいて実行中の個々の機能を制御するための入力を取得するゲームシステムであって、
前記入出力装置は、a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから受信し、
前記デジタルプロセッサは、前記コントローラ入力情報と追加入力情報とを処理して前記ゲームプログラムの実行を制御するための組合せ入力を取得し、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、前記追加入力情報であるピッチが正の値(上昇)へと増加しつつ前記コントロールスティックが後方に動かされるとき、増大されたピッチアップ入力を前記組合せ入力に反映させるか、または、ピッチが負の値(下降)へと減少しつつ前記コントロールスティックが前方に動かされるとき、増大されたピッチダウン入力を前記組合せ入力に反映させる
ことを特徴とするシステム。
A video game system having an input / output device for transmitting / receiving data to / from a digital processor, a memory, and a peripheral device, and an input for controlling individual functions being executed in a game program executed in the game system A game system for obtaining
In the input / output device, a) information specifying a current position of a control stick movable by a user of the game controller in relation to a stop position of the control stick, or b) a switch included in the game controller is operating. Receiving controller input information including at least one of information specifying whether or not from a game controller operable by the user,
It said digital processor processes the said controller input information and additionally subscribed force information to get the combination input for controlling the execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor may reflect the increased pitch-up input to the combination input when the control stick is moved backward while the additional input information pitch is increased to a positive value (rising), or When the control stick is moved forward while the pitch is reduced to a negative value (down), the increased pitch down input is reflected in the combination input.
デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムであって、該ゲームシステムで実行されるゲームプログラムにおいて実行中の個々の機能を制御するための入力を取得するゲームシステムであって、
前記入出力装置は、a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから受信し、
前記デジタルプロセッサは、前記コントローラ入力情報と追加入力情報とを処理して前記ゲームプログラムの実行を制御するための組合せ入力を取得し、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、大まかな制御情報として前記コントロールスティックの位置を表すコントローラ入力情報の値を割り当て、微細な制御情報として前記ユーザが移動可能な物体の方向を表す追加入力情報の値を割り当てることによって、前記組合せ入力を求めるか、または、
前記デジタルプロセッサは、大まかな制御情報として前記ゲームコントローラのスイッチが作動中であるか否かを特定する前記コントローラ入力情報の値を割り当て、微細な制御情報として前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値を割り当てることによって、前記組合せ入力を求め、
前記組合せ入力は、前記微細な制御情報にしたがって調節された前記大まかな制御情報の値を表す
ことを特徴とするシステム。
A video game system having an input / output device for transmitting / receiving data to / from a digital processor, a memory, and a peripheral device, and an input for controlling individual functions being executed in a game program executed in the game system A game system for obtaining
In the input / output device, a) information specifying a current position of a control stick movable by a user of the game controller in relation to a stop position of the control stick, or b) a switch included in the game controller is operating. Receiving controller input information including at least one of information specifying whether or not from a game controller operable by the user,
It said digital processor processes the said controller input information and additionally subscribed force information to get the combination input for controlling the execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor assigns a value of controller input information representing the position of the control stick as rough control information, and assigns a value of additional input information representing the direction of the object that the user can move as fine control information. Ask for the combination input, or
The digital processor assigns a value of the controller input information that specifies whether or not the switch of the game controller is operating as rough control information, and indicates the direction of the object that the user can move as fine control information. Determining the combination input by assigning a value of the additional input information to represent,
The combination input represents a value of the rough control information adjusted according to the fine control information.
デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムであって、該ゲームシステムで実行されるゲームプログラムにおいて実行中の個々の機能を制御するための入力を取得するゲームシステムであって、
前記入出力装置は、a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから受信し、
前記デジタルプロセッサは、前記コントローラ入力情報と追加入力情報とを処理して前記ゲームプログラムの実行を制御するための組合せ入力を取得し、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、大まかな制御情報として前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値を割り当て、微細な制御情報として前記コントロールスティックの位置を表す前記コントローラ入力情報の値を割り当てることによって、前記組合せ入力を求め、
前記組合せ入力は、前記微細な制御情報にしたがって調節された前記大まかな制御情報の値を表す
ことを特徴とするシステム。
A video game system having an input / output device for transmitting / receiving data to / from a digital processor, a memory, and a peripheral device, and an input for controlling individual functions being executed in a game program executed in the game system A game system for obtaining
In the input / output device, a) information specifying a current position of a control stick movable by a user of the game controller in relation to a stop position of the control stick, or b) a switch included in the game controller is operating. Receiving controller input information including at least one of information specifying whether or not from a game controller operable by the user,
It said digital processor processes the said controller input information and additionally subscribed force information to get the combination input for controlling the execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor assigns the value of the additional input information that represents the direction of the object that the user can move as rough control information, and assigns the value of the controller input information that represents the position of the control stick as fine control information. To obtain the combination input,
The combination input represents a value of the rough control information adjusted according to the fine control information.
デジタルプロセッサ、メモリ、および周辺装置との間でデータを送受信する入出力装置を有するビデオゲームシステムであって、該ゲームシステムで実行されるゲームプログラムにおいて実行中の個々の機能を制御するための入力を取得するゲームシステムであって、
前記入出力装置は、a)ゲームコントローラのユーザにより移動可能なコントロールスティックの現在位置を該コントロールスティックの停止位置に関連して特定する情報、またはb)ゲームコントローラに含まれるスイッチが作動中であるか否かを特定する情報、の少なくとも一つを含むコントローラ入力情報を、ユーザが操作可能なゲームコントローラから受信し、
前記デジタルプロセッサは、前記コントローラ入力情報と追加入力情報とを処理して前記ゲームプログラムの実行を制御するための組合せ入力を取得し、
前記組合せ入力は、前記ゲームプログラム実行中のそれぞれ個々の機能を制御するための個々の融合された入力を含み、
前記デジタルプロセッサは、前記個々の融合された入力の少なくとも一部を、特定の個々の機能に関連した前記コントローラ入力情報と、特定の個々の機能に関連した前記追加入力情報とを融合することによって求め、
前記追加入力情報は、前記ゲームコントローラに搭載された慣性センサの作動によって求められる慣性センサ情報またはユーザが移動可能な物体の方向を表す方向情報のうち少なくとも一つを含み、
前記ユーザが移動可能な物体は、前記ゲームコントローラまたは前記ゲームコントローラの本体に取り付けられた物体のうち少なくとも一つを含み、
前記追加入力情報は、前記ユーザが移動可能な物体の方向を示す情報を含み、
前記デジタルプロセッサは、前記コントロールスティックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合することによって、前記組合せ入力を求め、
前記デジタルプロセッサは、微細な制御情報として前記ゲームコントローラのスイッチが作動中であるか否かを特定する前記コントローラ入力情報の値を割り当て、大まかな制御情報として前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値を割り当てることによって、前記組合せ入力を求め、
前記組合せ入力は、前記微細な制御情報にしたがって調節された前記大まかな制御情報の値を表す
ことを特徴とするシステム。
A video game system having an input / output device for transmitting / receiving data to / from a digital processor, a memory, and a peripheral device, and an input for controlling individual functions being executed in a game program executed in the game system A game system for obtaining
In the input / output device, a) information specifying a current position of a control stick movable by a user of the game controller in relation to a stop position of the control stick, or b) a switch included in the game controller is operating. Receiving controller input information including at least one of information specifying whether or not from a game controller operable by the user,
It said digital processor processes the said controller input information and additionally subscribed force information to get the combination input for controlling the execution of the game program,
The combination input includes individual fused inputs for controlling each individual function during execution of the game program;
The digital processor fuses at least a portion of the individual fused inputs with the controller input information associated with a particular individual function and the additional input information associated with a particular individual function. Seeking
The additional input information includes at least one of inertial sensor information obtained by an operation of an inertial sensor mounted on the game controller or direction information indicating a direction of an object movable by the user,
The object movable by the user includes at least one of the game controller or an object attached to a body of the game controller,
The additional input information includes information indicating a direction of an object that the user can move,
The digital processor obtains the combination input by fusing a value of controller input information representing a position of the control stick and a value of the additional input information representing a direction of an object movable by the user,
The digital processor assigns a value of the controller input information that specifies whether or not the switch of the game controller is operating as fine control information, and indicates the direction of the object that the user can move as rough control information. Determining the combination input by assigning a value of the additional input information to represent,
The combination input represents a value of the rough control information adjusted according to the fine control information.
前記デジタルプロセッサが、ゲームプログラムへの入力の修正として前記コントローラ入力情報または前記追加入力情報のうち第1の情報を利用して、コントローラ入力情報または追加入力情報のうち第2の情報の少なくとも一つに応じて起動された機能に対する制御を修正するステップをさらに含むことを特徴とする請求項1ないし5のいずれかに記載の方法。The digital processor uses the first information of the controller input information or the additional input information as correction of the input to the game program, and at least one of the second information of the controller input information or the additional input information. 6. A method according to any preceding claim, further comprising the step of modifying the control over the function activated in response. 前記慣性センサは、前記ゲームコントローラに取り付けられ、加速度計またはジャイロスコープのうち少なくとも一つであることを特徴とする請求1ないし5のいずれかに記載の方法。6. The method according to claim 1, wherein the inertial sensor is attached to the game controller and is at least one of an accelerometer and a gyroscope. 前記ユーザが移動可能な物体は、前記ゲームコントローラまたは該ゲームコントローラ本体に取り付けられた物のうち少なくとも一つであり、前記追加入力情報は前記ユーザが移動可能な物体の方向を示す情報を含むことを特徴とする請求項1ないし5のいずれかに記載の方法。The object movable by the user is at least one of the game controller or an object attached to the game controller main body, and the additional input information includes information indicating a direction of the object movable by the user. A method according to any of claims 1 to 5, characterized in that 前記追加入力情報はピッチ、ヨーまたはロールの少なくとも一つを示す情報を含むことを特徴とする請求項1ないし5のいずれかに記載の方法。6. The method according to claim 1, wherein the additional input information includes information indicating at least one of pitch, yaw, and roll. 前記デジタルプロセッサは、コントロールステックの位置を表すコントローラ入力情報の値と、前記ユーザが移動可能な物体の方向を表す前記追加入力情報の値とを融合して前記組合せ入力を求めることを特徴とする請求項18ないし20のいずれかに記載の方法。The digital processor obtains the combination input by fusing a value of controller input information indicating a position of a control stick and a value of the additional input information indicating a direction of an object movable by the user. 21. A method according to any of claims 18-20.
JP2009185086A 2006-05-04 2009-08-07 How to get input to control the execution of a game program Active JP5465948B2 (en)

Applications Claiming Priority (92)

Application Number Priority Date Filing Date Title
US11/381,729 US7809145B2 (en) 2006-05-04 2006-05-04 Ultra small microphone array
US11/381,725 2006-05-04
US11/381,724 2006-05-04
US11/418,988 2006-05-04
US11/381,727 US7697700B2 (en) 2006-05-04 2006-05-04 Noise removal for electronic device with far field microphone on console
US11/418,989 US8139793B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for capturing audio signals based on a visual image
US11/381,728 US7545926B2 (en) 2006-05-04 2006-05-04 Echo and noise cancellation
US11/418,988 US8160269B2 (en) 2003-08-27 2006-05-04 Methods and apparatuses for adjusting a listening area for capturing sounds
PCT/US2006/017483 WO2006121896A2 (en) 2005-05-05 2006-05-04 Microphone array based selective sound source listening and video game control
US11/381,724 US8073157B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for targeted sound detection and characterization
US11/429,047 2006-05-04
US11/381,721 US8947347B2 (en) 2003-08-27 2006-05-04 Controlling actions in a video game unit
US11/381,721 2006-05-04
US11/418,989 2006-05-04
US11/429,133 2006-05-04
US11/429,133 US7760248B2 (en) 2002-07-27 2006-05-04 Selective sound source listening in conjunction with computer interactive processing
US11/381,725 US7783061B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for the targeted sound detection
US11/429,414 US7627139B2 (en) 2002-07-27 2006-05-04 Computer image and audio processing of intensity and input devices for interfacing with a computer program
US11/429,047 US8233642B2 (en) 2003-08-27 2006-05-04 Methods and apparatuses for capturing an audio signal based on a location of the signal
US11/381,728 2006-05-04
WOPCT/US2006/017483 2006-05-04
US11/429,414 2006-05-04
US11/381,727 2006-05-04
US11/381,729 2006-05-04
US79803106P 2006-05-06 2006-05-06
US29259349 2006-05-06
US29/259,350 2006-05-06
US11/382,033 US8686939B2 (en) 2002-07-27 2006-05-06 System, method, and apparatus for three-dimensional input control
US11/382,035 2006-05-06
US11/382,031 2006-05-06
US29259348 2006-05-06
US11/382,038 US7352358B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to acoustical tracking
US11/382,038 2006-05-06
US60/798,031 2006-05-06
US11/382,034 US20060256081A1 (en) 2002-07-27 2006-05-06 Scheme for detecting and tracking user manipulation of a game controller body
US11/382,034 2006-05-06
US11/382,032 US7850526B2 (en) 2002-07-27 2006-05-06 System for tracking user manipulations within an environment
US11/382,033 2006-05-06
US11/382,037 US8313380B2 (en) 2002-07-27 2006-05-06 Scheme for translating movements of a hand-held controller into inputs for a system
US11/382,036 US9474968B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to visual tracking
US29/259,349 2006-05-06
US11/382,036 2006-05-06
US11/382,031 US7918733B2 (en) 2002-07-27 2006-05-06 Multi-input game control mixer
US11/382,037 2006-05-06
US29/259,350 USD621836S1 (en) 2006-05-06 2006-05-06 Controller face with tracking sensors
US11/382,032 2006-05-06
US11/382,035 US8797260B2 (en) 2002-07-27 2006-05-06 Inertially trackable hand-held controller
US29/259,348 2006-05-06
US11/382,039 2006-05-07
US11/382,043 US20060264260A1 (en) 2002-07-27 2006-05-07 Detectable and trackable hand-held controller
US11/382,041 US7352359B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to inertial tracking
US11/382,041 2006-05-07
US11/382,040 2006-05-07
US11/382,043 2006-05-07
US11/382,039 US9393487B2 (en) 2002-07-27 2006-05-07 Method for mapping movements of a hand-held controller to game commands
US11/382,040 US7391409B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to multi-channel mixed input
US29/246,743 2006-05-08
US29/246,764 USD629000S1 (en) 2006-05-08 2006-05-08 Game interface device with optical port
US11/382,259 2006-05-08
US29/246,765 2006-05-08
US11/430,593 US20070261077A1 (en) 2006-05-08 2006-05-08 Using audio/visual environment to select ads on game platform
US11/430,594 2006-05-08
US11/382,258 US7782297B2 (en) 2002-07-27 2006-05-08 Method and apparatus for use in determining an activity level of a user in relation to a system
US29/246,763 2006-05-08
US11/430,593 2006-05-08
US29/246,743 USD571367S1 (en) 2006-05-08 2006-05-08 Video game controller
US11/382,250 US7854655B2 (en) 2002-07-27 2006-05-08 Obtaining input for controlling execution of a game program
US29/246,767 2006-05-08
US29246759 2006-05-08
US11/382,252 2006-05-08
US11/382,256 US7803050B2 (en) 2002-07-27 2006-05-08 Tracking device with sound emitter for use in obtaining information for controlling game program execution
US11/382,250 2006-05-08
US29/246,764 2006-05-08
US11/382,258 2006-05-08
US29/246,766 2006-05-08
US29/246,744 2006-05-08
US29246765 2006-05-08
US29/246,762 2006-05-08
US29/246,767 USD572254S1 (en) 2006-05-08 2006-05-08 Video game controller
US11/382,252 US10086282B2 (en) 2002-07-27 2006-05-08 Tracking device for use in obtaining information for controlling game program execution
US29/246,768 USD571806S1 (en) 2006-05-08 2006-05-08 Video game controller
US11/430,594 US20070260517A1 (en) 2006-05-08 2006-05-08 Profile detection
US11/382,256 2006-05-08
US29/246,768 2006-05-08
US29/246,759 2006-05-08
US11/382,259 US20070015559A1 (en) 2002-07-27 2006-05-08 Method and apparatus for use in determining lack of user activity in relation to a system
US29246763 2006-05-08
US29246762 2006-05-08
US11/382,251 US20060282873A1 (en) 2002-07-27 2006-05-08 Hand-held controller having detectable elements for tracking purposes
US11/382,251 2006-05-08
US29/246,744 USD630211S1 (en) 2006-05-08 2006-05-08 Video game controller front face
US29246766 2006-05-08

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007121964A Division JP4553917B2 (en) 2006-05-04 2007-05-02 How to get input to control the execution of a game program

Publications (2)

Publication Number Publication Date
JP2009254888A JP2009254888A (en) 2009-11-05
JP5465948B2 true JP5465948B2 (en) 2014-04-09

Family

ID=46469882

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2009509932A Pending JP2009535173A (en) 2006-05-04 2007-04-19 Three-dimensional input control system, method, and apparatus
JP2007121964A Active JP4553917B2 (en) 2006-05-04 2007-05-02 How to get input to control the execution of a game program
JP2009185086A Active JP5465948B2 (en) 2006-05-04 2009-08-07 How to get input to control the execution of a game program

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2009509932A Pending JP2009535173A (en) 2006-05-04 2007-04-19 Three-dimensional input control system, method, and apparatus
JP2007121964A Active JP4553917B2 (en) 2006-05-04 2007-05-02 How to get input to control the execution of a game program

Country Status (3)

Country Link
JP (3) JP2009535173A (en)
CN (2) CN102989174B (en)
WO (2) WO2007130793A2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
CN101861367B (en) 2007-11-15 2013-08-28 精工爱普生株式会社 Ink composition
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
GB2458297B (en) * 2008-03-13 2012-12-12 Performance Designed Products Ltd Pointing device
US8351958B2 (en) 2008-07-15 2013-01-08 Panasonic Corporation Mobile device and method for identifying location thereof
WO2010062521A1 (en) * 2008-10-27 2010-06-03 Sony Computer Entertainment Inc. Spherical ended controller with configurable modes
KR20100138725A (en) 2009-06-25 2010-12-31 삼성전자주식회사 Method and apparatus for processing virtual world
JP5534729B2 (en) * 2009-07-16 2014-07-02 株式会社タイトー Screen coordinate position detection method, screen coordinate position detection apparatus and gun game apparatus using double circle index
CN106964150B (en) * 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 Action positioning point control system and sleeve type positioning point control equipment thereof
US20120277001A1 (en) * 2011-04-28 2012-11-01 Microsoft Corporation Manual and Camera-based Game Control
US9116555B2 (en) 2011-11-23 2015-08-25 Sony Computer Entertainment America Llc Gaming controller
US10960300B2 (en) 2011-11-23 2021-03-30 Sony Interactive Entertainment LLC Sharing user-initiated recorded gameplay with buffered gameplay
US10486064B2 (en) 2011-11-23 2019-11-26 Sony Interactive Entertainment America Llc Sharing buffered gameplay in response to an input request
US10525347B2 (en) 2012-03-13 2020-01-07 Sony Interactive Entertainment America Llc System and method for capturing and sharing console gaming data
US8870654B2 (en) * 2011-11-23 2014-10-28 Sony Computer Entertainment America Llc Gaming controller
US8672765B2 (en) * 2012-03-13 2014-03-18 Sony Computer Entertainment America Llc System and method for capturing and sharing console gaming data
WO2013094778A1 (en) 2011-12-19 2013-06-27 Empire Technology Development Llc Pause and resume schemes for gesture-based game
EP3539626A1 (en) 2012-10-15 2019-09-18 Sony Interactive Entertainment Inc. Operating device
EP2908224B1 (en) 2012-10-15 2020-08-19 Sony Interactive Entertainment Inc. Control device
GB2533394A (en) * 2014-12-19 2016-06-22 Gen Electric Method and system for generating a control signal for a medical device
EP3311344A1 (en) * 2015-06-17 2018-04-25 Crown Equipment Corporation Dynamic vehicle performance analyzer with smoothing filter
WO2017157427A1 (en) * 2016-03-16 2017-09-21 Huawei Technologies Co., Ltd. An audio signal processing apparatus and method for processing an input audio signal
RU2642394C1 (en) * 2017-05-05 2018-01-24 Андрей Валерьевич Груздев Device for control of the movement system
JP6957218B2 (en) * 2017-06-12 2021-11-02 株式会社バンダイナムコエンターテインメント Simulation system and program
JP6822906B2 (en) * 2017-06-23 2021-01-27 株式会社東芝 Transformation matrix calculation device, position estimation device, transformation matrix calculation method and position estimation method
KR102480310B1 (en) * 2017-11-06 2022-12-23 삼성전자주식회사 Display apparatus and control method of the same

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0461761B1 (en) * 1990-05-18 1994-06-22 British Aerospace Public Limited Company Inertial sensors
US5181181A (en) 1990-09-27 1993-01-19 Triton Technologies, Inc. Computer apparatus input device for three-dimensional information
US6069594A (en) * 1991-07-29 2000-05-30 Logitech, Inc. Computer input device with multiple switches using single line
JP3907213B2 (en) * 1992-09-11 2007-04-18 伸壹 坪田 Game control device
JPH07284166A (en) * 1993-03-12 1995-10-27 Mitsubishi Electric Corp Remote controller
US6022274A (en) * 1995-11-22 2000-02-08 Nintendo Co., Ltd. Video game system using memory module
TW387816B (en) 1996-03-05 2000-04-21 Sega Enterprises Kk Controller and expansion unit for controller
US5992233A (en) * 1996-05-31 1999-11-30 The Regents Of The University Of California Micromachined Z-axis vibratory rate gyroscope
JPH1021000A (en) * 1996-06-28 1998-01-23 Sumitomo Metal Ind Ltd Signal input device
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JPH11253656A (en) * 1998-03-09 1999-09-21 Omron Corp Attachment of game controller
JP4805433B2 (en) * 1999-03-31 2011-11-02 株式会社カプコン Signal input device and regulating member
US6417836B1 (en) * 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
JP3847058B2 (en) * 1999-10-04 2006-11-15 任天堂株式会社 GAME SYSTEM AND GAME INFORMATION STORAGE MEDIUM USED FOR THE SAME
US6489948B1 (en) * 2000-04-20 2002-12-03 Benny Chi Wah Lau Computer mouse having multiple cursor positioning inputs and method of operation
JP2002090384A (en) * 2000-09-13 2002-03-27 Microstone Corp Structure of motion sensor and internal connecting method
JP3611807B2 (en) * 2001-07-19 2005-01-19 コナミ株式会社 Video game apparatus, pseudo camera viewpoint movement control method and program in video game
JP2003131796A (en) * 2001-10-22 2003-05-09 Sony Corp Information input device, its method and computer program
JP4589007B2 (en) * 2002-04-12 2010-12-01 ヘンリー ケイ. オバーマイヤー, Multi-axis joystick and transducer means therefor
JP4179162B2 (en) * 2003-12-26 2008-11-12 株式会社セガ Information processing device, game device, image generation method, and game image generation method
JP2006031515A (en) * 2004-07-20 2006-02-02 Vodafone Kk Mobile communication terminal, application program, image display control device, and image display control method
JP4610971B2 (en) * 2004-09-07 2011-01-12 任天堂株式会社 Game program

Also Published As

Publication number Publication date
CN102580314A (en) 2012-07-18
WO2007130792A3 (en) 2008-09-12
JP2009254888A (en) 2009-11-05
CN102580314B (en) 2015-05-20
WO2007130792A2 (en) 2007-11-15
CN102989174A (en) 2013-03-27
CN102989174B (en) 2016-06-29
WO2007130793A2 (en) 2007-11-15
JP2009535173A (en) 2009-10-01
JP2007296367A (en) 2007-11-15
JP4553917B2 (en) 2010-09-29
WO2007130793A3 (en) 2008-12-11

Similar Documents

Publication Publication Date Title
JP5465948B2 (en) How to get input to control the execution of a game program
JP5022385B2 (en) Gesture catalog generation and recognition
US7854655B2 (en) Obtaining input for controlling execution of a game program
JP5204224B2 (en) Object detection using video input combined with tilt angle information
US10086282B2 (en) Tracking device for use in obtaining information for controlling game program execution
US7737944B2 (en) Method and system for adding a new player to a game in response to controller activity
US7850526B2 (en) System for tracking user manipulations within an environment
JP5726811B2 (en) Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system
US9174119B2 (en) Controller for providing inputs to control execution of a program when inputs are combined
US20070015559A1 (en) Method and apparatus for use in determining lack of user activity in relation to a system
EP2012891B1 (en) Method and apparatus for use in determining lack of user activity, determining an activity level of a user, and/or adding a new player in relation to a system
JP5638592B2 (en) System and method for analyzing game control input data
KR101020510B1 (en) Multi-input game control mixer
KR101020509B1 (en) Obtaining input for controlling execution of a program
EP1852164A2 (en) Obtaining input for controlling execution of a game program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120814

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140123

R150 Certificate of patent or registration of utility model

Ref document number: 5465948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250