JP5726811B2 - Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system - Google Patents

Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system Download PDF

Info

Publication number
JP5726811B2
JP5726811B2 JP2012120096A JP2012120096A JP5726811B2 JP 5726811 B2 JP5726811 B2 JP 5726811B2 JP 2012120096 A JP2012120096 A JP 2012120096A JP 2012120096 A JP2012120096 A JP 2012120096A JP 5726811 B2 JP5726811 B2 JP 5726811B2
Authority
JP
Japan
Prior art keywords
game
processor
tracking information
information
predetermined objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012120096A
Other languages
Japanese (ja)
Other versions
JP2012179420A (en
Inventor
ハリソン、フィル
ザレウスキー、ゲイリー、エム
マークス、リチャード
マオ、シャドン
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/381,721 external-priority patent/US8947347B2/en
Priority claimed from US11/418,988 external-priority patent/US8160269B2/en
Priority claimed from US11/381,729 external-priority patent/US7809145B2/en
Priority claimed from US11/381,725 external-priority patent/US7783061B2/en
Priority claimed from US11/381,728 external-priority patent/US7545926B2/en
Priority claimed from US11/429,133 external-priority patent/US7760248B2/en
Priority claimed from US11/381,727 external-priority patent/US7697700B2/en
Priority claimed from US11/418,989 external-priority patent/US8139793B2/en
Priority claimed from US11/381,724 external-priority patent/US8073157B2/en
Priority claimed from US11/429,414 external-priority patent/US7627139B2/en
Priority claimed from US11/429,047 external-priority patent/US8233642B2/en
Priority claimed from US11/382,037 external-priority patent/US8313380B2/en
Priority claimed from US11/382,034 external-priority patent/US20060256081A1/en
Priority claimed from US11/382,032 external-priority patent/US7850526B2/en
Priority claimed from US29/259,350 external-priority patent/USD621836S1/en
Priority claimed from US11/382,036 external-priority patent/US9474968B2/en
Priority claimed from US11/382,033 external-priority patent/US8686939B2/en
Priority claimed from US11/382,035 external-priority patent/US8797260B2/en
Priority claimed from US11/382,038 external-priority patent/US7352358B2/en
Priority claimed from US11/382,031 external-priority patent/US7918733B2/en
Priority claimed from US11/382,043 external-priority patent/US20060264260A1/en
Priority claimed from US11/382,040 external-priority patent/US7391409B2/en
Priority claimed from US11/382,041 external-priority patent/US7352359B2/en
Priority claimed from US11/382,039 external-priority patent/US9393487B2/en
Priority claimed from US29/246,743 external-priority patent/USD571367S1/en
Priority claimed from US11/382,250 external-priority patent/US7854655B2/en
Priority claimed from US29/246,744 external-priority patent/USD630211S1/en
Priority claimed from US11/430,594 external-priority patent/US20070260517A1/en
Priority claimed from US11/382,251 external-priority patent/US20060282873A1/en
Priority claimed from US11/382,259 external-priority patent/US20070015559A1/en
Priority claimed from US11/382,252 external-priority patent/US10086282B2/en
Priority claimed from US11/382,258 external-priority patent/US7782297B2/en
Priority claimed from US11/382,256 external-priority patent/US7803050B2/en
Priority claimed from US29/246,767 external-priority patent/USD572254S1/en
Priority claimed from US11/430,593 external-priority patent/US20070261077A1/en
Priority claimed from US29/246,768 external-priority patent/USD571806S1/en
Priority claimed from US29/246,764 external-priority patent/USD629000S1/en
Priority claimed from US11/382,699 external-priority patent/US20070265075A1/en
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2012179420A publication Critical patent/JP2012179420A/en
Publication of JP5726811B2 publication Critical patent/JP5726811B2/en
Application granted granted Critical
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light

Description

本発明は、一般に人とコンピュータの間のインタフェースに関し、具体的には一つ以上のコントローラのユーザ操作を追跡するための多チャンネル入力の処理に関する。   The present invention relates generally to an interface between a person and a computer, and more specifically to processing multi-channel inputs to track user operations of one or more controllers.

コンピュータ・エンターテイメント・システムは、一般的に手持ち型コントローラ、ゲーム・コントローラまたは他のコントローラを含む。ユーザまたはプレーヤは、プレイ中のテレビゲームまたは他のシミュレーションを制御するために、コントローラを使用してエンターテイメント・システムに対してコマンドまたは他の指示を送る。例えば、コントローラはユーザにより操作されるマニピュレータ(例えばジョイスティック)を備えていてもよい。ジョイスティックの操作された可変量はアナログ値からデジタル値に変換され、ゲーム機のメインフレームに送られる。コントローラは、ユーザによって操作可能であるボタンを備えていてもよい。   Computer entertainment systems typically include a handheld controller, game controller or other controller. The user or player uses the controller to send commands or other instructions to the entertainment system to control the video game or other simulation being played. For example, the controller may include a manipulator (for example, a joystick) operated by the user. The manipulated variable of the joystick is converted from an analog value to a digital value and sent to the main frame of the game machine. The controller may include a button that can be operated by the user.

これらの情報および他の背景情報に関して、本発明は考案された。   With respect to these information and other background information, the present invention has been devised.

一実施形態は、ゲーム装置の作動時に使用される、ゲーム装置に関するユーザ動作の欠如を判定する方法を提供する。この方法は、予め定められたオブジェクトに関するユーザ動作を判定するために使用できる情報を取得するステップと、この情報を処理して、前記予め定められたオブジェクトに関してユーザが現在活動していないかを判定するステップと、処理ステップにおいてユーザが現在活動していないと判定されたとき、ゲーム装置の作動の制御に用いるためにゲーム装置に第1の信号を提供するステップと、を含む。   One embodiment provides a method for determining a lack of user action associated with a gaming device that is used during operation of the gaming device. The method includes obtaining information that can be used to determine user actions relating to a predetermined object, and processing the information to determine whether a user is currently active with respect to the predetermined object. And providing a first signal to the game device for use in controlling operation of the game device when it is determined in the processing step that the user is not currently active.

別の実施形態は、ゲーム装置の作動時に使用される、ゲーム装置に関するユーザ動作の欠如を判定する方法を提供する。この方法は、ゲーム装置のユーザの活動レベルを判定するために使用できる情報を取得するステップと、この情報を処理してユーザが現在活動していないかを判定するステップと、処理ステップにおいてユーザが現在活動していないと判定されたとき、ゲーム装置の作動の制御に用いるためにゲーム装置に第1の信号を提供するステップと、を含む。   Another embodiment provides a method for determining a lack of user action associated with a gaming device that is used during operation of the gaming device. The method includes obtaining information that can be used to determine an activity level of a user of the gaming device, processing the information to determine whether the user is not currently active, Providing a first signal to the game device for use in controlling the operation of the game device when it is determined that it is not currently active.

別の実施形態は、ゲーム装置の作動に用いる方法を提供する。この方法は、ゲーム装置の制御に用いられる複数の予め定められたオブジェクトの活動を判定するために使用できる情報を取得するステップと、この情報を処理して、ゲームの進行中に複数の予め定められたオブジェクトのうちの一つが活動していないかを判定するステップと、複数の予め定められたオブジェクトのうちの一つが活動していないと判定した後の現在活動しているという判定に応答して、進行中のゲームに新たなプレーヤを追加するステップと、を含む。   Another embodiment provides a method for use in operating a gaming device. The method includes obtaining information that can be used to determine the activity of a plurality of predetermined objects used to control the gaming device, and processing the information to determine a plurality of predetermined objects during the game. In response to determining whether one of the selected objects is inactive and determining that one of the plurality of predetermined objects is currently active after determining that one of the plurality of predetermined objects is not active. Adding a new player to the ongoing game.

別の実施形態は、ゲーム装置の作動に用いられるシステムを提供する。このシステムは、ゲーム装置の制御に用いられる複数の予め定められたオブジェクトの活動を判定するために使用できる情報を取得する手段と、この情報を処理して、ゲームの進行中に複数の予め定められたオブジェクトのうちの一つが活動していないかを判定する手段と、複数の予め定められたオブジェクトのうちの一つが活動していないと判定した後の現在活動しているという判定に応答して、進行中のゲームに新たなプレーヤを追加する手段と、を備える。   Another embodiment provides a system for use in operating a gaming device. The system includes means for obtaining information that can be used to determine the activity of a plurality of predetermined objects used to control the game device, and processing the information to determine a plurality of predetermined objects while the game is in progress. In response to a means for determining whether one of the selected objects is inactive and a determination that one of the plurality of predetermined objects is currently active after determining that one of the predetermined objects is not active. And means for adding a new player to the ongoing game.

本発明の教示は、添付の図面とともに以下の詳細な説明を考慮することによって容易に理解することができる。   The teachings of the present invention can be readily understood by considering the following detailed description in conjunction with the accompanying drawings, in which:

本発明の一実施形態にしたがって作動するテレビゲーム・システムを示す模式図である。1 is a schematic diagram illustrating a video game system operating in accordance with an embodiment of the present invention. FIG. 本発明の一実施形態にしたがって作製されるコントローラの斜視図である。2 is a perspective view of a controller made in accordance with one embodiment of the present invention. FIG. 本発明の一実施形態によるコントローラで使用可能な加速度計を示す三次元の概略図である。3 is a three-dimensional schematic diagram illustrating an accelerometer that can be used in a controller according to an embodiment of the present invention. 本発明の一実施形態にしたがう様々な制御入力を混合するためのシステムのブロック図である。1 is a block diagram of a system for mixing various control inputs according to one embodiment of the present invention. FIG. 本発明の一実施形態によるシステムのブロック図である。1 is a block diagram of a system according to an embodiment of the present invention. 本発明の一実施形態による方法のフロー図である。FIG. 3 is a flow diagram of a method according to an embodiment of the invention. 本発明の一実施形態による方法のフロー図である。FIG. 3 is a flow diagram of a method according to an embodiment of the invention. 本発明の一実施形態にしたがって本明細書に記載された方法および技術を実施、実装および/または実行するために使用可能なシステムを示すブロック図である。1 is a block diagram illustrating a system that can be used to implement, implement, and / or perform the methods and techniques described herein in accordance with one embodiment of the present invention. 本発明の一実施形態にしたがって本明細書に記載された方法および技術を実施、実装および/または実行するために使用可能なプロセッサを示すブロック図である。FIG. 6 is a block diagram illustrating a processor that can be used to implement, implement, and / or perform the methods and techniques described herein in accordance with an embodiment of the invention. 本発明の一実施形態にしたがう方法を示すフロー図である。FIG. 5 is a flow diagram illustrating a method according to an embodiment of the present invention. 本発明の一実施形態にしたがう方法を示すフロー図である。FIG. 5 is a flow diagram illustrating a method according to an embodiment of the present invention.

以下の詳細な説明では、説明のために多くの特定の詳細事項を含むが、当業者であれば、以下の詳細事項に対する多くの変形および変更が本発明の範囲内にあることを認めるであろう。したがって、以下に記す本発明の典型的な実施形態は、特許請求の範囲に記載の発明の一般性を損なうことなく、また限定を課することなく記載されている。   While the following detailed description includes many specific details for purposes of explanation, those skilled in the art will recognize that many variations and modifications to the following details are within the scope of the present invention. Let's go. Accordingly, the exemplary embodiments of the invention described below are described without impairing the generality of the claimed invention and without limiting it.

本明細書に記載の方法、装置、方式およびシステムの様々な実施形態は、ユーザによるコントローラ本体全体の移動、動きおよび/または操作の検知、捕捉、追跡を提供する。検出されたユーザによるコントローラ本体全体の移動、動きおよび/または操作を追加のコマンドとして使用して、プレイ中のゲームまたは他のシミュレーションの様々な状況を制御することができる。   Various embodiments of the methods, apparatus, schemes and systems described herein provide for detection, capture, and tracking of movement, movement and / or manipulation of the entire controller body by a user. The movement, movement and / or manipulation of the entire controller body by the detected user can be used as additional commands to control various aspects of the game or other simulation being played.

ゲーム・コントローラ本体のユーザ操作の検出、追跡は様々な方法で実施することができる。例えば、加速度計またはジャイロスコープなどの慣性センサ、デジタルカメラなどの画像取得装置をコンピュータ・エンターテイメント・システムとともに使用して、手持ち型のコントローラ本体の動きを検出してそれをゲーム内のアクションに変換することができる。慣性センサを用いたコントローラの追跡の例は、例えば米国特許出願第11/382,033号の「SYSTEM、METHOD、AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL」(代理人整理番号SCEA06INRT1)に記載されており、参照により本明細書に援用される。画像捕捉を用いたコントローラの追跡の例は、例えば米国特許出願第11/382,034号の「SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY」(代理人整理番号SCEA05082US00)に記載されており、参照により本明細書に援用される。さらに、マイク配列と適切な信号処理とを用いてコントローラおよび/またはユーザを音響的に追跡することもできる。このような音響追跡の例は、米国特許出願第11/381 ,721号に記載されており、参照により本明細書に援用される。   Detection and tracking of user operations on the game controller main body can be performed in various ways. For example, an inertial sensor such as an accelerometer or gyroscope, or an image acquisition device such as a digital camera can be used with a computer entertainment system to detect the movement of the handheld controller body and convert it into an in-game action be able to. Examples of controller tracking using inertial sensors are described, for example, in US Patent Application No. 11 / 382,033, “SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL” (Attorney Docket Number SCEA06INRT1), see Is incorporated herein by reference. An example of tracking a controller using image capture is described, for example, in US patent application Ser. No. 11 / 382,034, “SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY” (Attorney Docket Number SCEA05082US00). Is incorporated herein by reference. In addition, the controller and / or user can be tracked acoustically using a microphone array and appropriate signal processing. An example of such acoustic tracking is described in US patent application Ser. No. 11 / 381,721, which is incorporated herein by reference.

音響検出、慣性検出および画像捕捉を個々にまたは任意に組み合わせて使用して、コントローラの多くの異なる種類の動きを検出することができる。例えば、上下の動き、ひねる動き、横方向の動き、急な動き、杖のような動き、落ち込む動きなどである。このような動きは、ゲーム内のアクションに変換される様々なコマンドに対応していてもよい。ゲームコントローラ本体のユーザによる操作の検出および追跡を使用して、多くの異なる種類のゲームやシミュレーション等を実施することができる。これによってユーザは、例えば、剣またはライトセーバーで戦い、杖を用いてアイテムの形状をなぞり、多くの異なる種類のスポーツ競技に参加し、スクリーン上の戦いまたは他の遭遇等に関わることができるコントローラの動きを追跡し、追跡された動きから予め記録された特定のジェスチャを認識するように、ゲームプログラムを構成することができる。これらの一つ以上のジェスチャの認識により、ゲーム状態の変化を引き起こすことができる。   Sound detection, inertia detection and image capture can be used individually or in any combination to detect many different types of movement of the controller. For example, up / down movement, twisting movement, lateral movement, sudden movement, movement like a cane, depression movement, and the like. Such movements may correspond to various commands that are converted into in-game actions. Many different types of games, simulations, etc. can be implemented using detection and tracking of operations by the user of the game controller body. This allows users to fight with a sword or lightsaber, trace the shape of an item with a cane, participate in many different types of sports competitions, engage in battles on the screen or other encounters, etc. The game program can be configured to track movement and recognize a pre-recorded specific gesture from the tracked movement. Recognition of one or more of these gestures can cause a change in game state.

本発明の実施形態では、ジェスチャ認識を解析する前に、これらの異なるソースから得られたコントローラの経路情報を混合することができる。異なるソース(例えば、音響、慣性、および画像捕捉)からの追跡データを、ジェスチャ認識の可能性を改善するように混合することができる。   In an embodiment of the present invention, controller path information obtained from these different sources can be mixed before analyzing gesture recognition. Tracking data from different sources (eg, sound, inertia, and image capture) can be mixed to improve the likelihood of gesture recognition.

図1Aを参照すると、本発明の一実施形態により作動するシステム100が示されている。図示するように、コンピュータ・エンターテイメント・コンソール102は、テレビゲームまたは他のシミュレーションの画像を表示するためにテレビまたは他のビデオディスプレイ104に接続することができる。ゲームまたは他のシミュレーションは、DVD、CD、フラッシュメモリ、USBメモリ、またはコンソール102に挿入される他のメモリ媒体106に保存されてもよい。ユーザまたはプレーヤ108は、ゲームコントローラ110を操作してテレビゲームまたは他のシミュレーションを制御する。図2に示すように、ゲームコントローラ110は、コントローラ110の位置、動き、方向または方向の変化に応じた信号を生成する慣性センサ112を備える。慣性センサに加えて、ゲームコントローラ110は、従来の制御入力装置、例えばジョイスティック111、ボタン113、Rl、Ll等を備えてもよい。   Referring to FIG. 1A, a system 100 that operates according to one embodiment of the present invention is shown. As shown, the computer entertainment console 102 can be connected to a television or other video display 104 to display images of a video game or other simulation. The game or other simulation may be stored on a DVD, CD, flash memory, USB memory, or other memory medium 106 inserted into the console 102. A user or player 108 operates the game controller 110 to control a video game or other simulation. As shown in FIG. 2, the game controller 110 includes an inertial sensor 112 that generates a signal corresponding to the position, movement, direction, or change in direction of the controller 110. In addition to the inertial sensor, the game controller 110 may include a conventional control input device such as a joystick 111, buttons 113, Rl, Ll, and the like.

作動中、ユーザ108はコントローラ110を物理的に動かす。例えば、コントローラ110をユーザ108により任意の方向、つまり上下、左右、ねじり、回転、揺さぶり、急な動き、落ち込みのように動かすことができる。コントローラ110自体のこれらの動きは、以下に記す方法で慣性センサ112からの信号解析による追跡によってカメラ112により検知および取得することができる。   In operation, the user 108 physically moves the controller 110. For example, the controller 110 can be moved by the user 108 in any direction, that is, up and down, left and right, twisting, rotation, shaking, sudden movement, and depression. These movements of the controller 110 itself can be detected and acquired by the camera 112 by tracking by signal analysis from the inertial sensor 112 in the manner described below.

再び図1を参照して、システム100はカメラまたは他の画像取得装置114を選択的に備えてもよい。これらは、コントローラ110がカメラの視野116の範囲内に存在するように配置することができる。画像取得装置114からの画像の解析を、慣性センサ112からのデータの解析とともに用いることができる。図2に示すように、コントローラ110は、ビデオ解析による追跡を容易にするために、発光ダイオード(LED)202、204、206、208などの光源を選択的に備えてもよい。これらは、コントローラ110の本体に取り付けられてもよい。本明細書において、「本体」という用語は、人が手で保持する(または、ウェアラブル・ゲームコントローラである場合は着用する)ゲームコントローラ110の一部を意味している。   Referring again to FIG. 1, the system 100 may optionally include a camera or other image acquisition device 114. These can be positioned such that the controller 110 is within the field of view 116 of the camera. Analysis of the image from the image acquisition device 114 can be used along with analysis of data from the inertial sensor 112. As shown in FIG. 2, the controller 110 may optionally include a light source such as light emitting diodes (LEDs) 202, 204, 206, 208 to facilitate tracking through video analysis. These may be attached to the main body of the controller 110. In this specification, the term “main body” means a part of the game controller 110 that a person holds (or wears in the case of a wearable game controller) by hand.

コントローラ110を追跡するためのビデオ画像の追跡は、米国特許出願第11/382,034号、2006年5月6日出願の「SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY」(代理人整理番号86321 SCEA05082US00)に記載されており、参照により本明細書に援用される。コンソール110は、マイク配列118等の音響変換器を備えてもよい。コントローラ110は、マイク配列118と適切な音響信号処理を用いてコントローラ110の音響追跡を容易にするための音源を提供する音響信号生成器210(例えばスピーカ)を備えてもよい。これは、米国特許出願第11/381,724号に記載されており、参照により本明細書に援用される。   Video image tracking for tracking the controller 110 is described in US patent application Ser. No. 11 / 382,034, “SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY” filed May 6, 2006. SCEA05082US00), which is incorporated herein by reference. The console 110 may include an acoustic transducer such as a microphone array 118. The controller 110 may include an acoustic signal generator 210 (eg, a speaker) that provides a sound source to facilitate acoustic tracking of the controller 110 using the microphone array 118 and appropriate acoustic signal processing. This is described in US patent application Ser. No. 11 / 381,724, which is incorporated herein by reference.

一般に、慣性センサ112からの信号を使用して、コントローラ110の位置データと方向データを生成する。このようなデータは、コントローラ110の動きの多くの物理的状況を計算することができる。例えば、任意の軸に沿ったコントローラの加速度および速度、その傾き、ピッチ、ヨー、ロール、およびコントローラ110の任意の遠隔測定点などである。本明細書では、遠隔測定とは一般にシステムまたはシステムの設計者、オペレータに関心のある情報を遠隔で測定し報告することを指す。   Generally, signals from the inertial sensor 112 are used to generate position data and direction data for the controller 110. Such data can calculate many physical situations of the movement of the controller 110. For example, the acceleration and velocity of the controller along any axis, its tilt, pitch, yaw, roll, and any telemetry point of the controller 110. As used herein, telemetry generally refers to remotely measuring and reporting information of interest to a system or system designer or operator.

コントローラ110の動きを検出し追跡する能力により、コントローラ110の任意の予め定義された動きが実行されるか否かを判定することが可能になる。すなわち、コントローラ110の特定の動きパターンまたはジェスチャを、ゲームまたは他のシミュレーションのための入力コマンドとして予め定義し用いることができる。例えば、コントローラ110を落下させるジェスチャを一つのコマンドとして定義することができ、コントローラ110をひねるジェスチャを別のコマンドとして定義することができ、コントローラ110を揺さぶるジェスチャを別のコマンドとして定義することができるなどである。このように、ユーザ108がコントローラ110を物理的に動かす態様を、ゲームを制御するためのもう一つの入力として使用する。これにより、より刺激的で面白い体験をユーザに提供する。   The ability to detect and track the movement of the controller 110 makes it possible to determine whether any predefined movement of the controller 110 is performed. That is, a specific movement pattern or gesture of the controller 110 can be predefined and used as an input command for a game or other simulation. For example, a gesture for dropping the controller 110 can be defined as one command, a gesture for twisting the controller 110 can be defined as another command, and a gesture for shaking the controller 110 can be defined as another command. Etc. Thus, the manner in which the user 108 physically moves the controller 110 is used as another input for controlling the game. This provides the user with a more exciting and interesting experience.

一例として、慣性センサ112は加速度計でもよいが、これに限定されない。図3は、例えばバネ306、308、310、312によりフレーム304に弾性結合された単一の質量302の形態をもつ加速度計300の例を示す。ピッチ軸とロール軸(それぞれX、Yで示す)はフレームを横切る平面内にある。ヨー軸Zは、ピッチ軸Xとロール軸Yを含む平面と垂直の方向を向く。フレーム304は、任意の適した形態でコントローラ110に取り付けることができる。フレーム304(およびジョイスティック・コントローラ110)が加速および/または回転すると、フレーム304に対して質量302が変位し、並進加速および/または回転加速の量および方向、および/またはピッチ、ロールおよび/またはヨーの角度に応じてバネ306、308、310、312が伸縮する。質量302の変位および/またはバネ306、308、310、312の伸縮が例えば適切なセンサ314、316、318、320を用いて感知され、ピッチおよび/またはロールの量、加速度に応じて既知の方法または決定可能な方法で信号に変換される。   As an example, the inertial sensor 112 may be an accelerometer, but is not limited thereto. FIG. 3 shows an example of an accelerometer 300 in the form of a single mass 302 that is elastically coupled to the frame 304 by springs 306, 308, 310, 312, for example. The pitch axis and roll axis (represented by X and Y, respectively) lie in a plane across the frame. The yaw axis Z faces in a direction perpendicular to a plane including the pitch axis X and the roll axis Y. The frame 304 can be attached to the controller 110 in any suitable form. As frame 304 (and joystick controller 110) accelerates and / or rotates, mass 302 displaces relative to frame 304, and the amount and direction of translational acceleration and / or rotational acceleration and / or pitch, roll and / or yaw. The springs 306, 308, 310, 312 expand and contract according to the angle. Displacement of the mass 302 and / or expansion and contraction of the springs 306, 308, 310, 312 is sensed using, for example, suitable sensors 314, 316, 318, 320, and known methods depending on the pitch and / or roll amount, acceleration. Or converted into a signal in a determinable manner.

質量の位置および/または質量にかかる力を追跡する多くの異なる方法があり、これには、抵抗歪みゲージ材料、フォトニック・センサ、磁気センサ、ホール効果デバイス、圧電デバイス、容量センサなどが含まれる。本発明の実施形態は、任意の数および種類のセンサ、または複数種類のセンサの組み合わせを含むことができる。一例として、センサ314、316、318、320は、質量302の上方に配置されたギャップの閉じた電極であってもよいが、これに限定されない。各電極に対する質量の位置が変化すると、質量と各電極の間の静電容量が変化する。各電極は、電極に対する質量302の静電容量(つまり、近接度)に関連する信号を生成する回路に接続される。さらに、バネ306、308、310、312は、バネの伸縮に関する信号を生成する抵抗歪みゲージセンサを備えてもよい。   There are many different ways to track mass position and / or force on mass, including resistive strain gauge materials, photonic sensors, magnetic sensors, Hall effect devices, piezoelectric devices, capacitive sensors, etc. . Embodiments of the present invention can include any number and type of sensors, or combinations of multiple types of sensors. As an example, the sensors 314, 316, 318, 320 may be, but are not limited to, gap-closed electrodes positioned above the mass 302. As the position of the mass with respect to each electrode changes, the capacitance between the mass and each electrode changes. Each electrode is connected to a circuit that generates a signal related to the capacitance (ie, proximity) of the mass 302 to the electrode. Further, the springs 306, 308, 310, 312 may include a resistance strain gauge sensor that generates a signal relating to the expansion and contraction of the spring.

一部の実施形態では、ピッチ、ロールおよび/またはヨー軸に対して加速度計300が固定の方向を維持するように、フレーム304はコントローラ110に取り付けられるジンバルであってもよい。この方法によると、実空間の座標軸に対するコントローラ軸の傾きを考慮する必要なしに、コントローラのX、Y、Z軸を実空間内の対応する軸に直接マッピングすることができる。   In some embodiments, the frame 304 may be a gimbal attached to the controller 110 such that the accelerometer 300 maintains a fixed orientation relative to the pitch, roll and / or yaw axis. According to this method, the X, Y, and Z axes of the controller can be directly mapped to the corresponding axes in the real space without having to consider the inclination of the controller axis with respect to the coordinate axes in the real space.

上述したように、慣性ソース、画像捕捉ソース、音響ソースからのデータを解析して、コントローラ110の位置および/または方向を追跡する経路を生成することができる。図4のブロック図で示すように、本発明の一実施形態によるシステム400は、慣性解析器402、画像解析器404、および音響解析器406を備えてもよい。これらの解析器はそれぞれ、検知される環境401から信号を受け取る。解析器402、406、408は、ハードウェア、ソフトウェア(またはファームウェア)、またはこれらのうちの二つ以上の組合せで実装することができる。各解析器は、対象オブジェクトの位置および/または方向に関する追跡情報を生成する。一例として、対象オブジェクトは上述のコントローラ110であってもよい。画像解析器404は、以下のフィールドとともに動作しフィールドを形成し、米国特許出願第11/382,034号(代理人整理番号86321 SCEA05082US00)に記載の方法に関連する。慣性解析器402は、以下のフィールドとともに動作しフィールドを形成し、米国特許出願第11/382,033号の「SYSTEM、METHOD、AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL」(代理人整理番号SCEA06INRT1)に記載の方法に関連する。音響解析器406は、以下のフィールドとともに動作しフィールドを形成し、米国特許出願第11/381,724号に記載の方法に関連する。   As described above, data from inertial sources, image capture sources, and acoustic sources can be analyzed to generate a path that tracks the position and / or orientation of the controller 110. As shown in the block diagram of FIG. 4, a system 400 according to one embodiment of the invention may include an inertial analyzer 402, an image analyzer 404, and an acoustic analyzer 406. Each of these analyzers receives a signal from the environment 401 to be detected. The analyzers 402, 406, 408 can be implemented in hardware, software (or firmware), or a combination of two or more of these. Each analyzer generates tracking information regarding the position and / or orientation of the target object. As an example, the target object may be the controller 110 described above. The image analyzer 404 operates in conjunction with the following fields to form a field and relates to the method described in US patent application Ser. No. 11 / 382,034 (Attorney Docket No. 86321 SCEA05082US00). The inertial analyzer 402 operates with the following fields to form a field, which is described in “SYSTEM, METHOD, AND APPARATUS FOR THREE-DIMENSIONAL INPUT CONTROL” (Attorney Docket No. SCEA06INRT1) of US Patent Application No. 11 / 382,033. Related to the method. The acoustic analyzer 406 operates in conjunction with the following fields to form a field and is related to the method described in US patent application Ser. No. 11 / 381,724.

解析器402、404、406を、位置情報および/または方向情報の異なる入力チャネルに関連しているとみなしてもよい。ミキサ408は複数の入力チャネルを受け入れることができる。このチャネルは、典型的にチャネルの視野からの検知された環境401を特徴付けるサンプルデータを含む。慣性解析器402、画像解析器404および音響解析器406によって生成される位置情報および/または方向情報を、ミキサ408の入力に結合することができる。ミキサ408と解析器402、404、406は、ゲームソフトウェア410によって問い合わせされ、イベントに応じてゲームソフトウェアを中断するように構成されていてもよい。イベントには、ジェスチャ認識イベント、ギアリング(gearing)変更、設定変更、設定ノイズレベル、設定サンプリングレート、マッピングチェーンの変更等が含まれる。これらの例については後述する。ミキサ408は、以下のフィールドとともに動作しフィールドを形成し、本明細書に記載の方法に関連する。   The analyzers 402, 404, 406 may be considered to be associated with input channels with different position information and / or direction information. The mixer 408 can accept multiple input channels. This channel typically includes sample data that characterizes the sensed environment 401 from the channel's field of view. Position and / or direction information generated by inertial analyzer 402, image analyzer 404 and acoustic analyzer 406 can be coupled to the input of mixer 408. The mixer 408 and the analyzers 402, 404, 406 may be configured to be queried by the game software 410 and interrupt the game software in response to an event. Events include gesture recognition events, gearing changes, setting changes, setting noise levels, setting sampling rates, mapping chain changes, and the like. These examples will be described later. The mixer 408 operates in conjunction with the following fields to form fields and is associated with the methods described herein.

上述のように、例えば慣性センサ、ビデオ画像および/または音響センサなどの異なる入力チャネルからの信号が、それぞれ慣性解析器402、画像解析器404、音響解析器406によって解析され、本発明の方法によるテレビゲームのプレイ中にコントローラ110の動きおよび/または方向を決定することができる。このような方法は、プロセッサ可読の媒体に保存されデジタルプロセッサで実行される一連のプロセッサ実行可能なプログラムコード命令として実装することができる。例えば、図5Aに示すように、テレビゲームシステム100は、それぞれハードウェアまたはソフトウェアで実装される慣性解析器402、画像解析器404、音響解析器406を備えるコンソール102を含んでもよい。一例として、解析器402、404、406は、適切なプロセッサユニット502上で動くソフトウェア命令として実装することができる。一例として、プロセッサユニット502は、例えば、テレビゲーム機で一般に使用される種類のマイクロプロセッサなどのデジタルプロセッサであってもよい。命令の一部がメモリ506に保存されてもよい。代わりに、慣性解析器402、画像解析器404、および音響解析器406は、例えば特定用途向け集積回路(ASIC)としてハードウェアで実装されてもよい。このような解析器ハードウェアは、コントローラ110またはコンソール102上に配置されてもよいし、別の場所に離れて配置されてもよい。ハードウェア実装では、解析器402、404、406は、例えばプロセッサ502から、またはUSBケーブルや無線接続、ネットワークなどの他の離れて配置されたソースからの外部信号に応じてプログラム可能であってもよい。   As described above, signals from different input channels such as inertial sensors, video images and / or acoustic sensors, for example, are analyzed by inertial analyzer 402, image analyzer 404, and acoustic analyzer 406, respectively, according to the method of the present invention. The motion and / or direction of the controller 110 can be determined during video game play. Such a method may be implemented as a series of processor-executable program code instructions stored on a processor-readable medium and executed by a digital processor. For example, as shown in FIG. 5A, the video game system 100 may include a console 102 including an inertial analyzer 402, an image analyzer 404, and an acoustic analyzer 406, each implemented in hardware or software. As an example, analyzers 402, 404, 406 can be implemented as software instructions running on a suitable processor unit 502. As an example, the processor unit 502 may be a digital processor such as, for example, a type of microprocessor commonly used in video game machines. A portion of the instructions may be stored in the memory 506. Alternatively, inertial analyzer 402, image analyzer 404, and acoustic analyzer 406 may be implemented in hardware as, for example, an application specific integrated circuit (ASIC). Such analyzer hardware may be located on the controller 110 or console 102 or may be located remotely elsewhere. In a hardware implementation, the analyzers 402, 404, 406 may be programmable in response to external signals from, for example, the processor 502 or from other remotely located sources such as USB cables, wireless connections, networks, etc. Good.

慣性解析器402は、慣性センサ112により生成された信号を解析し、コントローラ110の位置および/または方向に関する情報を利用する命令を含むかそのような命令を実装してもよい。同様に、画像解析器404は、画像取得装置114によってとらえられた画像を解析する命令を実装してもよい。さらに、音響解析器は、マイク配列118によってとらえられた画像を解析する命令を実装してもよい。図5Bのフロー図510に示すように、これらの信号および/または画像は、ブロック512に示すように解析器402、404、406により受け取られてもよい。ブロック514で示すように、信号および/または画像は解析器402、404、406で解析されて、コントローラ110の位置および/または方向に関する慣性追跡情報403、画像追跡情報405および音響追跡情報407を求めてもよい。追跡情報403、405、407は一つ以上の自由度に関連していてもよい。コントローラ110または他の追跡されるオブジェクトの操作を特徴付けるために、6自由度が追跡されることが好ましい。この自由度は、x軸、y軸、z軸に沿ったコントローラの傾き、ヨー、ロールおよび位置、速度または加速度に関していてもよい。   Inertial analyzer 402 may include or implement instructions that analyze signals generated by inertial sensor 112 and utilize information regarding the position and / or orientation of controller 110. Similarly, the image analyzer 404 may implement instructions for analyzing an image captured by the image acquisition device 114. Further, the acoustic analyzer may implement instructions for analyzing the image captured by the microphone array 118. These signals and / or images may be received by analyzers 402, 404, 406 as shown in block 512, as shown in flow diagram 510 of FIG. 5B. As indicated by block 514, the signals and / or images are analyzed by analyzers 402, 404, 406 to determine inertial tracking information 403, image tracking information 405, and acoustic tracking information 407 regarding the position and / or orientation of controller 110. May be. The tracking information 403, 405, 407 may be associated with one or more degrees of freedom. Preferably 6 degrees of freedom are tracked to characterize the operation of the controller 110 or other tracked object. This degree of freedom may relate to controller tilt, yaw, roll and position, velocity or acceleration along the x, y, and z axes.

ブロック516で示すように、ミキサ408は慣性情報403、画像情報405および音響情報407を混合して、改善された位置および/または方向情報409を生成する。一例として、ミキサ408は、ゲーム状況または環境状況に基づき慣性情報403、画像情報405および音響情報407に異なる重み付けを適用して加重平均をとってもよい。さらに、ミキサ408は、組み合わされた位置および/または方向情報を解析する自身のミキサ解析器412を備え、他の解析器により生成された情報の組み合わせを含む求められた自身の「ミキサ」情報を生成してもよい。   As indicated by block 516, the mixer 408 mixes the inertial information 403, the image information 405, and the acoustic information 407 to generate improved position and / or direction information 409. As an example, the mixer 408 may take a weighted average by applying different weights to the inertia information 403, the image information 405, and the acoustic information 407 based on the game situation or the environmental situation. Further, the mixer 408 includes its own mixer analyzer 412 that analyzes the combined position and / or orientation information, and obtains its own “mixer” information that includes a combination of information generated by other analyzers. It may be generated.

本発明の実施形態では、ミキサ408は解析器402、404、406からの追跡情報403、405、407に分布値を割り当ててもよい。上記のように、入力制御データの特定セットを平均化してもよい。しかしながら、本実施形態では、平均化の前に入力制御データに値を割り当て、これにより、一部の解析器からの入力制御データの分析の重要性を他の解析器からのものより高めてもよい。   In an embodiment of the invention, the mixer 408 may assign distribution values to the tracking information 403, 405, 407 from the analyzers 402, 404, 406. As described above, a particular set of input control data may be averaged. However, in this embodiment, values are assigned to the input control data before averaging, so that the importance of analysis of the input control data from some analyzers may be higher than that from other analyzers. Good.

ミキサ408は、他の処理および解析の観察、訂正、安定化、微分、組合せ、ルーティング、混合、報告、バッファ、中断の文脈でいくつかの機能を引き受けてもよい。これは、解析器402、404、406の一つ以上から受け取る追跡情報403、405、407に対して実行されてもよい。解析器402、404、406がそれぞれ特定の追跡情報を受け取るか取り出す一方、ミキサ408は受け取った追跡情報403、405、407の使用を最適化し、改善された追跡情報409を生成するように実装されていてもよい。   The mixer 408 may assume several functions in the context of other processing and analysis observations, corrections, stabilization, differentiation, combination, routing, mixing, reporting, buffering, and interruptions. This may be performed for the tracking information 403, 405, 407 received from one or more of the analyzers 402, 404, 406. The mixer 408 is implemented to optimize use of the received tracking information 403, 405, 407 and generate improved tracking information 409, while the analyzers 402, 404, 406 each receive or retrieve specific tracking information. It may be.

解析器402、404、406とミキサ408は、同様の出力フォーマットで追跡情報を提供するように構成されることが好ましい。任意の解析器要素402、404、406からの追跡情報パラメータを、解析器内の単一のパラメータにマッピングすることができる。代わりに、ミキサ408は、一つ以上の解析器402、404、406からの一つ以上の追跡情報パラメータを処理することによって、解析器402、404、406のいずれのためにも追跡情報を作り出すことができる。ミキサは、解析器402、404、406から得られる同一のパラメータタイプの追跡情報の二つ以上の要素を組み合わせ、解析器により生成された複数の追跡情報パラメータにわたる機能を実行して、複数の入力チャネルから生成される利点を有する出力の合成セットを作成することができる。   The analyzers 402, 404, 406 and the mixer 408 are preferably configured to provide tracking information in a similar output format. Tracking information parameters from any analyzer element 402, 404, 406 can be mapped to a single parameter in the analyzer. Instead, the mixer 408 generates tracking information for any of the analyzers 402, 404, 406 by processing one or more tracking information parameters from the one or more analyzers 402, 404, 406. be able to. The mixer combines two or more elements of tracking information of the same parameter type obtained from the analyzers 402, 404, 406, performs functions across multiple tracking information parameters generated by the analyzer, and receives multiple inputs. A composite set of outputs can be created with the benefits generated from the channels.

ブロック518で示すように、システム100でのテレビゲームのプレイ中に、改善された追跡情報409を利用することができる。特定の実施形態では、ゲームプレイ中にユーザ108によりなされたジェスチャに関連して位置情報および/または方向情報を用いることができる。一部の実施形態では、ミキサ408は、ジェスチャ認識装置505とともに作動して、ゲーム環境内の少なくとも一つの動作と、ユーザからの一つ以上のユーザ動作(例えば、空間内でのコントローラの操作)とを結びつけることができる。   As indicated by block 518, improved tracking information 409 may be utilized during video game play on the system 100. In certain embodiments, location information and / or direction information may be used in connection with gestures made by the user 108 during game play. In some embodiments, the mixer 408 operates in conjunction with the gesture recognizer 505 to at least one action in the gaming environment and one or more user actions from the user (eg, operating the controller in space). Can be linked.

図5Cのフロー図520において、ブロック522で示すように、位置情報および/または方向情報を用いてコントローラ110の経路を追跡することができる。一例として、経路は、いくつかの座標系に対するコントローラの質量中心の位置を表す一組の点を含んでもよいが、これに限定されない。各位置点は、デカルト座標系のX、Y、Z座標などの一つ以上の座標で表すことができる。経路の形状と、経路に沿ったコントローラの進行の両方を監視できるように、経路上の各点に時間を関連させてもよい。さらに、上記組の中の各点を、コントローラの方向(例えば、コントローラの質量中心周りの一つ以上の回転角)を表すデータと関連づけておいてもよい。さらに、経路上の各点を、コントローラの質量中心の速度および加速度、角回転率、および質量中心周りのコントローラの角加速度の値と関連づけておいてもよい。   In the flow diagram 520 of FIG. 5C, the path of the controller 110 may be tracked using position information and / or direction information, as indicated by block 522. As an example, the path may include, but is not limited to, a set of points that represent the position of the center of mass of the controller with respect to several coordinate systems. Each position point can be represented by one or more coordinates such as X, Y, and Z coordinates in a Cartesian coordinate system. Time may be associated with each point on the path so that both the shape of the path and the progress of the controller along the path can be monitored. Furthermore, each point in the set may be associated with data representing the direction of the controller (eg, one or more rotation angles around the center of mass of the controller). Further, each point on the path may be associated with the value of the velocity and acceleration of the center of mass of the controller, the angular rotation rate, and the value of the angular acceleration of the controller around the center of mass.

ブロック524で示すように、追跡された経路を、プレイ中のテレビゲームの文脈に関連する既知のおよび/または予め記録されたジェスチャ508に対応する一つ以上の保存された経路と比較してもよい。認識装置505は、ユーザを認識するかまたは音声認証されたジェスチャ等を処理するように構成されてもよい。例えば、認識装置505はジェスチャによりユーザを識別することができる。ジェスチャは、ユーザ特有のものであってもよい。このような特有のジェスチャは、メモリ506に保存される予め記録されたジェスチャ508の中に記録され含められる。記録処理は、ジェスチャの認識中に生じる音声を選択的に保存してもよい。検知された環境は多重チャネル解析器でサンプリングされ処理される。プロセッサはジェスチャモデルを参照して、音声または音響パターンに基づき高精度かつ高性能にユーザまたはオブジェクトを決定、認証および/または識別することができる。   The tracked path may also be compared to one or more stored paths corresponding to known and / or pre-recorded gestures 508 associated with the context of the video game being played, as indicated by block 524. Good. The recognition device 505 may be configured to recognize a user or process a voice authenticated gesture or the like. For example, the recognition device 505 can identify a user by a gesture. The gesture may be user specific. Such unique gestures are recorded and included in pre-recorded gestures 508 stored in memory 506. The recording process may selectively save a sound generated during gesture recognition. The detected environment is sampled and processed by a multi-channel analyzer. The processor can refer to the gesture model to determine, authenticate and / or identify the user or object with high accuracy and high performance based on the speech or acoustic pattern.

図5Aで示すように、ジェスチャを表すデータ508がメモリ506に保存されてもよい。ジェスチャの例には、ボールのような物を投げる、バットまたはゴルフクラブのような物を振る、ハンドポンプを動かす、扉または窓を開閉する、ハンドルまたは他の車両制御装置を回す、パンチのような格闘技の動き、紙やすりで磨く動き、ワックスをかける、家を塗る、振る、音をたてる、回す、フットボールを投げる、ノブを回す、3Dマウスの動き、スクロールする動き、プロフィールによる動き、任意の記録可能な動き、タイヤに空気を入れるような空間内の任意の方向で任意のベクトルに沿った前後の動き、経路に沿った動き、正確な停止と開始がある動き、ノイズフロア内で記録、追跡、繰り返し可能な任意の時間ベースのユーザ操作、スプライン等を含むが、これらに限定されない。これらのジェスチャはそれぞれ、経路データから予め記録され、時間ベースのモデルとして記録することができる。   As shown in FIG. 5A, data 508 representing a gesture may be stored in the memory 506. Examples of gestures include throwing objects such as balls, swinging objects such as bats or golf clubs, moving hand pumps, opening or closing doors or windows, turning handles or other vehicle control devices, and punching Martial arts movement, sanding movement, waxing, painting house, shaking, making sound, turning, throwing football, turning knob, 3D mouse movement, scrolling movement, movement by profile, optional Recordable movement, movement back and forth along any vector in any direction in the space to inflate the tire, movement along the path, movement with precise stop and start, recorded in the noise floor , Tracking, any repeatable time-based user operation, spline, etc., but not limited to. Each of these gestures is pre-recorded from the path data and can be recorded as a time-based model.

経路と保存されたジェスチャとの比較は、経路が定常状態から外れる場合、削除処理によってその経路を保存されたジェスチャと比較することができるという定常状態の仮定で開始することができる。ブロック526で一致しない場合、ブロック522で解析器504はコントローラ110の経路を追跡し続けることができる。経路(またはその部分)と保存されたジェスチャとが十分に一致する場合、528で示すようにゲームの状態を変更することができる。ゲーム状態の変更には、中断、制御信号の送信、変数の変更等が含まれるが、これらに限られない。   The comparison between the path and the stored gesture can begin with a steady state assumption that if the path goes out of steady state, the deletion process can compare the path with the stored gesture. If there is no match at block 526, the analyzer 504 can continue to track the path of the controller 110 at block 522. If the path (or part of it) and the stored gesture sufficiently match, the game state can be changed as shown at 528. The game state change includes, but is not limited to, interruption, transmission of a control signal, change of a variable, and the like.

この一例を示す。コントローラ110が定常状態を残したと判定されると、解析器402、404、406または412はコントローラ110の動きを追う。コントローラ110の経路が、保存されたジェスチャモデル508で定められる経路に従う限り、これらのジェスチャは起こりうる「ヒット」である。コントローラ110の経路が任意のジェスチャモデル508から外れる(ノイズ許容度設定の範囲内で)場合、そのジェスチャモデルはヒットリストから除かれる。各ジェスチャ参照モデルは、ジェスチャが記録される時間ベースを含む。解析器402、404、406または412は、適切な時間インデックスでコントローラ経路データを保存されたジェスチャ508と比較する。定常状態の条件が発生すると、クロックがリセットされる。定常状態から外れると(すなわち、ノイズ閾値の外側で動きが追跡されると)、全ての潜在ジェスチャモデルでヒットリストが占められる。クロックが開始され、コントローラの動きがヒットリストに対して比較される。比較は時間を通しての道のり(walk)である。ヒットリスト内の任意のジェスチャがジェスチャの終端に到達すると、それがヒットである。   An example of this is shown. If it is determined that the controller 110 has left a steady state, the analyzer 402, 404, 406 or 412 follows the movement of the controller 110. As long as the path of the controller 110 follows the path defined by the stored gesture model 508, these gestures are possible “hits”. If the controller 110 path deviates from any gesture model 508 (within the noise tolerance setting), that gesture model is removed from the hit list. Each gesture reference model includes a time base in which gestures are recorded. The analyzer 402, 404, 406, or 412 compares the controller path data with the stored gesture 508 at the appropriate time index. When the steady state condition occurs, the clock is reset. When out of steady state (ie, movement is tracked outside the noise threshold), the hit list is populated with all potential gesture models. The clock is started and the controller movement is compared against the hit list. The comparison is a walk through time. When any gesture in the hit list reaches the end of the gesture, it is a hit.

特定の実施形態では、特定のイベントが起こると、ミキサ408および/または個々の解析器402、404、406、412はゲームプログラムに通知する。そのようなイベントの例には以下が含まれる。   In certain embodiments, the mixer 408 and / or individual analyzers 402, 404, 406, 412 notify the game program when certain events occur. Examples of such events include:

「到達したゼロ加速度点の中断(X、Yおよび/またはZ軸)」
特定のゲーム状況では、コントローラの加速度が変曲点で変化すると、解析器504はゲームプログラム内のルーチンに通知するか、ルーチンを中断する。例えば、ユーザ108は、フットボール・シミュレーションゲームにおいてクォーターバックを表すゲームアバタを制御するために、コントローラ110を用いてもよい。解析器504は、慣性センサ112から得られる信号から発生する経路を通して、コントローラ(フットボールを表す)を追跡してもよい。コントローラ110の加速度の特定の変化が、フットボールのリリースの信号を出してもよい。この点において、解析器はプログラム内の別のルーチン(例えば、物理シミュレーションパッケージ)を起動して、リリース点におけるコントローラの位置、速度および/または方向に基づきフットボールの軌跡をシミュレーションしてもよい。
“Interruption of zero acceleration point reached (X, Y and / or Z axis)”
In certain game situations, if the controller acceleration changes at the inflection point, the analyzer 504 notifies the routine in the game program or interrupts the routine. For example, the user 108 may use the controller 110 to control a game avatar representing a quarterback in a football simulation game. The analyzer 504 may track the controller (representing football) through a path generated from the signal obtained from the inertial sensor 112. A specific change in the acceleration of the controller 110 may signal a football release. At this point, the analyzer may invoke another routine in the program (eg, a physics simulation package) to simulate a football trajectory based on the controller's position, velocity and / or direction at the release point.

「認識された新たなジェスチャの中断」 "Interruption of a recognized new gesture"

さらに、解析器502は一つ以上の入力により構成されてもよい。このような入力の例には以下が含まれるが、これらに限られない。   Further, the analyzer 502 may be configured with one or more inputs. Examples of such inputs include, but are not limited to:

「設定ノイズレベル(X、YまたはZ軸)」
ノイズレベルは、ゲームにおけるユーザの手のいらだち(ジッタ)を解析するときに用いられる参照許容度であってもよい。
“Setting noise level (X, Y or Z axis)”
The noise level may be a reference tolerance used when analyzing irritation (jitter) of the user's hand in the game.

「設定サンプリングレート」
本明細書において、サンプリングレートとは、解析器502が慣性センサからの信号をサンプリングする頻度のことを指す。サンプリングレートは信号のオーバーサンプリングまたは平均に設定されてもよい。
“Setting sampling rate”
In this specification, the sampling rate refers to the frequency with which the analyzer 502 samples the signal from the inertial sensor. The sampling rate may be set to oversampling or averaging of the signal.

「設定ギアリング」
本明細書において、ギアリングとは、一般にゲーム内で起こる動きに対するコントローラの動きの比率のことを指す。テレビゲーム制御の文脈におけるこのような「ギアリング」の例は、米国特許出願第11/382,036号、第11/382,041号、第11/382,038号および第11/382,040号に見つけることができ、全てが参照により本明細書に援用される。
"Setting gearing"
As used herein, gearing generally refers to the ratio of controller movement to movement that occurs within a game. Examples of such "gearing" in the context of video game control can be found in U.S. Patent Applications Nos. 11 / 382,036, 11 / 382,041, 11 / 382,038 and 11 / 382,040, all Is incorporated herein by reference.

「設定マッピングチェーン」
本明細書において、マッピングチェーンとはジェスチャモデルのマップのことを指す。ジェスチャモデルマップは、特定の入力チャネル(例えば、慣性センサ信号のみから発生する経路データ)のために、またはミキサユニットで形成されるハイブリッドチャネルのために作成することができる。三つの入力チャネルを、慣性解析器504と同様の二つ以上の異なる解析器により供給してもよい。具体的には、これらは以下を含んでもよい:本明細書に記載の慣性解析器504、例えば米国特許出願第11/382,034号の「SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY」(代理人整理番号SCEA05082US00)(参照により本明細書に援用される)に記載のビデオ解析器、および例えば米国特許出願第11/381,721号に記載の音響解析器(参照により本明細書に援用される)。解析器をマッピングチェーンで構成することができる。マッピングチェーンは、解析器およびミキサへの設定としてゲームプレイ中にゲームにより交換することができる。
Configuration mapping chain
In this specification, the mapping chain refers to a map of a gesture model. A gesture model map can be created for a particular input channel (eg, path data originating only from inertial sensor signals) or for a hybrid channel formed with a mixer unit. Three input channels may be provided by two or more different analyzers similar to inertial analyzer 504. Specifically, these may include: an inertial analyzer 504 as described herein, eg, “SCHEME FOR DETECTING AND TRACKING USER MANIPULATION OF A GAME CONTROLLER BODY” in US patent application Ser. No. 11 / 382,034. Personnel number SCEA05082US00) (incorporated herein by reference) and a video analyzer, for example as described in US patent application Ser. No. 11 / 381,721 (incorporated herein by reference). . The analyzer can be configured with a mapping chain. The mapping chain can be exchanged by the game during game play as a setting for the analyzer and mixer.

図5Aのブロック502を再び参照すると、当業者は、慣性センサ112からの信号を生成する多数の方法があることを認めるだろう。そのうちのいくつかの例については、図3A〜図3Eに関して上述した。ブロック504を参照すると、ブロック502で生じるセンサ信号を解析してコントローラ110の位置および/または方向に関する情報を取得する多数の方法がある。一例として、追跡情報には、以下のパラメータの個々または任意の組み合わせに関する情報が含まれるが、これに限定されない:   Referring back to block 502 of FIG. 5A, those skilled in the art will recognize that there are numerous ways to generate a signal from inertial sensor 112. Some examples are described above with respect to FIGS. 3A-3E. Referring to block 504, there are a number of ways to analyze the sensor signal generated at block 502 to obtain information regarding the position and / or orientation of the controller 110. As an example, tracking information includes, but is not limited to, information about individual or any combination of the following parameters:

「コントローラ方向」
コントローラ110の方向は、一部の参照方向に対するピッチ、ロールまたはヨー角度(例えばラジアン)で表現されてもよい。コントローラ方向の変化率(例えば、角速度または角加速度)が位置情報および/または方向情報に含められてもよい。慣性センサ112がジャイロスコープセンサである場合、ピッチ、ロールまたはヨー角度に比例する一つ以上の出力値の形で直接にコントローラ方向情報が求められてもよい。
"Controller direction"
The direction of the controller 110 may be expressed by a pitch, a roll, or a yaw angle (for example, radians) with respect to some reference directions. The rate of change in the controller direction (eg, angular velocity or angular acceleration) may be included in the position information and / or direction information. If the inertial sensor 112 is a gyroscope sensor, the controller direction information may be obtained directly in the form of one or more output values proportional to the pitch, roll or yaw angle.

「コントローラ位置」(例えば、一部の基準系内でのコントローラ110のデカルト座標X、Y、Z)
「コントローラX軸速度」
「コントローラY軸速度」
「コントローラZ軸速度」
「コントローラX軸加速度」
「コントローラY軸加速度」
「コントローラZ軸加速度」
“Controller position” (eg, Cartesian coordinates X, Y, Z of controller 110 within some reference systems)
"Controller X-axis speed"
"Controller Y-axis speed"
"Controller Z-axis speed"
"Controller X-axis acceleration"
“Controller Y-axis acceleration”
"Controller Z-axis acceleration"

位置、速度および加速度に関して、位置情報および/または方向情報がデカルト座標系以外の座標系で表現されてもよい。例えば、位置、速度および加速度について円筒座標または球面座標を用いてもよい。X軸、Y軸、Z軸に関する加速度情報を、図3A〜図3Eに関して上述したように、加速度計タイプのセンサから直接求めてもよい。X、Y、Z加速度をいくつかの初期時点からの時間に関して積分して、X、Y、Z速度の変化を求めてもよい。初期時点におけるX、Y、Z速度の既知の値に速度変化を加えることによって、これらの速度を計算してもよい。X、Y、Z速度を時間に関して積分して、コントローラのX、Y、Z変位を求めてもよい。初期時点における既知のX、Y、Z位置に変位を加えることによって、X、Y、Z位置を求めてもよい。   Regarding position, velocity, and acceleration, position information and / or direction information may be expressed in a coordinate system other than the Cartesian coordinate system. For example, cylindrical coordinates or spherical coordinates may be used for position, velocity and acceleration. Acceleration information about the X axis, Y axis, and Z axis may be obtained directly from an accelerometer type sensor as described above with respect to FIGS. 3A-3E. X, Y, Z acceleration may be integrated with respect to time from several initial points to determine changes in X, Y, Z velocity. These velocities may be calculated by adding speed changes to the known values of the X, Y and Z velocities at the initial time. The X, Y, and Z velocities may be integrated with respect to time to determine the X, Y, and Z displacement of the controller. The X, Y, and Z positions may be obtained by adding displacement to the known X, Y, and Z positions at the initial time point.

「定常状態 Y/N」
この特定情報は、コントローラが定常状態にあるか否かを示す。定常状態は任意の位置として定義することができ、変化の影響を受ける。好ましい実施形態では、定常状態位置は、ユーザの腰とほぼ同じ高さで大体水平方向にコントローラが保持されていることであってもよい。
"Steady state Y / N"
This specific information indicates whether or not the controller is in a steady state. The steady state can be defined as an arbitrary position and is subject to change. In a preferred embodiment, the steady state position may be that the controller is held approximately horizontally at approximately the same height as the user's waist.

「最後の定常状態からの時間」は、一般に、(上述の)定常状態が最後に検出されてから経過した期間の長さに関するデータのことを指す。上述のように、時間の決定はリアルタイムで、プロセッササイクルで、またはサンプリング期間で計算されてもよい。「最後の定常状態からの時間」のデータ時間は、初期点に対してコントローラの追跡をリセットし、ゲーム環境におけるキャラクタまたはオブジェクトのマッピング精度を保証することに関して重要である。このデータも、ゲーム環境で続けて実行可能である利用可能な行動/ジェスチャ(排他的と包括的の両方)を決定することに関して重要である。 “Time since last steady state” generally refers to data relating to the length of the period of time since the last steady state (described above) was detected. As described above, the time determination may be calculated in real time, in processor cycles, or in a sampling period. The “time from last steady state” data time is important in terms of resetting controller tracking to the initial point and ensuring the accuracy of character or object mapping in the gaming environment. This data is also important for determining the available actions / gestures (both exclusive and comprehensive) that can continue to be performed in the gaming environment.

「認識された最後のジェスチャ」は、一般に、ハードウェアまたはソフトウェアで実装可能なジェスチャ認識装置505により認識される最後のジェスチャのことを指す。認識された最後のジェスチャの識別は、続けて認識可能な可能性のあるジェスチャ、またはゲーム環境内で起こるいくつかの他のアクションと以前のジェスチャが関連しているという事実に関して重要である。 The “recognized last gesture” generally refers to the last gesture recognized by a gesture recognition device 505 that can be implemented in hardware or software. The identification of the last recognized gesture is important with respect to the fact that the previous gesture is associated with a gesture that may subsequently be recognized, or some other action that occurs within the gaming environment.

「認識された最後のジェスチャの時間」
上記の出力は、ゲームプログラムまたはソフトウェアによって任意の時間にサンプリングすることができる。
"Last gesture time recognized"
The above output can be sampled at any time by a game program or software.

本発明の実施形態では、ミキサ408は解析器402、404、406からの追跡情報403、405、407に分布値を割り当ててもよい。上述のように、入力制御データの特定セットを平均化してもよい。しかしながら、本実施形態では、平均化の前に入力制御値に値を割り当て、これにより一部の解析器からの入力制御データを他の解析器からのものより解析の重要度を高めてもよい。   In an embodiment of the invention, the mixer 408 may assign distribution values to the tracking information 403, 405, 407 from the analyzers 402, 404, 406. As described above, a particular set of input control data may be averaged. However, in this embodiment, values may be assigned to the input control values before averaging, thereby increasing the importance of analysis of input control data from some analyzers than from other analyzers. .

例えば、ミキサ408は加速度と定常状態に関連した追跡情報を必要としてもよい。ミキサ408は、上述のように追跡情報403、405、407を受け取る。例えば、上述のように、追跡情報は加速度と定常状態に関するパラメータを含んでもよい。この情報を表すデータを平均化する前に、ミキサ408は分布値を追跡情報データセット403、405、407に割り当ててもよい。例えば、慣性解析器402からのx、y加速度パラメータに90%の重み付けをしてもよい。しかしながら、画像解析器404からのx、y加速度データに10%のみの重み付けをしてもよい。加速度パラメータに関して、音響解析器の追跡情報407に0%の重み付け、すなわちデータが値を持たないようにしてもよい。   For example, the mixer 408 may require tracking information related to acceleration and steady state. The mixer 408 receives the tracking information 403, 405, 407 as described above. For example, as described above, the tracking information may include parameters related to acceleration and steady state. Prior to averaging the data representing this information, the mixer 408 may assign distribution values to the tracking information data sets 403, 405, 407. For example, the x and y acceleration parameters from the inertia analyzer 402 may be weighted by 90%. However, the x and y acceleration data from the image analyzer 404 may be weighted only by 10%. Regarding the acceleration parameter, the tracking information 407 of the acoustic analyzer may be weighted by 0%, that is, the data may have no value.

同様に、慣性解析器402からのZ軸追跡情報パラメータに10%の重み付けをし、画像解析器のZ軸追跡情報に90%の重み付けをしてもよい。音響解析器の追跡情報407に0%の重み付けをし、音響解析器406からの定常状態追跡情報に100%の重み付けをし、残りの解析器の追跡情報に0%の重み付けをしてもよい。   Similarly, the Z-axis tracking information parameter from the inertia analyzer 402 may be weighted by 10%, and the Z-axis tracking information of the image analyzer may be weighted by 90%. The acoustic analyzer tracking information 407 may be weighted 0%, the steady state tracking information from the acoustic analyzer 406 may be weighted 100%, and the remaining analyzer tracking information may be weighted 0%. .

適当な分布重みが割り当てられた後、重みとともに入力制御データを平均化して加重平均入力制御データセットを求め、このデータセットを続けてジェスチャ認識装置505で解析して特定のゲーム環境内の特定のアクションに関連付けしてもよい。関連する値は、ミキサ408または特定のゲームタイトルにより予め定義されていてもよい。この値は、様々な解析器から来るデータの特定の質を識別するミキサ408の結果であってもよく、これにより後述するように動的な調整がなされる。この調整は、特定のデータが特定の環境における特定の値になるとき、および/または所与のゲームタイトルの特殊性に応じて、歴史的な知識ベースの構築の結果であってもよい。   After the appropriate distribution weights are assigned, the input control data is averaged together with the weights to obtain a weighted average input control data set, which is then analyzed by the gesture recognition device 505 for a specific game environment. It may be associated with an action. The associated value may be predefined by the mixer 408 or a particular game title. This value may be the result of a mixer 408 that identifies the specific quality of the data coming from the various analyzers, thereby making dynamic adjustments as described below. This adjustment may be the result of building a historical knowledge base when specific data becomes a specific value in a specific environment and / or depending on the particularity of a given game title.

ミキサ408は、ゲームプレイの間、動的に作動するように構成されてもよい。例えば、ミキサ408が様々な入力制御データを受け取ると、特定のデータが一貫して許容可能なデータ範囲またはデータ品質の外部にあることを認識するか、または関連する入力装置におけるエラーの処理を示す不正データを反映することができる。   The mixer 408 may be configured to operate dynamically during game play. For example, when the mixer 408 receives various input control data, it recognizes that the particular data is consistently outside the acceptable data range or data quality, or indicates error handling at the associated input device Incorrect data can be reflected.

加えて、現実世界環境における特定の状況が変化してもよい。例えば、ユーザの家のゲーム環境における自然光が午前から午後になると増加して、画像データの捕捉に問題を生じることがある。さらに、日中になると近所または家庭がよりうるさくなって、音声データの捕捉に問題を生じる。同様に、ユーザが数時間プレイを続けると、ユーザの反射の素早さが低下して慣性データの解釈に問題が生じることがある。   In addition, certain situations in the real world environment may change. For example, natural light in the game environment of the user's home may increase from morning to afternoon, causing problems in capturing image data. Furthermore, the neighborhood or home becomes louder during the daytime, causing problems in capturing audio data. Similarly, if the user continues to play for several hours, the user's quick reflection may be reduced, causing problems in the interpretation of inertial data.

これらの例や、または入力制御データの特定の形態の品質が問題になる場合、ミキサ408は、上述したように特定の入力制御データにより高いかより低い重要度を与えるように、特定の装置から来るデータの特定セットに対して重みを動的に再割り当てすることができる。同様に、ゲームの経過につれてゲーム環境が変化してもよい。特定のゲームの必要性が変化し、したがって特定の入力制御データの値または必要性の再割り当てが必要になる。   In these instances, or where the quality of a particular form of input control data is an issue, the mixer 408 may remove from a particular device to give higher or lower importance to the particular input control data as described above. Weights can be dynamically reassigned to a specific set of incoming data. Similarly, the game environment may change as the game progresses. The need for a particular game will change, thus requiring the reassignment of specific input control data values or needs.

同様に、ミキサ408は、ジェスチャ認識装置505に渡されている特定のデータが誤ってまたはゆっくりと処理されているか、または処理中のエラーあるいはジェスチャ認識装置505により生成されるフィードバックデータに基づき処理されていないことを認識することができる。このフィードバックに応じて、または、これらの処理中の問題(例えば、画像解析データが許容できる範囲内にある場合、ジェスチャ認識装置505により関連づけされるときにエラーが生じる)の認識時に、ミキサ408は、どのような入力制御データがどの解析器からどの時点で求められるかを調整することができる。ミキサ408は、入力制御データがミキサ408に渡される前に、適切な解析器による入力制御データの特定の解析および処理を必要としてもよい。ミキサは、ジェスチャ認識装置505に渡されたデータの効率的かつ適切な処理がさらに保証されるように、データを再処理する。   Similarly, the mixer 408 may process certain data being passed to the gesture recognizer 505 incorrectly or slowly, or may be processed based on errors being processed or feedback data generated by the gesture recognizer 505. Can recognize that not. In response to this feedback or upon recognition of these in-process issues (eg, an error occurs when correlated by the gesture recognizer 505 if the image analysis data is within an acceptable range), the mixer 408 It is possible to adjust what input control data is obtained from which analyzer at which point. The mixer 408 may require specific analysis and processing of the input control data by an appropriate analyzer before the input control data is passed to the mixer 408. The mixer reprocesses the data so that efficient and proper processing of the data passed to the gesture recognizer 505 is further ensured.

一部の実施形態では、ミキサ408は、特定のデータが信頼できず、無効であり、または特定の変数の外部にあることを認識し、特定の入力制御データまたはそのデータに関連する変数を呼び出して不正なデータを置き換えるか、または必要な変数に関する特定のデータを適切に解析して計算することができる。   In some embodiments, the mixer 408 recognizes that the particular data is unreliable, invalid, or outside the particular variable, and calls the particular input control data or a variable associated with that data. Can replace incorrect data or calculate specific data on the necessary variables appropriately.

一般に、上述の定常状態条件に関して、何も起こらないとき、ゲームは入力を単に待機し続けない能力を選択的に備えてもよい。その代わりに、ユーザが現在活動しておらず、ゲーム装置の作動を制御する信号を生成するとゲームが積極的に判断してもよい。例えば、ユーザが現在活動していないと判定したとき、ゲーム装置の作動を一時停止することができる。例えば、ゲーム装置は、ゲームの実行を一時停止するための第1の信号に反応してもよい。活動がある場合は、そのことを積極的に判定してゲームに信号を送ってもよい。活動は、積極的な行動であってもある程度の行動であってもよい。例えば、活動は腕を振る動作であってもよいし、または腕を振る前に腕を後ろに引く程度であってもよい。しかしながら、これは一つの例に過ぎない。   In general, with respect to the steady state conditions described above, when nothing happens, the game may optionally have the ability not to simply wait for input. Instead, the game may positively determine that the user is not currently active and generates a signal that controls the operation of the game device. For example, when it is determined that the user is not currently active, the operation of the game device can be paused. For example, the game device may react to a first signal for pausing execution of the game. If there is activity, it may be determined positively and a signal may be sent to the game. The activity may be an active action or a certain amount of action. For example, the activity may be a motion of swinging the arm, or the degree of pulling the arm back before swinging the arm. However, this is just one example.

一部の実施形態では、システムは定常状態条件を判定するか、および/または定常状態条件からの退出を検出する能力を備えてもよい。例えば、一実施形態は、ゲーム装置に対するユーザ活動の欠如を判定するためにゲーム装置の作動に用いられる方法を含む。図8Aを参照すると、本発明の一実施形態による方法800が示されている。方法800は、例えばエンターテイメント・システムおよびコンソール、コンピュータ、家電装置その他の多くの異なる種類のシステムおよび装置で実行または実施可能である。方法800を実行するために用いられるシステムの一例が以下で説明される。   In some embodiments, the system may be equipped with the ability to determine steady state conditions and / or detect exit from steady state conditions. For example, one embodiment includes a method used to operate a gaming device to determine a lack of user activity on the gaming device. Referring to FIG. 8A, a method 800 according to one embodiment of the present invention is shown. The method 800 may be performed or performed, for example, on many different types of systems and devices such as entertainment systems and consoles, computers, consumer electronics devices, and the like. An example of a system used to perform the method 800 is described below.

方法800は、予め定められたオブジェクトに関するユーザの活動を判定するために使用可能な情報を含むサンプルの時系列を取得することを含む。ステップ804で、時系列が処理されて、予め定められたオブジェクトに関してユーザが現在活動していないかが判定される。そして、ステップ806で、時系列を処理するステップでユーザが現在活動していないと判定されると、ゲーム装置の作動を制御するために使用される第1の信号がゲーム装置に与えられる。一部の実施形態では、予め定められたオブジェクトは、ゲームコントローラまたは同様の装置などのコントローラ、リモコン、杖状の装置、マウスまたはポインティングデバイス、任意の他の装置であってもよい。こうして、コントローラのような特定のユーザ操作可能なオブジェクトが定常状態にあることを判定できる。   Method 800 includes obtaining a timeline of samples that includes information that can be used to determine user activity for a predetermined object. At step 804, the time series is processed to determine if the user is currently active with respect to the predetermined object. Then, if it is determined in step 806 that the user is not currently active in the time series processing step, a first signal that is used to control the operation of the game device is provided to the game device. In some embodiments, the predetermined object may be a controller, such as a game controller or similar device, a remote control, a cane-like device, a mouse or pointing device, or any other device. In this way, it can be determined that a specific user-operable object such as a controller is in a steady state.

一部の実施形態では、複数のオブジェクトの中から特定のユーザ操作可能なオブジェクトが定常状態にあることを判定できる。例えば、複数の予め定められたオブジェクトのうちの個別オブジェクトに慣例する複数ユーザのうち個別ユーザの活動に対して時系列の処理ステップを実行して、複数ユーザのなかから現在活動していない一人以上の個別ユーザを識別することができる。さらに、第1の信号を与えるステップが、複数ユーザのなかから現在活動していない特定のユーザを識別することを含んでいてもよい。   In some embodiments, it can be determined that a particular user-operable object is in a steady state among a plurality of objects. For example, one or more people who are not currently active among a plurality of users by executing time-series processing steps on the activities of individual users among a plurality of users customary for individual objects among a plurality of predetermined objects Individual users can be identified. Further, the step of providing the first signal may include identifying a particular user that is not currently active among the plurality of users.

一部の実施形態は、定常状態からの復帰について述べる。例えば、これは特定のユーザ操作可能なオブジェクトに関して活動があることを判定することで説明される。例えば、このシナリオにおいて進行中のゲームに新たなプレーヤが参加するとき、時系列の処理ステップは、予め定められたオブジェクトに関連してユーザが現在活動しているか否かを判定することができる。時系列の処理ステップが、ユーザが活動しないないと判定した直後にそのユーザが現在活動していると判定すると、ゲーム装置の作動の制御に用いるために第2の信号がゲーム装置に提供されてもよい。時系列を処理するステップを、複数の予め定められたオブジェクトのうちの個別オブジェクトに関連する複数ユーザのうち個別ユーザの活動に対して実行して、複数ユーザのうち現在活動している一人以上の個別ユーザを識別することができる。さらに、第2の信号を提供するステップが、複数ユーザのうち現在活動している特定のユーザを識別することを含んでもよい。新たなプレーヤが特定のユーザと識別されると、新たなプレーヤのプロフィールを識別してロードしてもよい。   Some embodiments describe returning from steady state. For example, this can be explained by determining that there is activity for a particular user-operable object. For example, when a new player joins a game in progress in this scenario, a time-series processing step can determine whether the user is currently active in relation to a predetermined object. If the time series processing step determines that the user is currently active immediately after determining that the user is not active, a second signal is provided to the game device for use in controlling the operation of the game device. Also good. The step of processing the time series is performed on the activities of the individual users among the plurality of users related to the individual objects of the plurality of predetermined objects, and one or more of the plurality of users currently active Individual users can be identified. Further, providing the second signal may include identifying a particular user currently active among the plurality of users. Once the new player is identified as a particular user, the new player profile may be identified and loaded.

一部の実施形態では、時系列を処理するステップは、ユーザの活動が閾値を越えない限り、そのユーザが現在活動していないと判定してもよい。ゲーム装置の動作中および時系列の処理中に閾値を修正して、ユーザの活動が修正された閾値を越えるか否かを判定してもよい。ゲーム装置は、第1の信号に反応してゲームの実行を一時停止してもよい。   In some embodiments, the step of processing the time series may determine that the user is not currently active unless the user's activity exceeds a threshold. The threshold may be modified during operation of the game device and during time series processing to determine whether the user activity exceeds the modified threshold. The game device may suspend execution of the game in response to the first signal.

一部の実施形態では、複数の予め定められたオブジェクトのうちの個別オブジェクトに関連する複数ユーザのうち個別ユーザの活動に対して時系列を処理するステップを実行して、複数ユーザのうち現在活動していない一人以上の個別ユーザを識別してもよい。第1の信号を提供するステップは、複数ユーザのうち現在活動していない特定ユーザを識別することを含んでもよい。   In some embodiments, the step of processing a time series for an activity of an individual user among a plurality of users related to an individual object among a plurality of predetermined objects is performed, and a current activity among the plurality of users is performed. One or more individual users may be identified. Providing the first signal may include identifying a particular user that is not currently active among the plurality of users.

一部の実施形態では、処理ステップにおいて複数ユーザのうち予め定められた組の全員が現在活動していないと判定されたとき、第2の信号を提供するステップを含めてもよい。時系列には、予め定められたオブジェクトの動き、位置、姿勢、および予め定められたオブジェクト近傍の音響レベルに関する情報を含んでもよい。時系列を取得するステップは、ゲーム装置によりゲームの進行を表示可能なスクリーン近傍の画像取得装置から情報を取得することを含んでもよい。   In some embodiments, the processing step may include providing a second signal when it is determined that all of the predetermined set of users among the plurality of users are not currently active. The time series may include information regarding a predetermined object motion, position, posture, and a predetermined sound level near the object. The step of acquiring the time series may include acquiring information from an image acquisition device in the vicinity of the screen capable of displaying the progress of the game by the game device.

一部の実施形態では、予め定められたオブジェクトは、本体と、本体に組み付けられる少なくとも一つの光学検出可能な(PD)要素とを備えてもよい。PD要素は、輝度、色、テクスチャ、模様、反射率または照度のうち少なくとも一つによって本体と区別可能であってもよい。時系列の取得ステップが、画像取得装置で取得された画像内の少なくとも一つのPD要素の位置を表す情報を取得することを含んでもよい。少なくとも一つのPD要素が光源であってもよい。少なくとも一つのPD要素が発光ダイオード(LED)であってもよい。   In some embodiments, the predetermined object may comprise a body and at least one optically detectable (PD) element that is assembled to the body. The PD element may be distinguishable from the main body by at least one of luminance, color, texture, pattern, reflectance, or illuminance. The time-series acquisition step may include acquiring information representing a position of at least one PD element in the image acquired by the image acquisition device. At least one PD element may be a light source. At least one PD element may be a light emitting diode (LED).

一部の実施形態では、予め定められたオブジェクトが本体を備えたゲームコントローラであり、本体はゲームの進行がスクリーンに表示されるときにスクリーンの方向を向く前部を有していてもよい。ゲームコントローラは本体に組み付けられる少なくとも一つの入力装置を備えており、入力装置はユーザからの入力を登録するためユーザにより操作可能であってもよい。サンプルの時系列を取得するステップは、ゲームコントローラの前部の少なくとも一部がスクリーンの方向を向いているとき、画像取得装置が取得した画像内のPD要素の位置を捕捉することを含んでもよい。時系列の処理ステップは、所定の期間にわたり画像内でのPD要素の位置の動きが閾値を越えないとき、ユーザが現在活動していないと判定することを含んでもよい。   In some embodiments, the predetermined object is a game controller with a main body, and the main body may have a front portion that faces the screen when the progress of the game is displayed on the screen. The game controller may include at least one input device assembled to the main body, and the input device may be operable by the user to register input from the user. Acquiring a timeline of samples may include capturing the position of the PD element in the acquired image by the image acquisition device when at least a portion of the front of the game controller is facing the screen. . The time series processing step may include determining that the user is not currently active when the movement of the position of the PD element in the image does not exceed a threshold over a predetermined period of time.

一部の実施形態では、ゲームコントローラが少なくとも二つのPD要素を備え、時系列を取得するステップが、画像平面のx軸およびy軸に対するゲームコントローラの方向を捕捉することを含んでもよい。ゲームコントローラが三角形を構成する三つのPD要素を備えてもよい。時系列を取得するステップが、画像平面と垂直のz軸に対するゲームコントローラの方向をさらに捕捉することを含んでもよい。   In some embodiments, the game controller may comprise at least two PD elements, and obtaining the time series may include capturing the direction of the game controller relative to the x and y axes of the image plane. The game controller may include three PD elements that form a triangle. Obtaining the time series may further include capturing a direction of the game controller relative to a z-axis perpendicular to the image plane.

一部の実施形態では、ゲームコントローラが四角形を構成する少なくとも四つのPD要素を備えてもよい。時系列を取得するステップが、画像平面と垂直のz軸に対するゲームコントローラの方向をさらに捕捉することを含んでもよい。   In some embodiments, the game controller may include at least four PD elements that form a square. Obtaining the time series may further include capturing a direction of the game controller relative to a z-axis perpendicular to the image plane.

一部の実施形態では、処理ステップが、ピッチ、ヨー、ロールのうち少なくとも一つに関する方向データを含むゲームコントローラの方向を判定し、この方向データを予め定められた方向データと比較してユーザが現在活動しているか否かを判定することを含んでもよい。方向データがゲームコントローラのピッチ、ヨーおよびロールに関していてもよい。   In some embodiments, the processing step determines a direction of the game controller that includes direction data relating to at least one of pitch, yaw, and roll, and the user compares the direction data with predetermined direction data. It may include determining whether or not currently active. Direction data may relate to the pitch, yaw and roll of the game controller.

一部の実施形態では、時系列を取得するステップが、予め定められたオブジェクトに組み込まれた慣性センサにより取得される情報をサンプリングすることを含み、時系列を処理するステップが、時系列を処理して予め定められたオブジェクトの動きが所定の期間内に閾値を越えないことを判定することを含んでもよい。慣性センサは、加速度計、ジャイロスコープまたはレーザジャイロスコープのうちの少なくとも一つであってよい。時系列を取得するステップが、予め定められたオブジェクトの加速度を求めるために使用可能な情報を取得することを含み、時系列を処理するステップが、予め定められたオブジェクトの加速度を求めることを含んでもよい。時系列を処理するステップが、ある期間にわたり時系列から得られる加速度値を積分することで、予め定められたオブジェクトの速度を求めることを含んでもよい。時系列を処理するステップが、ある期間にわたり時系列から得られる加速度値を最初に積分し、その結果を前記期間にわたり積分することによって、予め定められたオブジェクトの変位を求めることを含んでもよい。   In some embodiments, obtaining the time series includes sampling information acquired by an inertial sensor embedded in a predetermined object, and processing the time series comprises processing the time series. And determining that the movement of the predetermined object does not exceed the threshold value within a predetermined period. The inertial sensor may be at least one of an accelerometer, a gyroscope, or a laser gyroscope. The step of obtaining the time series includes obtaining information that can be used to obtain the acceleration of the predetermined object, and the step of processing the time series includes obtaining the acceleration of the predetermined object. But you can. The step of processing the time series may include obtaining a predetermined object velocity by integrating acceleration values obtained from the time series over a period of time. The step of processing the time series may include determining a predetermined object displacement by first integrating acceleration values obtained from the time series over a period of time and integrating the result over the period of time.

一部の実施形態では、予め定められたオブジェクトは、本体を有するゲームコントローラ、本体に取り付けられた慣性センサ、および本体と組み付けられた少なくとも一つのユーザ入力装置を備えるゲームコントローラであってもよい。ユーザ入力装置は、ユーザからの入力を登録するためにユーザにより操作可能であってもよい。   In some embodiments, the predetermined object may be a game controller having a game controller having a main body, an inertial sensor attached to the main body, and at least one user input device assembled with the main body. The user input device may be operable by the user to register input from the user.

一部の実施形態では、時系列を取得するステップが、ユーザの操作するオブジェクトの近傍で音響変換器により取得される情報をサンプリングすることを含み、時系列を処理するステップが、音響変換器により取得される情報が所定の基準を満足しないとき、ユーザが現在活動していないと判定することを含んでもよい。   In some embodiments, obtaining the time series includes sampling information obtained by the acoustic transducer in the vicinity of the object operated by the user, and processing the time series is performed by the acoustic transducer. It may include determining that the user is not currently active when the acquired information does not meet a predetermined criterion.

一部の実施形態では、ゲームの進行をスクリーンに表示するステップにおいて、スクリーン近傍に配置された音響変換器により音響情報を取得してもよい。   In some embodiments, in the step of displaying the progress of the game on the screen, the acoustic information may be acquired by an acoustic transducer disposed near the screen.

一部の実施形態では、時系列を取得するステップが、ユーザの操作するオブジェクトの近傍で音響変換器により取得される音響情報をサンプリングすることを含み、時系列を処理するステップが、音響変換器により取得された情報が特定のユーザに固有の所定の基準を満足しないとき、複数ユーザのうち特定のユーザが現在活動していないと判定することを含んでもよい。   In some embodiments, the step of obtaining the time series includes sampling the acoustic information obtained by the acoustic transducer in the vicinity of the object operated by the user, and the step of processing the time series comprises: When the information acquired by the above does not satisfy a predetermined criterion specific to a specific user, it may include determining that the specific user among the plurality of users is not currently active.

一部の実施形態では、所定の基準には、ピッチ、音声パルス周波数、音声パルス形状、音声パルスデューティサイクル、脈動周波数、特徴的な音のスペクトルコンテンツ特性を含むスペクトルシグネチャ、特定ユーザの音声を特徴付けるスペクトルシグネチャ(spectral signature)、互いに連結し音声認識により認識可能な一連の一つ以上の音素を特徴付ける時間変化するシグネチャからなるグループから選択される少なくとも一つの基準を含んでもよい。   In some embodiments, the predetermined criteria include pitch, audio pulse frequency, audio pulse shape, audio pulse duty cycle, pulsation frequency, spectral signature including characteristic sound spectral content characteristics, and characterizing a particular user's audio. A spectral signature may include at least one criterion selected from the group consisting of a time-varying signature that characterizes a series of one or more phonemes that are linked together and can be recognized by speech recognition.

一部の実施形態では、時系列を処理するステップが、予め定められたオブジェクトに関してユーザが現在活動しているか否かを判定し、時系列を処理するステップでユーザが活動していないと判定した直後に該ユーザが現在活動していると判定されたとき、本方法は、ゲーム装置の作動を制御するために用いられる第2の信号をゲーム装置に提供することをさらに含んでもよい。   In some embodiments, the time series processing step determines whether the user is currently active with respect to the predetermined object, and the time series processing step determines that the user is not active. If it is determined immediately after that that the user is currently active, the method may further include providing the game device with a second signal that is used to control operation of the game device.

一部の実施形態では、時系列を処理するステップが、ユーザの活動が閾値を越えるときに該ユーザが現在活動していると判定してもよい。ゲーム装置の作動中に閾値を修正し、時系列を処理してユーザの活動が修正された閾値を越えるか否かを判定してもよい。   In some embodiments, the step of processing the time series may determine that the user is currently active when the user's activity exceeds a threshold. The threshold may be modified while the game device is operating, and the time series may be processed to determine whether the user activity exceeds the modified threshold.

一部の実施形態では、ゲーム装置が第2の信号に応じてゲームの実行を再開してもよい。   In some embodiments, the game device may resume game execution in response to the second signal.

一部の実施形態では、時系列を処理するステップが、複数の予め定められたオブジェクトのうちの個別オブジェクトに関する複数ユーザのうちの個別ユーザの活動に対して実行され、複数ユーザのうち現在活動している一人以上の個別ユーザを識別してもよく、第2の信号を提供するステップが、複数ユーザのうち現在活動している特定のユーザを識別することを含む。   In some embodiments, the step of processing the time series is performed on an activity of an individual user of the plurality of users regarding the individual object of the plurality of predetermined objects, and is currently active among the plurality of users. One or more individual users may be identified, and providing the second signal includes identifying a particular user currently active among the plurality of users.

一部の実施形態では、時系列を処理するステップの前、かつ第2の信号に応答して各ユーザに対応するプロフィールを保存し、第2の信号により識別される特定ユーザに対応する保存された一つ以上のプロフィールにアクセスし、アクセスされたプロフィールから得られたプロフィール情報を利用してゲーム装置の実行を制御してもよい。   In some embodiments, prior to processing the time series and in response to the second signal, a profile corresponding to each user is stored and stored corresponding to the particular user identified by the second signal. One or more profiles may be accessed and the execution of the gaming device may be controlled using profile information obtained from the accessed profiles.

一部の実施形態では、時系列を処理するステップの前かつ第2の信号に応答して各ユーザに対応するプロフィールを保存してもよい。第2の信号により識別される特定ユーザに対応するプロフィールのうち以前に保存された一つにアクセスし、アクセスしたプロフィールから得られるプロフィール情報を利用してゲーム装置の実行を制御してもよい。   In some embodiments, a profile corresponding to each user may be saved before the step of processing the time series and in response to the second signal. The previously stored one of the profiles corresponding to the specific user identified by the second signal may be accessed, and the execution of the game device may be controlled using profile information obtained from the accessed profile.

一部の実施形態では、時系列の処理ステップを実行して、複数の予め定められたオブジェクトのうちの個別オブジェクトに対する活動を判定してもよい。第2の信号を提供するステップが、特定の予め定められたオブジェクトのユーザが現在活動している複数のオブジェクトのうち特定の一つを識別することを含んでもよい。   In some embodiments, time-series processing steps may be performed to determine activity for individual objects of a plurality of predetermined objects. Providing the second signal may include identifying a particular one of the plurality of objects in which a user of the particular predetermined object is currently active.

一部の実施形態では、時系列を処理するステップの前に特定のユーザに対応するプロフィールを保存し、特定の予め定められたオブジェクトの特定ユーザを識別し、特定の識別されたユーザに対応するプロフィールのうち以前に保存された一つにアクセスし、アクセスしたプロフィールから得られるプロフィール情報を利用してゲーム装置の実行を制御してもよい。   In some embodiments, a profile corresponding to a particular user is saved prior to the step of processing the timeline, identifying a particular user of a particular predetermined object, and corresponding to a particular identified user A previously saved one of the profiles may be accessed and the execution of the game device may be controlled using profile information obtained from the accessed profile.

一部の実施形態では、特定ユーザを識別するステップが、時系列を処理してユーザにより実行された一連の動きを含むジェスチャに関するジェスチャ情報を取得し、該ジェスチャ情報を特定ユーザに対応する複数の保存されたジェスチャマップと比較し、ジェスチャマップが前記ジェスチャ情報と一致する特定ユーザを識別することを含んでもよい。   In some embodiments, the step of identifying a particular user is processing a time series to obtain gesture information about a gesture that includes a series of movements performed by the user, and the gesture information is a plurality of corresponding to the particular user. Comparing with a saved gesture map may include identifying a particular user whose gesture map matches the gesture information.

一部の実施形態では、保存されたジェスチャマップのうち少なくとも一部が特定のユーザに固有のものであってもよい。保存されたジェスチャマップのうち少なくとも一部が、ユーザにより実行されたジェスチャの時系列を処理することで得られるジェスチャ情報から保存されてもよい。保存されたジェスチャマップのうち少なくとも一部が、特定のユーザにより実行されたジェスチャの時系列を処理することなく、特定のユーザによって選択可能であってもよい。   In some embodiments, at least some of the stored gesture maps may be specific to a particular user. At least a part of the stored gesture map may be stored from gesture information obtained by processing a time series of gestures performed by the user. At least some of the stored gesture maps may be selectable by a particular user without processing a time series of gestures performed by the particular user.

一部の実施形態では、時系列は、予め定められたオブジェクトの動き、位置、姿勢、または予め定められたオブジェクト近傍の音響レベルのうちの少なくとも一つに関する情報を含んでもよい。予め定められたオブジェクトが本体を備えたゲームコントローラであり、本体はゲームの進行がスクリーンに表示されるときにスクリーンの方向を向く前部を有しており、ゲームコントローラは本体に組み付けられる少なくとも一つの入力装置を備えており、入力装置はユーザからの入力を登録するためユーザにより操作可能であってもよい。サンプルの時系列を取得するステップは、ゲームコントローラ前部の少なくとも一部がスクリーンの方向を向いているとき、画像取得装置が取得した画像内のPD要素の位置を捕捉することを含んでもよい。前記時系列を処理するステップは、所定の期間にわたり画像内でのPD要素の位置の動きが閾値を越えないとき、ユーザが現在活動していると判定することを含んでもよい。   In some embodiments, the time series may include information regarding at least one of a predetermined object movement, position, orientation, or a predetermined sound level near the object. The predetermined object is a game controller provided with a main body, the main body has a front portion that faces the screen when the progress of the game is displayed on the screen, and the game controller is attached to the main body. Two input devices may be provided, and the input device may be operable by the user to register input from the user. Acquiring a sample timeline may include capturing the position of the PD element in the acquired image by the image acquisition device when at least a portion of the front of the game controller is facing the screen. Processing the time series may include determining that the user is currently active when the movement of the position of the PD element within the image does not exceed a threshold over a predetermined period of time.

一部の実施形態では、時系列を取得するステップが、予め定められたオブジェクトに組み込まれた慣性センサにより取得される情報をサンプリングすることを含み、時系列を処理するステップが、時系列を処理して予め定められたオブジェクトの動きが所定の期間内に閾値を越えることを判定することを含んでもよい。   In some embodiments, obtaining the time series includes sampling information acquired by an inertial sensor embedded in a predetermined object, and processing the time series comprises processing the time series. And determining that the predetermined movement of the object exceeds a threshold value within a predetermined period.

一部の実施形態では、時系列を取得するステップが、ユーザの操作するオブジェクトの近傍で音響変換器により取得される情報をサンプリングすることを含み、時系列を処理するステップが、音響変換器により取得される情報が所定の基準を満足するとき、ユーザが現在活動していると判定することを含んでもよい。   In some embodiments, obtaining the time series includes sampling information obtained by the acoustic transducer in the vicinity of the object operated by the user, and processing the time series is performed by the acoustic transducer. It may include determining that the user is currently active when the acquired information satisfies a predetermined criterion.

一部の実施形態では、時系列の取得ステップより前に音響情報を保存してもよい。特定ユーザを識別するステップが、処理ステップで特定の予め定められたオブジェクトに対して現在活動していると判定されたときに保存された音響情報に関して音響変換器により取得される音響情報を処理することを含んでもよい。保存された音響情報が、発話の音響的な特徴または発話の意味のうち少なくとも一つに関するものであり、前記音響変換器により取得される音響情報が発話の変換により取得される情報であってもよい。   In some embodiments, the acoustic information may be stored prior to the time series acquisition step. The step of identifying a specific user processes the acoustic information acquired by the acoustic transducer with respect to the stored acoustic information when the processing step determines that it is currently active for a particular predetermined object You may include that. The stored acoustic information relates to at least one of the acoustic features of the utterance or the meaning of the utterance, and the acoustic information acquired by the acoustic converter is information acquired by conversion of the utterance Good.

図8Bを参照すると、本発明の一実施形態で用いられる方法820が示されている。この実施形態は、ゲーム装置に関するユーザの活動の欠如を判定するためにゲーム装置の作動時に用いられる方法を提供する。方法は、ゲーム装置のユーザの活動レベルを判定するために使用できる情報を含むサンプルの時系列を取得するステップ822を含む。ステップ824は、時系列を処理してユーザが現在活動していないかを判定することを含む。そして、ステップ826において、時系列の処理ステップにおいてユーザが現在活動していないと判定されたとき、ゲーム装置の作動の制御に用いるためにゲーム装置に第1の信号を提供する。ユーザの活動レベルの決定は、多くの異なる方法で実行することができる。例えば、部屋の中に歩いていくユーザを検知する、ユーザの存在を検知する、拍手を検知する、他の方法で活動レベルを検知するなどで決定することができる。こうして、これを決定することによって、ユーザの十分な動作基準または変化基準がないことがセンサにより記録される。センサは、ユーザの身につける物体に組み込まれ、定常状態が決定されてもよい。   Referring to FIG. 8B, a method 820 used in one embodiment of the present invention is shown. This embodiment provides a method used during operation of the gaming device to determine a lack of user activity associated with the gaming device. The method includes a step 822 of obtaining a sample timeline that includes information that can be used to determine an activity level of a user of the gaming device. Step 824 includes processing the time series to determine if the user is currently active. Then, in step 826, when it is determined in the time-series processing step that the user is not currently active, a first signal is provided to the game device for use in controlling the operation of the game device. The determination of a user's activity level can be performed in many different ways. For example, it can be determined by detecting a user walking in the room, detecting the presence of the user, detecting applause, or detecting the activity level by other methods. Thus, by determining this, the sensor records that there is no sufficient user operational or change criterion. The sensor may be incorporated into an object worn by the user and the steady state determined.

一部の実施形態では、システムが定常状態から抜け出すと、ユーザプロフィールまたはユーザにカスタマイズされたジェスチャを見つけ出すことができる。プロフィールに基づき、ゲームに新たなプレーヤを追加することができる。システムは、多くの異なる方法で定常状態を検出することができる。システムは、聴覚パターン、映像パターンまたは慣性パターンに基づき、またはユーザのプロフィールかジェスチャを検出することにより、ユーザの活動を検出することができる。   In some embodiments, a user profile or user customized gesture can be found when the system exits from steady state. Based on the profile, new players can be added to the game. The system can detect steady state in many different ways. The system can detect user activity based on auditory patterns, video patterns, or inertial patterns, or by detecting a user profile or gesture.

一部の実施形態では、時系列を処理するステップは、ユーザの活動が閾値を上回らない限り、ユーザが現在活動していないと判定してもよい。時系列を処理するステップの間、閾値を修正してもよい。ゲーム装置が前記第1の信号に応答してゲームの実行を一時停止してもよい。   In some embodiments, the step of processing the time series may determine that the user is not currently active unless the user activity exceeds a threshold. The threshold may be modified during the step of processing the time series. The game device may suspend the execution of the game in response to the first signal.

一部の実施形態では、時系列を処理するステップが複数のユーザのうちの個別ユーザの活動に対して実行され、複数のユーザのうち現在活動していない一人以上の個別ユーザを識別し、第1の信号を提供するステップが、複数のユーザのうち現在活動していない特定ユーザを識別することを含んでもよい。   In some embodiments, the step of processing the time series is performed on individual user activities of the plurality of users to identify one or more individual users of the plurality of users who are not currently active, Providing one signal may include identifying a particular user that is not currently active among the plurality of users.

一部の実施形態では、処理ステップにおいて、予め定められた組の複数ユーザの全員が現在活動していないと判定されたとき、ゲーム装置に第2の信号を提供するステップを含んでもよい。   In some embodiments, the processing step may include providing a second signal to the game device when it is determined that all of the predetermined set of multiple users are not currently active.

一部の実施形態では、サンプルの時系列は、ユーザの体の少なくとも一部の移動、ユーザの体の位置、ユーザの体の少なくとも一部の姿勢、またはゲームの進行をゲーム装置により表示可能なスクリーン近傍での音響レベルのうち少なくとも一つに関する情報を含んでもよい。   In some embodiments, the time series of samples can be displayed by the gaming device with movement of at least part of the user's body, position of the user's body, posture of at least part of the user's body, or game progress. Information regarding at least one of the sound levels in the vicinity of the screen may be included.

一部の実施形態では、時系列を取得するステップが、ゲームの進行をゲーム装置により表示可能であるスクリーンの近傍で画像取得装置から情報を得ることを含んでもよい。時系列を取得するステップが、画像取得装置により取得される画像内の少なくとも一つの光学検出可能な(PD)要素の位置を表す情報を取得することを含んでもよい。PD要素はユーザの身につける物体に含まれてもよい。PD要素は、輝度、色、テクスチャ、模様、反射率または照度のうち少なくとも一つによって区別可能であってもよい。処理ステップは、ある期間にわたり少なくとも一つのPD要素の位置における変化が所定の閾値を越えないとき、ユーザが現在活動していないと判定してもよい。   In some embodiments, obtaining the time series may include obtaining information from the image acquisition device in the vicinity of a screen that can display the progress of the game by the game device. The step of acquiring a time series may include acquiring information representing a position of at least one optically detectable (PD) element in an image acquired by the image acquisition device. The PD element may be included in an object worn by the user. The PD element may be distinguishable by at least one of luminance, color, texture, pattern, reflectance, or illuminance. The processing step may determine that the user is not currently active when a change in the position of at least one PD element does not exceed a predetermined threshold over a period of time.

一部の実施形態では、少なくとも一つのPD要素が光源であってもよい。少なくとも一つのPD要素が発光ダイオード(LED)であってもよい。物体は少なくとも二つのPD要素を備えてもよい。時系列を取得するステップは、画像平面のx軸およびy軸に対する物体の方向を捕捉することを含んでもよい。   In some embodiments, at least one PD element may be a light source. At least one PD element may be a light emitting diode (LED). The object may comprise at least two PD elements. Obtaining the time series may include capturing the direction of the object relative to the x-axis and y-axis of the image plane.

一部の実施形態では、物体は三角形を構成する三つのPD要素を備えてもよい。時系列を取得するステップは、画像平面と垂直のz軸に対する物体の方向を捕捉することを含んでもよい。   In some embodiments, the object may comprise three PD elements that make up a triangle. Obtaining the time series may include capturing the direction of the object relative to the z-axis perpendicular to the image plane.

一部の実施形態では、物体は四角形を構成する少なくとも四つのPD要素を備えてもよい。時系列を取得するステップは、画像平面と垂直のz軸に対する物体の方向を捕捉することを含んでもよい。   In some embodiments, the object may comprise at least four PD elements that constitute a square. Obtaining the time series may include capturing the direction of the object relative to the z-axis perpendicular to the image plane.

一部の実施形態では、処理ステップが、ピッチ、ヨー、ロールのうち少なくとも一つに関する方向データを含む物体の方向を判定し、該方向データを予め定められた方向データと比較してユーザが現在活動しているか否かを判定することをさらに含んでもよい。方向データが物体のピッチ、ヨーおよびロールに関していてもよい。   In some embodiments, the processing step determines a direction of an object that includes direction data relating to at least one of pitch, yaw, and roll, and compares the direction data to predetermined direction data so that the user can It may further include determining whether it is active. Direction data may relate to the pitch, yaw and roll of the object.

一部の実施形態では、時系列を取得するステップが、ユーザの身につけた物体に組み込まれた慣性センサにより取得される情報をサンプリングすることを含み、時系列を処理するステップが、時系列を処理して予め定められたオブジェクトの動きが所定の期間内に閾値を越えないことを判定することを含んでもよい。慣性センサは、加速度計、ジャイロスコープまたはレーザジャイロスコープのうちの少なくとも一つであってよい。
一部の実施形態では、時系列を取得するステップが、物体の加速度を求めるために使用可能な情報を取得することを含み、時系列を処理するステップが物体の加速度を求めることを含んでもよい。時系列を処理するステップが、ある期間にわたり時系列から得られる加速度値を積分することで物体の速度を求め、この処理により求められた速度が速度閾値を越えないときユーザが現在活動していないと判定することを含んでもよい。
In some embodiments, obtaining the time series includes sampling information obtained by inertial sensors embedded in an object worn by the user, and processing the time series comprises: Processing may include determining that the predetermined object motion does not exceed a threshold within a predetermined period of time. The inertial sensor may be at least one of an accelerometer, a gyroscope, or a laser gyroscope.
In some embodiments, obtaining the time series may include obtaining information that can be used to determine the acceleration of the object, and processing the time series may include determining the acceleration of the object. . The step of processing the time series determines the speed of the object by integrating acceleration values obtained from the time series over a period of time, and the user is not currently active when the speed determined by this process does not exceed the speed threshold Determination may be included.

一部の実施形態では、時系列を処理するステップが、ある期間にわたり時系列から得られる加速度値を最初に積分しその結果を前記期間にわたり積分することによって物体の変位を求め、この処理により求められた変位が変位閾値を越えないときユーザが現在活動していないと判定することを含んでもよい。   In some embodiments, the step of processing the time series determines the displacement of the object by first integrating the acceleration values obtained from the time series over a period of time and integrating the result over the period of time. It may include determining that the user is not currently active when the displacement displaced does not exceed a displacement threshold.

一部の実施形態では、時系列を取得するステップが、ユーザの近傍で音響変換器により取得される情報をサンプリングすることを含み、時系列を処理するステップが、音響変換器により取得される情報が所定の基準を満足しないとき、ユーザが現在活動していないと判定することを含んでもよい。ゲームの進行をスクリーン上に表示してもよく、スクリーン近傍に配置された音響変換器により音響情報が取得される。   In some embodiments, obtaining the time series includes sampling information obtained by the acoustic transducer in the vicinity of the user, and processing the time series includes information obtained by the acoustic transducer. Determining that the user is not currently active when the user does not meet the predetermined criteria. The progress of the game may be displayed on the screen, and the acoustic information is acquired by an acoustic transducer disposed in the vicinity of the screen.

一部の実施形態では、ゲームの進行がスクリーンに表示され、スクリーン近傍に配置された音響変換器により前記音響情報が取得され、時系列を処理するステップが、音響変換器により取得された情報が特定のユーザに固有の所定の基準を満足しないとき、複数ユーザのうち特定のユーザが現在活動していないと判定することを含んでもよい。   In some embodiments, the progress of the game is displayed on a screen, the acoustic information is acquired by an acoustic transducer disposed in the vicinity of the screen, and the step of processing the time series includes the information acquired by the acoustic transducer. Determining that a particular user of the plurality of users is not currently active when not satisfying a predetermined criterion specific to the particular user may be included.

一部の実施形態では、前定の基準には、ピッチ、音声パルス周波数、音声パルス形状、音声パルスデューティサイクル、脈動周波数、特徴的な音のスペクトルコンテンツ特性を含むスペクトルシグネチャ、特定ユーザの音声を特徴付けるスペクトルシグネチャ、互いに連結し音声認識により認識可能な一連の一つ以上の音素を特徴付ける時間変化するシグネチャからなるグループから選択される少なくとも一つの基準を含んでもよい。   In some embodiments, the predetermined criteria include pitch, audio pulse frequency, audio pulse shape, audio pulse duty cycle, pulsation frequency, spectral signature including characteristic sound spectral content characteristics, specific user audio. It may include at least one criterion selected from the group consisting of spectral signatures that characterize, a time-varying signature that characterizes a series of one or more phonemes that are linked together and can be recognized by speech recognition.

本発明の一実施形態によると、上述の種類のテレビゲームシステムおよび方法は、図6に示すように実装可能である。テレビゲームシステム600は、プロセッサ601とメモリ602(例えば、RAM、DRAM、ROMなど)を含んでもよい。さらに、並列処理を実装する場合には、テレビゲームシステム600が複数のプロセッサ601を備えていてもよい。メモリ602は、上述のように構成された部分を含むデータとゲームプログラムコード604を含んでもよい。具体的には、メモリ602は上述のように保存されたコントローラ経路情報を含む慣性信号データ606を含んでもよい。メモリ602は保存されたジェスチャデータ608、例えばゲームプログラム604に関連する一つ以上のジェスチャを表すデータを含んでもよい。プロセッサ601で実行される符号化された命令は、上述のように構成され機能する多入力ミキサ605を実装してもよい。   According to one embodiment of the present invention, a video game system and method of the type described above can be implemented as shown in FIG. The video game system 600 may include a processor 601 and a memory 602 (eg, RAM, DRAM, ROM, etc.). Furthermore, when implementing parallel processing, the video game system 600 may include a plurality of processors 601. The memory 602 may include data including the portion configured as described above and game program code 604. Specifically, the memory 602 may include inertial signal data 606 including controller path information stored as described above. Memory 602 may include stored gesture data 608, for example, data representing one or more gestures associated with game program 604. The encoded instructions executed by processor 601 may implement a multi-input mixer 605 configured and functioning as described above.

システム600は周知のサポート機能610、例えば入出力(I/O)要素611、電源(P/S)612、クロック(CLK)613およびキャッシュ614等を備えてもよい。装置600は、プログラムおよび/またはデータを記憶するディスクドライブ、CD−ROMドライブ、テープ装置等の大容量記憶装置615を任意に備えてもよい。コントローラは、コントローラ600とユーザとの対話を促進するためのディスプレイ装置616とユーザインタフェースユニット618を任意に備えてもよい。ディスプレイ装置616は、テキスト、数字、グラフィック・シンボルまたは画像を表示する陰極線管(CRT)またはフラットパネル・スクリーンの形であってもよい。ユーザ・インタフェース618は、キーボード、マウス、ジョイスティック、ライトペンまたは他の装置であってもよい。さらに、ユーザ・インタフェース618は分析される信号を直接取得するためのマイク、ビデオ・カメラまたは他の信号変換装置であってもよい。プロセッサ601、メモリ602およびシステム600の他の構成要素は、図6で示すようにシステムバス620を介して互いに信号(例えば、コード命令とデータ)を交換してもよい。   The system 600 may include well-known support functions 610, such as an input / output (I / O) element 611, a power supply (P / S) 612, a clock (CLK) 613, a cache 614, and the like. The device 600 may optionally include a mass storage device 615 such as a disk drive, CD-ROM drive, tape device or the like for storing programs and / or data. The controller may optionally include a display device 616 and a user interface unit 618 to facilitate interaction between the controller 600 and the user. Display device 616 may be in the form of a cathode ray tube (CRT) or flat panel screen that displays text, numbers, graphic symbols or images. User interface 618 may be a keyboard, mouse, joystick, light pen, or other device. Further, user interface 618 may be a microphone, video camera, or other signal conversion device for directly acquiring the signal to be analyzed. Processor 601, memory 602 and other components of system 600 may exchange signals (eg, code instructions and data) with each other via system bus 620 as shown in FIG.

マイク配列622は、I/O機能611を介してシステム600に接続されてもよい。マイク配列は、隣のマイクと約4cm未満、好ましくは約1〜2cm離して配置された約2〜8個のマイク、好ましくは4個のマイクであってもよい。好ましくは、配列622のマイクは全方向性マイクである。オプションの画像取得装置623(例えば、デジタルカメラ)は、I/O機能611を介して装置600に結合される。カメラに機械的に結合される一つ以上のポインティングアクチュエータ625は、I/O機能611を介してプロセッサ601と信号を交換することができる。   The microphone array 622 may be connected to the system 600 via the I / O function 611. The microphone array may be about 2-8 microphones, preferably 4 microphones, located less than about 4 cm, preferably about 1-2 cm away from the adjacent microphone. Preferably, the microphones in array 622 are omnidirectional microphones. An optional image acquisition device 623 (eg, a digital camera) is coupled to the device 600 via an I / O function 611. One or more pointing actuators 625 mechanically coupled to the camera can exchange signals with the processor 601 via an I / O function 611.

本明細書においては、I/Oという用語は、一般にシステム600と周辺装置との間でデータをやりとりする任意のプログラム、操作または装置のことを指す。あらゆるデータ転送は、一つの装置からの出力および別の装置への入力とみなすことができる。周辺装置には、キーボードやマウスなどの入力専用装置、プリンタなどの出力専用の装置の他、入出力装置として機能する書き込み可能なCD−ROM等の装置も含まれる。「周辺装置」という用語には、マウス、キーボード、プリンタ、モニター、マイク、ゲームコントローラ、カメラ、外部Zipドライブまたはスキャナ等の外部装置の他、CD−ROMドライブ、CD−Rドライブまたは内蔵モデムなどの内部装置、またはフラッシュメモリ・リーダ/ライタ、ハードディスクなどの他の周辺機器も含まれる。   As used herein, the term I / O generally refers to any program, operation or device that exchanges data between system 600 and peripheral devices. Any data transfer can be viewed as an output from one device and an input to another device. Peripheral devices include devices such as a writable CD-ROM that functions as an input / output device, in addition to devices dedicated to input such as a keyboard and mouse, devices dedicated to output such as a printer. The term “peripheral device” includes external devices such as a mouse, keyboard, printer, monitor, microphone, game controller, camera, external Zip drive or scanner, CD-ROM drive, CD-R drive or built-in modem. Also included are internal devices or other peripherals such as flash memory reader / writers, hard disks.

本発明の特定の実施形態では、装置600はテレビゲームユニットであってもよく、ワイヤ(例えば、USBケーブル)または無線によってI/O機能611を介してプロセッサに接続されたジョイスティック・コントローラ630を備えてもよい。ジョイスティック・コントローラ630は、テレビゲームのプレイ中に一般に用いられる制御信号を提供するアナログジョイスティックコントロール631と従来のボタン633とを備えていてもよい。そのようなテレビゲームは、メモリ602に記憶可能なプロセッサ可読のデータおよび/または命令として実装されてもよいし、あるいは、大容量記憶装置615と関連するような他のプロセッサ可読媒体として実装されてもよい。   In particular embodiments of the present invention, the device 600 may be a video game unit and includes a joystick controller 630 connected to the processor via an I / O function 611 by wire (eg, USB cable) or wirelessly. May be. The joystick controller 630 may include an analog joystick control 631 that provides control signals commonly used during video game play and a conventional button 633. Such a video game may be implemented as processor readable data and / or instructions that can be stored in the memory 602, or as other processor readable media such as that associated with the mass storage device 615. Also good.

ジョイスティックコントロール631は、コントロールスティックを左右に動かすとX軸に沿った運動の信号を送り、スティックを前後(上下)に動かすとY軸に沿った運動の信号を送るように通常構成されている。三次元動作用に構成された構成されるジョイスティックでは、スティックを左方向(反時計回り)または右方向(時計回り)にひねるとZ軸に沿った運動の信号を送る。これら3軸X、Y、Zは、特に航空機に関してそれぞれロール、ピッチ、ヨーと呼ばれることが多い。   The joystick control 631 is normally configured to send a motion signal along the X axis when the control stick is moved left and right, and send a motion signal along the Y axis when the stick is moved back and forth (up and down). In a joystick configured for three-dimensional movement, a signal of movement along the Z axis is sent when the stick is twisted leftward (counterclockwise) or rightward (clockwise). These three axes X, Y, and Z are often called roll, pitch, and yaw, respectively, particularly with respect to aircraft.

従来の特徴に加えて、ジョイスティック・コントローラ630は一つ以上の慣性センサ632を備えていてもよい。慣性センサは、慣性信号を介してプロセッサ601に位置情報および/または方向情報を提供することができる。方向情報は、ジョイスティック・コントローラ630の傾き、ロールまたはヨーなどの角度情報を含んでもよい。一例として、慣性センサ632は、任意の数の加速度計、ジャイロスコープ、傾きセンサであってもよいし、および/またはこれらの組み合わせであってもよい。好ましい実施形態では、慣性センサ632は、傾き軸とロール軸に関してジョイスティック・コントローラの方向を感知するようにされた傾きセンサと、ヨー軸に沿って加速度を感知する第1加速度計と、ヨー軸に対する角加速度を感知する第2加速度計とを備えていてもよい。加速度計は、一つ以上の方向に対する質量の変位を感知するセンサを持ち一つ以上のバネにより取り付けられた質量を備えるMEMS装置であってもよい。質量の変位に応じたセンサからの信号を用いて、ジョイスティック・コントローラ630の加速度を決定することができる。このような技術は、メモリ602に保存されプロセッサ601で実行可能なプログラムコード命令604により実装される。   In addition to conventional features, the joystick controller 630 may include one or more inertial sensors 632. The inertial sensor can provide position information and / or direction information to the processor 601 via an inertial signal. The direction information may include angle information such as tilt, roll or yaw of the joystick controller 630. As an example, inertial sensor 632 may be any number of accelerometers, gyroscopes, tilt sensors, and / or combinations thereof. In a preferred embodiment, the inertial sensor 632 includes a tilt sensor adapted to sense the direction of the joystick controller with respect to the tilt and roll axes, a first accelerometer that senses acceleration along the yaw axis, and a yaw axis. You may provide the 2nd accelerometer which senses angular acceleration. The accelerometer may be a MEMS device having a sensor that senses displacement of the mass in one or more directions and having a mass attached by one or more springs. The acceleration of the joystick controller 630 can be determined using a signal from the sensor in response to the mass displacement. Such a technique is implemented by program code instructions 604 stored in the memory 602 and executable by the processor 601.

一例として、慣性センサ632として適した加速度計は、例えばバネによって3点または4点でフレームに弾性結合された単一の質量であってもよい。ピッチ軸とロール軸はフレームを横切る平面内にあり、フレームはジョイスティック・コントローラ630に取り付けられる。フレーム(およびジョイスティック・コントローラ630)がピッチ軸とロール軸の周りを回転すると、重力の影響により質量が変位し、ピッチおよび/またはロールの角度に応じてバネが伸縮する。質量の変位が感知され、ピッチおよび/またはロールの量に応じて信号に変換される。ヨー軸周りの角加速度またはヨー軸に沿った直線加速度は、感知可能であり角加速度または線形加速度の量に応じて信号に変換されるバネ伸縮または質量の動きの特徴的なパターンを生成する。そのような加速度計装置は、質量の動きあるいはバネの伸縮力を追跡することで、傾き、ロール、ヨー軸周りの角加速度およびヨー軸周りの線形加速度を測定することができる。質量の位置および/または質量にかかる力を追跡する多くの異なる方法があり、これには、抵抗歪みゲージ材料、フォトニック・センサ、磁気センサ、ホール効果デバイス、圧電デバイス、容量センサなどが含まれる。   As an example, an accelerometer suitable as inertial sensor 632 may be a single mass that is elastically coupled to the frame at three or four points, eg, by a spring. The pitch axis and roll axis are in a plane across the frame, and the frame is attached to the joystick controller 630. As the frame (and joystick controller 630) rotates about the pitch and roll axes, the mass is displaced by the effect of gravity and the springs expand and contract depending on the pitch and / or roll angle. Mass displacement is sensed and converted into a signal depending on the amount of pitch and / or roll. Angular acceleration about the yaw axis, or linear acceleration along the yaw axis, produces a characteristic pattern of spring expansion or contraction or mass movement that can be sensed and converted to a signal depending on the amount of angular or linear acceleration. Such an accelerometer device can measure tilt, roll, angular acceleration about the yaw axis, and linear acceleration about the yaw axis by tracking mass movement or spring stretching force. There are many different ways to track mass position and / or force on mass, including resistive strain gauge materials, photonic sensors, magnetic sensors, Hall effect devices, piezoelectric devices, capacitive sensors, etc. .

さらに、ジョイスティック・コントローラ630は、発光ダイオード(LED)等の一つ以上の光源634を含んでもよい。光源634は、あるコントローラと別のコントローラとを区別するのに用いられてもよい。例えば、LEDパターンコードを点滅するか保持するかによって一つ以上のLEDでこれを達成することができる。一例として、5個のLEDを線形パターンまたは二次元パターンでジョイスティック・コントローラ630上に設けることができる。LEDを線形配列するのが好ましいが、代わりに、画像取得装置623により取得されるLEDパターンの画像を解析するときにLED配列の画像平面の決定を容易にすべく、LEDを長方形パターンまたは円弧状パターンで配置してもよい。さらに、LEDパターンコードを使用して、ゲーム中にジョイスティック・コントローラ630の位置を決定してもよい。例えば、LEDはコントローラの傾き、ヨー、ロールの区別を助けることができる。この検出パターンは、航空機飛翔ゲーム等のゲームにおけるユーザの感覚を改善するのに役立つ。画像取得装置623は、ジョイスティック・コントローラ630と光源634とを含む画像を捕捉することができる。そのような画像を解析して、ジョイスティック・コントローラの位置および/または方向を決定することができる。この種の解析は、メモリ602に保存されプロセッサ601で実行されるプログラムコード命令604により実装可能である。画像取得装置623による光源634の画像の捕捉を容易にするために、光源634はジョイスティック・コントローラ630の二つ以上の異なる側面に、例えば正面と背面(点線で示す)に配置されていてもよい。このように配置することで、画像取得装置623は、ユーザによるジョイスティックコントローラ630の持ち方に応じてジョイスティックコントローラ630の異なる方向について光源634の画像を取得することが可能になる。   In addition, joystick controller 630 may include one or more light sources 634, such as light emitting diodes (LEDs). The light source 634 may be used to distinguish one controller from another. For example, this can be accomplished with one or more LEDs by flashing or holding the LED pattern code. As an example, five LEDs can be provided on the joystick controller 630 in a linear or two-dimensional pattern. Preferably, the LEDs are linearly arranged, but instead the LEDs are arranged in a rectangular pattern or arc shape to facilitate determination of the image plane of the LED array when analyzing the image of the LED pattern acquired by the image acquisition device 623. You may arrange by a pattern. Further, the LED pattern code may be used to determine the position of the joystick controller 630 during the game. For example, LEDs can help distinguish controller tilt, yaw, and roll. This detection pattern is useful for improving the user's feeling in games such as airplane flight games. The image acquisition device 623 can capture an image including the joystick controller 630 and the light source 634. Such an image can be analyzed to determine the position and / or orientation of the joystick controller. This type of analysis can be implemented by program code instructions 604 stored in memory 602 and executed by processor 601. In order to facilitate the capture of the image of the light source 634 by the image acquisition device 623, the light source 634 may be disposed on two or more different sides of the joystick controller 630, for example on the front and back (shown in dotted lines). . With this arrangement, the image acquisition device 623 can acquire images of the light source 634 in different directions of the joystick controller 630 depending on how the user holds the joystick controller 630.

加えて、光源634は、例えばパルスコード、振幅変調または周波数変調の形態で遠隔測定信号をプロセッサ601に提供することができる。このような遠隔測定信号は、どのジョイスティックボタンが押されているか、および/またはそのボタンがどの程度強く押されているかを表すことができる。遠隔測定信号は、パルスコーディング、パルス幅変調、周波数変調または光強度(振幅)変調によって光学信号に符号化することができる。プロセッサ601は光学信号から遠隔測定信号を復号し、復号された遠隔測定信号に応じてゲームコマンドを実行する。遠隔測定信号は、画像取得装置623により取得されたジョイスティック・コントローラ630の画像解析から復号されてもよい。あるいは、装置601は、光源634からの遠隔測定信号を受信するための専用の別個の光学センサを備えていてもよい。コンピュータプログラムと対話する際の強度決定に伴うLEDの使用については、例えばRichard L. Marksらの共有された米国特許出願第11/429,414号、2006年5月4日出願の「USE OF COMPUTER IMAGE AND AUDIO PROCESSING IN DETERMINING AN INTENSITY AMOUNT WHEN INTERFACING WITH A COMPUTER PROGRAM」(代理人整理番号SONYP052)に記載されており、その全体が参照により本明細書に援用される。加えて、光源634を含む画像の解析を、遠隔測定とジョイスティック・コントローラ630の位置および/または方向の決定の両方に用いることができる。このような技術は、メモリ602に保存されプロセッサ601で実行可能なプログラムコード命令604によって実装することができる。   In addition, the light source 634 can provide a telemetry signal to the processor 601 in the form of, for example, pulse code, amplitude modulation, or frequency modulation. Such a telemetry signal can indicate which joystick button is pressed and / or how hard the button is pressed. The telemetry signal can be encoded into an optical signal by pulse coding, pulse width modulation, frequency modulation or light intensity (amplitude) modulation. The processor 601 decodes the telemetry signal from the optical signal and executes a game command in response to the decoded telemetry signal. The telemetry signal may be decoded from an image analysis of the joystick controller 630 acquired by the image acquisition device 623. Alternatively, the device 601 may comprise a separate optical sensor dedicated for receiving telemetry signals from the light source 634. For use of LEDs in determining intensity when interacting with a computer program, see, for example, Richard L. Marks et al., US patent application Ser. No. 11 / 429,414, filed May 4, 2006, “USE OF COMPUTER IMAGE AND”. AUDIO PROCESSING IN DETERMINING AN INTENSITY AMOUNT WHEN INTERFACING WITH A COMPUTER PROGRAM ”(agent serial number SONYP052), the entirety of which is incorporated herein by reference. In addition, analysis of the image including the light source 634 can be used for both telemetry and determination of the position and / or orientation of the joystick controller 630. Such techniques can be implemented by program code instructions 604 stored in memory 602 and executable by processor 601.

プロセッサ601は、画像取得装置623により検出された光源634からの光学信号、および/またはマイク配列622により検出された音響信号から得られた音源位置と特徴の情報とともに、慣性センサ632からの慣性信号を使用して、ジョイスティックコントローラ630および/またはそのユーザの位置および/または方向を推測することができる。例えば、「音響レーダ」の音源位置および特徴をマイク配列622とともに使用して、ジョイスティックコントローラの動きが(慣性センサ632または光源634により)独立して追跡されている間に移動する音声を追跡することができる。音響レーダにおいて、予め調整されたリスニングゾーンが実行時に選択され、予め調整されたリスニングゾーン外部の音源から生じる音が取り除かれる。予め調整されたリスニングゾーンは、画像取得装置623の焦点の大きさまたは視野に対応するリスニングゾーンを含んでもよい。音響レーダの例は、米国特許出願第11/381,724号、2006年5月4日出願、Xiadong Maoの「METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION」に詳細に記載されており、参照により本明細書に援用される。プロセッサ601に制御信号を与える任意の数の異なるモードの異なる組み合わせを、本発明の実施形態とともに用いることができる。このような技術は、メモリ602に保存されプロセッサ601により実行可能であるプログラムコード命令604により実装可能である。実行時に予め調整されたリスニングゾーンを選択し、予め調整されたリスニングゾーン外部の音源から生じる音を取り除くように一つ以上のプロセッサに指示する一つ以上の命令を選択的に含んでもよい。予め調整されたリスニングゾーンは、画像取得装置623の焦点の大きさおよび視野に対応するリスニングゾーンを含んでもよい。   The processor 601 receives the inertial signal from the inertial sensor 632 together with the optical signal from the light source 634 detected by the image acquisition device 623 and / or the sound source position and feature information obtained from the acoustic signal detected by the microphone array 622. Can be used to infer the position and / or orientation of the joystick controller 630 and / or its user. For example, using “acoustic radar” sound source locations and features with microphone array 622 to track moving voice while joystick controller movement is being tracked independently (by inertial sensor 632 or light source 634). Can do. In the acoustic radar, a pre-adjusted listening zone is selected at run time, and sounds originating from sound sources outside the pre-adjusted listening zone are removed. The pre-adjusted listening zone may include a listening zone corresponding to the focal size or field of view of the image acquisition device 623. Examples of acoustic radar are described in detail in U.S. Patent Application No. 11 / 381,724, filed May 4, 2006, Xiadong Mao's `` METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION '', which is incorporated herein by reference. Incorporated. Different combinations of any number of different modes that provide control signals to the processor 601 can be used with embodiments of the present invention. Such techniques can be implemented by program code instructions 604 that are stored in memory 602 and executable by processor 601. One or more instructions may be optionally included that select a pre-adjusted listening zone at run time and instruct one or more processors to remove sound originating from sound sources outside the pre-adjusted listening zone. The pre-adjusted listening zone may include a listening zone corresponding to the focus size and field of view of the image acquisition device 623.

プログラム・コード604は、一つ以上のプロセッサに対し、マイクM...Mからの離散時間領域入力信号x(t)を生成するように指示し、セミブラインド音源分離でリスニングセクタを使用して有限インパルス応答フィルタ係数を選択して入力信号x(t)からの異なる音源を分離させる、一つ以上の命令を選択的に含んでもよい。プログラム604は、参照マイクMからの入力信号x(t)以外の選択された入力信号x(t)に対し一つ以上の非整数遅延を適用する命令を含んでもよい。非整数遅延のそれぞれを選択して、マイク配列から得られる離散時間領域出力信号y(t)の信号対雑音比を最適化することができる。参照マイクMからの信号が配列の他のマイクからの信号に対して時間的に最初になるように非整数遅延を選択してもよい。プログラム604は、非整数時間遅延Δをマイク配列の出力信号y(t)に導入する命令を含んでもよい。すなわち、y(t+Δ)=x(t+Δ)*b+x(t−l+Δ)*b+x(t−2+Δ)*b+...+x(t−N+Δ)b。ここで、Δは0と±1の間である。このような技術の例は、米国特許出願第11/381,729号、2006年5月4日出願、Xiadong Maoの「ULTRA SMALL MICROPHONE ARRAY」に詳細に記載されており、参照により本明細書に援用される。 Program code 604 is transmitted to microphones M 0 . . . Instruct to generate a discrete time domain input signal x m (t) from M M , select a finite impulse response filter coefficient using a listening sector with semi-blind source separation, and from the input signal x m (t) One or more instructions for separating different sound sources may be selectively included. Program 604 may include instructions for applying one or more non-integer delays to selected input signals x m (t) other than input signal x 0 (t) from reference microphone M 0 . Each non-integer delay can be selected to optimize the signal-to-noise ratio of the discrete time domain output signal y (t) obtained from the microphone array. As the signal from the reference microphone M 0 is first becomes temporally to the signal from the other microphone array may be selected fractional delay. Program 604 may include instructions for introducing a non-integer time delay Δ into the output signal y (t) of the microphone array. That is, y (t + Δ) = x (t + Δ) * b 0 + x (t−1 + Δ) * b i + x (t−2 + Δ) * b 2 +. . . + X (t−N + Δ) b N. Here, Δ is between 0 and ± 1. Examples of such techniques are described in detail in U.S. Patent Application No. 11 / 381,729, filed May 4, 2006, Xiadong Mao's "ULTRA SMALL MICROPHONE ARRAY", which is incorporated herein by reference. The

プログラム・コード604は、実行時に、音源を含む予め調整されたリスニングセクタをシステム600に選択させる一つ以上の命令を含んでもよい。このような命令により、装置は、音源が慣性セクタ内または慣性セクタの特定の側にあるか否かを判定することができる。音源がデフォルトのセクタ内に存在しない場合、実行時、命令はデフォルトセクタの特定の側の異なるセクタを選択する。異なるセクタは、最適値に最も近い入力信号の減衰によって特徴付けることができる。これらの命令は、実行時に、マイク配列622からの入力信号の減衰と、最適値への減衰を計算することができる。実行時に、命令によって、一つ以上のセクタへの入力信号の減衰値を求め、減衰が最適値に最も近いセクタを装置に選択させることができる。   Program code 604 may include one or more instructions that, when executed, cause system 600 to select a preconditioned listening sector that includes a sound source. Such an instruction allows the device to determine whether the sound source is within the inertial sector or on a specific side of the inertial sector. If the sound source is not in the default sector, at runtime, the instruction selects a different sector on a particular side of the default sector. Different sectors can be characterized by the attenuation of the input signal closest to the optimal value. These instructions can calculate the attenuation of the input signal from the microphone array 622 and the attenuation to the optimum value at runtime. At run time, an instruction can determine the attenuation value of the input signal to one or more sectors and cause the device to select the sector whose attenuation is closest to the optimum value.

このような技術の例は、例えば、米国特許出願第11/381,725号、2006年5月4日出願、Xiadong Maoの「METHODS AND APPARATUS FOR TARGETED SOUND DETECTION」に記載されており、その開示は参照により本明細書に援用される。   Examples of such techniques are described, for example, in U.S. Patent Application No. 11 / 381,725, filed May 4, 2006, Xiadong Mao's “METHODS AND APPARATUS FOR TARGETED SOUND DETECTION”, the disclosure of which is incorporated by reference. Incorporated herein by reference.

慣性センサ632からの信号が追跡情報入力の一部を与え、一つ以上の光源634の追跡により画像取得装置623から生成される信号が、追跡情報入力の別の部分を与えてもよい。一例として、クォーターバックが頭を左方向にフェイクで動かした後にボールを右方向に投じるフットボールのテレビゲームでそのような「混在モード」信号を用いることができるが、これに限定されない。具体的には、コントローラ630を保持するゲームプレーヤが頭を左に回転させて音を出す一方、コントローラをフットボールであるかのように右方向に振るピッチ動作をすることができる。「音響レーダ」プログラム・コードと連携したマイク配列622は、ユーザの声を追うことができる。画像取得装置623は、ユーザの頭の動きを追跡するか、または音声やコントローラの使用を必要としない他のコマンドを追跡することができる。センサ632は、ジョイスティック・コントローラ(フットボールを表す)の動きを追跡することができる。画像取得装置623は、コントローラ630上の光源634を追跡してもよい。ユーザは、ジョイスティックコントローラ630の加速度の量および/または方向が特定値に達することで、またはジョイスティックコントローラ630のボタンを押すことで起動されるキーコマンドにより、「ボール」を離すことができる。   The signal from the inertial sensor 632 may provide part of the tracking information input, and the signal generated from the image acquisition device 623 by tracking one or more light sources 634 may provide another part of the tracking information input. As an example, such a “mixed mode” signal can be used in a football video game in which quarterback flicks his head to the left and then throws the ball to the right, but is not limited thereto. Specifically, a game player holding the controller 630 can make a pitch operation by rotating the head to the left and making a sound while swinging the controller in the right direction as if it were football. A microphone array 622 in conjunction with the “acoustic radar” program code can follow the user's voice. The image acquisition device 623 can track the user's head movement or other commands that do not require voice or the use of a controller. Sensor 632 can track the movement of a joystick controller (representing football). The image acquisition device 623 may track the light source 634 on the controller 630. The user can release the “ball” when the amount and / or direction of acceleration of the joystick controller 630 reaches a specific value, or by a key command activated by pressing a button on the joystick controller 630.

本発明の特定の実施形態では、例えば加速度計またはジャイロスコープからの慣性信号を使用して、ジョイスティック・コントローラ630の位置を決定することができる。具体的には、加速度計からの加速信号を一旦時間積分して速度変化を求め、速度を時間積分して位置変化を求めることができる。ある時間での初期位置と速度の値が分かっている場合、これらの値と速度変化および位置変化を用いて絶対位置を求めることができる。慣性センサを用いると、画像取得装置623と光源634をと用いるよりも早く位置決定することができるが、慣性センサ632は「ドリフト」として知られるタイプの誤差の影響を受けることがある。つまり、時間につれて誤差が蓄積して、慣性信号から計算されるジョイスティック630の位置(点線で示す)と、ジョイスティックコントローラ630の実際の位置との間に不一致Dが生じることがある。本発明の実施形態により、そのような誤差に対処するいくつかの方法が可能になる。   In certain embodiments of the invention, the position of the joystick controller 630 can be determined using, for example, an inertial signal from an accelerometer or a gyroscope. Specifically, the acceleration signal from the accelerometer can be temporarily integrated to obtain a speed change, and the speed is time integrated to obtain a position change. If the values of the initial position and speed at a certain time are known, the absolute position can be obtained using these values, speed change, and position change. Although the inertial sensor can be used to locate faster than using the image acquisition device 623 and the light source 634, the inertial sensor 632 can be affected by a type of error known as “drift”. That is, errors accumulate over time, and a mismatch D may occur between the position of the joystick 630 calculated by the inertia signal (shown by a dotted line) and the actual position of the joystick controller 630. Embodiments of the present invention allow several ways to deal with such errors.

例えば、ジョイスティックコントローラ630の初期位置を、現在の計算された位置と等しくなるように再設定することで、ドリフトをマニュアルでキャンセルすることができる。ユーザは初期位置を再設定するコマンドを起動するためにジョイスティックコントローラ630の一つ以上のボタンを用いることができる。代わりに、画像取得装置623から得られる画像から求められる位置を参照として現在位置を再設定することで、画像ベースのドリフトを実施することができる。このような画像ベースのドリフト補正は、例えばユーザがジョイスティック・コントローラ630の一つ以上のボタンを起動するときにマニュアルで実施することができる。代わりに、例えば一定の時間間隔でまたはゲームプレイに応じて、画像ベースのドリフト補正を自動的に実施することもできる。このような技術は、メモリ602に保存されプロセッサ601で実行可能なプログラムコード命令604によって実装可能である。   For example, the drift can be manually canceled by resetting the initial position of the joystick controller 630 to be equal to the current calculated position. The user can use one or more buttons on the joystick controller 630 to activate a command to reset the initial position. Instead, image-based drift can be implemented by resetting the current position with reference to the position obtained from the image obtained from the image acquisition device 623. Such image-based drift correction can be performed manually, for example, when the user activates one or more buttons of the joystick controller 630. Alternatively, image-based drift correction can be performed automatically, for example at regular time intervals or in response to game play. Such a technique can be implemented by program code instructions 604 stored in memory 602 and executable by processor 601.

特定の実施形態では、慣性センサ信号内の偽(スプリアス)データを補償することが望ましい。例えば、慣性センサ632からの信号をオーバーサンプリングし、オーバーサンプリングした信号から移動平均を計算して、慣性センサ信号からスプリアスデータを除去してもよい。ある状況では、信号をオーバーサンプリングし、データポイントの一部のサブセットから高値および/または低値を取り除き、残りのデータポイントから移動平均を計算してもよい。さらに、他のデータサンプリング技術およびデータ操作技術を使用して、慣性センサの信号を調節しスプリアスデータの有意性を除去または低減することができる。信号の性質、信号に対して実行される計算、ゲームプレイの性質、またはこれらのうちの二つ以上の組合せによって技術を選択することができる。このような技術は、メモリ602に保存されプロセッサ601で実行可能なプログラムコード命令604によって実装することができる。   In certain embodiments, it is desirable to compensate for spurious data in the inertial sensor signal. For example, the signal from the inertial sensor 632 may be oversampled, a moving average may be calculated from the oversampled signal, and spurious data may be removed from the inertial sensor signal. In some situations, the signal may be oversampled to remove high and / or low values from some subset of data points, and a moving average may be calculated from the remaining data points. In addition, other data sampling and data manipulation techniques can be used to adjust the inertial sensor signal to remove or reduce the significance of spurious data. The technique can be selected according to the nature of the signal, the calculations performed on the signal, the nature of the game play, or a combination of two or more of these. Such techniques can be implemented by program code instructions 604 stored in memory 602 and executable by processor 601.

プロセッサ601は、メモリ602で保存、読み出しされプロセッサモジュール601で実行されるデータ606とプログラム604のプログラムコード命令とに応じて、上述のように慣性信号データの解析を実行することができる。プログラム604のコード部分は、アセンブリ、C++、JAVA(登録商標)またはいくつかの他の言語などの複数の異なるプログラム言語のうちのいずれか一つに準拠していてもよい。プロセッサ・モジュール601は、プログラムコード604のようなプログラムを実行するとき特定目的のコンピュータになる汎用コンピュータを形成する。プログラム・コード604がソフトウェアで実装され汎用コンピュータ上で実行されると本明細書で述べられているが、当業者であれば、特定用途向け集積回路(ASIC)または他のハードウェア回路等のハードウェアを使用してもタスク管理方法を実装できることを理解するだろう。このように、本発明の実施形態の全体または一部を、ソフトウェア、ハードウェアまたは両方の組合せで実装できることを理解すべきである。   The processor 601 can analyze inertial signal data as described above according to the data 606 stored and read in the memory 602 and executed by the processor module 601 and the program code instructions of the program 604. The code portion of program 604 may conform to any one of a plurality of different programming languages such as assembly, C ++, JAVA, or some other language. The processor module 601 forms a general purpose computer that becomes a special purpose computer when executing a program such as the program code 604. Although it is described herein that program code 604 is implemented in software and executed on a general purpose computer, one of ordinary skill in the art will recognize hardware such as an application specific integrated circuit (ASIC) or other hardware circuit. You will understand that task management methods can also be implemented using hardware. Thus, it should be understood that all or part of embodiments of the present invention can be implemented in software, hardware or a combination of both.

一実施形態では、プログラムコード604は、図5Bの方法510および図5Cの方法520、またはこれらの二つ以上の組み合わせと同じような特徴を有する方法を実装する一組のプロセッサ可読命令を含んでもよい。プログラムコード604は、一般に、一つ以上のプロセッサに慣性センサ632からの信号の解析して位置情報および/または方向情報の生成を指示し、テレビゲームのプレイ中にこの情報を利用する一つ以上の命令を含んでもよい。   In one embodiment, program code 604 may include a set of processor readable instructions that implement methods having features similar to method 510 of FIG. 5B and method 520 of FIG. 5C, or combinations of two or more thereof. Good. The program code 604 generally instructs one or more processors to analyze the signal from the inertial sensor 632 to generate position information and / or direction information, and use one or more of this information during video game play. May also include instructions.

プログラムコード604は、実行時に画像取得装置623に装置623の前の視野を監視させ、視野内の一つ以上の光源634を識別し、光源634から発せられる光の変化を検出させ、変化の検出に応じてプロセッサ601への入力コマンドを起動する一つ以上の命令を含む、プロセッサ実行可能命令を選択的に含んでもよい。画像取得装置とともにLEDを用いたゲームコントローラのアクションの起動は、米国特許出願第10/759,782号、2004年1月16日出願、Richard L. Marksの「METHOD AND APPARATUS FOR LIGHT INPUT DEVICE」に記載されており、参照によりその全体が本明細書に援用される。   Program code 604, when executed, causes image acquisition device 623 to monitor the field of view in front of device 623, identify one or more light sources 634 within the field of view, detect changes in light emitted from light sources 634, and detect changes. In response, processor executable instructions may optionally be included, including one or more instructions that activate input commands to the processor 601. Game controller action activation using LEDs with an image acquisition device is described in US Patent Application No. 10 / 759,782, filed January 16, 2004, "METHOD AND APPARATUS FOR LIGHT INPUT DEVICE" by Richard L. Marks. Which is incorporated herein by reference in its entirety.

プログラムコード604は、実行時に、慣性センサからの信号と、例えば上述したようなゲームシステムへの入力として一つ以上の光源の追跡から画像取得装置により生成される信号とを使用する一つ以上の命令を含む、プロセッサ実行可能な命令を選択的に含んでもよい。プログラムコード604は、実行時に慣性センサ632のドリフトを補償する一つ以上の命令を含む、プロセッサ実行可能な命令を選択的に含んでもよい。   The program code 604, when executed, uses one or more signals that use signals from the inertial sensors and signals generated by the image acquisition device from tracking one or more light sources, for example, as input to a gaming system as described above. Processor-executable instructions, including instructions, may optionally be included. Program code 604 may optionally include processor-executable instructions, including one or more instructions that compensate for drift of inertial sensor 632 during execution.

本発明の実施形態をテレビゲームコントローラ630に関連する例について説明したが、システム600を含む本発明の実施形態は、慣性検出能力を有し、無線または他の方法により慣性センサ信号を送信する能力を有する任意のユーザ操作可能な本体、成形物体、ノブ、構造等で使用することができる。   Although embodiments of the present invention have been described with respect to an example associated with a video game controller 630, embodiments of the present invention including the system 600 have inertial detection capabilities and the ability to transmit inertial sensor signals wirelessly or otherwise. Can be used with any user-operable body, molded object, knob, structure, etc.

一例として、本発明の実施形態を並列処理システムで実装することができる。このような並列処理システムは、典型的に、別個のプロセッサを用いて並列にプログラム部分を実行するように構成された二つ以上のプロセッサ要素を備える。図7は本発明の一実施形態による一種のセルプロセッサ700を示す。セルプロセッサ700を図6のプロセッサ601として、または図5Aのプロセッサ502として用いることができる。図7に示す例では、セルプロセッサ700はメインメモリ702と、パワープロセッサ要素(PPE)704と、複数の相乗作用プロセッサ要素(SPE)706とを備える。図7に示す例では、セルプロセッサ700は一つのPPE704と8つのSPE706を備える。このような構成では、SPE706のうちの7台を並列処理のために使用し、一台を他の7台のうちの一つが故障した場合のバックアップとして確保しておいてもよい。代替的に、セルプロセッサは、複数グループのPPE(PPEグループ)と複数グループのSPE(SPEグループ)とを備えていてもよい。この場合には、グループ内のユニット間でハードウェア資源を共有することができる。しかしながら、SPEとPPEは独立した要素としてソフトウェアに見えなければならない。このように、本発明の実施形態は、図7に示す構成の使用に限定されない。   As an example, embodiments of the present invention can be implemented in a parallel processing system. Such parallel processing systems typically include two or more processor elements configured to execute program portions in parallel using separate processors. FIG. 7 illustrates a type of cell processor 700 according to one embodiment of the invention. Cell processor 700 may be used as processor 601 in FIG. 6 or as processor 502 in FIG. 5A. In the example shown in FIG. 7, the cell processor 700 includes a main memory 702, a power processor element (PPE) 704, and a plurality of synergistic processor elements (SPE) 706. In the example shown in FIG. 7, the cell processor 700 includes one PPE 704 and eight SPEs 706. In such a configuration, seven of the SPEs 706 may be used for parallel processing, and one may be reserved as a backup when one of the other seven units fails. Alternatively, the cell processor may include a plurality of groups of PPE (PPE groups) and a plurality of groups of SPEs (SPE groups). In this case, hardware resources can be shared between units in the group. However, SPE and PPE must appear to the software as independent elements. Thus, embodiments of the present invention are not limited to the use of the configuration shown in FIG.

メインメモリ702は、一般に、汎用で不揮発性の記憶装置の場合と、システム構成、データ転送同期、メモリマップされたI/O、I/Oサブシステム等の機能のために用いられる特定目的のハードウェアレジスタまたはアレイの両方の場合を含む。本発明の実施形態では、テレビゲームプログラム703がメインメモリ702内に常駐してもよい。テレビゲームプログラム703は、慣性解析器、画像解析器および音響解析器と、上述の図4、5A、5Bまたは5Cに関して述べたようにまたはこれらの組み合わせとして構成されたミキサとを備えてもよい。プログラム703はPPE上で実行されてもよい。プログラム703は、SPEおよび/またはPPE上で実行可能な複数の信号処理タスクに分割されてもよい。   The main memory 702 is typically a general purpose non-volatile storage device and special purpose hardware used for functions such as system configuration, data transfer synchronization, memory mapped I / O, I / O subsystem, etc. Includes both wear registers and arrays. In the embodiment of the present invention, the video game program 703 may reside in the main memory 702. The video game program 703 may include an inertial analyzer, an image analyzer, and an acoustic analyzer and a mixer configured as described above or in combination with respect to FIGS. 4, 5A, 5B, or 5C above. The program 703 may be executed on the PPE. The program 703 may be divided into multiple signal processing tasks that can be executed on the SPE and / or PPE.

一例として、PPE704は、関連するキャッシュL1、L2を持つ64ビットパワーPCプロセッサユニット(PPU)であってもよい。PPE704は汎用処理ユニットであり、(例えばメモリ保護テーブルなどの)システム管理リソースにアクセス可能である。PPEによって見られるように、ハードウェア資源が明示的に実アドレス空間マッピングされていてもよい。したがって、PPEは、適当な実効アドレス値を使用して、これらの任意のリソースを直接アドレス指定することができる。PPE704の主要な機能は、セルプロセッサ700のSPE706のためのタスク管理とタスク割り当てである。   As an example, PPE 704 may be a 64-bit power PC processor unit (PPU) with associated caches L1, L2. The PPE 704 is a general-purpose processing unit that can access system management resources (such as a memory protection table). As seen by the PPE, hardware resources may be explicitly mapped to real address space. Thus, the PPE can directly address any of these resources using an appropriate effective address value. The main function of the PPE 704 is task management and task assignment for the SPE 706 of the cell processor 700.

一つのPPEのみがセル・ブロードバンド・エンジン・アーキテクチャ(CBEA)のようなセルプロセッサ実装として図7に示されているが、セルプロセッサ700は、二つ以上のPPEグループに組織された複数のPPEを有していてもよい。これらのPPEグループは、メインメモリ702へのアクセスを共有してもよい。さらに、セルプロセッサ700は、二つ以上のSPEグループを備えてもよい。SPEグループは、メインメモリ702へのアクセスを共有してもよい。このような構成は本発明の範囲内である。   Although only one PPE is shown in FIG. 7 as a cell processor implementation such as Cell Broadband Engine Architecture (CBEA), the cell processor 700 can be configured to have multiple PPEs organized into two or more PPE groups. You may have. These PPE groups may share access to the main memory 702. Further, the cell processor 700 may include two or more SPE groups. SPE groups may share access to main memory 702. Such a configuration is within the scope of the present invention.

各SPE706は、相乗作用プロセッサユニット(SPU)と自身のローカル記憶領域LSとを備える。ローカル記憶領域LSは、それぞれが特定のSPUと関連づけられる一つ以上の別個のメモリ記憶領域を有していてもよい。各SPUは、自身の関連するローカル記憶領域内からの命令(データロード操作とデータ記憶操作を含む)のみを実行するように構成されていてもよい。このような構成では、ローカル記憶LSとシステム700内のいずれかの場所との間でのデータ転送は、(個々のSPEの)ローカル記憶領域を出入りするデータ転送をするダイレクトメモリアクセス(DMA)コマンドをメモリフローコントローラ(MFC)から発行することで実行できる。SPUは、いかなるシステム管理機能も実行しないという点で、PPE704よりも複雑さの少ない計算ユニットである。SPUは、一般に単一命令、複数データ(SIMD)能力を有し、割り当てられたタスクを実行するために、データを処理して任意の必要なデータ転送(PPEによりセットされた特性へのアクセスを受ける)を開始する。SPUの目的は、より高い計算単位密度を必要とし提供された命令セットを効果的に使用できるアプリケーションを実行可能とすることである。PPE704によって管理されるシステム内の相当数のSPEによって、広範囲にわたるアプリケーションについて費用効果の高い処理が可能になる。   Each SPE 706 includes a synergistic processor unit (SPU) and its own local storage area LS. The local storage area LS may have one or more separate memory storage areas, each associated with a particular SPU. Each SPU may be configured to execute only instructions (including data loading and data storage operations) from within its associated local storage area. In such a configuration, data transfer between the local storage LS and any location in the system 700 is a direct memory access (DMA) command that transfers data in and out of the local storage area (in the individual SPE). Can be executed by issuing a memory flow controller (MFC). The SPU is a computational unit that is less complex than the PPE 704 in that it does not perform any system management functions. SPUs generally have single instruction, multiple data (SIMD) capabilities and process data to perform any necessary data transfer (access to characteristics set by the PPE) to perform assigned tasks. Start). The purpose of the SPU is to enable applications that require higher computational unit density and can effectively use the provided instruction set. A significant number of SPEs in the system managed by PPE 704 allow for cost-effective processing for a wide range of applications.

各SPE706は、メモリ保護とアクセス許可情報を保持し処理が可能である関連するメモリ管理ユニットを有する専用のメモリフローコントローラ(MFC)を備えることができる。MFCは、セルプロセッサの主記憶装置とSPEのローカル記憶装置との間のデータ転送、保護および同期の主要な方法を提供する。MFCコマンドは実行される転送を記述する。データを転送するためのコマンドは、MFCダイレクトメモリアクセス(DMA)コマンド(またはMFC DMAコマンド)と呼ばれることがある。   Each SPE 706 can comprise a dedicated memory flow controller (MFC) having an associated memory management unit that can hold and process memory protection and access permission information. The MFC provides the primary method of data transfer, protection and synchronization between the cell processor main storage and the SPE local storage. The MFC command describes the transfer to be performed. A command for transferring data may be referred to as an MFC direct memory access (DMA) command (or MFC DMA command).

各MFCは、同時に複数のDMA転送をサポートすることができ、また複数のMFCコマンドを維持かつ処理することができる。各MFC DMAデータ転送コマンドは、ローカル記憶装置のアドレス(LSA)と実効アドレス(EA)の両方を必要とすることがある。ローカル記憶装置アドレスは、その関連するSPEのローカル記憶領域のみを直接アドレス指定してもよい。実効アドレスにはより一般的なアプリケーションがあることがある。例えば、実効アドレスが実アドレス空間内にエイリアスされる場合、全てのSPEローカル記憶領域を含む主記憶装置を参照することができる。   Each MFC can support multiple DMA transfers simultaneously and can maintain and process multiple MFC commands. Each MFC DMA data transfer command may require both a local storage device address (LSA) and an effective address (EA). A local storage address may directly address only the local storage area of its associated SPE. Effective addresses may have more general applications. For example, if the effective address is aliased in the real address space, the main storage device including all SPE local storage areas can be referenced.

SPE706の間の通信および/またはSPE706とPPE704の間の通信を容易にするために、SPE706とPPE704は、イベントを合図する信号通知レジスタを含んでもよい。PPE704とSPE706は、PPE704がメッセージをSPE706に発信するルータの働きをするスター・トポロジによって結合されてもよい。代わりに、各SPE706とPPE704は、メールボックスと呼ばれる一方向の信号通知レジスタを有していてもよい。メールボックスはSPE706により使用され、オペレーティングシステム(OS)の同期をホストすることができる。   To facilitate communication between SPE 706 and / or communication between SPE 706 and PPE 704, SPE 706 and PPE 704 may include a signal notification register that signals an event. PPE 704 and SPE 706 may be combined by a star topology that acts as a router from which PPE 704 sends messages to SPE 706. Alternatively, each SPE 706 and PPE 704 may have a one-way signal notification register called a mailbox. Mailboxes are used by SPE 706 and can host operating system (OS) synchronization.

セルプロセッサ700は、セルプロセッサ700がマイク配列712やオプションの画像取得装置713およびゲームコントローラ730のような周辺装置と対話する入出力(I/O)機能708を備えていてもよい。ゲームコントローラユニットは、慣性センサ732と光源734を備えていてもよい。さらに、要素相互接続バス710が上記の様々な構成要素を接続してもよい。各SPEとPPEは、バスインタフェースユニットBIUを通してバス710にアクセスすることができる。セルプロセッサ700は、プロセッサ内に通常見つかる二つのコントローラを備えてもよい。すなわち、バス710とメインメモリ702の間でのデータの流れを制御するメモリインタフェースコントローラMICと、I/O708とバス710の間でのデータの流れを制御するバスインタフェースコントローラBICである。MIC、BIC、BIUおよびバス710の要件は様々な実装に対して大きく異なることがあるが、当業者であれば、これらを実装するための機能および回路に精通しているであろう。   Cell processor 700 may include an input / output (I / O) function 708 that allows cell processor 700 to interact with peripheral devices such as microphone array 712, optional image acquisition device 713, and game controller 730. The game controller unit may include an inertial sensor 732 and a light source 734. In addition, an element interconnection bus 710 may connect the various components described above. Each SPE and PPE can access the bus 710 through the bus interface unit BIU. Cell processor 700 may include two controllers that are typically found in the processor. That is, the memory interface controller MIC that controls the flow of data between the bus 710 and the main memory 702, and the bus interface controller BIC that controls the flow of data between the I / O 708 and the bus 710. Although the requirements for MIC, BIC, BIU and bus 710 can vary widely for various implementations, those skilled in the art will be familiar with the functions and circuitry for implementing them.

セルプロセッサ700は、内部割り込みコントローラIICを備えてもよい。IIC構成要素は、PPEに提示される割り込みの優先度を管理する。IICは、他の構成要素からの割り込みを、セルプロセッサ700がメインシステムの割り込みコントローラを用いることなく処理することを可能にする。IICは、第2のレベルコントローラとみなしてもよい。メインシステムの割り込みコントローラは、セルプロセッサ外部から生じる割り込みを処理してもよい。   The cell processor 700 may include an internal interrupt controller IIC. The IIC component manages the priority of interrupts presented to the PPE. The IIC allows the cell processor 700 to handle interrupts from other components without using the main system interrupt controller. The IIC may be considered a second level controller. The main system interrupt controller may handle interrupts originating from outside the cell processor.

本発明の実施形態では、非整数遅延などの特定の計算を、PPE704および/または一つ以上のSPE706を用いて並列に実行することができる。各非整数遅延計算を、異なるSPE706が利用可能になるにつれて引き受けることができる一つ以上の別個のタスクとして実行することができる。   In embodiments of the invention, certain calculations, such as non-integer delays, can be performed in parallel using PPE 704 and / or one or more SPEs 706. Each non-integer delay calculation can be performed as one or more separate tasks that can be undertaken as different SPEs 706 become available.

上記は本発明の好ましい実施形態の完全な説明であるが、様々な代替形態、修正形態および等価物を使用することができる。したがって、本発明の範囲は、上述の説明を参照して決定されるべきではなく、代わりに、添付の実施形態とそれらの等価物の完全な範囲を参照して決定されるべきである。本明細書に記載の任意の特徴は、好適か否かにかかわらず、本明細書に記載された任意の他の特徴と組み合わせることが可能である。明確に他のかたちで述べられる場合を除いて、特許請求の範囲において、不定冠詞「A」または「An」は冠詞の後に続く一つ以上の項目の量のことを指す。「means for」というフレーズを使用して所与の請求項で明確に引用されない限り、添付の請求項は、ミーンズプラスファンクションの限定を含むものとして解釈されるべきではない。   While the above is a complete description of the preferred embodiments of the invention, various alternatives, modifications and equivalents may be used. Accordingly, the scope of the invention should not be determined with reference to the above description, but instead should be determined with reference to the full scope of the appended embodiments and their equivalents. Any feature described herein, whether suitable or not, can be combined with any other feature described herein. Except where expressly stated otherwise, in the claims, the indefinite article "A" or "An" refers to the quantity of one or more items that follow the article. Unless explicitly recited in a given claim using the phrase “means for”, the appended claims should not be construed as including means plus function limitations.

Claims (26)

ゲームプログラムを格納するメモリと、
前記メモリのゲームプログラムにアクセスし、前記ゲームプログラムを実行して、ユーザとの相互作用にしたがってユーザによるゲームのプレイを可能にするように構成されたプロセッサと、を備えるゲーム装置の操作に用いる方法であって、
前記プロセッサが、ゲーム装置の制御に用いられる複数の予め定められたオブジェクトの活動を判定するために使用可能である情報として、前記オブジェクト上の慣性センサから得られる慣性追跡情報、前記オブジェクト上の光源を前記プロセッサに接続された画像取得装置で検出することから得られる画像追跡情報、および前記オブジェクトから発せられる音声を前記プロセッサに接続されたマイクで検出することから得られる音響追跡情報のうち少なくとも二つを取得するステップと、
前記プロセッサが、前記慣性追跡情報、画像追跡情報、および音響追跡情報を処理して、ゲームの進行中に前記複数の予め定められたオブジェクトのうちの一つが活動しているか否かを判定するステップと、
前記プロセッサが、前記複数の予め定められたオブジェクトのうちの一つが活動していないと判定した後の、現在は活動しているという判定に応答して、進行中のゲームに新たなプレーヤを追加するステップと、
を含む方法。
A memory for storing game programs;
A method for use in operating a gaming device comprising: a processor configured to access a game program in the memory, execute the game program, and allow the user to play the game according to interaction with the user Because
Inertia tracking information obtained from an inertial sensor on the object, light source on the object as information that can be used by the processor to determine the activities of a plurality of predetermined objects used for controlling the game device At least two of image tracking information obtained by detecting the sound emitted from the object with a microphone connected to the processor Step to get one ,
The processor processes the inertia tracking information, image tracking information, and acoustic tracking information to determine whether one of the plurality of predetermined objects is active during the game. When,
In response to a determination that the processor is currently active after determining that one of the plurality of predetermined objects is not active, the processor adds a new player to the game in progress And steps to
Including methods.
記プロセッサが慣性追跡情報、画像追跡情報および音響追跡情報のうち少なくとも二つを混合して混合追跡情報を生成するステップをさらに含み、
前記プロセッサが、前記情報を処理するステップにおいて、前記混合追跡情報を処理して前記複数の予め定められたオブジェクトのうちの一つが現在活動していないかを判定することを含む、請求項1に記載の方法。
Before Symbol processor inertial tracking information further comprises the step of generating a mixed tracking information by mixing at least two of the image tracking information and the acoustic tracking information,
The processor of claim 1, wherein processing the information includes processing the mixed tracking information to determine whether one of the plurality of predetermined objects is currently active. The method described.
前記情報を処理してゲームの進行中に前記複数の予め定められたオブジェクトのうちの一つが活動していないかを判定するステップが、
前記プロセッサが、前記混合追跡情報を処理し、
前記複数の予め定められたオブジェクトのうちの一つの活動がしきい値を超えない限り、前記プロセッサが、前記複数の予め定められたオブジェクトのうちの一つが現在活動していないと判定し、
前記プロセッサが、ゲームの進行中に前記しきい値を修正する
ことを含む、請求項2に記載の方法。
Processing the information to determine whether one of the plurality of predetermined objects is active during the game,
The processor processes the mixed tracking information;
The processor determines that one of the plurality of predetermined objects is not currently active unless one of the plurality of predetermined objects exceeds a threshold;
The method of claim 2, wherein the processor includes modifying the threshold while a game is in progress.
前記プロセッサが、前記情報を取得するステップにおいて、前記複数の予め定められたオブジェクトの個々の動きを検出することを含む、請求項1ないし3のいずれかに記載の方法。 4. A method according to any preceding claim, wherein the processor includes detecting individual movements of the plurality of predetermined objects in the step of obtaining the information. 前記プロセッサが、前記予め定められたオブジェクトにそれぞれ取り付けられた一つ以上の光学検出可能な(PD)要素の画像の取得に基づき、動きを検出することを特徴とする請求項4に記載の方法。   5. The method of claim 4, wherein the processor detects motion based on acquiring images of one or more optically detectable (PD) elements each attached to the predetermined object. . 前記プロセッサが、音響データに基づき動きを検出することを特徴とする請求項4または5に記載の方法。 6. A method according to claim 4 or 5 , wherein the processor detects motion based on acoustic data. 前記プロセッサが、前記予め定められたオブジェクトのそれぞれに組み込まれた慣性センサから受け取るデータに基づき、動きを検出することを特徴とする請求項3ないし6のいずれかに記載の方法。 7. A method according to any one of claims 3 to 6, wherein the processor detects movement based on data received from inertial sensors embedded in each of the predetermined objects. 前記複数の予め定められたオブジェクトのうちの一つが活動しているか否かを判定するステップが、
前記プロセッサが、ピッチ、ヨー、ロールのうち少なくとも一つに関する方向データを含む、前記複数の予め定められたオブジェクトの個々の方向を判定し、
前記プロセッサが、前記方向データを予め定められた方向データと比較して、前記複数の予め定められたオブジェクトのうちの一つが活動していないかを判定する
ことをさらに含む、請求項1ないし7のいずれかに記載の方法。
Determining whether one of the plurality of predetermined objects is active ;
The processor determines individual directions of the plurality of predetermined objects including direction data relating to at least one of pitch, yaw, and roll;
Wherein the processor, the direction data is compared with a predetermined direction data, to further comprise, claims 1 that determines whether one of the plurality of predetermined object is not active 7 The method in any one of.
前記複数の予め定められたオブジェクトが複数のゲームコントローラを含むことを特徴とする請求項1ないし8のいずれかに記載の方法。 9. A method as claimed in any preceding claim, wherein the plurality of predetermined objects include a plurality of game controllers. ゲーム装置の操作に用いられるシステムであって、
ゲーム装置の制御に用いられる複数の予め定められたオブジェクトの活動を判定するために使用可能である情報として、前記オブジェクト上の慣性センサから得られる慣性追跡情報、前記オブジェクト上の光源を前記システムに接続された画像取得装置で検出することから得られる画像追跡情報、および前記オブジェクトから発せられる音声を前記システムに接続されたマイクで検出することから得られる音響追跡情報のうち少なくとも二つを取得する手段と、
前記慣性追跡情報、画像追跡情報、および音響追跡情報を処理して、ゲームの進行中に前記複数の予め定められたオブジェクトのうちの一つが活動していないかを判定する手段と、
前記複数の予め定められたオブジェクトのうちの一つが活動していないと判定した後の、現在は活動しているという判定に応答して、進行中のゲームに新たなプレーヤを追加する手段と、
を備えるシステム。
A system used for operating a game device,
Information that can be used to determine the activity of a plurality of predetermined objects used for control of the game device includes inertia tracking information obtained from inertia sensors on the object, and light sources on the object to the system. Acquire at least two of image tracking information obtained by detecting with a connected image acquisition device and acoustic tracking information obtained by detecting sound emitted from the object with a microphone connected to the system Means,
Means for processing the inertial tracking information, image tracking information, and acoustic tracking information to determine whether one of the plurality of predetermined objects is active during the game;
Means for adding a new player to an ongoing game in response to determining that one is currently active after determining that one of the plurality of predetermined objects is not active;
A system comprising:
性追跡情報、画像追跡情報および音響追跡情報のうち少なくとも二つを混合して混合追跡情報を生成する手段をさらに備え、
前記情報を処理する手段が、前記混合追跡情報を処理して前記複数の予め定められたオブジェクトのうちの一つが現在活動していないかを判定することを特徴とする、請求項10に記載のシステム。
Inertial tracking information, further comprising means for generating a mixed tracking information by mixing at least two of the image tracking information and the acoustic tracking information,
The method of claim 10, wherein the means for processing the information processes the mixed tracking information to determine whether one of the plurality of predetermined objects is currently active. system.
前記情報を取得する手段が、前記複数の予め定められたオブジェクトの個々の動きを検出する手段を備え、
前記予め定められたオブジェクトにそれぞれ取り付けられた一つ以上の光学検出可能な(PD)要素の画像の取得に基づき、動きが検出されることを特徴とする請求項11に記載のシステム。
Means for obtaining said information comprises means for detecting individual movements of said plurality of predetermined objects;
12. The system of claim 11, wherein motion is detected based on acquiring images of one or more optically detectable (PD) elements each attached to the predetermined object.
前記情報を処理してゲームの進行中に前記複数の予め定められたオブジェクトのうちの一つが活動していないかを判定する手段が、
前記混合追跡情報を処理し、前記複数の予め定められたオブジェクトのうちの一つの活動がしきい値を超えない限り、前記複数の予め定められたオブジェクトのうちの一つが現在活動していないと判定する手段を備えることを特徴とする、請求項11または12に記載のシステム。
Means for processing the information to determine whether one of the plurality of predetermined objects is active during the game;
Process the mixed tracking information and one of the plurality of predetermined objects is not currently active unless one of the plurality of predetermined objects exceeds a threshold. The system according to claim 11 or 12 , characterized by comprising means for determining.
前記処理する手段が、ゲームの進行中に前記しきい値を修正する手段をさらに備えることを特徴とする請求項13に記載のシステム。   The system of claim 13, wherein the means for processing further comprises means for modifying the threshold during a game. 音響データに基づき動きが検出されることを特徴とする請求項13または14に記載のシステム。 15. A system according to claim 13 or 14 , wherein motion is detected based on acoustic data. 前記情報を取得する手段が、前記複数の予め定められたオブジェクトの個々の方向を取得する手段を備えることを特徴とする、請求項10ないし15のいずれかに記載のシステム。 16. A system according to any of claims 10 to 15 , wherein the means for obtaining information comprises means for obtaining individual directions of the plurality of predetermined objects. 前記処理する手段が、ピッチ、ヨー、ロールのうち少なくとも一つに関する方向データを含む、前記複数の予め定められたオブジェクトの個々の方向を判定し、前記方向データを予め定められた方向データと比較して、前記複数の予め定められたオブジェクトのうちの一つが活動していないかを判定する手段をさらに備えることを特徴とする、請求項10ないし16のいずれかに記載のシステム。 The processing means determines individual directions of the plurality of predetermined objects including direction data regarding at least one of pitch, yaw, and roll, and compares the direction data with predetermined direction data. to the one of the plurality of predetermined objects, further comprising means for determining whether or not active, according to any of claims 10 to 16 systems. 前記予め定められた複数のオブジェクトが複数のゲームコントローラを含むことを特徴とする請求項10ないし17のいずれかに記載のシステム A system according to any of claims 10 to 17 wherein the plurality of objects defined in advance, characterized in that it comprises a plurality of game controllers. ゲームの進行の制御に使用する装置であって、
ゲームプログラムを格納するメモリと、
前記メモリのゲームプログラムにアクセスし、前記ゲームプログラムを実行して、ユーザとの相互作用にしたがってユーザによるゲームのプレイを可能にするように構成されたプロセッサと、を備え、
前記プロセッサが、
ゲーム装置の制御に用いられる複数の予め定められたオブジェクトの活動を判定するために使用可能である情報として、前記オブジェクト上の慣性センサから得られる慣性追跡情報、前記オブジェクト上の光源を前記プロセッサに接続された画像取得装置で検出することから得られる画像追跡情報、および前記オブジェクトから発せられる音声を前記プロセッサに接続されたマイクで検出することから得られる音響追跡情報のうち少なくとも二つを取得し、
前記慣性追跡情報、画像追跡情報、および音響追跡情報を処理して、ゲームの進行中に前記複数の予め定められたオブジェクトのうちの一つが活動していないかを判定し、
前記複数の予め定められたオブジェクトのうちの一つが活動していないと判定した後の、現在は活動しているという判定に応答して、進行中のゲームに新たなプレーヤを追加する
ように構成されることを特徴とする装置。
A device used to control the progress of a game,
A memory for storing game programs;
A processor configured to access the game program in the memory, execute the game program, and allow the user to play the game in accordance with interaction with the user;
The processor is
Information that can be used to determine the activity of a plurality of predetermined objects used for controlling the game device includes inertia tracking information obtained from an inertia sensor on the object, and a light source on the object to the processor. Acquire at least two of image tracking information obtained by detecting with a connected image acquisition device and acoustic tracking information obtained by detecting sound emitted from the object with a microphone connected to the processor ,
Processing the inertial tracking information, the image tracking information, and the acoustic tracking information to determine whether one of the plurality of predetermined objects is active during the game;
Configured to add a new player to an ongoing game in response to determining that one of the plurality of predetermined objects is currently active after determining that one of the plurality of predetermined objects is not active The apparatus characterized by being made.
記プロセッサが、慣性追跡情報、画像追跡情報および音響追跡情報のうち少なくとも二つを混合して混合追跡情報を生成するようにさらに構成され、
前記情報の処理が、前記混合追跡情報を処理して前記複数の予め定められたオブジェクトのうちの一つが現在活動していないかを判定することを含む、請求項19に記載の装置。
Before Symbol processor, inertial tracking information, is further configured to generate a mixed tracking information by mixing at least two of the image tracking information and the acoustic tracking information,
The apparatus of claim 19, wherein processing the information includes processing the mixed tracking information to determine whether one of the plurality of predetermined objects is currently active.
前記プロセッサが、
前記混合追跡情報を処理し、前記複数の予め定められたオブジェクトのうちの一つの活動がしきい値を超えない限り、前記複数の予め定められたオブジェクトのうちの一つが現在活動していないと判定し、
前記ゲームの進行中に前記しきい値を修正する
ようにさらに構成されることを特徴とする請求項20に記載の装置。
The processor is
Process the mixed tracking information and one of the plurality of predetermined objects is not currently active unless one of the plurality of predetermined objects exceeds a threshold. Judgment,
21. The apparatus of claim 20, further configured to modify the threshold while the game is in progress.
前記プロセッサが、音響データに基づき動きを検出することを特徴とする請求項20または21に記載の装置。 The apparatus according to claim 20 or 21 , wherein the processor detects movement based on acoustic data. 前記複数の予め定められたオブジェクトが、前記プロセッサと通信可能に接続されたゲームコントローラを含み、
前記ゲームコントローラが、本体と、該本体に組み付けられた少なくとも一つの光学検出可能な(PD)要素と、を備え、
前記PD要素は、輝度、色、テクスチャ、模様、反射率または照度のうち少なくとも一つによって前記本体と区別可能であり、
前記プロセッサは、画像取得装置で取得された画像内の少なくとも一つのPD要素の位置を表す情報を取得することを特徴とする、請求項20ないし22のいずれかに記載の装置。
The plurality of predetermined objects include a game controller communicatively connected to the processor;
The game controller comprises a main body and at least one optically detectable (PD) element assembled to the main body;
The PD element is distinguishable from the main body by at least one of luminance, color, texture, pattern, reflectance, or illuminance.
The processor, and acquires the information representative of the position of at least one PD element within the image acquired by the image acquisition apparatus, apparatus according to any one of claims 20 to 22.
前記プロセッサと接続された画像取得装置をさらに備え、
前記情報の取得が、前記画像取得装置によって記録された画像を受け取ることを含み、
前記情報の処理が、前記画像内の前記PD要素の位置を求め、異なる時点における前記画像内の前記PD要素の位置を定めて前記ゲームコントローラに関連するユーザが現在活動していないかを判定することを含む、請求項23に記載の装置。
An image acquisition device connected to the processor;
Receiving the information includes receiving an image recorded by the image acquisition device;
The processing of the information determines the position of the PD element in the image and determines the position of the PD element in the image at different times to determine whether a user associated with the game controller is currently active 24. The apparatus of claim 23, comprising:
前記ゲームコントローラの本体が、
前記プロセッサにより制御されるゲームの進行がスクリーン上に表示されるとき、該スクリーンの方向を向く前部と、
前記本体に組み付けられ、ユーザにより操作されユーザからの入力を行う少なくとも一つの入力デバイスと、
をさらに備えることを特徴とする請求項23または24に記載の装置。
The main body of the game controller is
When the progress of the game controlled by the processor is displayed on the screen, the front facing the screen;
At least one input device that is assembled to the main body and operated by a user to input from the user;
25. The apparatus of claim 23 or 24 , further comprising:
前記プロセッサに接続された画像取得装置をさらに備え、
前記ゲームコントローラが、前記本体に組み付けられた少なくとも一つの光学検出可能な(PD)要素をさらに備え、
前部がほぼスクリーンの方向を向いているときに、前記画像内の前記PD要素の位置を前記画像取得装置によって記録可能であり、
異なる時点における前記PD要素の位置が空間内の前記本体の動きを数値化することを特徴とする請求項23ないし25のいずれかに記載の装置。
An image acquisition device connected to the processor;
The game controller further comprises at least one optically detectable (PD) element assembled to the body;
The position of the PD element in the image can be recorded by the image acquisition device when the front is substantially facing the screen;
26. An apparatus according to any of claims 23 to 25, wherein the position of the PD element at different time points quantifies the movement of the body in space.
JP2012120096A 2006-05-04 2012-05-25 Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system Active JP5726811B2 (en)

Applications Claiming Priority (94)

Application Number Priority Date Filing Date Title
US11/381,728 US7545926B2 (en) 2006-05-04 2006-05-04 Echo and noise cancellation
US11/429,133 US7760248B2 (en) 2002-07-27 2006-05-04 Selective sound source listening in conjunction with computer interactive processing
US11/381,727 US7697700B2 (en) 2006-05-04 2006-05-04 Noise removal for electronic device with far field microphone on console
US11/418,989 US8139793B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for capturing audio signals based on a visual image
US11/381,724 US8073157B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for targeted sound detection and characterization
US11/418.989 2006-05-04
US11/381,725 2006-05-04
US11/381,727 2006-05-04
US11/381,721 2006-05-04
US11/381,729 2006-05-04
US11/429,047 2006-05-04
US11/381,728 2006-05-04
US11/429,414 US7627139B2 (en) 2002-07-27 2006-05-04 Computer image and audio processing of intensity and input devices for interfacing with a computer program
US11/429,047 US8233642B2 (en) 2003-08-27 2006-05-04 Methods and apparatuses for capturing an audio signal based on a location of the signal
US11/429,133 2006-05-04
US11/381,724 2006-05-04
US11/418,988 2006-05-04
US11/429,414 2006-05-04
US11/381,721 US8947347B2 (en) 2003-08-27 2006-05-04 Controlling actions in a video game unit
US11/381,725 US7783061B2 (en) 2003-08-27 2006-05-04 Methods and apparatus for the targeted sound detection
US11/381,729 US7809145B2 (en) 2006-05-04 2006-05-04 Ultra small microphone array
US11/418,988 US8160269B2 (en) 2003-08-27 2006-05-04 Methods and apparatuses for adjusting a listening area for capturing sounds
US79803106P 2006-05-06 2006-05-06
US11/382,034 US20060256081A1 (en) 2002-07-27 2006-05-06 Scheme for detecting and tracking user manipulation of a game controller body
US11/382,031 2006-05-06
US29259348 2006-05-06
US11/382,032 US7850526B2 (en) 2002-07-27 2006-05-06 System for tracking user manipulations within an environment
US29/259,350 2006-05-06
US11/382,035 2006-05-06
US29/259,350 USD621836S1 (en) 2006-05-06 2006-05-06 Controller face with tracking sensors
US11/382,032 2006-05-06
US11/382,036 US9474968B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to visual tracking
US11/382,033 US8686939B2 (en) 2002-07-27 2006-05-06 System, method, and apparatus for three-dimensional input control
US29/259,349 2006-05-06
US29/259,348 2006-05-06
US11/382,036 2006-05-06
US11/382,035 US8797260B2 (en) 2002-07-27 2006-05-06 Inertially trackable hand-held controller
US11/382,033 2006-05-06
US11/382,038 US7352358B2 (en) 2002-07-27 2006-05-06 Method and system for applying gearing effects to acoustical tracking
US11/382,037 2006-05-06
US11/382,038 2006-05-06
US60/798,031 2006-05-06
US29259349 2006-05-06
US11/382,037 US8313380B2 (en) 2002-07-27 2006-05-06 Scheme for translating movements of a hand-held controller into inputs for a system
US11/382,034 2006-05-06
US11/382,031 US7918733B2 (en) 2002-07-27 2006-05-06 Multi-input game control mixer
US11/382,039 2006-05-07
US11/382,043 US20060264260A1 (en) 2002-07-27 2006-05-07 Detectable and trackable hand-held controller
US11/382,039 US9393487B2 (en) 2002-07-27 2006-05-07 Method for mapping movements of a hand-held controller to game commands
US11/382,043 2006-05-07
US11/382,041 US7352359B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to inertial tracking
US11/382,040 US7391409B2 (en) 2002-07-27 2006-05-07 Method and system for applying gearing effects to multi-channel mixed input
US11/382,041 2006-05-07
US11/382,040 2006-05-07
US29/246,767 2006-05-08
US29/246,743 USD571367S1 (en) 2006-05-08 2006-05-08 Video game controller
US29246762 2006-05-08
US11/382,259 US20070015559A1 (en) 2002-07-27 2006-05-08 Method and apparatus for use in determining lack of user activity in relation to a system
US11/382,252 US10086282B2 (en) 2002-07-27 2006-05-08 Tracking device for use in obtaining information for controlling game program execution
US11/382,258 US7782297B2 (en) 2002-07-27 2006-05-08 Method and apparatus for use in determining an activity level of a user in relation to a system
US11/382,251 2006-05-08
US11/382,258 2006-05-08
US11/382,256 2006-05-08
US29/246,743 2006-05-08
US29/246,763 2006-05-08
US11/382,252 2006-05-08
US11/382,256 US7803050B2 (en) 2002-07-27 2006-05-08 Tracking device with sound emitter for use in obtaining information for controlling game program execution
US29/246,759 2006-05-08
US11/382,250 US7854655B2 (en) 2002-07-27 2006-05-08 Obtaining input for controlling execution of a game program
US29/246,768 2006-05-08
US11/430,593 US20070261077A1 (en) 2006-05-08 2006-05-08 Using audio/visual environment to select ads on game platform
US29246765 2006-05-08
US29/246,764 2006-05-08
US29/246,762 2006-05-08
US29/246,768 USD571806S1 (en) 2006-05-08 2006-05-08 Video game controller
US11/430,594 2006-05-08
US29/246,764 USD629000S1 (en) 2006-05-08 2006-05-08 Game interface device with optical port
US11/382,250 2006-05-08
US11/430,593 2006-05-08
US11/382,259 2006-05-08
US29/246,744 2006-05-08
US29/246,766 2006-05-08
US29/246,767 USD572254S1 (en) 2006-05-08 2006-05-08 Video game controller
US29246763 2006-05-08
US11/382,251 US20060282873A1 (en) 2002-07-27 2006-05-08 Hand-held controller having detectable elements for tracking purposes
US29246766 2006-05-08
US29246759 2006-05-08
US11/430,594 US20070260517A1 (en) 2006-05-08 2006-05-08 Profile detection
US29/246,765 2006-05-08
US29/246,744 USD630211S1 (en) 2006-05-08 2006-05-08 Video game controller front face
US11/382,699 2006-05-10
US11/382,699 US20070265075A1 (en) 2006-05-10 2006-05-10 Attachable structure for use with hand-held controller having tracking ability
US11/624,637 US7737944B2 (en) 2002-07-27 2007-01-18 Method and system for adding a new player to a game in response to controller activity
US11/624,637 2007-01-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009509977A Division JP2009535179A (en) 2006-05-04 2007-04-27 Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system

Publications (2)

Publication Number Publication Date
JP2012179420A JP2012179420A (en) 2012-09-20
JP5726811B2 true JP5726811B2 (en) 2015-06-03

Family

ID=46673570

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009509960A Active JP5301429B2 (en) 2006-05-04 2007-04-25 A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands
JP2009509977A Pending JP2009535179A (en) 2006-05-04 2007-04-27 Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system
JP2012057129A Pending JP2012135642A (en) 2006-05-04 2012-03-14 Scheme for detecting and tracking user manipulation of game controller body and for translating movement thereof into input and game command
JP2012057132A Active JP5726793B2 (en) 2006-05-04 2012-03-14 A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands
JP2012120096A Active JP5726811B2 (en) 2006-05-04 2012-05-25 Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2009509960A Active JP5301429B2 (en) 2006-05-04 2007-04-25 A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands
JP2009509977A Pending JP2009535179A (en) 2006-05-04 2007-04-27 Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system
JP2012057129A Pending JP2012135642A (en) 2006-05-04 2012-03-14 Scheme for detecting and tracking user manipulation of game controller body and for translating movement thereof into input and game command
JP2012057132A Active JP5726793B2 (en) 2006-05-04 2012-03-14 A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands

Country Status (2)

Country Link
JP (5) JP5301429B2 (en)
WO (3) WO2007130833A2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
JP5334037B2 (en) * 2008-07-11 2013-11-06 インターナショナル・ビジネス・マシーンズ・コーポレーション Sound source position detection method and system
US8761434B2 (en) * 2008-12-17 2014-06-24 Sony Computer Entertainment Inc. Tracking system calibration by reconciling inertial data with computed acceleration of a tracked object in the three-dimensional coordinate system
GB2467951A (en) * 2009-02-20 2010-08-25 Sony Comp Entertainment Europe Detecting orientation of a controller from an image of the controller captured with a camera
US9058063B2 (en) * 2009-05-30 2015-06-16 Sony Computer Entertainment Inc. Tracking system calibration using object position and orientation
JP5463790B2 (en) * 2009-08-18 2014-04-09 ソニー株式会社 Operation input system, control device, handheld device, and operation input method
JP5514774B2 (en) 2011-07-13 2014-06-04 株式会社ソニー・コンピュータエンタテインメント GAME DEVICE, GAME CONTROL METHOD, GAME CONTROL PROGRAM, AND RECORDING MEDIUM
CN105210190A (en) * 2013-06-13 2015-12-30 巴斯夫欧洲公司 Optical detector and method for manufacturing the same
KR102118482B1 (en) 2014-04-25 2020-06-03 삼성전자주식회사 Method and apparatus for controlling device in a home network system
JP6736606B2 (en) 2017-11-01 2020-08-05 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and operation signal providing method
JP6682079B2 (en) * 2017-11-01 2020-04-15 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and signal conversion method
JP7114657B2 (en) * 2020-07-28 2022-08-08 グリー株式会社 Control program, game device, and control method

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5214615A (en) * 1990-02-26 1993-05-25 Will Bauer Three-dimensional displacement of a body with computer interface
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5453758A (en) * 1992-07-31 1995-09-26 Sony Corporation Input apparatus
JP3218716B2 (en) * 1992-07-31 2001-10-15 ソニー株式会社 Input device and input system
JP3907213B2 (en) * 1992-09-11 2007-04-18 伸壹 坪田 Game control device
US7358956B2 (en) 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
JP2000259340A (en) * 1999-03-12 2000-09-22 Sony Corp Device and method for input, input system, and distribution medium
JP3847058B2 (en) * 1999-10-04 2006-11-15 任天堂株式会社 GAME SYSTEM AND GAME INFORMATION STORAGE MEDIUM USED FOR THE SAME
JP2002306846A (en) * 2001-04-12 2002-10-22 Saibuaasu:Kk Controller for game machine
JP2002320773A (en) * 2001-04-25 2002-11-05 Pacific Century Cyberworks Japan Co Ltd Game device, its control method, recording medium, program and cellular phone
JP3470119B2 (en) * 2002-02-14 2003-11-25 コナミ株式会社 Controller, controller attitude telemetry device, and video game device
JP2003078779A (en) * 2001-08-31 2003-03-14 Hitachi Ltd Multi remote controller and remote control system using the same
JP4028708B2 (en) * 2001-10-19 2007-12-26 株式会社コナミデジタルエンタテインメント GAME DEVICE AND GAME SYSTEM
JP2003135851A (en) * 2001-10-31 2003-05-13 Konami Computer Entertainment Yokyo Inc Game device, method for controlling computer game system, and program
JP3824260B2 (en) 2001-11-13 2006-09-20 任天堂株式会社 Game system
JP4010533B2 (en) 2001-11-20 2007-11-21 任天堂株式会社 Game machine, electronic device, and power saving mode management program
US7227976B1 (en) * 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US7815507B2 (en) * 2004-06-18 2010-10-19 Igt Game machine user interface using a non-contact eye motion recognition device
US20040063502A1 (en) * 2002-09-24 2004-04-01 Intec, Inc. Power module
WO2004052483A1 (en) * 2002-12-10 2004-06-24 Nokia Corporation Method and device for continuing an electronic multi-player game, in case of an absence of a player of said game
JP4906239B2 (en) * 2003-04-16 2012-03-28 株式会社ソニー・コンピュータエンタテインメント COMMUNICATION DEVICE, GAME MACHINE, AND COMMUNICATION METHOD
JP2006099468A (en) * 2004-09-29 2006-04-13 Toshiba Corp Gesture input device, method, and program
US7620316B2 (en) * 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
US7834850B2 (en) * 2005-11-29 2010-11-16 Navisense Method and system for object control
JP4481280B2 (en) * 2006-08-30 2010-06-16 富士フイルム株式会社 Image processing apparatus and image processing method
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting

Also Published As

Publication number Publication date
WO2007130999A2 (en) 2007-11-15
WO2007130833A3 (en) 2008-08-07
JP2012179420A (en) 2012-09-20
JP2012135642A (en) 2012-07-19
JP2012135643A (en) 2012-07-19
JP2009535175A (en) 2009-10-01
WO2007130833A2 (en) 2007-11-15
JP5726793B2 (en) 2015-06-03
WO2007130872A3 (en) 2008-11-20
WO2007130999A3 (en) 2008-12-18
WO2007130872A2 (en) 2007-11-15
JP5301429B2 (en) 2013-09-25
JP2009535179A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP5726811B2 (en) Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system
US7782297B2 (en) Method and apparatus for use in determining an activity level of a user in relation to a system
JP5204224B2 (en) Object detection using video input combined with tilt angle information
US7854655B2 (en) Obtaining input for controlling execution of a game program
JP4553917B2 (en) How to get input to control the execution of a game program
US7850526B2 (en) System for tracking user manipulations within an environment
US7918733B2 (en) Multi-input game control mixer
JP5022385B2 (en) Gesture catalog generation and recognition
US20070015559A1 (en) Method and apparatus for use in determining lack of user activity in relation to a system
US10086282B2 (en) Tracking device for use in obtaining information for controlling game program execution
US20060287084A1 (en) System, method, and apparatus for three-dimensional input control
US20130084981A1 (en) Controller for providing inputs to control execution of a program when inputs are combined
EP2012891B1 (en) Method and apparatus for use in determining lack of user activity, determining an activity level of a user, and/or adding a new player in relation to a system
JP5145470B2 (en) System and method for analyzing game control input data
KR101020510B1 (en) Multi-input game control mixer
EP1852164A2 (en) Obtaining input for controlling execution of a game program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140404

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150401

R150 Certificate of patent or registration of utility model

Ref document number: 5726811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250