JP2007301048A - Game device and game program - Google Patents

Game device and game program Download PDF

Info

Publication number
JP2007301048A
JP2007301048A JP2006130832A JP2006130832A JP2007301048A JP 2007301048 A JP2007301048 A JP 2007301048A JP 2006130832 A JP2006130832 A JP 2006130832A JP 2006130832 A JP2006130832 A JP 2006130832A JP 2007301048 A JP2007301048 A JP 2007301048A
Authority
JP
Japan
Prior art keywords
game
imaging
controller
inclination
acceleration sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006130832A
Other languages
Japanese (ja)
Other versions
JP4863761B2 (en
Inventor
Keizo Ota
敬三 太田
Kenta Sato
賢太 佐藤
Yuki Takahashi
祐輝 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2006130832A priority Critical patent/JP4863761B2/en
Publication of JP2007301048A publication Critical patent/JP2007301048A/en
Application granted granted Critical
Publication of JP4863761B2 publication Critical patent/JP4863761B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game device and a game program enabling novel operation by using an input device that is used by a user's hold with the hand. <P>SOLUTION: An indication position is computed from a position of a target to be picked up in a pick-up image of an image pick-up device provided on a controller. An inclination of the controller is computed from acceleration detected by an acceleration sensor provided on the controller. A position and a posture of an object in a virtual game space is determined from the computed indication position and the computed inclination of the controller, and the virtual game space including the object is displayed on a screen. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ゲーム装置およびゲームプログラムに関し、より特定的には、加速度センサと撮像装置を備える入力装置の動きに応じたゲーム処理を行うためのゲーム装置およびゲームプログラムに関する。   The present invention relates to a game device and a game program, and more particularly to a game device and a game program for performing a game process according to the movement of an input device including an acceleration sensor and an imaging device.

従来、光学式のポインティングシステムを用いて表示画面上の特定の位置を指定する技術が考えられている。例えば、特許文献1に記載の光学式ポインティングシステムは、複数の視聴者を対象とした会議等において用いられるシステムである。このシステムでは、表示画面の近傍に発光素子が設けられ、指示器には光電変換素子を用いた撮像装置が内蔵される。指示者が指示器を用いて表示画面の任意の位置を指定する場合、指示器は、撮像装置によって上記発光素子を撮像し、撮像された画像に基づいて指示器が指定する位置を算出する。算出された位置にマークが表示されることによって、指示者が指示したい位置がマークによって示されることとなる。   Conventionally, a technique for designating a specific position on a display screen using an optical pointing system has been considered. For example, the optical pointing system described in Patent Document 1 is a system used in a conference or the like for a plurality of viewers. In this system, a light-emitting element is provided in the vicinity of the display screen, and an imaging device using a photoelectric conversion element is built in the indicator. When the indicator designates an arbitrary position on the display screen using the indicator, the indicator images the light emitting element by the imaging device, and calculates a position designated by the indicator based on the captured image. By displaying the mark at the calculated position, the position that the instructor wants to indicate is indicated by the mark.

また、上記と同様の光学式のポインティングシステムを用いたゲーム用コントローラが考えられている(例えば、特許文献2参照。)。このコントローラは、ガン(拳銃)型の形状を有しており、射撃ゲームに用いられる。この射撃ゲームは、画面に表示されている標的に向かってガンを用いて射撃させるゲームである。ガンは、画面上の任意の位置(弾が飛んでいく位置)を指定するために用いられる。ガン型のコントローラにはCCDカメラが内蔵されており、画面の周囲の4箇所に配置された発光体をCCDカメラが撮像する。コントローラは、撮像された画像を用いてガンの向きや回転や傾きを算出する。算出結果を用いて、画面に表示されている標的の向きをガンが正しく向いているか否かを検出することによって、標的に命中したか否かを判断する。以上の構成によって、プレイヤが手に持ったコントローラ(ガン)自体を動かしてゲーム操作を行うゲームシステムを実現することができる。
特開平6−308879号公報 特開平8−71252号公報
In addition, a game controller using an optical pointing system similar to the above is considered (for example, see Patent Document 2). This controller has a gun (handgun) shape and is used in a shooting game. This shooting game is a game in which a gun is used to shoot at a target displayed on the screen. The gun is used to designate an arbitrary position on the screen (a position where a bullet flies). The gun-type controller has a built-in CCD camera, and the CCD camera images the light emitters arranged at four locations around the screen. The controller calculates the orientation, rotation, and tilt of the gun using the captured image. By using the calculation result, it is determined whether or not the target has been hit by detecting whether or not the cancer is correctly facing the target displayed on the screen. With the above configuration, it is possible to realize a game system in which a game operation is performed by moving a controller (gun) itself held by a player.
JP-A-6-308879 JP-A-8-71252

上記の技術では、ユーザが手に持って使用する入力装置(上記指示器やガン型のコントローラ)は、表示画面上の位置を指定するために用いられるのみである。つまり、上記の指示器やガン型のコントローラでは、表示画面上の位置を指定するという単一の操作のみが可能であり、他の操作を行うことができなかった。例えば、上記入力装置をゲーム装置に用いる場合、表示画面上の位置を指定するという1種類の単純なゲーム操作しか行うことができない。そのため、ゲーム操作が単純であることからゲーム自体も単純な内容となってしまい、興趣性に欠けるものとなる。   In the above technique, an input device (the above-mentioned indicator or gun-type controller) that is used by the user in hand is only used for designating a position on the display screen. That is, with the above indicator and gun-type controller, only a single operation of specifying a position on the display screen is possible, and other operations cannot be performed. For example, when the input device is used for a game device, only one type of simple game operation of specifying a position on the display screen can be performed. For this reason, since the game operation is simple, the game itself has simple contents and lacks interest.

それ故、本発明の目的は、ユーザが手に持って使用する入力装置を用いて従来にはない新たな操作が可能となるようなゲーム装置おおびゲームプログラムを提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a game apparatus and a game program that enable a new operation that has not been possible conventionally by using an input device that a user holds in hand.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、本欄における括弧内の参照符号および補足説明は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that the reference numerals in parentheses and supplementary explanations in this section show an example of the correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the present invention in any way. .

本発明のゲームプログラムは、少なくとも1軸に関する加速度を検出可能な加速度センサ(37)と、所定の撮像対象(8a,8b)を撮像するための撮像装置(40)とを備えた入力装置(7)の動きに応じたゲーム処理を行うゲーム装置(3)のコンピュータ(10)で実行されるゲームプログラムである。当該ゲームプログラムは、前記コンピュータに、データ取得ステップ(S10)、指示位置算出ステップ(S12)、傾き算出ステップ(S16)、ゲーム処理ステップ(S14,S18)、および表示制御ステップ(S20)を実行させるためのゲームプログラムである。データ取得ステップは、前記撮像装置の撮像画像における前記撮像対象の位置および前記加速度センサが検出する加速度を取得または算出するステップである。指示位置算出ステップは、前記撮像画像における撮像対象の位置から、前記入力装置の動きに伴って変化する指示位置を算出するステップである。傾き算出ステップは、前記加速度センサが検出する加速度から前記入力装置の傾きを算出するステップである。ゲーム処理ステップは、前記指示位置および前記入力装置の傾きに基づいて所定のゲーム処理を行うステップである。表示制御ステップは、前記ゲーム処理の結果を反映したゲーム空間を表示装置に表示させるステップである。なお、加速度センサと撮像装置は、共通のハウジングに設けられていてもよいし、フレキシブルなケーブルで結合される2つのハウジングに別個に設けられていてもよい。   The game program according to the present invention includes an input device (7) including an acceleration sensor (37) capable of detecting an acceleration relating to at least one axis and an imaging device (40) for imaging a predetermined imaging target (8a, 8b). ) Is a game program that is executed by the computer (10) of the game apparatus (3) that performs a game process in accordance with the movement of the player. The game program causes the computer to execute a data acquisition step (S10), an indicated position calculation step (S12), an inclination calculation step (S16), a game processing step (S14, S18), and a display control step (S20). It is a game program for. The data acquisition step is a step of acquiring or calculating the position of the imaging target and the acceleration detected by the acceleration sensor in the captured image of the imaging device. The indicated position calculating step is a step of calculating an indicated position that changes with the movement of the input device from the position of the imaging target in the captured image. The tilt calculating step is a step of calculating the tilt of the input device from the acceleration detected by the acceleration sensor. The game processing step is a step of performing predetermined game processing based on the indicated position and the tilt of the input device. The display control step is a step of causing the display device to display a game space reflecting the result of the game process. Note that the acceleration sensor and the imaging device may be provided in a common housing, or may be separately provided in two housings coupled by a flexible cable.

なお、前記ゲーム処理ステップは、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、かつ前記入力装置の傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理ステップを含んでもよい。   The game processing step determines an operation target object in the game space from the indicated position or determines a position of the operation target object, and determines an attitude of the operation target object from the tilt of the input device. May be included.

また、前記加速度センサは、前記撮像装置の撮像方向(光軸方向,Z軸方向)に対して垂直な2軸(X軸,Y軸)に関する加速度を少なくとも検出可能であり、前記傾き算出ステップは、前記加速度センサが検出する前記撮像装置の撮像方向に対して垂直な2軸に関する加速度から、前記撮像装置の撮像方向を軸とした前記入力装置の傾き(θ1,θ2,θ3)を算出する撮像方向軸周り傾き算出ステップを含み、前記ゲーム処理ステップは、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、前記撮像装置の撮像方向を軸とした前記入力装置の傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理ステップを含んでもよい。これにより、プレイヤは、入力装置を撮像方向軸周りにひねる動作によって、指示位置を変えることなくオブジェクトの姿勢だけを容易に変化させることができるので、オブジェクトの位置と姿勢を容易に個別に制御することができる。   Further, the acceleration sensor can detect at least acceleration related to two axes (X axis, Y axis) perpendicular to the imaging direction (optical axis direction, Z axis direction) of the imaging device, and the inclination calculating step includes Imaging that calculates inclinations (θ1, θ2, θ3) of the input device about the imaging direction of the imaging device from accelerations about two axes perpendicular to the imaging direction of the imaging device detected by the acceleration sensor Including a step of calculating a tilt around a direction axis, wherein the game processing step determines an operation target object in the game space from the indicated position or determines a position of the operation target object, and the input with the imaging direction of the imaging device as an axis An object processing step for determining the posture of the operation target object from the tilt of the apparatus may be included. As a result, the player can easily change only the posture of the object without changing the indicated position by the operation of twisting the input device around the imaging direction axis, and therefore easily and individually control the position and posture of the object. be able to.

また、前記ゲーム処理ステップは、ゲーム空間内の仮想カメラ(VC)の向きを前記入力装置の傾きから決定し、決定された当該仮想カメラの向きに応じた前記指示位置のゲーム空間内での位置を決定するカメラ処理ステップ(S34,S36)を含んでもよい。   In the game processing step, the orientation of the virtual camera (VC) in the game space is determined from the inclination of the input device, and the position of the designated position in the game space according to the determined orientation of the virtual camera. May include a camera processing step (S34, S36).

また、前記撮像対象が、互いに離れて配置された一対の撮像対象(8a,8b)であり、前記ゲームプログラムは、前記撮像画像における前記一対の撮像対象間の距離から、前記入力装置と前記一対の撮像対象との間の距離を算出する距離算出ステップを前記コンピュータにさらに実行させ、前記ゲーム処理ステップは、前記指示位置および前記入力装置の傾きに加えて、さらに前記入力装置と前記1対の撮像対象との間の距離に基づいて前記ゲーム処理を行ってもよい。   In addition, the imaging target is a pair of imaging targets (8a, 8b) arranged apart from each other, and the game program calculates the input device and the pair based on the distance between the pair of imaging targets in the captured image. The computer further executes a distance calculating step of calculating a distance between the imaging target and the game processing step, in addition to the pointing position and the inclination of the input device, The game process may be performed based on the distance to the imaging target.

本発明のゲーム装置は、少なくとも1軸に関する加速度を検出可能な加速度センサ(37)と、所定の撮像対象(8a,8b)を撮像するための撮像装置(40)と、指示位置算出手段(10,S12)と、傾き算出手段(10,S16)と、ゲーム処理手段(10,S14,S18)と、表示制御手段(10,S20)とを備える。指示位置算出手段は、前記撮像装置の撮像画像における前記撮像対象の位置から前記撮像装置の動きに伴って変化する指示位置を算出する手段である。傾き算出手段は、前記加速度センサが検出する加速度から前記加速度センサの傾きを算出する手段である。ゲーム処理手段は、前記指示位置および前記加速度センサの傾きに基づいて所定のゲーム処理を行う手段である。表示制御手段は、前記ゲーム処理の結果を反映したゲーム空間を表示装置に表示させる手段である。   The game apparatus according to the present invention includes an acceleration sensor (37) capable of detecting an acceleration related to at least one axis, an imaging device (40) for imaging a predetermined imaging target (8a, 8b), and an indicated position calculation means (10 , S12), inclination calculation means (10, S16), game processing means (10, S14, S18), and display control means (10, S20). The indicated position calculating means is a means for calculating an indicated position that changes with the movement of the imaging device from the position of the imaging target in the captured image of the imaging device. The inclination calculating means is means for calculating the inclination of the acceleration sensor from the acceleration detected by the acceleration sensor. The game processing means is means for performing predetermined game processing based on the indicated position and the inclination of the acceleration sensor. The display control means is means for causing the display device to display a game space reflecting the result of the game processing.

なお、前記ゲーム処理手段は、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、かつ前記加速度センサの傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理手段を含んでもよい。   The game processing means determines an operation target object in the game space from the indicated position or determines a position of the operation target object, and determines an attitude of the operation target object from an inclination of the acceleration sensor. May be included.

また、前記加速度センサは、前記撮像装置の撮像方向(光軸方向,Z軸方向)に対して垂直な2軸(X軸,Y軸)に関する加速度を少なくとも検出可能であり、前記傾き算出手段は、前記加速度センサが検出する前記撮像装置の撮像方向に対して垂直な2軸に関する加速度から、前記撮像装置の撮像方向を軸とした前記加速度センサの傾き(θ1,θ2,θ3)を算出する撮像方向軸周り傾き算出手段を含み、前記ゲーム処理手段は、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、前記撮像装置の撮像方向を軸とした前記加速度センサの傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理手段を含んでもよい。   In addition, the acceleration sensor can detect at least acceleration relating to two axes (X axis, Y axis) perpendicular to the imaging direction (optical axis direction, Z axis direction) of the imaging device, and the inclination calculating means Imaging that calculates inclinations (θ1, θ2, θ3) of the acceleration sensor about the imaging direction of the imaging device from accelerations about two axes perpendicular to the imaging direction of the imaging device detected by the acceleration sensor The game processing means determines the operation target object in the game space or determines the position of the operation target object from the indicated position, and the acceleration about the imaging direction of the imaging device An object processing means for determining the posture of the operation target object from the tilt of the sensor may be included.

また、前記ゲーム処理手段は、ゲーム空間内の仮想カメラ(VC)の向きを前記加速度センサの傾きから決定し、決定された当該仮想カメラの向きに応じた前記指示位置のゲーム空間内での位置を決定するカメラ処理手段(10,S34,S36)を含んでもよい。   The game processing means determines the orientation of the virtual camera (VC) in the game space from the inclination of the acceleration sensor, and the position of the indicated position in the game space according to the determined orientation of the virtual camera. Camera processing means (10, S34, S36) for determining

また、前記加速度センサは3軸(X軸,Y軸,Z軸)に関する加速度を検出可能な3軸加速度センサであって、前記傾き算出手段は、3次元での傾きを算出してもよい。   The acceleration sensor may be a three-axis acceleration sensor capable of detecting an acceleration related to three axes (X-axis, Y-axis, and Z-axis), and the inclination calculation unit may calculate a three-dimensional inclination.

また、前記撮像対象が、互いに離れて配置された一対の撮像対象(8a,8b)であり、前記ゲーム装置は、前記撮像画像における前記一対の撮像対象間の距離から、前記撮像装置と前記一対の撮像対象との間の距離を算出する距離算出手段をさらに備え、前記ゲーム処理手段は、前記指示位置および前記加速度センサの傾きに加えて、さらに前記撮像装置と前記1対の撮像対象との間の距離に基づいて前記ゲーム処理を行ってもよい。   In addition, the imaging target is a pair of imaging targets (8a, 8b) that are arranged apart from each other, and the game device determines the imaging device and the pair from the distance between the pair of imaging targets in the captured image. Distance calculating means for calculating a distance between the imaging device and the imaging target, wherein the game processing means further includes the imaging device and the pair of imaging targets in addition to the indicated position and the inclination of the acceleration sensor. The game processing may be performed based on the distance between them.

本発明によれば、撮像装置の撮像画像における撮像対象の位置から算出される指示位置と、加速度センサが検出する加速度から算出される入力装置(または加速度センサ)の傾きとに基づいてゲーム処理が実行されるので、今までにないゲーム操作が可能となる。   According to the present invention, the game process is performed based on the indicated position calculated from the position of the imaging target in the captured image of the imaging device and the inclination of the input device (or acceleration sensor) calculated from the acceleration detected by the acceleration sensor. Since it is executed, a game operation that has never been possible becomes possible.

図1を参照して、本発明の一実施形態に係るゲーム装置を含むゲームシステム1について説明する。図1は、当該ゲームシステム1の外観図である。以下、据置型のゲーム装置を一例にして、本実施形態のゲーム装置およびゲームプログラムについて説明する。   A game system 1 including a game device according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an external view of the game system 1. Hereinafter, the game apparatus and the game program of the present embodiment will be described using a stationary game apparatus as an example.

図1において、ゲームシステム1は、ゲーム装置3およびコントローラ7によって構成される。コントローラ7は、コントローラ7に対する操作内容を示す操作データをゲーム装置3に与える入力装置である。ゲーム装置3は、操作データに応じて、後述するゲーム処理を実行する。本実施形態ではゲーム装置3は据置型の装置であるが、他の実施形態では携帯型の装置であってもよいし、アーケードゲーム装置であってもよい。また、ゲーム装置3には、スピーカを備える家庭用テレビジョン受像機等の表示装置(以下、モニタと記載する)2が接続コードを介して接続される。モニタ2は、ゲーム処理の結果得られるゲーム画像を表示する。また、モニタ2の周辺(図では画面の上側)には、2つのマーカ8aおよび8bが設置される。マーカ8aおよび8bは、具体的には赤外LEDであり、それぞれモニタ2の前方に向かって赤外光を出力する。   In FIG. 1, the game system 1 includes a game device 3 and a controller 7. The controller 7 is an input device that provides the game device 3 with operation data indicating the operation content of the controller 7. The game apparatus 3 executes a game process to be described later according to the operation data. In the present embodiment, the game apparatus 3 is a stationary apparatus, but in other embodiments, it may be a portable apparatus or an arcade game apparatus. The game apparatus 3 is connected to a display device 2 (hereinafter referred to as a monitor) 2 such as a home television receiver equipped with a speaker via a connection cord. The monitor 2 displays a game image obtained as a result of the game process. Also, two markers 8a and 8b are installed around the monitor 2 (upper side of the screen in the figure). The markers 8a and 8b are specifically infrared LEDs, and output infrared light toward the front of the monitor 2, respectively.

ゲーム装置3には、接続端子を介して通信ユニット6が接続される。通信ユニット6は、コントローラ7から無線送信される操作データを受信するとともに、ゲーム装置3の指示によりコントローラ7へデータを送信する。このように、コントローラ7とゲーム装置3とは無線通信によって接続される。なお、他の実施形態においてはコントローラ7とゲーム装置3とは有線で接続されてもよい。   A communication unit 6 is connected to the game apparatus 3 via a connection terminal. The communication unit 6 receives operation data wirelessly transmitted from the controller 7 and transmits data to the controller 7 according to an instruction from the game apparatus 3. Thus, the controller 7 and the game apparatus 3 are connected by wireless communication. In other embodiments, the controller 7 and the game apparatus 3 may be connected by wire.

ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着される。ゲーム装置3の上部主面には、当該ゲーム装置3の電源ON/OFFスイッチ、ゲーム処理のリセットスイッチ、およびゲーム装置3上部の蓋を開くためのOPENスイッチが設けられている。ここで、プレイヤがOPENスイッチを押下することによって上記蓋が開き、光ディスク4の脱着が可能となる。   An optical disk 4, which is an example of an information storage medium that can be used interchangeably with the game apparatus 3, is attached to and detached from the game apparatus 3. An upper main surface of the game apparatus 3 is provided with a power ON / OFF switch of the game apparatus 3, a game process reset switch, and an OPEN switch for opening the lid of the game apparatus 3. Here, when the player presses the OPEN switch, the lid is opened, and the optical disk 4 can be attached and detached.

ゲーム装置3には、セーブデータ等を固定的に記憶するバックアップメモリ等を搭載する外部メモリカード5が必要に応じて着脱自在に装着される。ゲーム装置3は、光ディスク4に記憶されたゲームプログラムなどを実行することによって、その結果をゲーム画像としてモニタ2に表示する。さらに、ゲーム装置3は、外部メモリカード5に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2に表示することもできる。そして、ゲーム装置3のプレイヤは、モニタ2に表示されたゲーム画像を見ながら、コントローラ7を操作することによって、ゲーム進行を楽しむことができる。   An external memory card 5 equipped with a backup memory or the like for storing save data or the like is detachably attached to the game apparatus 3 as necessary. The game apparatus 3 displays a result as a game image on the monitor 2 by executing a game program or the like stored on the optical disc 4. Furthermore, the game apparatus 3 can reproduce the game state executed in the past by using the save data stored in the external memory card 5 and display the game image on the monitor 2. Then, the player of the game apparatus 3 can enjoy the progress of the game by operating the controller 7 while viewing the game image displayed on the monitor 2.

コントローラ7は、通信ユニット6が接続されたゲーム装置3へ、例えばBluetooth(ブルートゥース)(登録商標)の技術を用いて操作データを無線送信する。コントローラ7には、複数の操作ボタン(操作キー)からなる操作部が設けられている。また、後述により明らかとなるが、コントローラ7は、当該コントローラ7から見た画像を撮像するための撮像情報演算部35(後述)を備えている。撮像情報演算部35は、モニタ2の周辺に配置された各マーカ8aおよび8bを撮像対象として各マーカ8aおよび8bの画像を撮像する。撮像された画像に関するデータは上記操作データの一部としてゲーム装置3へ送信される。ゲーム装置3は、当該画像に関するデータに基づいた演算処理によってコントローラ7の位置および姿勢に応じた処理を実行することができる。また、コントローラ7は、直線方向の加速度を検出する加速度センサ37(後述)を備えている。加速度センサ37によって検出された加速度を示すデータは上記操作データの一部としてゲーム装置3へ送信される。ゲーム装置3は、当該加速度を示すデータに基づいてコントローラ7の動きおよび/または姿勢を算出し、動きおよび/または姿勢に応じた処理を適宜実行することができる。   The controller 7 wirelessly transmits operation data to the game apparatus 3 to which the communication unit 6 is connected, using, for example, Bluetooth (registered trademark) technology. The controller 7 is provided with an operation unit including a plurality of operation buttons (operation keys). Further, as will be apparent from the description below, the controller 7 includes an imaging information calculation unit 35 (described later) for capturing an image viewed from the controller 7. The imaging information calculation unit 35 captures images of the markers 8a and 8b using the markers 8a and 8b arranged around the monitor 2 as imaging targets. Data relating to the captured image is transmitted to the game apparatus 3 as part of the operation data. The game apparatus 3 can execute a process according to the position and orientation of the controller 7 by a calculation process based on the data related to the image. The controller 7 also includes an acceleration sensor 37 (described later) that detects acceleration in the linear direction. Data indicating the acceleration detected by the acceleration sensor 37 is transmitted to the game apparatus 3 as part of the operation data. The game apparatus 3 can calculate the movement and / or posture of the controller 7 based on the data indicating the acceleration, and can appropriately execute processing according to the movement and / or posture.

また、コントローラ7は、ゲーム装置3から通信ユニット6を介して種々のデータを受信する。そして、受信したデータに応じた種々の動作を行う。例えばゲーム装置3からサウンドデータを受信した場合、コントローラ7は、内蔵するスピーカ49(図6)からサウンドデータに応じた音を出力する。   Further, the controller 7 receives various data from the game apparatus 3 via the communication unit 6. Then, various operations are performed according to the received data. For example, when sound data is received from the game apparatus 3, the controller 7 outputs a sound corresponding to the sound data from the built-in speaker 49 (FIG. 6).

次に、図2を参照して、ゲーム装置3の構成について説明する。なお、図2は、ゲーム装置3の機能ブロック図である。   Next, the configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a functional block diagram of the game apparatus 3.

図2において、ゲーム装置3は、各種プログラムを実行する例えばリスク(RISC)CPU(セントラルプロセッシングユニット)10を備える。CPU10は、図示しないブートROMに記憶された起動プログラムを実行し、メインメモリ13等のメモリの初期化等を行った後、光ディスク4に記憶されているゲームプログラムを実行し、そのゲームプログラムに応じたゲーム処理等を行うものである。CPU10には、メモリコントローラ11を介して、GPU(Graphics Processing Unit)12、メインメモリ13、DSP(Digital Signal Processor)14、およびARAM(Audio RAM)15が接続される。また、メモリコントローラ11には、所定のバスを介して、コントローラI/F(インターフェース)16、ビデオI/F17、外部メモリI/F18、オーディオI/F19、およびディスクI/F20が接続され、それぞれ通信ユニット6、モニタ2、外部メモリカード5、スピーカ22、およびディスクドライブ21が接続されている。   In FIG. 2, the game apparatus 3 includes, for example, a risk (RISC) CPU (Central Processing Unit) 10 that executes various programs. The CPU 10 executes a boot program stored in a boot ROM (not shown), initializes a memory such as the main memory 13, and executes a game program stored in the optical disc 4, and according to the game program. Game processing and the like. A GPU (Graphics Processing Unit) 12, a main memory 13, a DSP (Digital Signal Processor) 14, and an ARAM (Audio RAM) 15 are connected to the CPU 10 via a memory controller 11. Further, a controller I / F (interface) 16, a video I / F 17, an external memory I / F 18, an audio I / F 19, and a disk I / F 20 are connected to the memory controller 11 via a predetermined bus. The communication unit 6, the monitor 2, the external memory card 5, the speaker 22, and the disk drive 21 are connected.

GPU12は、CPU10の命令に基づいて画像処理を行うものあり、例えば、3Dグラフィックスの表示に必要な計算処理を行う半導体チップで構成される。GPU12は、図示しない画像処理専用のメモリやメインメモリ13の一部の記憶領域を用いて画像処理を行う。GPU12は、これらを用いてモニタ2に表示すべきゲーム画像データやムービー映像を生成し、適宜メモリコントローラ11およびビデオI/F17を介してモニタ2に出力する。   The GPU 12 performs image processing based on a command from the CPU 10, and is configured of a semiconductor chip that performs calculation processing necessary for displaying 3D graphics, for example. The GPU 12 performs image processing using a memory dedicated to image processing (not shown) and a partial storage area of the main memory 13. The GPU 12 generates game image data and movie video to be displayed on the monitor 2 using these, and outputs them to the monitor 2 through the memory controller 11 and the video I / F 17 as appropriate.

メインメモリ13は、CPU10で使用される記憶領域であって、CPU10の処理に必要なゲームプログラム等を適宜記憶する。例えば、メインメモリ13は、CPU10によって光ディスク4から読み出されたゲームプログラムや各種データ等を記憶する。このメインメモリ13に記憶されたゲームプログラムや各種データ等がCPU10によって実行される。   The main memory 13 is a storage area used by the CPU 10 and appropriately stores game programs and the like necessary for the processing of the CPU 10. For example, the main memory 13 stores a game program read from the optical disc 4 by the CPU 10 and various data. The game program and various data stored in the main memory 13 are executed by the CPU 10.

DSP14は、ゲームプログラム実行時にCPU10において生成されるサウンドデータ等を処理するものであり、そのサウンドデータ等を記憶するためのARAM15が接続される。ARAM15は、DSP14が所定の処理(例えば、先読みしておいたゲームプログラムやサウンドデータの記憶)を行う際に用いられる。DSP14は、ARAM15に記憶されたサウンドデータを読み出し、メモリコントローラ11およびオーディオI/F19を介してスピーカ22に出力させる。   The DSP 14 processes sound data generated in the CPU 10 when the game program is executed, and is connected to an ARAM 15 for storing the sound data. The ARAM 15 is used when the DSP 14 performs a predetermined process (for example, storing a pre-read game program or sound data). The DSP 14 reads the sound data stored in the ARAM 15 and causes the speaker 22 to output the sound data via the memory controller 11 and the audio I / F 19.

メモリコントローラ11は、データ転送を統括的に制御するものであり、上述した各種I/F16〜20が接続される。コントローラI/F16は、例えば4つのコントローラI/Fで構成され、それらが有するコネクタを介して嵌合可能な外部機器とゲーム装置3とを通信可能に接続する。例えば、通信ユニット6は、上記コネクタと嵌合し、コントローラI/F16を介してゲーム装置3と接続される。上述したように通信ユニット6は、コントローラ7からの操作データを受信し、コントローラI/F16を介して当該操作データをCPU10へ出力する。また、CPU10において生成されるサウンドデータ等のデータがコントローラ7へ送信される場合、当該データは、コントローラI/F16を介して通信ユニット6へ出力される。通信ユニット6は、コントローラI/F16から入力されたデータをコントローラ7へ送信する。なお、他の実施形態においては、ゲーム装置3は、通信ユニット6に代えて、コントローラ7と通信可能な通信モジュールをその内部に設ける構成としてもよい。この場合、通信モジュールが受信した操作データは所定のバスを介してCPU10に出力され、コントローラ7へ送信すべきデータは、所定のバスを介して通信モジュールからコントローラ7へ送信される。また、ビデオI/F17には、モニタ2が接続される。外部メモリI/F18には、外部メモリカード5が接続され、その外部メモリカード5に設けられたバックアップメモリ等とアクセス可能となる。オーディオI/F19にはモニタ2に内蔵されるスピーカ22が接続され、DSP14がARAM15から読み出したサウンドデータや、ディスクドライブ21から直接出力されるサウンドデータがスピーカ22から出力される。ディスクI/F20には、ディスクドライブ21が接続される。ディスクドライブ21は、所定の読み出し位置に配置された光ディスク4に記憶されたデータを読み出し、ゲーム装置3のバスやオーディオI/F19に出力する。   The memory controller 11 comprehensively controls data transfer, and is connected to the various I / Fs 16 to 20 described above. The controller I / F 16 includes, for example, four controller I / Fs, and connects the external device and the game apparatus 3 that can be fitted to each other via a connector included in the controller I / F so as to communicate with each other. For example, the communication unit 6 is fitted with the connector and connected to the game apparatus 3 via the controller I / F 16. As described above, the communication unit 6 receives the operation data from the controller 7 and outputs the operation data to the CPU 10 via the controller I / F 16. When data such as sound data generated in the CPU 10 is transmitted to the controller 7, the data is output to the communication unit 6 via the controller I / F 16. The communication unit 6 transmits the data input from the controller I / F 16 to the controller 7. In another embodiment, the game apparatus 3 may have a configuration in which a communication module capable of communicating with the controller 7 is provided instead of the communication unit 6. In this case, operation data received by the communication module is output to the CPU 10 via a predetermined bus, and data to be transmitted to the controller 7 is transmitted from the communication module to the controller 7 via a predetermined bus. The monitor 2 is connected to the video I / F 17. The external memory I / F 18 is connected to the external memory card 5 and can access a backup memory or the like provided in the external memory card 5. A speaker 22 incorporated in the monitor 2 is connected to the audio I / F 19, and sound data read by the DSP 14 from the ARAM 15 and sound data directly output from the disk drive 21 are output from the speaker 22. A disk drive 21 is connected to the disk I / F 20. The disk drive 21 reads data stored on the optical disk 4 arranged at a predetermined reading position, and outputs it to the bus of the game apparatus 3 and the audio I / F 19.

次に、図3〜図6を参照して、コントローラ7について説明する。図3および図4は、コントローラ7の外観構成を示す斜視図である。図3は、コントローラ7の上側後方から見た斜視図であり、図4は、コントローラ7を下側前方から見た斜視図である。   Next, the controller 7 will be described with reference to FIGS. 3 and 4 are perspective views showing the external configuration of the controller 7. FIG. FIG. 3 is a perspective view of the controller 7 as viewed from the upper rear side, and FIG. 4 is a perspective view of the controller 7 as viewed from the lower front side.

図3および図4において、コントローラ7は、例えばプラスチック成型によって形成されたハウジング31を有している。ハウジング31は、その前後方向(図3に示すz軸方向)を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。プレイヤは、コントローラ7を用いることによって、それに設けられたボタンを押下すること、および、コントローラ7自体を動かしてその位置や姿勢を変えることによってゲーム操作を行うことができる。例えば、プレイヤは、長手方向を軸としてコントローラ7を回転させたり、コントローラ7によって指し示される画面上の位置を変えたりする操作によって、操作対象に対する操作を行うことができる。ここで、「コントローラ7によって指し示される画面上の位置」とは、理想的には、コントローラ7の前端部から上記長手方向に延ばした直線とモニタ2の画面とが交わる位置であるが、厳密に当該位置である必要はなく、その周辺の位置をゲーム装置3によって算出することができればよい。以下では、コントローラ7によって指し示される画面上の位置を「(コントローラ7の)指示位置」と呼ぶ。また、コントローラ7(ハウジング31)の長手方向を、「(コントローラ7の)指示方向」と呼ぶことがある。   3 and 4, the controller 7 includes a housing 31 formed by plastic molding, for example. The housing 31 has a substantially rectangular parallelepiped shape whose longitudinal direction is the front-rear direction (the z-axis direction shown in FIG. 3), and is a size that can be gripped with one hand of an adult or a child as a whole. A player can perform a game operation by pressing a button provided on the controller 7 and moving the controller 7 to change its position and posture. For example, the player can perform an operation on the operation target by an operation of rotating the controller 7 around the longitudinal direction or changing a position on the screen indicated by the controller 7. Here, “the position on the screen indicated by the controller 7” is ideally a position where the straight line extending in the longitudinal direction from the front end of the controller 7 and the screen of the monitor 2 intersect. It is not necessary to be the position, and it is only necessary that the surrounding position can be calculated by the game apparatus 3. Hereinafter, the position on the screen pointed to by the controller 7 will be referred to as “indicated position (of the controller 7)”. Further, the longitudinal direction of the controller 7 (housing 31) may be referred to as “indicated direction (of the controller 7)”.

ハウジング31には、複数の操作ボタンが設けられる。図3に示すように、ハウジング31の上面には、十字キー32a、1番ボタン32b、2番ボタン32c、Aボタン32d、マイナスボタン32e、ホームボタン32f、およびプラスボタン32gが設けられる。一方、図4に示すように、ハウジング31の下面には凹部が形成されており、当該凹部の後面側傾斜面にはBボタン32iが設けられる。これらの各操作ボタン32a〜32iには、ゲーム装置3が実行するゲームプログラムに応じた機能が適宜割り当てられる。また、ハウジング31の上面には、遠隔からゲーム装置3本体の電源をオン/オフするための電源ボタン32hが設けられる。ホームボタン32fおよび電源32hは、その上面がハウジング31の上面に埋没している。これによって、プレイヤがホームボタン32fまたは電源32hを誤って押下することを防止することができる。   The housing 31 is provided with a plurality of operation buttons. As shown in FIG. 3, a cross key 32a, a first button 32b, a second button 32c, an A button 32d, a minus button 32e, a home button 32f, and a plus button 32g are provided on the upper surface of the housing 31. On the other hand, as shown in FIG. 4, a recess is formed on the lower surface of the housing 31, and a B button 32i is provided on the rear inclined surface of the recess. A function corresponding to the game program executed by the game apparatus 3 is appropriately assigned to each of the operation buttons 32a to 32i. In addition, a power button 32 h for remotely turning on / off the main body of the game apparatus 3 is provided on the upper surface of the housing 31. The home button 32 f and the power source 32 h are embedded in the upper surface of the housing 31. This can prevent the player from pressing the home button 32f or the power source 32h by mistake.

ハウジング31の後面にはコネクタ33が設けられている。コネクタ33は、コントローラ7に他の機器を接続するために利用される。例えば、360°に傾倒可能なスティックを備えたサブコントロールユニットをケーブルを介して接続し、当該サブコントロールユニットに対する操作にそって方向入力を行い、同時にコントローラ7に対する操作によって、後述する画面上の所定位置を指示する操作を行うようにしてもよい。そのようなサブコントロールユニットをケーブルを介して接続して利用するとこにより、方向入力を行いながらコントローラ7自体を動かす操作を自由に行うことができる。   A connector 33 is provided on the rear surface of the housing 31. The connector 33 is used to connect another device to the controller 7. For example, a sub-control unit having a stick that can be tilted at 360 ° is connected via a cable, direction input is performed in accordance with an operation on the sub-control unit, and at the same time, a predetermined on-screen display described later is performed. You may make it perform operation which designates a position. By using such a sub-control unit connected via a cable, it is possible to freely perform an operation of moving the controller 7 itself while performing direction input.

ハウジング31上面の後面側には複数(図3では4つ)のLED34が設けられる。ここで、コントローラ7には、他のコントローラ7と区別するためにコントローラ種別(番号)が付与される。LED34は、コントローラ7に現在設定されている上記コントローラ種別をプレイヤに通知するために用いられる。具体的には、コントローラ7からゲーム装置3へ操作データを送信する際、上記コントローラ種別に応じて複数のLED34のいずれか1つが点灯する。   A plurality (four in FIG. 3) of LEDs 34 are provided on the rear surface side of the upper surface of the housing 31. Here, a controller type (number) is assigned to the controller 7 in order to distinguish it from other controllers 7. The LED 34 is used to notify the player of the controller type currently set in the controller 7. Specifically, when operating data is transmitted from the controller 7 to the game apparatus 3, any one of the plurality of LEDs 34 is turned on according to the controller type.

また、コントローラ7は撮像情報演算部35(図5B)を有しており、図4に示すように、ハウジング31前面には撮像情報演算部35の光入射面35aが設けられる。光入射面35aは、マーカ8aおよび8bからの赤外光を少なくとも透過する材質で構成される。   The controller 7 has an imaging information calculation unit 35 (FIG. 5B). As shown in FIG. 4, a light incident surface 35 a of the imaging information calculation unit 35 is provided on the front surface of the housing 31. The light incident surface 35a is made of a material that transmits at least infrared light from the markers 8a and 8b.

ハウジング71上面における1番ボタン32bとホームボタン32fとの間には、コントローラ7に内蔵されるスピーカ49(図5A)からの音を外部に放出するための音抜き孔が形成されている。   Between the first button 32b and the home button 32f on the upper surface of the housing 71, a sound release hole for releasing sound from the speaker 49 (FIG. 5A) built in the controller 7 is formed.

次に、図5Aおよび図5Bを参照して、コントローラ7の内部構造について説明する。図5Aおよび図5Bは、コントローラ7の内部構造を示す図である。なお、図5Aは、コントローラ7の上筐体(ハウジング31の一部)を外した状態を示す斜視図である。図5Bは、コントローラ7の下筐体(ハウジング31の一部)を外した状態を示す斜視図である。図5Bに示す斜視図は、図5Aに示す基板30を裏面から見た斜視図となっている。   Next, the internal structure of the controller 7 will be described with reference to FIGS. 5A and 5B. 5A and 5B are diagrams showing the internal structure of the controller 7. FIG. 5A is a perspective view showing a state in which the upper housing (a part of the housing 31) of the controller 7 is removed. FIG. 5B is a perspective view showing a state where the lower casing (a part of the housing 31) of the controller 7 is removed. The perspective view shown to FIG. 5B is the perspective view which looked at the board | substrate 30 shown to FIG. 5A from the back surface.

図5Aにおいて、ハウジング31の内部には基板30が固設されており、当該基板30の上主面上に操作ボタン32a〜32h、LED34、加速度センサ37、アンテナ45、アンプ48、およびスピーカ49等が設けられる。これらは、基板30等に形成された配線(図示せず)によってマイクロコンピュータ(Micro Computer:マイコン)42(図6参照)に接続される。本実施形態では、加速度センサ37は、x軸方向に関してコントローラ7の中心からずれた位置に配置されている。これによって、コントローラ7をz軸回りに回転させたときのコントローラ7の動きを算出しやすくなる。また、無線モジュール44およびアンテナ45によって、コントローラ7がワイヤレスコントローラとして機能する。   5A, a substrate 30 is fixed inside the housing 31, and operation buttons 32a to 32h, LEDs 34, an acceleration sensor 37, an antenna 45, an amplifier 48, a speaker 49, and the like are provided on the upper main surface of the substrate 30. Is provided. These are connected to a microcomputer (microcomputer) 42 (see FIG. 6) by wiring (not shown) formed on the substrate 30 and the like. In the present embodiment, the acceleration sensor 37 is disposed at a position shifted from the center of the controller 7 in the x-axis direction. This makes it easier to calculate the movement of the controller 7 when the controller 7 is rotated about the z axis. Further, the controller 7 functions as a wireless controller by the wireless module 44 and the antenna 45.

一方、図5Bにおいて、基板30の下主面上の前端縁に撮像情報演算部35が設けられる。撮像情報演算部35は、コントローラ7の前方から順に赤外線フィルタ38、レンズ39、撮像素子40(例えばCMOSイメージセンサやCCDイメージセンサ)、および画像処理回路41によって構成されおり、それぞれ基板30の下主面に取り付けられる。   On the other hand, in FIG. 5B, an imaging information calculation unit 35 is provided at the front edge on the lower main surface of the substrate 30. The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40 (for example, a CMOS image sensor or a CCD image sensor), and an image processing circuit 41 in order from the front of the controller 7. Attached to the surface.

さらに、基板30の下主面上には、上記マイコン42、サウンドIC47、およびバイブレータ50が設けられている。サウンドIC47は、基板30等に形成された配線によってマイコン42およびアンプ48と接続される。バイブレータ50は、例えば振動モータやソレノイドであり、基板30等に形成された配線によってマイコン42と接続される。マイコン42の指示によりバイブレータ50が作動することによってコントローラ7に振動が発生するので、コントローラ7を把持しているプレイヤの手にその振動が伝達され、いわゆる振動対応ゲームを実現することができる。本実施形態では、バイブレータ50は、ハウジング31のやや前方寄りに配置される。つまり、バイブレータ50がコントローラ7の中心よりも端側に配置することによって、バイブレータ50の振動によりコントローラ7全体を大きく振動させることができる。また、コネクタ33は、基板30の下主面上の後端縁に取り付けられる。なお、図5Aおよび図5Bに示す他、コントローラ7は、マイコン42の基本クロックを生成する水晶振動子等を備えている。   Further, the microcomputer 42, the sound IC 47, and the vibrator 50 are provided on the lower main surface of the substrate 30. The sound IC 47 is connected to the microcomputer 42 and the amplifier 48 by wiring formed on the substrate 30 or the like. The vibrator 50 is, for example, a vibration motor or a solenoid, and is connected to the microcomputer 42 by wiring formed on the substrate 30 or the like. The vibration is generated in the controller 7 when the vibrator 50 is actuated by an instruction from the microcomputer 42, so that the vibration is transmitted to the hand of the player holding the controller 7, and a so-called vibration-compatible game can be realized. In the present embodiment, the vibrator 50 is disposed slightly forward of the housing 31. That is, by arranging the vibrator 50 on the end side of the center of the controller 7, the entire controller 7 can be vibrated greatly by the vibration of the vibrator 50. The connector 33 is attached to the rear edge on the lower main surface of the substrate 30. 5A and 5B, the controller 7 includes a crystal resonator that generates a basic clock for the microcomputer 42.

なお、図3〜図5Bに示したコントローラ7の形状や、各操作ボタンの形状、加速度センサやバイブレータの数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であっても、本発明を実現することができることは言うまでもない。また、コントローラ7における撮像情報演算部35の位置(撮像情報演算部35の光入射面35a)は、ハウジング31の前面でなくてもよく、ハウジング31の外部から光を取り入れることができれば他の面に設けられてもかまわない。このとき、上記「コントローラ7の指示方向」は、撮像素子40の撮像方向、具体的には、光入射面に垂直な方向となる。   Note that the shape of the controller 7, the shape of each operation button, the number of acceleration sensors and vibrators, and the installation positions shown in FIGS. 3 to 5B are merely examples, and other shapes, numbers, and installation positions. However, it goes without saying that the present invention can be realized. Further, the position of the imaging information calculation unit 35 in the controller 7 (the light incident surface 35a of the imaging information calculation unit 35) does not have to be the front surface of the housing 31, and other surfaces can be used as long as light can be taken in from the outside of the housing 31. May be provided. At this time, the “instruction direction of the controller 7” is an imaging direction of the imaging device 40, specifically, a direction perpendicular to the light incident surface.

図6は、コントローラ7の構成を示すブロック図である。コントローラ7は、操作部32(各操作ボタン)、撮像情報演算部35、通信部36、加速度センサ37、および音声出力部46を備えている。なお、本実施形態では加速度センサ37の出力はゲーム処理に用いられないので、コントローラ7は加速度センサ37を備えていない構成であってもよい。   FIG. 6 is a block diagram showing the configuration of the controller 7. The controller 7 includes an operation unit 32 (each operation button), an imaging information calculation unit 35, a communication unit 36, an acceleration sensor 37, and an audio output unit 46. In the present embodiment, since the output of the acceleration sensor 37 is not used for game processing, the controller 7 may be configured not to include the acceleration sensor 37.

操作部32は、上述した各操作ボタン32a〜32iに相当し、各操作ボタン32a〜32iに対する入力状態(各操作ボタン32a〜32iが押下されたか否か)を示すデータを通信部36のマイコン42へ出力する。   The operation unit 32 corresponds to each of the operation buttons 32a to 32i described above, and the microcomputer 42 of the communication unit 36 stores data indicating an input state (whether or not each operation button 32a to 32i is pressed) to each operation button 32a to 32i. Output to.

撮像情報演算部35は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別してその領域の重心位置やサイズなどを算出するためのシステムである。撮像情報演算部35は、例えば最大200フレーム/秒程度のサンプリング周期を有するので、比較的高速なコントローラ7の動きでも追跡して解析することができる。   The imaging information calculation unit 35 is a system for analyzing the image data captured by the imaging unit, discriminating a region having a high luminance in the image data, and calculating the position of the center of gravity, the size, etc. Since the imaging information calculation unit 35 has a sampling period of, for example, about 200 frames / second at the maximum, it can track and analyze even a relatively fast movement of the controller 7.

撮像情報演算部35は、赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を含んでいる。赤外線フィルタ38は、コントローラ7の前方から入射する光から赤外線のみを通過させる。レンズ39は、赤外線フィルタ38を透過した赤外線を集光して撮像素子40へ入射させる。撮像素子40は、例えばCMOSセンサやあるいはCCDセンサのような固体撮像素子であり、レンズ39が集光した赤外線を受光して画像信号を出力する。ここで、モニタ2の表示画面近傍に配置されるマーカ8aおよび8bは、モニタ2の前方に向かって赤外光を出力する赤外LEDである。したがって、赤外線フィルタ38を設けることによって、撮像素子40は、赤外線フィルタ38を通過した赤外線だけを受光して画像データを生成するので、マーカ8aおよび8bの画像をより正確に撮像することができる。以下では、撮像素子40によって撮像された画像を撮像画像と呼ぶ。撮像素子40によって生成された画像データは、画像処理回路41で処理される。画像処理回路41は、撮像画像内における撮像対象(マーカ8aおよび8b)の位置を算出する。以下、図7を用いて撮像対象の位置の算出方法を説明する。   The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41. The infrared filter 38 allows only infrared light to pass from light incident from the front of the controller 7. The lens 39 collects the infrared light transmitted through the infrared filter 38 and makes it incident on the image sensor 40. The image sensor 40 is a solid-state image sensor such as a CMOS sensor or a CCD sensor, for example, and receives the infrared light collected by the lens 39 and outputs an image signal. Here, the markers 8 a and 8 b arranged in the vicinity of the display screen of the monitor 2 are infrared LEDs that output infrared light toward the front of the monitor 2. Therefore, by providing the infrared filter 38, the image sensor 40 receives only the infrared light that has passed through the infrared filter 38 and generates image data, so that the images of the markers 8a and 8b can be captured more accurately. Hereinafter, an image captured by the image sensor 40 is referred to as a captured image. Image data generated by the image sensor 40 is processed by the image processing circuit 41. The image processing circuit 41 calculates the position of the imaging target (markers 8a and 8b) in the captured image. Hereinafter, a method of calculating the position of the imaging target will be described with reference to FIG.

図7は、撮像画像の一例を示す図である。図7に示す撮像画像A1においては、マーカ8aの画像8a’およびマーカ8bの画像8b’が左右に並んでいる。撮像画像が入力されると、画像処理回路41は、撮像画像内において所定条件に合致する領域の位置を示す座標を当該領域毎に算出する。ここで、所定条件とは、撮像対象の画像(対象画像)を特定するための条件である。所定条件の具体的な内容は、輝度が所定値以上の領域(高輝度領域)であり、かつ、領域の大きさが所定範囲内の大きさであることである。なお、所定条件は撮像対象を特定するための条件であればよく、他の実施形態においては、画像の色に関する条件を含んでいてもよい。   FIG. 7 is a diagram illustrating an example of a captured image. In the captured image A1 shown in FIG. 7, the image 8a 'of the marker 8a and the image 8b' of the marker 8b are arranged side by side. When a captured image is input, the image processing circuit 41 calculates a coordinate indicating the position of a region that matches a predetermined condition in the captured image for each region. Here, the predetermined condition is a condition for specifying an image to be captured (target image). The specific content of the predetermined condition is that the luminance is a region (high luminance region) having a predetermined value or more, and the size of the region is a size within a predetermined range. The predetermined condition may be a condition for specifying an imaging target, and in other embodiments, may include a condition related to the color of the image.

対象画像の位置を算出する際、まず、画像処理回路41は、撮像画像の領域から上記高輝度領域を対象画像の候補として特定する。撮像画像の画像データにおいて対象画像は高輝度領域として現れるからである。次に、画像処理回路41は、特定された高輝度領域の大きさに基づいて、その高輝度領域が対象画像であるか否かを判定する判定処理を行う。撮像画像には、対象画像である2つのマーカ8aおよび8bの画像8a’および8b’の他、窓からの太陽光や部屋の蛍光灯の光によって対象画像以外の画像が含まれている場合がある。この場合、マーカの画像8a’および8b’以外の画像も高輝度領域として現れてしまう。上記の判定処理は、対象画像であるマーカの画像8a’および8b’とそれ以外の画像とを区別し、対象画像を正確に特定するための処理である。具体的には、当該判定処理においては、特定された高輝度領域が予め定められた所定範囲内の大きさであるか否かが判定される。そして、高輝度領域が所定範囲内の大きさである場合、当該高輝度領域は対象画像を表すと判定され、高輝度領域が所定範囲内の大きさでない場合、当該高輝度領域は対象画像以外の画像を表すと判定される。   When calculating the position of the target image, first, the image processing circuit 41 specifies the high-intensity region as a target image candidate from the region of the captured image. This is because the target image appears as a high luminance area in the image data of the captured image. Next, the image processing circuit 41 performs determination processing for determining whether or not the high luminance area is a target image based on the size of the specified high luminance area. In addition to the images 8a ′ and 8b ′ of the two markers 8a and 8b that are target images, the captured image may include images other than the target image due to sunlight from a window or light from a fluorescent lamp in a room. is there. In this case, images other than the marker images 8a 'and 8b' also appear as high luminance areas. The determination process is a process for distinguishing between the marker images 8a ′ and 8b ′, which are target images, and other images, and accurately specifying the target image. Specifically, in the determination process, it is determined whether or not the specified high luminance area has a size within a predetermined range. If the high brightness area is a size within the predetermined range, the high brightness area is determined to represent the target image. If the high brightness area is not a size within the predetermined range, the high brightness area is other than the target image. It is determined that the image is represented.

さらに、上記の判定処理の結果、対象画像を表すと判定された高輝度領域について、画像処理回路41は当該高輝度領域の位置(具体的には、当該高輝度領域の重心位置)を算出する。なお、高輝度領域の位置は撮像素子40の解像度よりも詳細なスケールで算出することが可能である。例えば、撮像素子40によって撮像された撮像画像の解像度が126×96である場合でも、高輝度領域の位置を1024×768のスケールで算出することが可能である。このとき、高輝度領域の位置の座標は、(0,0)から(1024,768)までの整数値で表現される。なお、撮像画像における位置は、図7に示すように、撮像画像の左上を原点とし、下向きをY軸正方向とし、右向きをX軸正方向とする座標系(XY座標系)で表現されるものとする。   Further, as a result of the above determination processing, the image processing circuit 41 calculates the position of the high luminance area (specifically, the position of the center of gravity of the high luminance area) for the high luminance area determined to represent the target image. . Note that the position of the high luminance region can be calculated on a more detailed scale than the resolution of the image sensor 40. For example, even when the resolution of the captured image captured by the image sensor 40 is 126 × 96, the position of the high-luminance region can be calculated on a scale of 1024 × 768. At this time, the coordinates of the position of the high luminance region are expressed by integer values from (0, 0) to (1024, 768). As shown in FIG. 7, the position in the captured image is represented by a coordinate system (XY coordinate system) in which the upper left of the captured image is the origin, the downward direction is the Y axis positive direction, and the right direction is the X axis positive direction. Shall.

以上のようにして、画像処理回路41は、撮像画像内において所定条件に合致する領域の位置を示す座標を当該領域毎に算出する。画像処理回路41は、算出された座標を通信部36のマイコン42へ出力する。この座標のデータは、マイコン42によって操作データとしてゲーム装置3に送信される。以下では、上記座標を「マーカ座標」と呼ぶ。マーカ座標はコントローラ7自体の向き(姿勢)や位置に対応して変化するので、ゲーム装置3はこのマーカ座標を用いてコントローラ7の向きや位置を算出することができる。   As described above, the image processing circuit 41 calculates the coordinates indicating the position of the region that matches the predetermined condition in the captured image for each region. The image processing circuit 41 outputs the calculated coordinates to the microcomputer 42 of the communication unit 36. The coordinate data is transmitted to the game apparatus 3 as operation data by the microcomputer 42. Hereinafter, the coordinates are referred to as “marker coordinates”. Since the marker coordinates change corresponding to the orientation (posture) and position of the controller 7 itself, the game apparatus 3 can calculate the orientation and position of the controller 7 using the marker coordinates.

図6の説明に戻り、加速度センサ37は、コントローラ7の加速度(重力加速度を含む)を検出する、すなわち、コントローラ7に加わる力(重力を含む)を検出する。加速度センサ37は、当該加速度センサ37の検出部に加わっている加速度のうち、センシング軸方向に沿った直線方向の加速度の値を検出する。例えば、2軸以上の多軸加速度センサの場合には、加速度センサの検出部に加わっている加速度として、各軸に沿った成分の加速度(直線加速度)をそれぞれ検出する。例えば、3軸または2軸の加速度センサ37は、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能である種類のものでもよい。   Returning to the description of FIG. 6, the acceleration sensor 37 detects the acceleration (including gravitational acceleration) of the controller 7, that is, detects the force (including gravity) applied to the controller 7. The acceleration sensor 37 detects the acceleration value in the linear direction along the sensing axis direction among the accelerations applied to the detection unit of the acceleration sensor 37. For example, in the case of a multi-axis acceleration sensor having two or more axes, component acceleration along each axis (linear acceleration) is detected as the acceleration applied to the detection unit of the acceleration sensor. For example, the triaxial or biaxial acceleration sensor 37 may be of the type available from Analog Devices, Inc. or ST Microelectronics NV.

本実施形態では、加速度センサ37は、コントローラ7を基準とした上下方向(図3に示すy軸方向)、左右方向(図3に示すx軸方向)および前後方向(図3に示すz軸方向)の3軸方向に関してそれぞれ直線加速度を検出する。加速度センサ37は、各軸に沿った直線方向に関する加速度を検出するものであるため、加速度センサ37からの出力は3軸それぞれの直線加速度の値を表すものとなる。すなわち、検出された加速度は、コントローラ7を基準に設定されるxyz座標系における3次元のベクトルとして表される。加速度センサ37が検出した加速度を示すデータ(加速度データ)は、通信部36へ出力される。なお、本実施形態では、コントローラ7の通信部36は、逐次(例えば0.5msに1回)に加速度データをゲーム装置3へ出力する。ゲーム装置3は、この加速度データに基づいてコントローラ7の移動方向や傾き(姿勢)を算出することができる。なお、加速度センサ37は、各軸に沿った直線成分の加速度を検出するものであるので、ゲーム装置3は、コントローラ7の移動方向や傾きを直接検出することはできない。このため、加速度センサ37を搭載したデバイスの移動方向や傾きは、加速度センサの各軸毎に検出される加速度に所定の演算処理を施すことによって算出される。   In the present embodiment, the acceleration sensor 37 has a vertical direction (y-axis direction shown in FIG. 3), a horizontal direction (x-axis direction shown in FIG. 3), and a front-back direction (z-axis direction shown in FIG. 3) with reference to the controller 7. ) Linear acceleration is detected in each of the three axis directions. Since the acceleration sensor 37 detects acceleration in the linear direction along each axis, the output from the acceleration sensor 37 represents the linear acceleration value of each of the three axes. That is, the detected acceleration is expressed as a three-dimensional vector in the xyz coordinate system set with the controller 7 as a reference. Data indicating the acceleration detected by the acceleration sensor 37 (acceleration data) is output to the communication unit 36. In the present embodiment, the communication unit 36 of the controller 7 sequentially outputs acceleration data to the game apparatus 3 (for example, once every 0.5 ms). The game apparatus 3 can calculate the moving direction and inclination (posture) of the controller 7 based on the acceleration data. Since the acceleration sensor 37 detects the acceleration of the linear component along each axis, the game apparatus 3 cannot directly detect the moving direction or inclination of the controller 7. For this reason, the moving direction and inclination of the device on which the acceleration sensor 37 is mounted are calculated by performing predetermined arithmetic processing on the acceleration detected for each axis of the acceleration sensor.

通信部36は、マイコン42、メモリ43、無線モジュール44、およびアンテナ45を含んでいる。マイコン42は、処理を行う際にメモリ43を記憶領域として用いながら、マイコン42が取得したデータを無線送信する無線モジュール44を制御する。   The communication unit 36 includes a microcomputer 42, a memory 43, a wireless module 44, and an antenna 45. The microcomputer 42 controls the wireless module 44 that wirelessly transmits data acquired by the microcomputer 42 while using the memory 43 as a storage area when performing processing.

操作部32、撮像情報演算部35、および加速度センサ37からマイコン42へ出力されたデータは、一時的にメモリ43に格納される。ここで、通信部36から通信ユニット6への無線送信は所定の周期毎に行われるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われることが一般的であるので、この時間以下の周期で送信を行うことが好ましい。マイコン42は、通信ユニット6への送信タイミングが到来すると、メモリ43に格納されているデータを操作データとして無線モジュール44へ出力する。無線モジュール44は、例えばBluetooth(ブルートゥース)(登録商標)の技術を用いて、所定周波数の搬送波を操作データで変調し、その微弱電波信号をアンテナ45から放射する。つまり、操作データは、無線モジュール44で微弱電波信号に変調されてコントローラ7から送信される。微弱電波信号はゲーム装置3側の通信ユニット6で受信される。受信された微弱電波信号について復調や復号を行うことによって、ゲーム装置3は操作データを取得することができる。そして、ゲーム装置3のCPU10は、取得した操作データとゲームプログラムとに基づいて、ゲーム処理を行う。   Data output from the operation unit 32, the imaging information calculation unit 35, and the acceleration sensor 37 to the microcomputer 42 is temporarily stored in the memory 43. Here, the wireless transmission from the communication unit 36 to the communication unit 6 is performed at predetermined intervals, but the game processing is generally performed in units of 1/60 seconds (one frame time). It is preferable to perform transmission at a period equal to or shorter than this time. When the transmission timing to the communication unit 6 arrives, the microcomputer 42 outputs the data stored in the memory 43 to the wireless module 44 as operation data. The wireless module 44 modulates a carrier wave of a predetermined frequency with operation data using, for example, Bluetooth (registered trademark) technology, and radiates a weak radio signal from the antenna 45. That is, the operation data is modulated by the wireless module 44 into a weak radio signal and transmitted from the controller 7. The weak radio signal is received by the communication unit 6 on the game apparatus 3 side. By demodulating and decoding the received weak radio signal, the game apparatus 3 can acquire operation data. And CPU10 of the game device 3 performs a game process based on the acquired operation data and a game program.

また、ゲーム装置3は、ゲーム状況に応じた適宜のタイミングでサウンドデータをコントローラ7に対して送信する。ゲーム装置3から送信されてきたサウンドデータはアンテナ45によって受信される。マイコン42は、アンテナ45によって受信されたサウンドデータを無線モジュール44を介して取得する。さらに、取得したサウンドデータを音声出力部46へ出力する。   The game apparatus 3 transmits sound data to the controller 7 at an appropriate timing according to the game situation. Sound data transmitted from the game apparatus 3 is received by the antenna 45. The microcomputer 42 acquires sound data received by the antenna 45 via the wireless module 44. Further, the acquired sound data is output to the sound output unit 46.

音声出力部46は、サウンドIC47、アンプ48、スピーカ49を備えている。サウンドIC47は、マイコン42からサウンドデータが入力されると、サウンドデータに所定の処理を行ってアンプを介してスピーカ49に音声信号を出力する。これによって、ゲーム装置3は、コントローラ7側のスピーカ49からゲームの効果音等の音声を出力することができる。   The audio output unit 46 includes a sound IC 47, an amplifier 48, and a speaker 49. When sound data is input from the microcomputer 42, the sound IC 47 performs predetermined processing on the sound data and outputs an audio signal to the speaker 49 via an amplifier. Thereby, the game apparatus 3 can output sounds such as game sound effects from the speaker 49 on the controller 7 side.

上記コントローラ7を用いることによって、プレイヤは、各操作ボタンを押下する従来の一般的なゲーム操作に加えて、コントローラ7の姿勢を変化させたり、コントローラ7自身の位置を動かしたり、コントローラ7を回転させたりするというゲーム操作を行うことができる。   By using the controller 7, the player can change the posture of the controller 7, move the position of the controller 7, or rotate the controller 7 in addition to the conventional general game operation of pressing each operation button. It is possible to perform game operations such as

図8は、コントローラ7を用いてゲーム操作するときの状態を概説する図解図である。ゲームシステム1においてコントローラ7を用いてゲームをプレイする際、プレイヤは、図8に示すように一方の手でコントローラ7を把持する。本実施形態では、プレイヤは、把持したコントローラ7でモニタ2の画面上の任意の位置を指定する(コントローラ7の指示位置を所望の位置に向ける)ことによってゲーム操作を行う。   FIG. 8 is an illustrative view outlining a state when a game operation is performed using the controller 7. When playing a game using the controller 7 in the game system 1, the player holds the controller 7 with one hand as shown in FIG. In this embodiment, the player performs a game operation by designating an arbitrary position on the screen of the monitor 2 with the controller 7 held (directing the indicated position of the controller 7 to a desired position).

以下、ゲーム装置3におけるコントローラ7の指示位置とコントローラ7の傾きの検出方法の詳細を説明する。   Hereinafter, the details of the method for detecting the designated position of the controller 7 and the tilt of the controller 7 in the game apparatus 3 will be described.

(指示位置の算出方法)
ゲーム装置3は、受信した操作データに含まれるマーカ座標のデータを用いて、上記指示位置と、コントローラ7から各マーカ8aおよび8bまでの距離を算出することができる。図9は、コントローラ7の位置および/または向きを変化させた場合における撮像画像の変化を示す図である。図9は、コントローラの状態と、その状態にあるときに得られる撮像画像との対応を示している。図9において、コントローラ7が状態Aにあるときの撮像画像を撮像画像I1とする。撮像画像I1では、対象画像である各マーカ8aおよび8bの画像8a’および8b’は、撮像画像I1の中央付近に位置している。状態Aは、コントローラ7がマーカ8aとマーカ8bとの中間の位置を指し示している状態である。
(Indication position calculation method)
The game apparatus 3 can calculate the indicated position and the distance from the controller 7 to each of the markers 8a and 8b using the marker coordinate data included in the received operation data. FIG. 9 is a diagram illustrating changes in the captured image when the position and / or orientation of the controller 7 is changed. FIG. 9 shows the correspondence between the state of the controller and the captured image obtained in that state. In FIG. 9, a captured image when the controller 7 is in the state A is a captured image I1. In the captured image I1, the images 8a ′ and 8b ′ of the markers 8a and 8b, which are target images, are located near the center of the captured image I1. State A is a state in which the controller 7 points to an intermediate position between the marker 8a and the marker 8b.

図9に示す状態Bは、状態Aを基準としてコントローラ7を右方向(X軸正方向)に平行移動させた状態である。この状態Bにおいては、撮像情報演算部35によって撮像画像I3が得られる。撮像画像I3においては、対象画像8a’および8b’は、撮像画像I1を基準として左方向(x軸負方向)に平行移動している。なお、状態Bは、コントローラ7の指示方向を状態Aから右方向に向けた状態である。ここで、コントローラ7を右方向に平行移動させる場合だけでなく、コントローラ7をY軸周りに回転させることによっても、コントローラ7の指示方向を右方向に向けることができる。したがって、コントローラ7をY軸周りに回転させる場合にも撮像画像I3と同様の撮像画像が得られる。以上より、コントローラ7の指示方向を右方向に向けるようにコントローラ7を移動(回転)させた場合、撮像画像I3と同様の撮像画像が得られる、すなわち、対象画像8a’および8b’が平行移動した画像が得られる。したがって、撮像画像内における対象画像の位置(後述する例では、画像8a’と画像8b’の中点の位置)を検出することによって、コントローラ7が指し示す方向を知ることができる。   A state B shown in FIG. 9 is a state in which the controller 7 is translated in the right direction (X-axis positive direction) with the state A as a reference. In this state B, a captured image I3 is obtained by the imaging information calculation unit 35. In the captured image I3, the target images 8a 'and 8b' are translated in the left direction (x-axis negative direction) with reference to the captured image I1. Note that state B is a state in which the pointing direction of the controller 7 is directed rightward from state A. Here, not only when the controller 7 is translated in the right direction, but also by rotating the controller 7 around the Y axis, the indicated direction of the controller 7 can be directed to the right direction. Therefore, when the controller 7 is rotated about the Y axis, a captured image similar to the captured image I3 is obtained. As described above, when the controller 7 is moved (rotated) so that the pointing direction of the controller 7 is directed to the right, a captured image similar to the captured image I3 is obtained, that is, the target images 8a ′ and 8b ′ are translated. The obtained image is obtained. Therefore, the direction indicated by the controller 7 can be known by detecting the position of the target image in the captured image (in the example described later, the position of the midpoint between the images 8a 'and 8b').

図9に示す状態Cは、状態Aを基準としてコントローラ7を各マーカ8aおよび8bから遠ざけた(すなわち、後方向に平行移動させた)状態である。この状態Cにおいては、撮像情報演算部35によって撮像画像I4が得られる。撮像画像I4においては、画像8a’と画像8b’との距離が、撮像画像I1よりも短くなっている。したがって、撮像画像内における2つのマーカ画像の間の長さ(画像8a’と画像8b’との間の長さ。2つの対象画像を一体と見れば、対象画像の大きさ)を検出することによって、コントローラ7と各マーカ8aおよび8bとの距離を知ることができる。なお、他の実施形態において、コントローラとマーカとの距離を知る必要の無い場合や、対象画像の大きさによって距離を算出可能な場合においては、配置されるマーカは1つであってもよい。   The state C shown in FIG. 9 is a state in which the controller 7 is moved away from the markers 8a and 8b with the state A as a reference (that is, translated in the backward direction). In this state C, the captured image calculation unit 35 obtains a captured image I4. In the captured image I4, the distance between the image 8a 'and the image 8b' is shorter than that of the captured image I1. Therefore, the length between the two marker images in the captured image (the length between the image 8a ′ and the image 8b ′; the size of the target image when the two target images are viewed together) is detected. Thus, the distance between the controller 7 and each of the markers 8a and 8b can be known. In other embodiments, when it is not necessary to know the distance between the controller and the marker, or when the distance can be calculated based on the size of the target image, one marker may be arranged.

(傾きの算出方法)
ゲーム装置3は、受信した操作データに含まれる加速度データを用いて、コントローラ7(加速度センサ37)の傾きを算出することができる。図10は、コントローラ7の傾き(Z軸周りの傾き)を変化させた場合における加速度データの変化を示す図である。図10は、コントローラの状態と、その状態にあるときに得られる加速度データのX軸値,Y軸値との対応を示している。図10において、コントローラ7が状態Aにあるときは、重力の影響により、加速度データのX軸値は0、Y軸値は−1となる。状態Aは、コントローラ7のY軸の正方向が鉛直上方向となるように、プレイヤがコントローラ7を把持しているときの状態である。
(Slope calculation method)
The game apparatus 3 can calculate the inclination of the controller 7 (acceleration sensor 37) using the acceleration data included in the received operation data. FIG. 10 is a diagram illustrating changes in acceleration data when the inclination of the controller 7 (inclination around the Z axis) is changed. FIG. 10 shows the correspondence between the state of the controller and the X-axis value and the Y-axis value of the acceleration data obtained in that state. In FIG. 10, when the controller 7 is in the state A, the X-axis value of the acceleration data is 0 and the Y-axis value is −1 due to the influence of gravity. State A is a state when the player is holding the controller 7 so that the positive direction of the Y axis of the controller 7 is vertically upward.

図10に示す状態Bは、状態Aを基準としてプレイヤがコントローラ7をZ軸周りに角度θaだけ右回転(Z軸正方向を向いて時計回りに回転)させた状態である。この状態Bにおいては、加速度データのX軸値およびY軸値が示すベクトルは、状態Aのときと比較してXY座標平面上で角度θaだけ反時計回りに回転している。したがって、加速度データのX軸値およびY軸値が示すベクトルの向きを検出することによって、コントローラ7のZ軸周りの傾きを知ることができる。   A state B shown in FIG. 10 is a state in which the player rotates the controller 7 clockwise about the Z axis by an angle θa (rotates clockwise in the positive direction of the Z axis) with the state A as a reference. In this state B, the vector indicated by the X-axis value and the Y-axis value of the acceleration data is rotated counterclockwise by an angle θa on the XY coordinate plane as compared with the state A. Therefore, the inclination of the controller 7 around the Z-axis can be known by detecting the direction of the vector indicated by the X-axis value and the Y-axis value of the acceleration data.

図10に示す状態Cは、状態Aを基準としてプレイヤがコントローラ7をZ軸周りに角度θbだけ左回転(Z軸正方向を向いて反時計回りに回転)させた状態である。この状態Cにおいては、加速度データのX軸値およびY軸値が示すベクトルは、状態Aのときと比較してXY座標平面上で角度θbだけ時計回りに回転している。したがって、加速度データのX軸値およびY軸値が示すベクトルの向きを検出することによって、コントローラ7のZ軸周りの傾きを知ることができる。   A state C shown in FIG. 10 is a state in which the player rotates the controller 7 counterclockwise about the Z axis by an angle θb (rotates counterclockwise in the positive direction of the Z axis) with the state A as a reference. In this state C, the vector indicated by the X-axis value and the Y-axis value of the acceleration data is rotated clockwise by an angle θb on the XY coordinate plane as compared with the state A. Therefore, the inclination of the controller 7 around the Z-axis can be known by detecting the direction of the vector indicated by the X-axis value and the Y-axis value of the acceleration data.

なお、図示は省略するが、状態Aを基準としてプレイヤがコントローラ7をZ軸周りに90°以上左回転(または右回転)させた場合にも、加速度データのX軸値およびY軸値に基づいて、その回転角度を知ることができる。したがって、加速度データのX軸値およびY軸値を参照することにより、状態Aを基準としたときのコントローラ7のZ軸周りの回転角度を−180°〜180°の範囲、すなわち全周にわたって検出することができる。   Although illustration is omitted, even when the player rotates the controller 7 counterclockwise by 90 ° or more around the Z axis (or right rotation) based on the state A, it is based on the X axis value and the Y axis value of the acceleration data. Thus, the rotation angle can be known. Therefore, by referring to the X-axis value and the Y-axis value of the acceleration data, the rotation angle around the Z-axis of the controller 7 when the state A is a reference is detected in the range of −180 ° to 180 °, that is, the entire circumference. can do.

なお、図10において、加速度データのX軸値の大きさだけを参照することによっても、状態Aを基準としたコントローラ7のZ軸周りの回転角度を検出することが可能である。ただしこの場合には、状態Aを基準としてプレイヤがコントローラ7をZ軸周りに(90−a)°回転させたときと(90+a)°回転させたときとで加速度データのX軸値が同じ値になるため、加速度データのX軸値の大きさだけを参照することによって検出可能なコントローラ7のZ軸周りの回転角度は−90°〜90°の範囲に限られる。   In FIG. 10, the rotation angle around the Z axis of the controller 7 based on the state A can also be detected by referring only to the magnitude of the X axis value of the acceleration data. In this case, however, the X-axis value of the acceleration data is the same when the player rotates the controller 7 about (90-a) ° around the Z-axis and (90 + a) ° with respect to the state A. Therefore, the rotation angle around the Z-axis of the controller 7 that can be detected by referring only to the magnitude of the X-axis value of the acceleration data is limited to a range of −90 ° to 90 °.

なお、ここでは、コントローラ7のZ軸周りの傾きの検出方法を説明したが、コントローラ7のX軸周りの傾きやY軸周りの傾きについても同様にして検出することができる。例えば、コントローラ7のX軸周りの傾きは、加速度データのY軸値およびZ軸値(もしくはY軸値とZ軸値のいずれか一方)を参照して検出することができる。このようにしてコントローラ7の少なくとも2軸周りの傾きを検出することによって、コントローラ7の三次元的な傾きを検出することができる。   Here, the method of detecting the tilt around the Z axis of the controller 7 has been described, but the tilt around the X axis and the tilt around the Y axis of the controller 7 can be similarly detected. For example, the inclination of the controller 7 around the X axis can be detected with reference to the Y axis value and the Z axis value (or one of the Y axis value and the Z axis value) of the acceleration data. Thus, by detecting the inclination of the controller 7 around at least two axes, the three-dimensional inclination of the controller 7 can be detected.

以下、上記ゲームシステム1によって実現される種々のゲームを説明する。   Hereinafter, various games realized by the game system 1 will be described.

(実施例1)
図11は、仮想ゲーム空間において棒状のオブジェクトを壁や障害物にぶつけることなくゴールまで導くゲームをプレイ中のゲーム画面例およびプレイヤによるコントローラ7の操作例を示している。
Example 1
FIG. 11 shows an example of a game screen during playing a game that guides a bar-like object to a goal without hitting a wall or an obstacle in the virtual game space, and an example of operation of the controller 7 by the player.

オブジェクトOb1は、コントローラ7による画面上の指示位置(Pa,Pb,Pc)に表示される。コントローラ7による画面上の指示位置は、コントローラ7に設けられた撮像情報演算部35において算出された、撮像画像内における撮像対象(マーカ8aおよび8b)の位置に基づいて決定される。   The object Ob1 is displayed at the indicated position (Pa, Pb, Pc) on the screen by the controller 7. The designated position on the screen by the controller 7 is determined based on the position of the imaging target (markers 8 a and 8 b) in the captured image calculated by the imaging information calculation unit 35 provided in the controller 7.

また、オブジェクトOb1の傾き(基準姿勢からの回転角度θ1,θ2,θ3)は、コントローラ7のZ軸周りの傾き(基準姿勢からの回転角度)と同じ傾きとなる。コントローラ7のZ軸周りの傾きは、コントローラ7に設けられた加速度センサ37のX軸出力値およびY軸出力値に基づいて判定される。   Further, the inclination of the object Ob1 (the rotation angles θ1, θ2, θ3 from the reference posture) is the same as the inclination around the Z axis of the controller 7 (the rotation angle from the reference posture). The inclination of the controller 7 around the Z axis is determined based on the X axis output value and the Y axis output value of the acceleration sensor 37 provided in the controller 7.

このように、プレイヤは、コントローラ7を動かす(移動させたり傾けたりする)だけでオブジェクトOb1の位置と姿勢の両方を同時に制御することができる。   In this way, the player can simultaneously control both the position and the posture of the object Ob1 simply by moving (moving or tilting) the controller 7.

以下、図11のフローチャートを参照して、本実施例におけるゲームプログラムに基づくゲーム装置3のCPU10の処理の流れを説明する。   Hereinafter, with reference to the flowchart of FIG. 11, the flow of processing of the CPU 10 of the game apparatus 3 based on the game program in the present embodiment will be described.

まずステップS10で、CPU10は、操作データを取得する。この操作データには少なくとも、撮像画像内における撮像対象(マーカ8aおよび8b)の位置と、加速度センサ37のX軸出力値およびY軸出力値が含まれている。   First, in step S10, the CPU 10 acquires operation data. This operation data includes at least the position of the imaging target (markers 8a and 8b) in the captured image and the X-axis output value and Y-axis output value of the acceleration sensor 37.

ステップS12では、撮像画像内における撮像対象(マーカ8aおよび8b)の位置に基づいて指示位置(プレイヤによって指示された画面上の位置)を算出する。指示位置の算出方法は前述の通りである(図9)。   In step S12, the designated position (the position on the screen designated by the player) is calculated based on the position of the imaging target (markers 8a and 8b) in the captured image. The method for calculating the indicated position is as described above (FIG. 9).

ステップS14では、ステップS12で算出された指示位置に基づいて、仮想ゲーム空間におけるオブジェクトの位置を決定する。このとき、画面上でのオブジェクトの表示位置と、プレイヤが指示した画面上の位置とが一致するように、オブジェクトの位置を決定するのが好ましい。   In step S14, the position of the object in the virtual game space is determined based on the indicated position calculated in step S12. At this time, it is preferable to determine the position of the object so that the display position of the object on the screen matches the position on the screen instructed by the player.

ステップS16では、加速度センサ37のX軸出力値およびY軸出力値に基づいて、コントローラ7の姿勢(傾き)を算出する。コントローラ7の傾きの算出方法は前述の通りである(図10)。   In step S <b> 16, the attitude (tilt) of the controller 7 is calculated based on the X-axis output value and the Y-axis output value of the acceleration sensor 37. The calculation method of the inclination of the controller 7 is as described above (FIG. 10).

ステップS18では、ステップS16で算出されたコントローラ7の姿勢に基づいて、仮想ゲーム空間におけるオブジェクトの姿勢を決定する。このとき、コントローラ7の基準位置からの回転角度と、オブジェクトの基準位置からの回転角度とが一致するように、オブジェクトの姿勢を決定するのが好ましい。なお、他の実施形態においては、コントローラ7の基準位置からの回転角度の算出を行わず、加速度センサ37のX軸出力値およびY軸出力値で定義されるベクトルをコントローラ7の姿勢として扱い、当該ベクトル方向に対して直接所定の変換処理を行うことによって、オブジェクトの姿勢を示す方向を決定するようにしてもよい。   In step S18, the posture of the object in the virtual game space is determined based on the posture of the controller 7 calculated in step S16. At this time, it is preferable to determine the posture of the object so that the rotation angle from the reference position of the controller 7 matches the rotation angle from the reference position of the object. In another embodiment, the rotation angle from the reference position of the controller 7 is not calculated, and the vector defined by the X-axis output value and the Y-axis output value of the acceleration sensor 37 is treated as the attitude of the controller 7. A direction indicating the posture of the object may be determined by performing predetermined conversion processing directly on the vector direction.

ステップS20では、ステップS14で決定された位置とステップS18で決定された姿勢に基づいて、オブジェクトを含むゲーム画像を生成し、モニタ2へ出力する。   In step S20, a game image including an object is generated based on the position determined in step S14 and the attitude determined in step S18, and is output to the monitor 2.

ステップS22では、ゲームが終了したかどうかを判断し、ゲームが続行している場合には処理はステップS10に戻り、ゲームが終了するまでステップS10〜ステップS20の処理を繰り返す。ゲームが終了すると、CPU30はゲーム処理を終了する。   In step S22, it is determined whether or not the game is finished. If the game is continuing, the process returns to step S10, and the processes in steps S10 to S20 are repeated until the game is finished. When the game ends, the CPU 30 ends the game process.

(実施例2)
図13は、仮想ゲーム空間において飛行機のオブジェクトを操縦して敵の飛行機を撃墜するゲームをプレイ中のゲーム画面例およびプレイヤによるコントローラ7の操作例を示している。
(Example 2)
FIG. 13 shows an example of a game screen while playing a game of maneuvering an airplane object and shooting down an enemy airplane in the virtual game space, and an example of operation of the controller 7 by the player.

実施例1と同様に、オブジェクトOb2は、コントローラ7による画面上の指示位置に表示され、その指示位置は、コントローラ7に設けられた撮像情報演算部35において算出された、撮像画像内における撮像対象(マーカ8aおよび8b)の位置に基づいて決定される。   As in the first embodiment, the object Ob2 is displayed at the designated position on the screen by the controller 7, and the designated position is the imaging target in the captured image calculated by the imaging information calculation unit 35 provided in the controller 7. It is determined based on the positions of (markers 8a and 8b).

また、オブジェクトOb2の傾き(機体の中心軸周りの傾き)は、コントローラ7のZ軸周りの傾き(基準姿勢からの回転角度)と同じ傾きとなる。コントローラ7のZ軸周りの傾きは、実施例1と同様に、コントローラ7に設けられた加速度センサ37のX軸出力値およびY軸出力値に基づいて判定される。   Further, the inclination of the object Ob2 (inclination around the central axis of the airframe) is the same as the inclination around the Z axis of the controller 7 (rotation angle from the reference posture). Similar to the first embodiment, the inclination of the controller 7 around the Z axis is determined based on the X axis output value and the Y axis output value of the acceleration sensor 37 provided in the controller 7.

また、本実施例では、図14に示すように、コントローラ7のX軸周りの傾きに応じて、機首が上下動する方向にオブジェクトOb2の傾きが変化する。コントローラ7のX軸周りの傾き(基準姿勢からの回転角度)は、コントローラ7に設けられた加速度センサ37のY軸出力値およびZ軸出力値に基づいて判定される。   In the present embodiment, as shown in FIG. 14, the inclination of the object Ob2 changes in the direction in which the nose moves up and down in accordance with the inclination of the controller 7 around the X axis. The inclination of the controller 7 around the X axis (the rotation angle from the reference posture) is determined based on the Y axis output value and the Z axis output value of the acceleration sensor 37 provided in the controller 7.

さらに、本実施例では、図15に示すように、プレイヤは、コントローラ7を画面に近付けたり遠ざけたりすることによって、仮想ゲーム空間におけるオブジェクトOb2の画面奥行方向の位置を変化させることができる。コントローラ7と画面の間の距離の変化は、図9に示した通り、撮像画像内における2つの撮像対象(マーカ8aおよび8b)の間の距離の変化から検出することができる。   Furthermore, in this embodiment, as shown in FIG. 15, the player can change the position of the object Ob2 in the depth direction of the screen in the virtual game space by moving the controller 7 closer to or away from the screen. The change in the distance between the controller 7 and the screen can be detected from the change in the distance between the two imaging targets (markers 8a and 8b) in the captured image, as shown in FIG.

以上のように、本実施例のゲームでは、プレイヤはコントローラ7を動かすことによって、仮想ゲーム空間におけるオブジェクトOb2の位置を3次元的に自由に変化させることができると同時に、オブジェクトOb2の姿勢も3次元的に自由に変化させることができる。よって、例えば、自機の右前方にいる敵からのミサイルを画面右手前方向に移動してかわしながら、同時に自機の上前方の敵を射撃するというような、非常に複雑な移動制御も容易に可能となる。   As described above, in the game of the present embodiment, the player can freely change the position of the object Ob2 in the virtual game space by moving the controller 7, and at the same time, the posture of the object Ob2 is 3 It can be changed freely dimensionally. Therefore, for example, it is easy to control movements that are very complex, such as shooting missiles from enemies that are in front of you and moving them forward in the right direction of the screen while simultaneously shooting enemies that are in front of you. It becomes possible.

(実施例3)
図16は、仮想ゲーム空間において一人称視点で射撃を行うゲームをプレイ中のゲーム画面例およびプレイヤによるコントローラ7の操作例を示している。
(Example 3)
FIG. 16 shows an example of a game screen while playing a game in which shooting is performed from the first person viewpoint in the virtual game space, and an example of operation of the controller 7 by the player.

本実施例では、図16に示すように、コントローラ7のX軸周りの傾きに応じて、仮想ゲーム空間に設置された仮想カメラVCの向きが変化する。コントローラ7のX軸周りの傾き(基準姿勢からの回転角度)は、実施例2と同様に、コントローラ7に設けられた加速度センサ37のY軸出力値およびZ軸出力値に基づいて判定される。   In this embodiment, as shown in FIG. 16, the orientation of the virtual camera VC installed in the virtual game space changes according to the inclination of the controller 7 around the X axis. The inclination of the controller 7 around the X axis (the rotation angle from the reference posture) is determined based on the Y axis output value and the Z axis output value of the acceleration sensor 37 provided in the controller 7 as in the second embodiment. .

また、本実施例では、コントローラ7による仮想ゲーム空間内の指示位置に、照準マークACが配置される。この「仮想ゲーム空間内の指示位置」は、「画面上の指示位置」に対応する仮想ゲーム空間内の位置のことである。具体的には、「画面上の指示位置」に表示されている仮想ゲーム空間内のオブジェクト(木や風船)の表面位置となる。したがって、仮に「画面上の指示位置」が同一であったとしても、仮想カメラVCの向きが変化すると、それに応じて「仮想ゲーム空間内の指示位置」は変化する。   In the present embodiment, the aiming mark AC is arranged at the designated position in the virtual game space by the controller 7. The “designated position in the virtual game space” is a position in the virtual game space corresponding to the “designated position on the screen”. Specifically, it is the surface position of the object (tree or balloon) in the virtual game space displayed in the “designated position on the screen”. Therefore, even if the “designated position on the screen” is the same, if the orientation of the virtual camera VC changes, the “designated position in the virtual game space” changes accordingly.

プレイヤは、コントローラ7を動かすことによって仮想ゲーム空間内の所望のオブジェクトに照準マークを合わせ、コントローラ7に設けられた操作ボタンを押すことによって当該オブジェクトに向かって銃を発砲することができる。   The player can move the controller 7 to aim an aiming mark at a desired object in the virtual game space, and press an operation button provided on the controller 7 to fire a gun toward the object.

図17Aは、プレイヤが照準マークACを木のオブジェクトに合わせているときのゲーム画面例であり、図17Bは、プレイヤが照準マークACを風船のオブジェクトに合わせているときのゲーム画面例である。なお、照準マークACの大きさが異なるのは、仮想ゲーム空間における仮想カメラVCから照準マークACまでの距離が変化しているからである。   FIG. 17A is an example of a game screen when the player is placing the aim mark AC on a tree object, and FIG. 17B is an example of a game screen when the player is placing the aim mark AC on a balloon object. Note that the size of the aiming mark AC is different because the distance from the virtual camera VC to the aiming mark AC in the virtual game space is changed.

以下、図18のフローチャートを参照して、本実施例におけるゲームプログラムに基づくゲーム装置3のCPU10の処理の流れを説明する。なお、図18のフローチャートでは、プレイヤの指示に基づく銃の発砲処理については省略している。   Hereinafter, with reference to the flowchart of FIG. 18, the flow of processing of the CPU 10 of the game apparatus 3 based on the game program in the present embodiment will be described. In the flowchart of FIG. 18, the gun firing process based on the instruction from the player is omitted.

まずステップS30で、CPU10は、操作データを取得する。この操作データには少なくとも、撮像画像内における撮像対象(マーカ8aおよび8b)の位置と、加速度センサ37のY軸出力値およびZ軸出力値が含まれている。   First, in step S30, the CPU 10 acquires operation data. This operation data includes at least the position of the imaging target (markers 8a and 8b) in the captured image, the Y-axis output value of the acceleration sensor 37, and the Z-axis output value.

ステップS32では、加速度センサ37のY軸出力値およびZ軸出力値に基づいて、コントローラ7の姿勢(傾き)を算出する。コントローラ7の傾きの算出方法は前述の通りである。   In step S32, the attitude (tilt) of the controller 7 is calculated based on the Y-axis output value and the Z-axis output value of the acceleration sensor 37. The calculation method of the inclination of the controller 7 is as described above.

ステップS34では、ステップS32で算出されたコントローラ7の姿勢に基づいて、仮想ゲーム空間における仮想カメラVCの姿勢を決定する。   In step S34, the attitude of the virtual camera VC in the virtual game space is determined based on the attitude of the controller 7 calculated in step S32.

ステップS36では、撮像画像内における撮像対象(マーカ8aおよび8b)の位置と、ステップS34で決定された仮想カメラVCの姿勢とに基づいて、仮想ゲーム空間における指示位置(コントローラ7により指示された画面上の位置に対応する仮想ゲーム空間内の位置)を算出する。仮想ゲーム空間における指示位置の算出方法は前述の通りである(図16)。   In step S36, based on the position of the imaging target (markers 8a and 8b) in the captured image and the attitude of the virtual camera VC determined in step S34, the designated position (the screen designated by the controller 7) in the virtual game space. The position in the virtual game space corresponding to the upper position) is calculated. The method for calculating the designated position in the virtual game space is as described above (FIG. 16).

ステップS38では、ステップS36で算出された仮想ゲーム空間における指示位置に基づいて、仮想ゲーム空間における照準マークACの位置を決定する。   In step S38, the position of the aim mark AC in the virtual game space is determined based on the indicated position in the virtual game space calculated in step S36.

ステップS40では、ステップS34で決定された仮想カメラVCの姿勢と、ステップS38で決定された照準マークACの位置とに基づいて、照準マークACを含むゲーム画像を生成し、モニタ2へ出力する。   In step S40, a game image including the aiming mark AC is generated based on the attitude of the virtual camera VC determined in step S34 and the position of the aiming mark AC determined in step S38, and is output to the monitor 2.

ステップS42では、ゲームが終了したかどうかを判断し、ゲームが続行している場合には処理はステップS30に戻り、ゲームが終了するまでステップS30〜ステップS40の処理を繰り返す。ゲームが終了すると、CPU30はゲーム処理を終了する。   In step S42, it is determined whether or not the game has ended. If the game has continued, the process returns to step S30, and the processes in steps S30 to S40 are repeated until the game ends. When the game ends, the CPU 30 ends the game process.

以上のように、本実施例によれば、プレイヤは、コントローラ7を動かすことによって、画面に表示されている仮想ゲーム空間内の任意のオブジェクトに照準マークを合わせられ、しかも、仮想カメVCの向きも同時に制御できるので、最初は画面に表示されていなかったオブジェクト(例えば図16の風船)を画面に表示させた上で、そのオブジェクトに照準マークを合わせることができる。よって、画面に表示されている範囲に限らず、コントローラ7によって仮想ゲーム空間内の広い範囲の中から所望の位置を指示することができる。   As described above, according to the present embodiment, the player can move the controller 7 so that the aim mark is set on an arbitrary object in the virtual game space displayed on the screen, and the orientation of the virtual turtle VC Since an object that was not initially displayed on the screen (for example, the balloon in FIG. 16) is displayed on the screen, the aiming mark can be aligned with the object. Therefore, the desired position can be instructed by the controller 7 from a wide range in the virtual game space, not limited to the range displayed on the screen.

なお、実施例2と同様に、コントローラ7と画面の間の距離の変化に応じて仮想カメラVCの位置や画角(ズーム倍率)を変化させてもよい。   As in the second embodiment, the position and angle of view (zoom magnification) of the virtual camera VC may be changed according to the change in the distance between the controller 7 and the screen.

(実施例4)
図19Aおよび図19Bは、仮想ゲーム空間に設置された2つのドアのドアノブうち、プレイヤが所望のドアノブを回して、そのドアを開けるゲームのゲーム画面例およびプレイヤによるコントローラ7の操作例を示している。
Example 4
19A and 19B show a game screen example of a game in which a player turns a desired door knob among two door knobs installed in the virtual game space, and an operation example of the controller 7 by the player. Yes.

上述の実施例1〜3では、コントローラ7の指示位置を変化させることで、仮想ゲーム空間におけるオブジェクトの位置や照準マークの位置を変化させている。一方、本実施例4では、2つのオブジェクトOb3,Ob4のうち、いずれのオブジェクトを操作対象とするかをコントローラ7によって指示する。   In the above-described first to third embodiments, the position of the object and the position of the aiming mark in the virtual game space are changed by changing the indicated position of the controller 7. On the other hand, in the fourth embodiment, the controller 7 instructs which of the two objects Ob3 and Ob4 is to be operated.

図19Aは、プレイヤがまだいずれのドアノブも指示していない状態(つまりコントローラ7の指示位置がいずれのドアノブの表示位置にも一致していない状態)のゲーム画面を示している。この状態では、たとえプレイヤがコントローラ7をZ軸周りに回転させたとしても、いずれのドアノブも回転せず、当然ながらドアは開かない。   FIG. 19A shows a game screen in a state where the player has not instructed any door knob yet (that is, a state in which the indicated position of the controller 7 does not coincide with the display position of any door knob). In this state, even if the player rotates the controller 7 around the Z axis, none of the door knobs rotate and, of course, the door does not open.

図19Bは、プレイヤが右側のドアノブを指示しつつ(すなわちコントローラ7の指示位置を右側のドアノブの表示位置に一致させつつ)、コントローラ7をZ軸周りに回転させたときのゲーム画面を示している。この場合には、コントローラ7のZ軸周りの回転に伴って右側のドアノブが回転し、右側のドアが開く。   FIG. 19B shows a game screen when the player rotates the controller 7 around the Z axis while pointing the right door knob (that is, matching the indication position of the controller 7 to the display position of the right door knob). Yes. In this case, as the controller 7 rotates around the Z axis, the right door knob rotates and the right door opens.

以上のように、本実施例によれば、プレイヤは、コントローラ7を動かすことによって、仮想ゲーム空間内の複数のオブジェクトの中から所望のオブジェクトを操作対象オブジェクトとして選択する操作と、この操作対象オブジェクトの制御とを、容易に行うことができる。   As described above, according to this embodiment, the player moves the controller 7 to select a desired object as an operation target object from among a plurality of objects in the virtual game space, and the operation target object. Can be easily controlled.

本発明の一実施形態に係るゲーム装置を含むゲームシステムの外観図1 is an external view of a game system including a game device according to an embodiment of the present invention. ゲーム装置3の機能ブロック図Functional block diagram of game device 3 コントローラ7の上側後方から見た斜視図The perspective view seen from the upper rear of controller 7 コントローラ7を下側前方から見た斜視図The perspective view which looked at the controller 7 from the lower front コントローラ7の内部構造を示す図Diagram showing the internal structure of the controller 7 コントローラ7の内部構造を示す図Diagram showing the internal structure of the controller 7 コントローラ7の構成を示すブロック図Block diagram showing the configuration of the controller 7 対象画像を含む撮像画像の一例を示す図The figure which shows an example of the captured image containing a target image コントローラ7を用いてゲーム操作を行うときの状態を概説する図解図Illustrated diagram outlining the state when performing game operations using the controller 7 コントローラ7の位置および/または向きを変化させた場合における撮像画像の変化を示す図The figure which shows the change of the captured image when the position and / or direction of the controller 7 are changed. コントローラ7のZ軸周りの傾きを変化させた場合における加速度データのX軸値およびY軸値の変化を示す図The figure which shows the change of the X-axis value of the acceleration data when changing the inclination around the Z-axis of the controller 7, and a Y-axis value 実施例1におけるプレイヤの操作とオブジェクトの位置および姿勢との対応関係を示す図The figure which shows the correspondence of operation of the player in Example 1, and the position and attitude | position of an object. 実施例1におけるゲーム処理の流れを示すフローチャートThe flowchart which shows the flow of the game processing in Example 1. 実施例2におけるプレイヤの操作とオブジェクトの位置および姿勢との対応関係を示す図The figure which shows the correspondence of player's operation and the position and attitude | position of an object in Example 2. FIG. 実施例2におけるプレイヤの操作とオブジェクトの姿勢との対応関係を示す図The figure which shows the correspondence of the player's operation in Example 2 and the attitude | position of an object. 実施例2におけるプレイヤの操作とオブジェクトの位置との対応関係を示す図The figure which shows the correspondence of the player's operation in Example 2 and the position of an object. 実施例3におけるプレイヤの操作と仮想カメラの向きとの対応関係を示す図The figure which shows the correspondence of the player's operation in Example 3 and the direction of a virtual camera. 実施例3におけるゲーム画像例Example game images in Example 3 実施例3における他のゲーム画像例Other game image examples in the third embodiment 実施例3におけるゲーム処理の流れを示すフローチャートThe flowchart which shows the flow of the game processing in Example 3. 実施例4における操作対象オブジェクトが選択されていない状態のゲーム画像例Example of game image when no operation target object is selected in the fourth embodiment 実施例4における操作対象オブジェクトが選択されている状態のゲーム画像例Example of a game image in a state where an operation target object is selected in the fourth embodiment

符号の説明Explanation of symbols

1 ゲームシステム
2 モニタ
3 ゲーム装置
4 光ディスク
5 外部メモリカード
6 通信ユニット
7 コントローラ
8a,8b マーカ
35 撮像情報演算部
35a 光入射面
37 加速度センサ
38 赤外線フィルタ
39 レンズ
40 撮像素子
41 画像処理回路

DESCRIPTION OF SYMBOLS 1 Game system 2 Monitor 3 Game device 4 Optical disk 5 External memory card 6 Communication unit 7 Controller 8a, 8b Marker 35 Imaging information calculating part 35a Light incident surface 37 Acceleration sensor 38 Infrared filter 39 Lens 40 Imaging element 41 Image processing circuit

Claims (11)

少なくとも1軸に関する加速度を検出可能な加速度センサと、所定の撮像対象を撮像するための撮像装置とを備えた入力装置の動きに応じたゲーム処理を行うゲーム装置のコンピュータで実行されるゲームプログラムであって、
前記撮像装置の撮像画像における前記撮像対象の位置および前記加速度センサが検出する加速度を取得または算出するデータ取得ステップ、
前記撮像画像における撮像対象の位置から、前記入力装置の動きに伴って変化する指示位置を算出する指示位置算出ステップ、
前記加速度センサが検出する加速度から前記入力装置の傾きを算出する傾き算出ステップ、
前記指示位置および前記入力装置の傾きに基づいて所定のゲーム処理を行うゲーム処理ステップ、および
前記ゲーム処理の結果を反映したゲーム空間を表示装置に表示させる表示制御ステップ、を前記コンピュータに実行させるゲームプログラム。
A game program that is executed by a computer of a game device that performs game processing in accordance with the movement of an input device that includes an acceleration sensor capable of detecting acceleration related to at least one axis and an imaging device for imaging a predetermined imaging target. There,
A data acquisition step of acquiring or calculating the position of the imaging target in the captured image of the imaging device and the acceleration detected by the acceleration sensor;
An instruction position calculating step of calculating an instruction position that changes with the movement of the input device from the position of the imaging target in the captured image;
An inclination calculating step for calculating an inclination of the input device from an acceleration detected by the acceleration sensor;
A game that causes the computer to execute a game processing step of performing a predetermined game process based on the indicated position and the inclination of the input device, and a display control step of displaying a game space reflecting the result of the game process on a display device program.
前記ゲーム処理ステップは、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、かつ前記入力装置の傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理ステップを含む、請求項1に記載のゲームプログラム。   The game processing step includes an object processing step of determining an operation target object in the game space from the indicated position or determining a position of the operation target object, and determining an attitude of the operation target object from an inclination of the input device. The game program according to claim 1. 前記加速度センサは、前記撮像装置の撮像方向に対して垂直な2軸に関する加速度を少なくとも検出可能であり、
前記傾き算出ステップは、前記加速度センサが検出する前記撮像装置の撮像方向に対して垂直な2軸に関する加速度から、前記撮像装置の撮像方向を軸とした前記入力装置の傾きを算出する撮像方向軸周り傾き算出ステップを含み、
前記ゲーム処理ステップは、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、前記撮像装置の撮像方向を軸とした前記入力装置の傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理ステップを含む、請求項1に記載のゲームプログラム。
The acceleration sensor can detect at least acceleration related to two axes perpendicular to the imaging direction of the imaging device;
The inclination calculating step calculates an inclination of the input device with respect to an imaging direction of the imaging device from an acceleration about two axes perpendicular to the imaging direction of the imaging device detected by the acceleration sensor. Including the step of calculating the tilt around
The game processing step determines an operation target object in the game space from the indicated position or determines a position of the operation target object, and determines the operation target object from an inclination of the input device with an imaging direction of the imaging device as an axis. The game program according to claim 1, comprising an object processing step for determining a posture.
前記ゲーム処理ステップは、ゲーム空間内の仮想カメラの向きを前記入力装置の傾きから決定し、決定された当該仮想カメラの向きに応じた前記指示位置のゲーム空間内での位置を決定するカメラ処理ステップを含む、請求項1に記載のゲームプログラム。   The game processing step determines the orientation of the virtual camera in the game space from the tilt of the input device, and determines the position of the designated position in the game space according to the determined orientation of the virtual camera. The game program according to claim 1, comprising steps. 前記撮像対象が、互いに離れて配置された一対の撮像対象であり、
前記ゲームプログラムは、前記撮像画像における前記一対の撮像対象間の距離から、前記入力装置と前記一対の撮像対象との間の距離を算出する距離算出ステップを前記コンピュータにさらに実行させ、
前記ゲーム処理ステップは、前記指示位置および前記入力装置の傾きに加えて、さらに前記入力装置と前記1対の撮像対象との間の距離に基づいて前記ゲーム処理を行う、請求項1に記載のゲームプログラム。
The imaging object is a pair of imaging objects arranged apart from each other,
The game program causes the computer to further execute a distance calculation step of calculating a distance between the input device and the pair of imaging targets from a distance between the pair of imaging targets in the captured image.
2. The game process according to claim 1, wherein the game process step further performs the game process based on a distance between the input device and the pair of imaging targets in addition to the designated position and the tilt of the input device. Game program.
少なくとも1軸に関する加速度を検出可能な加速度センサと、
所定の撮像対象を撮像するための撮像装置と、
前記撮像装置の撮像画像における前記撮像対象の位置から前記撮像装置の動きに伴って変化する指示位置を算出する指示位置算出手段と、
前記加速度センサが検出する加速度から前記加速度センサの傾きを算出する傾き算出手段と、
前記指示位置および前記加速度センサの傾きに基づいて所定のゲーム処理を行うゲーム処理手段と、
前記ゲーム処理の結果を反映したゲーム空間を表示装置に表示させる表示制御手段と、を備えるゲーム装置。
An acceleration sensor capable of detecting acceleration about at least one axis;
An imaging device for imaging a predetermined imaging target;
An instruction position calculating means for calculating an instruction position that changes with a movement of the imaging device from a position of the imaging target in a captured image of the imaging device;
Inclination calculating means for calculating the inclination of the acceleration sensor from the acceleration detected by the acceleration sensor;
Game processing means for performing predetermined game processing based on the indicated position and the inclination of the acceleration sensor;
A game device comprising: display control means for causing a display device to display a game space reflecting the result of the game process.
前記ゲーム処理手段は、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、かつ前記加速度センサの傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理手段を含む、請求項6に記載のゲーム装置。   The game processing means includes object processing means for determining an operation target object in the game space from the indicated position or determining a position of the operation target object, and determining a posture of the operation target object from an inclination of the acceleration sensor. The game device according to claim 6. 前記加速度センサは、前記撮像装置の撮像方向に対して垂直な2軸に関する加速度を少なくとも検出可能であり、
前記傾き算出手段は、前記加速度センサが検出する前記撮像装置の撮像方向に対して垂直な2軸に関する加速度から、前記撮像装置の撮像方向を軸とした前記加速度センサの傾きを算出する撮像方向軸周り傾き算出手段を含み、
前記ゲーム処理手段は、前記指示位置からゲーム空間内の操作対象オブジェクトを決定または操作対象オブジェクトの位置を決定し、前記撮像装置の撮像方向を軸とした前記加速度センサの傾きから当該操作対象オブジェクトの姿勢を決定するオブジェクト処理手段を含む、請求項6に記載のゲーム装置。
The acceleration sensor can detect at least acceleration related to two axes perpendicular to the imaging direction of the imaging device;
The inclination calculating means calculates an inclination of the acceleration sensor about the imaging direction of the imaging device from an acceleration about two axes perpendicular to the imaging direction of the imaging device detected by the acceleration sensor. Including a surrounding inclination calculating means,
The game processing means determines an operation target object in the game space from the indicated position or determines a position of the operation target object, and determines the operation target object from an inclination of the acceleration sensor with an imaging direction of the imaging device as an axis. The game device according to claim 6, further comprising object processing means for determining a posture.
前記ゲーム処理手段は、ゲーム空間内の仮想カメラの向きを前記加速度センサの傾きから決定し、決定された当該仮想カメラの向きに応じた前記指示位置のゲーム空間内での位置を決定するカメラ処理手段を含む、請求項6に記載のゲーム装置。   The game processing means determines the orientation of the virtual camera in the game space from the inclination of the acceleration sensor, and determines the position of the indicated position in the game space according to the determined orientation of the virtual camera. The game device according to claim 6, comprising means. 前記加速度センサは3軸に関する加速度を検出可能な3軸加速度センサであって、
前記傾き算出手段は、3次元での傾きを算出する、請求項6に記載のゲーム装置。
The acceleration sensor is a three-axis acceleration sensor capable of detecting an acceleration related to three axes,
The game apparatus according to claim 6, wherein the inclination calculation unit calculates an inclination in three dimensions.
前記撮像対象が、互いに離れて配置された一対の撮像対象であり、
前記ゲーム装置は、前記撮像画像における前記一対の撮像対象間の距離から、前記撮像装置と前記一対の撮像対象との間の距離を算出する距離算出手段をさらに備え、
前記ゲーム処理手段は、前記指示位置および前記加速度センサの傾きに加えて、さらに前記撮像装置と前記1対の撮像対象との間の距離に基づいて前記ゲーム処理を行う、請求項6に記載のゲーム装置。

The imaging object is a pair of imaging objects arranged apart from each other,
The game apparatus further includes distance calculation means for calculating a distance between the imaging device and the pair of imaging targets from a distance between the pair of imaging targets in the captured image,
The game processing means performs the game processing based on a distance between the imaging device and the pair of imaging targets, in addition to the indicated position and the inclination of the acceleration sensor. Game device.

JP2006130832A 2006-05-09 2006-05-09 GAME DEVICE AND GAME PROGRAM Active JP4863761B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006130832A JP4863761B2 (en) 2006-05-09 2006-05-09 GAME DEVICE AND GAME PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006130832A JP4863761B2 (en) 2006-05-09 2006-05-09 GAME DEVICE AND GAME PROGRAM

Publications (2)

Publication Number Publication Date
JP2007301048A true JP2007301048A (en) 2007-11-22
JP4863761B2 JP4863761B2 (en) 2012-01-25

Family

ID=38835518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006130832A Active JP4863761B2 (en) 2006-05-09 2006-05-09 GAME DEVICE AND GAME PROGRAM

Country Status (1)

Country Link
JP (1) JP4863761B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209142A (en) * 2007-02-23 2008-09-11 Nintendo Co Ltd Information processing program and information processor
JP2010061545A (en) * 2008-09-05 2010-03-18 Nintendo Co Ltd Image processing program and image processing apparatus
JP2010231399A (en) * 2009-03-26 2010-10-14 Nintendo Co Ltd Information processing program and information processor
JP2012068977A (en) * 2010-09-24 2012-04-05 Nintendo Co Ltd Game processing program, device, system and method
CN101314078B (en) * 2008-06-06 2012-05-23 晶翔微系统股份有限公司 Simulation operation apparatus and operation method thereof
JP2012249760A (en) * 2011-06-01 2012-12-20 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
JP2014519666A (en) * 2011-06-20 2014-08-14 ゼットティーイー コーポレイション Mobile terminal and method for realizing cursor movement thereof
US9205327B2 (en) 2011-03-08 2015-12-08 Nintento Co., Ltd. Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method
US9375640B2 (en) 2011-03-08 2016-06-28 Nintendo Co., Ltd. Information processing system, computer-readable storage medium, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
US9561443B2 (en) 2011-03-08 2017-02-07 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method
US9643085B2 (en) 2011-03-08 2017-05-09 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data
US9925464B2 (en) 2011-03-08 2018-03-27 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device
JP2019097780A (en) * 2017-11-30 2019-06-24 株式会社スクウェア・エニックス Video game processing program, video game processing method, and video game processing system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06190144A (en) * 1992-12-28 1994-07-12 Sega Enterp Ltd Control key device
JPH07302148A (en) * 1994-05-02 1995-11-14 Wacom Co Ltd Information input device
JPH10214155A (en) * 1997-01-30 1998-08-11 Sega Enterp Ltd Input device, game processor, method therefor, and recording medium
JP2000148380A (en) * 1998-11-17 2000-05-26 Mitsumi Electric Co Ltd Controller
JP2002298160A (en) * 2001-03-29 2002-10-11 Namco Ltd Portable image generating device and program, and information storage medium
JP2003079945A (en) * 2001-09-14 2003-03-18 Taito Corp Competition game machine
JP2003325974A (en) * 2002-05-17 2003-11-18 Nintendo Co Ltd Game system and game program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06190144A (en) * 1992-12-28 1994-07-12 Sega Enterp Ltd Control key device
JPH07302148A (en) * 1994-05-02 1995-11-14 Wacom Co Ltd Information input device
JPH10214155A (en) * 1997-01-30 1998-08-11 Sega Enterp Ltd Input device, game processor, method therefor, and recording medium
JP2000148380A (en) * 1998-11-17 2000-05-26 Mitsumi Electric Co Ltd Controller
JP2002298160A (en) * 2001-03-29 2002-10-11 Namco Ltd Portable image generating device and program, and information storage medium
JP2003079945A (en) * 2001-09-14 2003-03-18 Taito Corp Competition game machine
JP2003325974A (en) * 2002-05-17 2003-11-18 Nintendo Co Ltd Game system and game program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209142A (en) * 2007-02-23 2008-09-11 Nintendo Co Ltd Information processing program and information processor
CN101314078B (en) * 2008-06-06 2012-05-23 晶翔微系统股份有限公司 Simulation operation apparatus and operation method thereof
JP2010061545A (en) * 2008-09-05 2010-03-18 Nintendo Co Ltd Image processing program and image processing apparatus
US8284158B2 (en) 2008-09-05 2012-10-09 Nintendo Co., Ltd. Computer readable recording medium recording image processing program and image processing apparatus
US9327190B2 (en) 2009-03-26 2016-05-03 Nintendo, Co., Ltd. Storage medium having stored thereon information processing program, and information procesing device
JP2010231399A (en) * 2009-03-26 2010-10-14 Nintendo Co Ltd Information processing program and information processor
US10709978B2 (en) 2009-03-26 2020-07-14 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, and information processing device
US9623330B2 (en) 2009-03-26 2017-04-18 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, and information processing device
JP2012068977A (en) * 2010-09-24 2012-04-05 Nintendo Co Ltd Game processing program, device, system and method
US9561443B2 (en) 2011-03-08 2017-02-07 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method
US9205327B2 (en) 2011-03-08 2015-12-08 Nintento Co., Ltd. Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method
US9370712B2 (en) 2011-03-08 2016-06-21 Nintendo Co., Ltd. Information processing system, information processing apparatus, storage medium having information processing program stored therein, and image display method for controlling virtual objects based on at least body state data and/or touch position data
US9375640B2 (en) 2011-03-08 2016-06-28 Nintendo Co., Ltd. Information processing system, computer-readable storage medium, and information processing method
US9492742B2 (en) 2011-03-08 2016-11-15 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9492743B2 (en) 2011-03-08 2016-11-15 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9522323B2 (en) 2011-03-08 2016-12-20 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9526981B2 (en) 2011-03-08 2016-12-27 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
US9345962B2 (en) 2011-03-08 2016-05-24 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9925464B2 (en) 2011-03-08 2018-03-27 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device
US9643085B2 (en) 2011-03-08 2017-05-09 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data
JP2012249760A (en) * 2011-06-01 2012-12-20 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
JP2014519666A (en) * 2011-06-20 2014-08-14 ゼットティーイー コーポレイション Mobile terminal and method for realizing cursor movement thereof
JP2019097780A (en) * 2017-11-30 2019-06-24 株式会社スクウェア・エニックス Video game processing program, video game processing method, and video game processing system
US10537800B2 (en) 2017-11-30 2020-01-21 Kabushiki Kaisha Square Enix Video game processing program, video game processing method, and video game processing system
US10722794B2 (en) 2017-11-30 2020-07-28 Kabushiki Kaisha Square Enix Video game processing program, video game processing method, and video game processing system

Also Published As

Publication number Publication date
JP4863761B2 (en) 2012-01-25

Similar Documents

Publication Publication Date Title
JP4863761B2 (en) GAME DEVICE AND GAME PROGRAM
JP5330640B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4907129B2 (en) Information processing system and program
JP4260814B2 (en) GAME DEVICE AND GAME PROGRAM
JP5075330B2 (en) Information processing program
JP5643549B2 (en) Image processing system, image processing program, image processing apparatus, and image processing method
JP4989105B2 (en) Game controller
JP4773170B2 (en) Game program and game system
US7905782B2 (en) Game apparatus having general-purpose remote control function
US7815508B2 (en) Game device and storage medium storing game program
JP2007236697A (en) Image processor and image processing program
JP2007256100A (en) Position calculator, position calculation program, game unit, and game program
JP2009064449A (en) Controller and computer system
JP5396620B2 (en) Information processing program and information processing apparatus
JP2007061271A (en) Game system and game program
JP5037842B2 (en) Information processing apparatus and program
JP2008000345A (en) Game device and game program
JP2007300985A (en) Game program and game device
JP4917347B2 (en) GAME DEVICE AND GAME PROGRAM
JP2010142404A (en) Game program, and game apparatus
JP2008253561A (en) Program and computer
JP5945297B2 (en) GAME PROGRAM AND GAME DEVICE
JP5350612B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP2008099755A (en) Game program and game apparatus
JP5735866B2 (en) Information processing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110727

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4863761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250