JP5735865B2 - Game system and game program - Google Patents

Game system and game program Download PDF

Info

Publication number
JP5735865B2
JP5735865B2 JP2011135264A JP2011135264A JP5735865B2 JP 5735865 B2 JP5735865 B2 JP 5735865B2 JP 2011135264 A JP2011135264 A JP 2011135264A JP 2011135264 A JP2011135264 A JP 2011135264A JP 5735865 B2 JP5735865 B2 JP 5735865B2
Authority
JP
Japan
Prior art keywords
game
data
operation data
virtual
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011135264A
Other languages
Japanese (ja)
Other versions
JP2011183205A (en
Inventor
昭夫 池田
昭夫 池田
敬三 太田
敬三 太田
英也 赤坂
英也 赤坂
祐輝 高橋
祐輝 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2011135264A priority Critical patent/JP5735865B2/en
Publication of JP2011183205A publication Critical patent/JP2011183205A/en
Application granted granted Critical
Publication of JP5735865B2 publication Critical patent/JP5735865B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ゲームシステムおよびゲームプログラムに関し、より特定的には、2つのコントローラを用いて操作するゲームシステムおよびゲームプログラムに関する。   The present invention relates to a game system and a game program, and more particularly to a game system and a game program that are operated using two controllers.

プレイヤが両手にそれぞれコントロールユニットを把持してゲーム操作するコントローラが開示されている(例えば、特許文献1参照)。   A controller is disclosed in which a player operates a game by holding the control unit with both hands (see, for example, Patent Document 1).

特許文献1に開示されたコントローラは、プレイヤの右手で把持されるRユニットと左手で把持されるLユニットとから構成される。RユニットおよびLユニットは、それぞれハウジング上面や側面に操作ボタンやスティックが配置されている。そして、RユニットおよびLユニットは物理的に連結することが可能であり、連結した場合に合体型のコントローラとして使用することができる。   The controller disclosed in Patent Document 1 includes an R unit that is gripped by the player's right hand and an L unit that is gripped by the left hand. In the R unit and the L unit, operation buttons and sticks are arranged on the upper surface and side surfaces of the housing, respectively. The R unit and the L unit can be physically connected, and when connected, can be used as a combined controller.

特開2004−313492号公報JP 2004-313492 A

しかしながら、上記特許文献1に開示されたコントローラは、従来のゲーム機用コントローラを左右に分離できるように構成したに過ぎない。つまり、プレイヤが左右の手にそれぞれRユニットおよびLユニットを把持することによって、プレイヤの左右の手の位置が自由になるだけであって、コントローラ自体の操作の自由度が変わるわけではない。例えば、ゲーム機用コントローラを左右に分離することによって、合体型では操作できなかった新たな操作が可能になるわけではない。   However, the controller disclosed in Patent Document 1 is merely configured so that a conventional game machine controller can be separated into left and right. That is, when the player holds the R unit and the L unit with the left and right hands, the position of the left and right hands of the player is only free, and the degree of freedom of operation of the controller itself does not change. For example, separating the game machine controller on the left and right does not enable new operations that could not be performed with the combined type.

また、上記コントローラでシューティングゲームをプレイする場合、射撃の照準を移動させるためにスティックが用いられることが多い。このとき、画面上で照準が移動する方向とコントローラ上でスティックを傾倒する方向とが実空間において異なる方向であるため、直感的に操作方向が把握しにくい。したがって、スティックを傾倒する方向と画面上での移動方向との対応関係について、プレイヤの個人差によって認識が異なり、プレイヤの好みに応じた方向設定を可能にするため、リバースモードを設ける必要がある。また、合体型の場合、2本のスティックの可動方向がコントローラ上の同一平面内になり、ゲームの仮想空間内で奥行き方向の移動が可能なキャラクタと表示領域上の平面内を移動する照準とをそれぞれ操作する場合には、ユーザの認識のし易さという点において不適である。さらに、RユニットおよびLユニットは、それぞれ右手用および左手用に固定されているため、利き手に応じた操作を設定することが困難である。   When playing a shooting game with the controller, a stick is often used to move the aim of shooting. At this time, since the direction in which the aim moves on the screen and the direction in which the stick is tilted on the controller are different directions in the real space, it is difficult to intuitively grasp the operation direction. Therefore, in order to make it possible to set the direction according to the player's preference, it is necessary to provide a reverse mode for the correspondence relationship between the direction of tilting the stick and the moving direction on the screen depending on the individual difference of the player. . In the case of the combined type, the moving direction of the two sticks is in the same plane on the controller, a character that can move in the depth direction in the virtual space of the game, and an aim that moves in the plane on the display area Is not suitable in terms of ease of recognition by the user. Furthermore, since the R unit and the L unit are fixed for the right hand and the left hand, respectively, it is difficult to set an operation according to the dominant hand.

また、ロールプレイングゲームをプレイする場合等には、ゲーム進行中にメニュー選択が必要となることがある。この場合、上記コントローラによるゲーム操作では、方向キー等による入力を必要とし、選択項目を1つずつ移動させるため、メニュー選択に時間を要し、リアルタイムでゲームが進行するゲームの場合、メニューの選択肢を選択している間にプレイヤキャラクタの操作ができずにプレイを失敗することがある。また、キャラクタの向きを変えるためには、スティック等の操作部を倒し続ける必要があり、素早く方向転換ができない。   In addition, when playing a role-playing game, menu selection may be necessary while the game is in progress. In this case, the game operation by the controller requires an input with a direction key or the like, and the selection items are moved one by one. Therefore, menu selection takes time, and in the case of a game in which the game progresses in real time, the menu option The player character may not be operated while the player is selected, and play may fail. In addition, in order to change the direction of the character, it is necessary to continue to push down the operation unit such as a stick, and the direction cannot be quickly changed.

それ故に、本発明の目的は、複数のコントローラを用いて自由度の高い新たな操作を実現するゲームシステムおよびゲームプログラムを提供することである。   Therefore, an object of the present invention is to provide a game system and a game program that realize a new operation with a high degree of freedom using a plurality of controllers.

上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。   In order to achieve the above object, the present invention employs the following configuration. Note that the reference numerals in parentheses, step numbers, and the like indicate correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the scope of the present invention.

第1の発明は、第1のコントローラ(70)、第2のコントローラ(76)、およびゲーム装置(3)を備えるゲームシステム(1)である。ゲーム装置は、所定のゲームプログラムを実行して2次元または3次元の仮想ゲーム世界を表示装置(2)の表示領域に表示させる。第1のコントローラは、第1操作データ発生部(74、701)を含む。第1操作データ発生部は、その第1のコントローラ本体の動きによって変化するデータである第1操作データ(Da1、Da2、Da5)を発生する。第2のコントローラは、第2操作データ発生部(78)を含む。第2操作データ発生部は、プレイヤの方向入力操作に応じた第2操作データ(Da3)を発生する。ゲーム装置は、ゲーム処理手段(S52〜S56)と、表示処理手段(S57)とを含む。ゲーム処理手段は、第1操作データおよび第2操作データを取得し、それら両操作データに応じて仮想ゲーム世界に対して所定のゲーム処理を行う。表示処理手段は、ゲーム処理を行った後の仮想ゲーム世界を画像として表示装置の表示領域に表示させる。   A first invention is a game system (1) including a first controller (70), a second controller (76), and a game apparatus (3). The game device executes a predetermined game program to display a two-dimensional or three-dimensional virtual game world in the display area of the display device (2). The first controller includes a first operation data generation unit (74, 701). The first operation data generation unit generates first operation data (Da1, Da2, Da5) that is data that changes according to the movement of the first controller body. The second controller includes a second operation data generation unit (78). The second operation data generation unit generates second operation data (Da3) corresponding to the player's direction input operation. The game device includes game processing means (S52 to S56) and display processing means (S57). The game processing means acquires the first operation data and the second operation data, and performs a predetermined game process on the virtual game world according to both the operation data. The display processing means displays the virtual game world after the game processing as an image in the display area of the display device.

第2の発明は、上記第1の発明において、ゲーム処理手段は、指示座標決定手段(S53)を含む。指示座標決定手段は、第1操作データに基づいて、表示装置の表示領域に対応した所定の座標を指示座標(Dc3)として決定する。ゲーム処理手段は、指示座標および第2操作データを所定の演算に用いてゲーム処理を行う。   In a second aspect based on the first aspect, the game processing means includes designated coordinate determination means (S53). The designated coordinate determining means determines a predetermined coordinate corresponding to the display area of the display device as the designated coordinate (Dc3) based on the first operation data. The game processing means performs a game process using the designated coordinates and the second operation data for a predetermined calculation.

第3の発明は、上記第2の発明において、第1のコントローラは、撮像部(74)を含む。撮像部は、そのコントローラ本体に固設され、そのコントローラ本体を基準に所定方向の周辺を撮像可能である。第1操作データは、その撮像部によって撮像した撮像画像自体または撮像画像に所定の演算を行った結果(Da1、Da2)を含む。指示座標決定手段は、撮像画像内の所定の撮像対象(8)の位置の動きに対応させて指示座標を所定位置から移動させることによって指示座標を決定する。   In a third aspect based on the second aspect, the first controller includes an imaging unit (74). The imaging unit is fixed to the controller main body, and can image a periphery in a predetermined direction with reference to the controller main body. The first operation data includes a captured image itself captured by the imaging unit or a result (Da1, Da2) obtained by performing a predetermined calculation on the captured image. The designated coordinate determining means determines the designated coordinates by moving the designated coordinates from the predetermined position in correspondence with the movement of the position of the predetermined imaging target (8) in the captured image.

第4の発明は、上記第2の発明において、第1のコントローラは、加速度センサ(701)を含む。第1操作データは、加速度センサから出力される加速度データ(Da5)を含む。指示座標決定手段は、加速度データに対応させて指示座標を所定位置から移動させることによって指示座標を決定する。   In a fourth aspect based on the second aspect, the first controller includes an acceleration sensor (701). The first operation data includes acceleration data (Da5) output from the acceleration sensor. The designated coordinate determining means determines the designated coordinates by moving the designated coordinates from a predetermined position in correspondence with the acceleration data.

第5の発明は、上記第2の発明において、ゲーム処理手段は、指示座標に対応する3次元の仮想ゲーム空間(S)内の3次元指示座標を求め、その3次元指示座標を用いた演算を含むゲーム処理を行う。表示処理手段は、ゲーム処理手段のゲーム処理した3次元の仮想ゲーム空間を表示装置の表示領域に表示する処理を行う。   In a fifth aspect based on the second aspect, the game processing means obtains a three-dimensional designated coordinate in the three-dimensional virtual game space (S) corresponding to the designated coordinate and performs an operation using the three-dimensional designated coordinate. A game process including The display processing means performs processing for displaying the three-dimensional virtual game space processed by the game processing means on the display area of the display device.

第6の発明は、上記第5の発明において、ゲーム処理手段は、3次元指示座標の位置に存在するオブジェクト(E)に対して、所定の処理を行う。   In a sixth aspect based on the fifth aspect, the game processing means performs predetermined processing on the object (E) existing at the position of the three-dimensional designated coordinates.

第7の発明は、上記第2の発明において、ゲーム処理手段は、指示座標に対応した位置に所定のオブジェクト(T)を配置する。   In a seventh aspect based on the second aspect, the game processing means places a predetermined object (T) at a position corresponding to the designated coordinates.

第8の発明は、上記第2の発明において、ゲーム処理手段は、複数の選択項目(M1〜M7)からプレイヤの選択を促すメニュー領域を少なくとも含む仮想ゲーム世界を生成する。ゲーム処理手段は、表示領域において指示座標を含む位置(Cs)に表示されている選択項目を選択する処理を行う。   In an eighth aspect based on the second aspect, the game processing means generates a virtual game world including at least a menu area that prompts the player to select from a plurality of selection items (M1 to M7). The game processing means performs a process of selecting a selection item displayed at a position (Cs) including the designated coordinates in the display area.

第9の発明は、上記第5〜第8のいずれかの発明において、ゲーム処理手段は、第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタ(P)の位置座標、仮想カメラ(C)の位置座標、および仮想カメラの方向ベクトルのうち少なくとも1つを変化させる。   According to a ninth invention, in any one of the fifth to eighth inventions, the game processing means associates the position coordinates of the player character (P) in the virtual game world with the virtual camera (C ) And the direction vector of the virtual camera are changed.

第10の発明は、上記第5の発明において、ゲーム処理手段は、3次元指示座標に仮想カメラの注視点が一致するように仮想カメラの方向を移動させる。   In a tenth aspect based on the fifth aspect, the game processing means moves the direction of the virtual camera so that the gazing point of the virtual camera coincides with the three-dimensional designated coordinates.

第11の発明は、上記第1の発明において、ゲーム処理手段は、第1のコントローラの動きによる第1操作データの変化量に対して所定の演算を行い、表示領域に対応した座標系における所定の移動ベクトルを決定し、3次元の仮想ゲーム空間における仮想カメラの注視点が、表示領域上でその移動ベクトルに対応して移動するように仮想カメラの方向を移動する。表示処理手段は、ゲーム処理手段のゲーム処理した3次元の仮想ゲーム空間を表示装置の表示領域に表示する処理を行う。   In an eleventh aspect based on the first aspect, the game processing means performs a predetermined calculation on the change amount of the first operation data due to the movement of the first controller, and performs a predetermined calculation in a coordinate system corresponding to the display area. And the direction of the virtual camera is moved so that the gazing point of the virtual camera in the three-dimensional virtual game space moves in accordance with the movement vector on the display area. The display processing means performs processing for displaying the three-dimensional virtual game space processed by the game processing means on the display area of the display device.

第12の発明は、上記第10または第11の発明において、ゲーム処理手段は、第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタの位置座標および仮想カメラの位置座標の少なくとも一方を変化させる。   In a twelfth aspect based on the tenth or eleventh aspect, the game processing means changes at least one of the position coordinates of the player character and the position coordinates of the virtual camera in the virtual game world in accordance with the second operation data. Let

第13の発明は、ゲーム装置のコンピュータ(30)で実行可能なゲームプログラムである。ゲーム装置は、第1のコントローラ本体の動きによって変化するデータである第1操作データと、第2のコントローラに与えられた方向入力操作に応じた第2操作データとを取得する。ゲームプログラムは、ゲーム処理ステップ(S52〜S56)および表示処理ステップ(S57)を、コンピュータに実行させる。ゲーム処理ステップは、第1操作データおよび第2操作データを取得し、それら両操作データに応じて2次元または3次元の仮想ゲーム世界に対して所定のゲーム処理を行う。表示処理ステップは、コンピュータに実行させるゲーム処理を行った後の仮想ゲーム世界を画像として表示装置の表示領域に表示させる。   The thirteenth invention is a game program that can be executed by the computer (30) of the game apparatus. The game device acquires first operation data that is data that changes according to the movement of the first controller body, and second operation data that corresponds to the direction input operation given to the second controller. The game program causes the computer to execute a game processing step (S52 to S56) and a display processing step (S57). In the game processing step, the first operation data and the second operation data are acquired, and predetermined game processing is performed on the two-dimensional or three-dimensional virtual game world according to the two operation data. In the display processing step, the virtual game world after performing the game processing to be executed by the computer is displayed as an image on the display area of the display device.

第14の発明は、上記第13の発明において、ゲーム処理ステップは、指示座標決定ステップ(S53)を含む。指示座標決定ステップは、第1操作データに基づいて、表示装置の表示領域に対応した所定の座標を指示座標として決定する。ゲーム処理ステップは、指示座標および第2操作データを所定の演算に用いてゲーム処理を行うステップを含む。   In a fourteenth aspect based on the thirteenth aspect, the game processing step includes a designated coordinate determining step (S53). In the designated coordinate determining step, predetermined coordinates corresponding to the display area of the display device are determined as designated coordinates based on the first operation data. The game processing step includes a step of performing a game process using the designated coordinates and the second operation data for a predetermined calculation.

第15の発明は、上記第14の発明において、第1操作データは、画像または画像に所定の演算を行った結果を含む。指示座標決定ステップは、画像内の所定の対象の位置の動きを検出するステップと、動きに対応させて指示座標を所定位置から移動させることによって新たな指示座標を決定するステップとを含む。   In a fifteenth aspect based on the fourteenth aspect, the first operation data includes an image or a result obtained by performing a predetermined calculation on the image. The designated coordinate determining step includes a step of detecting a movement of a predetermined target position in the image and a step of determining a new designated coordinate by moving the designated coordinate from the predetermined position in correspondence with the movement.

第16の発明は、上記第14の発明において、第1操作データは、第1のコントローラに設けられた加速度センサから出力される加速度データを含む。指示座標決定ステップは、加速度データに対応させて指示座標を所定位置から移動させることによって新たな指示座標を決定するステップを含む。   In a sixteenth aspect based on the fourteenth aspect, the first operation data includes acceleration data output from an acceleration sensor provided in the first controller. The designated coordinate determining step includes a step of determining a new designated coordinate by moving the designated coordinate from a predetermined position in correspondence with the acceleration data.

第17の発明は、上記第14の発明において、ゲーム処理ステップは、指示座標に対応する3次元の仮想ゲーム空間内の3次元指示座標を求めるステップと、3次元指示座標を用いた演算を含むゲーム処理を行うステップとを含む。表示処理ステップは、ゲーム処理ステップでゲーム処理した3次元の仮想ゲーム空間を表示装置の表示領域に表示するステップを含む。   In a seventeenth aspect based on the fourteenth aspect, the game processing step includes a step of obtaining a three-dimensional designated coordinate in a three-dimensional virtual game space corresponding to the designated coordinate, and an operation using the three-dimensional designated coordinate. Performing a game process. The display processing step includes a step of displaying in the display area of the display device the three-dimensional virtual game space in which the game processing is performed in the game processing step.

第18の発明は、上記第17の発明において、ゲーム処理ステップは、3次元指示座標の位置に存在するオブジェクトを検出するステップと、オブジェクトに対して所定の処理を行うステップとを含む。   In an eighteenth aspect based on the seventeenth aspect, the game processing step includes a step of detecting an object existing at the position of the three-dimensional designated coordinates and a step of performing a predetermined process on the object.

第19の発明は、上記第14の発明において、ゲーム処理ステップは、指示座標に対応した位置に所定のオブジェクトを配置するステップを含む。   In a nineteenth aspect based on the fourteenth aspect, the game processing step includes a step of arranging a predetermined object at a position corresponding to the designated coordinates.

第20の発明は、上記第14の発明において、ゲーム処理ステップは、複数の選択項目からプレイヤの選択を促すメニュー領域を少なくとも含む仮想ゲーム世界を生成するステップと、表示領域において指示座標を含む位置に表示されている選択項目を選択処理するステップとを含む。   In a twentieth aspect based on the fourteenth aspect, the game processing step includes a step of generating a virtual game world including at least a menu area that prompts the player to select from a plurality of selection items, and a position including the designated coordinates in the display area. And selecting the selected item displayed on the screen.

第21の発明は、上記第17〜第20のいずれかの発明において、ゲーム処理ステップは、第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタの位置座標、仮想カメラの位置座標、および仮想カメラの方向ベクトルのうち少なくとも1つを変化させるステップを含む。   In a twenty-first aspect based on any one of the seventeenth to twentieth aspects, the game processing step corresponds to the second operation data, and the position coordinates of the player character in the virtual game world, the position coordinates of the virtual camera, and Changing at least one of the direction vectors of the virtual camera.

第22の発明は、上記第17の発明において、ゲーム処理ステップは、3次元指示座標に仮想カメラの注視点が一致するように仮想カメラの方向を移動させるステップを含む。   In a twenty-second aspect based on the seventeenth aspect, the game processing step includes a step of moving the direction of the virtual camera so that the gazing point of the virtual camera coincides with the three-dimensional designated coordinates.

第23の発明は、上記第13の発明において、ゲーム処理ステップは、第1のコントローラの動きによる第1操作データの変化量に対して所定の演算を行うステップと、表示領域に対応した座標系における所定の移動ベクトルを決定するステップと、3次元の仮想ゲーム空間における仮想カメラの注視点が、表示領域上でその移動ベクトルに対応して移動するように仮想カメラの方向を移動するステップとを含む。表示処理ステップは、ゲーム処理ステップでゲーム処理した3次元の仮想ゲーム空間を表示装置の表示領域に表示するステップを含む。   In a twenty-third aspect based on the thirteenth aspect, the game processing step includes a step of performing a predetermined calculation on a change amount of the first operation data due to the movement of the first controller, and a coordinate system corresponding to the display area. Determining a predetermined movement vector in step, and moving the virtual camera in a direction so that the gazing point of the virtual camera in the three-dimensional virtual game space moves in accordance with the movement vector on the display area. Including. The display processing step includes a step of displaying in the display area of the display device the three-dimensional virtual game space in which the game processing is performed in the game processing step.

第24の発明は、上記第22または第23の発明において、ゲーム処理ステップは、第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタの位置座標および仮想カメラの位置座標の少なくとも一方を変化させるステップを含む。   In a twenty-fourth aspect based on the twenty-second or twenty-third aspect, the game processing step changes at least one of the position coordinate of the player character and the position coordinate of the virtual camera in the virtual game world in accordance with the second operation data. Including a step.

上記第1の発明によれば、第1のコントローラは、コントローラ本体を動きによって変化する操作データを発生し、第2のコントローラは、方向入力操作に応じた操作データを発生させるようにしている。これにより、ゲームにおいてこれらのゲームコントローラを利用するためには、プレイヤの一方の手は手自体を動かし、他方の手は従来のコントローラと同じように指による入力を行わせることができる。つまり、プレイヤの左右の手で全く異なる操作をさせることが可能になるので、従来にない新たな操作を提供することができる。   According to the first aspect, the first controller generates operation data that changes according to the movement of the controller body, and the second controller generates operation data corresponding to the direction input operation. Thus, in order to use these game controllers in a game, one hand of the player can move the hand itself, and the other hand can be input with a finger in the same manner as a conventional controller. In other words, since it is possible to perform completely different operations with the left and right hands of the player, it is possible to provide a new operation that has not been conventionally performed.

上記第2の発明によれば、コントローラの本体の動きに応じた信号に応じて表示装置の表示領域に対応した指示座標が設定されるため、表示画面に直接作用する操作入力として用いることができ、より自由度の高い入力が可能となる。   According to the second aspect, the instruction coordinates corresponding to the display area of the display device are set according to the signal corresponding to the movement of the main body of the controller, and therefore can be used as an operation input that directly acts on the display screen. , Input with a higher degree of freedom becomes possible.

上記第3の発明によれば、第1のコントローラに固設された撮像部で撮像された撮像画像または撮像画像から得られる情報を操作データとして用いることができる。例えば、撮像対象に対する当該第1のコントローラの方向や位置を検出できるため、コントローラ方向や位置に応じたゲーム操作が可能となる。   According to the third aspect, it is possible to use the captured image captured by the imaging unit fixed to the first controller or information obtained from the captured image as the operation data. For example, since the direction and position of the first controller with respect to the imaging target can be detected, a game operation according to the controller direction and position is possible.

上記第4の発明によれば、加速度センサを利用することによって、第1操作データ発生部のコストを抑えることができる。   According to the fourth aspect, the cost of the first operation data generation unit can be suppressed by using the acceleration sensor.

上記第5の発明によれば、3次元の仮想ゲーム空間を表示するゲームにおいて、コントローラの本体の動きに応じた信号に応じて当該仮想ゲーム空間内に指示座標を設定することができる。   According to the fifth aspect, in a game displaying a three-dimensional virtual game space, it is possible to set designated coordinates in the virtual game space according to a signal corresponding to the movement of the main body of the controller.

上記第6の発明によれば、コントローラの本体の動きに応じた信号に応じた指示座標の位置に存在するオブジェクトに影響を与える(例えば、当該位置のオブジェクトを射撃)ゲーム処理が可能となる。   According to the sixth aspect of the invention, it is possible to perform a game process that affects an object that exists at the position of the designated coordinate corresponding to the signal corresponding to the movement of the main body of the controller (for example, shooting an object at the position).

上記第7の発明によれば、コントローラの本体の動きに応じた信号に応じた指示座標の位置にオブジェクト(例えば、照準カーソル)を配置するゲーム処理が可能となる。   According to the seventh aspect, it is possible to perform a game process in which an object (for example, an aiming cursor) is placed at the position of the designated coordinate corresponding to the signal corresponding to the movement of the main body of the controller.

上記第8の発明によれば、プレイヤは、他方の手で直接的に項目の選択ができるので、時間的なロスが少なく快適な操作ができる。   According to the eighth aspect of the invention, the player can directly select an item with the other hand, so that the player can perform a comfortable operation with little time loss.

上記第9の発明によれば、一方の手でコントローラ本体の動きに応じて表示画面に直接作用する操作入力を実現しながら、他方の手で方向入力操作を行うことによって、バリエーションに富んだ操作が可能となる。例えば、プレイヤが行う方向指示操作とゲーム空間の位置を指定する操作とが別々のコントローラで行うことができるため、それぞれの操作が互いに影響し合うことがなく安定した2つの方向指示操作を行うことができる。また、利き手に応じて2つのコントローラを使い分けることも可能となる。また、例えば、一方のコントローラをプレイヤキャラクタ等の移動指示に用いながら、他方のコントローラを用いて指示する位置を注視することができる。また、例えば、一方の手でキャラクタ等の操作を行い、他方の手で直接的に項目の選択ができるので、時間的なロスが少なく快適な操作ができる。   According to the ninth aspect, a variety of operations can be performed by performing a direction input operation with the other hand while realizing an operation input that directly acts on the display screen according to the movement of the controller body with one hand. Is possible. For example, since the direction instruction operation performed by the player and the operation of designating the position of the game space can be performed by separate controllers, two stable direction instruction operations can be performed without affecting each other. Can do. It is also possible to use the two controllers properly according to the dominant hand. Further, for example, while using one controller for a movement instruction of a player character or the like, it is possible to watch the position designated using the other controller. In addition, for example, an operation of a character or the like can be performed with one hand and an item can be directly selected with the other hand, so that a comfortable operation can be performed with little time loss.

上記第10および第11の発明によれば、コントローラ本体の動きに応じた操作入力によって注視点が移動するため、必要に応じて素早い方向転換が可能となり、直感的な入力であるためリバースモードが不要となる。   According to the tenth and eleventh aspects of the invention, the point of gazing is moved by an operation input corresponding to the movement of the controller body, so that it is possible to quickly change the direction as necessary, and since the input is intuitive, the reverse mode is set. It becomes unnecessary.

上記第12の発明によれば、一方のコントローラをプレイヤキャラクタや仮想カメラ等の移動指示に用いながら、他方のコントローラを用いて指示する位置を注視することができる。   According to the twelfth aspect of the invention, it is possible to gaze at a position to be instructed using the other controller while using one controller for instructing movement of the player character, virtual camera, or the like.

また、本発明のゲームプログラムによれば、ゲーム装置のコンピュータで実行することによって上述したゲームシステムと同様の効果を得ることができる。   Moreover, according to the game program of this invention, the same effect as the game system mentioned above can be acquired by running with the computer of a game device.

本発明の一実施形態に係るゲームシステム1を説明するための外観図1 is an external view for explaining a game system 1 according to an embodiment of the present invention. 図1のゲーム装置3の機能ブロック図Functional block diagram of the game apparatus 3 of FIG. 図1のコントローラ7の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 7 of FIG. 図3のコントローラ7の接続ケーブル79をコアユニット70から脱着する状態を示す斜視図3 is a perspective view showing a state in which the connection cable 79 of the controller 7 of FIG. 3 is detached from the core unit 70. FIG. 図3のコアユニット70の上面後方から見た斜視図The perspective view seen from the upper surface back of the core unit 70 of FIG. 図3のコアユニット70を下面後方から見た斜視図The perspective view which looked at the core unit 70 of FIG. 3 from the lower surface back. 図3のコアユニット70の上筐体を外した状態を示す斜視図The perspective view which shows the state which removed the upper housing | casing of the core unit 70 of FIG. 図3のサブユニット76の上面図、下面図、および左側面図Top view, bottom view, and left side view of subunit 76 of FIG. 図3のサブユニット76の上面前方から見た斜視図The perspective view seen from the upper surface front of the subunit 76 of FIG. 図3のサブユニット76の第1の変形例を示す上面図FIG. 3 is a top view showing a first modification of the subunit 76 in FIG. 図3のサブユニット76の第2の変形例を示す上面図FIG. 3 is a top view showing a second modification of the subunit 76 in FIG. 図3のサブユニット76の第3の変形例を示す上面図FIG. 3 is a top view showing a third modification of the subunit 76 in FIG. 図3のサブユニット76の第4の変形例を示す上面図FIG. 3 is a top view showing a fourth modification of the subunit 76 in FIG. 図3のコントローラ7の構成を示すブロック図The block diagram which shows the structure of the controller 7 of FIG. 図3のコントローラ7を用いてゲーム操作するときの状態を概説する図解図An illustrative view outlining the state when operating the game using the controller 7 of FIG. プレイヤがコアユニット70を右手で把持した状態をコアユニット70の前面側から見た一例An example in which the player holds the core unit 70 with his right hand as viewed from the front side of the core unit 70 プレイヤがコアユニット70を右手で把持した状態をコアユニット70の左側面側から見た一例An example in which the player holds the core unit 70 with his right hand as viewed from the left side of the core unit 70 LEDモジュール8Lおよび8Rと撮像情報演算部74との視野角を説明するための図The figure for demonstrating the viewing angle of LED module 8L and 8R and the imaging information calculating part 74 プレイヤがサブユニット76を左手で把持した状態をサブユニット76の右側面側から見た一例An example of the player holding the subunit 76 with his left hand as viewed from the right side of the subunit 76 ゲーム装置3のメインメモリ33に記憶される主なデータを示す図The figure which shows the main data memorize | stored in the main memory 33 of the game device 3 ゲーム装置3において実行されるゲーム処理の流れを示すフローチャートThe flowchart which shows the flow of the game process performed in the game device 3 第1の例として、ゲーム装置3がシューティングゲームを実行する際にモニタ2に表示されるゲーム画像例を示す図The figure which shows the example of a game image displayed on the monitor 2 when the game device 3 performs a shooting game as a 1st example 第2の例としてゲーム装置3がゲーム画像を作成する際の仮想カメラCの状態を示す図The figure which shows the state of the virtual camera C when the game device 3 produces a game image as a 2nd example. 第3の例として、ゲーム装置3がロールプレイングゲームを実行する際にモニタ2に表示されるゲーム画像例を示す図The figure which shows the example of a game image displayed on the monitor 2 when the game device 3 performs a role playing game as a 3rd example.

図1を参照して、本発明の一実施形態に係るゲームシステム1について説明する。なお、図1は、当該ゲームシステム1を説明するための外観図である。以下、据置型ゲーム装置を一例にして、本発明のゲームシステム1について説明する。   A game system 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an external view for explaining the game system 1. Hereinafter, the game system 1 of the present invention will be described using a stationary game apparatus as an example.

図1において、当該ゲームシステム1は、家庭用テレビジョン受像機等のスピーカ2aを備えたディスプレイ(以下、モニタと記載する)2に、接続コードを介して接続される据置型ゲーム装置(以下、単にゲーム装置と記載する)3および当該ゲーム装置3に操作情報を与えるコントローラ7によって構成される。ゲーム装置3は、接続端子を介して受信ユニット6が接続される。受信ユニット6は、コントローラ7から無線送信される送信データを受信し、コントローラ7とゲーム装置3とは無線通信によって接続される。また、ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例の光ディスク4が脱着される。ゲーム装置3の上部主面には、当該ゲーム装置3の電源ON/OFFスイッチ、ゲーム処理のリセットスイッチ、およびゲーム装置3上部の蓋を開くOPENスイッチが設けられている。ここで、プレイヤがOPENスイッチを押下することによって上記蓋が開き、光ディスク4の脱着が可能となる。   In FIG. 1, the game system 1 includes a stationary game apparatus (hereinafter referred to as a monitor) 2 connected to a display (hereinafter referred to as a monitor) 2 having a speaker 2a such as a home television receiver via a connection cord. 3) and a controller 7 that gives operation information to the game apparatus 3. The game apparatus 3 is connected to the receiving unit 6 via a connection terminal. The receiving unit 6 receives transmission data wirelessly transmitted from the controller 7, and the controller 7 and the game apparatus 3 are connected by wireless communication. Further, an optical disk 4 as an example of an information storage medium that can be used interchangeably with the game apparatus 3 is attached to and detached from the game apparatus 3. The upper main surface of the game apparatus 3 is provided with a power ON / OFF switch of the game apparatus 3, a reset switch for game processing, and an OPEN switch for opening the lid on the upper part of the game apparatus 3. Here, when the player presses the OPEN switch, the lid is opened, and the optical disk 4 can be attached and detached.

また、ゲーム装置3には、セーブデータ等を固定的に記憶するバックアップメモリ等を搭載する外部メモリカード5が必要に応じて着脱自在に装着される。ゲーム装置3は、光ディスク4に記憶されたゲームプログラムなどを実行することによって、その結果をゲーム画像としてモニタ2に表示する。さらに、ゲーム装置3は、外部メモリカード5に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2に表示することもできる。そして、ゲーム装置3のプレイヤは、モニタ2に表示されたゲーム画像を見ながら、コントローラ7を操作することによって、ゲーム進行を楽しむことができる。   Further, an external memory card 5 equipped with a backup memory or the like for storing save data or the like in a fixed manner is detachably attached to the game apparatus 3 as necessary. The game apparatus 3 displays a result as a game image on the monitor 2 by executing a game program or the like stored on the optical disc 4. Furthermore, the game apparatus 3 can reproduce the game state executed in the past by using the save data stored in the external memory card 5 and display the game image on the monitor 2. Then, the player of the game apparatus 3 can enjoy the progress of the game by operating the controller 7 while viewing the game image displayed on the monitor 2.

コントローラ7は、その内部に備える通信部75(後述)から受信ユニット6が接続されたゲーム装置3へ、例えばBluetooth(ブルートゥース)(登録商標)の技術を用いて送信データを無線送信する。コントローラ7は、2つのコントロールユニット(コアユニット70およびサブユニット76)が屈曲自在な接続ケーブル79を介して互いに接続されて構成されており、主にモニタ2に表示されるゲーム空間に登場するプレイヤオブジェクトを操作するための操作手段である。コアユニット70およびサブユニット76は、それぞれ複数の操作ボタン、キー、およびスティック等の操作部が設けられている。また、後述により明らかとなるが、コアユニット70は、当該コアユニット70から見た画像を撮像する撮像情報演算部74を備えている。また、撮像情報演算部74の撮像対象の一例として、モニタ2の表示画面近傍に2つのLEDモジュール8Lおよび8Rが設置される。これらLEDモジュール8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力する。なお、本実施例では、コアユニット70とサブユニット76を屈曲自在なケーブルで接続したが、サブユニット76に無線ユニットを搭載することで、接続ケーブル79をなくすこともできる。例えば、無線ユニットとしてBluetooth(登録商標)ユニットをサブユニット76に搭載することで、サブユニット76からコアユニット70へ操作データを送信することが可能になる。   The controller 7 wirelessly transmits transmission data from a communication unit 75 (described later) provided therein to the game apparatus 3 to which the receiving unit 6 is connected, using, for example, Bluetooth (registered trademark) technology. The controller 7 is configured by connecting two control units (a core unit 70 and a subunit 76) to each other via a flexible connection cable 79, and a player appearing in a game space mainly displayed on the monitor 2. It is an operation means for operating the object. Each of the core unit 70 and the subunit 76 is provided with a plurality of operation units such as operation buttons, keys, and sticks. In addition, as will be apparent from the description below, the core unit 70 includes an imaging information calculation unit 74 that captures an image viewed from the core unit 70. In addition, as an example of an imaging target of the imaging information calculation unit 74, two LED modules 8L and 8R are installed near the display screen of the monitor 2. These LED modules 8L and 8R each output infrared light toward the front of the monitor 2. In the present embodiment, the core unit 70 and the subunit 76 are connected by a bendable cable, but the connection cable 79 can be eliminated by mounting a wireless unit on the subunit 76. For example, by mounting a Bluetooth (registered trademark) unit as a wireless unit in the subunit 76, operation data can be transmitted from the subunit 76 to the core unit 70.

次に、図2を参照して、ゲーム装置3の構成について説明する。なお、図2は、ゲーム装置3の機能ブロック図である。   Next, the configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a functional block diagram of the game apparatus 3.

図2において、ゲーム装置3は、各種プログラムを実行する例えばリスク(RISC)CPU(セントラルプロセッシングユニット)30を備える。CPU30は、図示しないブートROMに記憶された起動プログラムを実行し、メインメモリ33等のメモリの初期化等を行った後、光ディスク4に記憶されているゲームプログラムの実行し、そのゲームプログラムに応じたゲーム処理等を行うものである。CPU30には、メモリコントローラ31を介して、GPU(Graphics Processing Unit)32、メインメモリ33、DSP(Digital Signal Processor)34、およびARAM(Audio RAM)35が接続される。また、メモリコントローラ31には、所定のバスを介して、コントローラI/F(インターフェース)36、ビデオI/F37、外部メモリI/F38、オーディオI/F39、およびディスクI/F41が接続され、それぞれ受信ユニット6、モニタ2、外部メモリカード5、スピーカ2a、およびディスクドライブ40が接続されている。   In FIG. 2, the game apparatus 3 includes, for example, a risk (RISC) CPU (Central Processing Unit) 30 that executes various programs. The CPU 30 executes a startup program stored in a boot ROM (not shown), initializes a memory such as the main memory 33, and the like, then executes a game program stored in the optical disc 4, and according to the game program Game processing and the like. A GPU (Graphics Processing Unit) 32, a main memory 33, a DSP (Digital Signal Processor) 34, and an ARAM (Audio RAM) 35 are connected to the CPU 30 via a memory controller 31. The memory controller 31 is connected to a controller I / F (interface) 36, a video I / F 37, an external memory I / F 38, an audio I / F 39, and a disk I / F 41 via a predetermined bus. The receiving unit 6, the monitor 2, the external memory card 5, the speaker 2a, and the disk drive 40 are connected.

GPU32は、CPU30の命令に基づいて画像処理を行うものあり、例えば、3Dグラフィックスの表示に必要な計算処理を行う半導体チップで構成される。GPU32は、図示しない画像処理専用のメモリやメインメモリ33の一部の記憶領域を用いて画像処理を行う。GPU32は、これらを用いてモニタ2に表示すべきゲーム画像データやムービ映像を生成し、適宜メモリコントローラ31およびビデオI/F37を介してモニタ2に出力する。   The GPU 32 performs image processing based on an instruction from the CPU 30, and is configured by a semiconductor chip that performs calculation processing necessary for displaying 3D graphics, for example. The GPU 32 performs image processing using a memory dedicated to image processing (not shown) and a partial storage area of the main memory 33. The GPU 32 generates game image data and movie video to be displayed on the monitor 2 using these, and outputs them to the monitor 2 through the memory controller 31 and the video I / F 37 as appropriate.

メインメモリ33は、CPU30で使用される記憶領域であって、CPU30の処理に必要なゲームプログラム等を適宜記憶する。例えば、メインメモリ33は、CPU30によって光ディスク4から読み出されたゲームプログラムや各種データ等を記憶する。このメインメモリ33に記憶されたゲームプログラムや各種データ等がCPU30によって実行される。   The main memory 33 is a storage area used by the CPU 30 and stores game programs and the like necessary for the processing of the CPU 30 as appropriate. For example, the main memory 33 stores a game program read from the optical disc 4 by the CPU 30 and various data. The game program and various data stored in the main memory 33 are executed by the CPU 30.

DSP34は、ゲームプログラム実行時にCPU30において生成されるサウンドデータ等を処理するものであり、そのサウンドデータ等を記憶するためのARAM35が接続される。ARAM35は、DSP34が所定の処理(例えば、先読みしておいたゲームプログラムやサウンドデータの記憶)を行う際に用いられる。DSP34は、ARAM35に記憶されたサウンドデータを読み出し、メモリコントローラ31およびオーディオI/F39を介してモニタ2に備えるスピーカ2aに出力させる。   The DSP 34 processes sound data generated by the CPU 30 when the game program is executed, and is connected to an ARAM 35 for storing the sound data. The ARAM 35 is used when the DSP 34 performs a predetermined process (for example, storage of a pre-read game program or sound data). The DSP 34 reads the sound data stored in the ARAM 35 and outputs the sound data to the speaker 2 a included in the monitor 2 via the memory controller 31 and the audio I / F 39.

メモリコントローラ31は、データ転送を統括的に制御するものであり、上述した各種I/Fが接続される。コントローラI/F36は、例えば4つのコントローラI/F36a〜36dで構成され、それらが有するコネクタを介して嵌合可能な外部機器とゲーム装置3とを通信可能に接続する。例えば、受信ユニット6は、上記コネクタと嵌合し、コントローラI/F36を介してゲーム装置3と接続される。上述したように受信ユニット6は、コントローラ7からの送信データを受信し、コントローラI/F36を介して当該送信データをCPU30へ出力する。ビデオI/F37には、モニタ2が接続される。外部メモリI/F38には、外部メモリカード5が接続され、その外部メモリカード5に設けられたバックアップメモリ等とアクセス可能となる。オーディオI/F39にはモニタ2に内蔵されるスピーカ2aが接続され、DSP34がARAM35から読み出したサウンドデータやディスクドライブ40から直接出力されるサウンドデータをスピーカ2aから出力可能に接続される。ディスクI/F41には、ディスクドライブ40が接続される。ディスクドライブ40は、所定の読み出し位置に配置された光ディスク4に記憶されたデータを読み出し、ゲーム装置3のバスやオーディオI/F39に出力する。   The memory controller 31 controls the overall data transfer and is connected to the various I / Fs described above. The controller I / F 36 includes, for example, four controller I / Fs 36a to 36d, and connects the external device and the game apparatus 3 that can be fitted to each other via a connector included in the controller I / F 36 so as to communicate with each other. For example, the receiving unit 6 is fitted with the connector and connected to the game apparatus 3 via the controller I / F 36. As described above, the receiving unit 6 receives the transmission data from the controller 7 and outputs the transmission data to the CPU 30 via the controller I / F 36. A monitor 2 is connected to the video I / F 37. An external memory card 5 is connected to the external memory I / F 38 and can access a backup memory or the like provided in the external memory card 5. A speaker 2a built in the monitor 2 is connected to the audio I / F 39 so that sound data read out from the ARAM 35 by the DSP 34 or sound data directly output from the disk drive 40 can be output from the speaker 2a. A disk drive 40 is connected to the disk I / F 41. The disk drive 40 reads data stored on the optical disk 4 arranged at a predetermined reading position, and outputs the data to the bus of the game apparatus 3 and the audio I / F 39.

次に、図3および図4を参照して、コントローラ7について説明する。なお、図3は、コントローラ7の外観構成を示す斜視図である。図4は、図3のコントローラ7の接続ケーブル79をコアユニット70から脱着する状態を示す斜視図である。   Next, the controller 7 will be described with reference to FIGS. 3 and 4. FIG. 3 is a perspective view showing an external configuration of the controller 7. FIG. 4 is a perspective view showing a state where the connection cable 79 of the controller 7 of FIG. 3 is detached from the core unit 70.

図3において、コントローラ7は、コアユニット70とサブユニット76とが接続ケーブル79で接続されて構成されている。コアユニット70は、ハウジング71を有しており、当該ハウジング71に複数の操作部72が設けられている。一方、サブユニット76は、ハウジング77を有しており、当該ハウジング77に複数の操作部78が設けられている。そして、コアユニット70とサブユニット76とは、接続ケーブル79によって接続されている。   In FIG. 3, the controller 7 is configured by connecting a core unit 70 and a subunit 76 with a connection cable 79. The core unit 70 includes a housing 71, and a plurality of operation units 72 are provided in the housing 71. On the other hand, the subunit 76 has a housing 77, and a plurality of operation portions 78 are provided in the housing 77. The core unit 70 and the subunit 76 are connected by a connection cable 79.

図4において、接続ケーブル79の一方端にはコアユニット70のコネクタ73に着脱自在なコネクタ791が設けられており、接続ケーブル79の他方端は固定的にサブユニット76と接続されている。そして、接続ケーブル79のコネクタ791は、コアユニット70の後面に設けられたコネクタ73と嵌合し、コアユニット70とサブユニット76とが当該接続ケーブル79を介して接続される。   In FIG. 4, a connector 791 detachably attached to the connector 73 of the core unit 70 is provided at one end of the connection cable 79, and the other end of the connection cable 79 is fixedly connected to the subunit 76. The connector 791 of the connection cable 79 is fitted with the connector 73 provided on the rear surface of the core unit 70, and the core unit 70 and the subunit 76 are connected via the connection cable 79.

図5および図6を参照して、コアユニット70について説明する。なお、図5は、コアユニット70の上面後方から見た斜視図である。図6は、コアユニット70を下面後方から見た斜視図である。   The core unit 70 will be described with reference to FIGS. 5 and 6. FIG. 5 is a perspective view of the core unit 70 as viewed from the upper rear side. FIG. 6 is a perspective view of the core unit 70 as viewed from the lower rear side.

図5および図6において、コアユニット70は、例えばプラスチック成型によって形成されたハウジング71を有している。ハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。   5 and 6, the core unit 70 includes a housing 71 formed by plastic molding, for example. The housing 71 has a substantially rectangular parallelepiped shape whose longitudinal direction is the front-rear direction, and is a size that can be gripped with one hand of an adult or a child as a whole.

ハウジング71上面の中央前面側に、十字キー72aが設けられる。この十字キー72aは、十字型の4方向プッシュスイッチであり、矢印で示す4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。プレイヤが十字キー72aのいずれかの操作部分を押下することによって前後左右いずれかの方向を選択される。例えばプレイヤが十字キー72aを操作することによって、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、カーソルの移動方向を指示したりすることができる。   A cross key 72 a is provided on the center front side of the upper surface of the housing 71. The cross key 72a is a cross-shaped four-direction push switch, and operation portions corresponding to the four directions (front and rear, left and right) indicated by arrows are arranged at 90 ° intervals on the cross protruding pieces, respectively. The player selects one of the front, rear, left and right directions by pressing one of the operation portions of the cross key 72a. For example, when the player operates the cross key 72a, it is possible to instruct the moving direction of the player character or the like appearing in the virtual game world, or to instruct the moving direction of the cursor.

なお、十字キー72aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。例えば、リング状に4方向の操作部分を備えたプッシュスイッチとその中央に設けられたセンタスイッチとを複合した複合スイッチを上記十字キー72aの代わりに設けてもかまわない。また、ハウジング71上面から突出した傾倒可能なスティックを倒すことによって、傾倒方向に応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。さらに、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力する操作部を、上記十字キー72aの代わりに設けてもかまわない。また、タッチパッドを、上記十字キー72aの代わりに設けてもかまわない。また、少なくとも4つの方向(前後左右)をそれぞれ示すスイッチに対して、プレイヤによって押下されたスイッチに応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。   Note that the cross key 72a is an operation unit that outputs an operation signal in response to the above-described direction input operation of the player, but may be an operation unit of another mode. For example, instead of the cross key 72a, a composite switch in which a push switch having a four-direction operation portion in a ring shape and a center switch provided at the center thereof may be provided. Further, an operation unit that outputs an operation signal according to the tilt direction by tilting a tiltable stick protruding from the upper surface of the housing 71 may be provided instead of the cross key 72a. Furthermore, an operation unit that outputs an operation signal corresponding to the sliding direction by sliding a horizontally movable disk-shaped member may be provided instead of the cross key 72a. Further, a touch pad may be provided instead of the cross key 72a. Further, an operation unit that outputs an operation signal in response to a switch pressed by the player may be provided instead of the cross key 72a for switches indicating at least four directions (front / rear / left / right).

ハウジング71上面の十字キー72aより後面側に、複数の操作ボタン72b〜72gが設けられる。操作ボタン72b〜72gは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン72b〜72gに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン72b〜72dには、Xボタン、Yボタン、およびBボタン等としての機能が割り当てられる。また、操作ボタン72e〜72gには、セレクトスイッチ、メニュースイッチ、およびスタートスイッチ等としての機能が割り当てられる。これら操作ボタン72b〜72gは、ゲーム装置3が実行するゲームプログラムに応じてそれぞれの機能が割り当てられるが、本発明の説明とは直接関連しないため詳細な説明を省略する。なお、図5に示した配置例では、操作ボタン72b〜72dは、ハウジング71上面の中央前後方向に沿って並設されている。また、操作ボタン72e〜72gは、ハウジング71上面の左右方向に沿って操作ボタン72bおよび72dの間に並設されている。そして、操作ボタン72fは、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   A plurality of operation buttons 72 b to 72 g are provided on the rear surface side of the cross key 72 a on the upper surface of the housing 71. The operation buttons 72b to 72g are operation units that output operation signals assigned to the operation buttons 72b to 72g when the player presses the button head. For example, functions such as an X button, a Y button, and a B button are assigned to the operation buttons 72b to 72d. Further, functions as a select switch, a menu switch, a start switch, and the like are assigned to the operation buttons 72e to 72g. Each of these operation buttons 72b to 72g is assigned a function according to a game program executed by the game apparatus 3, but will not be described in detail because it is not directly related to the description of the present invention. In the arrangement example shown in FIG. 5, the operation buttons 72 b to 72 d are arranged side by side along the center front-rear direction on the upper surface of the housing 71. Further, the operation buttons 72e to 72g are arranged in parallel between the operation buttons 72b and 72d along the left-right direction of the upper surface of the housing 71. The operation button 72f is a type of button whose upper surface is buried in the upper surface of the housing 71 and is not accidentally pressed by the player.

また、ハウジング71上面の十字キー72aより前面側に、操作ボタン72hが設けられる。操作ボタン72hは、遠隔からゲーム装置3本体の電源をオン/オフする電源スイッチである。この操作ボタン72hも、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   An operation button 72h is provided on the front surface side of the cross key 72a on the upper surface of the housing 71. The operation button 72h is a power switch for remotely turning on / off the game apparatus 3 main body. This operation button 72h is also a type of button whose upper surface is buried in the upper surface of the housing 71 and that the player does not accidentally press.

また、ハウジング71上面の操作ボタン72cより後面側に、複数のLED702が設けられる。ここで、コントローラ7は、他のコントローラ7と区別するためにコントローラ種別(番号)が設けられている。例えば、LED702は、コントローラ7に現在設定されている上記コントローラ種別をプレイヤに通知するために用いられる。具体的には、コアユニット70から受信ユニット6へ送信データを送信する際、上記コントローラ種別に応じて複数のLED702のうち、種別に対応するLEDが点灯する。   A plurality of LEDs 702 are provided on the rear surface side of the operation button 72 c on the upper surface of the housing 71. Here, the controller 7 is provided with a controller type (number) to distinguish it from other controllers 7. For example, the LED 702 is used to notify the player of the controller type currently set in the controller 7. Specifically, when transmitting transmission data from the core unit 70 to the receiving unit 6, among the plurality of LEDs 702, the LED corresponding to the type is lit according to the controller type.

一方、ハウジング71下面には、凹部が形成されている。後述で明らかとなるが、ハウジング71下面の凹部は、プレイヤがコアユニット70を把持したときに当該プレイヤの人差し指や中指が位置するような位置に形成される。そして、上記凹部の後面側傾斜面には、操作ボタン72iが設けられる。操作ボタン72iは、例えばAボタンとして機能する操作部であり、シューティングゲームにおけるトリガスイッチや、プレイヤオブジェクトを所定オブジェクトに対して注目させる操作等に用いられる。   On the other hand, a recess is formed on the lower surface of the housing 71. As will be described later, the recess on the lower surface of the housing 71 is formed at a position where the player's index finger or middle finger is positioned when the player holds the core unit 70. And the operation button 72i is provided in the rear surface side inclined surface of the said recessed part. The operation button 72i is an operation unit that functions as an A button, for example, and is used for a trigger switch in a shooting game, an operation for causing a player object to pay attention to a predetermined object, or the like.

また、ハウジング71前面には、撮像情報演算部74の一部を構成する撮像素子743が設けられる。ここで、撮像情報演算部74は、コアユニット70が撮像した画像データを解析してその中で輝度が高い場所を判別してその場所の重心位置やサイズなどを検出するためのシステムであり、例えば、最大200フレーム/秒程度のサンプリング周期であるため比較的高速なコアユニット70の動きでも追跡して解析することができる。この撮像情報演算部74の詳細な構成については、後述する。また、ハウジング70の後面には、コネクタ73が設けられている。コネクタ73は、例えば32ピンのエッジコネクタであり、接続ケーブル79のコネクタ791と嵌合して接続するために利用される。   An imaging element 743 that constitutes a part of the imaging information calculation unit 74 is provided on the front surface of the housing 71. Here, the imaging information calculation unit 74 is a system for analyzing the image data captured by the core unit 70, discriminating a place where the luminance is high, and detecting the position of the center of gravity or the size of the place, For example, since the maximum sampling period is about 200 frames / second, even a relatively fast movement of the core unit 70 can be tracked and analyzed. The detailed configuration of the imaging information calculation unit 74 will be described later. A connector 73 is provided on the rear surface of the housing 70. The connector 73 is a 32-pin edge connector, for example, and is used for fitting and connecting with the connector 791 of the connection cable 79.

次に、図7を参照して、コアユニット70の内部構造について説明する。なお、図7(a)は、コアユニット70の上筐体(ハウジング71の一部)を外した状態を示す斜視図である。図7(b)は、コアユニット70の下筐体(ハウジング71の一部)を外した状態を示す斜視図である。ここで、図7(b)に示す基板700は、図7(a)に示す基板700の裏面から見た斜視図となっている。   Next, the internal structure of the core unit 70 will be described with reference to FIG. FIG. 7A is a perspective view showing a state in which the upper housing (a part of the housing 71) of the core unit 70 is removed. FIG. 7B is a perspective view showing a state in which the lower housing (a part of the housing 71) of the core unit 70 is removed. Here, the substrate 700 shown in FIG. 7B is a perspective view seen from the back surface of the substrate 700 shown in FIG.

図7(a)において、ハウジング71の内部には基板700が固設されており、当該基板700の上主面上に操作ボタン72a〜72h、加速度センサ701、LED702、水晶振動子703、無線モジュール753、およびアンテナ754等が設けられる。そして、これらは、基板700等に形成された配線(図示せず)によってマイコン751(図14参照)に接続される。また、無線モジュール753およびアンテナ754によって、コアユニット70がワイヤレスコントローラとして機能する。なお、水晶振動子703は、後述するマイコン751の基本クロックを生成する。   In FIG. 7A, a substrate 700 is fixed inside the housing 71. On the upper main surface of the substrate 700, operation buttons 72a to 72h, an acceleration sensor 701, an LED 702, a crystal resonator 703, a wireless module. 753, an antenna 754, and the like are provided. These are connected to the microcomputer 751 (see FIG. 14) by wiring (not shown) formed on the substrate 700 or the like. The core unit 70 functions as a wireless controller by the wireless module 753 and the antenna 754. The crystal resonator 703 generates a basic clock for the microcomputer 751 described later.

一方、図7(b)において、基板700の下主面上の前端縁に撮像情報演算部74が設けられる。撮像情報演算部74は、コアユニット70の前方から順に赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744によって構成されおり、それぞれ基板700の下主面に取り付けられる。また、基板700の下主面上の後端縁にコネクタ73が取り付けられる。そして、操作ボタン72iが撮像情報演算部74の後方の基板700の下主面上に取り付けられていて、それよりさらに後方に、電池705が収容される。電池705とコネクタ73との間の基板700の下主面上には、バイブレータ704が取り付けられる。このバイブレータ704は、例えば振動モータやソレノイドであってよい。バイブレータ704が作動することによってコアユニット70に振動が発生するので、それを把持しているプレイヤの手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。   On the other hand, in FIG. 7B, the imaging information calculation unit 74 is provided at the front edge on the lower main surface of the substrate 700. The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744 in order from the front of the core unit 70, and is attached to the lower main surface of the substrate 700. A connector 73 is attached to the rear edge on the lower main surface of the substrate 700. And the operation button 72i is attached on the lower main surface of the board | substrate 700 in the back of the imaging information calculating part 74, and the battery 705 is accommodated in the back further. A vibrator 704 is attached on the lower main surface of the substrate 700 between the battery 705 and the connector 73. The vibrator 704 may be a vibration motor or a solenoid, for example. Since the vibration is generated in the core unit 70 by the operation of the vibrator 704, the vibration is transmitted to the hand of the player holding it, and a so-called vibration-compatible game can be realized.

図8および図9を参照して、サブユニット76について説明する。なお、図8(a)はサブユニット76の上面図であり、図8(b)はサブユニット76の下面図であり、図8(c)はサブユニット76の左側面図である。図9は、サブユニット76の上面前方から見た斜視図である。   The subunit 76 will be described with reference to FIGS. 8 and 9. 8A is a top view of the subunit 76, FIG. 8B is a bottom view of the subunit 76, and FIG. 8C is a left side view of the subunit 76. FIG. 9 is a perspective view of the subunit 76 as seen from the upper front side.

図8および図9において、サブユニット76は、例えばプラスチック成型によって形成されたハウジング77を有している。ハウジング77は、その前後方向を長手方向とし、サブユニット76において最太部となる頭部を前方に形成した流線型の立体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。   8 and 9, the subunit 76 has a housing 77 formed by plastic molding, for example. The housing 77 has a streamlined three-dimensional shape in which the front-rear direction is the longitudinal direction and the head portion that is the thickest part of the subunit 76 is formed in the front. The housing 77 is large enough to be grasped by one hand of an adult or a child as a whole. That's it.

ハウジング77上面の上記最太部近傍に、スティック78aが設けられる。スティック78aは、ハウジング77上面から突出した傾倒可能なスティックを倒すことによって、傾倒方向に応じて操作信号を出力する操作部である。例えば、プレイヤがスティック先端を360°任意の方向に傾倒することによって任意の方向や位置を指定することができ、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、カーソルの移動方向を指示したりすることができる。   A stick 78 a is provided in the vicinity of the thickest portion on the upper surface of the housing 77. The stick 78a is an operation unit that outputs an operation signal according to the tilting direction by tilting the tiltable stick protruding from the upper surface of the housing 77. For example, the player can specify an arbitrary direction and position by tilting the tip of the stick in an arbitrary direction of 360 °, and can instruct the moving direction of a player character or the like appearing in the virtual game world, or the moving direction of the cursor Can be instructed.

なお、スティック78aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。以下、図10〜図13を参照して、方向入力操作に応じて操作信号を出力する操作部がサブユニット76に設けられた第1〜第5の変形例を説明する。   Note that the stick 78a is an operation unit that outputs an operation signal in response to the above-described direction input operation of the player, but may be an operation unit of another mode. Hereinafter, with reference to FIGS. 10 to 13, first to fifth modifications in which an operation unit that outputs an operation signal according to a direction input operation is provided in the subunit 76 will be described.

第1の変形例として、図10に示すように、コアユニット70に設けられている十字キー72aと同様の十字キー78fを、上記スティック78aの代わりにサブユニット76に設けてもかまわない。第2の変形例として、図11に示すように、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力するスライドパッド78gを、上記スティック78aの代わりにサブユニット76に設けてもかまわない。第3の変形例として、図12に示すように、タッチパッド78hを、上記スティック78aの代わりにサブユニット76に設けてもかまわない。第4の変形例として、図13に示すように、少なくとも4つの方向(前後左右)をそれぞれ示すボタン78i〜78lを設け、プレイヤによって押下されたボタン78i〜78lに応じて操作信号を出力する操作部を上記スティック78aの代わりにサブユニット76に設けてもかまわない。第5の変形例として、リング状に4方向の操作部分を備えたプッシュスイッチとその中央に設けられたセンタスイッチとを複合した複合スイッチを上記スティック78aの代わりにサブユニット76に設けてもかまわない。   As a first modification, as shown in FIG. 10, a cross key 78f similar to the cross key 72a provided in the core unit 70 may be provided in the subunit 76 instead of the stick 78a. As a second modified example, as shown in FIG. 11, a slide pad 78g that outputs an operation signal corresponding to the sliding direction by sliding a horizontally movable disk-shaped member is used instead of the stick 78a. The unit 76 may be provided. As a third modified example, as shown in FIG. 12, a touch pad 78h may be provided in the subunit 76 instead of the stick 78a. As a fourth modified example, as shown in FIG. 13, there are provided buttons 78i to 78l indicating at least four directions (front and rear, left and right), respectively, and an operation for outputting an operation signal according to the buttons 78i to 78l pressed by the player. The portion may be provided in the subunit 76 instead of the stick 78a. As a fifth modification, a composite switch in which a push switch having a ring-shaped operation portion in four directions and a center switch provided at the center thereof may be provided in the subunit 76 instead of the stick 78a. Absent.

ハウジング77上面のスティック78aより後面側およびハウジング77の前面に、複数の操作ボタン78b〜78eが設けられる。操作ボタン78b〜78eは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン78b〜78eに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン78b〜78eには、XボタンおよびYボタン等としての機能が割り当てられる。これら操作ボタン78b〜78eは、ゲーム装置3が実行するゲームプログラムに応じてそれぞれの機能が割り当てられるが、本発明の説明とは直接関連しないため詳細な説明を省略する。なお、図8および図9に示した配置例では、操作ボタン78bおよび78cは、ハウジング77上面の中央左右方向に沿って並設されている。また、操作ボタン78dおよび78eは、ハウジング77前面の上下方向に沿って並設されている。   A plurality of operation buttons 78 b to 78 e are provided on the rear surface side of the stick 78 a on the upper surface of the housing 77 and on the front surface of the housing 77. The operation buttons 78b to 78e are operation units that output operation signals assigned to the operation buttons 78b to 78e when the player presses the button head. For example, functions as an X button and a Y button are assigned to the operation buttons 78b to 78e. These operation buttons 78b to 78e are assigned respective functions according to the game program executed by the game apparatus 3, but are not directly related to the description of the present invention, and thus detailed description thereof is omitted. In the arrangement example shown in FIGS. 8 and 9, the operation buttons 78 b and 78 c are arranged side by side along the central left and right direction of the upper surface of the housing 77. The operation buttons 78d and 78e are arranged side by side along the vertical direction of the front surface of the housing 77.

次に、図14を参照して、コントローラ7の内部構成について説明する。なお、図14は、コントローラ7の構成を示すブロック図である。   Next, the internal configuration of the controller 7 will be described with reference to FIG. FIG. 14 is a block diagram showing the configuration of the controller 7.

図14において、コアユニット70は、上述した操作部72および撮像情報演算部74の他に、その内部に通信部75および加速度センサ701を備えている。   In FIG. 14, the core unit 70 includes a communication unit 75 and an acceleration sensor 701 inside the operation unit 72 and the imaging information calculation unit 74 described above.

撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744を含んでいる。赤外線フィルタ741は、コアユニット70の前方から入射する光から赤外線のみを通過させる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ出射する。撮像素子743は、例えばCMOSセンサやあるいはCCDのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像して画像データを生成する。撮像素子743で生成された画像データは、画像処理回路744で処理される。具体的には、画像処理回路744は、撮像素子743から得られた画像データを処理して高輝度部分を検知し、それらの位置座標や面積を検出した結果を示す処理結果データを通信部75へ出力する。なお、これらの撮像情報演算部74は、コアユニット70のハウジング71に固設されており、ハウジング71自体の方向を変えることによってその撮像方向を変更することができる。しかしながら、ハウジング71は、サブユニット76とは屈曲自在な接続ケーブル79によって接続されているため、サブユニット76の方向や位置を変更しても撮像情報演算部74の撮像方向が変化することはない。後述により明らかとなるが、この撮像情報演算部74から出力される処理結果データに基づいて、コアユニット70の位置や動きに応じた信号を得ることができる。   The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744. The infrared filter 741 allows only infrared light to pass through from light incident from the front of the core unit 70. The lens 742 condenses the infrared light that has passed through the infrared filter 741 and outputs the condensed infrared light to the image sensor 743. The imaging element 743 is a solid-state imaging element such as a CMOS sensor or a CCD, for example, and images the infrared rays collected by the lens 742. Therefore, the image sensor 743 captures only the infrared light that has passed through the infrared filter 741 and generates image data. Image data generated by the image sensor 743 is processed by an image processing circuit 744. Specifically, the image processing circuit 744 processes the image data obtained from the image sensor 743 to detect high-luminance portions, and transmits processing result data indicating the result of detecting their position coordinates and area to the communication unit 75. Output to. The imaging information calculation unit 74 is fixed to the housing 71 of the core unit 70, and the imaging direction can be changed by changing the direction of the housing 71 itself. However, since the housing 71 is connected to the subunit 76 by a flexible connecting cable 79, the imaging direction of the imaging information calculation unit 74 does not change even if the direction or position of the subunit 76 is changed. . As will be apparent from the description below, a signal corresponding to the position and movement of the core unit 70 can be obtained based on the processing result data output from the imaging information calculation unit 74.

加速度センサ701は、コアユニット70の上下方向、左右方向および前後方向の3軸でそれぞれ加速度を検知する加速度センサである。なお、加速度センサ701は、必要な操作信号の種類によっては、上下方向、左右方向の2軸でそれぞれ加速度を検出する加速度センサが用いられてもかまわない。加速度センサ701が検知した加速度を示すデータは、通信部75へ出力される。なお、加速度センサ701は、典型的には静電容量式の加速度センサが用いられるが、他の方式の加速度センサやジャイロセンサを用いてもかまわない。この加速度センサ701から出力される加速度データに基づいて、コアユニット70の動きを検出することができる。   The acceleration sensor 701 is an acceleration sensor that detects acceleration along three axes of the core unit 70 in the vertical direction, the horizontal direction, and the front-rear direction. The acceleration sensor 701 may be an acceleration sensor that detects acceleration on two axes in the vertical direction and the horizontal direction depending on the type of operation signal required. Data indicating the acceleration detected by the acceleration sensor 701 is output to the communication unit 75. The acceleration sensor 701 is typically a capacitance type acceleration sensor, but other types of acceleration sensors or gyro sensors may be used. Based on the acceleration data output from the acceleration sensor 701, the movement of the core unit 70 can be detected.

通信部75は、マイクロコンピュータ(Micro Computer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。   The communication unit 75 includes a microcomputer (microcomputer) 751, a memory 752, a wireless module 753, and an antenna 754. The microcomputer 751 controls the wireless module 753 that wirelessly transmits transmission data while using the memory 752 as a storage area during processing.

コアユニット70に設けられた操作部72からの操作信号(コアキーデータ)、加速度センサ701からの加速度信号(加速度データ)、および撮像情報演算部74からの処理結果データは、マイコン751に出力される。また、接続ケーブル79を介して、サブユニット76に設けられた操作部78からの操作信号(サブキーデータ)は、マイコン751に出力される。マイコン751は、入力した各データ(コアキーデータ、サブキーデータ、加速度データ、処理結果データ)を受信ユニット6へ送信する送信データとして一時的にメモリ752に格納する。ここで、通信部75から受信ユニット6への無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60を単位として行われることが一般的であるので、それよりも短い周期で送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥースで構成される通信部75の送信間隔は5msである。マイコン751は、受信ユニット6への送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばBluetooth(ブルートゥース;登録商標)の技術を用いて、所定周波数の搬送波を用いて操作情報をその電波信号としてアンテナ754から放射する。つまり、コアユニット70に設けられた操作部72からのコアキーデータ、サブユニット76に設けられた操作部78からのサブキーデータ、加速度センサ701からの加速度データ、および撮像情報演算部74からの処理結果データがコアユニット70から送信される。そして、ゲーム装置3の受信ユニット6でその電波信号を受信し、ゲーム装置3で当該電波信号を復調や復号することによって、一連の操作情報(コアキーデータ、サブキーデータ、加速度データおよび処理結果データ)を取得する。そして、ゲーム装置3のCPU30は、取得した操作情報とゲームプログラムとに基づいて、ゲーム処理を行う。なお、Bluetooth(登録商標)の技術を用いて通信部75を構成する場合、通信部75は、他のデバイスから無線送信された送信データを受信する機能も備えることができる。なお、加速度データ及び/又は処理結果データは、第1操作データの一例であり、サブキーデータは第2操作データの一例である。   An operation signal (core key data) from the operation unit 72 provided in the core unit 70, an acceleration signal (acceleration data) from the acceleration sensor 701, and processing result data from the imaging information calculation unit 74 are output to the microcomputer 751. The In addition, an operation signal (sub key data) from the operation unit 78 provided in the subunit 76 is output to the microcomputer 751 via the connection cable 79. The microcomputer 751 temporarily stores the input data (core key data, subkey data, acceleration data, and processing result data) in the memory 752 as transmission data to be transmitted to the receiving unit 6. Here, the wireless transmission from the communication unit 75 to the receiving unit 6 is performed every predetermined cycle, but since the game processing is generally performed in units of 1/60, a shorter cycle than that is performed. It is necessary to send in. Specifically, the processing unit of the game is 16.7 ms (1/60 seconds), and the transmission interval of the communication unit 75 configured with Bluetooth is 5 ms. When the transmission timing to the receiving unit 6 comes, the microcomputer 751 outputs the transmission data stored in the memory 752 as a series of operation information and outputs it to the wireless module 753. The wireless module 753 radiates operation information from the antenna 754 as a radio wave signal using a carrier wave of a predetermined frequency using, for example, Bluetooth (registered trademark) technology. That is, core key data from the operation unit 72 provided in the core unit 70, subkey data from the operation unit 78 provided in the subunit 76, acceleration data from the acceleration sensor 701, and processing from the imaging information calculation unit 74. Result data is transmitted from the core unit 70. Then, the radio signal is received by the receiving unit 6 of the game apparatus 3, and the radio signal is demodulated or decoded by the game apparatus 3, thereby a series of operation information (core key data, sub key data, acceleration data, and processing result data). ) To get. And CPU30 of the game device 3 performs a game process based on the acquired operation information and a game program. When the communication unit 75 is configured using the Bluetooth (registered trademark) technology, the communication unit 75 can also have a function of receiving transmission data wirelessly transmitted from other devices. The acceleration data and / or processing result data is an example of first operation data, and the sub key data is an example of second operation data.

図15に示すように、ゲームシステム1でコントローラ7を用いてゲームをプレイするためには、プレイヤは、一方の手(例えば右手)でコアユニット70を把持し(図16および図17参照)、他方の手(例えば左手)でサブユニット76を把持する(図19参照)。そして、プレイヤは、コアユニット70の前面(撮像情報演算部74が撮像する光の入射口側)がモニタ2に向くようにコアユニット70を把持する。一方、モニタ2の表示画面近傍には、2つのLEDモジュール8Lおよび8Rが設置される。これらLEDモジュール8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力する。   As shown in FIG. 15, in order to play a game using the controller 7 in the game system 1, the player holds the core unit 70 with one hand (for example, the right hand) (see FIGS. 16 and 17). The subunit 76 is held with the other hand (for example, the left hand) (see FIG. 19). Then, the player holds the core unit 70 so that the front surface of the core unit 70 (the light entrance side of the light imaged by the imaging information calculation unit 74) faces the monitor 2. On the other hand, near the display screen of the monitor 2, two LED modules 8L and 8R are installed. These LED modules 8L and 8R each output infrared light toward the front of the monitor 2.

プレイヤがその前面がモニタ2に向くようにコアユニット70を把持することによって、撮像情報演算部74には2つのLEDモジュール8Lおよび8Rが出力した赤外光が入射する。そして、赤外線フィルタ741およびレンズ742を介して、入射した赤外光を撮像素子743が撮像し、当該撮像画像を画像処理回路744が処理する。ここで、撮像情報演算部74では、LEDモジュール8Lおよび8Rから出力される赤外線成分を検出することで、上記撮像画像における当該LEDモジュール8Lおよび8Rの位置(対象画像の位置)や面積情報を取得する。具体的には、画像処理回路744は、撮像素子743が撮像した画像データを解析して、まず面積情報からLEDモジュール8Lおよび8Rからの赤外光ではあり得ない画像を除外し、さらに輝度が高い点をLEDモジュール8Lおよび8Rそれぞれの位置として判別する。そして、撮像情報演算部74は、判別されたそれらの輝点の重心位置等の位置情報を取得し、上記処理結果データとして出力する。ここで、上記処理結果データである位置情報は、撮像画像における所定の基準点(例えば、撮像画像の中央や左上隅)を原点とした座標値として出力するものでもよく、所定のタイミングにおける輝点位置を基準点として、当該基準位置からの現在の輝点位置の差をベクトルとして出力するものでもよい。つまり、上記対象画像の位置情報は、撮像素子743が撮像した撮像画像に対して所定の基準点を設定した場合に、当該基準点に対する差として用いられるパラメータである。このような処理結果データをゲーム装置3へ送信することによって、ゲーム装置3では、基準からの上記位置情報の差に基づいて、LEDモジュール8Lおよび8Rに対する撮像情報演算部74すなわちコアユニット70の動き、姿勢、位置等に応じた信号の変化量を得ることができる。具体的には、コアユニット70が動かされることによって、通信部75から送信される画像内の高輝度点の位置が変化するため、高輝度点の位置の変化に対応させた方向入力や座標入力を行うことで、コアユニット70の移動方向に沿った方向入力や座標入力を行うことができる。なお、後述するゲーム処理動作例では、撮像情報演算部74が撮像画像におけるLEDモジュール8Lおよび8Rの対象画像それぞれの重心位置の座標を取得し、上記処理結果データとして出力する例を用いる。   When the player holds the core unit 70 so that the front surface thereof faces the monitor 2, infrared light output from the two LED modules 8 </ b> L and 8 </ b> R enters the imaging information calculation unit 74. Then, the imaging device 743 captures the incident infrared light through the infrared filter 741 and the lens 742, and the image processing circuit 744 processes the captured image. Here, the imaging information calculation unit 74 detects the infrared component output from the LED modules 8L and 8R, thereby acquiring the position (position of the target image) and area information of the LED modules 8L and 8R in the captured image. To do. Specifically, the image processing circuit 744 analyzes the image data captured by the image sensor 743, first excludes images that cannot be infrared light from the LED modules 8L and 8R from the area information, and further increases the luminance. The high point is determined as the position of each of the LED modules 8L and 8R. Then, the imaging information calculation unit 74 acquires position information such as the barycentric position of the determined bright spots and outputs it as the processing result data. Here, the position information as the processing result data may be output as a coordinate value with a predetermined reference point in the captured image (for example, the center or upper left corner of the captured image) as the origin, and a bright spot at a predetermined timing The position may be used as a reference point, and the difference in the current bright spot position from the reference position may be output as a vector. That is, the position information of the target image is a parameter used as a difference with respect to the reference point when a predetermined reference point is set for the captured image captured by the image sensor 743. By transmitting such processing result data to the game apparatus 3, the game apparatus 3 moves the imaging information calculation unit 74, that is, the core unit 70, with respect to the LED modules 8L and 8R based on the difference in the position information from the reference. The change amount of the signal according to the posture, position, etc. can be obtained. Specifically, since the position of the high luminance point in the image transmitted from the communication unit 75 changes when the core unit 70 is moved, direction input and coordinate input corresponding to the change in the position of the high luminance point are performed. By performing the above, direction input and coordinate input along the moving direction of the core unit 70 can be performed. In the game processing operation example to be described later, an example is used in which the imaging information calculation unit 74 acquires the coordinates of the center of gravity of each of the target images of the LED modules 8L and 8R in the captured image and outputs it as the processing result data.

このように、コアユニット70の撮像情報演算部74によって、固定的に設置されたマーカ(実施例では、2つのLEDモジュール8Lおよび8Rからの赤外光)を撮像することによって、ゲーム装置3におけるゲーム処理において、コアユニット70から出力されるデータを処理することによって、コントローラの動き、姿勢、位置等に対応した操作が可能となり、ボタンを押下するような操作ボタンや操作キーとは異なった直感的な操作入力となる。また、上述したように上記マーカは、モニタ2の表示画面近傍に設置されているため、マーカに対する位置をモニタ2の表示画面に対するコアユニット70の動き、姿勢、位置等に換算することも容易に行うことができる。つまり、コアユニット70の動き、姿勢、位置等による処理結果データは、モニタ2の表示画面に直接作用する操作入力として用いることができる。   In this manner, the imaging information calculation unit 74 of the core unit 70 images the marker (infrared light from the two LED modules 8L and 8R) fixedly installed in the game apparatus 3 by imaging. In the game process, by processing the data output from the core unit 70, an operation corresponding to the movement, posture, position, etc. of the controller becomes possible, and the intuition that is different from the operation buttons and operation keys that press the buttons is different. Operation input. Further, as described above, since the marker is installed in the vicinity of the display screen of the monitor 2, it is easy to convert the position relative to the marker into the movement, posture, position, etc. of the core unit 70 relative to the display screen of the monitor 2. It can be carried out. That is, the processing result data based on the movement, posture, position, etc. of the core unit 70 can be used as an operation input that directly acts on the display screen of the monitor 2.

図16および図17を参照して、プレイヤがコアユニット70を一方の手で把持した状態について説明する。なお、図16は、プレイヤがコアユニット70を右手で把持した状態をコアユニット70の前面側から見た一例である。図17は、プレイヤがコアユニット70を右手で把持した状態をコアユニット70の左側面側から見た一例である。   A state where the player holds the core unit 70 with one hand will be described with reference to FIGS. 16 and 17. FIG. 16 is an example of a state where the player holds the core unit 70 with the right hand as viewed from the front side of the core unit 70. FIG. 17 is an example of a state in which the player holds the core unit 70 with the right hand as viewed from the left side of the core unit 70.

図16および図17に示すように、コアユニット70は、全体として大人や子供の片手で把持可能な大きさである。そして、プレイヤの親指をコアユニット70の上面(例えば、十字キー72a付近)に添え、プレイヤの人差し指をコアユニット70下面の凹部(例えば、操作ボタン72i付近)に添えたとき、コアユニット70の前面に設けられている撮像情報演算部74の光入射口がプレイヤの前方方向に露出する。なお、このようなコアユニット70に対する把持状態は、プレイヤの左手であっても同様に行えることは言うまでもない。   As shown in FIGS. 16 and 17, the core unit 70 has a size that can be grasped with one hand of an adult or a child as a whole. When the player's thumb is attached to the upper surface of the core unit 70 (for example, in the vicinity of the cross key 72a) and the player's index finger is applied to the concave portion (for example, in the vicinity of the operation button 72i) of the core unit 70, the front surface of the core unit 70 is obtained. The light incident port of the imaging information calculation unit 74 provided in is exposed in the forward direction of the player. Needless to say, such a gripping state with respect to the core unit 70 can be similarly performed even with the left hand of the player.

このように、コアユニット70は、プレイヤが片手で把持した状態で十字キー72aや操作ボタン72i等の操作部72を容易に操作することができる。さらに、プレイヤがコアユニット70を片手で把持したとき、当該コアユニット70の前面に設けられている撮像情報演算部74の光入射口が露出するため、上述した2つのLEDモジュール8Lおよび8Rからの赤外光を容易に当該光入射口から取り入れることができる。つまり、プレイヤは、コアユニット70が有する撮像情報演算部74の機能を阻害することなくコアユニット70を片手で把持することができる。つまり、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって、コアユニット70は、プレイヤの手の運動が表示画面に直接作用する操作入力をさらに備えることができる。   In this manner, the core unit 70 can easily operate the operation unit 72 such as the cross key 72a and the operation button 72i while being held by the player with one hand. Furthermore, when the player holds the core unit 70 with one hand, the light incident port of the imaging information calculation unit 74 provided on the front surface of the core unit 70 is exposed, so that the two LED modules 8L and 8R described above are exposed. Infrared light can be easily taken from the light entrance. That is, the player can hold the core unit 70 with one hand without hindering the function of the imaging information calculation unit 74 of the core unit 70. That is, when the player moves the hand holding the core unit 70 with respect to the display screen, the core unit 70 can further include an operation input in which the movement of the player's hand acts directly on the display screen.

ここで、図18に示すように、LEDモジュール8Lおよび8Rは、それぞれ視野角θ1を有している。また、撮像素子743は、視野角θ2を有している。例えば、LEDモジュール8Lおよび8Rの視野角θ1は共に34°(半値角)であり、撮像素子743の視野角θ2は41°である。そして、撮像素子743の視野角θ2の中にLEDモジュール8Lおよび8Rが共に存在し、LEDモジュール8Lの視野角θ1の中でかつLEDモジュール8Rの視野角θ1の中に撮像素子743が存在するとき、ゲーム装置3は、2つのLEDモジュール8Lおよび8Rによる高輝度点に関する位置データを用いてコアユニット70の位置を検出する。   Here, as shown in FIG. 18, the LED modules 8L and 8R each have a viewing angle θ1. Further, the image sensor 743 has a viewing angle θ2. For example, the viewing angles θ1 of the LED modules 8L and 8R are both 34 ° (half-value angle), and the viewing angle θ2 of the image sensor 743 is 41 °. When both the LED modules 8L and 8R exist in the viewing angle θ2 of the imaging device 743, and the imaging device 743 exists in the viewing angle θ1 of the LED module 8L and in the viewing angle θ1 of the LED module 8R. The game apparatus 3 detects the position of the core unit 70 by using the position data regarding the high luminance point by the two LED modules 8L and 8R.

一方、撮像素子743の視野角θ2の中に1つのLEDモジュール8Lまたは8Rだけが存在するとき、またはLEDモジュール8Lの視野角θ1およびLEDモジュール8Rの視野角θ1の何れか一方の中に撮像素子743が存在するとき、2つのLEDモジュール8Lおよび8Rの何れか一方だけによる高輝度点に関する位置データを用いてコアユニット70の位置を検出する。   On the other hand, when there is only one LED module 8L or 8R in the viewing angle θ2 of the imaging device 743, or in either one of the viewing angle θ1 of the LED module 8L or the viewing angle θ1 of the LED module 8R. When 743 exists, the position of the core unit 70 is detected using the position data regarding the high-luminance point by only one of the two LED modules 8L and 8R.

次に、図19を参照して、プレイヤがサブユニット76を一方の手で把持した状態について説明する。なお、図19は、プレイヤがサブユニット76を左手で把持した状態をサブユニット76の右側面側から見た一例である。   Next, a state where the player holds the subunit 76 with one hand will be described with reference to FIG. FIG. 19 shows an example in which the player holds the subunit 76 with his left hand as viewed from the right side of the subunit 76.

図19に示すように、サブユニット76は、全体として大人や子供の片手で把持可能な大きさである。例えば、プレイヤの親指をサブユニット76の上面(例えば、スティック78a付近)に添え、プレイヤの人差し指をサブユニット76前面(例えば、操作ボタン78dおよび78e付近)に添え、プレイヤの中指、薬指、および小指をサブユニット76下面に添えるように、サブユニット76を把持することが可能である。なお、このようなサブユニット76に対する把持状態は、プレイヤの右手であっても同様に行えることは言うまでもない。このように、サブユニット76は、プレイヤが片手で把持した状態でスティック78aや操作ボタン78dおよび78e等の操作部78を容易に操作することができる。   As shown in FIG. 19, the subunit 76 has a size that can be grasped with one hand of an adult or a child as a whole. For example, the player's thumb is attached to the upper surface of the subunit 76 (for example, near the stick 78a), the player's index finger is attached to the front surface of the subunit 76 (for example, near the operation buttons 78d and 78e), and the player's middle finger, ring finger, and little finger It is possible to hold the subunit 76 so that is attached to the lower surface of the subunit 76. Needless to say, such a gripping state with respect to the subunit 76 can be similarly performed even with the right hand of the player. In this way, the subunit 76 can easily operate the operation unit 78 such as the stick 78a and the operation buttons 78d and 78e while being held by the player with one hand.

次に、ゲームシステム1において行われるゲーム処理の詳細を説明する。まず、図20を参照して、ゲーム処理において用いられる主なデータについて説明する。なお、図20は、ゲーム装置3のメインメモリ33に記憶される主なデータを示す図である。   Next, the details of the game process performed in the game system 1 will be described. First, main data used in the game process will be described with reference to FIG. FIG. 20 is a diagram showing main data stored in the main memory 33 of the game apparatus 3.

図20に示すように、メインメモリ33には、操作情報Da、操作状態情報Db、および操作対象情報Dc等が記憶される。なお、メインメモリ33には、図20に示す情報に含まれるデータの他、ゲームに登場するプレイヤキャラクタに関するデータ(プレイヤキャラクタの画像データや位置データ等)やゲーム空間に関するデータ(地形データ等)等、ゲーム処理に必要なデータが記憶される。   As shown in FIG. 20, the main memory 33 stores operation information Da, operation state information Db, operation target information Dc, and the like. In addition to the data included in the information shown in FIG. 20, the main memory 33 includes data relating to the player character appearing in the game (player character image data, position data, etc.), data relating to the game space (terrain data, etc.), etc. Data necessary for the game process is stored.

操作情報Daは、コントローラ7から送信データとして送信されてくる一連の操作情報であり、最新の操作情報に更新される。操作情報Daには、上述の処理結果データに相当する第1座標データDa1および第2座標データDa2が含まれる。第1座標データDa1は、撮像素子743が撮像した撮像画像に対して、2つのマーカ(LEDモジュール8Lおよび8R)のうちの一方の画像の位置(撮像画像内における位置)を表す座標のデータである。第2座標データDa2は、他方のマーカの画像の位置(撮像画像内における位置)を表す座標のデータである。例えば、マーカの画像の位置は、撮像画像におけるxy座標系によって表される。   The operation information Da is a series of operation information transmitted as transmission data from the controller 7, and is updated to the latest operation information. The operation information Da includes first coordinate data Da1 and second coordinate data Da2 corresponding to the processing result data described above. The first coordinate data Da1 is coordinate data representing the position (position in the captured image) of one of the two markers (LED modules 8L and 8R) with respect to the captured image captured by the image sensor 743. is there. The second coordinate data Da2 is coordinate data representing the position of the image of the other marker (position in the captured image). For example, the position of the marker image is represented by an xy coordinate system in the captured image.

また、操作情報Daには、撮像画像から得られる処理結果データの一例の座標データ(第1座標データDa1および第2座標データDa2)の他、操作部78から得られるサブキーデータDa3、操作部72から得られるコアキーデータDa4、および加速度センサ701から得られる加速度データDa5等が含まれる。なお、ゲーム装置3に備える受信ユニット6は、コントローラ7から所定間隔例えば5msごとに送信される操作情報Daを受信し、受信ユニットに備える図示しないバッファに蓄えられる。その後、ゲーム処理間隔である例えば1フレーム毎(1/60秒)に読み出され、その最新の情報がメインメモリ33に記憶される。   The operation information Da includes coordinate data (first coordinate data Da1 and second coordinate data Da2) as an example of processing result data obtained from the captured image, subkey data Da3 obtained from the operation unit 78, and an operation unit 72. Core key data Da4 obtained from the above, acceleration data Da5 obtained from the acceleration sensor 701, and the like. The receiving unit 6 provided in the game apparatus 3 receives operation information Da transmitted from the controller 7 at a predetermined interval, for example, every 5 ms, and is stored in a buffer (not shown) provided in the receiving unit. Thereafter, the game processing interval is read, for example, every frame (1/60 seconds), and the latest information is stored in the main memory 33.

操作状態情報Dbは、コントローラ7の操作状態を撮像画像に基づいて判断した情報である。操作状態情報Dbは、撮像画像に含まれる対象画像(マーカ)の位置や向きを示すデータであり、具体的には方向データDb1および中点データDb2を含む。方向データDb1は、第1座標データDa1から第2座標データDa2への方向を示すデータである。ここでは、方向データDb1は、第1座標データDa1の位置を始点とし第2座標データDa2の位置を終点とするベクトルのデータとする。中点データDb2は、第1座標データDa1と第2座標データDa2との中点の座標を示す。ここで、2つのマーカ(LEDモジュール8Lおよび8R)の画像を1つの対象画像としてみた場合、中点データDb2は、対象画像の位置を示すことになる。   The operation state information Db is information obtained by determining the operation state of the controller 7 based on the captured image. The operation state information Db is data indicating the position and orientation of the target image (marker) included in the captured image, and specifically includes direction data Db1 and midpoint data Db2. The direction data Db1 is data indicating a direction from the first coordinate data Da1 to the second coordinate data Da2. Here, the direction data Db1 is vector data starting from the position of the first coordinate data Da1 and ending at the position of the second coordinate data Da2. The midpoint data Db2 indicates the coordinates of the midpoint between the first coordinate data Da1 and the second coordinate data Da2. Here, when the images of the two markers (LED modules 8L and 8R) are viewed as one target image, the midpoint data Db2 indicates the position of the target image.

操作対象情報Dcは、画面上またはゲーム空間内における操作対象の姿勢および位置や指示位置を示す情報である。ここで、操作対象とは、画面に表示されているオブジェクトや、仮想ゲーム空間に登場するオブジェクトの他、3次元の仮想ゲーム空間が構築される場合には、当該仮想ゲーム空間を画面に表示するための仮想カメラであってもよい。また、操作対象情報Dcには、姿勢データDc1、対象位置データDc2、および指示位置データDc3が含まれる。姿勢データDc1は、操作対象の姿勢を示すデータである。対象位置データDc2は、操作対象のゲーム空間における位置、または、画面上における位置を示すデータである。指示位置データDc3は、第1座標データDa1および第2座標データDa2から得られるコアユニット70によって指し示されるモニタ2の画面上の位置を示すデータである。   The operation target information Dc is information indicating the posture, position, and designated position of the operation target on the screen or in the game space. Here, the operation target is an object displayed on the screen or an object appearing in the virtual game space, and when a three-dimensional virtual game space is constructed, the virtual game space is displayed on the screen. It may be a virtual camera. Further, the operation target information Dc includes posture data Dc1, target position data Dc2, and designated position data Dc3. The posture data Dc1 is data indicating the posture of the operation target. The target position data Dc2 is data indicating a position in the game space to be operated or a position on the screen. The designated position data Dc3 is data indicating the position on the screen of the monitor 2 indicated by the core unit 70 obtained from the first coordinate data Da1 and the second coordinate data Da2.

次に、図21を参照して、ゲーム装置3において行われるゲーム処理の詳細を説明する。なお、図21は、ゲーム装置3において実行されるゲーム処理の流れを示すフローチャートである。ゲーム装置3の電源が投入されると、ゲーム装置3のCPU30は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ33等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムがメインメモリ33に読み込まれ、CPU30によって当該ゲームプログラムの実行が開始される。図21に示すフローチャートは、以上の処理が完了した後に行われるゲーム処理を示すフローチャートである。なお、図21に示すフローチャートにおいては、ゲーム処理のうち、コントローラ7に関するゲーム操作に基づいて行われるゲーム処理について説明し、本願発明と直接関連しない他のゲーム処理については詳細な説明を省略する。また、図21では、CPU30が実行する各ステップを「S」と略称する。   Next, with reference to FIG. 21, the details of the game process performed in the game apparatus 3 will be described. FIG. 21 is a flowchart showing a flow of game processing executed in the game apparatus 3. When the power of the game apparatus 3 is turned on, the CPU 30 of the game apparatus 3 executes a startup program stored in a boot ROM (not shown), thereby initializing each unit such as the main memory 33. Then, the game program stored in the optical disc 4 is read into the main memory 33, and the CPU 30 starts executing the game program. The flowchart shown in FIG. 21 is a flowchart showing a game process performed after the above process is completed. In the flowchart shown in FIG. 21, the game process performed based on the game operation related to the controller 7 in the game process will be described, and detailed description of other game processes not directly related to the present invention will be omitted. In FIG. 21, each step executed by the CPU 30 is abbreviated as “S”.

図21において、CPU30は、コントローラ7から受信した操作情報を取得し(ステップ51)、処理を次のステップに進める。そして、CPU30は、操作情報を操作情報Daとしてメインメモリ33に記憶する。ここで、ステップ51で取得される操作情報には、LEDモジュール8Lおよび8Rの撮像画像内における位置を示す座標データ(第1座標データDa1および第2座標データDa2)の他、コアユニット70の操作部72やサブユニット76の操作部78がどのように操作されたか示すデータ(サブキーデータDa3およびコアキーデータDa4)、および、加速度センサ701が検出した加速度を示すデータ(加速度データDa5)が含まれている。ここでは、通信部75は、所定の時間間隔例えば5ms間隔で操作情報をゲーム装置3へ送信する。そして、CPU30は、1フレーム毎に操作情報を利用するものとする。したがって、図21に示すステップ51〜ステップ58の処理ループは、1フレーム毎に繰り返し実行される。   In FIG. 21, the CPU 30 acquires the operation information received from the controller 7 (step 51), and advances the processing to the next step. Then, the CPU 30 stores the operation information as operation information Da in the main memory 33. Here, the operation information acquired in step 51 includes the operation of the core unit 70 in addition to the coordinate data (first coordinate data Da1 and second coordinate data Da2) indicating the positions of the LED modules 8L and 8R in the captured image. Data indicating how the operation unit 78 of the unit 72 and the subunit 76 is operated (sub key data Da3 and core key data Da4), and data indicating acceleration detected by the acceleration sensor 701 (acceleration data Da5). ing. Here, the communication unit 75 transmits the operation information to the game apparatus 3 at a predetermined time interval, for example, an interval of 5 ms. The CPU 30 uses operation information for each frame. Therefore, the processing loop of step 51 to step 58 shown in FIG. 21 is repeatedly executed for each frame.

次に、CPU30は、操作状態情報を算出し(ステップ52)、処理を次のステップに進める。操作状態情報の算出処理においては、コントローラ7から送信され記憶された第1座標データDa1および第2座標データDa2に基づいて、コアユニット70の操作状態(コアユニット70の動き、位置、姿勢等)が算出される。   Next, the CPU 30 calculates operation state information (step 52), and advances the processing to the next step. In the calculation process of the operation state information, the operation state of the core unit 70 (movement, position, posture, etc. of the core unit 70) based on the first coordinate data Da1 and the second coordinate data Da2 transmitted from the controller 7 and stored. Is calculated.

上記ステップ52において、CPU30は、第1座標データDa1から第2座標データDa2への方向データDb1を算出する。具体的には、CPU30は、第1座標データDa1および第2座標データDa2を参照して、第1座標データDa1の位置を始点とし第2座標データDa2の位置を終点とするベクトルを算出する。そして、CPU30は、算出されたベクトルのデータを、方向データDb1としてメインメモリ33に記憶する。方向データDb1と所定の基準方向との差によって、コアユニット70の撮像面に垂直な方向を軸とする回転を算出することができる。   In step 52, the CPU 30 calculates direction data Db1 from the first coordinate data Da1 to the second coordinate data Da2. Specifically, the CPU 30 refers to the first coordinate data Da1 and the second coordinate data Da2, and calculates a vector having the position of the first coordinate data Da1 as the start point and the position of the second coordinate data Da2 as the end point. Then, the CPU 30 stores the calculated vector data in the main memory 33 as the direction data Db1. The rotation about the direction perpendicular to the imaging surface of the core unit 70 can be calculated based on the difference between the direction data Db1 and the predetermined reference direction.

また、CPU30は、第1座標データDa1と第2座標データDa2との中点を示す中点データDb2を算出する。具体的には、CPU30は、第1座標データDa1および第2座標データDa2を参照して、当該中点の座標を算出する。そして、CPU30は、算出された中点の座標のデータを、中点データDb2としてメインメモリ33に記憶する。ここで、中点データDb2は、撮像画像内における対象画像(LEDモジュール8Lおよび8R)の位置を示している。中点データDb2と所定の基準位置との差によって、コアユニット70の位置の変化による画像位置の変化を算出することができる。   Further, the CPU 30 calculates midpoint data Db2 indicating the midpoint between the first coordinate data Da1 and the second coordinate data Da2. Specifically, the CPU 30 refers to the first coordinate data Da1 and the second coordinate data Da2, and calculates the coordinates of the midpoint. Then, the CPU 30 stores the calculated midpoint coordinate data in the main memory 33 as the midpoint data Db2. Here, the midpoint data Db2 indicates the position of the target image (LED modules 8L and 8R) in the captured image. The change in the image position due to the change in the position of the core unit 70 can be calculated from the difference between the midpoint data Db2 and the predetermined reference position.

次に、CPU30は、指示位置データを算出し(ステップ53)、処理を次のステップに進める。CPU30は、上記ステップ52で算出した方向データDb1および中点データDb2を用いて、指示位置データDc3が算出される。   Next, the CPU 30 calculates designated position data (step 53), and advances the processing to the next step. The CPU 30 calculates the designated position data Dc3 using the direction data Db1 and the midpoint data Db2 calculated in step 52.

例えば、モニタ2の上面に2つのLEDモジュール8Lおよび8Rを設置し(図15参照)、上面が上方向を向いたコアユニット70を用いてプレイヤがモニタ2の画面の中央を指し示した場合(撮像情報演算部74の撮像画像の中央に画面中央が撮像されている状態)を考える。このとき、撮像情報演算部74の撮像画像において、対象画像の中点(LEDモジュール8Lおよび8Rの中点)位置と指示位置(画面中央)とが一致しない。具体的には、上記撮像画像における対象画像の位置は撮像画像の中心から上方の位置となる。このような位置に対象画像が位置する場合に、画面中央を指示するという基準位置の設定がなされていれば、コアユニット70の移動に対応して、撮像画像中の対象画像の位置も移動する(移動方向は逆方向となる)ので、撮像画像中の対象画像の位置の移動に対応させて画面内の指示位置を移動させる処理を行い、コアユニット70の移動方向に対応した画面内の位置を指示することができる。ここで、基準位置の設定は、上記のようにあらかじめユーザが画面の所定位置を支持し、そのときの対象画像の位置を基準となる指示位置と対応させて記憶しておくようにしてもよいし、対象画像と画面との位置関係が固定的であれば、あらかじめ設定されていても良い。このような指示位置は、中点データDb2からモニタ2の画面上の座標(指示位置データDc3)を算出する関数を用いて算出される。この関数は、ある撮像画像から算出される中点座標の値を、当該撮像画像が撮像される時のコアユニット70によって指し示される画面上の位置(指示位置)を表す座標に変換するものである。この関数によって、中点座標から画面上の指示位置を算出することができる。なお、中点座標をゲーム空間内における位置を表す座標に変換する場合には、上記関数によって算出される画面上の位置を、当該画面上における位置に対応するゲーム空間内における位置にさらに変換すればよい。なお、画面上における位置に対応するゲーム空間内における位置とは、画面上における位置に表示されるゲーム空間内における位置である。   For example, when two LED modules 8L and 8R are installed on the upper surface of the monitor 2 (see FIG. 15) and the player points to the center of the screen of the monitor 2 using the core unit 70 with the upper surface facing upward (imaging) Consider a state in which the center of the screen is captured at the center of the captured image of the information calculation unit 74. At this time, in the captured image of the imaging information calculation unit 74, the position of the midpoint of the target image (the midpoint of the LED modules 8L and 8R) does not match the indicated position (center of the screen). Specifically, the position of the target image in the captured image is a position above the center of the captured image. If the reference position is set so as to indicate the center of the screen when the target image is located at such a position, the position of the target image in the captured image also moves in accordance with the movement of the core unit 70. (The moving direction is the reverse direction.) Therefore, a process for moving the indicated position in the screen in accordance with the movement of the position of the target image in the captured image is performed, and the position in the screen corresponding to the moving direction of the core unit 70 is performed. Can be instructed. Here, as for the setting of the reference position, as described above, the user may support a predetermined position on the screen in advance, and the position of the target image at that time may be stored in association with the reference position as a reference. If the positional relationship between the target image and the screen is fixed, it may be set in advance. Such an indicated position is calculated using a function for calculating coordinates (indicated position data Dc3) on the screen of the monitor 2 from the midpoint data Db2. This function converts the value of the midpoint coordinates calculated from a certain captured image into coordinates representing the position (indicated position) on the screen pointed to by the core unit 70 when the captured image is captured. is there. With this function, the indicated position on the screen can be calculated from the midpoint coordinates. When the midpoint coordinates are converted into coordinates representing the position in the game space, the position on the screen calculated by the above function is further converted to a position in the game space corresponding to the position on the screen. That's fine. Note that the position in the game space corresponding to the position on the screen is the position in the game space displayed at the position on the screen.

しかしながら、上面が上方向以外(例えば、右方向)を向いたコアユニット70を用いてプレイヤがモニタ2の画面の中央を指し示した場合、上記撮像画像における対象画像の位置は撮像画像の中心から上方以外(例えば、左方)の方向にずれた位置となる。つまり、コアユニット70の傾きによって、コアユニット70の移動方向と、画面内での指示位置の移動方向が一致しないことになる。そこで、方向データDb1に基づいて、中点データDb2を補正する。具体的には、ステップ52で算出された中点データDb2を、コアユニット70の上面が上方向を向いた状態であるとした場合における中点座標に補正する。より具体的には、上記基準位置の設定の際には方向データの基準も設定され、ステップ52で算出された中点データDb2を、方向データDb1と当該基準方向との角度差に応じた量だけ、撮像画像の中心を軸として中点データDb2が示す座標を回転移動させて補正する。そして、補正された中点データDb2を用いて上述したように指示位置データDc3を算出する。   However, when the player points to the center of the screen of the monitor 2 using the core unit 70 whose upper surface is directed in a direction other than the upward direction (for example, the right direction), the position of the target image in the captured image is above the center of the captured image. The position is shifted in a direction other than (for example, left). That is, due to the inclination of the core unit 70, the moving direction of the core unit 70 does not match the moving direction of the indicated position in the screen. Therefore, the midpoint data Db2 is corrected based on the direction data Db1. Specifically, the midpoint data Db2 calculated in step 52 is corrected to the midpoint coordinates when the upper surface of the core unit 70 is in the upward direction. More specifically, when the reference position is set, the direction data reference is also set, and the midpoint data Db2 calculated in step 52 is an amount corresponding to the angle difference between the direction data Db1 and the reference direction. Thus, the coordinates indicated by the midpoint data Db2 are rotated and corrected around the center of the captured image. Then, the designated position data Dc3 is calculated as described above using the corrected midpoint data Db2.

次に、CPU30は、コントローラ7によって操作される操作対象を設定し(ステップ54)、処理を次のステップに進める。CPU30は、コントローラ7に設けられた各操作部、撮像情報演算部74、センサ等に対して、それぞれの操作対象を設定する。   Next, the CPU 30 sets an operation target operated by the controller 7 (step 54), and advances the processing to the next step. The CPU 30 sets each operation target for each operation unit, the imaging information calculation unit 74, the sensor, and the like provided in the controller 7.

一例として、操作対象は、ゲーム進行やプレイヤの操作に応じて適宜変更される。例えば、コアユニット70に設けられた撮像情報演算部74からの信号による操作対象を、上記指示位置を変換した仮想ゲーム世界内における位置に存在するオブジェクトとする。また、モニタ2に複数の選択肢からプレイヤの選択を促すメニュー画面を表示するとき、撮像情報演算部74からの信号による操作対象を、上記指示位置に表示されている選択肢とする。また、サブユニット76に設けられたスティック78aの操作対象を、仮想ゲーム世界に登場するオブジェクトのうち、現在モニタ2に表示されている何れかのオブジェクトとする。   As an example, the operation target is appropriately changed according to the progress of the game or the operation of the player. For example, an operation target based on a signal from the imaging information calculation unit 74 provided in the core unit 70 is an object that exists at a position in the virtual game world obtained by converting the indicated position. When a menu screen that prompts the player to select from a plurality of options is displayed on the monitor 2, the operation target based on the signal from the imaging information calculation unit 74 is set as the option displayed at the indicated position. In addition, the operation target of the stick 78a provided in the subunit 76 is set to any object currently displayed on the monitor 2 among objects appearing in the virtual game world.

他の例として、操作対象は、固定的に設定される。例えば、サブユニット76に設けられたスティック78aの操作対象を、仮想ゲーム空間に登場するプレイヤキャラクタに固定する。また、コアユニット70に設けられた撮像情報演算部74からの信号による操作対象を、モニタ2に表示されるカーソル(例えば、照準カーソル)や仮想ゲーム空間を画面に表示するための仮想カメラに固定する。なお、操作対象が固定的に設定される場合、処理ループ毎に繰り返し設定することが不要であるため、ステップ54は、ゲーム処理の初期設定においてのみ実行してもかまわない。   As another example, the operation target is fixedly set. For example, the operation target of the stick 78a provided in the subunit 76 is fixed to the player character appearing in the virtual game space. In addition, an operation target based on a signal from the imaging information calculation unit 74 provided in the core unit 70 is fixed to a cursor (for example, an aiming cursor) displayed on the monitor 2 or a virtual camera for displaying a virtual game space on the screen. To do. Note that when the operation target is fixedly set, it is not necessary to repeatedly set it for each processing loop, and therefore step 54 may be executed only at the initial setting of the game process.

次に、CPU30は、操作対象に対する処理を行う(ステップ55)。そして、CPU30は、ステップ55で処理を行わなかった他の操作情報Daに応じた処理を行い(ステップ56)、処理を次のステップに進める。ステップ55において、CPU30は、ステップ54で設定した操作対象に対して、操作情報Daに応じた処理を行い、姿勢データDc1や対象位置データDc2を更新する。例えば、スティック78aの操作対象がプレイヤキャラクタや仮想カメラである場合、当該スティック78aのサブキーデータDa3に応じて、プレイヤキャラクタの位置を移動させたり、仮想カメラの位置を移動させたり、仮想カメラの方向を変化させたりする。また、コアユニット70に設けられた撮像情報演算部74の操作対象が照準カーソル、仮想カメラ、メニュー画面である場合、照準カーソルの位置を移動させたり、仮想カメラの方向を変化させたり、メニュー画面から選択肢を選択したりする。なお、操作情報Daに応じた処理の具体例については、後述する。   Next, the CPU 30 performs processing for the operation target (step 55). And CPU30 performs the process according to the other operation information Da which was not processed at step 55 (step 56), and advances a process to the next step. In step 55, the CPU 30 performs processing corresponding to the operation information Da on the operation target set in step 54, and updates the posture data Dc1 and the target position data Dc2. For example, when the operation target of the stick 78a is a player character or a virtual camera, the position of the player character, the position of the virtual camera, or the direction of the virtual camera is changed according to the sub key data Da3 of the stick 78a. To change. Further, when the operation target of the imaging information calculation unit 74 provided in the core unit 70 is an aiming cursor, a virtual camera, and a menu screen, the position of the aiming cursor is moved, the direction of the virtual camera is changed, the menu screen Or select an option. A specific example of processing according to the operation information Da will be described later.

次に、CPU30は、表示処理を行い(ステップ57)、処理を次のステップに進める。CPU30は、メインメモリ33に記憶されている操作対象情報Dcやゲーム画像の生成に必要なデータ(プレイヤキャラクタの画像および位置データや地形データ等)を参照し、ゲーム画像を生成する。そして、CPU30は、生成した画像をモニタ2の画面に表示させる。   Next, the CPU 30 performs display processing (step 57), and advances the processing to the next step. The CPU 30 refers to the operation target information Dc stored in the main memory 33 and data necessary for generating the game image (player character image, position data, terrain data, etc.), and generates a game image. Then, the CPU 30 displays the generated image on the screen of the monitor 2.

次に、CPU30は、ゲームを終了するか否かを判断する(ステップ58)。ゲームを終了する条件としては、例えば、ゲームオーバーとなる条件(例えば、プレイヤキャラクタの体力を示すパラメータが0になったこと等)が満たされたことや、プレイヤがゲームを終了する操作を行ったこと等がある。CPU30は、ゲームを終了しない場合に上記ステップ51に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。   Next, the CPU 30 determines whether or not to end the game (step 58). As a condition for ending the game, for example, a condition for a game over (for example, a parameter indicating the physical strength of the player character becomes 0) is satisfied, or the player performs an operation to end the game. There are things. CPU30 returns to the said step 51, and repeats a process, when not complete | finishing a game, and complete | finishes the process by the said flowchart, when a game is complete | finished.

このように、コアユニット70の撮像情報演算部74によって固定的に設置されたマーカ(実施例では、2つのLEDモジュール8Lおよび8Rからの赤外光)を撮像することによって、当該マーカに対するコアユニット70の位置に応じた直感的な操作装置としての機能を実現することができる。つまり、ゲーム装置3におけるゲーム処理において、コアユニット70の位置をプレイヤの操作に応じた操作データとして用いることによって、ボタンを押下するような操作ボタンや操作キーとは異なった操作入力となる。また、上述したように上記マーカは、モニタ2の表示画面近傍に設置されているため、マーカに対する位置をモニタ2の表示画面に対するコアユニット70の位置に換算することも容易に行うことができる。つまり、コアユニット70の位置や姿勢による操作データは、モニタ2の表示画面に直接作用する操作入力として用いることができる。   As described above, by imaging the marker (infrared light from the two LED modules 8L and 8R in the embodiment) fixedly installed by the imaging information calculation unit 74 of the core unit 70, the core unit for the marker is captured. A function as an intuitive operation device according to the position of 70 can be realized. That is, in the game processing in the game apparatus 3, by using the position of the core unit 70 as operation data corresponding to the operation of the player, an operation input different from an operation button or an operation key for pressing the button is obtained. Further, as described above, since the marker is installed in the vicinity of the display screen of the monitor 2, the position with respect to the marker can be easily converted into the position of the core unit 70 with respect to the display screen of the monitor 2. That is, the operation data based on the position and orientation of the core unit 70 can be used as an operation input that directly acts on the display screen of the monitor 2.

ここで、上述したコントローラ7を用いてゲーム操作するゲーム例について説明する。第1の例は、コントローラ7を用いてゲーム操作するシューティングゲームである。なお、図22は、第1の例として、ゲーム装置3がシューティングゲームを実行する際にモニタ2に表示されるゲーム画像例を示す図である。   Here, a game example in which a game operation is performed using the controller 7 described above will be described. The first example is a shooting game in which a game operation is performed using the controller 7. FIG. 22 is a diagram illustrating an example of a game image displayed on the monitor 2 when the game apparatus 3 executes a shooting game as a first example.

図22において、モニタ2の表示画面には3次元の仮想ゲーム空間Sの一部が表示されている。そして、コントローラ7の操作に応じて動作するゲームオブジェクトとして、表示画面には、プレイヤキャラクタPの一部および当該プレイヤキャラクタPが所持するガンGの一部が表示されている。また、表示画面に表示される仮想ゲーム空間Sは、プレイヤキャラクタPの前方となる視界が表現され、図22の一例では敵キャラクタEがシューティング目標として表示されている。そして、プレイヤキャラクタPがガンGで射撃した場合の照準が、照準カーソルTとして表示画面に表示される。   In FIG. 22, a part of the three-dimensional virtual game space S is displayed on the display screen of the monitor 2. As a game object that operates in response to an operation of the controller 7, a part of the player character P and a part of the gun G possessed by the player character P are displayed on the display screen. Further, the virtual game space S displayed on the display screen expresses the field of view ahead of the player character P, and the enemy character E is displayed as a shooting target in the example of FIG. Then, the aim when the player character P shoots with the gun G is displayed on the display screen as an aiming cursor T.

このようなゲーム画像がモニタ2に表示されるシューティングゲームにおいて、プレイヤは、一方の手でコアユニット70を他方の手でサブユニット76を操作して(図15参照)ゲームを進行する。そして、サブユニット76に設けられたスティック78aの操作対象がプレイヤキャラクタPに固定されている。また、コアユニット70に設けられた撮像情報演算部74の操作対象が照準カーソルTに固定されている。このように操作対象を設定すると、プレイヤがサブユニット76に設けられたスティック78aを傾倒することによって、当該傾倒方向に応じて仮想ゲーム空間S内をプレイヤキャラクタPが移動する。また、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって、当該モニタ2(LEDモジュール8Lおよび8R)に対する指示位置が設定され、当該指示位置へ照準カーソルTが移動する。そして、プレイヤがコアユニット70に設けられた操作ボタン72i(図6参照)を押下することによって、プレイヤキャラクタPが所持するガンGが照準カーソルTの位置に対応した仮想3次元空間位置に向かって射撃を行い、射撃位置に敵キャラクタEが存在する場合には、敵キャラクタEがダメージを受ける、破壊される等の処理が行われる。   In a shooting game in which such a game image is displayed on the monitor 2, the player advances the game by operating the core unit 70 with one hand and the subunit 76 with the other hand (see FIG. 15). The operation target of the stick 78 a provided in the subunit 76 is fixed to the player character P. Further, the operation target of the imaging information calculation unit 74 provided in the core unit 70 is fixed to the aiming cursor T. When the operation target is set in this way, the player character P moves in the virtual game space S according to the tilt direction by tilting the stick 78a provided on the subunit 76 by the player. Further, when the player moves the hand holding the core unit 70 with respect to the display screen, an instruction position for the monitor 2 (LED modules 8L and 8R) is set, and the aiming cursor T moves to the instruction position. Then, when the player presses an operation button 72i (see FIG. 6) provided on the core unit 70, the gun G possessed by the player character P moves toward a virtual three-dimensional space position corresponding to the position of the aiming cursor T. When shooting is performed and the enemy character E exists at the shooting position, processing such as damage and destruction of the enemy character E is performed.

つまり、プレイヤは、サブユニット76に設けられたスティック78aをプレイヤキャラクタPの移動指示に用いながら、コアユニット70をあたかもシューティングゲームのガンのように用いることができるため、シューティングゲームの興趣が一層増す。また、モニタ2の画面に対してコアユニット70で指し示す位置を移動させる方向と照準カーソルTが移動する方向とが同じであるため、プレイヤが直感的に操作方向を理解しやすい。そして、プレイヤキャラクタPを移動させる操作と照準カーソルTを移動させる操作とがそれぞれ別の手で把持されたユニットを用いて行われるため、プレイヤの操作動作がそれぞれ独立した思考で行える。例えば、プレイヤキャラクタPの移動に応じて表示画面に表示される仮想ゲーム空間Sが移り変わっていくため、仮想ゲーム空間S内におけるプレイヤが注目する位置付近(例えば、物陰から飛び出してくる敵キャラクタEに注目)に照準を常に位置させることが難しいことがある。しかしながら、一方の手の動作(例えば左手の親指)でプレイヤキャラクタPを移動させながら、コアユニット70で指し示す位置が上記注目位置となるように他方の腕の動作(例えば、右腕)で調整できるため、コントローラ7自体の操作の自由度が著しく向上し、臨場感のあるシューティングゲームを実現できる。また、プレイヤが行うプレイヤキャラクタPを移動させる方向指示操作と照準カーソルTを移動させる方向指示操作とが互いに影響し合うことがないため、プレイヤは安定した2つの方向指示操作を行うことができる。つまり、コントローラ7を用いることによって、プレイヤの左右の手が自由になると同時に、物理的に1つのコントローラでは操作できなかった自由度の高い新たな操作が可能になる。また、利き手に応じて2つのユニットを使い分けることも可能となる。   In other words, the player can use the core unit 70 as if it were a gun for a shooting game while using the stick 78a provided in the subunit 76 for the movement instruction of the player character P, so that the interest of the shooting game is further increased. . Further, since the direction in which the position indicated by the core unit 70 is moved with respect to the screen of the monitor 2 is the same as the direction in which the aiming cursor T is moved, it is easy for the player to intuitively understand the operation direction. Since the operation for moving the player character P and the operation for moving the aiming cursor T are performed using units held by different hands, the player's operation can be performed with independent thinking. For example, since the virtual game space S displayed on the display screen changes in accordance with the movement of the player character P, the vicinity of the position in the virtual game space S where the player pays attention (for example, the enemy character E jumping out from the shadow) It may be difficult to always position the aim at (attention). However, since the player character P is moved by the movement of one hand (for example, the thumb of the left hand), the position indicated by the core unit 70 can be adjusted by the movement of the other arm (for example, the right arm) so that the position indicated by the core unit 70 becomes the above-mentioned attention position. The degree of freedom of operation of the controller 7 itself is significantly improved, and a realistic shooting game can be realized. Further, since the direction instruction operation for moving the player character P performed by the player and the direction instruction operation for moving the aiming cursor T do not affect each other, the player can perform two stable direction instruction operations. That is, by using the controller 7, the player's left and right hands are freed, and at the same time, a new operation with a high degree of freedom that cannot be physically operated by one controller is possible. It is also possible to use two units according to the dominant hand.

図23を参照して、上述したコントローラ7を用いてゲーム操作する第2の例について説明する。なお、図23は、第2の例としてゲーム装置3がゲーム画像を作成する際の仮想カメラCの状態を示す図である。   With reference to FIG. 23, a second example in which a game operation is performed using the controller 7 described above will be described. FIG. 23 is a diagram illustrating a state of the virtual camera C when the game apparatus 3 creates a game image as a second example.

図23において、仮想カメラCから見たゲームフィールドFの画像がゲーム画像として作成される。そして、上記第1の例と同様に、プレイヤが一方の手でコアユニット70を他方の手でサブユニット76を操作してゲームを進行する。そして、サブユニット76に設けられたスティック78aの操作対象がプレイヤキャラクタPに固定されている。また、コアユニット70に設けられた撮像情報演算部74の操作対象が仮想カメラCに固定されている。このように操作対象を設定すると、プレイヤがサブユニット76に設けられたスティック78aを傾倒することによって、当該傾倒方向に応じてゲームフィールドF上をプレイヤキャラクタPが移動する。また、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって、当該モニタ2の画面に対する指示位置P1が設定される。そして、画面上の指示位置P1を、当該画面上における位置に対応するゲーム空間内における位置P2にさらに変換する。このとき、仮想カメラCは、その注視点が位置P2に追従するように撮像方向を図示a方向へ変化させる。つまり、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって、当該モニタ2を指し示す位置に追従して仮想カメラCの注視点が移動する。この場合、コアユニット70の操作によって、画面の表示状態が変わってしまうため、仮想3次元空間内における指示位置も移動してしまうことになる。したがって、コアユニット70によって仮想カメラCを操作する場合には、他の操作キー等の操作と組み合わせ、キーを押した瞬間に指示されていた位置に注視点が向かうようにカメラを移動するという処理を行う。また、指示位置そのものを注視点とするのではなく、キーを押し続けている間の指示位置の移動量を算出し、当該移動量に応じて注視点が移動するようにカメラを移動させるという処理を行うようにしてもよい。   In FIG. 23, an image of the game field F viewed from the virtual camera C is created as a game image. As in the first example, the player operates the core unit 70 with one hand and the subunit 76 with the other hand to advance the game. The operation target of the stick 78 a provided in the subunit 76 is fixed to the player character P. In addition, the operation target of the imaging information calculation unit 74 provided in the core unit 70 is fixed to the virtual camera C. When the operation target is set as described above, the player character P moves on the game field F in accordance with the tilt direction by tilting the stick 78a provided on the subunit 76 by the player. Further, when the player moves the hand holding the core unit 70 with respect to the display screen, the designated position P1 with respect to the screen of the monitor 2 is set. Then, the designated position P1 on the screen is further converted into a position P2 in the game space corresponding to the position on the screen. At this time, the virtual camera C changes the imaging direction to the a direction in the drawing so that the gazing point follows the position P2. That is, when the player moves the hand holding the core unit 70 with respect to the display screen, the point of sight of the virtual camera C moves following the position pointing to the monitor 2. In this case, since the display state of the screen is changed by the operation of the core unit 70, the indicated position in the virtual three-dimensional space is also moved. Therefore, when the virtual camera C is operated by the core unit 70, in combination with the operation of other operation keys or the like, the process of moving the camera so that the gazing point is directed to the position indicated at the moment when the key is pressed. I do. Also, instead of using the pointed position itself as a gazing point, the amount of movement of the pointed position is calculated while the key is held down, and the camera is moved so that the point of sight moves according to the amount of movement. May be performed.

このような操作によって、プレイヤは、サブユニット76に設けられたスティック78aをプレイヤキャラクタPの移動指示に用いながら、コアユニット70を向けたゲームフィールドFの位置を注視することができる。また、画面中央に常にシューティングの照準が設定されているゲーム等では、第2の例の操作によってコアユニット70が指し示す位置に照準が追従することになる。さらに、従来、プレイヤキャラクタPの向きを変えるためには、スティック等の操作部を倒し続ける必要があり、素早く方向転換ができない。また、スティックを傾倒する方向と画面内の方向との関係がプレイヤによって異なるため、プレイヤの好みに応じた方向設定が可能となるリバースモードを設ける必要がある。しかしながら、第2の例では、仮想カメラCの注視点が常にプレイヤキャラクタPが注目する位置に設定されるゲーム等において、コアユニット70の動きに応じた操作入力によって注視点が移動する速度を調整すれば、必要に応じてプレイヤキャラクタPの素早い方向転換が可能となり、直感的な入力であるためリバースモードが不要となる。   By such an operation, the player can watch the position of the game field F toward the core unit 70 while using the stick 78a provided in the subunit 76 for the movement instruction of the player character P. In a game or the like in which the shooting aim is always set at the center of the screen, the aim follows the position indicated by the core unit 70 by the operation of the second example. Furthermore, conventionally, in order to change the direction of the player character P, it is necessary to keep the operation unit such as a stick down, and the direction cannot be quickly changed. Further, since the relationship between the direction in which the stick is tilted and the direction in the screen varies depending on the player, it is necessary to provide a reverse mode in which the direction can be set according to the player's preference. However, in the second example, in a game or the like where the gazing point of the virtual camera C is always set to a position where the player character P is focused, the speed at which the gazing point moves is adjusted by an operation input according to the movement of the core unit 70. Then, if necessary, the player character P can quickly change direction, and the reverse mode is unnecessary because of the intuitive input.

次に、図24を参照して、上述したコントローラ7を用いてゲーム操作する第3の例について説明する。第3の例は、コントローラ7を用いてゲーム操作するロールプレイングゲームである。なお、図24は、第3の例として、ゲーム装置3がロールプレイングゲームを実行する際にモニタ2に表示されるゲーム画像例を示す図である。   Next, with reference to FIG. 24, a third example in which a game operation is performed using the controller 7 described above will be described. The third example is a role playing game in which a game operation is performed using the controller 7. FIG. 24 is a diagram showing an example of a game image displayed on the monitor 2 when the game apparatus 3 executes a role playing game as a third example.

図24において、モニタ2の表示画面には3次元の仮想ゲーム空間Sの一部が表示されている。そして、コントローラ7の操作に応じて動作するゲームオブジェクトとして、表示画面には、プレイヤキャラクタPおよびメニューMが表示されている。メニューMは、プレイヤキャラクタPが仮想ゲーム空間S内で行動する複数の選択肢M1〜M7が記述されており、複数の選択肢M1〜M7からプレイヤの選択を促すメニュー画面である。   In FIG. 24, a part of the three-dimensional virtual game space S is displayed on the display screen of the monitor 2. A player character P and a menu M are displayed on the display screen as game objects that operate according to the operation of the controller 7. The menu M is a menu screen that describes a plurality of options M1 to M7 for the player character P to act in the virtual game space S and prompts the player to select from the options M1 to M7.

このようなゲーム画像がモニタ2に表示されるロールプレイングゲームにおいて、上記第1の例と同様に、プレイヤが一方の手でコアユニット70を他方の手でサブユニット76を操作してゲームを進行する。そして、サブユニット76に設けられたスティック78aの操作対象がプレイヤキャラクタPに固定されている。また、コアユニット70に設けられた撮像情報演算部74の操作対象が現在の指示位置に応じた選択肢M1〜M7の何れかに設定される。このように操作対象を設定すると、プレイヤがサブユニット76に設けられたスティック78aを傾倒することによって、当該傾倒方向に応じて仮想ゲーム空間S内をプレイヤキャラクタPが移動する。また、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって当該モニタ2に対する指示位置が設定され、当該指示位置に表示されている選択肢M1〜M7の何れか(図24では、選択肢M1)に対して選択カーソルCsが表示される。そして、プレイヤがコアユニット70に設けられた操作ボタン72iを押下することによって、現在選択されている選択肢M1〜M7の何れか(つまり、選択カーソルCsが表示されている選択肢)がプレイヤキャラクタPの行動として決定される。   In a role-playing game in which such a game image is displayed on the monitor 2, as in the first example, the player operates the core unit 70 with one hand and the subunit 76 with the other hand to advance the game. To do. The operation target of the stick 78 a provided in the subunit 76 is fixed to the player character P. In addition, the operation target of the imaging information calculation unit 74 provided in the core unit 70 is set to one of the options M1 to M7 corresponding to the current designated position. When the operation target is set in this way, the player character P moves in the virtual game space S according to the tilt direction by tilting the stick 78a provided on the subunit 76 by the player. Further, an instruction position for the monitor 2 is set by moving the hand holding the core unit 70 with respect to the display screen by the player, and one of the options M1 to M7 displayed at the instruction position (in FIG. 24, A selection cursor Cs is displayed for the choice M1). Then, when the player presses the operation button 72i provided on the core unit 70, one of the currently selected options M1 to M7 (that is, the option on which the selection cursor Cs is displayed) is the player character P. It is determined as an action.

このような操作によって、プレイヤは、サブユニット76に設けられたスティック78aをプレイヤキャラクタPの移動指示に用いながら、複数の選択肢M1〜M7からコアユニット70で指し示してメニューを選択することができる。従来のゲーム操作では、コントローラによるメニュー選択に時間を要し、しかも方向キー等による入力が必要とするため、リアルタイムでゲームが進行するゲームの場合、メニューの選択肢を選択している間にプレイヤキャラクタの操作ができずに操作を失敗することがある。しかしながら、第3の例では、一方の手でキャラクタの操作を行い、他方の手で直接的に項目の選択ができるので、時間的なロスが少なく快適な操作ができる。   By such an operation, the player can select the menu by pointing with the core unit 70 from the plurality of options M1 to M7 while using the stick 78a provided in the subunit 76 for the movement instruction of the player character P. In conventional game operations, menu selection by the controller takes time, and input by direction keys or the like is required. Therefore, in the case of a game in which the game progresses in real time, the player character is selected while the menu option is selected. The operation may fail because the operation cannot be performed. However, in the third example, since the character can be operated with one hand and the item can be selected directly with the other hand, a comfortable operation can be performed with little time loss.

なお、上述した第1〜第3の例は、本発明を実現することによって大きな効果が得られるゲーム例に過ぎず、本発明がこれらのゲームに限定されないことは言うまでもない。例えば、コアユニット70によって指し示されることによって設定される指示位置に対応するゲーム空間内における位置へ、プレイヤキャラクタや他のゲームオブジェクトを移動させてもかまわない。   It should be noted that the first to third examples described above are merely game examples in which a great effect can be obtained by realizing the present invention, and it goes without saying that the present invention is not limited to these games. For example, the player character or other game object may be moved to a position in the game space corresponding to the designated position set by being pointed by the core unit 70.

なお、上述した説明では、コントローラ7とゲーム装置3とが無線通信によって接続された態様を用いたが、コントローラ7とゲーム装置3とがケーブルを介して電気的に接続されてもかまわない。この場合、コアユニット70に接続されたケーブルをゲーム装置3の接続端子に接続する。   In the above description, the controller 7 and the game apparatus 3 are connected by wireless communication. However, the controller 7 and the game apparatus 3 may be electrically connected via a cable. In this case, the cable connected to the core unit 70 is connected to the connection terminal of the game apparatus 3.

また、コントローラ7を構成するコアユニット70およびサブユニット76のうち、コアユニット70のみに通信部75を設けたが、サブユニット76に受信ユニット6へ送信データを無線送信する通信部を設けてもかまわない。また、コアユニット70およびサブユニット76それぞれに上記通信部を設けてもかまわない。例えば、コアユニット70およびサブユニット76に設けられた通信部がそれぞれ受信ユニット6へ送信データを無線送信してもいいし、サブユニット76の通信部からコアユニット70へ送信データを無線送信してコアユニット70の通信部75で受信した後、コアユニット70の通信部75がサブユニット76の送信データと共にコアユニット70の送信データを受信ユニット6へ無線送信してもいい。これらの場合、コアユニット70とサブユニット76とを電気的に接続する接続ケーブル79が不要となり、2つのユニットが完全に分離されるため、2人で操作することが可能となる。   Further, although the communication unit 75 is provided only in the core unit 70 among the core unit 70 and the subunit 76 constituting the controller 7, a communication unit that wirelessly transmits transmission data to the reception unit 6 may be provided in the subunit 76. It doesn't matter. The communication unit may be provided in each of the core unit 70 and the subunit 76. For example, the communication units provided in the core unit 70 and the subunit 76 may wirelessly transmit transmission data to the receiving unit 6, respectively, or the transmission data may be wirelessly transmitted from the communication unit of the subunit 76 to the core unit 70. After being received by the communication unit 75 of the core unit 70, the communication unit 75 of the core unit 70 may wirelessly transmit the transmission data of the core unit 70 to the reception unit 6 together with the transmission data of the subunit 76. In these cases, the connection cable 79 for electrically connecting the core unit 70 and the subunit 76 is not necessary, and the two units are completely separated, so that two people can operate.

また、コントローラ7から無線送信される送信データを受信する受信手段として、ゲーム装置3の接続端子に接続された受信ユニット6を用いて説明したが、ゲーム装置3の本体内部に設けられた受信モジュールによって当該受信手段を構成してもかまわない。この場合、受信モジュールが受信した送信データは、所定のバスを介してCPU30に出力される。   Further, the reception unit 6 connected to the connection terminal of the game apparatus 3 has been described as the reception means for receiving transmission data wirelessly transmitted from the controller 7. However, the reception module provided in the main body of the game apparatus 3 has been described. The receiving unit may be configured as follows. In this case, the transmission data received by the receiving module is output to the CPU 30 via a predetermined bus.

また、コアユニット70本体の動きに応じて変化する信号(処理結果データ)を出力する検知部の一例として、撮像情報演算部74をコアユニット70に内蔵して説明したが、他の機構でもかまわない。例えば、コアユニット70は、上述したように加速度センサ701を内蔵しており、ジャイロセンサが用いられていることもあり得る。加速度センサやジャイロセンサは、コアユニット70の動きや姿勢を検出することが可能であり、これらの検出信号を用いればコアユニット70本体の動きに応じて変化する信号を出力する検知部として用いることができる。この場合、コアユニット70に内蔵された撮像情報演算部74を排除してもよいし、センサと撮像情報演算部の両者を組み合わせる構成としてもよい。   In addition, as an example of the detection unit that outputs a signal (processing result data) that changes according to the movement of the core unit 70 main body, the imaging information calculation unit 74 has been described as being built in the core unit 70, but other mechanisms may be used. Absent. For example, the core unit 70 includes the acceleration sensor 701 as described above, and a gyro sensor may be used. The acceleration sensor and the gyro sensor can detect the movement and posture of the core unit 70. If these detection signals are used, the acceleration sensor or the gyro sensor is used as a detection unit that outputs a signal that changes according to the movement of the core unit 70 body. Can do. In this case, the imaging information calculation unit 74 built in the core unit 70 may be eliminated, or the sensor and the imaging information calculation unit may be combined.

また、撮像情報演算部74をコアユニット70のみに設けたが、サブユニット76にも同様の撮像情報演算部を設け、双方のユニットでコントローラの移動に応じた直感的な操作を行うようにしてもよい。この場合、より自由度の高い入力操作が可能となる。また、上述した実施例では、コアユニット70とサブユニット76を1つのコントローラとして説明したが、サブユニット76の代わりにコアユニット70と同じ機能を備えた代替品でもよく例えばコアユニット70そのものを用いてもよい。この場合、コアユニット70を2つ利用することになり、コアユニット70を1つのコントローラと考えると2つのコントローラを利用していることになる。コアユニット70にはゲーム装置と通信するための通信部を備えるので、各コアユニット70がゲーム装置と通信し、ゲーム装置側では一方のコアユニット70から受け取った操作データと、他方のコアユニット70から受け取った操作データとに基づいてゲーム処理が行われる。   In addition, although the imaging information calculation unit 74 is provided only in the core unit 70, a similar imaging information calculation unit is also provided in the subunit 76 so that an intuitive operation corresponding to the movement of the controller is performed in both units. Also good. In this case, an input operation with a higher degree of freedom is possible. In the above-described embodiment, the core unit 70 and the subunit 76 are described as one controller. However, instead of the subunit 76, an alternative product having the same function as the core unit 70 may be used. For example, the core unit 70 itself is used. May be. In this case, two core units 70 are used. If the core unit 70 is considered as one controller, two controllers are used. Since the core unit 70 includes a communication unit for communicating with the game device, each core unit 70 communicates with the game device. On the game device side, the operation data received from one core unit 70 and the other core unit 70 are communicated. The game processing is performed based on the operation data received from.

また、撮像素子743で撮像した画像データを解析してLEDモジュール8Lおよび8Rからの赤外光の位置座標やそれらの重心座標等を取得し、それらを処理結果データとしてコアユニット70内で生成してゲーム装置3へ送信する態様を説明したが、他の処理段階のデータをコアユニット70からゲーム装置3へ送信してもかまわない。例えば、撮像素子743が撮像した画像データをコアユニット70からゲーム装置3へ送信し、CPU30において上記解析処理を行って処理結果データを取得してもかまわない。この場合、コアユニット70に設けられた画像処理回路744が不要となる。また、上記画像データの解析途中のデータをコアユニット70からゲーム装置3へ送信してもかまわない。例えば、画像データから得られる輝度、位置、および面積等を示すデータをコアユニット70からゲーム装置3へ送信し、CPU30において残りの解析処理を行って処理結果データを取得してもかまわない。   Further, the image data picked up by the image pickup device 743 is analyzed to acquire the position coordinates of the infrared light from the LED modules 8L and 8R, the barycentric coordinates thereof, and the like, and these are generated in the core unit 70 as the processing result data. Although the aspect of transmitting to the game apparatus 3 has been described, data of other processing stages may be transmitted from the core unit 70 to the game apparatus 3. For example, the image data captured by the image sensor 743 may be transmitted from the core unit 70 to the game apparatus 3, and the CPU 30 may perform the above analysis process to acquire the processing result data. In this case, the image processing circuit 744 provided in the core unit 70 becomes unnecessary. Further, the data during the analysis of the image data may be transmitted from the core unit 70 to the game apparatus 3. For example, data indicating brightness, position, area, and the like obtained from the image data may be transmitted from the core unit 70 to the game apparatus 3, and the CPU 30 may perform the remaining analysis processing to obtain processing result data.

また、上述した説明では、2つのLEDモジュール8Lおよび8Rからの赤外光を、コアユニット70の撮像情報演算部74の撮像対象としたが、他のものを撮像対象にしてもかまわない。例えば、1つまたは3つ以上のLEDモジュールをモニタ2の近傍に設置し、それらのLEDモジュールからの赤外光を撮像情報演算部74の撮像対象としてもかまわない。また、モニタ2の表示画面自体や他の発光体(室内灯等)を撮像情報演算部74の撮像対象としてもかまわない。撮像対象とモニタ2の表示画面との配置関係に基づいて、当該表示画面に対するコアユニット70の位置を演算すれば、様々な発光体を撮像情報演算部74の撮像対象として用いることができる。   Further, in the above description, the infrared light from the two LED modules 8L and 8R is the imaging target of the imaging information calculation unit 74 of the core unit 70, but other objects may be the imaging target. For example, one or three or more LED modules may be installed in the vicinity of the monitor 2 and infrared light from these LED modules may be used as an imaging target of the imaging information calculation unit 74. In addition, the display screen itself of the monitor 2 or other light emitters (such as room lights) may be the imaging target of the imaging information calculation unit 74. If the position of the core unit 70 relative to the display screen is calculated based on the positional relationship between the imaging target and the display screen of the monitor 2, various light emitters can be used as the imaging target of the imaging information calculation unit 74.

また、上述したコアユニット70およびサブユニット76の形状や、それらに設けられている操作部72および78の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、コアユニット70における撮像情報演算部74の位置(撮像情報演算部74の光入射口)は、ハウジング71の前面でなくてもよく、ハウジング71の外部から光を取り入れることができれば他の面に設けられてもかまわない。   Further, the shapes of the core unit 70 and the subunit 76 described above and the shapes, numbers, and installation positions of the operation units 72 and 78 provided on them are merely examples, and other shapes, numbers, and installations are provided. It goes without saying that the present invention can be realized even in the position. Further, the position of the imaging information calculation unit 74 in the core unit 70 (the light incident port of the imaging information calculation unit 74) does not have to be the front surface of the housing 71. If the light can be taken in from the outside of the housing 71, the other surface. May be provided.

このように、本発明のコントローラは、コアユニット70およびサブユニット76を共に操作に用いて、ゲームを楽しむことができる。ここで、コアユニット70は、撮像情報演算部74や加速度センサ701等のユニット本体の動きに応じた信号を出力する機能を有しており、サブユニット76は、プレイヤの方向入力操作に応じた信号を出力する機能を有している。例えば、コアユニット70とサブユニット76とが合体して一体となったコントローラを仮定した場合、ユニット本体の動きに応じた信号を出力するためには全体を動かすことが必要となり、方向入力操作に影響を与えてしまう。また、その逆の影響も生じてしまう。つまり、コアユニット70とサブユニット76とを合体させると、分離することにより実現していた自由度が著しく損なわれてしまう。したがって、コアユニット70およびサブユニット76は、従来のゲーム機用コントローラを単に左右に分離できるように構成しただけでなく、プレイヤの左右の手が自由になると同時に合体型では操作できなかった新たな操作が可能となっている。また、コントローラ自体の操作の自由度が著しく向上しているため、臨場感のあるゲーム操作を実現できる。   Thus, the controller of the present invention can enjoy the game by using both the core unit 70 and the subunit 76 for the operation. Here, the core unit 70 has a function of outputting a signal corresponding to the movement of the unit main body such as the imaging information calculation unit 74 and the acceleration sensor 701, and the subunit 76 corresponds to the direction input operation of the player. It has a function to output a signal. For example, assuming a controller in which the core unit 70 and the subunit 76 are united and integrated, it is necessary to move the entire unit in order to output a signal corresponding to the movement of the unit body. It will have an effect. In addition, the opposite effect occurs. That is, when the core unit 70 and the subunit 76 are combined, the degree of freedom realized by separating them is significantly impaired. Accordingly, the core unit 70 and the subunit 76 are not only configured so that the conventional game machine controller can be separated into the left and right, but also the player's left and right hands are freed and at the same time a new one that cannot be operated in the combined type. Operation is possible. Further, since the degree of freedom of operation of the controller itself is remarkably improved, a realistic game operation can be realized.

本発明に係るゲームシステムおよびゲームプログラムは、自由度の高い操作を実現することができ、1人のプレイヤが物理的に分離したユニットを把持して操作するゲームシステムおよびゲームプログラム等として有用である。   The game system and game program according to the present invention can realize a highly flexible operation, and are useful as a game system and a game program in which one player holds and operates a physically separated unit. .

1…ゲームシステム
2…モニタ
2b…スピーカ
3…ゲーム装置
30…CPU
31…メモリコントローラ
32…GPU
33…メインメモリ
34…DSP
35…ARAM
36…コントローラI/F
37…ビデオI/F
38…外部メモリI/F
39…オーディオI/F
40…ディスクドライブ
41…ディスクI/F
4…光ディスク
5…外部メモリカード
6…受信ユニット
7…コントローラ
70…コアユニット
71、77…ハウジング
72、78…操作部
73、791…コネクタ
74…撮像情報演算部
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
751…マイコン
752…メモリ
753…無線モジュール
754…アンテナ
700…基板
701…加速度センサ
702…LED
703…水晶振動子
704…バイブレータ
705…電池
76…サブユニット
79…接続ケーブル
8…LEDモジュール
DESCRIPTION OF SYMBOLS 1 ... Game system 2 ... Monitor 2b ... Speaker 3 ... Game device 30 ... CPU
31 ... Memory controller 32 ... GPU
33 ... Main memory 34 ... DSP
35 ... ARAM
36 ... Controller I / F
37 ... Video I / F
38 ... External memory I / F
39 ... Audio I / F
40 ... disk drive 41 ... disk I / F
4 ... Optical disk 5 ... External memory card 6 ... Reception unit 7 ... Controller 70 ... Core unit 71, 77 ... Housing 72, 78 ... Operation part 73, 791 ... Connector 74 ... Imaging information calculation part 741 ... Infrared filter 742 ... Lens 743 ... Image sensor 744 ... Image processing circuit 75 ... Communication unit 751 ... Microcomputer 752 ... Memory 753 ... Wireless module 754 ... Antenna 700 ... Substrate 701 ... Acceleration sensor 702 ... LED
703 ... Crystal oscillator 704 ... Vibrator 705 ... Battery 76 ... Subunit 79 ... Connection cable 8 ... LED module

Claims (23)

第1のコントローラと、
前記第1のコントローラとは別体に構成された第2のコントローラと、
所定のゲームプログラムを実行して2次元または3次元の仮想ゲーム世界を表示装置の表示領域に表示させるゲーム装置とを備え、
前記第1のコントローラは、
加速度センサと、
前記加速度センサから出力される加速度データおよび前記加速度データ以外の、プレイヤの入力操作に応じた操作データを含む第1操作データを発生する第1操作データ発生部とを含み、
前記第2のコントローラは、前記プレイヤの方向入力操作に応じた第2操作データを発生する第2操作データ発生部を含み、
前記ゲーム装置は、
前記第1操作データおよび前記第2操作データを取得し、当該両操作データに応じて前記仮想ゲーム世界に対して所定のゲーム処理を行うとともに前記ゲーム処理の一部として、前記第2操作データに応じて前記仮想ゲーム世界におけるオブジェクトを移動させるゲーム処理手段と、
前記ゲーム処理を行った後の前記仮想ゲーム世界を画像として前記表示装置の表示領域に表示させる表示処理手段とを含む、ゲームシステム。
A first controller;
A second controller configured separately from the first controller;
A game device that executes a predetermined game program and displays a two-dimensional or three-dimensional virtual game world in a display area of the display device;
The first controller includes:
An acceleration sensor;
A first operation data generation unit that generates first operation data including operation data corresponding to an input operation of a player other than the acceleration data output from the acceleration sensor and the acceleration data;
The second controller includes a second operation data generation unit that generates second operation data according to a direction input operation of the player,
The game device includes:
The first operation data and the second operation data are acquired, a predetermined game process is performed on the virtual game world according to the both operation data, and the second operation data is stored as part of the game process. Game processing means for moving the object in the virtual game world in response ,
Display processing means for displaying the virtual game world after the game processing as an image in a display area of the display device.
前記ゲーム処理手段は、前記加速度データに基づいて、前記表示装置の表示領域に対応した所定の座標を指示座標として決定する指示座標決定手段を含み、
前記ゲーム処理手段は、前記指示座標および前記第2操作データを所定の演算に用いてゲーム処理を行う、請求項1に記載のゲームシステム。
The game processing means includes instruction coordinate determination means for determining, as instruction coordinates, predetermined coordinates corresponding to a display area of the display device based on the acceleration data,
The game system according to claim 1, wherein the game processing means performs a game process using the designated coordinates and the second operation data for a predetermined calculation.
前記指示座標決定手段は、前記加速度データに対応させて指示座標を所定位置から移動させることによって指示座標を決定する、請求項2に記載のゲームシステム。   The game system according to claim 2, wherein the designated coordinate determining means determines the designated coordinates by moving the designated coordinates from a predetermined position in correspondence with the acceleration data. 前記ゲーム処理手段は、前記指示座標に対応する3次元の仮想ゲーム空間内の3次元指示座標を求め、当該3次元指示座標を用いた演算を含むゲーム処理を行い、
前記表示処理手段は、前記ゲーム処理手段がゲーム処理した3次元の仮想ゲーム空間を前記表示装置の表示領域に表示する処理を行う、請求項2または3に記載のゲームシステム。
The game processing means obtains a three-dimensional designated coordinate in a three-dimensional virtual game space corresponding to the designated coordinate, performs a game process including a calculation using the three-dimensional designated coordinate,
4. The game system according to claim 2, wherein the display processing unit performs a process of displaying a three-dimensional virtual game space on which the game processing unit has processed the game in a display area of the display device.
前記ゲーム処理手段は、前記3次元指示座標の位置に存在するオブジェクトに対して、所定の処理を行う、請求項4に記載のゲームシステム。   The game system according to claim 4, wherein the game processing means performs a predetermined process on the object existing at the position of the three-dimensional designated coordinates. 前記ゲーム処理手段は、前記指示座標に対応した位置に所定のオブジェクトを配置する、請求項2に記載のゲームシステム。   The game system according to claim 2, wherein the game processing unit arranges a predetermined object at a position corresponding to the designated coordinates. 前記ゲーム処理手段は、複数の選択項目からプレイヤの選択を促すメニュー領域を少なくとも含む仮想ゲーム世界を生成し、
前記ゲーム処理手段は、前記表示領域において前記指示座標を含む位置に表示されている選択項目を選択する処理を行う、請求項2に記載のゲームシステム。
The game processing means generates a virtual game world including at least a menu area that prompts the player to select from a plurality of selection items,
The game system according to claim 2, wherein the game processing means performs a process of selecting a selection item displayed at a position including the designated coordinates in the display area.
前記ゲーム処理手段は、前記第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタの位置座標、仮想カメラの位置座標、および仮想カメラの方向ベクトルのうち少なくとも1つを変化させる、請求項4乃至7のいずれか1つに記載のゲームシステム。   The game processing means changes at least one of a position coordinate of a player character, a position coordinate of a virtual camera, and a direction vector of a virtual camera in the virtual game world in correspondence with the second operation data. 8. The game system according to any one of 7 to 7. 前記ゲーム処理手段は、前記3次元指示座標に仮想カメラの注視点が一致するように仮想カメラの方向を移動させる、請求項4に記載のゲームシステム。   The game system according to claim 4, wherein the game processing means moves the direction of the virtual camera so that a gazing point of the virtual camera coincides with the three-dimensional designated coordinates. 前記ゲーム処理手段は、前記加速度データが示す加速度の変化量に対して所定の演算を行い、前記表示領域に対応した座標系における所定の移動ベクトルを決定し、3次元の仮想ゲーム空間における仮想カメラの注視点が、前記表示領域上で当該移動ベクトルに対応して移動するように仮想カメラの方向を移動し、
前記表示処理手段は、前記ゲーム処理手段のゲーム処理した3次元の仮想ゲーム空間を前記表示装置の表示領域に表示する処理を行う、請求項1に記載のゲームシステム。
The game processing means performs a predetermined calculation on the amount of change in acceleration indicated by the acceleration data, determines a predetermined movement vector in a coordinate system corresponding to the display area, and performs a virtual camera in a three-dimensional virtual game space Move the direction of the virtual camera so that the point of interest moves in accordance with the movement vector on the display area,
The game system according to claim 1, wherein the display processing unit performs a process of displaying a three-dimensional virtual game space processed by the game processing unit in a display area of the display device.
前記ゲーム処理手段は、前記第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタの位置座標および仮想カメラの位置座標の少なくとも一方を変化させる、請求項9または10に記載のゲームシステム。   The game system according to claim 9 or 10, wherein the game processing means changes at least one of a position coordinate of a player character and a position coordinate of a virtual camera in the virtual game world in accordance with the second operation data. 第1のコントローラに設けられた加速度センサから出力される加速度データおよび前記加速度データ以外のプレイヤの入力操作に応じた操作データを含む第1操作データと、前記第1のコントローラとは別体に構成された第2のコントローラに与えられた方向入力操作に応じた第2操作データとを取得するゲーム装置のコンピュータに所定の手順を実行させるゲームプログラムであって、
前記第1操作データおよび前記第2操作データを取得し、当該両操作データに応じて2次元または3次元の仮想ゲーム世界に対して所定のゲーム処理を行うとともに前記ゲーム処理の一部として、前記第2操作データに応じて前記仮想ゲーム世界におけるオブジェクトを移動させるゲーム処理ステップと、
前記ゲーム処理を行った後の前記仮想ゲーム世界を画像として表示装置の表示領域に表示させる表示処理ステップとを、前記コンピュータに実行させる、ゲームプログラム。
First operation data including acceleration data output from an acceleration sensor provided in the first controller and operation data corresponding to the player's input operation other than the acceleration data, and the first controller are configured separately. A game program for causing a computer of a game device to acquire second operation data corresponding to a direction input operation given to the second controller, to execute a predetermined procedure;
The first operation data and the second operation data are acquired, a predetermined game process is performed on a two-dimensional or three-dimensional virtual game world according to the two operation data, and as part of the game process, A game processing step of moving an object in the virtual game world according to second operation data ;
A game program that causes the computer to execute a display processing step of displaying the virtual game world after the game processing as an image in a display area of a display device.
前記ゲーム処理ステップは、
前記加速度データに基づいて、前記表示装置の表示領域に対応した所定の座標を指示座標として決定する指示座標決定ステップと、
前記指示座標および前記第2操作データを所定の演算に用いてゲーム処理を行うステップとを含む、請求項12に記載のゲームプログラム。
The game processing step includes
An instruction coordinate determination step for determining, as instruction coordinates, predetermined coordinates corresponding to a display area of the display device, based on the acceleration data;
The game program of Claim 12 including the step which performs a game process using the said instruction | indication coordinate and the said 2nd operation data for predetermined | prescribed calculation.
前記指示座標決定ステップは、前記加速度データに対応させて指示座標を所定位置から移動させることによって新たな指示座標を決定するステップを含む、請求項13に記載のゲームプログラム。   The game program according to claim 13, wherein the designated coordinate determining step includes a step of determining a new designated coordinate by moving the designated coordinate from a predetermined position in correspondence with the acceleration data. 前記ゲーム処理ステップは、
前記指示座標に対応する3次元の仮想ゲーム空間内の3次元指示座標を求めるステップと、
前記3次元指示座標を用いた演算を含むゲーム処理を行うステップとを含み、
前記表示処理ステップは、前記ゲーム処理ステップでゲーム処理した3次元の仮想ゲーム空間を前記表示装置の表示領域に表示するステップを含む、請求項13または14に記載のゲームプログラム。
The game processing step includes
Obtaining a three-dimensional designated coordinate in a three-dimensional virtual game space corresponding to the designated coordinate;
Performing a game process including a calculation using the three-dimensional indication coordinates,
The game program according to claim 13 or 14, wherein the display processing step includes a step of displaying the three-dimensional virtual game space game-processed in the game processing step in a display area of the display device.
前記ゲーム処理ステップは、
前記3次元指示座標の位置に存在するオブジェクトを検出するステップと、
前記オブジェクトに対して所定の処理を行うステップとを含む、請求項15に記載のゲームプログラム。
The game processing step includes
Detecting an object present at the position of the three-dimensional indication coordinates;
The game program according to claim 15, further comprising a step of performing a predetermined process on the object.
前記ゲーム処理ステップは、前記指示座標に対応した位置に所定のオブジェクトを配置するステップを含む、請求項13に記載のゲームプログラム。   The game program according to claim 13, wherein the game processing step includes a step of arranging a predetermined object at a position corresponding to the designated coordinates. 前記ゲーム処理ステップは、
複数の選択項目からプレイヤの選択を促すメニュー領域を少なくとも含む仮想ゲーム世界を生成するステップと、
前記表示領域において前記指示座標を含む位置に表示されている選択項目を選択処理するステップとを含む、請求項13に記載のゲームプログラム。
The game processing step includes
Generating a virtual game world including at least a menu area that prompts the player to select from a plurality of selection items;
The game program according to claim 13, comprising a step of selecting a selection item displayed at a position including the designated coordinates in the display area.
前記ゲーム処理ステップは、前記第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタの位置座標、仮想カメラの位置座標、および仮想カメラの方向ベクトルのうち少なくとも1つを変化させるステップを含む、請求項15乃至18のいずれか1つに記載のゲームプログラム。   The game processing step includes a step of changing at least one of a position coordinate of the player character in the virtual game world, a position coordinate of the virtual camera, and a direction vector of the virtual camera in correspondence with the second operation data. The game program according to any one of claims 15 to 18. 前記ゲーム処理ステップは、前記3次元指示座標に仮想カメラの注視点が一致するように仮想カメラの方向を移動させるステップを含む、請求項15に記載のゲームプログラム。   The game program according to claim 15, wherein the game processing step includes a step of moving the direction of the virtual camera so that a gazing point of the virtual camera coincides with the three-dimensional designated coordinates. 前記ゲーム処理ステップは、
前記第1のコントローラの動きによる前記第1操作データの変化量に対して所定の演算を行うステップと、
前記表示領域に対応した座標系における所定の移動ベクトルを決定するステップと、
3次元の仮想ゲーム空間における仮想カメラの注視点が、前記表示領域上で当該移動ベクトルに対応して移動するように仮想カメラの方向を移動するステップとを含み、
前記表示処理ステップは、前記ゲーム処理ステップでゲーム処理した3次元の仮想ゲーム空間を前記表示装置の表示領域に表示するステップを含む、請求項12に記載のゲームプログラム。
The game processing step includes
Performing a predetermined calculation on the change amount of the first operation data due to the movement of the first controller;
Determining a predetermined movement vector in a coordinate system corresponding to the display area;
Moving the direction of the virtual camera so that the gazing point of the virtual camera in the three-dimensional virtual game space moves corresponding to the movement vector on the display area,
The game program according to claim 12, wherein the display processing step includes a step of displaying the three-dimensional virtual game space game-processed in the game processing step in a display area of the display device.
前記ゲーム処理ステップは、前記第2操作データに対応させて、仮想ゲーム世界におけるプレイヤキャラクタの位置座標および仮想カメラの位置座標の少なくとも一方を変化させるステップを含む、請求項20または21に記載のゲームプログラム。   The game according to claim 20 or 21, wherein the game processing step includes a step of changing at least one of a position coordinate of a player character and a position coordinate of a virtual camera in the virtual game world in correspondence with the second operation data. program. 第1のコントローラと、
前記第1のコントローラとは別体に構成された第2のコントローラと、
所定のゲームプログラムを実行して2次元または3次元の仮想ゲーム世界を表示装置の表示領域に表示させるゲーム装置とを備え、
前記第1のコントローラは、
当該第1のコントローラ本体に固設され、当該第1のコントローラ本体を基準に所定方向の周辺を撮像可能な撮像部と、
前記撮像部によって撮像した撮像画像自体または撮像画像に所定の演算を行った結果およびプレイヤの入力操作に応じた操作データを含む第1操作データを発生する第1操作データ発生部とを含み、
前記第2のコントローラは、前記プレイヤの方向入力操作に応じた第2操作データを発生する第2操作データ発生部を含み、
前記ゲーム装置は、
前記第1操作データおよび前記第2操作データを取得し、当該両操作データに応じて前記仮想ゲーム世界に対して所定のゲーム処理を行うとともに前記ゲーム処理の一部として、前記第2操作データに応じて前記仮想ゲーム世界におけるオブジェクトを移動させるゲーム処理手段と、
前記ゲーム処理を行った後の前記仮想ゲーム世界を画像として前記表示装置の表示領域に表示させる表示処理手段とを含む、ゲームシステム。
A first controller;
A second controller configured separately from the first controller;
A game device that executes a predetermined game program and displays a two-dimensional or three-dimensional virtual game world in a display area of the display device;
The first controller includes:
An imaging unit fixed to the first controller body and capable of imaging a periphery in a predetermined direction with reference to the first controller body;
A first operation data generating unit that generates first operation data including a captured image itself captured by the imaging unit or a result of performing a predetermined calculation on the captured image and operation data according to an input operation of the player;
The second controller includes a second operation data generation unit that generates second operation data according to a direction input operation of the player,
The game device includes:
The first operation data and the second operation data are acquired, a predetermined game process is performed on the virtual game world according to the both operation data, and the second operation data is stored as part of the game process. Game processing means for moving the object in the virtual game world in response ,
Display processing means for displaying the virtual game world after the game processing as an image in a display area of the display device.
JP2011135264A 2011-06-17 2011-06-17 Game system and game program Active JP5735865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011135264A JP5735865B2 (en) 2011-06-17 2011-06-17 Game system and game program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011135264A JP5735865B2 (en) 2011-06-17 2011-06-17 Game system and game program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005249265A Division JP4907128B2 (en) 2005-08-30 2005-08-30 Game system and game program

Publications (2)

Publication Number Publication Date
JP2011183205A JP2011183205A (en) 2011-09-22
JP5735865B2 true JP5735865B2 (en) 2015-06-17

Family

ID=44790148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011135264A Active JP5735865B2 (en) 2011-06-17 2011-06-17 Game system and game program

Country Status (1)

Country Link
JP (1) JP5735865B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101273661B1 (en) 2012-12-07 2013-06-10 엔그램테크놀로지(주) Media player for providing smart signage using motion and play method therefor
CN104784929B (en) * 2014-01-21 2017-12-29 鈊象电子股份有限公司 The fraction decision method of human body temperature type game machine
DE202017104928U1 (en) * 2016-08-23 2017-11-24 Google Inc. Manipulate virtual objects using six-degree-of-freedom controllers in augmented or virtual reality environments

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3907213B2 (en) * 1992-09-11 2007-04-18 伸壹 坪田 Game control device
JPH07302158A (en) * 1994-05-02 1995-11-14 Wacom Co Ltd Information input device
JPH11114223A (en) * 1997-10-09 1999-04-27 Sony Corp Operating device for game machine
JP4581204B2 (en) * 2000-09-11 2010-11-17 ソニー株式会社 POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE
JP3902508B2 (en) * 2002-05-20 2007-04-11 任天堂株式会社 Game system and game program
JP3619517B2 (en) * 2003-04-17 2005-02-09 株式会社ホリ Video game console controller

Also Published As

Publication number Publication date
JP2011183205A (en) 2011-09-22

Similar Documents

Publication Publication Date Title
JP4907128B2 (en) Game system and game program
JP4798705B2 (en) POSITION CALCULATION DEVICE, POSITION CALCULATION PROGRAM, GAME DEVICE, AND GAME PROGRAM
JP4262726B2 (en) Game controller and game system
JP5424373B2 (en) Image processing apparatus, image processing program, image processing system, and image processing method
JP5074346B2 (en) Game controller and game system
JP4794957B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4471910B2 (en) Virtual positioning program
JP5330640B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4989105B2 (en) Game controller
JP5196515B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5188682B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME CONTROL METHOD
JP4907129B2 (en) Information processing system and program
JP4240510B2 (en) Game controller and game system
JP5075330B2 (en) Information processing program
JP5506129B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4895352B2 (en) Object selection program, object selection device, object selection system, and object selection method
JP5735865B2 (en) Game system and game program
JP2008253561A (en) Program and computer
JP5735866B2 (en) Information processing system and program
JP5331259B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5602181B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5357998B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5352626B2 (en) Information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150417

R150 Certificate of patent or registration of utility model

Ref document number: 5735865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250