JP4735802B2 - GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD - Google Patents

GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD Download PDF

Info

Publication number
JP4735802B2
JP4735802B2 JP2004307992A JP2004307992A JP4735802B2 JP 4735802 B2 JP4735802 B2 JP 4735802B2 JP 2004307992 A JP2004307992 A JP 2004307992A JP 2004307992 A JP2004307992 A JP 2004307992A JP 4735802 B2 JP4735802 B2 JP 4735802B2
Authority
JP
Japan
Prior art keywords
information
cursor
game
cpu
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004307992A
Other languages
Japanese (ja)
Other versions
JP2005144158A5 (en
JP2005144158A (en
Inventor
拓 上島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SSD Co Ltd
Original Assignee
SSD Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SSD Co Ltd filed Critical SSD Co Ltd
Priority to JP2004307992A priority Critical patent/JP4735802B2/en
Publication of JP2005144158A publication Critical patent/JP2005144158A/en
Publication of JP2005144158A5 publication Critical patent/JP2005144158A5/ja
Application granted granted Critical
Publication of JP4735802B2 publication Critical patent/JP4735802B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、操作物の操作により、ディスプレイに表示されたオブジェクトを操作してゲームを行うゲーム装置及びその関連技術に関する。   The present invention relates to a game apparatus for playing a game by operating an object displayed on a display by operating an operation article, and a related technology.

特許文献1には、次のような迷路ゲーム装置が開示されている。プレイヤは、入力装置(キーボード、マウス等)を操作して、ディスプレイに表示されたオブジェクトを移動させて、迷路を進んでいく。この場合、所定時間経過するたびに、迷路が変更される。これにより、プレイヤが飽きることのない迷路ゲームが提供される。   Patent Document 1 discloses the following maze game device. The player operates an input device (keyboard, mouse, etc.) to move the object displayed on the display, and proceeds through the maze. In this case, the maze is changed every time a predetermined time elapses. This provides a maze game in which the player does not get bored.

一方、従来より、次のような実空間上のゲームが存在する。例えば、2本の金属線を垂直方向に並べて、経路を形成する。プレイヤは、金属が装着された棒を、その経路に横から差し込み、その経路に沿って、かつ、金属線に接触しないように、移動させる。2本の金属線には、電流が流れているため、いずれかの金属線に、棒の金属部分が接触すると、火花が散りゲームオーバーとなる。   On the other hand, there are conventional games in the following real space. For example, a path is formed by arranging two metal lines in the vertical direction. The player inserts a bar with metal attached into the path from the side, and moves the bar along the path so as not to contact the metal line. Since current flows through the two metal wires, if any metal wire comes into contact with the metal portion of the rod, a spark is scattered and the game is over.

従来より、このような実空間上のゲームを仮想空間で実現する移動ゲームが存在する。つまり、プレイヤは、入力装置(ゲーム機用コントローラ等)、を操作して、ディスプレイに表示されたオブジェクトを移動させて、迷路を進んでいく。そして、オブジェクトが迷路の壁に接触するとゲームオーバーとなる。このような移動ゲーム装置としては、例えば、1998年3月19日に、株式会社ザウルスから発売されたテレビゲームがある(商品名「電流イライラ棒(登録商標)リターンズ」)。   Conventionally, there is a mobile game that realizes such a game in real space in a virtual space. That is, the player operates an input device (such as a game machine controller) to move an object displayed on the display, and proceeds through the maze. When the object touches the wall of the maze, the game is over. As such a mobile game device, for example, there is a video game released by Zaurus Co., Ltd. on March 19, 1998 (trade name “Current Frustrated Bar (registered trademark) Returns”).

特開2002−263370号公報(0020、図8)JP 2002-263370 A (0020, FIG. 8)

上記のような従来の迷路ゲーム装置では、オブジェクトの操作は、パーソナルコンピュータの一般的な入力装置であるマウス等により行われるため、パーソナルコンピュータの操作の延長に過ぎない。また、マウス等の入力装置は、パーソナルコンピュータ用のものであるため、操作性の点で、必ずしもこのようなゲーム装置に適しているとは言えない。また、パーソナルコンピュータを使用するゲームの場合は、パーソナルコンピュータに馴染みの少ない人たちは、そのゲームの実行が困難な場合もある。   In the conventional maze game apparatus as described above, the operation of the object is performed by a mouse or the like, which is a general input device of a personal computer, and is merely an extension of the operation of the personal computer. In addition, since an input device such as a mouse is for a personal computer, it cannot be said that it is necessarily suitable for such a game device in terms of operability. In the case of a game using a personal computer, it may be difficult for those who are not familiar with the personal computer to execute the game.

上記のような従来の移動ゲーム装置では、オブジェクトの操作は、ゲーム機用の汎用コントローラにより行われるため、方向キーやアナログスティックを操作して、オブジェクトを移動させる。つまり、ゲーム機用コントローラ自体は基本的に動かされるものではなく、搭載された方向キーの押下やアナログスティックの倒し込みにより、オブジェクトを移動させる。人によっては、操作し難いと感じる場合もあり、思い通りの十分な操作が困難な場合も生じうる。   In the conventional mobile game apparatus as described above, since the operation of the object is performed by a general-purpose controller for a game machine, the object is moved by operating a direction key or an analog stick. That is, the game machine controller itself is not basically moved, but the object is moved by pressing a mounted direction key or pushing an analog stick. Some people may find it difficult to operate, and it may be difficult to perform a sufficient operation as intended.

そこで、本発明は、ディスプレイに表示されたオブジェクトの直感的な操作を可能として、容易な操作により、ゲームを行うことができるゲーム装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a game device that enables an intuitive operation of an object displayed on a display and can play a game by an easy operation.

本発明の第1の観点によると、ゲーム装置は、プレイヤによって操作される操作物に、予め定められた周期で、光を照射するストロボスコープと、前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、前記操作物に連動する連動オブジェクトの表示を、前記操作物の前記状態情報に基づいて制御する連動オブジェクト制御手段と、前記連動オブジェクトの移動を制限する制限画像を制御する制限画像制御手段と、を備える。   According to the first aspect of the present invention, the game device is configured to irradiate the operation article operated by the player with light at a predetermined cycle, and each time the stroboscope is turned on and off. Imaging means for photographing the operation article and generating an image signal at the time of emission and an image signal at the time of extinction; difference signal generation means for generating a difference signal between the image signal at the time of emission and the image signal at the time of extinction; State information calculating means for calculating state information of the operation article based on the difference signal; and interlocking object control means for controlling display of the interlocking object linked to the operation article based on the state information of the operation article; And a restricted image control means for controlling a restricted image for restricting the movement of the interlocking object.

この構成によれば、操作物自体の動きに連動して、連動オブジェクトが移動するため、連動オブジェクトの直感的な操作が可能となって、容易な操作によりゲームを行うことができる。   According to this configuration, since the interlocking object moves in conjunction with the movement of the operation article itself, an intuitive operation of the interlocking object is possible, and a game can be played with an easy operation.

このゲーム装置において、前記連動オブジェクトが、前記制限画像が表示される領域に接触あるいは侵入したときに、ゲームオーバーとなる。   In this game apparatus, the game is over when the interlocking object touches or enters the area where the restricted image is displayed.

この構成によれば、操作物自体を動かして、連動オブジェクトを操作できるため、制限画像及び連動オブジェクトが、ディスプレイ上に存在するにもかかわらず、あたかも、実空間に存在する障害物を回避しながら、操作物を動かしているような印象をプレイヤに与えることができる。また、実空間に存在する障害物を回避する内容のゲーム装置と比較して、コストの低減、および、省スペース化、を図ることができる。   According to this configuration, since the operation object itself can be moved to operate the interlocking object, the restricted image and the interlocking object are present on the display, as if avoiding obstacles existing in the real space. It is possible to give the player the impression of moving the operation article. In addition, the cost can be reduced and the space can be saved as compared with a game device that avoids an obstacle existing in the real space.

本発明の第2の観点によると、ゲーム装置は、プレイヤによって操作される操作物に、予め定められた周期で、光を照射するストロボスコープと、前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、前記操作物の位置を画面上に表すカーソルの表示を、前記操作物の前記状態情報に基づいて制御するカーソル制御手段と、前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御する追従オブジェクト制御手段と、を備える。   According to the second aspect of the present invention, the game device has a stroboscope that irradiates the operation article operated by the player with light in a predetermined cycle, and each time the stroboscope is turned on and off. Imaging means for photographing the operation article and generating an image signal at the time of emission and an image signal at the time of extinction; difference signal generation means for generating a difference signal between the image signal at the time of emission and the image signal at the time of extinction; Based on the difference signal, state information calculation means for calculating the state information of the operation article, and cursor control for controlling the display of the cursor representing the position of the operation article on the screen based on the state information of the operation article Means and tracking object control means for controlling the display of the tracking object that follows the movement of the cursor based on the coordinate information of the cursor.

この構成によれば、カーソルは操作物の画面上の位置を表すものであるため、カーソルの動きは操作物に同期あるいはほぼ同期している必要がある。このため、カーソルの制御は、操作物の動きに拘束される。一方、追従オブジェクトはカーソルの動きに追従するものであるため、どのような態様でカーソルに追従させるかは任意に決定できる。従って、追従オブジェクトの動きに趣向をこらすことができ、視覚的効果を大きくすることができる。   According to this configuration, since the cursor represents the position of the operation article on the screen, the movement of the cursor needs to be synchronized or almost synchronized with the operation article. For this reason, the control of the cursor is restricted by the movement of the operation article. On the other hand, since the following object follows the movement of the cursor, it is possible to arbitrarily determine how the cursor follows the cursor. Therefore, it is possible to focus on the movement of the tracking object and to increase the visual effect.

また、カーソルが操作物の状態情報に基づいて制御されるため、カーソルは、操作物自体の動きに同期あるいはほぼ同期して移動する。従って、プレイヤは、カーソルの直感的な操作が可能となって、容易な操作によりゲームを行うことができる。   Further, since the cursor is controlled based on the state information of the operation article, the cursor moves in synchronization with or substantially in synchronization with the movement of the operation article itself. Therefore, the player can intuitively operate the cursor, and can play the game with an easy operation.

このゲーム装置は、前記追従オブジェクトの移動を制限する制限画像を制御する制限画像制御手段をさらに備えることができる。   The game apparatus may further include a restricted image control unit that controls a restricted image that restricts movement of the following object.

この構成によれば、プレイヤは、操作物によりカーソルを操作して、制限画像を回避するように追従オブジェクトを移動させなければならない。このため、ゲーム性が向上して、プレイヤにとって面白みがより大きくなる。   According to this configuration, the player must move the tracking object so as to avoid the restricted image by operating the cursor with the operation article. For this reason, game nature improves and it becomes more interesting for a player.

このゲーム装置において、前記追従オブジェクトが、前記制限画像が表示される領域に接触あるいは侵入したときに、ゲームオーバーとなる。   In this game apparatus, the game is over when the following object touches or enters the area where the restricted image is displayed.

この構成によれば、操作物自体を動かして、カーソル及び追従オブジェクトを操作できるため、制限画像、カーソル、及び追従オブジェクトが、ディスプレイ上に存在するにもかかわらず、あたかも、実空間に存在する障害物を回避しながら、操作物を動かしているような印象をプレイヤに与えることができる。また、実空間に存在する障害物を回避する内容のゲーム装置と比較して、コストの低減、および、省スペース化、を図ることができる。   According to this configuration, since the operation object itself can be moved to operate the cursor and the tracking object, the restriction image, the cursor, and the tracking object exist on the display, but the obstacle exists as if in the real space. It is possible to give the player the impression of moving the operation object while avoiding the object. In addition, the cost can be reduced and the space can be saved as compared with a game device that avoids an obstacle existing in the real space.

上記ゲーム装置は、プレイヤがゲームを継続できる指標となる情報を管理して、前記指標となる情報に基づいて、ゲームを終了させるゲーム継続管理手段をさらに備えることができる。   The game apparatus may further include a game continuation management unit that manages information serving as an index by which the player can continue the game and ends the game based on the information serving as the index.

この構成によれば、プレイヤは、無制限にゲームを実行できなくなるので、緊張感が増して、より面白みのあるゲーム装置を提供できる。   According to this configuration, the player can no longer play the game without limitation, so that a sense of tension increases and a more interesting game device can be provided.

上記ゲーム装置において、前記制限画像は、迷路を構成する画像である。   In the above game device, the restricted image is an image constituting a maze.

この構成によれば、操作物自体の動きに連動して、連動オブジェクト、あるいはカーソル及び追従オブジェクトが移動するため、これらの直感的な操作が可能となって、容易な操作により迷路ゲームを行うことができる。   According to this configuration, the interlocking object, or the cursor and the tracking object move in conjunction with the movement of the operation article itself, so that these intuitive operations can be performed, and a maze game can be performed by an easy operation. Can do.

上記ゲーム装置において、前記状態情報算出手段が算出する前記操作物の前記状態情報は、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、である。   In the above game device, the state information of the operation article calculated by the state information calculation unit includes speed information, movement direction information, movement distance information, speed vector information, acceleration information, movement trajectory information, area information, or Any one of the position information, or a combination of two or more thereof.

この構成によれば、操作物の様々な情報を利用して、連動オブジェクトあるいはカーソルを制御できるため、ゲーム内容の設計の自由度が大きくなる。   According to this configuration, the interlocking object or the cursor can be controlled using various pieces of information of the operation article, so that the degree of freedom in designing the game content is increased.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、図中、同一または相当部分については同一の参照符号を付してその説明を援用する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and the description thereof is incorporated.

図1は、本発明の実施の形態におけるゲームシステムの全体構成を示す図である。図1に示すように、このゲームシステムは、ゲーム装置1、操作物150、及び、テレビジョンモニタ90、を含む。   FIG. 1 is a diagram showing an overall configuration of a game system according to an embodiment of the present invention. As shown in FIG. 1, the game system includes a game apparatus 1, an operation article 150, and a television monitor 90.

ゲーム装置1のハウジング19には、撮像ユニット13が組み込まれる。撮像ユニット13は、4つの赤外発光ダイオード15及び赤外フィルタ17を含む。赤外発光ダイオード15の発光部は、赤外フィルタ17から露出している。   An imaging unit 13 is incorporated in the housing 19 of the game apparatus 1. The imaging unit 13 includes four infrared light emitting diodes 15 and an infrared filter 17. The light emitting part of the infrared light emitting diode 15 is exposed from the infrared filter 17.

ゲーム装置1には、ACアダプタ92により、直流電源電圧が与えられる。ただし、ACアダプタ92に代えて、電池(図示せず)により、直流電源電圧を与えることもできる。   A DC power supply voltage is applied to the game apparatus 1 by an AC adapter 92. However, instead of the AC adapter 92, a DC power supply voltage can be applied by a battery (not shown).

テレビジョンモニタ90には、その前面にスクリーン91が設けられる。テレビジョンモニタ90とゲーム装置1とは、AVケーブル93により接続される。なお、ゲーム装置1は、例えば、図1に示すように、テレビジョンモニタ90の上面に載置される。   The television monitor 90 is provided with a screen 91 on the front surface thereof. The television monitor 90 and the game apparatus 1 are connected by an AV cable 93. Note that the game apparatus 1 is placed on the upper surface of the television monitor 90, for example, as shown in FIG.

プレイヤ94が、ゲーム装置1の背面に設けられた電源スイッチ(図示せず)をオンにすると、スクリーン91に、ゲーム画面が表示される。プレイヤ94は、操作物150を操作して、ゲーム画面上のカーソル及び追従オブジェクト(後述)を動かして、ゲームを実行する。ここで、操作物150の操作とは、操作物自体を動かすこと(例えば、移動させること)を意味し、スイッチを押下したり、アナログスティックを動かしたり、等は含まない。   When the player 94 turns on a power switch (not shown) provided on the back of the game apparatus 1, a game screen is displayed on the screen 91. The player 94 operates the operation article 150 to move a cursor and a tracking object (described later) on the game screen to execute the game. Here, the operation of the operation article 150 means moving (for example, moving) the operation article itself, and does not include pressing a switch, moving an analog stick, or the like.

撮像ユニット13の赤外発光ダイオード15は、間欠的に赤外光を発光する。赤外発光ダイオード15からの赤外光は、この操作物150に取り付けられた反射シート(後述)により反射され、赤外フィルタ17の内部に設けられた撮像素子(後述)に入力される。このようにして、操作物150が間欠的に撮影される。従って、ゲーム装置1は、プレイヤ94により動かされた操作物150の間欠的な画像信号を取得できる。ゲーム装置1は、この画像信号を解析して、その解析結果をゲームに反映する。   The infrared light emitting diode 15 of the imaging unit 13 emits infrared light intermittently. Infrared light from the infrared light emitting diode 15 is reflected by a reflection sheet (described later) attached to the operation article 150 and is input to an imaging device (described later) provided inside the infrared filter 17. In this way, the operation article 150 is photographed intermittently. Therefore, the game apparatus 1 can acquire an intermittent image signal of the operation article 150 moved by the player 94. The game apparatus 1 analyzes this image signal and reflects the analysis result in the game.

本実施の形態で使用する反射シートは、例えば、再帰反射シートである。   The reflective sheet used in the present embodiment is, for example, a retroreflective sheet.

図2は、図1の操作物150の斜視図である。図2に示すように、操作物150は、スティック152の先端に反射ボール151を固定して構成される。この反射ボール151により、赤外発光ダイオード15からの赤外光が反射される。反射ボール151の詳細を説明する。   FIG. 2 is a perspective view of the operation article 150 of FIG. As shown in FIG. 2, the operation article 150 is configured by fixing a reflective ball 151 to the tip of a stick 152. The reflection ball 151 reflects infrared light from the infrared light emitting diode 15. Details of the reflective ball 151 will be described.

図3(a)は、図2の反射ボール151の上面図、図3(b)は、図3(a)の矢印A方向からの反射ボール151の側面図、図3(c)は、図3(a)の矢印B方向からの反射ボール151の側面図、である。   3A is a top view of the reflective ball 151 in FIG. 2, FIG. 3B is a side view of the reflective ball 151 from the direction of arrow A in FIG. 3A, and FIG. It is a side view of the reflective ball | bowl 151 from the arrow B direction of 3 (a).

図3(a)〜図3(c)に示すように、反射ボール151は、透明色(半透明、有色透明、及び、無色透明、を含む。)の球状外殻153の内部に球状内殻154を固定してなる。球状内殻154には、反射シート155が取り付けられる。この反射シート155が、赤外発光ダイオード15からの赤外光を反射する。   As shown in FIG. 3A to FIG. 3C, the reflective ball 151 includes a spherical inner shell inside a spherical outer shell 153 having a transparent color (including translucent, colored transparent, and colorless transparent). 154 is fixed. A reflective sheet 155 is attached to the spherical inner shell 154. The reflection sheet 155 reflects the infrared light from the infrared light emitting diode 15.

図4は、図2の反射ボール151の縦断面図である。図4に示すように、球状外殻153は、2つの半球状外殻をボス156及びビス(図示せず)により固定してなる。球状内殻154は、球状外殻153の内部に、2つの半球状内殻をボス157により固定してなる。また、反射ボール151には、スティック152が、挿入して固定される。具体的には、球状外殻153を構成する2つの半球状外殻と、球状内殻154を構成する2つの半球状内殻と、によりスティック152を挟み、2つの半球状外殻をボス156及びビスで固定するとともに、2つの半球状内殻をボス157で固定することで、スティック152を反射ボール151に取り付ける。   4 is a longitudinal sectional view of the reflective ball 151 of FIG. As shown in FIG. 4, the spherical outer shell 153 is formed by fixing two hemispherical outer shells with a boss 156 and a screw (not shown). The spherical inner shell 154 is formed by fixing two hemispherical inner shells with a boss 157 inside the spherical outer shell 153. Further, a stick 152 is inserted and fixed to the reflective ball 151. Specifically, the stick 152 is sandwiched between two hemispherical outer shells constituting the spherical outer shell 153 and two hemispherical inner shells constituting the spherical inner shell 154, and the two hemispherical outer shells are connected to the boss 156. In addition, the stick 152 is attached to the reflective ball 151 by fixing the two hemispherical inner shells with the boss 157 together with the screws.

図5は、図1の撮像ユニット13の一例を示す図解図である。図5に示すように、この撮像ユニット13は、たとえばプラスチック成型によって形成されるユニットベース35を含み、このユニットベース35内には支持筒36が取り付けられる。支持筒36の上面には内面が逆円錐形状であるラッパ状の開口41が形成され、その開口41の下方の筒状部内部には、いずれもがたとえば透明プラスチックの成型によって形成された凹レンズ39および凸レンズ37を含む光学系が設けられ、凸レンズ37の下方において、撮像素子としてのイメージセンサ43が固着される。したがって、イメージセンサ43は、開口41からレンズ39および37を通して入射する光に応じた画像を撮影することができる。   FIG. 5 is an illustrative view showing one example of the imaging unit 13 of FIG. As shown in FIG. 5, the imaging unit 13 includes a unit base 35 formed by plastic molding, for example, and a support cylinder 36 is attached in the unit base 35. A trumpet-shaped opening 41 whose inner surface has an inverted conical shape is formed on the upper surface of the support cylinder 36, and a concave lens 39 is formed inside the cylindrical portion below the opening 41, for example, by molding of transparent plastic. An optical system including a convex lens 37 is provided, and an image sensor 43 as an image sensor is fixed below the convex lens 37. Therefore, the image sensor 43 can take an image corresponding to light incident from the opening 41 through the lenses 39 and 37.

イメージセンサ43は、低解像度のCMOSイメージセンサ(たとえば32ピクセル×32ピクセル:グレースケール)である。ただし、このイメージセンサ43は、画素数のもっと多いものでもよいし、CCD等の他の素子からなるものであってよい。以下では、イメージセンサ43が、32ピクセル×32ピクセルからなるものとして説明を行う。   The image sensor 43 is a low-resolution CMOS image sensor (for example, 32 pixels × 32 pixels: gray scale). However, the image sensor 43 may have a larger number of pixels or may be composed of other elements such as a CCD. In the following description, it is assumed that the image sensor 43 is composed of 32 pixels × 32 pixels.

また、ユニットベース35には、光出射方向がいずれも上方向とされた複数(実施の形態では4つ)の赤外発光ダイオード15が取り付けられる。この赤外発光ダイオード15によって、撮像ユニット13の上方に赤外光が照射される。また、ユニットベース35の上方には、赤外フィルタ(赤外光のみを透過するフィルタ)17が上記開口41を覆うように、取り付けられる。そして、赤外発光ダイオード15は後述のように、点灯/消灯(非点灯)が連続的に繰り返されるので、ストロボスコープとして機能する。ただし、「ストロボスコープ」とは、運動体を間欠的に照らす装置の総称である。したがって、上記イメージセンサ43は、その撮影範囲内で移動する物体、つまり、操作物150を撮影することになる。なお、後述する図8に示すように、ストロボスコープは、主に、赤外発光ダイオード15、LED駆動回路75、及び、高速プロセッサ200、により構成される。   In addition, a plurality (four in the embodiment) of infrared light emitting diodes 15 whose light emission directions are all upward are attached to the unit base 35. This infrared light emitting diode 15 irradiates infrared light above the imaging unit 13. An infrared filter (a filter that transmits only infrared light) 17 is attached above the unit base 35 so as to cover the opening 41. The infrared light emitting diode 15 functions as a stroboscope because lighting / extinguishing (non-lighting) is repeated continuously as will be described later. However, “stroboscope” is a general term for devices that illuminate a moving body intermittently. Therefore, the image sensor 43 photographs an object that moves within the photographing range, that is, the operation article 150. As will be described later with reference to FIG. 8, the stroboscope mainly includes an infrared light emitting diode 15, an LED drive circuit 75, and a high-speed processor 200.

ここで、撮像ユニット13は、イメージセンサ43の受光面が、水平面から所定角度(例えば、90度)だけ傾くように、ハウジング19に組み込まれる。また、凹レンズ39および凸レンズ37により、イメージセンサ43の撮影範囲は、例えば、60度の範囲である。   Here, the imaging unit 13 is incorporated in the housing 19 so that the light receiving surface of the image sensor 43 is inclined by a predetermined angle (for example, 90 degrees) from the horizontal plane. Further, the imaging range of the image sensor 43 by the concave lens 39 and the convex lens 37 is, for example, a range of 60 degrees.

図6は、図1のゲーム装置1の電気的な構成を示す図である。図6に示すように、ゲーム装置1は、イメージセンサ43、赤外発光ダイオード15、映像信号出力端子47、音声信号出力端子49、高速プロセッサ200、ROM(read only memory)51、及び、バス53、を含む。   FIG. 6 is a diagram showing an electrical configuration of the game apparatus 1 of FIG. As shown in FIG. 6, the game apparatus 1 includes an image sensor 43, an infrared light emitting diode 15, a video signal output terminal 47, an audio signal output terminal 49, a high speed processor 200, a ROM (read only memory) 51, and a bus 53. ,including.

高速プロセッサ200には、バス53が接続される。さらに、バス53には、ROM51が接続される。従って、高速プロセッサ200は、バス53を介して、ROM51にアクセスすることができるので、ROM51に格納されたゲームプログラムをリードして実行でき、また、ROM51に格納された画像データ及び楽音データをリードして処理し、映像信号及び音声信号を生成して、映像信号出力端子47及び音声信号出力端子49に出力することができる。   A bus 53 is connected to the high speed processor 200. Further, the ROM 51 is connected to the bus 53. Accordingly, since the high speed processor 200 can access the ROM 51 via the bus 53, the game program stored in the ROM 51 can be read and executed, and the image data and musical tone data stored in the ROM 51 are read. Thus, a video signal and an audio signal can be generated and output to the video signal output terminal 47 and the audio signal output terminal 49.

操作物150は、赤外発光ダイオード15が発光する赤外光に照射され、その赤外光を反射シート155で反射する。この反射シート155からの反射光がイメージセンサ43によって検知され、したがって、イメージセンサ43からは反射シート155の画像信号が出力される。イメージセンサ43からのこのアナログ画像信号は高速プロセッサ200に内蔵されたA/Dコンバータ(後述)によってデジタルデータに変換される。赤外光消灯時も同様の処理が行われる。高速プロセッサ200は、このデジタルデータを解析して、その解析結果をゲーム処理に反映する。   The operation article 150 is irradiated with infrared light emitted from the infrared light emitting diode 15, and the infrared light is reflected by the reflection sheet 155. The reflected light from the reflection sheet 155 is detected by the image sensor 43, and thus the image signal of the reflection sheet 155 is output from the image sensor 43. The analog image signal from the image sensor 43 is converted into digital data by an A / D converter (described later) built in the high speed processor 200. Similar processing is performed when the infrared light is turned off. The high speed processor 200 analyzes the digital data and reflects the analysis result in the game process.

図7は、図6の高速プロセッサ200のブロック図である。図7に示すように、この高速プロセッサ200は、中央演算処理装置(CPU:central processing unit)201、グラフィックプロセッサ202、サウンドプロセッサ203、DMA(direct memory access)コントローラ204、第1バス調停回路205、第2バス調停回路206、内部メモリ207、A/Dコンバータ(ADC:analog to digital converter)208、入出力制御回路209、タイマ回路210、DRAM(dynamic random access memory)リフレッシュ制御回路211、外部メモリインタフェース回路212、クロックドライバ213、PLL(phase−locked loop)回路214、低電圧検出回路215、第1バス218、及び、第2バス219、を含む。   FIG. 7 is a block diagram of the high speed processor 200 of FIG. As shown in FIG. 7, the high-speed processor 200 includes a central processing unit (CPU) 201, a graphic processor 202, a sound processor 203, a DMA (direct memory access) controller 204, a first bus arbitration circuit 205, Second bus arbitration circuit 206, internal memory 207, A / D converter (ADC: analog to digital converter) 208, input / output control circuit 209, timer circuit 210, DRAM (dynamic random access memory) refresh control circuit 211, external memory interface Circuit 212, clock driver 213, PLL (phase-locked loop) circuit 214, low voltage detection circuit Path 215, first bus 218, and second bus 219.

CPU201は、メモリ(内部メモリ207、又は、ROM51)に格納されたプログラムに従い、各種演算やシステム全体の制御を行う。CPU201は、第1バス218及び第2バス219のバスマスタであり、それぞれのバスに接続された資源にアクセスが可能である。   The CPU 201 performs various operations and controls the entire system according to a program stored in the memory (the internal memory 207 or the ROM 51). The CPU 201 is a bus master of the first bus 218 and the second bus 219, and can access resources connected to the respective buses.

グラフィックプロセッサ202は、第1バス218及び第2バス219のバスマスタであり、内部メモリ207、又は、ROM51に格納されたデータを基に、映像信号を生成して、映像信号出力端子47へ出力する。グラフィックプロセッサ202は、第1バス218を通じて、CPU201により制御される。また、グラフィックプロセッサ202は、CPU201に対して、割込み要求信号220を発生する機能を有する。   The graphic processor 202 is a bus master of the first bus 218 and the second bus 219, generates a video signal based on data stored in the internal memory 207 or the ROM 51, and outputs the video signal to the video signal output terminal 47. . The graphic processor 202 is controlled by the CPU 201 through the first bus 218. The graphic processor 202 has a function of generating an interrupt request signal 220 to the CPU 201.

サウンドプロセッサ203は、第1バス218及び第2バス219のバスマスタであり、内部メモリ207、又は、ROM51に格納されたデータを基に、音声信号を生成して、音声信号出力端子49へ出力する。サウンドプロセッサ203は、第1バス218を通じて、CPU201により制御される。また、サウンドプロセッサ203は、CPU201に対して、割込み要求信号220を発生する機能を有する。   The sound processor 203 is a bus master of the first bus 218 and the second bus 219, generates an audio signal based on data stored in the internal memory 207 or the ROM 51, and outputs the audio signal to the audio signal output terminal 49. . The sound processor 203 is controlled by the CPU 201 through the first bus 218. Further, the sound processor 203 has a function of generating an interrupt request signal 220 to the CPU 201.

DMAコントローラ204は、ROM51から、内部メモリ207へのデータ転送を司る。また、DMAコントローラ204は、データ転送の完了を通知するために、CPU201に対する割込み要求信号220を発生する機能を有する。DMAコントローラ204は、第1バス218及び第2バス219のバスマスタである。DMAコントローラ204は、第1バス218を通じてCPU201により制御される。   The DMA controller 204 manages data transfer from the ROM 51 to the internal memory 207. The DMA controller 204 has a function of generating an interrupt request signal 220 to the CPU 201 in order to notify the completion of data transfer. The DMA controller 204 is a bus master for the first bus 218 and the second bus 219. The DMA controller 204 is controlled by the CPU 201 through the first bus 218.

内部メモリ207は、マスクROM、SRAM(static random access memory)、及び、DRAMのうち、必要なものを備える。バッテリによるSRAMのデータ保持が必要とされる場合、バッテリ217が必要となる。DRAMが搭載される場合、定期的にリフレッシュと呼ばれる記憶内容保持のための動作が必要とされる。   The internal memory 207 includes necessary ones among a mask ROM, an SRAM (static random access memory), and a DRAM. When it is necessary to hold SRAM data by a battery, the battery 217 is required. When a DRAM is installed, an operation for holding stored contents called refresh is required periodically.

第1バス調停回路205は、第1バス218の各バスマスタからの第1バス使用要求信号を受け付け、調停を行い、各バスマスタへの第1バス使用許可信号を発行する。各バスマスタは、第1バス使用許可信号を受領することによって第1バス218に対するアクセスが許可される。ここで、第1バス使用要求信号及び第1バス使用許可信号は、図7では、第1バス調停信号222として示されている。   The first bus arbitration circuit 205 receives a first bus use request signal from each bus master of the first bus 218, performs arbitration, and issues a first bus use permission signal to each bus master. Each bus master is permitted to access the first bus 218 by receiving the first bus use permission signal. Here, the first bus use request signal and the first bus use permission signal are shown as a first bus arbitration signal 222 in FIG.

第2バス調停回路206は、第2バス219の各バスマスタからの第2バス使用要求信号を受け付け、調停を行い、各バスマスタへの第2バス使用許可信号を発行する。各バスマスタは、第2バス使用許可信号を受領することによって第2バス219に対するアクセスが許可される。ここで、第2バス使用要求信号及び第2バス使用許可信号は、図7では、第2バス調停信号223として示されている。   The second bus arbitration circuit 206 receives a second bus use request signal from each bus master of the second bus 219, performs arbitration, and issues a second bus use permission signal to each bus master. Each bus master is permitted to access the second bus 219 by receiving the second bus use permission signal. Here, the second bus use request signal and the second bus use permission signal are shown as a second bus arbitration signal 223 in FIG.

入出力制御回路209は、外部入出力装置や外部の半導体素子との通信等を入出力信号を介して行う。入出力信号は、第1バス218を介して、CPU201からリード/ライトされる。また、入出力制御回路209は、CPU201に対して、割込み要求信号220を発生する機能を有する。   The input / output control circuit 209 performs communication with an external input / output device or an external semiconductor element via an input / output signal. Input / output signals are read / written from the CPU 201 via the first bus 218. The input / output control circuit 209 has a function of generating an interrupt request signal 220 to the CPU 201.

この入出力制御回路209から、赤外発光ダイオード15を制御するLEDコントロール信号LEDCが出力される。   The input / output control circuit 209 outputs an LED control signal LEDC for controlling the infrared light emitting diode 15.

タイマ回路210は、設定された時間間隔に基づき、CPU201に対する割込み要求信号220を発生する機能を有する。時間間隔等の設定は、第1バス218を介してCPU201によって行われる。   The timer circuit 210 has a function of generating an interrupt request signal 220 for the CPU 201 based on a set time interval. The time interval and the like are set by the CPU 201 via the first bus 218.

ADC208は、アナログ入力信号をデジタル信号に変換する。このデジタル信号は、第1バス218を介してCPU201によってリードされる。また、ADC208は、CPU201に対して、割込み要求信号220を発生する機能を有する。   The ADC 208 converts the analog input signal into a digital signal. This digital signal is read by the CPU 201 via the first bus 218. Further, the ADC 208 has a function of generating an interrupt request signal 220 to the CPU 201.

このADC208が、イメージセンサ43からのピクセルデータ(アナログ)を受けて、デジタルデータに変換する。   The ADC 208 receives pixel data (analog) from the image sensor 43 and converts it into digital data.

PLL回路214は、水晶振動子216より得られる正弦波信号を逓倍した高周波クロック信号を生成する。   The PLL circuit 214 generates a high frequency clock signal obtained by multiplying the sine wave signal obtained from the crystal resonator 216.

クロックドライバ213は、PLL回路214より受け取った高周波クロック信号を、各ブロックへクロック信号225を供給するのに十分な信号強度へ増幅する。   The clock driver 213 amplifies the high frequency clock signal received from the PLL circuit 214 to a signal strength sufficient to supply the clock signal 225 to each block.

低電圧検出回路215は、電源電圧Vccを監視し、電源電圧Vccが一定電圧以下のときに、PLL回路214のリセット信号226、その他のシステム全体のリセット信号227を発行する。また、内部メモリ207がSRAMで構成されており、かつ、SRAMのバッテリ217によるデータ保持が要求される場合、電源電圧Vccが一定電圧以下のときに、バッテリバックアップ制御信号224を発行する機能を有する。   The low voltage detection circuit 215 monitors the power supply voltage Vcc, and issues a reset signal 226 of the PLL circuit 214 and other system-wide reset signals 227 when the power supply voltage Vcc is equal to or lower than a certain voltage. Further, when the internal memory 207 is composed of SRAM and data retention by the SRAM battery 217 is required, the battery backup control signal 224 is issued when the power supply voltage Vcc is equal to or lower than a predetermined voltage. .

外部メモリインタフェース回路212は、第2バス219を外部バス53に接続するための機能、及び、第2バス219のサイクル終了信号228を発行することにより、第2バスのバスサイクル長を制御する機能、を有する。   The external memory interface circuit 212 has a function for connecting the second bus 219 to the external bus 53, and a function for controlling the bus cycle length of the second bus by issuing a cycle end signal 228 of the second bus 219. Have.

DRAMリフレッシュ制御回路211は、一定期間毎に第1バス218の使用権を無条件に獲得し、DRAMのリフレッシュ動作を行う。なお、DRAMリフレッシュ制御回路211は、内部メモリ207がDRAMを含む場合に設けられる。   The DRAM refresh control circuit 211 unconditionally acquires the right to use the first bus 218 at regular intervals and performs a DRAM refresh operation. The DRAM refresh control circuit 211 is provided when the internal memory 207 includes a DRAM.

ここで、図8〜図10を参照して、イメージセンサ43から高速プロセッサ200へピクセルデータを取り込むための構成を詳細に説明する。   Here, a configuration for capturing pixel data from the image sensor 43 to the high-speed processor 200 will be described in detail with reference to FIGS.

図8は、図6のイメージセンサ43から高速プロセッサ200へピクセルデータを取り込む構成及びLED駆動回路を示す回路図である。図9は、図6のイメージセンサ43から高速プロセッサ200へピクセルデータを取り込む際の動作を示すタイミング図である。図10は、図9の一部を拡大して示すタイミング図である。   FIG. 8 is a circuit diagram showing a configuration and an LED driving circuit for fetching pixel data from the image sensor 43 in FIG. 6 to the high-speed processor 200. FIG. 9 is a timing chart showing an operation when the pixel data is taken into the high speed processor 200 from the image sensor 43 of FIG. FIG. 10 is an enlarged timing diagram showing a part of FIG.

図8に示すように、イメージセンサ43は、ピクセルデータD(X,Y)をアナログ信号として出力するタイプのものであるため、このピクセルデータD(X,Y)は高速プロセッサ200のアナログ入力ポートに入力される。アナログ入力ポートは、この高速プロセッサ200においてADC208に接続され、したがって、高速プロセッサ200は、ADC208からデジタルデータに変換されたピクセルデータをその内部に取得する。   As shown in FIG. 8, since the image sensor 43 is of a type that outputs pixel data D (X, Y) as an analog signal, the pixel data D (X, Y) is an analog input port of the high-speed processor 200. Is input. The analog input port is connected to the ADC 208 in the high-speed processor 200, and thus the high-speed processor 200 acquires pixel data converted from the ADC 208 into digital data therein.

上述のアナログピクセルデータD(X,Y)の中点は、イメージセンサ43の基準電圧端子Vrefに与えられる基準電圧によって決定される。そのため、イメージセンサ43に関連して例えば抵抗分圧回路からなる基準電圧発生回路59が設けられ、この回路59から基準電圧端子Vrefに常に一定の大きさの基準電圧が与えられる。   The midpoint of the analog pixel data D (X, Y) described above is determined by the reference voltage applied to the reference voltage terminal Vref of the image sensor 43. Therefore, a reference voltage generation circuit 59 composed of, for example, a resistance voltage dividing circuit is provided in association with the image sensor 43, and a reference voltage having a constant magnitude is always supplied from the circuit 59 to the reference voltage terminal Vref.

イメージセンサ43を制御するための各デジタル信号は、高速プロセッサ200のI/Oポートに与えられ、またはそこから出力される。このI/Oポートは各々入力/出力の制御が可能なデジタルポートであり、この高速プロセッサ200で入出力制御回路209に接続されている。   Each digital signal for controlling the image sensor 43 is supplied to or output from the I / O port of the high-speed processor 200. Each of these I / O ports is a digital port capable of controlling input / output, and is connected to the input / output control circuit 209 by this high speed processor 200.

詳しく言うと、高速プロセッサ200の出力ポートからはイメージセンサ43をリセットするためのリセット信号resetが出力され、イメージセンサ43に与えられる。また、イメージセンサ43からは、ピクセルデータストローブ信号PDSおよびフレームステータスフラグ信号FSFが出力され、それらの信号が高速プロセッサ200の入力ポートに与えられる。   More specifically, a reset signal reset for resetting the image sensor 43 is output from the output port of the high speed processor 200 and is supplied to the image sensor 43. Further, the image sensor 43 outputs a pixel data strobe signal PDS and a frame status flag signal FSF, and these signals are given to the input port of the high speed processor 200.

ピクセルデータストローブ信号PDSは上述の各ピクセル信号D(X,Y)を読み込むための図9(b)に示すようなストローブ信号である。フレームステータスフラグ信号FSFはイメージセンサ43の状態を示すフラグ信号で、図9(a)に示すように、このイメージセンサ43の露光期間を規定する。つまり、フレームステータスフラグ信号FSFの図9(a)に示すローレベルが露光期間を示し、図9(a)に示すハイレベルが非露光期間を示す。   The pixel data strobe signal PDS is a strobe signal as shown in FIG. 9B for reading each pixel signal D (X, Y) described above. The frame status flag signal FSF is a flag signal indicating the state of the image sensor 43, and defines the exposure period of the image sensor 43 as shown in FIG. That is, the low level shown in FIG. 9A of the frame status flag signal FSF indicates the exposure period, and the high level shown in FIG. 9A indicates the non-exposure period.

また、高速プロセッサ200は、イメージセンサ43の制御レジスタ(図示せず)に設定するコマンド(またはコマンド+データ)をレジスタデータとしてI/Oポートから出力するとともに、たとえばハイレベルおよびローレベルを繰り返すレジスタ設定クロックCLKを出力し、それらをイメージセンサ43に与える。   The high speed processor 200 outputs a command (or command + data) to be set in a control register (not shown) of the image sensor 43 from the I / O port as register data, and repeats, for example, a high level and a low level. A set clock CLK is output and supplied to the image sensor 43.

なお、赤外発光ダイオード15として、図8に示すように互いに並列接続された4つの赤外発光ダイオード15a,15b,15cおよび15dを用いる。この4つの赤外発光ダイオード15a〜15dは、上で説明したように、操作物150を照らすように、イメージセンサ43の視点方向と同一方向に赤外光を照射するようにかつイメージセンサ43を囲むように配置される。ただし、これら個別の赤外発光ダイオード15a〜15dは、特に区別する必要がある場合を除いて、単に赤外発光ダイオード15と呼ばれる。   As the infrared light emitting diode 15, four infrared light emitting diodes 15a, 15b, 15c and 15d connected in parallel with each other are used as shown in FIG. As described above, the four infrared light emitting diodes 15a to 15d irradiate infrared light in the same direction as the viewpoint direction of the image sensor 43 so as to illuminate the operation article 150, and the image sensor 43. Arranged to surround. However, these individual infrared light-emitting diodes 15a to 15d are simply referred to as infrared light-emitting diodes 15 unless it is particularly necessary to distinguish them.

この赤外発光ダイオード15はLED駆動回路75によって、点灯されまたは消灯(非点灯)される。LED駆動回路75は、イメージセンサ43から上述のフレームステータスフラグ信号FSFを受け、このフラグ信号FSFは、抵抗69およびコンデンサ71からなる微分回路67を通してPNPトランジスタ77のベースに与えられる。このPNPトランジスタ77にはさらにプルアップ抵抗79が接続されていて、このPNPトランジスタ77のベースは、通常は、ハイレベルにプルアップされている。そして、フレームステータス信号FSFがローレベルになると、そのローレベルが微分回路67を経てベースに入力されるため、PNPトランジスタ77は、フラグ信号FSFがローレベル期間にのみオンする。   The infrared light emitting diode 15 is turned on or off (not lit) by the LED drive circuit 75. The LED drive circuit 75 receives the above-described frame status flag signal FSF from the image sensor 43, and this flag signal FSF is given to the base of the PNP transistor 77 through a differentiation circuit 67 including a resistor 69 and a capacitor 71. A pull-up resistor 79 is further connected to the PNP transistor 77, and the base of the PNP transistor 77 is normally pulled up to a high level. When the frame status signal FSF becomes low level, the low level is input to the base via the differentiation circuit 67, so that the PNP transistor 77 is turned on only when the flag signal FSF is low level.

PNPトランジスタ77のエミッタは抵抗73および65を介して接地される。そして、エミッタ抵抗73および65の接続点がNPNトランジスタ81のベースに接続される。このNPNトランジスタ81のコレクタが各赤外発光ダイオード15a〜15dのアノードに共通に接続される。NPNトランジスタ81のエミッタが別のNPNトランジスタ61のベースに直接接続される。NPNトランジスタ61のコレクタが各赤外発光ダイオード15a〜15dのカソードに共通接続され、エミッタが接地される。   The emitter of the PNP transistor 77 is grounded via resistors 73 and 65. The connection point between the emitter resistors 73 and 65 is connected to the base of the NPN transistor 81. The collector of the NPN transistor 81 is commonly connected to the anodes of the infrared light emitting diodes 15a to 15d. The emitter of the NPN transistor 81 is directly connected to the base of another NPN transistor 61. The collector of the NPN transistor 61 is commonly connected to the cathodes of the infrared light emitting diodes 15a to 15d, and the emitter is grounded.

このLED駆動回路75では、高速プロセッサ200のI/Oポートから出力されるLEDコントロール信号LEDCがアクティブ(ハイレベル)でありかつイメージセンサ43からのフレームステータスフラグ信号FSFがローレベルである期間にのみ赤外発光ダイオード15が点灯される。   In this LED drive circuit 75, only when the LED control signal LEDC output from the I / O port of the high speed processor 200 is active (high level) and the frame status flag signal FSF from the image sensor 43 is low level. The infrared light emitting diode 15 is turned on.

図9(a)に示すようにフレームステータスフラグ信号FSFがローレベルになると、そのローレベル期間中(実際には微分回路67の時定数での遅れがあるが)、PNPトランジスタ77がオンする。したがって、図9(d)に示すLEDコントロール信号LEDCが高速プロセッサ200からハイレベルで出力されると、NPNトランジスタ81のベースがハイベルとなり、このトランジスタ81がオンとなる。トランジスタ81がオンするとトランジスタ61はオンとなる。したがって、電源(図8では小さい白丸で示す)から各赤外発光ダイオード15a〜15dおよびトランジスタ61を経て電流が流れ、応じて図9(e)に示すように各赤外発光ダイオード15a〜15dが点灯される。   As shown in FIG. 9A, when the frame status flag signal FSF becomes low level, the PNP transistor 77 is turned on during the low level period (although there is actually a delay due to the time constant of the differentiation circuit 67). Therefore, when the LED control signal LEDC shown in FIG. 9D is output from the high speed processor 200 at a high level, the base of the NPN transistor 81 becomes high level, and the transistor 81 is turned on. When the transistor 81 is turned on, the transistor 61 is turned on. Therefore, a current flows from the power source (indicated by small white circles in FIG. 8) through each of the infrared light emitting diodes 15a to 15d and the transistor 61. Accordingly, as shown in FIG. 9E, each of the infrared light emitting diodes 15a to 15d Illuminated.

LED駆動回路75では、このように、図9(d)のLEDコントロール信号LEDCがアクティブでありかつ図9(a)のフレームステータスフラグ信号FSFがローレベルである期間にのみ赤外発光ダイオード15が点灯されるので、イメージセンサ43の露光期間(図9(f)参照)にのみ赤外発光ダイオード15が点灯されることになる。   In this way, in the LED drive circuit 75, the infrared light-emitting diode 15 is activated only when the LED control signal LEDC in FIG. 9D is active and the frame status flag signal FSF in FIG. 9A is at a low level. Since it is lit, the infrared light emitting diode 15 is lit only during the exposure period of the image sensor 43 (see FIG. 9F).

したがって、無駄な電力消費を抑制することができる。さらに、フレームステータスフラグ信号FSFはコンデンサ71によってカップリングされているので、万一イメージセンサ43の暴走等によりそのフラグ信号FSFがローレベルのまま停止した場合でも、一定時間後にはトランジスタ77は必ずオフされ、赤外発光ダイオード15も一定時間後には必ずオフされる。   Therefore, useless power consumption can be suppressed. Further, since the frame status flag signal FSF is coupled by the capacitor 71, even if the flag signal FSF is stopped at a low level due to the runaway of the image sensor 43, the transistor 77 is always turned off after a certain time. The infrared light emitting diode 15 is also always turned off after a certain time.

このように、フレームステータス信号FSFの持続期間を変更することによって、イメージセンサ43の露光時間を任意にかつ自在に設定または変更することができる。   As described above, by changing the duration of the frame status signal FSF, the exposure time of the image sensor 43 can be set or changed arbitrarily and freely.

さらに、フレームステータス信号FSFおよびLEDコントロール信号LEDCの持続時間や周期を変更することによって、赤外発光ダイオード15すなわちストロボスコープの発光期間、非発光期間、発光/非発光周期などを任意にかつ自在に変更または設定できる。   Furthermore, by changing the duration and period of the frame status signal FSF and the LED control signal LEDC, the light emission period, non-light emission period, light emission / non-light emission period, etc. of the infrared light emitting diode 15, that is, the stroboscope can be arbitrarily and freely set. Can be changed or set.

先に説明したように、赤外発光ダイオード15からの赤外光によって操作物150が照射されると、操作物150からの反射光によってイメージセンサ43が露光される。応じて、イメージセンサ43から上述のピクセルデータD(X,Y)が出力される。詳しく説明すると、イメージセンサ43は、上述の図9(a)のフレームステータスフラグ信号FSFがハイレベルの期間(赤外発光ダイオード15の非点灯期間)に図9(b)に示すピクセルデータストローブPDSに同期して、図9(c)に示すようにアナログのピクセルデータD(X,Y)を出力する。   As described above, when the operation article 150 is irradiated with the infrared light from the infrared light emitting diode 15, the image sensor 43 is exposed by the reflected light from the operation article 150. In response, the image sensor 43 outputs the pixel data D (X, Y) described above. More specifically, the image sensor 43 performs the pixel data strobe PDS shown in FIG. 9B during a period in which the frame status flag signal FSF in FIG. 9A is at a high level (non-lighting period of the infrared light emitting diode 15). In synchronism with this, analog pixel data D (X, Y) is output as shown in FIG.

高速プロセッサ200では、そのフレームステータスフラグ信号FSFとピクセルデータストローブPDSとを監視しながら、ADC208を通じて、デジタルのピクセルデータを取得する。   The high speed processor 200 acquires digital pixel data through the ADC 208 while monitoring the frame status flag signal FSF and the pixel data strobe PDS.

ただし、ピクセルデータは、図10(c)に示すように、第0行,第1行,…第31行と行順次に出力される。ただし、後に説明するように、各行の先頭の1ピクセルはダミーデータとなる。   However, as shown in FIG. 10C, the pixel data is output in the order of row 0, row 1,... Row 31. However, as will be described later, the first pixel of each row is dummy data.

次に、ゲーム装置1によるゲーム内容について、具体例を挙げながら説明する。   Next, game content by the game apparatus 1 will be described with specific examples.

図11は、図1のテレビジョンモニタ90のスクリーン91に表示される第1ステージのゲーム画面の例示図である。図11に示すように、このゲーム画面は、背景120、カーソル111、追従オブジェクト112、障害オブジェクト104〜106、体力ゲージ131、及び、マスク101,102を含む。背景120は、障害画像113〜115を含む。体力ゲージ131は、バー103を含む。ここで、追従オブジェクト112は、人魚を模した図形であるため、以下、単に「人魚112」と呼ぶ。また、障害オブジェクト104〜106及び後述の障害オブジェクトを包括して表現する場合は、障害オブジェクトPと呼ぶことがある。障害画像113〜115及び後述の障害画像を包括して表現するときは、障害画像Qと呼ぶことがある。   FIG. 11 is a view showing an example of the first stage game screen displayed on the screen 91 of the television monitor 90 of FIG. As shown in FIG. 11, the game screen includes a background 120, a cursor 111, a tracking object 112, obstacle objects 104 to 106, a physical strength gauge 131, and masks 101 and 102. The background 120 includes obstacle images 113 to 115. The physical strength gauge 131 includes a bar 103. Here, since the tracking object 112 is a figure imitating a mermaid, it is hereinafter simply referred to as a “mermaid 112”. Further, when the failure objects 104 to 106 and a failure object described later are comprehensively expressed, they may be referred to as a failure object P. When the failure images 113 to 115 and the failure images described later are comprehensively expressed, they may be referred to as failure images Q.

体力ゲージ131は、人魚112の体力を表現する。ゲーム開始時では、このバー103は最長であり、十分な体力がある。そして、時間の経過とともに、このバー103は短くなっていき(体力が少なくなっていき)、バー103の長さが「0」になったとき(体力がなくなったとき)にゲームオーバーとなる。なお、バー103は、原則として、最長時から消滅時まで、一定速度で短くなる。つまり、人魚112の体力は、原則として、一定速度で減少する。   The physical strength gauge 131 expresses the physical strength of the mermaid 112. At the start of the game, this bar 103 is the longest and has sufficient physical strength. Then, as time passes, the bar 103 becomes shorter (physical strength decreases), and the game is over when the length of the bar 103 becomes “0” (when physical strength is lost). In principle, the bar 103 is shortened at a constant speed from the longest time to the disappearance time. That is, as a general rule, the physical strength of the mermaid 112 decreases at a constant speed.

背景120は、スクリーン91に向かって、左方向にスクロールされる。当然、背景120の一部である障害画像113〜115も、左方向にスクロールされる。一方、障害オブジェクト104〜105の各々は、単数又は複数のスプライトにより構成され、スクリーン91の右側(マスク102側)から出現し、左方向に移動して、スクリーン91の左側(マスク101側)に消えていく。スプライトについては後述する。   The background 120 is scrolled leftward toward the screen 91. Naturally, the obstacle images 113 to 115 that are part of the background 120 are also scrolled to the left. On the other hand, each of the obstacle objects 104 to 105 is composed of one or a plurality of sprites, appears from the right side (mask 102 side) of the screen 91, moves leftward, and moves to the left side (mask 101 side) of the screen 91. Disappears. The sprite will be described later.

カーソル111は、操作物150のスクリーン91上での位置を表しており、操作物150の動きに連動してスクリーン91上を移動する。従って、プレイヤ94から見れば、操作物150の操作とカーソル111の操作とは同義である。人魚112は、カーソル111の動き(間接的には操作物150の動き)に追従する。プレイヤ94は、操作物150により人魚112を操作して、障害オブジェクト104〜106及び障害画像113〜115を回避しながら、体力が残っている間に(バー103の長さが「0」になる前に)ゴールに到達しなければならない。   The cursor 111 represents the position of the operation article 150 on the screen 91, and moves on the screen 91 in conjunction with the movement of the operation article 150. Therefore, from the viewpoint of the player 94, the operation of the operation article 150 and the operation of the cursor 111 are synonymous. The mermaid 112 follows the movement of the cursor 111 (indirectly, the movement of the operation article 150). The player 94 operates the mermaid 112 with the operation article 150 to avoid the obstacle objects 104 to 106 and the obstacle images 113 to 115 while the physical strength remains (the length of the bar 103 becomes “0”). Before) you must reach the goal.

なお、人魚112が、障害オブジェクト104〜106あるいは障害画像113〜115に衝突すると、体力ゲージ131のバー103が、上記の一定速度に関係なく、所定長だけ短くなり、体力が急激に減少する。人魚112が、障害オブジェクト104〜106あるいは障害画像113〜115に衝突した後一定時間だけ、その後の衝突によっては、人魚104の体力を急激に減少させる処理を行わないようにすることもできる。   When the mermaid 112 collides with the obstacle objects 104 to 106 or the obstacle images 113 to 115, the bar 103 of the physical strength gauge 131 is shortened by a predetermined length regardless of the above constant speed, and the physical strength is drastically reduced. Depending on the subsequent collision for a certain time after the mermaid 112 has collided with the obstacle objects 104 to 106 or the obstacle images 113 to 115, it is possible not to perform the process of sharply reducing the physical strength of the mermaid 104.

図12は、図1のテレビジョンモニタ90のスクリーン91に表示される第1ステージのゲーム画面の他の例示図である。図12に示すように、このゲーム画面は、背景120、カーソル111、人魚112、障害オブジェクト107〜109、体力ゲージ131、アイテム110、及び、マスク101,102を含む。背景120は、障害画像116,117含む。   FIG. 12 is a view showing another example of the first stage game screen displayed on the screen 91 of the television monitor 90 of FIG. As shown in FIG. 12, the game screen includes a background 120, a cursor 111, a mermaid 112, obstacle objects 107 to 109, a physical strength gauge 131, an item 110, and masks 101 and 102. The background 120 includes obstacle images 116 and 117.

プレイヤ94が操作物150を操作して、人魚112を、アイテム110が表示されている所定領域に移動させると、体力ゲージ131のバー103が所定長だけ長くなる。つまり、この場合、人魚112の体力が増加して、プレイヤ94に有利となる。なお、障害オブジェクト107〜109及び障害画像116,117は、それぞれ、障害オブジェクト104〜106及び障害画像113〜115と同様のものである。   When the player 94 operates the operation article 150 to move the mermaid 112 to a predetermined area where the item 110 is displayed, the bar 103 of the physical strength gauge 131 becomes longer by a predetermined length. That is, in this case, the physical strength of the mermaid 112 increases, which is advantageous to the player 94. The fault objects 107 to 109 and the fault images 116 and 117 are the same as the fault objects 104 to 106 and the fault images 113 to 115, respectively.

図13は、図1のテレビジョンモニタ90のスクリーン91に表示される第2ステージのゲーム画面の例示図である。図13に示すように、このゲーム画面は、背景120、カーソル111、人魚112、障害オブジェクト121〜125、体力ゲージ131、及び、アイテム126を含む。   FIG. 13 is a view showing an example of the second stage game screen displayed on the screen 91 of the television monitor 90 of FIG. As shown in FIG. 13, the game screen includes a background 120, a cursor 111, a mermaid 112, obstacle objects 121 to 125, a physical strength gauge 131, and an item 126.

障害オブジェクト121〜125の各々及びアイテム126は、単数又は複数のスプライトにより構成され、スクリーン91の上側に出現し、下降して、スクリーン91の下側に消えていく。なお、第2ステージでは、背景120のスクロールはない。   Each of the obstacle objects 121 to 125 and the item 126 are configured by one or a plurality of sprites, appear on the upper side of the screen 91, descend, and disappear on the lower side of the screen 91. In the second stage, the background 120 is not scrolled.

プレイヤ94は、操作物150により人魚112を操作して、障害オブジェクト121〜125を回避なければならない。人魚112が、障害オブジェクト121〜125に衝突すると、体力ゲージ131のバー103が所定長だけ短くなる。つまり、人魚112の体力が減少する。アイテム126は、図12のアイテム110と同様のものである。   The player 94 must avoid the obstacle objects 121 to 125 by operating the mermaid 112 with the operation article 150. When the mermaid 112 collides with the obstacle objects 121 to 125, the bar 103 of the physical strength gauge 131 is shortened by a predetermined length. That is, the physical strength of the mermaid 112 decreases. Item 126 is the same as item 110 in FIG.

ここで、障害オブジェクト104〜109の各々及び人魚112は、アニメーションの、あるコマの画像である。従って、人魚112のアニメーションのために、一連の人魚112の画像が用意されている。また、障害オブジェクト104〜109の各々のアニメーションのために、障害オブジェクト104〜109ごとに、一連の障害オブジェクト104〜109の画像が用意されている。   Here, each of the obstacle objects 104 to 109 and the mermaid 112 is an image of a certain frame of animation. Therefore, a series of images of the mermaid 112 are prepared for the animation of the mermaid 112. For each of the obstacle objects 104 to 109, a series of images of the obstacle objects 104 to 109 are prepared for the obstacle objects 104 to 109.

上記したように、人魚112、障害オブジェクト104〜109,121〜125の各々、アイテム110,126の各々、及び、体力ゲージ131、は単数あるいは複数のスプライトからなる。スプライトは、矩形の画素集合であり、スクリーン91の任意の位置に配置できる。なお、人魚112、障害オブジェクト104〜109,121〜125の各々、アイテム110,126の各々、及び、体力ゲージ131、を総称してオブジェクト(あるいはオブジェクト画像)と呼ぶこともある。   As described above, the mermaid 112, each of the obstacle objects 104 to 109, 121 to 125, each of the items 110 and 126, and the physical strength gauge 131 are formed of one or a plurality of sprites. The sprite is a rectangular pixel set and can be arranged at an arbitrary position on the screen 91. Note that the mermaid 112, each of the obstacle objects 104 to 109, 121 to 125, each of the items 110 and 126, and the physical strength gauge 131 may be collectively referred to as an object (or an object image).

図14は、スクリーン91に表示されるオブジェクトを構成するスプライトの説明図である。図14に示すように、図11の人魚112は、例えば、6個のスプライトSP0〜SP5により構成される。スプライトSP0〜SP5の各々は、例えば、16画素×16画素からなる。人魚112をスクリーン91上に配置するときは、例えば、左上の角のスプライトSP0の中心を、スクリーン91上のどの座標に配置するかが指定される。そして、指定された座標及びスプライトSP0〜SP5のサイズをもとに、各スプライトSP1〜SP5の中心を配置する座標が算出される。   FIG. 14 is an explanatory diagram of sprites that constitute objects displayed on the screen 91. As shown in FIG. 14, the mermaid 112 in FIG. 11 includes, for example, six sprites SP0 to SP5. Each of the sprites SP0 to SP5 is composed of, for example, 16 pixels × 16 pixels. When the mermaid 112 is arranged on the screen 91, for example, the coordinates on the screen 91 where the center of the sprite SP0 at the upper left corner is arranged are specified. Based on the designated coordinates and the sizes of the sprites SP0 to SP5, the coordinates for arranging the centers of the sprites SP1 to SP5 are calculated.

次に、背景120のスクロールについて説明する。まず、バックグラウンドスクリーンについて説明する。   Next, scrolling of the background 120 will be described. First, the background screen will be described.

図15は、図1のテレビジョンモニタ90のスクリーン91に表示されるバックグラウンドスクリーンの説明図である。図15に示すように、バックグラウンドスクリーン140は、例えば、32個×32個のブロック「0」〜ブロック「1023」により構成される。ブロック「0」〜ブロック「1023」の各々は、例えば、8画素×8画素からなる矩形要素である。ブロック「0」〜ブロック「1023」に対応して、配列PA[0]〜PA[1023]及び配列CA[0]〜CA[1023]が用意される。ここで、ブロック「0」〜ブロック「1023」を包括して表現するときは、単に「ブロック」と表記し、配列PA[0]〜PA[1023]を包括して表現するときは、「配列PA」と表記し、配列CA[0]〜CA[1023]を包括して表現するときは、「配列CA」と表記する。   FIG. 15 is an explanatory diagram of a background screen displayed on the screen 91 of the television monitor 90 of FIG. As illustrated in FIG. 15, the background screen 140 includes, for example, 32 × 32 blocks “0” to “1023”. Each of the blocks “0” to “1023” is, for example, a rectangular element composed of 8 pixels × 8 pixels. Corresponding to the blocks “0” to “1023”, arrays PA [0] to PA [1023] and arrays CA [0] to CA [1023] are prepared. Here, when the block “0” to the block “1023” are comprehensively expressed, it is simply expressed as “block”, and when the array PA [0] to PA [1023] is comprehensively expressed, the “array” When it is expressed as “PA” and the sequences CA [0] to CA [1023] are comprehensively expressed, they are expressed as “array CA”.

配列PAには、対応するブロックの画素パターンを指定するデータ(画素パターンデータ)の格納位置情報が代入される。画素パターンデータは、ブロックを構成する8画素×8画素の各画素の色情報からなる。また、配列CAには、対応するブロックに使用するカラーパレットを指定する情報(カラーパレット情報)及びデプス値が代入される。カラーパレットは、所定数の色情報からなる。デプス値は、画素の奥行きを表す情報であり、同じ位置に、複数の画素が存在することとなる場合、最も大きなデプス値を持つ画素だけが表示されることになる。   Storage position information of data (pixel pattern data) designating the pixel pattern of the corresponding block is substituted into the array PA. The pixel pattern data includes color information of each pixel of 8 pixels × 8 pixels constituting the block. In addition, information (color palette information) and a depth value for designating the color palette used for the corresponding block are substituted into the array CA. The color palette includes a predetermined number of color information. The depth value is information representing the depth of the pixel, and when a plurality of pixels are present at the same position, only the pixel having the largest depth value is displayed.

図16(a)は、バックグラウンドスクリーン140をスクロールする前の説明図、図16(b)は、バックグラウンドスクリーン140をスクロールした後の説明図、である。図16(a)に示すように、テレビジョンモニタ90のスクリーン91のサイズは、224画素×256画素であるため、バックグラウンドスクリーン140のうち、224画素×256画素の範囲がスクリーン91に表示される。ここで、バックグラウンドスクリーン140の中心位置をk画素だけ左にスクロールすることを考える。そうすると、バックグラウンドスクリーン140の横方向(水平方向)の幅が、スクリーン91の横方向の幅と同じであるため、図16(b)に示すように、スクリーン91の範囲外となった部分(斜線部分)が、スクリーン91の右端に表示される。つまり、概念的には、横方向にスクロールをする場合は、同じ複数のバックグラウンドスクリーン140が横方向に連なっていると考えることができる。   FIG. 16A is an explanatory diagram before scrolling the background screen 140, and FIG. 16B is an explanatory diagram after scrolling the background screen 140. As shown in FIG. 16A, since the size of the screen 91 of the television monitor 90 is 224 pixels × 256 pixels, a range of 224 pixels × 256 pixels of the background screen 140 is displayed on the screen 91. The Here, consider that the center position of the background screen 140 is scrolled to the left by k pixels. Then, since the width of the background screen 140 in the horizontal direction (horizontal direction) is the same as the width of the screen 91 in the horizontal direction, as shown in FIG. A hatched portion is displayed at the right end of the screen 91. That is, conceptually, when scrolling in the horizontal direction, it can be considered that the same plurality of background screens 140 are connected in the horizontal direction.

例えば、スクリーン91の範囲外となった部分(斜線部分)が、図15のブロック「64」,ブロック「96」,…,ブロック「896」,ブロック「928」とすると、これらのブロックに対応する配列PA[64],PA「96」,…,PA「896」,PA[928]及び配列CA[64],CA「96」,…,CA「896」,CA[928]によって定まる画像が、スクリーン91の右端に表示される。従って、バックグラウンドスクリーン140の左スクロールにより、背景が連続的に連なるようにするには、スクリーン91の範囲外となった部分(斜線部分)に含まれるブロックに対応する配列PA及び配列CAに代入されたデータを更新する必要がある。そうすれば、更新された配列PA及び配列CAによって定まる画像が、スクリーン91の右端に表示される。   For example, if the portion outside the range of the screen 91 (shaded portion) is the block “64”, the block “96”,..., The block “896”, the block “928” in FIG. An image defined by the arrays PA [64], PA “96”,..., PA “896”, PA [928] and the arrays CA [64], CA “96”,. It is displayed at the right end of the screen 91. Therefore, in order to make the background continuously continuous by left-scrolling the background screen 140, it is substituted into the array PA and the array CA corresponding to the blocks included in the portion outside the range of the screen 91 (shaded portion). Updated data needs to be updated. Then, an image determined by the updated array PA and array CA is displayed on the right end of the screen 91.

背景を滑らかに連続するように見せるためには、スクリーン91の右端に表示される前に、該当する配列PA及び配列CAのデータを更新する必要がある。そうすると、スクリーン91の左端に表示中のときに、該当する配列PA及び配列CAのデータを更新する必要が生じ、スクリーン91の左端の表示が不連続なものとなる。従って、このような不都合を回避するため、図11及び図12に示すように、スクリーン91の左端にマスク101をする。なお、本実施形態では、右方向へのスクロールは行わないが、バランスをとるため、右端にもマスク102をしている。   In order to make the background appear smooth and continuous, it is necessary to update the data of the corresponding array PA and array CA before being displayed on the right end of the screen 91. Then, when the data is being displayed at the left end of the screen 91, it is necessary to update the data in the corresponding array PA and array CA, and the display at the left end of the screen 91 becomes discontinuous. Therefore, in order to avoid such an inconvenience, a mask 101 is placed on the left end of the screen 91 as shown in FIGS. In the present embodiment, scrolling in the right direction is not performed, but a mask 102 is also provided at the right end for balance.

以上のようにして、バックグラウンドスクリーン140をスクロールさせることで、背景120をスクロールさせる。   The background 120 is scrolled by scrolling the background screen 140 as described above.

図17は、図6のROM51に格納されたプログラム及びデータを示す概念図である。図17に示すように、ROM51には、ゲームプログラム300、画像データ301、及び、楽音データ304、が格納される。画像データ301は、オブジェクト画像データ302(人魚112、障害オブジェクト104〜109,121〜125、アイテム110,126、及び、体力ゲージ131、等の画像データを含む。)及び背景画像データ303を含む。楽音データ304は、楽譜データ305、及び、波形データ(音源データ)306、を含む。高速プロセッサ200は、ROM51に格納されたゲームプログラム300を実行し、画像データ301及び楽音データ304を利用する。   FIG. 17 is a conceptual diagram showing programs and data stored in the ROM 51 of FIG. As shown in FIG. 17, the ROM 51 stores a game program 300, image data 301, and musical sound data 304. The image data 301 includes object image data 302 (including image data such as a mermaid 112, obstacle objects 104 to 109, 121 to 125, items 110 and 126, and a physical strength gauge 131) and background image data 303. The musical sound data 304 includes score data 305 and waveform data (sound source data) 306. The high speed processor 200 executes the game program 300 stored in the ROM 51 and uses the image data 301 and the musical sound data 304.

高速プロセッサ200が実行する主な処理について説明する。   Main processes executed by the high speed processor 200 will be described.

[ピクセルデータ群取得処理]CPU201は、イメージセンサ43が出力したアナログのピクセルデータを変換したデジタルのピクセルデータを取得して、配列P[X][Y]に代入する。なお、イメージセンサ43の水平方向(横方向、行方向)をX軸、垂直方向(縦方向、列方向)をY軸とする。   [Pixel Data Group Acquisition Processing] The CPU 201 acquires digital pixel data obtained by converting analog pixel data output from the image sensor 43, and substitutes it into the array P [X] [Y]. The horizontal direction (lateral direction, row direction) of the image sensor 43 is taken as the X axis, and the vertical direction (longitudinal direction, column direction) is taken as the Y axis.

[差分データ算出処理]CPU201は、赤外発光ダイオード15の点灯時のピクセルデータP[X][Y]と、消灯時のピクセルデータP[X][Y]と、の差分を算出して、差分データを配列Dif[X][Y]に代入する。ここで、図面を用いて、差分を求める効果を説明する。ここで、ピクセルデータは輝度を表す。よって、差分データも輝度を表す。   [Difference Data Calculation Processing] The CPU 201 calculates the difference between the pixel data P [X] [Y] when the infrared light emitting diode 15 is turned on and the pixel data P [X] [Y] when the infrared light emitting diode 15 is turned off. The difference data is substituted into the array Dif [X] [Y]. Here, the effect of obtaining the difference will be described with reference to the drawings. Here, the pixel data represents luminance. Therefore, the difference data also represents luminance.

図18(a)は、一般的なイメージセンサにより撮影された、特別な処理を施さない画像の例示図、図18(b)は、図18(a)の画像信号を或る閾値でレベル弁別したときの画像信号の例示図、図18(c)は、赤外フィルタ17を介したイメージセンサ43の点灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図、図18(d)は、赤外フィルタ17を介したイメージセンサ43の消灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図、図18(e)は、点灯時の画像信号と消灯時の画像信号との差分信号の例示図、である。   FIG. 18A is an illustration of an image taken by a general image sensor and not subjected to special processing, and FIG. 18B is a level discrimination of the image signal of FIG. FIG. 18C is an exemplary diagram of an image signal when the image sensor 43 is turned on via the infrared filter 17, and FIG. (D) is an exemplary diagram of an image signal when the image signal when the image sensor 43 is turned off via the infrared filter 17 is level-discriminated by a certain threshold, and FIG. It is an illustration figure of the difference signal with the image signal at the time of light extinction.

上記のように、操作物150に赤外光を照射し、赤外フィルタ17を介してイメージセンサ43に入射した反射赤外光による画像を撮影している。一般的な室内環境で一般的な光源を用いて操作物150をストロボスコープ撮影した場合には、一般的なイメージセンサ(図5のイメージセンサ43に相当する。)には、図18(a)に示すように、操作物150による画像以外に、蛍光灯光源、白熱灯光源、太陽光(窓)のような光源だけでなく、室内のすべてのものの画像がすべて写り込む。したがって、この図18(a)の画像を処理して操作物150の画像のみを抽出するのは、かなり高速のコンピュータまたはプロセサが必要である。しかしながら、安価が条件の装置ではそのような高性能コンピュータを使えない。そこで種々の処理を行って負担を軽減することが考えられる。   As described above, the operation article 150 is irradiated with infrared light, and an image of reflected infrared light incident on the image sensor 43 via the infrared filter 17 is captured. When the operation article 150 is photographed with a stroboscope using a general light source in a general indoor environment, a general image sensor (corresponding to the image sensor 43 in FIG. 5) is shown in FIG. As shown in FIG. 5, in addition to the image of the operation article 150, not only a light source such as a fluorescent light source, an incandescent light source, and sunlight (window), but also all images of the room. Therefore, to process only the image of the operation article 150 by processing the image of FIG. 18A requires a considerably high speed computer or processor. However, such a high-performance computer cannot be used in an inexpensive device. Therefore, it is conceivable to reduce the burden by performing various processes.

なお、図18(a)の画像は、本来ならば、白黒の階調により表される画像であるが、その図示を省略している。また、図18(a)〜図18(e)では、操作物150の反射シート155が撮影されている。   Note that the image in FIG. 18A is originally an image represented by black and white gradations, but the illustration thereof is omitted. Further, in FIGS. 18A to 18E, the reflection sheet 155 of the operation article 150 is photographed.

図18(b)は、図18(a)の画像信号を或る閾値でレベル弁別したときの画像信号である。このようなレベル弁別処理は専用のハードウェア回路でも、ソフトウェア的にでも、実行することができるが、いずれの方法によっても、一定以下の光量のピクセルデータをカットするレベル弁別を実行すると、操作物150や光源以外の低輝度画像を除去することができる。この図18(b)の画像では操作物150および室内の光源以外の画像の処理を省略でき、したがって、コンピュータの負担を軽減できるが、それでも、光源画像を含む高輝度画像が依然として写り込んでいるので、操作物150と他の光源を分別することは難しい。   FIG. 18B is an image signal when the image signal of FIG. 18A is level-discriminated by a certain threshold value. Such level discrimination processing can be executed either by a dedicated hardware circuit or by software. However, by any method, if level discrimination that cuts pixel data of a certain amount or less is executed, the operation article Low luminance images other than 150 and the light source can be removed. In the image of FIG. 18B, processing of an image other than the operation article 150 and the light source in the room can be omitted, and thus the burden on the computer can be reduced. However, a high-intensity image including the light source image is still captured. Therefore, it is difficult to separate the operation article 150 from other light sources.

そこで、図5に示したように赤外フィルタ17を利用して、イメージセンサ43に赤外光による画像以外の画像が写らないようにした。それによって、図18(c)に示すように、赤外光を殆ど含まない蛍光灯光源の画像は除去できる。しかしながら、それでもなお太陽光や白熱灯が画像信号中に含まれてしまう。したがって、更なる負担軽減のために、赤外ストロボスコープの点灯時のピクセルデータと消灯時のピクセルデータとの差分を計算することとした。   Therefore, as shown in FIG. 5, the infrared filter 17 is used to prevent the image sensor 43 from capturing an image other than an infrared image. Thereby, as shown in FIG. 18C, the image of the fluorescent light source that hardly contains infrared light can be removed. However, sunlight and incandescent lamps are still included in the image signal. Therefore, in order to further reduce the burden, the difference between the pixel data when the infrared stroboscope is turned on and the pixel data when the infrared stroboscope is turned off is calculated.

そのため、図18(c)の点灯時の画像信号のピクセルデータと、図18(d)の消灯時の画像信号のピクセルデータとの差分を計算した。すると、図18(e)に示すように、その差分だけの画像が取得できる。この差分データによる画像は、図18(a)と対比すれば明らかなように、操作物150によって得られる画像のみを含むことになる。したがって、処理の軽減を図りながらも、操作物150の状態情報を取得できる。   Therefore, the difference between the pixel data of the image signal when turned on in FIG. 18C and the pixel data of the image signal when turned off in FIG. 18D was calculated. Then, as shown in FIG.18 (e), the image only for the difference is acquirable. The image based on the difference data includes only the image obtained by the operation article 150, as is clear from comparison with FIG. Therefore, the state information of the operation article 150 can be acquired while reducing the processing.

ここで、状態情報とは、例えば、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、等である。   Here, the state information is, for example, one of speed information, moving direction information, moving distance information, velocity vector information, acceleration information, moving trajectory information, area information, or position information, or two of them. A combination of the above.

以上のような理由で、CPU201は、赤外発光ダイオード15の点灯時のピクセルデータと、消灯時のピクセルデータと、の差分を算出して、差分データを得る。   For the reasons described above, the CPU 201 calculates the difference between the pixel data when the infrared light emitting diode 15 is turned on and the pixel data when the infrared light emitting diode 15 is turned off, and obtains difference data.

[注目点抽出処理]CPU201は、算出した差分データDif[X][Y]を基に、操作物150の注目点の座標を求める。この点を詳細に説明する。   [Attention Point Extraction Processing] The CPU 201 obtains the coordinates of the attention point of the operation article 150 based on the calculated difference data Dif [X] [Y]. This point will be described in detail.

図19は、操作物150の注目点の座標算出の説明図である。なお、図19に示したイメージセンサ43は、32ピクセル×32ピクセルのものとする。   FIG. 19 is an explanatory diagram of the coordinate calculation of the attention point of the operation article 150. The image sensor 43 shown in FIG. 19 is assumed to be 32 pixels × 32 pixels.

図19に示すように、CPU201は、X方向(水平方向、横方向、行方向)に32ピクセル分の差分データをスキャンし、そして、Y座標をインクリメントし、X方向に32ピクセル分の差分データをスキャンし、そして、Y座標をインクリメントし、というように、Y座標をインクリメントしながら、X方向に32ピクセル分の差分データをスキャンしていく。   As shown in FIG. 19, the CPU 201 scans differential data for 32 pixels in the X direction (horizontal direction, horizontal direction, row direction), increments the Y coordinate, and stores differential data for 32 pixels in the X direction. And the Y coordinate is incremented, and the difference data for 32 pixels is scanned in the X direction while incrementing the Y coordinate.

この場合、CPU201は、スキャンした32ピクセル×32ピクセル分の差分データから、最大輝度値の差分データを求め、その最大輝度値と所定の閾値Thとを比較する。そして、CPU201は、その最大輝度値が所定の閾値Thより大きい場合は、その最大輝度値を持つピクセルの座標を基に、操作物150の注目点の座標を算出する。この点を詳しく説明する。   In this case, the CPU 201 obtains the maximum brightness value difference data from the scanned difference data of 32 pixels × 32 pixels, and compares the maximum brightness value with a predetermined threshold Th. Then, when the maximum luminance value is larger than the predetermined threshold Th, the CPU 201 calculates the coordinates of the attention point of the operation article 150 based on the coordinates of the pixel having the maximum luminance value. This point will be described in detail.

図20(a)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際のX方向スキャンの説明図、図20(b)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際のY方向スキャンのスタート時の説明図、図20(c)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際のY方向スキャンの説明図、図20(d)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際の結果の説明図、である。   FIG. 20A is an explanatory diagram of X-direction scanning when calculating the point-of-interest coordinates of the operation article 150 based on the coordinates of the pixel having the maximum luminance value, and FIG. 20B has the maximum luminance value. FIG. 20C is an explanatory diagram at the start of the Y-direction scan when calculating the attention point coordinates of the operation article 150 based on the coordinates of the pixel, and FIG. 20C shows the operation article based on the coordinates of the pixel having the maximum luminance value. FIG. 20D is an explanatory diagram of Y-direction scanning when calculating 150 attention point coordinates, and FIG. 20D is a result of calculating the attention point coordinates of the operation article 150 based on the coordinates of the pixel having the maximum luminance value. It is explanatory drawing.

図20(a)に示すように、CPU201は、最大輝度値のピクセルの座標を中心に、X方向に、差分データのスキャンを実行して、所定の閾値Thより大きい輝度値のピクセルを検出する。図20(a)の例では、X=11〜15までが、所定の閾値Thを超えたピクセルである。   As shown in FIG. 20A, the CPU 201 scans the difference data in the X direction around the coordinates of the pixel having the maximum luminance value, and detects a pixel having a luminance value larger than the predetermined threshold Th. . In the example of FIG. 20A, X = 11 to 15 are pixels that exceed a predetermined threshold Th.

次に、図20(b)に示すように、CPU201は、X=11〜15の中心を求める。すると、中心のX座標は、Xc=13である。   Next, as shown in FIG. 20B, the CPU 201 obtains the center of X = 11-15. Then, the X coordinate of the center is Xc = 13.

次に、図20(c)に示すように、図20(b)で求めたX座標(=13)を中心に、Y方向に、差分データのスキャンを実行して、所定の閾値Thより大きい輝度値のピクセルを検出する。図20(c)の例では、Y=5〜10までが、所定の閾値Thを超えたピクセルである。   Next, as shown in FIG. 20C, the difference data is scanned in the Y direction around the X coordinate (= 13) obtained in FIG. 20B, and is larger than a predetermined threshold Th. Detect pixels with luminance values. In the example of FIG. 20C, Y = 5 to 10 are pixels that exceed a predetermined threshold Th.

次に、図20(d)に示すように、CPU201は、Y=5〜10の中心を求める。すると、中心のY座標は、Yc=7である。   Next, as shown in FIG. 20D, the CPU 201 obtains the center of Y = 5-10. Then, the Y coordinate of the center is Yc = 7.

CPU201は、以上のようにして算出した注目点の座標Xc(=13)をPX[M]に代入し、座標Yc(=7)をPY[M]に代入する。そして、CPU201は、注目点(Xc,Yc)の移動平均(AX,AY)を算出する。さらに、CPU201は、イメージセンサ43上の注目点の平均座標(AX,AY)を、スクリーン91上の座標(xc,yc)に変換する。そして、CPU201は、座標xcを配列Ax[M]に代入し、座標ycを配列Ay[M]に代入する。CPU201は、以上のような注目点の座標(Ax[M],Ay[M])を求める処理を、フレームが更新されるたびに実行する。ここで、例えば、スクリーン91における座標原点は、スクリーン91の中心位置とする。   The CPU 201 substitutes the coordinates Xc (= 13) of the attention point calculated as described above into PX [M], and substitutes the coordinates Yc (= 7) into PY [M]. Then, the CPU 201 calculates a moving average (AX, AY) of the attention point (Xc, Yc). Further, the CPU 201 converts the average coordinates (AX, AY) of the target point on the image sensor 43 into coordinates (xc, yc) on the screen 91. Then, the CPU 201 assigns the coordinate xc to the array Ax [M], and assigns the coordinate yc to the array Ay [M]. The CPU 201 executes processing for obtaining the coordinates of the attention point (Ax [M], Ay [M]) as described above every time the frame is updated. Here, for example, the coordinate origin on the screen 91 is the center position of the screen 91.

CPU201は、例えば、次式により、(n+1)フレーム分の移動平均を算出する。「n」は自然数(例えば、「3」)である。
AX=(PX[M]+PX[M−1]+…+PX[M−n])/(n+1) …(1)
AY=(PY[M]+PY[M−1]+…+PY[M−n])/(n+1) …(2)
「M」は整数であり、スクリーン91に表示するフレームが更新されるたびに1つインクリメントされる。
For example, the CPU 201 calculates a moving average for (n + 1) frames by the following equation. “N” is a natural number (eg, “3”).
AX = (PX [M] + PX [M−1] +... + PX [M−n]) / (n + 1) (1)
AY = (PY [M] + PY [M−1] +... + PY [M−n]) / (n + 1) (2)
“M” is an integer, and is incremented by 1 each time the frame displayed on the screen 91 is updated.

[背景制御処理]CPU201は、ゲームの第1ステージでは(図11及び図12参照)、バックグラウンドスクリーン140の中心位置の配置を、一定速度で変更して(図16(a)及び図16(b)参照)、中心位置の変更後の配置座標を登録する。この場合、CPU201は、該当する配列PA及び配列CAのデータを変更する。以上のようにして、CPU201は、背景120のスクロール制御を行う。また、CPU201は、ゲームの第2ステージでは(図13参照)、ゲームプログラム300に従って、配列PA及び配列CAのデータを変更して、背景120の内容の一部あるいは全部を変化させる。   [Background Control Processing] In the first stage of the game (see FIG. 11 and FIG. 12), the CPU 201 changes the arrangement of the center position of the background screen 140 at a constant speed (FIG. 16 (a) and FIG. b)), and the arrangement coordinates after the change of the center position are registered. In this case, the CPU 201 changes the data of the corresponding array PA and array CA. As described above, the CPU 201 performs scroll control of the background 120. In the second stage of the game (see FIG. 13), the CPU 201 changes the data of the array PA and the array CA according to the game program 300 to change part or all of the contents of the background 120.

[自動オブジェクト制御処理]CPU201は、障害オブジェクトP及びアイテム110,126の座標を計算して登録する。例えば、障害オブジェクトP及びアイテム110が一定速度で移動するように、座標計算を行い、その結果を登録する(内部メモリ207に格納する)。また、CPU201は、表示すべき障害オブジェクトP及びアイテム110,126のアニメーションテーブルの格納位置情報を登録する。このアニメーションテーブルは、後述する人魚112のアニメーションテーブルと同様のものである。   [Automatic Object Control Processing] The CPU 201 calculates and registers the coordinates of the obstacle object P and the items 110 and 126. For example, coordinate calculation is performed so that the obstacle object P and the item 110 move at a constant speed, and the result is registered (stored in the internal memory 207). Further, the CPU 201 registers the storage position information of the failure object P to be displayed and the animation table of the items 110 and 126. This animation table is the same as the animation table of the mermaid 112 described later.

[カーソル制御処理]CPU201は、操作物150の注目点の座標(Ax[M],Ay[M])を、次のフレームで表示するカーソル105の座標として登録する(内部メモリ207に格納する)。また、CPU201は、カーソル111のアニメーションテーブルの格納位置情報を登録する。このアニメーションテーブルは、後述する人魚112のアニメーションテーブルと同様のものである。   [Cursor control processing] The CPU 201 registers the coordinates (Ax [M], Ay [M]) of the attention point of the operation article 150 as the coordinates of the cursor 105 to be displayed in the next frame (stored in the internal memory 207). . Further, the CPU 201 registers storage position information of the animation table of the cursor 111. This animation table is the same as the animation table of the mermaid 112 described later.

[追従オブジェクト制御処理]CPU201は、人魚112を、カーソル111の動きに追従させる。この場合、人魚112に第1の加速度を持たせて移動させる。この第1の加速度には、カーソル111と人魚112との間の距離が大きいほど大きな値を、小さいほど小さい値を設定する。なお、第1の加速度の向きは正方向である。正方向とは、人魚の進行方向である。また、人魚112には、第2の加速度をも持たせて移動させる。この第2の加速度には、人魚の速度が大きいほど大きな値を、小さいほど小さい値を設定する。この第2の加速度の向きは負方向とする。負方向とは、人魚の進行方向と逆の方向である。以上により、人魚112が、あたかも水中を運動しているかのような効果を得ることができる。以上の点を具体例を挙げながら説明する。   [Following Object Control Processing] The CPU 201 causes the mermaid 112 to follow the movement of the cursor 111. In this case, the mermaid 112 is moved with a first acceleration. For the first acceleration, a larger value is set as the distance between the cursor 111 and the mermaid 112 is larger, and a smaller value is set as the distance is smaller. Note that the direction of the first acceleration is the positive direction. The positive direction is the direction of travel of the mermaid. The mermaid 112 is also moved with a second acceleration. For this second acceleration, a larger value is set as the speed of the mermaid is larger, and a smaller value is set as it is smaller. The direction of the second acceleration is a negative direction. The negative direction is the direction opposite to the direction of travel of the mermaid. As described above, it is possible to obtain an effect as if the mermaid 112 is exercising in the water. The above points will be described with specific examples.

図21は、CPU201による追従オブジェクト制御処理の説明図である。CPU201は、人魚112の今回の座標(xm[M],ym[M])を算出するため、例えば、次式を用いる。
xm[M]=xm[M−1]+Vxm[M−1]×(1−k)+Bx[M] …(3)
ym[M]=ym[M−1]+Vym[M−1]×(1−k)+By[M] …(4)
Vxm[M−1]=xm[M−1]−xm[M−2] …(5)
Vym[M−1]=ym[M−1]−ym[M−2] …(6)
Bx[M]=Lx[M]×B0 …(7)
By[M]=Ly[M]×B0 …(8)
Lx[M]=Ax[M]−xm[M−1] …(9)
Ly[M]=Ay[M]−ym[M−1] …(10)
図21に示すように、式(3)〜式(10)では、人魚112の前回の座標(xm[M−1],ym[M−1])、人魚112の前回の速度ベクトル(Vxm[M−1],Vym[M−1])、人魚112の今回の加速度ベクトル(Bx[M],By[M])、人魚112の前前回の座標(xm[M−2],ym[M−2])、水の抵抗を表す定数k(k<1)、及び、人魚112の加速度を調整する定数B0、を使用する。ここで、水の抵抗を大きくしたいときには、定数kを大きい値に設定し、小さくしたいときは小さい値に設定する。また、人魚の加速度Bx[M],By[M]は、今回のカーソル111と前回の人魚112との間の距離Lx[M],Ly[M]に比例する。なお、定数kの値及び定数B0の値は、任意の値とすることができ、例えば、経験により定めることができる。
FIG. 21 is an explanatory diagram of the tracking object control process by the CPU 201. The CPU 201 uses, for example, the following equation in order to calculate the current coordinates (xm [M], ym [M]) of the mermaid 112.
xm [M] = xm [M-1] + Vxm [M-1] * (1-k) + Bx [M] (3)
ym [M] = ym [M-1] + Vym [M-1] × (1-k) + By [M] (4)
Vxm [M-1] = xm [M-1] -xm [M-2] (5)
Vym [M-1] = ym [M-1] -ym [M-2] (6)
Bx [M] = Lx [M] × B0 (7)
By [M] = Ly [M] × B0 (8)
Lx [M] = Ax [M] −xm [M−1] (9)
Ly [M] = Ay [M] −ym [M−1] (10)
As shown in FIG. 21, in the equations (3) to (10), the previous coordinates (xm [M−1], ym [M−1]) of the mermaid 112 and the previous velocity vector (Vxm [ M-1], Vym [M-1]), current acceleration vector (Bx [M], By [M]) of the mermaid 112, previous coordinates of the mermaid 112 (xm [M-2], ym [M -2]), a constant k representing the resistance of water (k <1), and a constant B0 for adjusting the acceleration of the mermaid 112. Here, when it is desired to increase the resistance of water, the constant k is set to a large value, and when it is desired to decrease, the resistance k is set to a small value. The mermaid accelerations Bx [M] and By [M] are proportional to the distances Lx [M] and Ly [M] between the current cursor 111 and the previous mermaid 112. The value of the constant k and the value of the constant B0 can be arbitrary values, and can be determined by experience, for example.

また、CPU201は、次式により、人魚112の今回の速度ベクトル(Vxm[M],Vym[M])を算出する。
Vxm[M]=xm[M]−xm[M−1] …(11)
Vym[M]=ym[M]−ym[M−1] …(12)
さらに、CPU201は、人魚112のx方向の移動距離mxおよびy方向の移動距離myを算出する。x方向の移動距離mxは、x成分Vxm[M]の絶対値であり、y方向の移動距離myは、y成分Vym[M]の絶対値である。
Further, the CPU 201 calculates the current velocity vector (Vxm [M], Vym [M]) of the mermaid 112 by the following equation.
Vxm [M] = xm [M] −xm [M−1] (11)
Vym [M] = ym [M] −ym [M−1] (12)
Further, the CPU 201 calculates the movement distance mx in the x direction and the movement distance my in the y direction of the mermaid 112. The movement distance mx in the x direction is the absolute value of the x component Vxm [M], and the movement distance my in the y direction is the absolute value of the y component Vym [M].

CPU201は、上記のようにして、人魚112の位置を制御するだけでなく、人魚112のアニメーションを制御する。この点を詳細に説明する。   As described above, the CPU 201 controls not only the position of the mermaid 112 but also the animation of the mermaid 112. This point will be described in detail.

CPU201は、人魚112のx方向の移動距離mxと所定値xrとの間で大小を判断する。また、CPU201は、人魚112のy方向の移動距離myと所定値yrとの間で大小を判断する。その判断の結果、CPU201は、移動距離mxが所定値xrより大きく、移動距離myが所定値yrより小さい場合は、人魚112を横方向(水平方向)に移動させるべく、角度フラグを対応する値にセットする。   The CPU 201 determines the size of the mermaid 112 between the movement distance mx in the x direction and the predetermined value xr. The CPU 201 determines whether the mermaid 112 is large or small between the movement distance my in the y direction and the predetermined value yr. As a result of the determination, when the movement distance mx is larger than the predetermined value xr and the movement distance my is smaller than the predetermined value yr, the CPU 201 sets a value corresponding to the angle flag to move the mermaid 112 in the horizontal direction (horizontal direction). Set to.

また、判断の結果、CPU201は、移動距離mxが所定値xrより小さく、移動距離myが所定値yrより大きい場合は、人魚112を縦方向(垂直方向)に移動させるべく、角度フラグを対応する値にセットする。また、判断の結果、CPU201は、移動距離mxが所定値xrより大きく、移動距離myが所定値yrより大きい場合は、人魚112を斜め方向に移動させるべく、角度フラグを対応する値にセットする。   As a result of the determination, if the moving distance mx is smaller than the predetermined value xr and the moving distance my is larger than the predetermined value yr, the CPU 201 corresponds to the angle flag to move the mermaid 112 in the vertical direction (vertical direction). Set to value. As a result of the determination, when the moving distance mx is larger than the predetermined value xr and the moving distance my is larger than the predetermined value yr, the CPU 201 sets the angle flag to a corresponding value in order to move the mermaid 112 in an oblique direction. .

さらに、CPU201は、人魚112の速度ベクトル(Vxm[M],Vym[M])の符号を判断して、x方向フラグ及びy方向フラグを対応する値にセットする。なお、x方向フラグ及びy方向フラグを包括して表現するときは、単に方向フラグと呼ぶ。   Further, the CPU 201 determines the sign of the velocity vector (Vxm [M], Vym [M]) of the mermaid 112 and sets the x direction flag and the y direction flag to corresponding values. Note that when the x direction flag and the y direction flag are comprehensively expressed, they are simply referred to as a direction flag.

そして、CPU201は、角度フラグ、x方向フラグ、及び、y方向フラグ、にセットされている値に従って、人魚112の移動方向情報を決定する。人魚112の移動方向情報は、人魚112の移動態様を表す情報である。この移動方向情報により、人魚112の向きが決定される。この点の詳細を説明する。   Then, the CPU 201 determines the moving direction information of the mermaid 112 according to the values set in the angle flag, the x direction flag, and the y direction flag. The movement direction information of the mermaid 112 is information representing a movement mode of the mermaid 112. Based on this movement direction information, the direction of the mermaid 112 is determined. Details of this point will be described.

図22(a)は、角度フラグの値と角度との関係図、図22(b)は、方向フラグの値と方向を表す符号との関係図、図22(c)は、角度フラグ及び方向フラグと、移動方向情報と、の関係図、である。上記のように、CPU201は、人魚112の移動距離mx及びmyと、所定値xr及びyrと、の間で大小を判断して、図22(a)に示すように、角度フラグをセットする。   22A is a relationship diagram between the value of the angle flag and the angle, FIG. 22B is a relationship diagram between the value of the direction flag and a code representing the direction, and FIG. 22C is an angle flag and a direction. It is a relationship diagram between a flag and movement direction information. As described above, the CPU 201 determines the size between the movement distances mx and my of the mermaid 112 and the predetermined values xr and yr, and sets the angle flag as shown in FIG.

また、上記のように、CPU201は、人魚112の速度ベクトル(Vxm[M],Vym[M])の符号を判断して、図22(b)に示すように、x方向フラグ及びy方向フラグをセットする。   Further, as described above, the CPU 201 determines the sign of the velocity vector (Vxm [M], Vym [M]) of the mermaid 112, and as shown in FIG. 22 (b), the x direction flag and the y direction flag. Set.

さらに、図22(c)に示すように、CPU201は、角度フラグ、x方向フラグ、及び、y方向フラグ、にセットされている値から、人魚112の移動方向情報を決定する。   Furthermore, as illustrated in FIG. 22C, the CPU 201 determines the moving direction information of the mermaid 112 from the values set in the angle flag, the x direction flag, and the y direction flag.

図23は、図22(c)の移動方向情報と、人魚112の移動方向と、の関係図である。図22及び図23に示すように、移動方向情報A0は、人魚112を、横方向に、かつ、x軸の正方向(右方向)に移動させることを意味する。移動方向情報A1は、人魚112を、横方向に、かつ、x軸の負方向(左方向)に移動させることを意味する。移動方向情報A2は、人魚112を、縦方向に、かつ、y軸の正方向(上方向)に移動させることを意味する。移動方向情報A3は、人魚112を、縦方向に、かつ、y軸の負方向(下方向)に移動させることを意味する。移動方向情報A4は、人魚112を、右上斜め方向に移動させることを意味する。移動方向情報A5は、人魚112を、右下斜め方向に移動させることを意味する。移動方向情報A6は、人魚112を、左上斜め方向に移動させることを意味する。移動方向情報A7は、人魚112を、左下斜め方向に移動させることを意味する。   FIG. 23 is a relationship diagram between the movement direction information of FIG. 22C and the movement direction of the mermaid 112. As shown in FIGS. 22 and 23, the moving direction information A0 means that the mermaid 112 is moved in the horizontal direction and in the positive direction (right direction) of the x-axis. The movement direction information A1 means that the mermaid 112 is moved in the horizontal direction and in the negative direction (left direction) of the x axis. The movement direction information A2 means that the mermaid 112 is moved in the vertical direction and in the positive direction (upward direction) of the y-axis. The movement direction information A3 means that the mermaid 112 is moved in the vertical direction and in the negative direction (downward) of the y axis. The movement direction information A4 means that the mermaid 112 is moved in the upper right diagonal direction. The movement direction information A5 means that the mermaid 112 is moved in the diagonally lower right direction. The movement direction information A6 means that the mermaid 112 is moved in the upper left diagonal direction. The movement direction information A7 means that the mermaid 112 is moved in the diagonally lower left direction.

CPU201は、上記のようにして取得した移動方向情報A0〜A7に関連付けられたアニメーションテーブル格納位置情報を登録する(人魚アニメーション登録)。アニメーションテーブル格納位置情報は、アニメーションテーブルの格納位置を示す情報である。また、この場合のアニメーションテーブルには、人魚112をアニメーションするための様々な情報が含まれている。   The CPU 201 registers animation table storage position information associated with the movement direction information A0 to A7 acquired as described above (mermaid animation registration). The animation table storage position information is information indicating the storage position of the animation table. The animation table in this case includes various information for animating the mermaid 112.

図24は、移動方向情報A0〜A7とアニメーションテーブル格納位置情報との関係図である。図24では、例えば、移動方向情報A0とアニメーションテーブル格納位置情報address0とが関連付けられている。ここで、アニメーションテーブル格納位置情報は、アニメーションテーブルが格納されている領域の先頭アドレス情報である。   FIG. 24 is a relationship diagram between the movement direction information A0 to A7 and the animation table storage position information. In FIG. 24, for example, the moving direction information A0 and the animation table storage position information address0 are associated with each other. Here, the animation table storage position information is the top address information of the area in which the animation table is stored.

図25は、図24のアニメーションテーブル格納位置情報により示される、人魚112をアニメーションするためのアニメーションテーブルの例示図である。図25に示すように、アニメーションテーブルは、アニメーション画像データの格納位置情報、アニメーションを行うオブジェクト(人魚112)の番号を時系列に配置したもの、持続フレーム数情報、次オブジェクト情報、オブジェクト(人魚112)のサイズ情報、カラーパレット情報、デプス値の情報、及び、スプライトサイズ情報、を関連付けたテーブルである。   FIG. 25 is an exemplary diagram of an animation table for animating the mermaid 112, which is indicated by the animation table storage position information of FIG. As shown in FIG. 25, the animation table includes the storage position information of animation image data, the number of objects (mermaid 112) to be animated arranged in time series, the number of continuous frames, the next object information, and the object (mermaid 112). ) Size information, color palette information, depth value information, and sprite size information.

アニメーション画像データは、複数のオブジェクト(人魚112)画像を時系列に配置したデータである。持続フレーム数情報は、何フレーム連続して各オブジェクト(人魚112)を表示するかを示す情報である。次オブジェクト情報は、持続フレーム数情報に従ってオブジェクト(人魚112)を表示した後に、何番のオブジェクト(人魚112)を表示するかを指示する情報である。例えば、次オブジェクト情報「next」は、番号「1」のオブジェクトを1フレーム(持続フレーム数)表示した後は、次の番号「2」のオブジェクトを表示することを意味する。また、例えば、次オブジェクト情報「top」は、番号「15」のオブジェクトを1フレーム(持続フレーム数)表示した後は、先頭の番号「1」のオブジェクトを表示することを意味する。   The animation image data is data in which a plurality of object (mermaid 112) images are arranged in time series. The information on the number of continuous frames is information indicating how many frames are continuously displayed for each object (mermaid 112). The next object information is information instructing what number object (mermaid 112) is displayed after the object (mermaid 112) is displayed according to the information on the number of continuous frames. For example, the next object information “next” means that the object of the next number “2” is displayed after the object of the number “1” is displayed for one frame (number of continuous frames). Further, for example, the next object information “top” means that after the object with the number “15” is displayed for one frame (number of continuous frames), the first object with the number “1” is displayed.

なお、アニメーション画像データは、画素パターンデータである。ここで、画素パターンデータ、及び、デプス値は、オブジェクト(人魚112)を構成するスプライトに関するものであり、その意味は、図15で説明したブロックに関するものと同様である。   The animation image data is pixel pattern data. Here, the pixel pattern data and the depth value are related to the sprite constituting the object (mermaid 112), and the meaning thereof is the same as that related to the block described in FIG.

ここで、図25のアニメーションテーブルは、人魚112のアニメーションを行うためのものである。従って、例えば、図24の移動方向情報A0は、人魚112を横方向かつ正方向に移動させることを示す情報であるため、移動方向情報A0に対応したアニメーションテーブル格納位置情報address0が示すアニメーションテーブルの格納位置情報ad0は、横方向かつ正方向に向いた人魚112のアニメーション画像データの格納位置を示す。   Here, the animation table of FIG. 25 is for performing animation of the mermaid 112. Therefore, for example, the moving direction information A0 in FIG. 24 is information indicating that the mermaid 112 is moved in the horizontal direction and the forward direction, and therefore the animation table storage position information address0 corresponding to the moving direction information A0 indicates the animation table. The storage position information ad0 indicates the storage position of the animation image data of the mermaid 112 facing in the horizontal direction and the positive direction.

以上のように、人魚112の移動方向情報A0〜A7に応じたアニメーションテーブル格納位置情報address0〜address7が登録され、しかも、人魚112の移動方向情報A0〜A7は、操作物150の注目点(カーソル111)の座標(Ax[M],Ay[M])に基づいているため(式(9)及び式(10)参照)、操作物150(カーソル111)の移動方向に向いた人魚112のアニメーションが実行される。   As described above, the animation table storage position information address0 to address7 corresponding to the movement direction information A0 to A7 of the mermaid 112 is registered, and the movement direction information A0 to A7 of the mermaid 112 is the attention point (cursor of the operation article 150) 111) based on the coordinates (Ax [M], Ay [M]) (see Expression (9) and Expression (10)), and thus the animation of the mermaid 112 facing the moving direction of the operation article 150 (cursor 111). Is executed.

さらに、CPU201は、人魚112が、障害オブジェクトPあるいは障害画像Qに衝突したか否かを判定して、衝突したときに、人魚112の動きを制限し、かつ、衝突フラグをオンにする。この点を詳細に説明する。   Furthermore, the CPU 201 determines whether or not the mermaid 112 has collided with the obstacle object P or the obstacle image Q. When the mermaid 112 collides, the CPU 201 restricts the movement of the mermaid 112 and turns on the collision flag. This point will be described in detail.

図26は、CPU201による衝突判定処理の説明図である。図26に示すように、人魚112、障害オブジェクトP、及び、障害画像Q、を矩形あるいは矩形の集合によりモデル化する。そして、CPU201は、人魚112と、表示されている全ての障害オブジェクトPおよび表示されている全ての障害画像Qと、の衝突を判定する。ここで、人魚112を構成する矩形を、「人魚矩形」と呼び、障害オブジェクトP、あるいは、障害画像Q、を構成する矩形を、「障害矩形」と呼ぶ。衝突判定について詳しく説明する。   FIG. 26 is an explanatory diagram of the collision determination process performed by the CPU 201. As shown in FIG. 26, the mermaid 112, the obstacle object P, and the obstacle image Q are modeled by a rectangle or a set of rectangles. Then, the CPU 201 determines the collision between the mermaid 112 and all the displayed obstacle objects P and all the displayed obstacle images Q. Here, a rectangle constituting the mermaid 112 is called a “mermaid rectangle”, and a rectangle constituting the obstacle object P or the obstacle image Q is called a “failure rectangle”. The collision determination will be described in detail.

CPU201は、人魚矩形の各々の各頂点座標、及び、障害矩形の各々の各頂点座標、を用いて、人魚矩形と障害矩形との重複を判断する。そして、CPU201は、いずれかの人魚矩形といずれかの障害矩形とが重複していれば、人魚112と、重複した障害矩形を持つ障害オブジェクトPと、が衝突し、あるいは、人魚112と、重複した障害矩形を持つ障害画像Qと、が衝突したと判断して、衝突フラグをオンにする。   The CPU 201 determines the overlap between the mermaid rectangle and the obstacle rectangle using each vertex coordinate of each mermaid rectangle and each vertex coordinate of each obstacle rectangle. If any mermaid rectangle and any obstacle rectangle overlap, the CPU 201 collides with the mermaid 112 and the obstacle object P having the overlapping obstacle rectangle, or overlaps with the mermaid 112. It is determined that the failure image Q having the failure rectangle has collided, and the collision flag is turned on.

図27は、CPU201による追従オブジェクト制御処理で判断される重複パターンの説明図である。図27(a)〜図27(n)に示すように、人魚矩形rcmと障害矩形rcoとの重複パターンは、14通りある。CPU201は、いずれかの重複パターンが存在すれば、人魚112と、重複した障害矩形rcoを持つ障害オブジェクトPと、が衝突し、あるいは、人魚112と、重複した障害矩形rcoを持つ障害画像Qと、が衝突したと判断する。   FIG. 27 is an explanatory diagram of overlapping patterns determined by the tracking object control process by the CPU 201. As shown in FIGS. 27A to 27N, there are 14 overlapping patterns of the mermaid rectangle rcm and the obstacle rectangle rco. If any overlapping pattern exists, the CPU 201 collides with the mermaid 112 and the obstacle object P having the overlapping obstacle rectangle rco, or the mermaid 112 and the obstacle image Q having the overlapping obstacle rectangle rco , Is determined to have collided.

以上のような処理を、人魚112と、表示されている全ての障害オブジェクトPおよび表示されている全ての障害画像Qと、の間で行う。   The processing as described above is performed between the mermaid 112 and all the displayed obstacle objects P and all the displayed obstacle images Q.

[体力ゲージ制御処理]CPU201は、体力ゲージ131を制御する。この点を図面を用いて説明する。   [Physical Strength Gauge Control Processing] The CPU 201 controls the physical strength gauge 131. This point will be described with reference to the drawings.

図28(a)は、図11〜図13の体力ゲージ131を構成する枠の例示図、図28(b)は、体力ゲージ131のバー103を構成する要素の例示図、である。図28(a)に示すように、体力ゲージ131の枠は、8×56画素の大きさであり、8×8画素のスプライトを7つ表示して構成する。   FIG. 28A is an exemplary view of a frame constituting the physical strength gauge 131 of FIGS. 11 to 13, and FIG. 28B is an exemplary view of elements constituting the bar 103 of the physical strength gauge 131. As shown in FIG. 28A, the frame of the physical strength gauge 131 has a size of 8 × 56 pixels, and is configured by displaying seven 8 × 8 pixel sprites.

図28(b)に示すように、バー103を表示するために、8×8画素からなるスプライトP0〜P7が8つ用意される。図28(b)において、例えば、破線部は赤色であり、それ以外は白色である。CPU201は、一定速度でバー103が短くなるように、スプライトP0〜P7の中から、単数あるいは複数のスプライトを選択して、体力ゲージ131の枠内に表示する。   As shown in FIG. 28B, in order to display the bar 103, eight sprites P0 to P7 each having 8 × 8 pixels are prepared. In FIG. 28B, for example, the broken line portion is red, and the others are white. The CPU 201 selects one or a plurality of sprites from the sprites P0 to P7 so as to shorten the bar 103 at a constant speed, and displays them within the frame of the physical strength gauge 131.

例えば、CPU201は、ゲーム開始時に、7個のスプライトP7を枠内に表示して、バー103を最長とする。そして、ゲーム開始から一定時間tが経過したら、一番右側のスプライトP7に代えて、スプライトP6を枠内に表示し、さらに一定時間t経過したら、スプライトP6に代えて、スプライトP5を枠内に表示し、…、というように、一定時間tの経過とともに、赤色のバー103を短くしていく。つまり、一定時間tが経過するたびに、バー103が1画素づつ短くなる。   For example, the CPU 201 displays seven sprites P7 in the frame at the start of the game, and sets the bar 103 as the longest. When a certain time t has elapsed from the start of the game, sprite P6 is displayed in the frame instead of the rightmost sprite P7, and when a certain time t has elapsed, sprite P5 is replaced in the frame instead of sprite P6. The red bar 103 is shortened as the fixed time t elapses. That is, every time the fixed time t elapses, the bar 103 is shortened by one pixel.

さらに、CPU201は、衝突フラグがオンになっている場合は、つまり、人魚112が、障害オブジェクトあるいは障害画像に衝突した場合は、赤色のバー103が所定長(例えば、4画素分)だけ短くなるように、スプライトP0〜P7を選択して表示する。CPU201は、例えば、体力ゲージ131において、6個のスプライトがスプライトP7であり、一番右側が、スプライトP0であるときに、衝突フラグがオンになっている場合は、そのスプライトP0を外し、かつ、そのスプライトP0の左隣のスプライトP7に代えて、スプライトP4を表示する。これにより、バー103が4画素分短くなる。   Further, when the collision flag is turned on, that is, when the mermaid 112 collides with the obstacle object or the obstacle image, the red bar 103 is shortened by a predetermined length (for example, 4 pixels). In this way, the sprites P0 to P7 are selected and displayed. For example, in the physical strength gauge 131, the CPU 201 removes the sprite P0 when the collision flag is on when the six sprites are sprites P7 and the rightmost side is the sprite P0. Instead of the sprite P7 on the left side of the sprite P0, the sprite P4 is displayed. As a result, the bar 103 is shortened by 4 pixels.

[画像表示処理]CPU201は、背景制御処理、自動オブジェクト制御処理、カーソル制御処理、追従オブジェクト制御処理、及び、体力ゲージ制御処理、により登録された情報をもとに、描画に必要な情報を垂直ブランキング期間に、図7のグラフィックプロセッサ202に与える。すると、グラフィックプロセッサ202は、与えられた情報をもとに映像信号を生成して、映像信号出力端子47に出力する。これにより、テレビジョンモニタ90のスクリーン91に、人魚112等を含むゲーム画面が表示される。より具体的には、次の通りである。   [Image Display Processing] The CPU 201 vertically outputs information necessary for drawing based on information registered by background control processing, automatic object control processing, cursor control processing, tracking object control processing, and physical strength gauge control processing. In the blanking period, it is given to the graphic processor 202 of FIG. Then, the graphic processor 202 generates a video signal based on the given information and outputs it to the video signal output terminal 47. Thereby, a game screen including the mermaid 112 is displayed on the screen 91 of the television monitor 90. More specifically, it is as follows.

CPU201は、障害オブジェクトPのアニメーションテーブルおよび自動オブジェクト制御処理で登録した座標情報をもとに、障害オブジェクトPを構成する各スプライトの表示座標を算出する。そして、CPU201は、障害オブジェクトPのアニメーションテーブルを参照して、障害オブジェクトPを構成する各スプライトの、表示座標情報、カラーパレット情報、デプス値、サイズ情報、及び、画素パターンデータ格納位置情報、をグラフィックプロセッサ202に与える。   The CPU 201 calculates display coordinates of each sprite constituting the obstacle object P based on the animation table of the obstacle object P and the coordinate information registered in the automatic object control process. Then, the CPU 201 refers to the animation table of the obstacle object P, and displays display coordinate information, color palette information, depth value, size information, and pixel pattern data storage position information of each sprite constituting the obstacle object P. The graphic processor 202 is given.

また、CPU201は、カーソル111のアニメーションテーブルおよびカーソル制御処理で登録した座標情報(操作物150の注目点の座標情報)をもとに、カーソル111を構成する各スプライトの表示座標を算出する。そして、CPU201は、カーソル111のアニメーションテーブルを参照して、カーソル111を構成する各スプライトの、表示座標情報、カラーパレット情報、デプス値、サイズ情報、及び、画素パターンデータ格納位置情報、をグラフィックプロセッサ202に与える。   Further, the CPU 201 calculates display coordinates of each sprite constituting the cursor 111 based on the animation table of the cursor 111 and the coordinate information registered in the cursor control process (the coordinate information of the attention point of the operation article 150). Then, the CPU 201 refers to the animation table of the cursor 111 to display the display coordinate information, color palette information, depth value, size information, and pixel pattern data storage position information of each sprite constituting the cursor 111 as a graphic processor. 202.

また、CPU201は、追従オブジェクト制御処理で登録したアニメーションテーブル格納位置情報にもとづいて、アニメーションテーブルを参照し、人魚112(オブジェクト)のサイズ情報、及び、人魚112を構成するスプライトのサイズ情報、を取得する。そして、CPU201は、これらの情報と、追従オブジェクト制御処理で算出した座標(xm[M],ym[M])と、をもとに、人魚112を構成する各スプライトの表示座標を算出する。また、CPU201は、これから表示する人魚112のオブジェクト番号、人魚112のサイズ情報、人魚112を構成するスプライトのサイズ情報、及び、アニメーション画像データの格納位置情報、をもとに、人魚112を構成する各スプライトの画素パターンデータ格納位置情報を算出する。   Further, the CPU 201 refers to the animation table based on the animation table storage position information registered in the tracking object control process, and acquires the size information of the mermaid 112 (object) and the size information of the sprites constituting the mermaid 112. To do. Then, the CPU 201 calculates the display coordinates of each sprite constituting the mermaid 112 based on the above information and the coordinates (xm [M], ym [M]) calculated in the tracking object control process. Further, the CPU 201 configures the mermaid 112 based on the object number of the mermaid 112 to be displayed, the size information of the mermaid 112, the size information of the sprite that configures the mermaid 112, and the storage position information of the animation image data. The pixel pattern data storage position information of each sprite is calculated.

そして、さらに、CPU201は、アニメーションテーブルを参照して、人魚112を構成する各スプライトの、カラーパレット情報、デプス値、及び、サイズ情報を、各スプライトの画素パターンデータ格納位置情報及び表示座標情報とともに、グラフィックプロセッサ202に与える。この場合、CPU201は、アニメーションテーブルの持続フレーム数情報および次オブジェクト情報に従って、上記の情報をグラフィックプロセッサ202に与える。   Further, the CPU 201 refers to the animation table, and displays the color palette information, depth value, and size information of each sprite constituting the mermaid 112 together with pixel pattern data storage position information and display coordinate information of each sprite. To the graphic processor 202. In this case, the CPU 201 gives the above information to the graphic processor 202 according to the information on the number of continuous frames in the animation table and the next object information.

また、CPU201は、体力ゲージ131の枠を構成する各スプライトの、カラーパレット情報、デプス値、サイズ情報、画素パターンデータ格納位置情報、及び、表示座標情報を、グラフィックプロセッサ202に与える。さらに、CPU201は、体力ゲージ制御処理で登録した、バー103を構成する各スプライトの、カラーパレット情報、デプス値、サイズ情報、画素パターンデータ格納位置情報、及び、表示座標情報を、グラフィックプロセッサ202に与える。   In addition, the CPU 201 provides the graphic processor 202 with color palette information, depth values, size information, pixel pattern data storage position information, and display coordinate information of each sprite constituting the frame of the physical strength gauge 131. Further, the CPU 201 stores the color palette information, depth value, size information, pixel pattern data storage position information, and display coordinate information of each sprite constituting the bar 103 registered in the physical strength gauge control process in the graphic processor 202. give.

また、CPU201は、背景制御処理で登録したバックグラウンドスクリーン140の中心位置の配置座標、並びに、背景制御処理で設定した配列PA[0]〜配列PA[1023]の先頭アドレスおよび配列CA[0]〜配列CA[1023]の先頭アドレスを、グラフィックプロセッサ202に与える。グラフィックプロセッサ202は、与えられた先頭アドレスをもとに、配列PA[0]〜配列PA[1023]の情報を読み出して、それをもとに、ブロック[0]〜ブロック[1023]の画素パターンデータ格納位置情報を読み出す。また、グラフィックプロセッサ202は、与えられた先頭アドレスをもとに、配列CA[0]〜配列CA[1023]の情報を読み出す。   In addition, the CPU 201 arranges the arrangement coordinates of the center position of the background screen 140 registered in the background control process, the start address of the array PA [0] to the array PA [1023] set in the background control process, and the array CA [0]. The start address of the array CA [1023] is given to the graphic processor 202. The graphic processor 202 reads the information of the array PA [0] to the array PA [1023] based on the given head address, and based on the information, the pixel pattern of the block [0] to the block [1023] Read data storage location information. In addition, the graphic processor 202 reads the information in the array CA [0] to the array CA [1023] based on the given head address.

グラフィックプロセッサ202は、CPU201から与えられた情報および読みさした情報をもとに、障害オブジェクトP、カーソル111、人魚112、体力ゲージ131、及び背景120を表す映像信号を生成して、映像信号出力端子47に出力する。   The graphic processor 202 generates a video signal representing the obstacle object P, the cursor 111, the mermaid 112, the physical strength gauge 131, and the background 120 based on the information given from the CPU 201 and the read information, and outputs the video signal. Output to terminal 47.

[楽音再生]楽音の再生は、割込み処理により行われる。CPU201は、楽譜データポインタをインクリメントしながら、楽譜データ305を読み出して解釈する。なお、楽譜データポインタは、楽譜データ305の読み出し位置を示すポインタである。   [Musical sound reproduction] Musical music is reproduced by interrupt processing. The CPU 201 reads and interprets the score data 305 while incrementing the score data pointer. Note that the musical score data pointer is a pointer indicating the reading position of the musical score data 305.

そして、CPU201は、読み出した楽譜データ305に含まれるコマンドが、ノートオンであれば、その楽譜データ305に含まれるノートナンバが示す音の高さ(ピッチ)及び楽器指定情報が示す楽器(音色)に応じた波形データ(音源データ)306が格納されている先頭アドレスを、サウンドプロセッサ203に与える。さらに、CPU201は、読み出した楽譜データ305に含まれるコマンドが、ノートオンであれば、必要なエンベロープデータが格納されている先頭アドレスを、サウンドプロセッサ203に与える。さらに、CPU201は、読み出した楽譜データ305に含まれるコマンドが、ノートオンであれば、その楽譜データ305に含まれるノートナンバが示す音の高さ(ピッチ)に応じたピッチ制御情報、及び、その楽譜データ305に含まれるボリューム情報、をサウンドプロセッサ203に与える。   If the command included in the read score data 305 is note-on, the CPU 201 indicates the pitch (pitch) indicated by the note number included in the score data 305 and the instrument (timbre) indicated by the instrument designation information. Is given to the sound processor 203 the head address where the waveform data (sound source data) 306 is stored. Further, if the command included in the read musical score data 305 is note-on, the CPU 201 gives the sound processor 203 a head address where necessary envelope data is stored. Further, if the command included in the read score data 305 is note-on, the CPU 201 indicates pitch control information corresponding to the pitch (pitch) indicated by the note number included in the score data 305, and Volume information included in the musical score data 305 is given to the sound processor 203.

ここで、ピッチ制御情報について説明しておく。ピッチ制御情報は、波形データ(音源データ)306を読み出す周期を変えることによって行われるピッチ変換に用いられる。つまり、サウンドプロセッサ203は、ピッチ制御情報を一定期間毎に読み出して累算する。そして、サウンドプロセッサ203は、この累算結果を加工して、波形データ(音源データ)306のアドレスポインタとする。よって、ピッチ制御情報に大きな値が設定されれば、アドレスポインタのインクリメントは早く行われ、波形データ(音源データ)306の周波数が高くなり、ピッチ制御情報に小さな値が設定されれば、アドレスポインタのインクリメントは遅く行われ、波形データ(音源データ)306の周波数が低くなる。このようにして、サウンドプロセッサ203は、波形データ(音源データ)306のピッチ変換を行う。   Here, the pitch control information will be described. The pitch control information is used for pitch conversion performed by changing the cycle for reading the waveform data (sound source data) 306. That is, the sound processor 203 reads and accumulates pitch control information at regular intervals. Then, the sound processor 203 processes this accumulation result to obtain an address pointer for the waveform data (sound source data) 306. Therefore, if the pitch control information is set to a large value, the address pointer is incremented quickly, the frequency of the waveform data (sound source data) 306 is increased, and if the pitch control information is set to a small value, the address pointer is incremented. Is incremented slowly, and the frequency of the waveform data (sound source data) 306 is lowered. In this way, the sound processor 203 performs pitch conversion of the waveform data (sound source data) 306.

サウンドプロセッサ203は、与えられたピッチ制御情報に基づいて、アドレスポインタをインクリメントしながら、与えられた先頭アドレスが示す位置に格納されている波形データ(音源データ)306をROM51から読み出す。そして、サウンドプロセッサ203は、順次読み出される波形データ(音源データ)306に、エンベロープデータ及びボリューム情報を乗算して、音声信号を生成する。このようにして、楽譜データ305が指示する楽器の音色、音の高さ(ピッチ)、及び、音量、の音声信号が生成され、音声信号出力端子49に出力される。   The sound processor 203 reads the waveform data (sound source data) 306 stored at the position indicated by the given head address from the ROM 51 while incrementing the address pointer based on the given pitch control information. The sound processor 203 multiplies the waveform data (sound source data) 306 sequentially read out by the envelope data and the volume information to generate an audio signal. In this way, an audio signal of the tone color, pitch (pitch), and volume of the musical instrument indicated by the score data 305 is generated and output to the audio signal output terminal 49.

一方、CPU201は、読み出した楽譜データ305に含まれるゲートタイムを管理している。従って、CPU201は、ゲートタイムが経過した時に、該当する楽音の発音を終了するように、サウンドプロセッサ203に指示を出す。これを受けて、サウンドプロセッサ203は、指示された楽音の発音を終了する。   On the other hand, the CPU 201 manages the gate time included in the read score data 305. Accordingly, the CPU 201 instructs the sound processor 203 to end the sound generation of the corresponding musical sound when the gate time has elapsed. In response to this, the sound processor 203 ends the sound generation of the instructed musical sound.

以上のようにして、楽譜データ305に基づいて楽曲が再生され、テレビジョンモニタ90のスピーカ(図示せず)から発音される。   As described above, music is reproduced based on the musical score data 305 and is generated from a speaker (not shown) of the television monitor 90.

次に、図1のゲーム装置1の全体の処理の流れの1例を、フローチャートを用いて説明する。   Next, an example of the overall processing flow of the game apparatus 1 of FIG. 1 will be described using a flowchart.

図29は、図1のゲーム装置1の全体の処理の流れの1例を示すフローチャートである。図29に示すように、ステップS1にて、CPU201は、システムの初期設定を実行する。   FIG. 29 is a flowchart showing an example of the overall processing flow of the game apparatus 1 of FIG. As shown in FIG. 29, in step S1, the CPU 201 executes initial setting of the system.

ステップS2にて、CPU201は、人魚112の体力を確認して、体力が「0」(体力ゲージ131のバー103の長さが「0」)ならば、所定の失敗画面を表示して、ゲームを終了し、体力が残っているならば、ステップS3に進む。ステップS3にて、CPU201は、人魚112がゴールに到着したか否かを判断して、到着したならば、所定の成功画面を表示して、ゲームを終了し、到着していない場合は、ステップS4へ進む。   In step S2, the CPU 201 confirms the physical strength of the mermaid 112. If the physical strength is “0” (the length of the bar 103 of the physical strength gauge 131 is “0”), a predetermined failure screen is displayed and the game is displayed. If the physical strength remains, the process proceeds to step S3. In step S3, the CPU 201 determines whether or not the mermaid 112 has arrived at the goal. If the mermaid 112 has arrived, the CPU 201 displays a predetermined success screen, ends the game, and if it has not arrived, Proceed to S4.

ステップS4にて、CPU201は、操作物150の状態情報を算出する。ステップS5にて、CPU201は、背景120の表示を制御する。ステップS6にて、CPU201は、障害オブジェクトPの表示を制御する。ステップS7にて、CPU201は、操作物150の状態情報に基づいて、カーソル111の表示を制御する。   In step S4, the CPU 201 calculates state information of the operation article 150. In step S5, the CPU 201 controls display of the background 120. In step S6, the CPU 201 controls display of the failure object P. In step S <b> 7, the CPU 201 controls the display of the cursor 111 based on the state information of the operation article 150.

ステップS8にて、CPU201は、カーソル111の座標情報に基づいて、人魚112の表示を制御する(式(3)〜式(12)参照)。ステップS9にて、CPU201は、体力ゲージ131の表示を制御する。   In step S <b> 8, the CPU 201 controls the display of the mermaid 112 based on the coordinate information of the cursor 111 (see formula (3) to formula (12)). In step S <b> 9, the CPU 201 controls the display of the physical strength gauge 131.

ステップS10にて、CPU201は、「M」が所定値「K」より小さいかどうかを判断する。CPU201は、「M」が所定値「K」以上である場合、ステップS11に進み、「M」に「0」を代入して、ステップS12に進む。一方、CPU201は、「M」が所定値「K」より小さい場合、ステップS10からステップS12に進む。この「M」については、後述の説明の中で明らかになる。   In step S <b> 10, the CPU 201 determines whether “M” is smaller than a predetermined value “K”. If “M” is greater than or equal to the predetermined value “K”, the CPU 201 proceeds to step S11, substitutes “0” for “M”, and proceeds to step S12. On the other hand, when “M” is smaller than the predetermined value “K”, the CPU 201 proceeds from step S10 to step S12. This “M” will become clear in the following description.

ステップS12では、CPU201は、ビデオ同期の割込み待ちかどうかを判断する。CPU201は、テレビジョンモニタ90の表示画面を更新するための画像情報を、垂直ブランキング期間の開始後にグラフィックプロセッサ202に与える。従って、表示画面を更新するための演算処理が完了したら、ビデオ同期割込みがあるまで処理を進めないようにしている。ステップS12で「YES」であれば、即ち、ビデオ同期の割込み待ちであれば(ビデオ同期信号による割り込みがなければ)、同じステップS12に戻る。一方、ステップS12で「NO」であれば、即ち、ビデオ同期の割込み待ちでなければ(ビデオ同期信号による割り込みがあれば)、ステップS13に進む。   In step S12, the CPU 201 determines whether to wait for a video synchronization interrupt. The CPU 201 gives image information for updating the display screen of the television monitor 90 to the graphic processor 202 after the start of the vertical blanking period. Therefore, when the calculation process for updating the display screen is completed, the process is not allowed to proceed until there is a video synchronization interrupt. If “YES” in the step S12, that is, if the video synchronization interruption is awaited (no interruption by the video synchronization signal), the process returns to the same step S12. On the other hand, if “NO” in the step S12, that is, if not waiting for a video synchronization interrupt (if there is an interrupt due to a video synchronization signal), the process proceeds to a step S13.

ステップS13にて、CPU201は、ステップS5〜ステップS9の結果に基づいて、ゲーム画面(図11〜図13参照)の生成に必要な画像情報を、グラフィックプロセッサ202に与える(画像表示処理)。そして、処理は、ステップS2に進む。   In step S13, the CPU 201 gives image information necessary for generating a game screen (see FIGS. 11 to 13) to the graphic processor 202 based on the results of steps S5 to S9 (image display processing). Then, the process proceeds to step S2.

図30は、図29のステップS1の初期設定処理の流れの1例を示すフローチャートである。図30に示すように、ステップS20にて、CPU201は、イメージセンサ43の初期設定処理を実行する。ステップS21にて、CPU201は、各種フラグ及び各種カウンタを初期化する。ステップS22にて、CPU201は、タイマ回路210を発音のための割込み源としてセットする。なお、割込み処理により、サウンドプロセッサ203による処理が実行されて、テレビジョンモニタ90のスピーカから楽曲が出力される。   FIG. 30 is a flowchart showing an example of the flow of the initial setting process in step S1 of FIG. As shown in FIG. 30, in step S <b> 20, the CPU 201 executes an initial setting process for the image sensor 43. In step S21, the CPU 201 initializes various flags and various counters. In step S22, the CPU 201 sets the timer circuit 210 as an interrupt source for sound generation. Note that the processing by the sound processor 203 is executed by the interrupt processing, and the music is output from the speaker of the television monitor 90.

図31は、図30のステップS20のセンサ初期設定処理の流れの1例を示すフローチャートである。図31に示すように、最初のステップS30では、高速プロセッサ200は、設定データとして、コマンド“CONF”を設定する。ただし、このコマンド“CONF”は、イメージセンサ43に、高速プロセッサ200からコマンドを送信する設定モードに入ることを知らせるためのコマンドである。そして、次のステップS31にて、コマンド送信処理を実行する。   FIG. 31 is a flowchart showing an example of the sensor initial setting process in step S20 of FIG. As shown in FIG. 31, in the first step S30, the high speed processor 200 sets a command “CONF” as setting data. However, the command “CONF” is a command for notifying the image sensor 43 that the setting mode for transmitting the command from the high speed processor 200 is entered. Then, in the next step S31, command transmission processing is executed.

図32は、図31のステップS31のコマンド送信処理の流れの1例を示すフローチャートである。図32に示すように、最初のステップS40では、高速プロセッサ200は、設定データ(ステップS31の場合はコマンド“CONF”)をレジスタデータ(I/Oポート)に設定し、次のステップS41でレジスタ設定クロックCLK(I/Oポート)をローレベルに設定する。その後、ステップS42で規定時間待機した後、ステップS43で、レジスタ設定クロックCLKをハイレベルに設定する。そして、さらにステップS44での規定時間の待機の後、ステップS45でレジスタ設定クロックCLKを再びローレベルに設定する。   FIG. 32 is a flowchart showing an example of the command transmission process in step S31 of FIG. As shown in FIG. 32, in the first step S40, the high speed processor 200 sets the setting data (command “CONF” in the case of step S31) to the register data (I / O port), and in the next step S41, the register Set clock CLK (I / O port) is set to low level. Thereafter, after waiting for a specified time in step S42, the register setting clock CLK is set to a high level in step S43. Further, after waiting for the specified time in step S44, the register setting clock CLK is set to the low level again in step S45.

このようにして、図33に示すように、規定時間の待機を行いながら、レジスタ設定クロックCLKをローレベル,ハイレベルそしてローレベルとすることによって、コマンド(コマンドまたはコマンド+データ)の送信処理が行われる。   In this way, as shown in FIG. 33, the command (command or command + data) transmission process is performed by setting the register setting clock CLK to the low level, the high level, and the low level while waiting for the specified time. Done.

図31の説明に戻る。ステップS32では、ピクセルモードを設定するとともに、露光時間の設定を行う。この実施の形態の場合、イメージセンサ43は先に述べたようにたとえば32ピクセル×32ピクセルのCMOSイメージセンサであるため、設定アドレス“0”のピクセルモードレジスタに32ピクセル×32ピクセルであることを示す“0h”を設定する。次のステップS33において、高速プロセッサ200は、レジスタ設定処理を実行する。   Returning to the description of FIG. In step S32, the pixel mode is set and the exposure time is set. In this embodiment, since the image sensor 43 is, for example, a 32 pixel × 32 pixel CMOS image sensor as described above, the pixel mode register of the setting address “0” has 32 pixels × 32 pixels. “0h” is set. In the next step S33, the high speed processor 200 executes a register setting process.

図34は、図31のステップS33のレジスタ設定処理の流れの1例を示すフローチャートである。図34に示すように、最初のステップS50では、高速プロセッサ200は、設定データとして、コマンド“MOV”+アドレスを設定し、次のステップS51で、図32で先に説明したコマンド送信処理を実行して、それを送信する。次にステップS52において、高速プロセッサ200は、設定データとして、コマンド“LD”+データを設定し、次のステップS53でコマンド送信処理を実行して、それを送信する。そして、ステップS54で、高速プロセッサ200は、設定データとして、コマンド“SET”を設定し、次のステップS55でそれを送信する。なお、コマンド“MOV”は制御レジスタのアドレスを送信することを示すコマンドで、コマンド“LD”はデータを送信することを示すコマンドで、コマンド“SET”はデータをそのアドレスに実際に設定させるためのコマンドである。なお、この処理は、設定する制御レジスタが複数ある場合には、繰り返し実行される。   FIG. 34 is a flowchart showing an example of the register setting process in step S33 of FIG. As shown in FIG. 34, in the first step S50, the high speed processor 200 sets the command “MOV” + address as the setting data, and in the next step S51, executes the command transmission process described earlier in FIG. And send it. Next, in step S52, the high speed processor 200 sets the command “LD” + data as setting data, executes command transmission processing in the next step S53, and transmits it. In step S54, the high speed processor 200 sets the command “SET” as setting data, and transmits it in the next step S55. Note that the command “MOV” is a command indicating that the address of the control register is transmitted, the command “LD” is a command indicating that the data is transmitted, and the command “SET” is for actually setting the data to the address. Command. This process is repeatedly executed when there are a plurality of control registers to be set.

図31の説明に戻る。ステップS34では、設定アドレスを“1”(露光時間設定レジスタのローニブルのアドレスを示す)とし、最大露光時間を示す“FFh”のローニブルデータ“Fh”を設定すべきデータとして設定する。そして、ステップS35で図34のレジスタ設定処理を実行する。同様にして、ステップS36において、設定アドレスを“2”(露光時間設定レジスタのハイニブルのアドレスを示す)とし、最大露光時間を示す“FFh”のハイニブルデータ“Fh”を設定すべきデータとして設定し、ステップS37でレジスタ設定処理を実行する。   Returning to the description of FIG. In step S34, the setting address is set to “1” (indicating the address of the exposure time setting register), and the data “Fh” of “FFh” indicating the maximum exposure time is set as data to be set. In step S35, the register setting process of FIG. 34 is executed. Similarly, in step S36, the setting address is set to “2” (indicating the high nibble address of the exposure time setting register), and the high nibble data “Fh” of “FFh” indicating the maximum exposure time is set as data to be set. In step S37, register setting processing is executed.

その後、ステップS38で設定終了を示しかつイメージセンサ43にデータの出力を開始させるためのコマンド“RUN”を設定し、ステップS39で送信する。このようにして、図30に示すステップS20でのセンサ初期設定処理が実行される。ただし、図31〜図34に示す具体例は、使用されるイメージセンサ43の仕様に応じて、適宜変更され得るものである。   Thereafter, a command “RUN” is set in step S38 to indicate the end of setting and to cause the image sensor 43 to start outputting data, and is transmitted in step S39. In this way, the sensor initial setting process in step S20 shown in FIG. 30 is executed. However, the specific examples shown in FIGS. 31 to 34 can be appropriately changed according to the specifications of the image sensor 43 used.

図35は、図29のステップS4の状態情報算出処理の流れの1例を示すフローチャートである。図35に示すように、ステップS60にて、CPU201は、ADC208からデジタルのピクセルデータを取得する。このデジタルのピクセルデータは、イメージセンサ43からのアナログのピクセルデータが、ADC208により、デジタルに変換されたものである。   FIG. 35 is a flowchart showing an example of the flow of state information calculation processing in step S4 of FIG. As shown in FIG. 35, in step S60, the CPU 201 acquires digital pixel data from the ADC 208. The digital pixel data is obtained by converting analog pixel data from the image sensor 43 to digital by the ADC 208.

ステップS61にて、注目点抽出処理が実行される。具体的には、CPU201が、赤外発光ダイオード15の発光時のピクセルデータと消灯時のピクセルデータとの差分を算出して、差分データを得る。そして、CPU201が、その差分データの最大値を検出して、所定の閾値Thと比較する。さらに、CPU201は、差分データの最大値が所定の閾値Thを超えている場合は、その最大値の差分データを持つピクセルの座標を算出する。そして、さらに、CPU201は、以上のようにして算出した座標の移動平均を求め、これをテレビジョンモニタ90のスクリーン91上の座標に変換し、操作物150の注目点の座標(Ax[M],Ay[M])とする。   In step S61, attention point extraction processing is executed. Specifically, the CPU 201 calculates a difference between pixel data when the infrared light emitting diode 15 emits light and pixel data when the infrared light emitting diode 15 is turned off, and obtains difference data. Then, the CPU 201 detects the maximum value of the difference data and compares it with a predetermined threshold Th. Furthermore, when the maximum value of the difference data exceeds a predetermined threshold Th, the CPU 201 calculates the coordinates of the pixel having the maximum difference data. Further, the CPU 201 obtains a moving average of the coordinates calculated as described above, converts this to coordinates on the screen 91 of the television monitor 90, and coordinates of the attention point (Ax [M]) of the operation article 150. , Ay [M]).

図36は、図35のステップS60のピクセルデータ群取得処理の流れの1例を示すフローチャートである。図36に示すように、最初のステップS70で、CPU201は、ピクセルデータ配列の要素番号としてXに「−1」、Yに「0」を設定する。本実施の形態におけるピクセルデータ配列は、X=0〜31、Y=0〜31の2次元配列であるが、前述のように各行の先頭ピクセルのデータとしてダミーデータが出力されるので、Xの初期値として「−1」が設定される。続くステップS71では、ピクセルデータの取得処理を実行する。   FIG. 36 is a flowchart showing an example of the pixel data group acquisition process in step S60 of FIG. As shown in FIG. 36, in the first step S70, the CPU 201 sets “−1” for X and “0” for Y as the element number of the pixel data array. The pixel data array in the present embodiment is a two-dimensional array with X = 0 to 31 and Y = 0 to 31, but dummy data is output as data of the first pixel in each row as described above. “−1” is set as an initial value. In a succeeding step S71, pixel data acquisition processing is executed.

図37は、図36のステップS71のピクセルデータ取得処理の流れの1例を示すフローチャートである。図37に示すように、最初のステップS80で、CPU201は、イメージセンサ43からのフレームステータスフラグ信号FSFをチェックし、ステップS81でそのアップエッジ(ローレベルからハイレベルへの)が発生したかどうか判断する。そして、ステップS81でフラグ信号FSFのアップエッジを検出すると、次のステップS82において、CPU201は、ADC208に入力されてきたアナログのピクセルデータのデジタルデータへの変換の開始を指示する。その後、ステップS83でイメージセンサ43からのピクセルストローブPDSをチェックし、ステップS84でそのストローブ信号PDSのローレベルからハイレベルへのアップエッジが発生したかどうか判断する。   FIG. 37 is a flowchart showing an example of the pixel data acquisition process in step S71 of FIG. As shown in FIG. 37, in the first step S80, the CPU 201 checks the frame status flag signal FSF from the image sensor 43, and whether or not the up edge (from low level to high level) has occurred in step S81. to decide. When the up edge of the flag signal FSF is detected in step S81, in the next step S82, the CPU 201 instructs the start of conversion of the analog pixel data input to the ADC 208 into digital data. Thereafter, the pixel strobe PDS from the image sensor 43 is checked in step S83, and it is determined in step S84 whether or not an up edge from the low level to the high level of the strobe signal PDS has occurred.

ステップS84で“YES”が判断されると、CPU201は、ステップS85において、X=−1かどうか、すなわち先頭ピクセルかどうか判断する。先に述べたように、各行の先頭ピクセルはダミーピクセルとして設定されているので、このステップS85で“YES”が判断されると、次のステップS87でそのときのピクセルデータを取得しないで、要素番号Xをインクリメントする。   If “YES” is determined in the step S84, the CPU 201 determines whether or not X = −1, that is, whether or not it is the first pixel in a step S85. As described above, since the first pixel of each row is set as a dummy pixel, if “YES” is determined in this step S85, the pixel data at that time is not acquired in the next step S87, and the element The number X is incremented.

ステップS85で“NO”が判断されると、行の第2番目以降のピクセルデータであるので、ステップS86およびS88において、そのときのピクセルデータを取得し、テンポラリレジスタ(図示せず)にそのピクセルデータを格納する。その後、図36のステップS72に進む。   If “NO” is determined in step S85, the pixel data is the second and subsequent pixel data in the row. Therefore, in step S86 and S88, the pixel data at that time is obtained and the pixel data is stored in a temporary register (not shown). Store the data. Thereafter, the process proceeds to step S72 in FIG.

図36のステップS72では、テンポラリレジスタに格納されたピクセルデータをピクセルデータ配列P[Y][X]に代入する。   In step S72 of FIG. 36, the pixel data stored in the temporary register is substituted into the pixel data array P [Y] [X].

続くステップS73でXをインクリメントする。Xが32に満たない場合、前述のS71からS73の処理を繰り返し実行する。Xが32の場合、すなわちピクセルデータの取得が行の終端に到達した場合には、続くステップS75でXに「−1」を設定し、ステップS76でYをインクリメントし、次の行の先頭からピクセルデータの取得処理を繰り返す。   In the following step S73, X is incremented. When X is less than 32, the processes from S71 to S73 are repeated. When X is 32, that is, when the acquisition of pixel data has reached the end of the row, “−1” is set to X in the following step S75, Y is incremented in step S76, and the beginning of the next row is started. Repeat the pixel data acquisition process.

ステップS77でYが32の場合、すなわちピクセルデータの取得がピクセルデータ配列P[Y][X]の終端に到達した場合、図35のステップS61に進む。   If Y is 32 in step S77, that is, if the acquisition of pixel data has reached the end of the pixel data array P [Y] [X], the process proceeds to step S61 in FIG.

図38は、図35のステップS61の注目点抽出処理の流れの1例を示すフローチャートである。図38に示すように、ステップS90にて、CPU201は、イメージセンサ43からの、赤外発光ダイオード15の点灯時のピクセルデータと、赤外発光ダイオード15の消灯時のピクセルデータと、の差分を算出して、差分データを得る。ステップS91にて、CPU201は、配列Dif[X][Y]に、算出した差分データを代入する。ここで、実施の形態では、32ピクセル×32ピクセルのイメージセンサ43を用いているため、X=0〜31、Y=0〜31、である。   FIG. 38 is a flowchart showing an example of the flow of attention point extraction processing in step S61 of FIG. As shown in FIG. 38, in step S90, the CPU 201 calculates the difference between the pixel data when the infrared light emitting diode 15 is turned on and the pixel data when the infrared light emitting diode 15 is turned off from the image sensor 43. Calculate to obtain difference data. In step S91, the CPU 201 assigns the calculated difference data to the array Dif [X] [Y]. Here, in the embodiment, since the image sensor 43 of 32 pixels × 32 pixels is used, X = 0 to 31 and Y = 0 to 31.

ステップS92にて、CPU201は、配列Dif[X][Y]の全要素をスキャンして、その最大値を検出する。CPU201は、最大値が所定の閾値Thより大きい場合は、ステップS94に進み、所定の閾値Th以下の場合は、図29のステップS10に進む(ステップS93)。   In step S92, the CPU 201 scans all elements of the array Dif [X] [Y] and detects the maximum value. If the maximum value is greater than the predetermined threshold Th, the CPU 201 proceeds to step S94, and if not greater than the predetermined threshold Th, the CPU 201 proceeds to step S10 in FIG. 29 (step S93).

ステップS94にて、CPU201は、その最大値の座標を基に、操作物150の注目点の座標(Xc,Yc)を算出する。ステップS95にて、CPU201は、回数Mの値を1つインクリメントする(M=M+1)。   In step S94, the CPU 201 calculates the coordinates (Xc, Yc) of the attention point of the operation article 150 based on the coordinates of the maximum value. In step S95, the CPU 201 increments the value of the number of times M by one (M = M + 1).

ステップS96にて、CPU201は、座標Xc及びYcをそれぞれ、配列PX[M]及びPY[M]に代入する。ステップS97にて、CPU201は、操作物150の注目点(Xc,Yc)の移動平均(AX[M],AY[M])を算出する。ステップS98にて、CPU201は、イメージセンサ43上の注目点の平均座標(AX[M],AY[M])を、テレビジョンモニタ90のスクリーン91上の座標(xc,yc)に変換する。   In step S96, the CPU 201 assigns the coordinates Xc and Yc to the arrays PX [M] and PY [M], respectively. In step S97, the CPU 201 calculates a moving average (AX [M], AY [M]) of the attention point (Xc, Yc) of the operation article 150. In step S98, the CPU 201 converts the average coordinates (AX [M], AY [M]) of the target point on the image sensor 43 into coordinates (xc, yc) on the screen 91 of the television monitor 90.

図39は、図38のステップS94の注目点座標算出処理の流れの1例を示すフローチャートである。図39に示すように、ステップS100にて、CPU201は、「m」及び「n」にそれぞれ、ステップS92で求めた最大値のX座標及びY座標を代入する。ステップS101にて、CPU201は、「m」を1つインクリメントする(m=m+1)。CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS103に進み、そうでない場合は、ステップS104に進む(ステップS102)。ステップS103にて、CPU201は、「mr」にそのときの「m」を代入する。このように、ステップS101〜S103を繰り返しながら、最大値からX軸の正方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのX座標を求める。   FIG. 39 is a flowchart showing an example of the flow of attention point coordinate calculation processing in step S94 of FIG. As shown in FIG. 39, in step S100, the CPU 201 substitutes the maximum X and Y coordinates obtained in step S92 for “m” and “n”, respectively. In step S101, the CPU 201 increments “m” by one (m = m + 1). If the difference data Dif [m] [n] is greater than the predetermined threshold Th, the CPU 201 proceeds to step S103, otherwise proceeds to step S104 (step S102). In step S103, the CPU 201 assigns “m” at that time to “mr”. In this way, while repeating steps S101 to S103, scanning is performed in the positive direction of the X axis from the maximum value, and the X coordinate of the extreme difference data whose value exceeds the predetermined threshold Th is obtained.

ステップS104にて、CPU201は、「m」に、ステップS92で求めた最大値のX座標を代入する。ステップS105にて、CPU201は、「m」を1つデクリメントする。CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS107に進み、そうでない場合は、ステップS108に進む(ステップS106)。ステップS107にて、CPU201は、「ml」にそのときの「m」を代入する。このように、ステップS105〜S107を繰り返しながら、最大値からX軸の負方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのX座標を求める。   In step S104, the CPU 201 assigns the maximum value X coordinate obtained in step S92 to “m”. In step S105, the CPU 201 decrements “m” by one. If the difference data Dif [m] [n] is greater than the predetermined threshold Th, the CPU 201 proceeds to step S107, otherwise proceeds to step S108 (step S106). In step S107, the CPU 201 assigns “m” at that time to “ml”. In this way, while repeating steps S105 to S107, scanning is performed in the negative direction of the X axis from the maximum value, and the X coordinate of the extreme difference data whose value exceeds the predetermined threshold Th is obtained.

ステップS108にて、CPU201は、X座標mrとX座標mlとの中心座標を算出して、それを、注目点のX座標(Xc)とする。ステップS109にて、CPU201は、「m」及び「n」にそれぞれ、ステップS108で求めた「Xc」およびステップS92で求めた最大値のY座標を代入する。ステップS110にて、CPU201は、「n」を1つインクリメントする(n=n+1)。CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS112に進み、そうでない場合は、ステップS113に進む(ステップS111)。ステップS112にて、CPU201は、「nd」にそのときの「n」を代入する。このように、ステップS110〜S112を繰り返しながら、最大値からY軸の正方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのY座標を求める。   In step S108, the CPU 201 calculates the center coordinate between the X coordinate mr and the X coordinate ml and sets it as the X coordinate (Xc) of the target point. In step S109, the CPU 201 assigns “Xc” obtained in step S108 and the maximum Y coordinate obtained in step S92 to “m” and “n”, respectively. In step S110, the CPU 201 increments “n” by one (n = n + 1). If the difference data Dif [m] [n] is greater than the predetermined threshold Th, the CPU 201 proceeds to step S112, otherwise proceeds to step S113 (step S111). In step S112, the CPU 201 assigns “n” at that time to “nd”. In this way, while repeating steps S110 to S112, scanning is performed in the positive direction of the Y axis from the maximum value, and the Y coordinate of the extreme difference data whose value exceeds the predetermined threshold Th is obtained.

ステップS113にて、CPU201は、「n」に、ステップS92で求めた最大値のY座標を代入する。ステップS114にて、CPU201は、「n」を1つデクリメントする。CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS116に進み、そうでない場合は、ステップS117に進む(ステップS115)。ステップS116にて、CPU201は、「nu」にそのときの「n」を代入する。このように、ステップS114〜S116を繰り返しながら、最大値からY軸の負方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのY座標を求める。   In step S113, the CPU 201 assigns the maximum Y coordinate obtained in step S92 to “n”. In step S114, the CPU 201 decrements “n” by one. If the difference data Dif [m] [n] is larger than the predetermined threshold Th, the CPU 201 proceeds to step S116, otherwise proceeds to step S117 (step S115). In step S116, the CPU 201 assigns “n” at that time to “nu”. In this way, while repeating steps S114 to S116, scanning is performed from the maximum value in the negative direction of the Y axis, and the Y coordinate of the extreme difference data whose value exceeds the predetermined threshold Th is obtained.

ステップS117にて、CPU201は、Y座標ndとY座標nuとの中心座標を算出して、それを、注目点のY座標(Yc)とする。以上のようにして、操作物150の注目点の座標(Xc,Yc)が算出される。   In step S117, the CPU 201 calculates the center coordinate between the Y coordinate nd and the Y coordinate nu and sets it as the Y coordinate (Yc) of the target point. As described above, the coordinates (Xc, Yc) of the attention point of the operation article 150 are calculated.

図40は、図29のステップS8の追従オブジェクト制御処理の流れの1例を示すフローチャートである。図40に示すように、ステップS140にて、CPU201は、式(3)及び式(4)により、人魚112の表示座標(xm[M],ym[M])を算出して登録する。   FIG. 40 is a flowchart showing an example of the flow of the tracking object control process in step S8 of FIG. As shown in FIG. 40, in step S140, the CPU 201 calculates and registers the display coordinates (xm [M], ym [M]) of the mermaid 112 using the equations (3) and (4).

ステップS141にて、CPU201は、衝突フラグを参照して、現在表示中のフレームにおいて、人魚112が、障害画像Qあるいは障害オブジェクトPに衝突したか否かを確認する。その結果、CPU201は、衝突フラグがオンの場合は、ステップS151に進み、オフの場合は、ステップS142に進む(ステップS141)。   In step S141, the CPU 201 refers to the collision flag to check whether the mermaid 112 has collided with the obstacle image Q or the obstacle object P in the currently displayed frame. As a result, the CPU 201 proceeds to step S151 when the collision flag is on, and proceeds to step S142 when it is off (step S141).

ステップS142にて、CPU201は、人魚112のx方向の移動距離mxと所定値xrとを比較する。また、CPU201は、人魚112のy方向の移動距離myと所定値yrとを比較する。ステップS143にて、CPU201は、ステップS142の比較結果に基づいて、角度フラグをセットする(図22(a)参照)。   In step S142, the CPU 201 compares the movement distance mx in the x direction of the mermaid 112 with a predetermined value xr. Further, the CPU 201 compares the moving distance my in the y direction of the mermaid 112 with the predetermined value yr. In step S143, the CPU 201 sets an angle flag based on the comparison result in step S142 (see FIG. 22A).

ステップS144にて、CPU201は、人魚112の速度ベクトル(Vxm[M],Vym[M])の符号を判定する。ステップS145にて、CPU201は、ステップS144の結果に基づいて、方向フラグをセットする(図22(b)参照)。   In step S144, the CPU 201 determines the sign of the velocity vector (Vxm [M], Vym [M]) of the mermaid 112. In step S145, the CPU 201 sets a direction flag based on the result of step S144 (see FIG. 22B).

ステップS146にて、CPU201は、角度フラグ及び方向フラグを参照して、移動方向情報を決定する(図22(c)参照)。ステップS147にて、CPU201は、決定した移動方向情報に従って、アニメーションテーブル格納位置情報を登録する(図24参照)。   In step S146, the CPU 201 determines movement direction information with reference to the angle flag and the direction flag (see FIG. 22C). In step S147, the CPU 201 registers the animation table storage position information according to the determined moving direction information (see FIG. 24).

さて、一方、ステップS151にて、CPU201は、人魚112が衝突したものが、障害画像Qが否かを判定する。判定の結果、CPU201は、障害画像Qに衝突した場合は、ステップS152に進み、そうでない場合、即ち、障害オブジェクトPに衝突した場合は、ステップS153に進む。   On the other hand, in step S151, the CPU 201 determines whether or not the obstacle image Q is the one that the mermaid 112 collides with. As a result of the determination, if the CPU 201 collides with the obstacle image Q, the process proceeds to step S152. If not, that is, if it collides with the obstacle object P, the process proceeds to step S153.

ステップS152にて、CPU201は、背景120のスクロール速度を基に、再び人魚112の表示座標を算出し、そして、再登録する。より具体的は、CPU201は、人魚112のx座標に、スクロール速度のx成分を加えたものを、人魚112の新たなx座標とする。なお、人魚のy座標は、前回のy座標を維持する。一方、ステップS153にて、CPU201は、現在表示中の人魚112の座標を再登録する。   In step S152, the CPU 201 calculates the display coordinates of the mermaid 112 again based on the scroll speed of the background 120, and re-registers it. More specifically, the CPU 201 sets the x coordinate of the mermaid 112 to the x coordinate of the scroll speed as a new x coordinate of the mermaid 112. Note that the y coordinate of the mermaid maintains the previous y coordinate. On the other hand, in step S153, the CPU 201 re-registers the coordinates of the currently displayed mermaid 112.

ステップS154にて、CPU201は、人魚112が衝突した際に使用するアニメーションテーブルの格納位置情報を登録する。ステップS155にて、CPU201は、衝突フラグをオフにする。   In step S154, the CPU 201 registers the storage position information of the animation table used when the mermaid 112 collides. In step S155, the CPU 201 turns off the collision flag.

ステップS148にて、CPU201は、ステップS140で算出した人魚112の座標をもとに、人魚112と、障害画像Q及び障害オブジェクトPと、の間での衝突判定を行う(図26及び図27参照)。そして、CPU201は、衝突したと判定したときは、衝突フラグをオンにする。   In step S148, the CPU 201 performs a collision determination between the mermaid 112, the obstacle image Q, and the obstacle object P based on the coordinates of the mermaid 112 calculated in step S140 (see FIGS. 26 and 27). ). When the CPU 201 determines that a collision has occurred, the CPU 201 turns on the collision flag.

さて、以上のように本実施の形態では、操作物150自体の動きに連動して、カーソル111(連動オブジェクト)が移動するため、カーソル111の直感的な操作が可能となって、容易な操作によりゲームを行うことができる。   As described above, in the present embodiment, since the cursor 111 (interlocking object) moves in conjunction with the movement of the operation article 150 itself, intuitive operation of the cursor 111 is possible and easy operation is possible. A game can be played.

また、カーソル111は操作物150のスクリーン91上の位置を表すものであるため、カーソル111の動きは操作物150に同期あるいはほぼ同期している必要がある。このため、カーソル111の制御は、操作物150の動きに拘束される。一方、人魚112(追従オブジェクト)はカーソル111の動きに追従するものであるため、どのような態様でカーソル111に追従させるかは任意に決定できる。従って、人魚112の動きに趣向をこらすことができ、視覚的効果を大きくすることができる。本実施の形態では、人魚112の動きに、カーソル111との位置関係で決定される加速度、および、人魚112の速度に応じた抵抗、を加味して、人魚112があたかも水中を移動しているかのような視覚的効果を与えている(式(3)及び式(4)参照)。   Further, since the cursor 111 represents the position of the operation article 150 on the screen 91, the movement of the cursor 111 needs to be synchronized or almost synchronized with the operation article 150. For this reason, the control of the cursor 111 is restricted by the movement of the operation article 150. On the other hand, since the mermaid 112 (following object) follows the movement of the cursor 111, it is possible to arbitrarily determine how the cursor 111 follows the movement. Therefore, it is possible to focus on the movement of the mermaid 112 and increase the visual effect. In the present embodiment, whether the mermaid 112 is moving underwater in consideration of the movement of the mermaid 112 and the acceleration determined by the positional relationship with the cursor 111 and the resistance according to the speed of the mermaid 112. (See formulas (3) and (4)).

また、本実施の形態では、CPU201は、体力ゲージ131(プレイヤ94がゲームを継続できる指標となる情報)を管理して、体力ゲージ131に基づいて、ゲームを終了させる。つまり、本実施の形態では、体力ゲージ131のバー103の長さが「0」になったら、ゲームオーバーとなる。このようにすれば、プレイヤ94は、無制限にゲームを実行できなくなるので、緊張感が増して、より面白みを増すことができる。   Further, in the present embodiment, the CPU 201 manages the physical strength gauge 131 (information serving as an index by which the player 94 can continue the game) and ends the game based on the physical strength gauge 131. That is, in this embodiment, when the length of the bar 103 of the physical strength gauge 131 becomes “0”, the game is over. In this way, the player 94 cannot execute the game indefinitely, so that a sense of tension is increased and the player can be more interesting.

さらに、本実施の形態では、人魚112が制限画像(障害オブジェクトPあるいは障害画像Q)が表示される領域に接触あるいは侵入したときに、体力ゲージ131を、第1の規則(原則的な規則)ではない第2の規則(プレイヤ94に不利な例外的な規則)に従って変更する。つまり、本実施の形態では、このような場合、体力ゲージ131のバー103が急激に短くなる。このようにすれば、プレイヤ94は、その制限画像を回避するように、カーソル111を介して人魚112を操作する必要があり、より一層面白みが増す。   Furthermore, in the present embodiment, when the mermaid 112 touches or enters the area where the restricted image (the obstacle object P or the obstacle image Q) is displayed, the physical strength gauge 131 is changed to the first rule (the principle rule). Is changed according to the second rule (exceptional rule that is disadvantageous to the player 94). That is, in this embodiment, in such a case, the bar 103 of the physical strength gauge 131 is abruptly shortened. In this way, it is necessary for the player 94 to operate the mermaid 112 via the cursor 111 so as to avoid the restricted image, which further increases the interest.

さらに、本実施の形態では、人魚112が、アイテム110,126が表示される領域に接触あるいは侵入したときに、体力ゲージ131を、第1の規則(原則的な規則)ではない第3の規則(プレイヤ94に有利な例外的な規則)に従って変更する。つまり、本実施の形態では、このような場合、体力ゲージ131のバー103を所定長だけ長くする。このようにすれば、プレイヤ94は、そのアイテム110,126を取得するように、カーソル111を介して人魚112を操作する必要があり、より一層面白みが増す。   Further, in the present embodiment, when the mermaid 112 touches or enters the area where the items 110 and 126 are displayed, the health gauge 131 is set to the third rule that is not the first rule (the principle rule). Change according to (exceptional rules advantageous to the player 94). That is, in this embodiment, in such a case, the bar 103 of the physical strength gauge 131 is lengthened by a predetermined length. In this way, the player 94 needs to operate the mermaid 112 via the cursor 111 so as to acquire the items 110 and 126, which further increases the interest.

さらに、本実施の形態では、背景120に障害画像Qが含まれため、背景120のスクロール制御と障害画像Qの制御とが同義である。このため、障害画像Qの表示制御が容易になる。   Furthermore, in the present embodiment, the background image 120 includes the fault image Q, and thus the scroll control of the background 120 and the control of the fault image Q are synonymous. For this reason, display control of the fault image Q is facilitated.

さらに、本実施の形態では、障害オブジェクトPを、単数又は複数のスプライトにより構成しているため、障害オブジェクトPの詳細な表示制御が可能となって、ゲーム内容の設計の自由度が大きくなる。   Further, in the present embodiment, since the obstacle object P is constituted by one or a plurality of sprites, detailed display control of the obstacle object P is possible, and the degree of freedom in designing the game content is increased.

さらに、本実施の形態では、操作物150の状態情報として、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、を利用できる。このため、操作物150の様々な情報を利用して、カーソル111及び人魚112を制御できるため、ゲーム内容の設計の自由度が大きくなる。   Furthermore, in the present embodiment, the state information of the operation article 150 is any one of speed information, movement direction information, movement distance information, speed vector information, acceleration information, movement trajectory information, area information, or position information. Or a combination of two or more thereof. For this reason, since the cursor 111 and the mermaid 112 can be controlled using various information of the operation article 150, the degree of freedom in designing the game content is increased.

さらに、本実施の形態では、操作物150に間欠的に光を照射して、これを撮影することにより、操作物150の状態情報を求める。このため、操作物150の状態情報を求めるために、操作物150に電源により駆動する回路を内蔵する必要がない。よって、操作物150の操作性及び信頼性の向上を図ることができ、また、コストの低減を図ることができる。   Further, in the present embodiment, the state information of the operation article 150 is obtained by intermittently irradiating the operation article 150 with light and photographing it. For this reason, in order to obtain the state information of the operation article 150, it is not necessary to incorporate a circuit driven by the power source in the operation article 150. Therefore, the operability and reliability of the operation article 150 can be improved, and the cost can be reduced.

さて、次に、本実施の形態の変形例を説明する。図41は、本実施の形態の変形例におけるゲーム画面の例示図である。なお、図41において、図11と同様の部分については、同一の参照符号を付している。図41に示すように、テレビジョンモニタ90のスクリーン91に表示されるゲーム画面は、迷路であり、この迷路は、通路133及び壁134を含む。プレイヤ94は、操作物150を操作して、ゲーム画面のカーソル135を操作する。このカーソル135は、図11〜図13のカーソル111と同様のものであり、操作物150に連動する。なお、カーソル135の制御は、カーソル111の制御と同様である。   Next, a modification of the present embodiment will be described. FIG. 41 is a view showing an example of a game screen in a modification of the present embodiment. In FIG. 41, the same parts as those in FIG. 11 are denoted by the same reference numerals. As shown in FIG. 41, the game screen displayed on the screen 91 of the television monitor 90 is a maze, and the maze includes a passage 133 and a wall 134. The player 94 operates the operation article 150 to operate the cursor 135 on the game screen. The cursor 135 is the same as the cursor 111 in FIGS. 11 to 13 and is linked to the operation article 150. Note that the control of the cursor 135 is the same as the control of the cursor 111.

プレイヤ94は、操作物150によりカーソル135を操作して通路133を進んでいく。スクリーン91の右端あるいは左端までカーソル135が移動したら、ゲーム画面がスクロールされる。なお、スクロール制御については、上記の実施の形態と同様である。従って、このゲーム画面は、バックグラウンドスクリーン140として構成される(図15参照)。   The player 94 moves along the passage 133 by operating the cursor 135 with the operation article 150. When the cursor 135 moves to the right end or the left end of the screen 91, the game screen is scrolled. The scroll control is the same as that in the above embodiment. Therefore, this game screen is configured as a background screen 140 (see FIG. 15).

図42は、図41のゲーム画面における衝突判定の説明図である。図42に示すように、バックグラウンドスクリーン140のうち、スクリーン91に表示された領域(28×32ブロック)を考える。そして、この28×32ブロックに対応した配列JA[0]〜JA[895]を用意する。なお、配列JA[0]〜JA[895]を包括して表現するときは、配列JAと表記する。ここで、通路133を構成するブロックに対応する配列JAには、「0」を代入し、壁134を構成するブロックに対応する配列JAには、「1」を代入する。   FIG. 42 is an explanatory diagram of collision determination on the game screen of FIG. As shown in FIG. 42, an area (28 × 32 blocks) displayed on the screen 91 in the background screen 140 is considered. Then, arrays JA [0] to JA [895] corresponding to the 28 × 32 blocks are prepared. Note that the array JA [0] to JA [895] are collectively expressed as the array JA. Here, “0” is assigned to the array JA corresponding to the block constituting the passage 133, and “1” is assigned to the array JA corresponding to the block constituting the wall 134.

CPU201は、操作物150の注目点が位置するブロックに対応する配列JAの要素をチェックする。そして、CPU201は、該当する配列JAの要素が「1」ならば、以下のようにして、カーソル135を壁134まで移動させる。つまり、カーソル135は、壁134を越えて移動することはできない。   The CPU 201 checks the element of the array JA corresponding to the block where the attention point of the operation article 150 is located. If the element of the corresponding array JA is “1”, the CPU 201 moves the cursor 135 to the wall 134 as follows. That is, the cursor 135 cannot move beyond the wall 134.

図43は、図41のカーソル135が壁134に衝突した場合の座標算出の説明図である。図43に示すように、例えば、要素が「1」の配列JA[10]に対応するブロック149を考える。そして、注目点の前回の位置が点Aであり、注目点の今回の位置が点Bであるとする。この場合は、まず、CPU201は、直線ABが、直線ab、直線bc、直線cdおよび直線daのいずれと交わるかを算出する。つまり、2つのベクトル外積が「0」であれば、その2つのベクトルの交点は存在しない。   FIG. 43 is an explanatory diagram of coordinate calculation when the cursor 135 of FIG. 41 collides with the wall 134. As shown in FIG. 43, for example, consider a block 149 corresponding to an array JA [10] whose element is “1”. The previous position of the attention point is point A, and the current position of the attention point is point B. In this case, first, the CPU 201 calculates whether the straight line AB intersects the straight line ab, the straight line bc, the straight line cd, or the straight line da. That is, if two vector outer products are “0”, there is no intersection of the two vectors.

次に、CPU201は、直線ABが交差する直線acと直線ABとの交点Iを算出する。そして、CPU201は、この交点Iの座標を、カーソル135の今回の表示座標とする。こうすれば、カーソル135が、壁134に進入することはない。   Next, the CPU 201 calculates the intersection I between the straight line ac and the straight line AB where the straight line AB intersects. Then, the CPU 201 sets the coordinates of the intersection point I as the current display coordinates of the cursor 135. In this way, the cursor 135 does not enter the wall 134.

この変形例によれば、実施の形態と同様に、操作物150自体の動きに連動して、カーソル135が移動するため、カーソル135の直感的な操作が可能となって、容易な操作により迷路ゲームを行うことができる。   According to this modification, as in the embodiment, the cursor 135 moves in conjunction with the movement of the operation article 150 itself. Therefore, the cursor 135 can be intuitively operated, and the maze can be easily operated. Can play games.

なお、カーソル135を中心とした所定範囲だけを、スポットを当てたように視認できるようにして、他の領域を暗くするようにすることもできる。こうすれば、迷路が単純だったとしても、難易度が高くなり、より面白みが増す。   It should be noted that only a predetermined range centered on the cursor 135 can be seen as if a spot is applied, and other regions can be darkened. In this way, even if the labyrinth is simple, the difficulty level becomes high and it becomes more interesting.

また、上記の例では、カーソル135を操作物150により操作して、迷路を移動させたが、図11等に示したように、カーソル135とは別に、追従オブジェクトを表示して、この追従オブジェクトをカーソル135を介して操作し、迷路を移動するようにすることもできる。この場合、例えば、カーソル135の制御は実施の形態と同様とし、追従オブジェクトの制御は、人魚112の制御と同様とすることができる。   In the above example, the cursor 135 is operated with the operation article 150 to move the maze. However, as shown in FIG. 11 and the like, a tracking object is displayed separately from the cursor 135, and the tracking object is displayed. Can be operated via the cursor 135 to move in the maze. In this case, for example, the control of the cursor 135 can be the same as in the embodiment, and the control of the tracking object can be the same as the control of the mermaid 112.

さて、上記では、操作物150の注目点が、要素が「1」の配列JAに対応するブロックに進入した場合は、カーソル135を、通路133と壁134との境界まで移動させることとして、カーソル135の動きを通路133内に規制した。しかし、他の例として、操作物150の注目点の位置が、要素が「1」の配列JAに対応するブロック149にある場合は、ゲームオーバーとすることもできる。従って、この場合、プレイヤ94は、壁134に接触しないように、カーソル135を操作しなければならない。なお、この場合も、図11等に示したように、カーソル135とは別に、追従オブジェクトを表示して、この追従オブジェクトをカーソル135を介して操作し、迷路を移動するようにすることもできる。   In the above description, when the point of interest of the operation article 150 enters the block corresponding to the array JA whose element is “1”, the cursor 135 is moved to the boundary between the passage 133 and the wall 134, and the cursor 135 movements were restricted within the passage 133. However, as another example, when the position of the attention point of the operation article 150 is in the block 149 corresponding to the array JA whose element is “1”, the game may be over. Therefore, in this case, the player 94 must operate the cursor 135 so as not to touch the wall 134. In this case as well, as shown in FIG. 11 and the like, a tracking object can be displayed separately from the cursor 135, and the tracking object can be operated via the cursor 135 to move in the maze. .

この変形例によれば、実施の形態と同様に、操作物150自体を動かして、カーソル135を操作できるため、障害物に相当する壁134がスクリーン91上に存在するにもかかわらず、あたかも、実空間に存在する障害物を回避しながら、操作物150を動かしているような印象をプレイヤ94に与えることができる。また、実空間に存在する障害物を回避する内容のゲーム装置と比較して、コストの低減、および、省スペース化、を図ることができる。   According to this modification, as in the embodiment, since the operation object 150 itself can be moved and the cursor 135 can be operated, it is as though the wall 134 corresponding to the obstacle exists on the screen 91. It is possible to give the player 94 the impression of moving the operation article 150 while avoiding obstacles existing in the real space. In addition, the cost can be reduced and the space can be saved as compared with a game device that avoids an obstacle existing in the real space.

なお、本発明は、上記の実施の形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能であり、例えば、以下のような変形も可能である。   The present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

(1)実施の形態では、追従オブジェクトとしての人魚112をカーソル111(連動オブジェクト)に追従させた。しかし、追従オブジェクトとしての人魚112を表示せず、カーソル111として、人魚112を表示することもできる。この場合は、プレイヤ94は、操作物150を操作して、カーソル111としての人魚112を移動させることになる。このように、この例では、プレイヤ94は、操作物150により直接的に人魚112を操作することになる。なお、実施の形態では、プレイヤ94は、操作物150によりカーソル111を介して間接的に人魚112を操作する。   (1) In the embodiment, the mermaid 112 as the following object is caused to follow the cursor 111 (linked object). However, the mermaid 112 can be displayed as the cursor 111 without displaying the mermaid 112 as the tracking object. In this case, the player 94 operates the operation article 150 to move the mermaid 112 as the cursor 111. Thus, in this example, the player 94 directly operates the mermaid 112 with the operation article 150. In the embodiment, the player 94 indirectly operates the mermaid 112 with the operation article 150 via the cursor 111.

(2)実施の形態では、操作物として、スティック152および反射ボール151からなる操作物150を採用したが、反射体(例えば、再帰反射シート)を具備するのもであれば、操作物の形態はこれに限定されない。   (2) In the embodiment, the operation article 150 including the stick 152 and the reflective ball 151 is employed as the operation article. However, if the operation article 150 includes a reflector (for example, a retroreflective sheet), the form of the operation article is used. Is not limited to this.

(3)実施の形態では、図20(a)〜図20(d)に示すようにして、操作物150の注目点の座標を算出したが、所定の閾値Thを超える最大輝度値を持つピクセルの座標を、スクリーン91上の座標に変換して、これを注目点の座標とすることもできる。   (3) In the embodiment, as shown in FIGS. 20A to 20D, the coordinates of the attention point of the operation article 150 are calculated, but the pixel having the maximum luminance value exceeding the predetermined threshold Th. Can be converted into coordinates on the screen 91 and used as the coordinates of the target point.

(4)図6の高速プロセッサ200として、任意の種類のプロセッサを使用できるが、本件出願人が既に特許出願している高速プロセッサを用いることが好ましい。この高速プロセッサは、例えば、特開平10−307790号公報およびこれに対応するアメリカ特許第6,070,205号に詳細に開示されている。   (4) Although any type of processor can be used as the high-speed processor 200 of FIG. 6, it is preferable to use a high-speed processor that has already been filed for patent. This high speed processor is disclosed in detail, for example, in Japanese Patent Laid-Open No. 10-307790 and US Pat. No. 6,070,205 corresponding thereto.

本発明の実施の形態におけるゲームシステムの全体構成を示す図。The figure which shows the whole structure of the game system in embodiment of this invention. 図1の操作物の斜視図。The perspective view of the operation thing of FIG. (a)図2の反射ボールの上面図。(b)図3(a)の矢印A方向からの反射ボールの側面図。(c)図3(a)の矢印B方向からの反射ボールの側面図。(A) The top view of the reflective ball | bowl of FIG. (B) The side view of the reflective ball | bowl from the arrow A direction of Fig.3 (a). (C) The side view of the reflective ball | bowl from the arrow B direction of Fig.3 (a). 図2の反射ボールの縦断面図。FIG. 3 is a longitudinal sectional view of the reflective ball in FIG. 2. 図1の撮像ユニットの一例を示す図解図。FIG. 2 is an illustrative view showing one example of an imaging unit in FIG. 1. 図1のゲーム装置の電気的な構成を示す図。The figure which shows the electrical structure of the game device of FIG. 図6の高速プロセッサのブロック図。FIG. 7 is a block diagram of the high speed processor of FIG. 6. 図6のイメージセンサから高速プロセッサへピクセルデータを取り込む構成及びLED駆動回路を示す回路図。FIG. 7 is a circuit diagram showing a configuration for taking pixel data from the image sensor of FIG. (a)図8のイメージセンサが出力するフレームステータスフラグ信号FSFのタイミング図。(b)図8のイメージセンサが出力するピクセルデータストローブ信号PDSのタイミング図。(c)図8のイメージセンサが出力するピクセルデータD(X,Y)のタイミング図。(d)図8の高速プロセッサが出力するLEDコントロール信号LEDCのタイミング図。(e)図8の赤外発光ダイオードの点灯状態を示すタイミング図。(f)図8のイメージセンサの露光期間を示すタイミング図。(A) Timing diagram of the frame status flag signal FSF output from the image sensor of FIG. (B) Timing diagram of the pixel data strobe signal PDS output by the image sensor of FIG. (C) Timing diagram of pixel data D (X, Y) output from the image sensor of FIG. (D) Timing diagram of the LED control signal LEDC output by the high speed processor of FIG. (E) Timing diagram showing the lighting state of the infrared light emitting diode of FIG. (F) Timing diagram showing the exposure period of the image sensor of FIG. (a)図9のフレームステータスフラグ信号FSFの拡大図。(b)図9のピクセルデータストローブ信号PDSの拡大図。(c)図9のピクセルデータD(X,Y)の拡大図。(A) The enlarged view of the frame status flag signal FSF of FIG. (B) The enlarged view of the pixel data strobe signal PDS of FIG. (C) The enlarged view of the pixel data D (X, Y) of FIG. 図1のテレビジョンモニタのスクリーンに表示される第1ステージのゲーム画面の例示図。The illustration figure of the game screen of the 1st stage displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示される第1ステージのゲーム画面の他の例示図。The other example figure of the game screen of the 1st stage displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示される第2ステージのゲーム画面の例示図。The illustration figure of the game screen of the 2nd stage displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示されるオブジェクトを構成するスプライトの説明図。Explanatory drawing of the sprite which comprises the object displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示されるバックグラウンドスクリーンの説明図。Explanatory drawing of the background screen displayed on the screen of the television monitor of FIG. (a)バックグラウンドスクリーンをスクロールする前の説明図。(b)バックグラウンドスクリーンをスクロールした後の説明図。(A) Explanatory drawing before scrolling a background screen. (B) Explanatory drawing after scrolling a background screen. 図6のROMに格納されたプログラム及びデータを示す概念図。The conceptual diagram which shows the program and data which were stored in ROM of FIG. (a)一般的なイメージセンサにより撮影された、特別な処理を施さない画像の例示図。(b)図18(a)の画像信号を或る閾値でレベル弁別したときの画像信号の例示図。(c)赤外フィルタを介したイメージセンサの点灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図。(d)赤外フィルタを介したイメージセンサの消灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図。(e)点灯時の画像信号と消灯時の画像信号との差分信号の例示図。(A) The illustration figure of the image which is image | photographed with the general image sensor and does not perform a special process. FIG. 18B is a view showing an example of the image signal when the image signal shown in FIG. (C) The example of an image signal when the image signal at the time of lighting of the image sensor through an infrared filter is level-discriminated by a certain threshold value. (D) An exemplary view of an image signal when the image signal when the image sensor is turned off via an infrared filter is level discriminated by a certain threshold value. (E) The example figure of the difference signal of the image signal at the time of lighting, and the image signal at the time of light extinction. 図1の操作物の注目点の座標算出の説明図。Explanatory drawing of the coordinate calculation of the attention point of the operation thing of FIG. (a)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際のX方向スキャンの説明図。(b)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際のY方向スキャンのスタート時の説明図。(c)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際のY方向スキャンの説明図。(d)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際の結果の説明図。(A) Explanatory drawing of the X direction scan at the time of calculating the attention point coordinate of an operation thing based on the coordinate of the pixel with the largest luminance value. (B) Explanatory drawing at the time of the start of the Y direction scan at the time of calculating the attention point coordinate of an operation thing based on the coordinate of the pixel with the largest luminance value. (C) Explanatory drawing of the Y direction scan at the time of calculating the attention point coordinate of an operation thing based on the coordinate of the pixel with the largest luminance value. (D) Explanatory drawing of the result at the time of calculating the attention point coordinate of an operation thing based on the coordinate of the pixel with the largest luminance value. CPU201による追従オブジェクト制御処理の説明図。Explanatory drawing of the tracking object control process by CPU201. (a)角度フラグの値と角度との関係図。(b)方向フラグの値と方向を表す符号との関係図。(c)角度フラグ及び方向フラグと、移動方向情報と、の関係図。(A) Relationship diagram between angle flag value and angle. (B) The relationship figure of the value of a direction flag and the code | symbol showing a direction. (C) Relationship diagram between angle flag and direction flag, and movement direction information. 図22(c)の移動方向情報と、人魚の移動方向と、の関係図。FIG. 23 is a relationship diagram between the moving direction information of FIG. 22C and the moving direction of the mermaid. 図22(c)の移動方向情報とアニメーションテーブル格納位置情報との関係図。FIG. 23 is a relationship diagram between the moving direction information and the animation table storage position information of FIG. 図24のアニメーションテーブル格納位置情報により示される、人魚をアニメーションするためのアニメーションテーブルの例示図。The illustration figure of the animation table for animating mermaid shown by the animation table storage position information of FIG. CPU201による追従オブジェクト制御処理での衝突判定の説明図。Explanatory drawing of the collision determination in the tracking object control process by CPU201. (a)CPU201の追従オブジェクト制御処理で判断される第1の重複パターンの説明図。(b)CPU201の追従オブジェクト制御処理で判断される第2の重複パターンの説明図。(c)CPU201の追従オブジェクト制御処理で判断される第3の重複パターンの説明図。(d)CPU201の追従オブジェクト制御処理で判断される第4の重複パターンの説明図。(e)CPU201の追従オブジェクト制御処理で判断される第5の重複パターンの説明図。(f)CPU201の追従オブジェクト制御処理で判断される第6の重複パターンの説明図。(g)CPU201の追従オブジェクト制御処理で判断される第7の重複パターンの説明図。(h)CPU201の追従オブジェクト制御処理で判断される第8の重複パターンの説明図。(i)CPU201の追従オブジェクト制御処理で判断される第9の重複パターンの説明図。(j)CPU201の追従オブジェクト制御処理で判断される第10の重複パターンの説明図。(k)CPU201の追従オブジェクト制御処理で判断される第11の重複パターンの説明図。(l)CPU201の追従オブジェクト制御処理で判断される第12の重複パターンの説明図。(m)CPU201の追従オブジェクト制御処理で判断される第13の重複パターンの説明図。(n)CPU201の追従オブジェクト制御処理で判断される第14の重複パターンの説明図。(A) Explanatory drawing of the 1st duplication pattern judged by the tracking object control process of CPU201. (B) Explanatory drawing of the 2nd duplication pattern judged by the tracking object control process of CPU201. (C) Explanatory drawing of the 3rd duplication pattern judged by the tracking object control process of CPU201. (D) Explanatory drawing of the 4th duplication pattern judged by the tracking object control process of CPU201. (E) Explanatory drawing of the 5th duplication pattern judged by the tracking object control process of CPU201. (F) Explanatory drawing of the 6th duplication pattern judged by the tracking object control process of CPU201. (G) Explanatory drawing of the 7th duplication pattern judged by the tracking object control process of CPU201. (H) Explanatory drawing of the 8th duplication pattern judged by the tracking object control process of CPU201. (I) Explanatory drawing of the 9th duplication pattern judged by the tracking object control process of CPU201. (J) Explanatory drawing of the 10th duplication pattern judged by the tracking object control process of CPU201. (K) Explanatory drawing of the 11th duplication pattern judged by the tracking object control process of CPU201. (L) Explanatory drawing of the 12th duplication pattern judged by the tracking object control process of CPU201. (M) Explanatory drawing of the 13th duplication pattern judged by the tracking object control process of CPU201. (N) Explanatory drawing of the 14th duplication pattern judged by the tracking object control process of CPU201. (a)図11〜図13の体力ゲージを構成する枠の例示図。(b)体力ゲージのバーを構成する要素の例示図。(A) The illustration figure of the frame which comprises the physical strength gauge of FIGS. 11-13. (B) The example of the element which comprises the bar of a physical strength gauge. 図1のゲーム装置の全体の処理の流れの1例を示すフローチャート。The flowchart which shows an example of the flow of the whole process of the game device of FIG. 図29のステップS1の初期設定処理の流れの1例を示すフローチャート。FIG. 30 is a flowchart showing an example of a flow of initial setting processing in step S1 of FIG. 29. FIG. 図30のステップS20のセンサ初期設定処理の流れの1例を示すフローチャート。The flowchart which shows an example of the flow of the sensor initial setting process of step S20 of FIG. 図31のステップS31のコマンド送信処理の流れの1例を示すフローチャート。The flowchart which shows an example of the flow of the command transmission process of step S31 of FIG. (a)図8のレジスタ設定クロックCLKのタイミング図。(b)図8のレジスタデータのタイミング図。(A) Timing diagram of the register setting clock CLK of FIG. (B) Timing diagram of the register data of FIG. 図31のステップS33のレジスタ設定処理の流れの1例を示すフローチャート。FIG. 32 is a flowchart showing an example of the flow of register setting processing in step S33 of FIG. 31. FIG. 図29のステップS4の状態情報算出処理の流れの1例を示すフローチャート。30 is a flowchart showing an example of a flow of state information calculation processing in step S4 of FIG. 29. 図35のステップS60のピクセルデータ群取得処理の流れの1例を示すフローチャート。36 is a flowchart showing an example of the pixel data group acquisition process in step S60 of FIG. 図36のステップS71のピクセルデータ取得処理の流れの1例を示すフローチャート。37 is a flowchart showing an example of the pixel data acquisition process in step S71 of FIG. 図35のステップS61の注目点抽出処理の流れの1例を示すフローチャート。36 is a flowchart showing an example of the flow of attention point extraction processing in step S61 of FIG. 図38のステップS94の注目点座標算出処理の流れの1例を示すフローチャート。FIG. 39 is a flowchart showing an example of the flow of attention point coordinate calculation processing in step S94 of FIG. 38. 図29のステップS8の追従オブジェクト制御処理の流れの1例を示すフローチャート。The flowchart which shows an example of the flow of the tracking object control process of FIG.29 S8. 本実施の形態の変形例におけるゲーム画面の例示図。The illustration figure of the game screen in the modification of this Embodiment. 図41のゲーム画面における衝突判定の説明図。FIG. 42 is an explanatory diagram of collision determination on the game screen of FIG. 41. 図41のカーソルが壁に衝突した場合の座標算出の説明図。FIG. 42 is an explanatory diagram of coordinate calculation when the cursor in FIG. 41 collides with a wall.

符号の説明Explanation of symbols

1…ゲーム装置、13…撮像ユニット、15…赤外発光ダイオード、17…赤外フィルタ、19…ハウジング、35…ユニットベース、36…支持筒、37…凸レンズ、39…凹レンズ、41…開口部、43…イメージセンサ、47…映像信号出力端子、49…音声信号出力端子、51…ROM、53…バス、59…基準電圧発生回路、61,81…NPNトランジスタ、67…微分回路、71…コンデンサ、75…LED駆動回路、77…PNPトランジスタ、65,69,73,79…抵抗素子、90…テレビジョンモニタ、91…スクリーン、92…ACアダプタ、93…AVケーブル、94…プレイヤ、101,102…マスク、103…バー、104〜109,121〜125,P…障害オブジェクト、110,126…アイテム、111,135…カーソル、112…追従オブジェクト、113〜117,Q…障害画像、120…背景、131…体力ゲージ、133…通路、134…壁、140…バックグラウンドスクリーン、149…ブロック、150…操作物、151…反射ボール、152…スティック、153…球状外殻、154…球状内殻、155…反射シート、156,157…ボス、200…高速プロセッサ、201…CPU、202…グラフィックプロセッサ、203…サウンドプロセッサ、204…DMAコントローラ、205…第1バス調停回路、206…第2バス調停回路、207…内部メモリ、208…ADC(A/Dコンバータ)、209…入出力制御回路、210…タイマ回路、211…DRAMリフレッシュ制御回路、212…外部メモリインタフェース回路、213…クロックドライバ、214…PLL回路、215…低電圧検出回路、216…水晶振動子、217…バッテリ、218…第1バス、219…第2バス、300…ゲームプログラム、301…画像データ、302…オブジェクト画像データ、303…背景画像データ、304…楽音データ、305…楽譜データ、306…波形データ。
DESCRIPTION OF SYMBOLS 1 ... Game device, 13 ... Imaging unit, 15 ... Infrared light emitting diode, 17 ... Infrared filter, 19 ... Housing, 35 ... Unit base, 36 ... Supporting cylinder, 37 ... Convex lens, 39 ... Concave lens, 41 ... Opening part 43 ... Image sensor, 47 ... Video signal output terminal, 49 ... Audio signal output terminal, 51 ... ROM, 53 ... Bus, 59 ... Reference voltage generation circuit, 61, 81 ... NPN transistor, 67 ... Differentiation circuit, 71 ... Capacitor, 75 ... LED drive circuit, 77 ... PNP transistor, 65, 69, 73, 79 ... resistive element, 90 ... television monitor, 91 ... screen, 92 ... AC adapter, 93 ... AV cable, 94 ... player, 101, 102 ... Mask, 103 ... Bar, 104 to 109, 121 to 125, P ... Obstacle object, 110, 126 ... Item DESCRIPTION OF SYMBOLS 111,135 ... Cursor, 112 ... Following object, 113-117, Q ... Obstacle image, 120 ... Background, 131 ... Physical strength gauge, 133 ... Passage, 134 ... Wall, 140 ... Background screen, 149 ... Block, 150 ... Operation 151, reflective ball, 152 ... stick, 153 ... spherical outer shell, 154 ... spherical inner shell, 155 ... reflective sheet, 156, 157 ... boss, 200 ... high speed processor, 201 ... CPU, 202 ... graphic processor, 203 ... Sound processor 204 ... DMA controller 205 ... first bus arbitration circuit 206 ... second bus arbitration circuit 207 ... internal memory 208 ... ADC (A / D converter) 209 ... input / output control circuit 210 ... timer circuit 211 ... DRAM refresh control circuit, 212 ... external memo Interface circuit, 213 ... clock driver, 214 ... PLL circuit, 215 ... low voltage detection circuit, 216 ... crystal oscillator, 217 ... battery, 218 ... first bus, 219 ... second bus, 300 ... game program, 301 ... image Data 302... Object image data 303. Background image data 304. Music data 305. Score data 306 Waveform data.

Claims (15)

プレイヤによって操作される操作物を撮影する撮像手段と、
前記撮像手段による撮像画像に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、
前記操作物の位置を画面上に表すカーソルの位置を、前記操作物の前記状態情報に基づいて制御するカーソル制御手段と、
前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御する追従オブジェクト制御手段と、を備えるゲーム装置。
Imaging means for photographing an operation article operated by a player;
State information calculating means for calculating state information of the operation article based on an image captured by the imaging means;
Cursor control means for controlling the position of the cursor representing the position of the operation article on the screen based on the state information of the operation article;
A game apparatus comprising: a tracking object control unit that controls display of a tracking object that follows the movement of the cursor based on coordinate information of the cursor.
前記追従オブジェクトの移動を制限する制限画像を制御する制限画像制御手段をさらに備え、
前記カーソルの移動は、前記制限画像によって制限されない、請求項1記載のゲーム装置。
A restriction image control means for controlling a restriction image for restricting movement of the tracking object;
The game device according to claim 1, wherein movement of the cursor is not restricted by the restriction image.
プレイヤがゲームを継続できる指標となる情報を管理して、前記指標となる情報に基づいて、ゲームを終了させるゲーム継続管理手段をさらに備える請求項2記載のゲーム装置。   The game apparatus according to claim 2, further comprising a game continuation management unit that manages information serving as an index by which a player can continue the game and ends the game based on the information serving as the index. 前記制限画像は、迷路を構成する画像である、請求項2又は3記載のゲーム装置。   The game device according to claim 2, wherein the restriction image is an image constituting a maze. 前記追従オブジェクトが、前記制限画像が表示される領域に接触あるいは侵入したときに、ゲームオーバーとなる、請求項2記載のゲーム装置。   The game device according to claim 2, wherein the game is over when the tracking object touches or enters an area where the restricted image is displayed. 前記状態情報算出手段が算出する前記操作物の前記状態情報は、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、である、請求項1記載のゲーム装置。   The state information of the operation article calculated by the state information calculation means is any of speed information, movement direction information, movement distance information, speed vector information, acceleration information, movement trajectory information, area information, or position information. The game device according to claim 1, or a combination of two or more thereof. 前記操作物に、予め定められた周期で、光を照射するストロボスコープをさらに備え、
前記撮像手段は、前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、再帰反射手段を含む前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成し、
前記状態情報算出手段は、前記発光時画像信号と前記消灯時画像信号との差分信号に基づいて、前記操作物の状態情報を算出する、請求項1から6のいずれかに記載のゲーム装置。
The operation article further includes a stroboscope that emits light at a predetermined cycle,
The imaging means shoots the operation article including the retroreflective means at the time of light emission and light extinction of the stroboscope, and generates a light emission image signal and a light extinction image signal,
The game apparatus according to claim 1, wherein the state information calculation unit calculates state information of the operation article based on a difference signal between the light-emitting image signal and the light-off image signal.
前記ストロボスコープは、特定の波長領域の光を出力する光源を含み、
前記ゲーム装置は、
ユニットベースと、
前記特定の波長領域の光のみを透過するフィルタと、をさらに備え、
前記ユニットベースは、
開口を有する支持筒と、
前記開口の下方であって、前記支持筒内に設けられるレンズと、を含み、
前記フィルタは、前記支持筒の前記開口を覆うように配置され、
前記撮像手段は、前記ユニットベース内に、かつ、前記レンズの下方に配置され、
前記光源は、前記操作物を照らすように、かつ、前記フィルタの近傍に配置される、請求項7記載のゲーム装置。
The stroboscope includes a light source that outputs light in a specific wavelength region,
The game device includes:
Unit base,
A filter that transmits only light in the specific wavelength region, and
The unit base is
A support cylinder having an opening;
A lens provided below the opening and provided in the support cylinder,
The filter is disposed so as to cover the opening of the support cylinder,
The imaging means is disposed in the unit base and below the lens,
The game device according to claim 7, wherein the light source is disposed in the vicinity of the filter so as to illuminate the operation article.
撮影対象物を撮影する撮像手段を制御するステップと、
前記撮像手段から撮像画像を取得し、その撮像画像に基づいて、前記撮影対象物の状態情報を算出するステップと、
前記撮影対象物の位置を表示装置の画面上に表すカーソルの位置を、前記撮影対象物の前記状態情報に基づいて制御するステップと、
前記カーソルの動きに追従する追従オブジェクトの前記表示装置への表示を、前記カーソルの座標情報に基づいて制御するステップと、をコンピュータに実行させるゲームプログラム。
Controlling an imaging means for photographing a photographing object;
Obtaining a captured image from the imaging means, and calculating state information of the photographing object based on the captured image;
Controlling the position of the cursor representing the position of the photographing object on the screen of a display device based on the state information of the photographing object;
A game program for causing a computer to execute, based on coordinate information of the cursor, a display of the tracking object that follows the movement of the cursor on the display device.
コンピュータが、撮影対象物を撮影する撮像手段を制御するステップと、
前記コンピュータが、前記撮像手段から撮像画像を取得し、その撮像画像に基づいて、前記撮影対象物の状態情報を算出するステップと、
前記コンピュータが、前記撮影対象物の位置を表示装置の画面上に表すカーソルの位置を、前記撮影対象物の前記状態情報に基づいて制御するステップと、
前記コンピュータが、前記カーソルの動きに追従する追従オブジェクトの前記表示装置への表示を、前記カーソルの座標情報に基づいて制御するステップと、を含むゲーム装置の制御方法。
A computer controlling imaging means for photographing an object to be photographed;
The computer obtaining a captured image from the imaging means, and calculating state information of the object to be photographed based on the captured image;
The computer controlling the position of the cursor representing the position of the photographing object on the screen of the display device based on the state information of the photographing object ;
A control method of the game device, comprising: controlling the display of the tracking object that follows the movement of the cursor on the display device based on coordinate information of the cursor.
撮影対象物を撮影する撮像手段と、
前記撮像手段による撮像画像に基づいて、前記撮影対象物の状態情報を算出する状態情報算出手段と、
前記撮影対象物の位置を画面上に表すカーソルの位置を、前記撮影対象物の前記状態情報に基づいて制御するカーソル制御手段と、
前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御する追従オブジェクト制御手段と、を備えるゲーム装置。
An imaging means for photographing a photographing object;
State information calculating means for calculating state information of the object to be photographed based on a captured image obtained by the imaging means;
Cursor control means for controlling the position of the cursor representing the position of the shooting object on the screen based on the state information of the shooting object;
A game apparatus comprising: a tracking object control unit that controls display of a tracking object that follows the movement of the cursor based on coordinate information of the cursor.
前記追従オブジェクト制御手段は、前記追従オブジェクトの過去の座標及び前記カーソルの今回の座標に基づいて、前記追従オブジェクトの今回の座標を算出する、請求項1又は11記載のゲーム装置。   The game device according to claim 1, wherein the following object control unit calculates the current coordinates of the following object based on past coordinates of the following object and current coordinates of the cursor. 前記追従オブジェクト制御手段は、前記追従オブジェクトの過去の座標及び前記カーソルの今回の座標に基づいて、当該過去の追従オブジェクトと当該今回のカーソルとの間の距離を算出して、その距離を反映して、前記追従オブジェクトの今回の座標を算出する、請求項12記載のゲーム装置。   The tracking object control means calculates a distance between the past tracking object and the current cursor based on the past coordinates of the tracking object and the current coordinates of the cursor, and reflects the distance. The game apparatus according to claim 12, wherein the current coordinates of the following object are calculated. 前記追従オブジェクト制御手段は、前記追従オブジェクトの過去の速度を反映して、前記追従オブジェクトの今回の座標を算出する、請求項12又は13記載のゲーム装置。   The game device according to claim 12 or 13, wherein the following object control means calculates the current coordinates of the following object, reflecting a past speed of the following object. 前記追従オブジェクト制御手段は、前記追従オブジェクトの今回の速度ベクトルを算出して、その速度ベクトルに基づいて、前記追従オブジェクトの移動方向及びアニメーションを制御する、請求項12から14のいずれかに記載のゲーム装置。   The follow-up object control means calculates a current velocity vector of the follow-up object, and controls the moving direction and animation of the follow-up object based on the speed vector. Game device.
JP2004307992A 2003-10-23 2004-10-22 GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD Expired - Fee Related JP4735802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004307992A JP4735802B2 (en) 2003-10-23 2004-10-22 GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003362637 2003-10-23
JP2003362637 2003-10-23
JP2004307992A JP4735802B2 (en) 2003-10-23 2004-10-22 GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010206544A Division JP4742247B2 (en) 2003-10-23 2010-09-15 GAME DEVICE AND GAME PROGRAM

Publications (3)

Publication Number Publication Date
JP2005144158A JP2005144158A (en) 2005-06-09
JP2005144158A5 JP2005144158A5 (en) 2007-12-06
JP4735802B2 true JP4735802B2 (en) 2011-07-27

Family

ID=34703139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004307992A Expired - Fee Related JP4735802B2 (en) 2003-10-23 2004-10-22 GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP4735802B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4700702B2 (en) * 2008-01-30 2011-06-15 株式会社スクウェア・エニックス Video game program and video game apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056870A (en) * 1999-08-20 2001-02-27 Koei:Kk Group character moving method, recording medium, and game device
JP2001209487A (en) * 2000-01-25 2001-08-03 Uw:Kk Handwriting communication system, and handwriting input and handwriting display device used for the system
JP2001307124A (en) * 2000-02-15 2001-11-02 Sega Corp Image processing system, image processor and image pickup device
JP2003236244A (en) * 2002-02-14 2003-08-26 Konami Co Ltd Controller, attitude remote measuring device of controller and video game device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777590B2 (en) * 1991-01-16 1995-08-23 美津濃株式会社 Golf game simulator
JP3218716B2 (en) * 1992-07-31 2001-10-15 ソニー株式会社 Input device and input system
JP3907213B2 (en) * 1992-09-11 2007-04-18 伸壹 坪田 Game control device
JP3257585B2 (en) * 1996-03-29 2002-02-18 株式会社ビジュアルサイエンス研究所 Imaging device using space mouse
JP3410919B2 (en) * 1997-01-31 2003-05-26 株式会社東芝 Image extraction device
JP3048346B2 (en) * 1997-06-04 2000-06-05 コナミ株式会社 Method for expressing motion of object and computer-readable recording medium on which game program is recorded

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056870A (en) * 1999-08-20 2001-02-27 Koei:Kk Group character moving method, recording medium, and game device
JP2001209487A (en) * 2000-01-25 2001-08-03 Uw:Kk Handwriting communication system, and handwriting input and handwriting display device used for the system
JP2001307124A (en) * 2000-02-15 2001-11-02 Sega Corp Image processing system, image processor and image pickup device
JP2003236244A (en) * 2002-02-14 2003-08-26 Konami Co Ltd Controller, attitude remote measuring device of controller and video game device

Also Published As

Publication number Publication date
JP2005144158A (en) 2005-06-09

Similar Documents

Publication Publication Date Title
JP4742247B2 (en) GAME DEVICE AND GAME PROGRAM
JP5130504B2 (en) Information processing apparatus, information processing method, program, and storage medium
US9235292B2 (en) Interactive projector system and method
JP5063930B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD
US20120133582A1 (en) Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
JP2009226081A (en) Information processing program and information processor
JP5285901B2 (en) Card game device, card game program
US20070197290A1 (en) Music Game Device, Music Game System, Operation Object, Music Game Program, And Music Game Method
US8212808B2 (en) Image processing program and image processing apparatus
US7554545B2 (en) Drawing apparatus operable to display a motion path of an operation article
JP5758202B2 (en) Image processing program, image processing apparatus, image processing method, and image processing system
JP2011224239A (en) Information processing system and attachment
JP2005230534A (en) Dress-up game device
JP4735802B2 (en) GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD
JP4214010B2 (en) Automatic photo creation device
JP4747334B2 (en) Drawing apparatus, operation article, drawing system, drawing program, and drawing method
JP2008220582A (en) Exercise assisting device
JP4701411B2 (en) Music game device, music game system, operation article, music game program, and music game method
JP2001017738A (en) Game device
JP2004337502A (en) Input device, and game system
JP3098423U (en) Automatic performance device and automatic performance system
JP2006020785A (en) Performance device and performance device control program
JP6777798B2 (en) Game machine
JP3922271B2 (en) Performance device and performance device control program
JP4779071B2 (en) Imaging apparatus and system including the same

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110412

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees