JP2005144158A - Game machine, control stick, game system, game program and method of playing game - Google Patents

Game machine, control stick, game system, game program and method of playing game Download PDF

Info

Publication number
JP2005144158A
JP2005144158A JP2004307992A JP2004307992A JP2005144158A JP 2005144158 A JP2005144158 A JP 2005144158A JP 2004307992 A JP2004307992 A JP 2004307992A JP 2004307992 A JP2004307992 A JP 2004307992A JP 2005144158 A JP2005144158 A JP 2005144158A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
operation
light
game
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004307992A
Other languages
Japanese (ja)
Other versions
JP2005144158A5 (en )
JP4735802B2 (en )
Inventor
Hiroshi Uejima
拓 上島
Original Assignee
Shinsedai Kk
新世代株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game machine, which allows the player to instinctively move an object on a display for playing games with easy operation. <P>SOLUTION: Since a cursor 111 moves on a screen 91 interlocking with the movement of a control stick 150, the player can move the cursor 111 instinctively to play the game with easy operation. When the player 94 operates the cursor 111 by way of the control stick 150, a mermaid 112 moves to follow the cursor 111. In this way, the player 94 indirectly operates the mermaid 112 such that it skirts around obstacle objects 104 to 106 and obstacle images 113 to 115. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、操作物の操作により、ディスプレイに表示されたオブジェクトを操作してゲームを行うゲーム装置及びその関連技術に関する。 The present invention, by operating the operation article relates to a game apparatus and the related arts performing a game by manipulating objects displayed on the display.

特許文献1には、次のような迷路ゲーム装置が開示されている。 Patent Document 1, maze game apparatus is disclosed as follows. プレイヤは、入力装置(キーボード、マウス等)を操作して、ディスプレイに表示されたオブジェクトを移動させて、迷路を進んでいく。 The player input device (keyboard, mouse, etc.) by operating the, by moving the object displayed on the display, advances the maze. この場合、所定時間経過するたびに、迷路が変更される。 In this case, each time a predetermined time elapses, the maze is changed. これにより、プレイヤが飽きることのない迷路ゲームが提供される。 As a result, there is no maze game that a player is tired is provided.

一方、従来より、次のような実空間上のゲームが存在する。 On the other hand, conventionally, there is a game in the real, such as: space. 例えば、2本の金属線を垂直方向に並べて、経路を形成する。 For example, side by side the two metal lines in the vertical direction, forming a path. プレイヤは、金属が装着された棒を、その経路に横から差し込み、その経路に沿って、かつ、金属線に接触しないように、移動させる。 Player, a bar metal is mounted, plug from the side the path, along the path, and, so as not to contact the metal wire is moved. 2本の金属線には、電流が流れているため、いずれかの金属線に、棒の金属部分が接触すると、火花が散りゲームオーバーとなる。 The two metal wires, a current is flowing to either of the metal wire, the metal portion of the rod is in contact, the game is over sparks scattered.

従来より、このような実空間上のゲームを仮想空間で実現する移動ゲームが存在する。 Conventionally, mobile game for realizing a game on such real space in a virtual space is present. つまり、プレイヤは、入力装置(ゲーム機用コントローラ等)、を操作して、ディスプレイに表示されたオブジェクトを移動させて、迷路を進んでいく。 That is, the player input device (game machine controller, etc.), by operating the, by moving the object displayed on the display, advances the maze. そして、オブジェクトが迷路の壁に接触するとゲームオーバーとなる。 Then, the game is over when the object is brought into contact with the walls of the maze. このような移動ゲーム装置としては、例えば、1998年3月19日に、株式会社ザウルスから発売されたテレビゲームがある(商品名「電流イライラ棒(登録商標)リターンズ」)。 Examples of such a move a game device, for example, on March 19, 1998, there is a video game that was released from the Corporation Zaurus (trade name "current frustrating rod (registered trademark) Returns").

特開2002−263370号公報(0020、図8) JP 2002-263370 JP (0020, Fig. 8)

上記のような従来の迷路ゲーム装置では、オブジェクトの操作は、パーソナルコンピュータの一般的な入力装置であるマウス等により行われるため、パーソナルコンピュータの操作の延長に過ぎない。 In conventional maze game apparatus as described above, the operation of the object is to be done by a mouse or the like as a general input device of the personal computer, only an extension of the operation of the personal computer. また、マウス等の入力装置は、パーソナルコンピュータ用のものであるため、操作性の点で、必ずしもこのようなゲーム装置に適しているとは言えない。 The input device such as a mouse, for those for personal computers, in terms of operability, not always to be suitable for such a game device. また、パーソナルコンピュータを使用するゲームの場合は、パーソナルコンピュータに馴染みの少ない人たちは、そのゲームの実行が困難な場合もある。 In addition, in the case of games that use a personal computer, familiar little people to a personal computer, in some cases it is difficult to execution of the game.

上記のような従来の移動ゲーム装置では、オブジェクトの操作は、ゲーム機用の汎用コントローラにより行われるため、方向キーやアナログスティックを操作して、オブジェクトを移動させる。 In the conventional mobile game apparatus as described above, the operation of the object is to be done by a general purpose controller for a game machine, by operating the direction key, an analog stick, move the object. つまり、ゲーム機用コントローラ自体は基本的に動かされるものではなく、搭載された方向キーの押下やアナログスティックの倒し込みにより、オブジェクトを移動させる。 That is, the controller itself game machine not be basically moved by leaning of the pressing, an analog stick of installed arrow keys to move the object. 人によっては、操作し難いと感じる場合もあり、思い通りの十分な操作が困難な場合も生じうる。 Some people sometimes feel hard to operate, may also occur if he wanted sufficient operation is difficult.

そこで、本発明は、ディスプレイに表示されたオブジェクトの直感的な操作を可能として、容易な操作により、ゲームを行うことができるゲーム装置を提供することを目的とする。 Accordingly, the present invention is, as a possible intuitive manipulation of objects displayed on the display, by easy operation, and an object thereof is to provide a game apparatus capable of performing a game.

本発明の第1の観点によると、ゲーム装置は、プレイヤによって操作される操作物に、予め定められた周期で、光を照射するストロボスコープと、前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、前記操作物に連動する連動オブジェクトの表示を、前記操作物の前記状態情報に基づいて制御する連動オブジェクト制御手段と、前記連動オブジェクトの移動を制限する制限画像を制御する制限画像制御手段と、を備える。 According to a first aspect of the present invention, a game apparatus, the operation thereof to be operated by the player, in a predetermined cycle, a stroboscope that emits light in each of the light emitting time and unlit of the stroboscope the operation was then taken, and imaging means for generating a light emission time of the image signal and the light-off image signal, a difference signal generating means for generating a differential signal between the light emitting time of the image signal and the light-off image signal, wherein based on the difference signal, and the state information calculating means for calculating the state information of the operation article, the display of the interlock object interlocked with the operation thereof, and interlocking object control means for controlling on the basis of the state information of the operation article , and a limited image control means for controlling the limited image for limiting the movement of the interlocking object.

この構成によれば、操作物自体の動きに連動して、連動オブジェクトが移動するため、連動オブジェクトの直感的な操作が可能となって、容易な操作によりゲームを行うことができる。 According to this configuration, in conjunction with the movement of the operation article itself, since the interlocking object moves, become possible intuitive operation of the interlocking objects, can play the game by easy operation.

このゲーム装置において、前記連動オブジェクトが、前記制限画像が表示される領域に接触あるいは侵入したときに、ゲームオーバーとなる。 In this game device, the interlocking objects, when the limited image is in contact or penetrate the region displayed, the game is over.

この構成によれば、操作物自体を動かして、連動オブジェクトを操作できるため、制限画像及び連動オブジェクトが、ディスプレイ上に存在するにもかかわらず、あたかも、実空間に存在する障害物を回避しながら、操作物を動かしているような印象をプレイヤに与えることができる。 According to this configuration, by moving the operation article itself, it is possible to operate the interlocking objects, limited image and interlocking objects, despite the presence on the display, though, while avoiding an obstacle existing in a real space , it can give the impression that by moving the operation article to the player. また、実空間に存在する障害物を回避する内容のゲーム装置と比較して、コストの低減、および、省スペース化、を図ることができる。 Further, as compared with the contents game device for avoiding an obstacle present in the real space, cost reduction, and space saving can be achieved.

本発明の第2の観点によると、ゲーム装置は、プレイヤによって操作される操作物に、予め定められた周期で、光を照射するストロボスコープと、前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、前記操作物の位置を画面上に表すカーソルの表示を、前記操作物の前記状態情報に基づいて制御するカーソル制御手段と、前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御する追従オブジェクト制御手段と、を備える。 According to a second aspect of the present invention, a game apparatus, the operation thereof to be operated by the player, in a predetermined cycle, a stroboscope that emits light in each of the light emitting time and unlit of the stroboscope the operation was then taken, and imaging means for generating a light emission time of the image signal and the light-off image signal, a difference signal generating means for generating a differential signal between the light emitting time of the image signal and the light-off image signal, wherein based on the difference signal, the state information calculating means for calculating the state information of the operation article, the display of a cursor indicating the position of the operation article on the screen, the cursor control for controlling on the basis of the state information of the operation article and means, the display of the tracking object to follow the movement of the cursor, and a follow-up object control means for controlling, based on the coordinate information of the cursor.

この構成によれば、カーソルは操作物の画面上の位置を表すものであるため、カーソルの動きは操作物に同期あるいはほぼ同期している必要がある。 According to this arrangement, the cursor since illustrates a position on the screen of the operation thereof, the movement of the cursor needs to be synchronized or almost synchronized with the operation thereof. このため、カーソルの制御は、操作物の動きに拘束される。 Therefore, control of the cursor is constrained to motion of the operation article. 一方、追従オブジェクトはカーソルの動きに追従するものであるため、どのような態様でカーソルに追従させるかは任意に決定できる。 On the other hand, tracking objects for is to follow the movement of the cursor, what to follow the cursor in a manner can be determined arbitrarily. 従って、追従オブジェクトの動きに趣向をこらすことができ、視覚的効果を大きくすることができる。 Therefore, it is possible to Colas a preference to the movement of the follow-up object, it is possible to increase the visual effect.

また、カーソルが操作物の状態情報に基づいて制御されるため、カーソルは、操作物自体の動きに同期あるいはほぼ同期して移動する。 Moreover, since the cursor is controlled based on the state information of the operation article, the cursor is moved synchronously or substantially synchronously with the motion of the operation article itself. 従って、プレイヤは、カーソルの直感的な操作が可能となって、容易な操作によりゲームを行うことができる。 Thus, the player is made possible intuitive operation of the cursor, you can play the game by easy operation.

このゲーム装置は、前記追従オブジェクトの移動を制限する制限画像を制御する制限画像制御手段をさらに備えることができる。 The game apparatus may further comprise a limited image control means for controlling the limited image for limiting movement of said follow-up object.

この構成によれば、プレイヤは、操作物によりカーソルを操作して、制限画像を回避するように追従オブジェクトを移動させなければならない。 According to this configuration, the player operates the cursor by the operation thereof, it is necessary to move the tracking object so as to avoid limiting image. このため、ゲーム性が向上して、プレイヤにとって面白みがより大きくなる。 For this reason, and improved gameplay, interesting is greater for the player.

このゲーム装置において、前記追従オブジェクトが、前記制限画像が表示される領域に接触あるいは侵入したときに、ゲームオーバーとなる。 In this game device, the follow-up object when said limited image is in contact or penetrate the region displayed, the game is over.

この構成によれば、操作物自体を動かして、カーソル及び追従オブジェクトを操作できるため、制限画像、カーソル、及び追従オブジェクトが、ディスプレイ上に存在するにもかかわらず、あたかも、実空間に存在する障害物を回避しながら、操作物を動かしているような印象をプレイヤに与えることができる。 According to this configuration, by moving the operation article itself, it is possible to manipulate the cursor and tracking objects, limited image, a cursor, and tracking objects, despite the presence on the display, though, the disorder is present in the real space while avoiding the things, it can give the impression that by moving the operation article to the player. また、実空間に存在する障害物を回避する内容のゲーム装置と比較して、コストの低減、および、省スペース化、を図ることができる。 Further, as compared with the contents game device for avoiding an obstacle present in the real space, cost reduction, and space saving can be achieved.

上記ゲーム装置は、プレイヤがゲームを継続できる指標となる情報を管理して、前記指標となる情報に基づいて、ゲームを終了させるゲーム継続管理手段をさらに備えることができる。 The gaming machine, the player manages information indicative that can continue the game, based on the information to be the index may further comprise a game continuation management means for terminating the game.

この構成によれば、プレイヤは、無制限にゲームを実行できなくなるので、緊張感が増して、より面白みのあるゲーム装置を提供できる。 According to this configuration, the player, so can not indefinitely perform the game, it increases the tension, it is possible to provide a game device a more interesting.

上記ゲーム装置において、前記制限画像は、迷路を構成する画像である。 In the above game apparatus, the limited image is an image that constitutes the maze.

この構成によれば、操作物自体の動きに連動して、連動オブジェクト、あるいはカーソル及び追従オブジェクトが移動するため、これらの直感的な操作が可能となって、容易な操作により迷路ゲームを行うことができる。 According to this configuration, in conjunction with the movement of the operation article itself, since the interlocking object or cursor and follow-up object, moves, become possible these intuitive, to perform the maze game by easy operation can.

上記ゲーム装置において、前記状態情報算出手段が算出する前記操作物の前記状態情報は、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、である。 In the above game apparatus, the state information of the operation article the state information calculating means for calculating the speed information, moving direction information, moving distance information, velocity vector information, acceleration information, movement locus information, area information, or, position information, either, or, their two or more combination.

この構成によれば、操作物の様々な情報を利用して、連動オブジェクトあるいはカーソルを制御できるため、ゲーム内容の設計の自由度が大きくなる。 According to this configuration, by using various information of the operation article, since it is possible to control the linked object or cursor, the degree of freedom in designing the game content is increased.

以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. なお、図中、同一または相当部分については同一の参照符号を付してその説明を援用する。 In the figure, the same or corresponding parts of which is incorporated by reference in its description are denoted by the same reference numerals.

図1は、本発明の実施の形態におけるゲームシステムの全体構成を示す図である。 Figure 1 is a diagram illustrating an overall configuration of a game system according to an embodiment of the present invention. 図1に示すように、このゲームシステムは、ゲーム装置1、操作物150、及び、テレビジョンモニタ90、を含む。 As shown in FIG. 1, the game system, the game apparatus 1, an operation article 150, and a television monitor 90.

ゲーム装置1のハウジング19には、撮像ユニット13が組み込まれる。 The housing 19 of the game apparatus 1, the imaging unit 13 is incorporated. 撮像ユニット13は、4つの赤外発光ダイオード15及び赤外フィルタ17を含む。 The imaging unit 13 includes four infrared light emitting diodes 15 and the infrared filter 17. 赤外発光ダイオード15の発光部は、赤外フィルタ17から露出している。 Emitting portion of the infrared light emitting diodes 15 are exposed from the infrared filter 17.

ゲーム装置1には、ACアダプタ92により、直流電源電圧が与えられる。 The game apparatus 1, the AC adapter 92, the DC power supply voltage is applied. ただし、ACアダプタ92に代えて、電池(図示せず)により、直流電源電圧を与えることもできる。 However, instead of the AC adapter 92, a battery (not shown) may also provide a DC supply voltage.

テレビジョンモニタ90には、その前面にスクリーン91が設けられる。 The television monitor 90, the screen 91 is provided on its front face. テレビジョンモニタ90とゲーム装置1とは、AVケーブル93により接続される。 The television monitor 90 and the game device 1, are connected by an AV cable 93. なお、ゲーム装置1は、例えば、図1に示すように、テレビジョンモニタ90の上面に載置される。 Note that the game apparatus 1 is, for example, as shown in FIG. 1, it is placed on the upper surface of the television monitor 90.

プレイヤ94が、ゲーム装置1の背面に設けられた電源スイッチ(図示せず)をオンにすると、スクリーン91に、ゲーム画面が表示される。 Player 94, when a power switch provided on the back of the game apparatus 1 (not shown) is turned on, the screen 91, a game screen is displayed. プレイヤ94は、操作物150を操作して、ゲーム画面上のカーソル及び追従オブジェクト(後述)を動かして、ゲームを実行する。 Player 94, by operating the operation article 150, to move the cursor and tracking objects on the game screen (described below), to run the game. ここで、操作物150の操作とは、操作物自体を動かすこと(例えば、移動させること)を意味し、スイッチを押下したり、アナログスティックを動かしたり、等は含まない。 Here, the operation of the operation article 150, moving the operation article itself (e.g., moving) means, or by pressing the switch, move the analog stick, not including etc..

撮像ユニット13の赤外発光ダイオード15は、間欠的に赤外光を発光する。 Infrared light emitting diodes 15 of the imaging unit 13 intermittently emits infrared light. 赤外発光ダイオード15からの赤外光は、この操作物150に取り付けられた反射シート(後述)により反射され、赤外フィルタ17の内部に設けられた撮像素子(後述)に入力される。 Infrared light from the infrared light emitting diode 15 is reflected by the operation article reflecting sheet which is attached to 150 (described later), is input to the imaging element provided inside the infrared filter 17 (described later). このようにして、操作物150が間欠的に撮影される。 In this way, the operation article 150 is intermittently captured. 従って、ゲーム装置1は、プレイヤ94により動かされた操作物150の間欠的な画像信号を取得できる。 Therefore, the game apparatus 1 can acquire intermittent image signal of the operation article 150 is moved by the player 94. ゲーム装置1は、この画像信号を解析して、その解析結果をゲームに反映する。 Game apparatus 1 analyzes the image signal, and reflects the analysis result to the game.

本実施の形態で使用する反射シートは、例えば、再帰反射シートである。 Reflecting sheet used in the present embodiment, for example, a retroreflective sheet.

図2は、図1の操作物150の斜視図である。 Figure 2 is a perspective view of the operation article 150 in FIG. 図2に示すように、操作物150は、スティック152の先端に反射ボール151を固定して構成される。 As shown in FIG. 2, the operation article 150 is configured to fix the reflection ball 151 at the tip of the stick 152. この反射ボール151により、赤外発光ダイオード15からの赤外光が反射される。 The reflective ball 151, the infrared light from the infrared light emitting diode 15 is reflected. 反射ボール151の詳細を説明する。 The details of the reflection ball 151 will be explained.

図3(a)は、図2の反射ボール151の上面図、図3(b)は、図3(a)の矢印A方向からの反射ボール151の側面図、図3(c)は、図3(a)の矢印B方向からの反射ボール151の側面図、である。 3 (a) is a top view of a reflective ball 151 of FIG. 2, FIG. 3 (b), a side view of a reflective ball 151 from the direction of arrow A in FIG. 3 (a), FIG. 3 (c), FIG. side view of a reflective ball 151 from the direction of arrow B 3 (a), a.

図3(a)〜図3(c)に示すように、反射ボール151は、透明色(半透明、有色透明、及び、無色透明、を含む。)の球状外殻153の内部に球状内殻154を固定してなる。 As shown in FIG. 3 (a) ~ FIG 3 (c), the reflective ball 151 is transparent color (translucent, colored and transparent, and including. A colorless and transparent) spherical inner shell inside the spherical shell 153 of 154 formed of a fixed. 球状内殻154には、反射シート155が取り付けられる。 Spherical inner shell 154, a reflection sheet 155 is attached. この反射シート155が、赤外発光ダイオード15からの赤外光を反射する。 The reflection sheet 155 reflects the infrared light from the infrared light emitting diode 15.

図4は、図2の反射ボール151の縦断面図である。 Figure 4 is a longitudinal sectional view of a reflective ball 151 of FIG. 図4に示すように、球状外殻153は、2つの半球状外殻をボス156及びビス(図示せず)により固定してなる。 As shown in FIG. 4, the spherical shell 153, the two hemispherical shells obtained by fixed by the boss 156 and bis (not shown). 球状内殻154は、球状外殻153の内部に、2つの半球状内殻をボス157により固定してなる。 Spherical inner shell 154 inside the spherical shell 153, two semispherical inner shell formed by fixed by the boss 157. また、反射ボール151には、スティック152が、挿入して固定される。 Further, the reflective ball 151, the stick 152 is fixed by inserting. 具体的には、球状外殻153を構成する2つの半球状外殻と、球状内殻154を構成する2つの半球状内殻と、によりスティック152を挟み、2つの半球状外殻をボス156及びビスで固定するとともに、2つの半球状内殻をボス157で固定することで、スティック152を反射ボール151に取り付ける。 Specifically, scissors and two hemispherical shell constituting the spherical shell 153, and two semispherical inner shell that constitutes the spherical inner shell 154, the stick 152, the two hemispherical shell boss 156 and is fixed with screws, two semispherical inner shell by fixing boss 157 is attached to the stick 152 to the reflective ball 151.

図5は、図1の撮像ユニット13の一例を示す図解図である。 Figure 5 is a view showing an example of the imaging unit 13 in FIG. 1. 図5に示すように、この撮像ユニット13は、たとえばプラスチック成型によって形成されるユニットベース35を含み、このユニットベース35内には支持筒36が取り付けられる。 As shown in FIG. 5, the image pickup unit 13 includes, for example, a unit base 35 formed by plastic molding, the support cylinder 36 is attached to the unit base 35. 支持筒36の上面には内面が逆円錐形状であるラッパ状の開口41が形成され、その開口41の下方の筒状部内部には、いずれもがたとえば透明プラスチックの成型によって形成された凹レンズ39および凸レンズ37を含む光学系が設けられ、凸レンズ37の下方において、撮像素子としてのイメージセンサ43が固着される。 The upper surface of the support tube 36 inner surface trumpet-shaped opening 41 is an inverted cone shape is formed, the concave lens 39 in the interior cylindrical portion of the lower of the opening 41, which both are formed by for example molding of transparent plastic and optics are provided including a convex lens 37, below the convex lens 37, the image sensor 43 as an imaging device is secured. したがって、イメージセンサ43は、開口41からレンズ39および37を通して入射する光に応じた画像を撮影することができる。 Accordingly, the image sensor 43 can capture an image in accordance with light incident through the lens 39 and 37 from the opening 41.

イメージセンサ43は、低解像度のCMOSイメージセンサ(たとえば32ピクセル×32ピクセル:グレースケール)である。 The image sensor 43, the low-resolution CMOS image sensor (e.g. 32 pixels × 32 pixels: gray scale) is. ただし、このイメージセンサ43は、画素数のもっと多いものでもよいし、CCD等の他の素子からなるものであってよい。 However, this image sensor 43 may be one more large number of pixels, may consist of other elements such as a CCD. 以下では、イメージセンサ43が、32ピクセル×32ピクセルからなるものとして説明を行う。 In the following, the image sensor 43 will be described as comprising 32 pixels × 32 pixels.

また、ユニットベース35には、光出射方向がいずれも上方向とされた複数(実施の形態では4つ)の赤外発光ダイオード15が取り付けられる。 Further, the unit base 35, an infrared light emitting diode 15 of the light emitting direction is an upper direction both (four in the embodiment) is attached. この赤外発光ダイオード15によって、撮像ユニット13の上方に赤外光が照射される。 This infrared light emitting diode 15, the infrared light is irradiated upward of the imaging unit 13. また、ユニットベース35の上方には、赤外フィルタ(赤外光のみを透過するフィルタ)17が上記開口41を覆うように、取り付けられる。 Above the unit base 35, an infrared filter 17 (filter passes only infrared light) so as to cover the opening 41, it is mounted. そして、赤外発光ダイオード15は後述のように、点灯/消灯(非点灯)が連続的に繰り返されるので、ストロボスコープとして機能する。 The infrared light emitting diode 15 as described later, since the on / off (non-lighting) are repeated continuously, it functions as a stroboscope. ただし、「ストロボスコープ」とは、運動体を間欠的に照らす装置の総称である。 However, the "stroboscope" is a generic term for illuminating the moving body intermittently apparatus. したがって、上記イメージセンサ43は、その撮影範囲内で移動する物体、つまり、操作物150を撮影することになる。 Accordingly, the image sensor 43, a moving object within the imaging range, i.e., so that the photographing operation was 150. なお、後述する図8に示すように、ストロボスコープは、主に、赤外発光ダイオード15、LED駆動回路75、及び、高速プロセッサ200、により構成される。 Incidentally, as shown in FIG. 8 to be described later, the stroboscope is configured primarily infrared light emitting diode 15, LED driving circuit 75, and, the high speed processor 200, the.

ここで、撮像ユニット13は、イメージセンサ43の受光面が、水平面から所定角度(例えば、90度)だけ傾くように、ハウジング19に組み込まれる。 Here, the imaging unit 13, the light receiving surface of the image sensor 43 is a predetermined angle from the horizontal plane (e.g., 90 degrees) to tilt only, is incorporated into the housing 19. また、凹レンズ39および凸レンズ37により、イメージセンサ43の撮影範囲は、例えば、60度の範囲である。 Further, the concave lens 39 and convex lens 37, the imaging range of the image sensor 43 is, for example, in the range of 60 degrees.

図6は、図1のゲーム装置1の電気的な構成を示す図である。 Figure 6 is a diagram showing an electric configuration of the game apparatus 1 of FIG. 1. 図6に示すように、ゲーム装置1は、イメージセンサ43、赤外発光ダイオード15、映像信号出力端子47、音声信号出力端子49、高速プロセッサ200、ROM(read only memory)51、及び、バス53、を含む。 As shown in FIG. 6, the game apparatus 1 has an image sensor 43, the infrared light emitting diode 15, a video signal output terminal 47, the audio signal output terminal 49, the high speed processor 200, ROM (read only memory) 51 and a bus 53 ,including.

高速プロセッサ200には、バス53が接続される。 The high speed processor 200, the bus 53 is connected. さらに、バス53には、ROM51が接続される。 Further, the bus 53 is connected to ROM 51. 従って、高速プロセッサ200は、バス53を介して、ROM51にアクセスすることができるので、ROM51に格納されたゲームプログラムをリードして実行でき、また、ROM51に格納された画像データ及び楽音データをリードして処理し、映像信号及び音声信号を生成して、映像信号出力端子47及び音声信号出力端子49に出力することができる。 Therefore, the high speed processor 200 via the bus 53, it is possible to access the ROM 51, can be performed by leading a game program stored in the ROM 51, The read image data and the tone data stored in the ROM 51 and treated, to generate a video signal and audio signal can be outputted to the video signal output terminal 47 and audio signal output terminal 49.

操作物150は、赤外発光ダイオード15が発光する赤外光に照射され、その赤外光を反射シート155で反射する。 Operation article 150 is irradiated to the infrared light emitted infrared light emitting diode 15 is reflected by the reflective sheet 155 and the infrared light. この反射シート155からの反射光がイメージセンサ43によって検知され、したがって、イメージセンサ43からは反射シート155の画像信号が出力される。 Reflected light from the reflecting sheet 155 is detected by the image sensor 43, therefore, from the image sensor 43 outputs an image signal of the reflection sheet 155. イメージセンサ43からのこのアナログ画像信号は高速プロセッサ200に内蔵されたA/Dコンバータ(後述)によってデジタルデータに変換される。 The analog image signal from the image sensor 43 is converted into digital data by the A / D converter incorporated in the high speed processor 200 (described later). 赤外光消灯時も同様の処理が行われる。 When the infrared light off a similar process is carried out. 高速プロセッサ200は、このデジタルデータを解析して、その解析結果をゲーム処理に反映する。 The high speed processor 200 analyzes the digital data to reflect the analysis result to the game process.

図7は、図6の高速プロセッサ200のブロック図である。 Figure 7 is a block diagram of the high speed processor 200 of FIG. 図7に示すように、この高速プロセッサ200は、中央演算処理装置(CPU:central processing unit)201、グラフィックプロセッサ202、サウンドプロセッサ203、DMA(direct memory access)コントローラ204、第1バス調停回路205、第2バス調停回路206、内部メモリ207、A/Dコンバータ(ADC:analog to digital converter)208、入出力制御回路209、タイマ回路210、DRAM(dynamic random access memory)リフレッシュ制御回路211、外部メモリインタフェース回路212、クロックドライバ213、PLL(phase−locked loop)回路214、低電圧検出回路21 As shown in FIG. 7, the high speed processor 200 includes a central processing unit (CPU: central processing unit) 201, a graphic processor 202, a sound processor 203, DMA (direct memory access) controller 204, a first bus arbitration circuit 205, second bus arbitration circuit 206, an internal memory 207, A / D converter (ADC: analog to digital converter) 208, output control circuit 209, timer circuit 210, DRAM (dynamic random access memory) refresh control circuit 211, an external memory interface circuit 212, a clock driver 213, PLL (phase-locked loop) circuit 214, a low voltage detection circuit 21 、第1バス218、及び、第2バス219、を含む。 Includes first bus 218, and, second bus 219, a.

CPU201は、メモリ(内部メモリ207、又は、ROM51)に格納されたプログラムに従い、各種演算やシステム全体の制御を行う。 CPU201, a memory (internal memory 207, or, ROM 51) in accordance with a program stored in, performs various operations and controls the overall system. CPU201は、第1バス218及び第2バス219のバスマスタであり、それぞれのバスに接続された資源にアクセスが可能である。 CPU201 is a bus master of the first bus 218 and second bus 219, and can access the resources connected to the respective buses.

グラフィックプロセッサ202は、第1バス218及び第2バス219のバスマスタであり、内部メモリ207、又は、ROM51に格納されたデータを基に、映像信号を生成して、映像信号出力端子47へ出力する。 Graphics processor 202 is a bus master of the first bus 218 and second bus 219, an internal memory 207, or on the basis of the data stored in the ROM 51, generates a video signal, and outputs to the video signal output terminal 47 . グラフィックプロセッサ202は、第1バス218を通じて、CPU201により制御される。 Graphics processor 202 through the first bus 218 is controlled by the CPU 201. また、グラフィックプロセッサ202は、CPU201に対して、割込み要求信号220を発生する機能を有する。 Also, the graphic processor 202, to the CPU 201, and has a function of outputting an interrupt request signal 220.

サウンドプロセッサ203は、第1バス218及び第2バス219のバスマスタであり、内部メモリ207、又は、ROM51に格納されたデータを基に、音声信号を生成して、音声信号出力端子49へ出力する。 Sound processor 203 is a bus master of the first bus 218 and second bus 219, an internal memory 207, or on the basis of the data stored in the ROM 51, and generates an audio signal, and outputs the audio signal output terminal 49 . サウンドプロセッサ203は、第1バス218を通じて、CPU201により制御される。 Sound processor 203 through the first bus 218 is controlled by the CPU 201. また、サウンドプロセッサ203は、CPU201に対して、割込み要求信号220を発生する機能を有する。 Also, the sound processor 203, to the CPU 201, and has a function of outputting an interrupt request signal 220.

DMAコントローラ204は、ROM51から、内部メモリ207へのデータ転送を司る。 DMA controller 204, the ROM 51, controls data transfer to the internal memory 207. また、DMAコントローラ204は、データ転送の完了を通知するために、CPU201に対する割込み要求信号220を発生する機能を有する。 Also, DMA controller 204 to notify the completion of the data transfer, has a function of generating an interrupt request signal 220 for the CPU 201. DMAコントローラ204は、第1バス218及び第2バス219のバスマスタである。 DMA controller 204 is a bus master of the first bus 218 and second bus 219. DMAコントローラ204は、第1バス218を通じてCPU201により制御される。 DMA controller 204 is controlled by the CPU201 through the first bus 218.

内部メモリ207は、マスクROM、SRAM(static random access memory)、及び、DRAMのうち、必要なものを備える。 Internal memory 207, a mask ROM, SRAM (static random access memory), and, among the DRAM, comprising the necessary. バッテリによるSRAMのデータ保持が必要とされる場合、バッテリ217が必要となる。 If SRAM data retention is required by the battery, the battery 217 is needed. DRAMが搭載される場合、定期的にリフレッシュと呼ばれる記憶内容保持のための動作が必要とされる。 If the DRAM is mounted, it is required operation for maintain the data contained therein are regularly called refresh.

第1バス調停回路205は、第1バス218の各バスマスタからの第1バス使用要求信号を受け付け、調停を行い、各バスマスタへの第1バス使用許可信号を発行する。 First bus arbiter circuit 205 accepts a first bus use request signal from the bus master of the first bus 218, performs arbitration, and issues a first bus use permission signal to each bus master. 各バスマスタは、第1バス使用許可信号を受領することによって第1バス218に対するアクセスが許可される。 Each bus master, access to the first bus 218 is allowed by receiving the first bus use permission signal. ここで、第1バス使用要求信号及び第1バス使用許可信号は、図7では、第1バス調停信号222として示されている。 Here, the first bus use request signal and the first bus use permission signal, in FIG. 7, is shown as a first bus arbitration signal 222.

第2バス調停回路206は、第2バス219の各バスマスタからの第2バス使用要求信号を受け付け、調停を行い、各バスマスタへの第2バス使用許可信号を発行する。 Second bus arbiter circuit 206 accepts a second bus use request signal from the respective bus masters of the second bus 219, performs arbitration, and issues a second bus use permission signal to each bus master. 各バスマスタは、第2バス使用許可信号を受領することによって第2バス219に対するアクセスが許可される。 Each bus master, access to the second bus 219 is permitted by receiving the second bus use permission signal. ここで、第2バス使用要求信号及び第2バス使用許可信号は、図7では、第2バス調停信号223として示されている。 Here, the second bus use request signal and the second bus grant signal, in FIG. 7, is shown as a second bus arbitration signal 223.

入出力制御回路209は、外部入出力装置や外部の半導体素子との通信等を入出力信号を介して行う。 Output control circuit 209 performs communication, etc. with external input and output device and the outside of the semiconductor device via the input and output signals. 入出力信号は、第1バス218を介して、CPU201からリード/ライトされる。 Input and output signals via a first bus 218, is read / write from CPU 201. また、入出力制御回路209は、CPU201に対して、割込み要求信号220を発生する機能を有する。 Further, input-output control circuit 209, to the CPU 201, and has a function of outputting an interrupt request signal 220.

この入出力制御回路209から、赤外発光ダイオード15を制御するLEDコントロール信号LEDCが出力される。 This output control circuit 209, LED control signal LEDC which controls the infrared light emitting diode 15 is output.

タイマ回路210は、設定された時間間隔に基づき、CPU201に対する割込み要求信号220を発生する機能を有する。 Timer circuit 210 on the basis of the set time interval has a function of outputting an interrupt request signal 220 for the CPU 201. 時間間隔等の設定は、第1バス218を介してCPU201によって行われる。 Settings such as the time interval is performed by the CPU201 through the first bus 218.

ADC208は、アナログ入力信号をデジタル信号に変換する。 ADC208 converts an analog input signal into a digital signal. このデジタル信号は、第1バス218を介してCPU201によってリードされる。 The digital signal is read by the CPU201 through the first bus 218. また、ADC208は、CPU201に対して、割込み要求信号220を発生する機能を有する。 Also, ADC 208, to the CPU 201, and has a function of outputting an interrupt request signal 220.

このADC208が、イメージセンサ43からのピクセルデータ(アナログ)を受けて、デジタルデータに変換する。 This ADC208 is, receives pixel data from the image sensor 43 (analog) is converted into digital data.

PLL回路214は、水晶振動子216より得られる正弦波信号を逓倍した高周波クロック信号を生成する。 PLL circuit 214 generates a high frequency clock signal obtained by multiplying the sine wave signal obtained from the quartz oscillator 216.

クロックドライバ213は、PLL回路214より受け取った高周波クロック信号を、各ブロックへクロック信号225を供給するのに十分な信号強度へ増幅する。 The clock driver 213, a high frequency clock signal received from the PLL circuit 214, amplifies the sufficient signal strength to supply the clock signal 225 to each block.

低電圧検出回路215は、電源電圧Vccを監視し、電源電圧Vccが一定電圧以下のときに、PLL回路214のリセット信号226、その他のシステム全体のリセット信号227を発行する。 Low voltage detection circuit 215 monitors the power supply voltage Vcc, when the power supply voltage Vcc is below a certain voltage, and issues a reset signal 226, and other system wide reset signal 227 of the PLL circuit 214. また、内部メモリ207がSRAMで構成されており、かつ、SRAMのバッテリ217によるデータ保持が要求される場合、電源電圧Vccが一定電圧以下のときに、バッテリバックアップ制御信号224を発行する機能を有する。 Moreover, the internal memory 207 is configured by SRAM, and if the data holding by the battery 217 of the SRAM is requested, when the power supply voltage Vcc is a constant voltage or less has a function of issuing a battery backup control signal 224 .

外部メモリインタフェース回路212は、第2バス219を外部バス53に接続するための機能、及び、第2バス219のサイクル終了信号228を発行することにより、第2バスのバスサイクル長を制御する機能、を有する。 External memory interface circuit 212 has a function of connecting the second bus 219 to the external bus 53, and, by issuing an end-of-cycle signal 228 of the second bus 219, the ability to control the bus cycle length of the second bus It has a.

DRAMリフレッシュ制御回路211は、一定期間毎に第1バス218の使用権を無条件に獲得し、DRAMのリフレッシュ動作を行う。 DRAM refresh control circuit 211, the ownership of the first bus 218 to acquire unconditionally at regular intervals, perform the refresh operation of the DRAM. なお、DRAMリフレッシュ制御回路211は、内部メモリ207がDRAMを含む場合に設けられる。 Incidentally, DRAM refresh control circuit 211, an internal memory 207 is provided in the case of including DRAM.

ここで、図8〜図10を参照して、イメージセンサ43から高速プロセッサ200へピクセルデータを取り込むための構成を詳細に説明する。 Referring now to FIGS. 8 to 10, it will be described in detail configuration for capturing the pixel data to the high speed processor 200 from the image sensor 43.

図8は、図6のイメージセンサ43から高速プロセッサ200へピクセルデータを取り込む構成及びLED駆動回路を示す回路図である。 Figure 8 is a circuit diagram showing a configuration and an LED driving circuit fetches the pixel data to the high speed processor 200 from the image sensor 43 in FIG. 図9は、図6のイメージセンサ43から高速プロセッサ200へピクセルデータを取り込む際の動作を示すタイミング図である。 Figure 9 is a timing chart showing the operation of capturing pixel data to the high speed processor 200 from the image sensor 43 in FIG. 図10は、図9の一部を拡大して示すタイミング図である。 Figure 10 is a timing chart showing an enlarged part of FIG.

図8に示すように、イメージセンサ43は、ピクセルデータD(X,Y)をアナログ信号として出力するタイプのものであるため、このピクセルデータD(X,Y)は高速プロセッサ200のアナログ入力ポートに入力される。 As shown in FIG. 8, the image sensor 43, since the pixel data D (X, Y) and is of the type that outputs an analog signal, the pixel data D (X, Y) is an analog input port of the high speed processor 200 It is input to. アナログ入力ポートは、この高速プロセッサ200においてADC208に接続され、したがって、高速プロセッサ200は、ADC208からデジタルデータに変換されたピクセルデータをその内部に取得する。 Analog input port, in this high speed processor 200 is connected to the ADC 208, therefore, the high speed processor 200 acquires pixel data converted into the digital data from the ADC 208 therein.

上述のアナログピクセルデータD(X,Y)の中点は、イメージセンサ43の基準電圧端子Vrefに与えられる基準電圧によって決定される。 Midpoint of the aforementioned analog pixel data D (X, Y) is determined by the reference voltage applied to the reference voltage terminal Vref of the image sensor 43. そのため、イメージセンサ43に関連して例えば抵抗分圧回路からなる基準電圧発生回路59が設けられ、この回路59から基準電圧端子Vrefに常に一定の大きさの基準電圧が与えられる。 Therefore, the reference voltage generating circuit 59 consisting in relation to the image sensor 43, for example, a resistor voltage dividing circuit is provided, always given the reference voltage of constant magnitude to the reference voltage terminal Vref from the circuit 59.

イメージセンサ43を制御するための各デジタル信号は、高速プロセッサ200のI/Oポートに与えられ、またはそこから出力される。 Each digital signal to control the image sensor 43 is provided to I / O ports of the high speed processor 200, or outputted therefrom. このI/Oポートは各々入力/出力の制御が可能なデジタルポートであり、この高速プロセッサ200で入出力制御回路209に接続されている。 The I / O ports are each digital port capable of controlling input / output, and is connected to the output control circuit 209 in this high speed processor 200.

詳しく言うと、高速プロセッサ200の出力ポートからはイメージセンサ43をリセットするためのリセット信号resetが出力され、イメージセンサ43に与えられる。 More precisely, from the output port of the high speed processor 200 is output reset signal reset for resetting the image sensor 43 is supplied to the image sensor 43. また、イメージセンサ43からは、ピクセルデータストローブ信号PDSおよびフレームステータスフラグ信号FSFが出力され、それらの信号が高速プロセッサ200の入力ポートに与えられる。 Further, from the image sensor 43, the pixel data strobe signal PDS and a frame status flag signal FSF is outputted, these signals are supplied to the input port of the high speed processor 200.

ピクセルデータストローブ信号PDSは上述の各ピクセル信号D(X,Y)を読み込むための図9(b)に示すようなストローブ信号である。 Pixel data strobe signal PDS is a strobe signal as shown in FIG. 9 (b) to read each pixel signal D described above (X, Y). フレームステータスフラグ信号FSFはイメージセンサ43の状態を示すフラグ信号で、図9(a)に示すように、このイメージセンサ43の露光期間を規定する。 Frame status flag signal FSF is a flag signal indicating the state of the image sensor 43, as shown in FIG. 9 (a), defines an exposure period of the image sensor 43. つまり、フレームステータスフラグ信号FSFの図9(a)に示すローレベルが露光期間を示し、図9(a)に示すハイレベルが非露光期間を示す。 That is, the low level shown in FIG. 9 (a) of the frame status flag signal FSF indicates exposure period, the high level shown in FIG. 9 (a) shows a non-exposure period.

また、高速プロセッサ200は、イメージセンサ43の制御レジスタ(図示せず)に設定するコマンド(またはコマンド+データ)をレジスタデータとしてI/Oポートから出力するとともに、たとえばハイレベルおよびローレベルを繰り返すレジスタ設定クロックCLKを出力し、それらをイメージセンサ43に与える。 Further, the high speed processor 200 repeats outputs a command to set the control register of the image sensor 43 (not shown) (or command + data) from the I / O ports as the register data, for example, a high level and a low level register outputs setting clock CLK, giving them to the image sensor 43.

なお、赤外発光ダイオード15として、図8に示すように互いに並列接続された4つの赤外発光ダイオード15a,15b,15cおよび15dを用いる。 Incidentally, used as the infrared light emitting diodes 15, four infrared light emitting diodes 15a connected in parallel to each other as shown in FIG. 8, 15b, and 15c and 15d. この4つの赤外発光ダイオード15a〜15dは、上で説明したように、操作物150を照らすように、イメージセンサ43の視点方向と同一方向に赤外光を照射するようにかつイメージセンサ43を囲むように配置される。 The four infrared light emitting diodes 15a~15d, as described above, so as to illuminate the operation article 150, in the viewing direction in the same direction of the image sensor 43 and image sensor 43 so as to irradiate the infrared light It is arranged to surround. ただし、これら個別の赤外発光ダイオード15a〜15dは、特に区別する必要がある場合を除いて、単に赤外発光ダイオード15と呼ばれる。 However, these separate IRED 15a~15d, especially except when it is necessary to distinguish, simply referred to as infrared light emitting diodes 15.

この赤外発光ダイオード15はLED駆動回路75によって、点灯されまたは消灯(非点灯)される。 The infrared light emitting diode 15 by the LED driving circuit 75, is lighted or extinguished (non-lighting). LED駆動回路75は、イメージセンサ43から上述のフレームステータスフラグ信号FSFを受け、このフラグ信号FSFは、抵抗69およびコンデンサ71からなる微分回路67を通してPNPトランジスタ77のベースに与えられる。 LED drive circuit 75, from the image sensor 43 receives the frame status flag signal FSF described above, the flag signal FSF is supplied to the base of PNP transistor 77 through a differentiation circuit 67 comprising a resistor 69 and a capacitor 71. このPNPトランジスタ77にはさらにプルアップ抵抗79が接続されていて、このPNPトランジスタ77のベースは、通常は、ハイレベルにプルアップされている。 Is is further connected a pull-up resistor 79 to the PNP transistor 77, the base of the PNP transistor 77 is normally is pulled up to a high level. そして、フレームステータス信号FSFがローレベルになると、そのローレベルが微分回路67を経てベースに入力されるため、PNPトランジスタ77は、フラグ信号FSFがローレベル期間にのみオンする。 The frame status signal FSF is becomes a low level, since the low level is input to the base through a differentiating circuit 67, PNP transistor 77, the flag signal FSF is turned only to the low level period.

PNPトランジスタ77のエミッタは抵抗73および65を介して接地される。 The emitter of the PNP transistor 77 is grounded through a resistor 73 and 65. そして、エミッタ抵抗73および65の接続点がNPNトランジスタ81のベースに接続される。 The connection point of the emitter resistors 73 and 65 are connected to the base of NPN transistor 81. このNPNトランジスタ81のコレクタが各赤外発光ダイオード15a〜15dのアノードに共通に接続される。 The collector of the NPN transistor 81 is commonly connected to the anode of the infrared light emitting diodes 15 a to 15 d. NPNトランジスタ81のエミッタが別のNPNトランジスタ61のベースに直接接続される。 The emitter of the NPN transistor 81 is connected directly to the base of another NPN transistor 61. NPNトランジスタ61のコレクタが各赤外発光ダイオード15a〜15dのカソードに共通接続され、エミッタが接地される。 The collector of the NPN transistor 61 are commonly connected to the cathodes of the infrared light emitting diodes 15 a to 15 d, the emitter is grounded.

このLED駆動回路75では、高速プロセッサ200のI/Oポートから出力されるLEDコントロール信号LEDCがアクティブ(ハイレベル)でありかつイメージセンサ43からのフレームステータスフラグ信号FSFがローレベルである期間にのみ赤外発光ダイオード15が点灯される。 In the LED driving circuit 75, only during a period frame status flag signal FSF is at a low level from the LED control signal LEDC is active (high level) and the image sensor 43 which is output from the I / O ports of the high speed processor 200 infrared light emitting diode 15 is turned on.

図9(a)に示すようにフレームステータスフラグ信号FSFがローレベルになると、そのローレベル期間中(実際には微分回路67の時定数での遅れがあるが)、PNPトランジスタ77がオンする。 If the frame status flag signal FSF as shown in FIG. 9 (a) is at a low level, the during the low level period (actually there is a delay of a time constant of the differentiating circuit 67 but), PNP transistor 77 is turned on. したがって、図9(d)に示すLEDコントロール信号LEDCが高速プロセッサ200からハイレベルで出力されると、NPNトランジスタ81のベースがハイベルとなり、このトランジスタ81がオンとなる。 Therefore, when the LED control signal LEDC shown in FIG. 9 (d) is output at a high level from the high speed processor 200, the base of the NPN transistor 81 becomes Haiberu, the transistor 81 is turned on. トランジスタ81がオンするとトランジスタ61はオンとなる。 When the transistor 81 is turned on the transistor 61 is turned on. したがって、電源(図8では小さい白丸で示す)から各赤外発光ダイオード15a〜15dおよびトランジスタ61を経て電流が流れ、応じて図9(e)に示すように各赤外発光ダイオード15a〜15dが点灯される。 Therefore, the power supply (FIG. 8 shows the small white circle) current flows through each infrared light emitting diode 15a~15d and the transistor 61 from depending on the respective infrared light emitting diodes 15a~15d as shown in FIG. 9 (e) It is turned on.

LED駆動回路75では、このように、図9(d)のLEDコントロール信号LEDCがアクティブでありかつ図9(a)のフレームステータスフラグ信号FSFがローレベルである期間にのみ赤外発光ダイオード15が点灯されるので、イメージセンサ43の露光期間(図9(f)参照)にのみ赤外発光ダイオード15が点灯されることになる。 The LED driving circuit 75, thus, infrared light emitting diodes 15 only LED control signal LEDC is active and period frame status flag signal FSF is at a low level shown in FIG. 9 (a) shown in FIG. 9 (d) since the lighting, so that the infrared light emitting diodes 15 only the exposure period of the image sensor 43 (see FIG. 9 (f)) is turned on.

したがって、無駄な電力消費を抑制することができる。 Therefore, it is possible to suppress the wasteful power consumption. さらに、フレームステータスフラグ信号FSFはコンデンサ71によってカップリングされているので、万一イメージセンサ43の暴走等によりそのフラグ信号FSFがローレベルのまま停止した場合でも、一定時間後にはトランジスタ77は必ずオフされ、赤外発光ダイオード15も一定時間後には必ずオフされる。 Further, since the frame status flag signal FSF is coupled by the capacitor 71, even if the event that the flag signal FSF by runaway of the image sensor 43 is stopped remains low, transistor 77 is always turned off after a certain time is, infrared light emitting diode 15 is also always turned off after a certain time.

このように、フレームステータス信号FSFの持続期間を変更することによって、イメージセンサ43の露光時間を任意にかつ自在に設定または変更することができる。 Thus, by changing the duration of the frame status signal FSF, the exposure time of the image sensor 43 can be arbitrarily and freely set or changed.

さらに、フレームステータス信号FSFおよびLEDコントロール信号LEDCの持続時間や周期を変更することによって、赤外発光ダイオード15すなわちストロボスコープの発光期間、非発光期間、発光/非発光周期などを任意にかつ自在に変更または設定できる。 Further, by changing the duration or period of the frame status signal FSF and the LED control signal LEDC, infrared light emitting diodes 15 i.e. emission period of the stroboscope, the non-emission period, etc. to arbitrarily and freely emission / non-emission periods It can be changed or set.

先に説明したように、赤外発光ダイオード15からの赤外光によって操作物150が照射されると、操作物150からの反射光によってイメージセンサ43が露光される。 As described above, when the operation was 150 by infrared light from the infrared light emitting diode 15 is irradiated, the image sensor 43 is exposed by the light reflected from the operation article 150. 応じて、イメージセンサ43から上述のピクセルデータD(X,Y)が出力される。 In response, pixel data D described above from the image sensor 43 (X, Y) is output. 詳しく説明すると、イメージセンサ43は、上述の図9(a)のフレームステータスフラグ信号FSFがハイレベルの期間(赤外発光ダイオード15の非点灯期間)に図9(b)に示すピクセルデータストローブPDSに同期して、図9(c)に示すようにアナログのピクセルデータD(X,Y)を出力する。 In detail, the image sensor 43, a frame status flag signal FSF is the pixel data strobe PDS shown in FIG. 9 (b) (non-lighting period of the infrared light emitting diode 15) high-level period of the above-mentioned FIG. 9 (a) in synchronism with, and outputs the analog pixel data D (X, Y) as shown in FIG. 9 (c).

高速プロセッサ200では、そのフレームステータスフラグ信号FSFとピクセルデータストローブPDSとを監視しながら、ADC208を通じて、デジタルのピクセルデータを取得する。 In high speed processor 200, while monitoring the frame status flag signal FSF and the pixel data strobe PDS, through ADC 208, and acquires the digital pixel data.

ただし、ピクセルデータは、図10(c)に示すように、第0行,第1行,…第31行と行順次に出力される。 However, the pixel data, as shown in FIG. 10 (c), the 0th row, the first row is output ... and sequentially line 31 line. ただし、後に説明するように、各行の先頭の1ピクセルはダミーデータとなる。 However, as will be described later, one pixel of the beginning of each line is the dummy data.

次に、ゲーム装置1によるゲーム内容について、具体例を挙げながら説明する。 Next, the game content by the game apparatus 1 will be described with a specific example.

図11は、図1のテレビジョンモニタ90のスクリーン91に表示される第1ステージのゲーム画面の例示図である。 Figure 11 is an illustration of a game screen of the first stage to be displayed on the screen 91 of the television monitor 90 of FIG. 図11に示すように、このゲーム画面は、背景120、カーソル111、追従オブジェクト112、障害オブジェクト104〜106、体力ゲージ131、及び、マスク101,102を含む。 As shown in FIG. 11, the game screen, the background 120, cursor 111, tracking object 112, obstacle objects 104 to 106, the power gauge 131 and includes a mask 101, 102. 背景120は、障害画像113〜115を含む。 Background 120 includes a fault picture 113-115. 体力ゲージ131は、バー103を含む。 Physical strength gauge 131 includes a bar 103. ここで、追従オブジェクト112は、人魚を模した図形であるため、以下、単に「人魚112」と呼ぶ。 Here, the follow-up object 112 are the figure imitating a mermaid, hereinafter simply referred to as "mermaid 112". また、障害オブジェクト104〜106及び後述の障害オブジェクトを包括して表現する場合は、障害オブジェクトPと呼ぶことがある。 Also, when expressing a comprehensive fault objects 104 to 106 and below the obstacle object may be referred to as a failure object P. 障害画像113〜115及び後述の障害画像を包括して表現するときは、障害画像Qと呼ぶことがある。 When expressed in a comprehensive fault images 113-115 and later failure image may be referred to as a fault image Q.

体力ゲージ131は、人魚112の体力を表現する。 Physical strength gauge 131, to represent the physical strength of the mermaid 112. ゲーム開始時では、このバー103は最長であり、十分な体力がある。 At the time of the start of the game, the bar 103 is the longest, there is sufficient physical strength. そして、時間の経過とともに、このバー103は短くなっていき(体力が少なくなっていき)、バー103の長さが「0」になったとき(体力がなくなったとき)にゲームオーバーとなる。 Then, with the passage of time, the bar 103 (will become less physical strength) will become shorter, and the game is over when the length of the bar 103 becomes "0" (when the physical strength is no longer). なお、バー103は、原則として、最長時から消滅時まで、一定速度で短くなる。 It should be noted that the bar 103 is, as a general rule, until the time of disappearance from the time of the longest, shorter at a constant speed. つまり、人魚112の体力は、原則として、一定速度で減少する。 That is, the physical strength of the mermaid 112, in principle, be reduced at a constant rate.

背景120は、スクリーン91に向かって、左方向にスクロールされる。 Background 120, toward the screen 91 is scrolled to the left. 当然、背景120の一部である障害画像113〜115も、左方向にスクロールされる。 Of course, failure image 113-115 is a part of the background 120 is also scrolled to the left. 一方、障害オブジェクト104〜105の各々は、単数又は複数のスプライトにより構成され、スクリーン91の右側(マスク102側)から出現し、左方向に移動して、スクリーン91の左側(マスク101側)に消えていく。 On the other hand, each of the obstacle objects 104 to 105 is constituted by one or more sprites, emerged from the right side of the screen 91 (the mask 102 side) moves to the left, the left side of the screen 91 (the mask 101 side) disappear. スプライトについては後述する。 For sprite will be described later.

カーソル111は、操作物150のスクリーン91上での位置を表しており、操作物150の動きに連動してスクリーン91上を移動する。 The cursor 111 represents the position on the screen 91 of the operation article 150, in conjunction with the movement of the operation article 150 moves on the screen 91. 従って、プレイヤ94から見れば、操作物150の操作とカーソル111の操作とは同義である。 Therefore, when viewed from the player 94, the operation of the operation and cursor 111 of the operation article 150 is synonymous. 人魚112は、カーソル111の動き(間接的には操作物150の動き)に追従する。 Mermaid 112 follows the movement of the cursor 111 (the movement of the indirect operation article 150). プレイヤ94は、操作物150により人魚112を操作して、障害オブジェクト104〜106及び障害画像113〜115を回避しながら、体力が残っている間に(バー103の長さが「0」になる前に)ゴールに到達しなければならない。 Player 94 operates the mermaid 112 by the operation article 150, while avoiding the obstacle objects 104 to 106 and fault images 113-115, while remaining physical strength (the length of the bar 103 becomes "0" It must be before to) reach the goal.

なお、人魚112が、障害オブジェクト104〜106あるいは障害画像113〜115に衝突すると、体力ゲージ131のバー103が、上記の一定速度に関係なく、所定長だけ短くなり、体力が急激に減少する。 Incidentally, mermaid 112 and impinges on the obstacle objects 104 to 106 or disorders image 113-115, the bar 103 of the power gauge 131, regardless of the constant speed of the, shorter by a predetermined length, strength sharply decreases. 人魚112が、障害オブジェクト104〜106あるいは障害画像113〜115に衝突した後一定時間だけ、その後の衝突によっては、人魚104の体力を急激に減少させる処理を行わないようにすることもできる。 Mermaid 112, for a certain time after impacting the obstacle objects 104 to 106 or disorders image 113-115, depending subsequent collision, it is also possible not to perform the processing of reducing drastically the strength of the mermaid 104.

図12は、図1のテレビジョンモニタ90のスクリーン91に表示される第1ステージのゲーム画面の他の例示図である。 Figure 12 is a view showing another example of the game screen of the first stage to be displayed on the screen 91 of the television monitor 90 of FIG. 図12に示すように、このゲーム画面は、背景120、カーソル111、人魚112、障害オブジェクト107〜109、体力ゲージ131、アイテム110、及び、マスク101,102を含む。 As shown in FIG. 12, the game screen, the background 120, the cursor 111, the mermaid 112, obstacle objects 107 to 109, the power gauge 131, item 110 and includes a mask 101, 102. 背景120は、障害画像116,117含む。 Background 120 includes fault images 116 and 117.

プレイヤ94が操作物150を操作して、人魚112を、アイテム110が表示されている所定領域に移動させると、体力ゲージ131のバー103が所定長だけ長くなる。 The player 94 operates the operation article 150, the mermaid 112, is moved to a predetermined area item 110 is displayed, the bar 103 of the power gauge 131 becomes longer by a predetermined length. つまり、この場合、人魚112の体力が増加して、プレイヤ94に有利となる。 That is, in this case, physical strength of the mermaid 112 is increased, which is advantageous to the player 94. なお、障害オブジェクト107〜109及び障害画像116,117は、それぞれ、障害オブジェクト104〜106及び障害画像113〜115と同様のものである。 Incidentally, obstacle objects 107 to 109 and fault images 116 and 117, respectively, is similar to the obstacle objects 104 to 106 and fault images 113-115.

図13は、図1のテレビジョンモニタ90のスクリーン91に表示される第2ステージのゲーム画面の例示図である。 Figure 13 is an illustration of a game screen of the second stage to be displayed on the screen 91 of the television monitor 90 of FIG. 図13に示すように、このゲーム画面は、背景120、カーソル111、人魚112、障害オブジェクト121〜125、体力ゲージ131、及び、アイテム126を含む。 As shown in FIG. 13, the game screen, the background 120, the cursor 111, the mermaid 112, obstacle objects 121 to 125, the power gauge 131 and comprises an item 126.

障害オブジェクト121〜125の各々及びアイテム126は、単数又は複数のスプライトにより構成され、スクリーン91の上側に出現し、下降して、スクリーン91の下側に消えていく。 Each and item 126 of obstacle objects 121 to 125 is constituted by one or more sprites, appeared on the upper side of the screen 91, descends, it disappears below the screen 91. なお、第2ステージでは、背景120のスクロールはない。 In the second stage, there is no scroll of the background 120.

プレイヤ94は、操作物150により人魚112を操作して、障害オブジェクト121〜125を回避なければならない。 Player 94 operates the mermaid 112 by the operation article 150, must avoid the obstacle object 121 to 125. 人魚112が、障害オブジェクト121〜125に衝突すると、体力ゲージ131のバー103が所定長だけ短くなる。 Mermaid 112 and impinges on the obstacle objects 121 to 125, bar 103 of the power gauge 131 becomes shorter by a predetermined length. つまり、人魚112の体力が減少する。 In other words, the physical strength of the mermaid 112 is reduced. アイテム126は、図12のアイテム110と同様のものである。 Item 126 is similar to item 110 of Figure 12.

ここで、障害オブジェクト104〜109の各々及び人魚112は、アニメーションの、あるコマの画像である。 Here, each and mermaid 112 of the obstacle object 104 to 109 are animation, an image of a certain frame. 従って、人魚112のアニメーションのために、一連の人魚112の画像が用意されている。 Thus, for animated mermaid 112, images of the series of the mermaid 112 are prepared. また、障害オブジェクト104〜109の各々のアニメーションのために、障害オブジェクト104〜109ごとに、一連の障害オブジェクト104〜109の画像が用意されている。 Also, for each animation obstacle object 104 to 109, for each obstacle object 104 to 109, images of a range of disorders objects 104-109 are prepared.

上記したように、人魚112、障害オブジェクト104〜109,121〜125の各々、アイテム110,126の各々、及び、体力ゲージ131、は単数あるいは複数のスプライトからなる。 As described above, each of the mermaid 112, each of the obstacle objects 104~109,121~125, items 110, 126, and, the power gauge 131, consists of a single or a plurality of sprites. スプライトは、矩形の画素集合であり、スクリーン91の任意の位置に配置できる。 Sprite is a rectangular set of pixels, it can be placed at any position of the screen 91. なお、人魚112、障害オブジェクト104〜109,121〜125の各々、アイテム110,126の各々、及び、体力ゲージ131、を総称してオブジェクト(あるいはオブジェクト画像)と呼ぶこともある。 Incidentally, the mermaid 112 is each obstacle object 104~109,121~125, each item 110, 126, and, the power gauge 131, sometimes collectively referred to an object (or object image).

図14は、スクリーン91に表示されるオブジェクトを構成するスプライトの説明図である。 Figure 14 is an explanatory diagram of a sprite that constitutes the object displayed on the screen 91. 図14に示すように、図11の人魚112は、例えば、6個のスプライトSP0〜SP5により構成される。 As shown in FIG. 14, the mermaid 112 in FIG. 11, for example, a six sprite SP0~SP5. スプライトSP0〜SP5の各々は、例えば、16画素×16画素からなる。 Each sprite SP0~SP5, for example, of 16 pixels × 16 pixels. 人魚112をスクリーン91上に配置するときは、例えば、左上の角のスプライトSP0の中心を、スクリーン91上のどの座標に配置するかが指定される。 When placing the mermaid 112 on the screen 91, for example, the center of the sprite SP0 the upper left corner, or placed in any coordinate on the screen 91 is designated. そして、指定された座標及びスプライトSP0〜SP5のサイズをもとに、各スプライトSP1〜SP5の中心を配置する座標が算出される。 Then, based on the size of the specified coordinates and sprite SP0~SP5, coordinates to place the center of the sprite SP1~SP5 is calculated.

次に、背景120のスクロールについて説明する。 Next, a description will be given scrolling background 120. まず、バックグラウンドスクリーンについて説明する。 First, a description will be given of the background screen.

図15は、図1のテレビジョンモニタ90のスクリーン91に表示されるバックグラウンドスクリーンの説明図である。 Figure 15 is an illustration of a background screen to be displayed on the screen 91 of the television monitor 90 of FIG. 図15に示すように、バックグラウンドスクリーン140は、例えば、32個×32個のブロック「0」〜ブロック「1023」により構成される。 As shown in FIG. 15, the background screen 140, for example, a 32 × 32 blocks "0" to block "1023". ブロック「0」〜ブロック「1023」の各々は、例えば、8画素×8画素からなる矩形要素である。 Each of the block "0" to block "1023" is, for example, a rectangular element consisting of 8 pixels × 8 pixels. ブロック「0」〜ブロック「1023」に対応して、配列PA[0]〜PA[1023]及び配列CA[0]〜CA[1023]が用意される。 Corresponding to the block "0" to block "1023", the sequence PA [0] ~PA [1023] and SEQ CA [0] ~CA [1023] is prepared. ここで、ブロック「0」〜ブロック「1023」を包括して表現するときは、単に「ブロック」と表記し、配列PA[0]〜PA[1023]を包括して表現するときは、「配列PA」と表記し、配列CA[0]〜CA[1023]を包括して表現するときは、「配列CA」と表記する。 Here, when representing a comprehensive block "0" to block "1023" it is simply referred to as "blocks", sequence PA [0] ~PA [1023] When expressed by encompassing the "sequence is denoted as PA ", array CA [0] ~CA [1023] when expressing a comprehensive and is referred to as" array CA ".

配列PAには、対応するブロックの画素パターンを指定するデータ(画素パターンデータ)の格納位置情報が代入される。 The array PA, storage location information of data for designating a pixel pattern of the corresponding block (pixel pattern data) is assigned. 画素パターンデータは、ブロックを構成する8画素×8画素の各画素の色情報からなる。 Pixel pattern data consists of color information of each pixel of 8 pixels × 8 pixels constituting the block. また、配列CAには、対応するブロックに使用するカラーパレットを指定する情報(カラーパレット情報)及びデプス値が代入される。 Further, the array CA, corresponding information for specifying a color palette to be used in the block (the color palette information) and the depth value is substituted. カラーパレットは、所定数の色情報からなる。 Color palette consists of color information of a predetermined number. デプス値は、画素の奥行きを表す情報であり、同じ位置に、複数の画素が存在することとなる場合、最も大きなデプス値を持つ画素だけが表示されることになる。 Depth value is information indicating the depth of pixels in the same position, if the a plurality of pixels exist, only the pixel having the largest depth value is displayed.

図16(a)は、バックグラウンドスクリーン140をスクロールする前の説明図、図16(b)は、バックグラウンドスクリーン140をスクロールした後の説明図、である。 16 (a) is explanatory view before scrolling the background screen 140, FIG. 16 (b) are explanatory views, after scrolling the background screen 140. 図16(a)に示すように、テレビジョンモニタ90のスクリーン91のサイズは、224画素×256画素であるため、バックグラウンドスクリーン140のうち、224画素×256画素の範囲がスクリーン91に表示される。 As shown in FIG. 16 (a), the size of the screen 91 of the television monitor 90, for a 224 pixels × 256 pixels, of the background screen 140, 224 pixels × 256 pixel range is displayed on the screen 91 that. ここで、バックグラウンドスクリーン140の中心位置をk画素だけ左にスクロールすることを考える。 Here, considering that scroll left the center position of the background screen 140 by k pixels. そうすると、バックグラウンドスクリーン140の横方向(水平方向)の幅が、スクリーン91の横方向の幅と同じであるため、図16(b)に示すように、スクリーン91の範囲外となった部分(斜線部分)が、スクリーン91の右端に表示される。 Then, the width of the background screen 140 lateral (horizontal direction), is the same as the lateral width of the screen 91, as shown in FIG. 16 (b), a portion out of range of the screen 91 ( shaded area) is displayed at the right end of the screen 91. つまり、概念的には、横方向にスクロールをする場合は、同じ複数のバックグラウンドスクリーン140が横方向に連なっていると考えることができる。 That is, conceptually, when the scroll horizontally, the same plurality of background screen 140 can be considered to be continuous in the lateral direction.

例えば、スクリーン91の範囲外となった部分(斜線部分)が、図15のブロック「64」,ブロック「96」,…,ブロック「896」,ブロック「928」とすると、これらのブロックに対応する配列PA[64],PA「96」,…,PA「896」,PA[928]及び配列CA[64],CA「96」,…,CA「896」,CA[928]によって定まる画像が、スクリーン91の右端に表示される。 For example, out of range and became part of the screen 91 (hatched portion), the block of FIG. 15, "64", block "96", ..., if the block "896", the block "928", corresponding to these blocks SEQ PA [64], PA "96", ..., PA "896", PA [928] and SEQ CA [64], CA "96", ..., CA "896", an image determined by the CA [928], It is displayed at the right end of the screen 91. 従って、バックグラウンドスクリーン140の左スクロールにより、背景が連続的に連なるようにするには、スクリーン91の範囲外となった部分(斜線部分)に含まれるブロックに対応する配列PA及び配列CAに代入されたデータを更新する必要がある。 Therefore, the left scroll background screen 140, to ensure that the background is connected to continuously, in sequence PA and SEQ CA corresponding to blocks included in range and become part of the screen 91 (hatched portion) substituting there is a need to update the data. そうすれば、更新された配列PA及び配列CAによって定まる画像が、スクリーン91の右端に表示される。 That way, the image defined by the updated array PA and sequence CA is displayed on the right edge of the screen 91.

背景を滑らかに連続するように見せるためには、スクリーン91の右端に表示される前に、該当する配列PA及び配列CAのデータを更新する必要がある。 To show as smoothly continuous background, before being displayed at the right end of the screen 91, it is necessary to update the data of the corresponding array PA and sequence CA. そうすると、スクリーン91の左端に表示中のときに、該当する配列PA及び配列CAのデータを更新する必要が生じ、スクリーン91の左端の表示が不連続なものとなる。 Then, when being displayed at the left edge of the screen 91, it is necessary to update the data of the corresponding array PA and sequence CA, the display of the left edge of the screen 91 becomes discontinuous. 従って、このような不都合を回避するため、図11及び図12に示すように、スクリーン91の左端にマスク101をする。 Therefore, to avoid such inconvenience, as shown in FIGS. 11 and 12, the mask 101 to the left end of the screen 91. なお、本実施形態では、右方向へのスクロールは行わないが、バランスをとるため、右端にもマスク102をしている。 In the present embodiment, it does not perform scroll to the right, to balance, and the mask 102 to the right end.

以上のようにして、バックグラウンドスクリーン140をスクロールさせることで、背景120をスクロールさせる。 As described above, by scrolling the background screen 140 scrolls the background 120.

図17は、図6のROM51に格納されたプログラム及びデータを示す概念図である。 Figure 17 is a conceptual diagram showing a program and data stored in the ROM51 in FIG. 図17に示すように、ROM51には、ゲームプログラム300、画像データ301、及び、楽音データ304、が格納される。 As shown in FIG. 17, the ROM 51, a game program 300, the image data 301 and, tone data 304, it is stored. 画像データ301は、オブジェクト画像データ302(人魚112、障害オブジェクト104〜109,121〜125、アイテム110,126、及び、体力ゲージ131、等の画像データを含む。)及び背景画像データ303を含む。 Image data 301 includes an object image data 302 (mermaid 112, the obstacle objects 104~109,121~125, items 110, 126, and, the power gauge 131, including the image data and the like.) And the background image data 303. 楽音データ304は、楽譜データ305、及び、波形データ(音源データ)306、を含む。 Tone data 304 includes musical score data 305 and the waveform data (sound data) 306, a. 高速プロセッサ200は、ROM51に格納されたゲームプログラム300を実行し、画像データ301及び楽音データ304を利用する。 The high speed processor 200 executes the game program 300 stored in the ROM 51, using the image data 301 and the music data 304.

高速プロセッサ200が実行する主な処理について説明する。 The high speed processor 200 is the main processing will be described to be executed.

[ピクセルデータ群取得処理]CPU201は、イメージセンサ43が出力したアナログのピクセルデータを変換したデジタルのピクセルデータを取得して、配列P[X][Y]に代入する。 Pixel data group acquiring processing] CPU 201 obtains the digital pixel data obtained by converting the analog pixel data that the image sensor 43 is output, and assigned to the array P [X] [Y]. なお、イメージセンサ43の水平方向(横方向、行方向)をX軸、垂直方向(縦方向、列方向)をY軸とする。 Incidentally, the horizontal direction (lateral direction, the row direction) of the image sensor 43 X axis, the vertical direction (vertical direction, the column direction) and the Y-axis.

[差分データ算出処理]CPU201は、赤外発光ダイオード15の点灯時のピクセルデータP[X][Y]と、消灯時のピクセルデータP[X][Y]と、の差分を算出して、差分データを配列Dif[X][Y]に代入する。 Differential data calculation processing] CPU 201 includes a lighting time of the pixel data P of infrared light emitting diodes 15 [X] [Y], and calculate the off time of the pixel data P [X] [Y], the difference, is substituted into the differential data array Dif [X] [Y]. ここで、図面を用いて、差分を求める効果を説明する。 Here, with reference to the accompanying drawings, illustrating the effect of obtaining a difference. ここで、ピクセルデータは輝度を表す。 Here, the pixel data represents luminance. よって、差分データも輝度を表す。 Therefore, even representing the luminance difference data.

図18(a)は、一般的なイメージセンサにより撮影された、特別な処理を施さない画像の例示図、図18(b)は、図18(a)の画像信号を或る閾値でレベル弁別したときの画像信号の例示図、図18(c)は、赤外フィルタ17を介したイメージセンサ43の点灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図、図18(d)は、赤外フィルタ17を介したイメージセンサ43の消灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図、図18(e)は、点灯時の画像信号と消灯時の画像信号との差分信号の例示図、である。 18 (a) is taken by a general image sensor, exemplary diagram of an image not subjected to special treatment, FIG. 18 (b), the level discriminating an image signal shown in FIG. 18 (a) at a certain threshold illustration of image signals when the, FIG. 18 (c) illustration of the image signal when the level discriminating an image signal at the time of lighting of the image sensor 43 through the infrared filter 17 in certain threshold value, FIG. 18 (d) are exemplary diagram of an image signal when the level discriminating an image signal at the time of turning off of the image sensor 43 through the infrared filter 17 in certain threshold value, FIG. 18 (e), the image signal at the time of lighting and illustration of the difference signal between the image signal at the time of off is.

上記のように、操作物150に赤外光を照射し、赤外フィルタ17を介してイメージセンサ43に入射した反射赤外光による画像を撮影している。 As described above, by irradiating infrared light to the operation article 150, and captures an image by the reflected infrared light incident on the image sensor 43 through the infrared filter 17. 一般的な室内環境で一般的な光源を用いて操作物150をストロボスコープ撮影した場合には、一般的なイメージセンサ(図5のイメージセンサ43に相当する。)には、図18(a)に示すように、操作物150による画像以外に、蛍光灯光源、白熱灯光源、太陽光(窓)のような光源だけでなく、室内のすべてのものの画像がすべて写り込む。 When the operation article 150 using a common light source and a stroboscope photography in general indoor environment, the general image sensor (corresponding to the image sensor 43 in FIG. 5.) FIG. 18 (a) as shown in, in addition to the image by the operation article 150, fluorescent light source, incandescent light source, not only a light source such as sunlight (window), everything image chamber bleeds through all. したがって、この図18(a)の画像を処理して操作物150の画像のみを抽出するのは、かなり高速のコンピュータまたはプロセサが必要である。 Therefore, to extract only the image of the to operation article 150 processes the image of FIG. 18 (a), requires significant high-speed computer or processor. しかしながら、安価が条件の装置ではそのような高性能コンピュータを使えない。 However, in the apparatus of inexpensive conditions you can not use such a high-performance computer. そこで種々の処理を行って負担を軽減することが考えられる。 Therefore, it is conceivable to reduce the burden by performing a variety of processing.

なお、図18(a)の画像は、本来ならば、白黒の階調により表される画像であるが、その図示を省略している。 Note that the image in FIG. 18 (a), if originally is a image represented by the gradation of black and white, is not shown. また、図18(a)〜図18(e)では、操作物150の反射シート155が撮影されている。 Further, in FIG. 18 (a) ~ FIG 18 (e), the reflection sheet 155 of the operation article 150 is captured.

図18(b)は、図18(a)の画像信号を或る閾値でレベル弁別したときの画像信号である。 18 (b) is an image signal when the level discriminating an image signal shown in FIG. 18 (a) in certain threshold value. このようなレベル弁別処理は専用のハードウェア回路でも、ソフトウェア的にでも、実行することができるが、いずれの方法によっても、一定以下の光量のピクセルデータをカットするレベル弁別を実行すると、操作物150や光源以外の低輝度画像を除去することができる。 In hardware circuit such level discrimination process only, even software manner, can be performed, by any of the methods, running level discrimination to cut the pixel data of the predetermined value or less amount of light, the operation article it is possible to remove low luminance images other than 150 and a light source. この図18(b)の画像では操作物150および室内の光源以外の画像の処理を省略でき、したがって、コンピュータの負担を軽減できるが、それでも、光源画像を含む高輝度画像が依然として写り込んでいるので、操作物150と他の光源を分別することは難しい。 In the image of FIG. 18 (b) can be omitted processing of the operation article 150 and the indoor light sources other than the image, therefore, it can reduce the burden on the computer, still, high luminance image including the light source images are crowded still-through because, it is difficult to separate the other light sources and the operation article 150.

そこで、図5に示したように赤外フィルタ17を利用して、イメージセンサ43に赤外光による画像以外の画像が写らないようにした。 Therefore, by using the infrared filter 17, as shown in FIG. 5, and so is not reflected image other than the image by infrared light to the image sensor 43. それによって、図18(c)に示すように、赤外光を殆ど含まない蛍光灯光源の画像は除去できる。 Thereby, as shown in FIG. 18 (c), the image of the fluorescent light source containing little infrared light can be removed. しかしながら、それでもなお太陽光や白熱灯が画像信号中に含まれてしまう。 However, still sunlight or incandescent lamps will be included in the image signal. したがって、更なる負担軽減のために、赤外ストロボスコープの点灯時のピクセルデータと消灯時のピクセルデータとの差分を計算することとした。 Therefore, for further burden, it was decided to calculate the difference between the lit pixel data of the infrared stroboscope and off when the pixel data.

そのため、図18(c)の点灯時の画像信号のピクセルデータと、図18(d)の消灯時の画像信号のピクセルデータとの差分を計算した。 Therefore, to calculate the image signal of the pixel data at the time of lighting of FIG. 18 (c), the difference between the pixel data of the image signal at the time of extinction of FIG 18 (d). すると、図18(e)に示すように、その差分だけの画像が取得できる。 Then, as shown in FIG. 18 (e), an image of only the difference can be obtained. この差分データによる画像は、図18(a)と対比すれば明らかなように、操作物150によって得られる画像のみを含むことになる。 Image according to the difference data, as is clear from comparison Figure 18 (a), it will contain only the image obtained by the operation article 150. したがって、処理の軽減を図りながらも、操作物150の状態情報を取得できる。 Therefore, while achieving reduction in processing can obtain the status information of the operation article 150.

ここで、状態情報とは、例えば、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、等である。 Here, the state information, for example, speed information, moving direction information, moving distance information, velocity vector information, acceleration information, movement locus information, area information, or positional information, either, or their 2 or more of the combination, and the like.

以上のような理由で、CPU201は、赤外発光ダイオード15の点灯時のピクセルデータと、消灯時のピクセルデータと、の差分を算出して、差分データを得る。 In the above reasons, CPU 201 includes a lighting time of the pixel data of the infrared light emitting diode 15, and calculates the pixel data at the time of turning off, the difference, obtaining the differential data.

[注目点抽出処理]CPU201は、算出した差分データDif[X][Y]を基に、操作物150の注目点の座標を求める。 [Target point extracting process] CPU 201, based on the calculated differential data Dif [X] [Y], determining the coordinates of the target point of the operation article 150. この点を詳細に説明する。 This point will be described in detail.

図19は、操作物150の注目点の座標算出の説明図である。 Figure 19 is an explanatory view of a coordinate calculation of the target point of the operation article 150. なお、図19に示したイメージセンサ43は、32ピクセル×32ピクセルのものとする。 Incidentally, the image sensor 43 shown in FIG. 19 to that of 32 pixels × 32 pixels.

図19に示すように、CPU201は、X方向(水平方向、横方向、行方向)に32ピクセル分の差分データをスキャンし、そして、Y座標をインクリメントし、X方向に32ピクセル分の差分データをスキャンし、そして、Y座標をインクリメントし、というように、Y座標をインクリメントしながら、X方向に32ピクセル分の差分データをスキャンしていく。 As shown in FIG. 19, CPU 201 is, X direction (horizontal direction, the transverse direction, the row direction) to scan the differential data to the 32 pixels, and increments the Y coordinate, 32 pixels of the difference data in the X direction scans and increments the Y coordinate, and so on while incrementing the Y-coordinate, will scan the differential data 32 pixels in the X direction.

この場合、CPU201は、スキャンした32ピクセル×32ピクセル分の差分データから、最大輝度値の差分データを求め、その最大輝度値と所定の閾値Thとを比較する。 In this case, CPU 201 from scanned 32 pixels × 32 pixels of the difference data to obtain the difference data of the maximum luminance value, and compares the maximum brightness value with a predetermined threshold value Th. そして、CPU201は、その最大輝度値が所定の閾値Thより大きい場合は、その最大輝度値を持つピクセルの座標を基に、操作物150の注目点の座標を算出する。 Then, CPU 201, when the maximum luminance value is larger than the predetermined threshold value Th, based on the coordinates of the pixel having the maximum luminance value, and calculates the coordinates of the target point of the operation article 150. この点を詳しく説明する。 This point will be described in detail.

図20(a)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際のX方向スキャンの説明図、図20(b)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際のY方向スキャンのスタート時の説明図、図20(c)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際のY方向スキャンの説明図、図20(d)は、最大輝度値を持つピクセルの座標を基に、操作物150の注目点座標を算出する際の結果の説明図、である。 20 (a) it is based on the coordinates of the pixel having the maximum luminance value, illustration of the X-direction scan in calculating target point coordinates of the operation article 150, FIG. 20 (b), with the maximum luminance value based on the coordinates of the pixel, illustration of the start of the Y direction scanning in calculating target point coordinates of the operation article 150, FIG. 20 (c) based on the coordinates of the pixel having the maximum luminance value, the operation article 150 illustrates the Y-direction scanning in calculating target point coordinates, FIG. 20 (d), based on the coordinates of the pixel having the maximum luminance value, when calculating the target point coordinates of the operation article 150 results illustration, it is.

図20(a)に示すように、CPU201は、最大輝度値のピクセルの座標を中心に、X方向に、差分データのスキャンを実行して、所定の閾値Thより大きい輝度値のピクセルを検出する。 As shown in FIG. 20 (a), CPU 201 is the center coordinates of the maximum luminance value pixels in the X direction, by performing the scan of the differential data, detects a pixel of a predetermined threshold value Th is larger than the luminance value . 図20(a)の例では、X=11〜15までが、所定の閾値Thを超えたピクセルである。 In the example of FIG. 20 (a), up to X = 11 to 15 is a pixel exceeds a predetermined threshold value Th.

次に、図20(b)に示すように、CPU201は、X=11〜15の中心を求める。 Next, as shown in FIG. 20 (b), CPU 201 determines the center of the X = 11 to 15. すると、中心のX座標は、Xc=13である。 Then, X-coordinate of the center is Xc = 13.

次に、図20(c)に示すように、図20(b)で求めたX座標(=13)を中心に、Y方向に、差分データのスキャンを実行して、所定の閾値Thより大きい輝度値のピクセルを検出する。 Next, as shown in FIG. 20 (c), around the X-coordinate (= 13) obtained in FIG. 20 (b), the Y direction, by performing the scan of the differential data is larger than a predetermined threshold value Th detecting the pixel luminance values. 図20(c)の例では、Y=5〜10までが、所定の閾値Thを超えたピクセルである。 In the example of FIG. 20 (c), the until Y = 5 to 10 is a pixel exceeds a predetermined threshold value Th.

次に、図20(d)に示すように、CPU201は、Y=5〜10の中心を求める。 Next, as shown in FIG. 20 (d), CPU 201 obtains the center of Y = 5 to 10. すると、中心のY座標は、Yc=7である。 Then, Y-coordinate of the center is Yc = 7.

CPU201は、以上のようにして算出した注目点の座標Xc(=13)をPX[M]に代入し、座標Yc(=7)をPY[M]に代入する。 CPU201 substitutes coordinates Xc (= 13) of the calculated target point in the manner described above to PX [M], assigns coordinates Yc a (= 7) in PY [M]. そして、CPU201は、注目点(Xc,Yc)の移動平均(AX,AY)を算出する。 Then, CPU 201 calculates the moving average of the target point (Xc, Yc) (AX, AY). さらに、CPU201は、イメージセンサ43上の注目点の平均座標(AX,AY)を、スクリーン91上の座標(xc,yc)に変換する。 Further, CPU 201, the average coordinates (AX, AY) of the target point on the image sensor 43 is converted into coordinates on the screen 91 (xc, yc). そして、CPU201は、座標xcを配列Ax[M]に代入し、座標ycを配列Ay[M]に代入する。 Then, CPU 201 substitutes the coordinate xc in the sequence Ax [M], substituting the coordinates yc in sequence Ay [M]. CPU201は、以上のような注目点の座標(Ax[M],Ay[M])を求める処理を、フレームが更新されるたびに実行する。 CPU201 performs the above the point of interest coordinates (Ax [M], Ay [M]) the process of obtaining, executes each time a frame is updated. ここで、例えば、スクリーン91における座標原点は、スクリーン91の中心位置とする。 Here, for example, the coordinate origin in the screen 91, the center position of the screen 91.

CPU201は、例えば、次式により、(n+1)フレーム分の移動平均を算出する。 CPU201, for example, by the following equation, calculates a moving average of (n + 1) frame. 「n」は自然数(例えば、「3」)である。 "N" is a natural number (for example, "3").
AX=(PX[M]+PX[M−1]+…+PX[M−n])/(n+1) …(1) AX = (PX [M] + PX [M-1] + ... + PX [M-n]) / (n + 1) ... (1)
AY=(PY[M]+PY[M−1]+…+PY[M−n])/(n+1) …(2) AY = (PY [M] + PY [M-1] + ... + PY [M-n]) / (n + 1) ... (2)
「M」は整数であり、スクリーン91に表示するフレームが更新されるたびに1つインクリメントされる。 "M" is an integer, a frame to be displayed on the screen 91 is incremented one each time it is updated.

[背景制御処理]CPU201は、ゲームの第1ステージでは(図11及び図12参照)、バックグラウンドスクリーン140の中心位置の配置を、一定速度で変更して(図16(a)及び図16(b)参照)、中心位置の変更後の配置座標を登録する。 Background control processing] CPU 201 is the first stage of the game (see FIGS. 11 and 12), the arrangement of the center of the background screen 140, to change at a constant speed (FIG. 16 (a) and 16 ( b)), registers the position coordinates after the change of the center position. この場合、CPU201は、該当する配列PA及び配列CAのデータを変更する。 In this case, CPU 201 changes the data of the corresponding array PA and sequence CA. 以上のようにして、CPU201は、背景120のスクロール制御を行う。 As described above, CPU 201 performs scroll control of the background 120. また、CPU201は、ゲームの第2ステージでは(図13参照)、ゲームプログラム300に従って、配列PA及び配列CAのデータを変更して、背景120の内容の一部あるいは全部を変化させる。 Further, CPU 201 is (see FIG. 13) in the second stage of the game, according to the game program 300, by changing the data in the array PA and sequence CA, changing part or all of the contents of the background 120.

[自動オブジェクト制御処理]CPU201は、障害オブジェクトP及びアイテム110,126の座標を計算して登録する。 Automatic object control process] CPU 201 registers to calculate the coordinates of the obstacle objects P and items 110, 126. 例えば、障害オブジェクトP及びアイテム110が一定速度で移動するように、座標計算を行い、その結果を登録する(内部メモリ207に格納する)。 For example, as the obstacle objects P and item 110 is moved at a constant speed, it performs coordinate calculation, (stored in the internal memory 207) the result to register. また、CPU201は、表示すべき障害オブジェクトP及びアイテム110,126のアニメーションテーブルの格納位置情報を登録する。 Further, CPU 201 registers the storage location information of the animation table of obstacle objects P and items 110, 126 to be displayed. このアニメーションテーブルは、後述する人魚112のアニメーションテーブルと同様のものである。 The animation table is similar to the animation table Mermaid 112 to be described later.

[カーソル制御処理]CPU201は、操作物150の注目点の座標(Ax[M],Ay[M])を、次のフレームで表示するカーソル105の座標として登録する(内部メモリ207に格納する)。 Cursor control processing] CPU 201 is the coordinates of the target point of the operation article 150 (Ax [M], Ay [M]) and, (stored in the internal memory 207) is registered as the coordinates of the cursor 105 to be displayed in the next frame . また、CPU201は、カーソル111のアニメーションテーブルの格納位置情報を登録する。 Further, CPU 201 registers the storage location information of the animation table of the cursor 111. このアニメーションテーブルは、後述する人魚112のアニメーションテーブルと同様のものである。 The animation table is similar to the animation table Mermaid 112 to be described later.

[追従オブジェクト制御処理]CPU201は、人魚112を、カーソル111の動きに追従させる。 [Follow-up object control process] CPU 201 is a mermaid 112 to follow the movement of the cursor 111. この場合、人魚112に第1の加速度を持たせて移動させる。 In this case, it moves to have a first acceleration mermaid 112. この第1の加速度には、カーソル111と人魚112との間の距離が大きいほど大きな値を、小さいほど小さい値を設定する。 This first acceleration, the larger the value is larger distance between the cursor 111 and the mermaid 112, sets a smaller smaller. なお、第1の加速度の向きは正方向である。 It should be noted that the direction of the first acceleration is positive. 正方向とは、人魚の進行方向である。 The positive direction, a direction of travel of the mermaid. また、人魚112には、第2の加速度をも持たせて移動させる。 Furthermore, the mermaid 112 moves also to have a second acceleration. この第2の加速度には、人魚の速度が大きいほど大きな値を、小さいほど小さい値を設定する。 This second acceleration, the larger value the rate mermaid is large, sets the smaller smaller. この第2の加速度の向きは負方向とする。 The direction of the second acceleration is negative direction. 負方向とは、人魚の進行方向と逆の方向である。 The negative direction is the direction opposite to the traveling direction of the mermaid. 以上により、人魚112が、あたかも水中を運動しているかのような効果を得ることができる。 Thus, it is possible mermaid 112, obtain one of the effects is as if motion in the water. 以上の点を具体例を挙げながら説明する。 It is described with a specific example of the above points.

図21は、CPU201による追従オブジェクト制御処理の説明図である。 Figure 21 is an illustration of a follow-up object control process by the CPU 201. CPU201は、人魚112の今回の座標(xm[M],ym[M])を算出するため、例えば、次式を用いる。 CPU201 is this coordinates mermaid 112 (xm [M], ym [M]) for calculating, for example, using the following equation.
xm[M]=xm[M−1]+Vxm[M−1]×(1−k)+Bx[M] …(3) xm [M] = xm [M-1] + Vxm [M-1] × (1-k) + Bx [M] ... (3)
ym[M]=ym[M−1]+Vym[M−1]×(1−k)+By[M] …(4) ym [M] = ym [M-1] + Vym [M-1] × (1-k) + By [M] ... (4)
Vxm[M−1]=xm[M−1]−xm[M−2] …(5) Vxm [M-1] = xm [M-1] -xm [M-2] ... (5)
Vym[M−1]=ym[M−1]−ym[M−2] …(6) Vym [M-1] = ym [M-1] -ym [M-2] ... (6)
Bx[M]=Lx[M]×B0 …(7) Bx [M] = Lx [M] × B0 ... (7)
By[M]=Ly[M]×B0 …(8) By [M] = Ly [M] × B0 ... (8)
Lx[M]=Ax[M]−xm[M−1] …(9) Lx [M] = Ax [M] -xm [M-1] ... (9)
Ly[M]=Ay[M]−ym[M−1] …(10) Ly [M] = Ay [M] -ym [M-1] ... (10)
図21に示すように、式(3)〜式(10)では、人魚112の前回の座標(xm[M−1],ym[M−1])、人魚112の前回の速度ベクトル(Vxm[M−1],Vym[M−1])、人魚112の今回の加速度ベクトル(Bx[M],By[M])、人魚112の前前回の座標(xm[M−2],ym[M−2])、水の抵抗を表す定数k(k<1)、及び、人魚112の加速度を調整する定数B0、を使用する。 As shown in FIG. 21, in Formula (3) to (10), previous coordinate mermaid 112 (xm [M-1], ym [M-1]), the preceding velocity vector mermaid 112 (Vxm [ M-1], Vym [M-1]), this acceleration vector mermaid 112 (Bx [M], By [M]), before the last coordinates of the mermaid 112 (xm [M-2], ym [M -2), the constant represents the resistance of the water k (k <1), and, using a constant B0, to adjust the acceleration of the mermaid 112. ここで、水の抵抗を大きくしたいときには、定数kを大きい値に設定し、小さくしたいときは小さい値に設定する。 Here, when it is desired to increase the resistance of water, to set the constant k to a large value, set to a smaller value when you want to reduce. また、人魚の加速度Bx[M],By[M]は、今回のカーソル111と前回の人魚112との間の距離Lx[M],Ly[M]に比例する。 Further, Mermaid acceleration Bx [M], By [M], the distance Lx [M] between the current cursor 111 the previous mermaid 112 is proportional to the Ly [M]. なお、定数kの値及び定数B0の値は、任意の値とすることができ、例えば、経験により定めることができる。 Note that the value of the value of the constant k and the constant B0 may be any value, for example, it can be determined empirically.

また、CPU201は、次式により、人魚112の今回の速度ベクトル(Vxm[M],Vym[M])を算出する。 Further, CPU 201 is the following equation, the current velocity vector of the mermaid 112 (Vxm [M], Vym [M]) is calculated.
Vxm[M]=xm[M]−xm[M−1] …(11) Vxm [M] = xm [M] -xm [M-1] ... (11)
Vym[M]=ym[M]−ym[M−1] …(12) Vym [M] = ym [M] -ym [M-1] ... (12)
さらに、CPU201は、人魚112のx方向の移動距離mxおよびy方向の移動距離myを算出する。 Further, CPU 201 calculates the moving distance my travel distance mx and y directions in the x direction mermaid 112. x方向の移動距離mxは、x成分Vxm[M]の絶対値であり、y方向の移動距離myは、y成分Vym[M]の絶対値である。 Moving distance mx in the x direction is the absolute value of the x component Vxm [M], the moving distance my in the y direction is the absolute value of the y-component Vym [M].

CPU201は、上記のようにして、人魚112の位置を制御するだけでなく、人魚112のアニメーションを制御する。 CPU201 is as described above, not only controls the position of the mermaid 112, controls the animation mermaid 112. この点を詳細に説明する。 This point will be described in detail.

CPU201は、人魚112のx方向の移動距離mxと所定値xrとの間で大小を判断する。 CPU201 determines the magnitude between the travel distance mx and predetermined value xr in the x direction of the mermaid 112. また、CPU201は、人魚112のy方向の移動距離myと所定値yrとの間で大小を判断する。 Further, CPU 201 determines the magnitude between the travel distance my a predetermined value yr in the y direction of the mermaid 112. その判断の結果、CPU201は、移動距離mxが所定値xrより大きく、移動距離myが所定値yrより小さい場合は、人魚112を横方向(水平方向)に移動させるべく、角度フラグを対応する値にセットする。 Result of the determination, the CPU 201, the moving distance mx is greater than a predetermined value xr, when the moving distance my is smaller than the predetermined value yr is to move the mermaid 112 in the lateral direction (horizontal direction), the corresponding value of the angle flag It is set to.

また、判断の結果、CPU201は、移動距離mxが所定値xrより小さく、移動距離myが所定値yrより大きい場合は、人魚112を縦方向(垂直方向)に移動させるべく、角度フラグを対応する値にセットする。 As a result of the determination, CPU 201, the moving distance mx is smaller than the predetermined value xr, when the moving distance my is larger than the predetermined value yr is to move the mermaid 112 in the longitudinal direction (vertical direction), the corresponding angle flag to set the value. また、判断の結果、CPU201は、移動距離mxが所定値xrより大きく、移動距離myが所定値yrより大きい場合は、人魚112を斜め方向に移動させるべく、角度フラグを対応する値にセットする。 As a result of the determination, CPU 201, the moving distance mx is greater than a predetermined value xr, when the moving distance my is larger than the predetermined value yr is to move the mermaid 112 obliquely, sets the angle flag to the corresponding value .

さらに、CPU201は、人魚112の速度ベクトル(Vxm[M],Vym[M])の符号を判断して、x方向フラグ及びy方向フラグを対応する値にセットする。 Furthermore, CPU 201 is the velocity vector of the mermaid 112 (Vxm [M], Vym [M]) to determine the sign of is set to the corresponding value in the x-direction flag and the y-direction flag. なお、x方向フラグ及びy方向フラグを包括して表現するときは、単に方向フラグと呼ぶ。 Incidentally, when expressed comprehensively in the x-direction flag and the y-direction flag is simply referred to as a direction flag.

そして、CPU201は、角度フラグ、x方向フラグ、及び、y方向フラグ、にセットされている値に従って、人魚112の移動方向情報を決定する。 Then, CPU 201 may angle flag, x-direction flag, and, in accordance with the value set y direction flag, to determine the moving direction information of the mermaid 112. 人魚112の移動方向情報は、人魚112の移動態様を表す情報である。 Movement direction information of the mermaid 112 is information indicating the moving mode of the mermaid 112. この移動方向情報により、人魚112の向きが決定される。 The moving direction information, the direction of the mermaid 112 is determined. この点の詳細を説明する。 The details of this point will be described.

図22(a)は、角度フラグの値と角度との関係図、図22(b)は、方向フラグの値と方向を表す符号との関係図、図22(c)は、角度フラグ及び方向フラグと、移動方向情報と、の関係図、である。 22 (a) is graph showing the relationship between the value and the angle of the angle flag, FIG. 22 (b), the relationship diagram between the code representing the value and direction of the direction flag, FIG. 22 (c) the angle flag and the direction a flag, the moving direction information, the relationship diagram is. 上記のように、CPU201は、人魚112の移動距離mx及びmyと、所定値xr及びyrと、の間で大小を判断して、図22(a)に示すように、角度フラグをセットする。 As described above, CPU 201 is a moving distance mx and my mermaid 112, determines the predetermined value xr and yr, the magnitude between, as shown in FIG. 22 (a), sets the angle flag.

また、上記のように、CPU201は、人魚112の速度ベクトル(Vxm[M],Vym[M])の符号を判断して、図22(b)に示すように、x方向フラグ及びy方向フラグをセットする。 Further, as described above, CPU 201 is the velocity vector of the mermaid 112 (Vxm [M], Vym [M]) to determine the sign of, as shown in FIG. 22 (b), x-direction flag and the y-direction flag to set.

さらに、図22(c)に示すように、CPU201は、角度フラグ、x方向フラグ、及び、y方向フラグ、にセットされている値から、人魚112の移動方向情報を決定する。 Furthermore, as shown in FIG. 22 (c), CPU 201 may angle flag, x-direction flag, and, from the value set y direction flag, to determine the moving direction information of the mermaid 112.

図23は、図22(c)の移動方向情報と、人魚112の移動方向と、の関係図である。 23, the moving direction information of FIG. 22 (c), the the direction of movement of the mermaid 112, which is a relationship diagram. 図22及び図23に示すように、移動方向情報A0は、人魚112を、横方向に、かつ、x軸の正方向(右方向)に移動させることを意味する。 As shown in FIGS. 22 and 23, the moving direction information A0 is the mermaid 112, laterally, and means to move in the positive direction of the x-axis (right). 移動方向情報A1は、人魚112を、横方向に、かつ、x軸の負方向(左方向)に移動させることを意味する。 Moving direction information A1 is the mermaid 112, laterally, and means to move in the negative direction (left direction) of the x-axis. 移動方向情報A2は、人魚112を、縦方向に、かつ、y軸の正方向(上方向)に移動させることを意味する。 Moving direction information A2 is the mermaid 112, in the vertical direction, and means to move in the positive direction (upward direction) of the y-axis. 移動方向情報A3は、人魚112を、縦方向に、かつ、y軸の負方向(下方向)に移動させることを意味する。 Moving direction information A3 is the mermaid 112, in the vertical direction, and means to move in the negative direction (downward direction) of the y-axis. 移動方向情報A4は、人魚112を、右上斜め方向に移動させることを意味する。 Moving direction information A4 is meant to move the mermaid 112, in the upper right oblique direction. 移動方向情報A5は、人魚112を、右下斜め方向に移動させることを意味する。 Moving direction information A5 is meant to move the mermaid 112, in the lower right diagonal direction. 移動方向情報A6は、人魚112を、左上斜め方向に移動させることを意味する。 Moving direction information A6 is meant to move the mermaid 112, in the upper left oblique direction. 移動方向情報A7は、人魚112を、左下斜め方向に移動させることを意味する。 Moving direction information A7 is meant to move the mermaid 112, the lower left diagonal direction.

CPU201は、上記のようにして取得した移動方向情報A0〜A7に関連付けられたアニメーションテーブル格納位置情報を登録する(人魚アニメーション登録)。 CPU201 registers the animation table storage location information associated with the moving direction information A0~A7 obtained as described above (Mermaid animation registered). アニメーションテーブル格納位置情報は、アニメーションテーブルの格納位置を示す情報である。 Animation table storage location information indicates a storage position of the animation table. また、この場合のアニメーションテーブルには、人魚112をアニメーションするための様々な情報が含まれている。 Also, the animation table in this case includes various information for animating the mermaid 112.

図24は、移動方向情報A0〜A7とアニメーションテーブル格納位置情報との関係図である。 Figure 24 is a graph showing the relationship between the moving direction information A0~A7 and animation table storage location information. 図24では、例えば、移動方向情報A0とアニメーションテーブル格納位置情報address0とが関連付けられている。 In Figure 24, for example, the moving direction information A0 and animation table storage location information address0 is associated. ここで、アニメーションテーブル格納位置情報は、アニメーションテーブルが格納されている領域の先頭アドレス情報である。 Here, the animation table storage location information, which is the head address information of the area storing the animation table.

図25は、図24のアニメーションテーブル格納位置情報により示される、人魚112をアニメーションするためのアニメーションテーブルの例示図である。 Figure 25 is indicated by the animation table storage location information of FIG. 24 is an exemplary diagram of the animation table for the mermaid 112 animate. 図25に示すように、アニメーションテーブルは、アニメーション画像データの格納位置情報、アニメーションを行うオブジェクト(人魚112)の番号を時系列に配置したもの、持続フレーム数情報、次オブジェクト情報、オブジェクト(人魚112)のサイズ情報、カラーパレット情報、デプス値の情報、及び、スプライトサイズ情報、を関連付けたテーブルである。 As shown in FIG. 25, the animation table, those arranged storage location information of the animation image data, the number of objects (mermaid 112) for performing animation in time series, duration frame number information, the following object information, the object (Mermaid 112 size information, color palette information, information of the depth values), and a table that associates the sprite size information.

アニメーション画像データは、複数のオブジェクト(人魚112)画像を時系列に配置したデータである。 Animation image data is data disposed a plurality of objects (mermaid 112) images in time series. 持続フレーム数情報は、何フレーム連続して各オブジェクト(人魚112)を表示するかを示す情報である。 Duration frame number information is continuously many frames are each object information that indicates whether the (mermaid 112). 次オブジェクト情報は、持続フレーム数情報に従ってオブジェクト(人魚112)を表示した後に、何番のオブジェクト(人魚112)を表示するかを指示する情報である。 The following object information, after displaying the object (mermaid 112) according to duration frame number information is information indicating whether to display what number of objects (mermaid 112). 例えば、次オブジェクト情報「next」は、番号「1」のオブジェクトを1フレーム(持続フレーム数)表示した後は、次の番号「2」のオブジェクトを表示することを意味する。 For example, the following object information "next", the after displaying objects one frame number "1" (the number of sustained frames), means to display the object of the next number "2". また、例えば、次オブジェクト情報「top」は、番号「15」のオブジェクトを1フレーム(持続フレーム数)表示した後は、先頭の番号「1」のオブジェクトを表示することを意味する。 Further, for example, the following object information "top" is the number objects one frame (the number of sustained frames) of "15" after the display means to display the object in the beginning of the number "1".

なお、アニメーション画像データは、画素パターンデータである。 Note that the animation image data is a pixel pattern data. ここで、画素パターンデータ、及び、デプス値は、オブジェクト(人魚112)を構成するスプライトに関するものであり、その意味は、図15で説明したブロックに関するものと同様である。 Here, the pixel pattern data, and the depth value is related to the sprite that constitutes the object (mermaid 112), the meaning is the same as for the blocks described in FIG. 15.

ここで、図25のアニメーションテーブルは、人魚112のアニメーションを行うためのものである。 Here, the animation table of Figure 25 is for performing animation mermaid 112. 従って、例えば、図24の移動方向情報A0は、人魚112を横方向かつ正方向に移動させることを示す情報であるため、移動方向情報A0に対応したアニメーションテーブル格納位置情報address0が示すアニメーションテーブルの格納位置情報ad0は、横方向かつ正方向に向いた人魚112のアニメーション画像データの格納位置を示す。 Thus, for example, the moving direction information A0 in Figure 24, the mermaid 112 for a transverse and information indicating that moving in the positive direction, the animation table showing the animation table storage location information address0 corresponding to the moving direction information A0 storage location information ad0 indicates the storage location of the animation image data mermaid 112 facing laterally and forward direction.

以上のように、人魚112の移動方向情報A0〜A7に応じたアニメーションテーブル格納位置情報address0〜address7が登録され、しかも、人魚112の移動方向情報A0〜A7は、操作物150の注目点(カーソル111)の座標(Ax[M],Ay[M])に基づいているため(式(9)及び式(10)参照)、操作物150(カーソル111)の移動方向に向いた人魚112のアニメーションが実行される。 As described above, the animation table storage location information address0~address7 corresponding to the moving direction information A0~A7 mermaid 112 is registered, moreover, the moving direction information A0~A7 mermaid 112, the target point of the operation article 150 (cursor coordinates 111) (Ax [M], Ay [M]) to be because the based (formula (9) see and (10)), the operation article 150 (animated mermaid 112 facing the direction of movement of the cursor 111) There is executed.

さらに、CPU201は、人魚112が、障害オブジェクトPあるいは障害画像Qに衝突したか否かを判定して、衝突したときに、人魚112の動きを制限し、かつ、衝突フラグをオンにする。 Furthermore, CPU 201 is mermaid 112, it is determined whether or not collide with obstacle objects P or failure image Q, when a collision, to restrict the movement of the mermaid 112, and turns on the collision flag. この点を詳細に説明する。 This point will be described in detail.

図26は、CPU201による衝突判定処理の説明図である。 Figure 26 is an explanatory view of the collision determination processing by the CPU 201. 図26に示すように、人魚112、障害オブジェクトP、及び、障害画像Q、を矩形あるいは矩形の集合によりモデル化する。 As shown in FIG. 26, the mermaid 112, the obstacle object P, and is modeled by a set failure image Q, a rectangular or square. そして、CPU201は、人魚112と、表示されている全ての障害オブジェクトPおよび表示されている全ての障害画像Qと、の衝突を判定する。 Then, CPU 201 determines that the mermaid 112, all the fault image Q in which all are impaired object P and a display that is displayed, the collision. ここで、人魚112を構成する矩形を、「人魚矩形」と呼び、障害オブジェクトP、あるいは、障害画像Q、を構成する矩形を、「障害矩形」と呼ぶ。 Here, the rectangle constituting the mermaid 112, referred to as "mermaid rectangle", obstacle object P, or a rectangle that configuration failure image Q, a, referred to as "disorder rectangle". 衝突判定について詳しく説明する。 It will be described in detail collision judgment.

CPU201は、人魚矩形の各々の各頂点座標、及び、障害矩形の各々の各頂点座標、を用いて、人魚矩形と障害矩形との重複を判断する。 CPU201, each vertex coordinates of each of the mermaid rectangle, and each vertex coordinate of each disorder rectangle, is used to determine the overlap between mermaid rectangle and disorders rectangle. そして、CPU201は、いずれかの人魚矩形といずれかの障害矩形とが重複していれば、人魚112と、重複した障害矩形を持つ障害オブジェクトPと、が衝突し、あるいは、人魚112と、重複した障害矩形を持つ障害画像Qと、が衝突したと判断して、衝突フラグをオンにする。 Then, CPU 201 may, if the overlap with any of the mermaid rectangle and any disorders rectangle, a mermaid 112, and obstacle object P with duplicate failure rectangle, collide, or a mermaid 112, overlapping and fault image Q with disabilities rectangle, and it is determined that has collided and turns on the collision flag.

図27は、CPU201による追従オブジェクト制御処理で判断される重複パターンの説明図である。 Figure 27 is an illustration of overlapping patterns is determined by the follow-up object control process by the CPU 201. 図27(a)〜図27(n)に示すように、人魚矩形rcmと障害矩形rcoとの重複パターンは、14通りある。 As shown in FIG. 27 (a) ~ FIG 27 (n), overlapping patterns of the mermaid rectangle rcm and disorders rectangular rco is Street 14. CPU201は、いずれかの重複パターンが存在すれば、人魚112と、重複した障害矩形rcoを持つ障害オブジェクトPと、が衝突し、あるいは、人魚112と、重複した障害矩形rcoを持つ障害画像Qと、が衝突したと判断する。 CPU201 is, if there is any overlapping pattern, a mermaid 112, and obstacle object P with duplicate disorders rectangular rco, collide, or a mermaid 112, and fault image Q with duplicate disorders rectangular rco , it is determined that there is a collision.

以上のような処理を、人魚112と、表示されている全ての障害オブジェクトPおよび表示されている全ての障害画像Qと、の間で行う。 The aforementioned processing, the mermaid 112, all the fault image Q in which all are impaired object P and a display that is displayed, performed between.

[体力ゲージ制御処理]CPU201は、体力ゲージ131を制御する。 [Power gauge control process] CPU 201 controls the power gauge 131. この点を図面を用いて説明する。 It will be described with reference to the drawings this point.

図28(a)は、図11〜図13の体力ゲージ131を構成する枠の例示図、図28(b)は、体力ゲージ131のバー103を構成する要素の例示図、である。 FIG. 28 (a) illustration of a frame constituting the power gauge 131 in FIGS. 11 to 13, FIG. 28 (b), illustration of the elements constituting the bar 103 of the power gauge 131, is. 図28(a)に示すように、体力ゲージ131の枠は、8×56画素の大きさであり、8×8画素のスプライトを7つ表示して構成する。 As shown in FIG. 28 (a), the frame of the power gauge 131 has a size of 8 × 56 pixels, comprising a sprite of 8 × 8 pixels seven display to.

図28(b)に示すように、バー103を表示するために、8×8画素からなるスプライトP0〜P7が8つ用意される。 As shown in FIG. 28 (b), in order to display a bar 103, a sprite P0~P7 consisting 8 × 8 pixels are provided eight. 図28(b)において、例えば、破線部は赤色であり、それ以外は白色である。 In FIG. 28 (b), the example, the broken line portion is red, the other is white. CPU201は、一定速度でバー103が短くなるように、スプライトP0〜P7の中から、単数あるいは複数のスプライトを選択して、体力ゲージ131の枠内に表示する。 CPU201, as bar 103 is shorter at a constant rate, from the sprite P0 to P7, and select a single or plurality of sprites are displayed within the frame of the power gauge 131.

例えば、CPU201は、ゲーム開始時に、7個のスプライトP7を枠内に表示して、バー103を最長とする。 For example, CPU201 is, at the start of the game, seven of the sprite P7 is displayed within the frame, the bar 103 and the longest. そして、ゲーム開始から一定時間tが経過したら、一番右側のスプライトP7に代えて、スプライトP6を枠内に表示し、さらに一定時間t経過したら、スプライトP6に代えて、スプライトP5を枠内に表示し、…、というように、一定時間tの経過とともに、赤色のバー103を短くしていく。 Then, after a lapse of a certain period of time t from the start of the game, the most in place of the right-hand side of the sprite P7, the sprite P6 is displayed in a frame, if further a certain period of time t elapsed, instead of the sprite P6, the sprite P5 in the frame displays, ..., so that, with the passage of a certain period of time t, continue to shorten the red of the bar 103. つまり、一定時間tが経過するたびに、バー103が1画素づつ短くなる。 This means that every time a predetermined time t has elapsed, the bar 103 is shortened by one pixel.

さらに、CPU201は、衝突フラグがオンになっている場合は、つまり、人魚112が、障害オブジェクトあるいは障害画像に衝突した場合は、赤色のバー103が所定長(例えば、4画素分)だけ短くなるように、スプライトP0〜P7を選択して表示する。 Further, CPU 201, when the collision flag is on, that is, the mermaid 112, if it collides with obstacle objects or disorders image, the red bar 103 is shortened by a predetermined length (e.g., 4 pixels) as such, it is displayed by selecting the sprite P0~P7. CPU201は、例えば、体力ゲージ131において、6個のスプライトがスプライトP7であり、一番右側が、スプライトP0であるときに、衝突フラグがオンになっている場合は、そのスプライトP0を外し、かつ、そのスプライトP0の左隣のスプライトP7に代えて、スプライトP4を表示する。 CPU201, for example, in the power gauge 131, six sprite is sprite P7, most right, when in sprite P0, if the collision flag is on, remove the sprite P0, and , instead of the sprite P7 to the left of the sprite P0, to display the sprite P4. これにより、バー103が4画素分短くなる。 Thus, the bar 103 is 4 pixels shorter.

[画像表示処理]CPU201は、背景制御処理、自動オブジェクト制御処理、カーソル制御処理、追従オブジェクト制御処理、及び、体力ゲージ制御処理、により登録された情報をもとに、描画に必要な情報を垂直ブランキング期間に、図7のグラフィックプロセッサ202に与える。 [Image display processing] CPU201, the background control processing, automatic object control process, cursor control processing, follow-up object control process, and, on the basis of the physical strength gauge control processing, the registered information, the information required for drawing vertical the blanking period, giving the graphic processor 202 of FIG. すると、グラフィックプロセッサ202は、与えられた情報をもとに映像信号を生成して、映像信号出力端子47に出力する。 Then, the graphic processor 202 generates a video signal based on the given information, and outputs the video signal output terminal 47. これにより、テレビジョンモニタ90のスクリーン91に、人魚112等を含むゲーム画面が表示される。 Thus, the screen 91 of the television monitor 90, a game screen including the mermaid 112 and the like are displayed. より具体的には、次の通りである。 More specifically, it is as follows.

CPU201は、障害オブジェクトPのアニメーションテーブルおよび自動オブジェクト制御処理で登録した座標情報をもとに、障害オブジェクトPを構成する各スプライトの表示座標を算出する。 CPU201, based on the coordinate information registered in the animation table and an automatic object control process of the obstacle object P, and calculates the display coordinates of each sprite constituting the obstacle object P. そして、CPU201は、障害オブジェクトPのアニメーションテーブルを参照して、障害オブジェクトPを構成する各スプライトの、表示座標情報、カラーパレット情報、デプス値、サイズ情報、及び、画素パターンデータ格納位置情報、をグラフィックプロセッサ202に与える。 Then, CPU 201 refers to the animation table of obstacle object P, of each sprite constituting the obstacle object P, display coordinate information, color palette information, the depth value, the size information, and the pixel pattern data storage location information, the give to the graphics processor 202.

また、CPU201は、カーソル111のアニメーションテーブルおよびカーソル制御処理で登録した座標情報(操作物150の注目点の座標情報)をもとに、カーソル111を構成する各スプライトの表示座標を算出する。 Further, CPU 201, based on the coordinate information registered in the animation table and cursor control processing of the cursor 111 (the coordinate information of the target point of the operation article 150), calculates the display coordinates of each sprite constituting the cursor 111. そして、CPU201は、カーソル111のアニメーションテーブルを参照して、カーソル111を構成する各スプライトの、表示座標情報、カラーパレット情報、デプス値、サイズ情報、及び、画素パターンデータ格納位置情報、をグラフィックプロセッサ202に与える。 Then, CPU 201 refers to the animation table of the cursor 111, of each sprite constituting the cursor 111, display coordinate information, color palette information, the depth value, the size information, and the graphics processor pixel pattern data storage location information, the give to 202.

また、CPU201は、追従オブジェクト制御処理で登録したアニメーションテーブル格納位置情報にもとづいて、アニメーションテーブルを参照し、人魚112(オブジェクト)のサイズ情報、及び、人魚112を構成するスプライトのサイズ情報、を取得する。 Furthermore, acquisition CPU201 is based on the animation table storage location information registered in the tracking object control process refers to the animation table, the size information of the mermaid 112 (object), and the size information of the sprite that constitutes the mermaid 112, the to. そして、CPU201は、これらの情報と、追従オブジェクト制御処理で算出した座標(xm[M],ym[M])と、をもとに、人魚112を構成する各スプライトの表示座標を算出する。 Then, CPU 201 calculates the above information, the coordinates calculated in follow-up object control process (xm [M], ym [M]) and, on the basis of the display coordinates of each sprite constituting the mermaid 112. また、CPU201は、これから表示する人魚112のオブジェクト番号、人魚112のサイズ情報、人魚112を構成するスプライトのサイズ情報、及び、アニメーション画像データの格納位置情報、をもとに、人魚112を構成する各スプライトの画素パターンデータ格納位置情報を算出する。 Further, CPU 201, the object number of the mermaid 112 now displays the size information of the mermaid 112, size information of the sprite that constitutes the mermaid 112, and, based on storage location information of the animation image data, and constitutes a mermaid 112 calculating a pixel pattern data storage position information of each sprite.

そして、さらに、CPU201は、アニメーションテーブルを参照して、人魚112を構成する各スプライトの、カラーパレット情報、デプス値、及び、サイズ情報を、各スプライトの画素パターンデータ格納位置情報及び表示座標情報とともに、グラフィックプロセッサ202に与える。 Then, further, CPU 201 refers to the animation table, for each sprite constituting the mermaid 112, color palette information, the depth value, and the size information, together with the pixel pattern data storage location information and display coordinates information of each sprite , it gives to the graphics processor 202. この場合、CPU201は、アニメーションテーブルの持続フレーム数情報および次オブジェクト情報に従って、上記の情報をグラフィックプロセッサ202に与える。 In this case, CPU 201, in accordance with duration frame number information and the following object information of the animation table, giving the information to the graphics processor 202.

また、CPU201は、体力ゲージ131の枠を構成する各スプライトの、カラーパレット情報、デプス値、サイズ情報、画素パターンデータ格納位置情報、及び、表示座標情報を、グラフィックプロセッサ202に与える。 Further, CPU 201 is in the sprite that constitutes the frame of the power gauge 131, the color palette information, the depth value, the size information, the pixel pattern data storage location information, and the display coordinate information, provided to the graphics processor 202. さらに、CPU201は、体力ゲージ制御処理で登録した、バー103を構成する各スプライトの、カラーパレット情報、デプス値、サイズ情報、画素パターンデータ格納位置情報、及び、表示座標情報を、グラフィックプロセッサ202に与える。 Furthermore, CPU 201 is registered in the power gauge control process, of each sprite constituting the bar 103, the color palette information, the depth value, the size information, the pixel pattern data storage location information, and the display coordinate information, the graphic processor 202 give.

また、CPU201は、背景制御処理で登録したバックグラウンドスクリーン140の中心位置の配置座標、並びに、背景制御処理で設定した配列PA[0]〜配列PA[1023]の先頭アドレスおよび配列CA[0]〜配列CA[1023]の先頭アドレスを、グラフィックプロセッサ202に与える。 Further, CPU 201 is positioned coordinates of the center position of the background screen 140 registered in the background control process, as well as the start address and sequence CA sequence set by the background control process PA [0] ~ sequence PA [1023] [0] the start address of the ~ sequence CA [1023], giving the graphic processor 202. グラフィックプロセッサ202は、与えられた先頭アドレスをもとに、配列PA[0]〜配列PA[1023]の情報を読み出して、それをもとに、ブロック[0]〜ブロック[1023]の画素パターンデータ格納位置情報を読み出す。 Graphics processor 202, based on the head address given, reads the information of the sequence PA [0] to array PA [1023], on the basis of it, a pixel pattern of a block [0] to block [1023] It reads the data storage location information. また、グラフィックプロセッサ202は、与えられた先頭アドレスをもとに、配列CA[0]〜配列CA[1023]の情報を読み出す。 Also, the graphic processor 202, based on the head address given, reads the information of the sequence CA [0] ~ sequence CA [1023].

グラフィックプロセッサ202は、CPU201から与えられた情報および読みさした情報をもとに、障害オブジェクトP、カーソル111、人魚112、体力ゲージ131、及び背景120を表す映像信号を生成して、映像信号出力端子47に出力する。 Graphics processor 202, based on the information and Yomisashi information provided from CPU 201, the obstacle object P, the cursor 111, the mermaid 112, the power gauge 131, and generates a video signal representing the background 120, the video signal output and outputs it to the terminal 47.

[楽音再生]楽音の再生は、割込み処理により行われる。 [Musical Play tone reproduction is performed by interrupt processing. CPU201は、楽譜データポインタをインクリメントしながら、楽譜データ305を読み出して解釈する。 CPU201 while incrementing the musical score data pointer, it reads and analyzes the musical score data 305. なお、楽譜データポインタは、楽譜データ305の読み出し位置を示すポインタである。 Incidentally, the musical score data pointer is a pointer indicating the reading position of the musical score data 305.

そして、CPU201は、読み出した楽譜データ305に含まれるコマンドが、ノートオンであれば、その楽譜データ305に含まれるノートナンバが示す音の高さ(ピッチ)及び楽器指定情報が示す楽器(音色)に応じた波形データ(音源データ)306が格納されている先頭アドレスを、サウンドプロセッサ203に与える。 Then, CPU 201, the command included in the musical score data 305 read out, if the note-on, the pitch of a sound indicated by the note number contained in the musical score data 305 (pitch) and instrument designation information indicates instrument (tone quality) the start address of the waveform data (sound data) 306 corresponding to the stored, giving the sound processor 203. さらに、CPU201は、読み出した楽譜データ305に含まれるコマンドが、ノートオンであれば、必要なエンベロープデータが格納されている先頭アドレスを、サウンドプロセッサ203に与える。 Further, CPU 201, a command included in the musical score data 305 read, if the note-on, the start address of the required envelope data is stored, providing a sound processor 203. さらに、CPU201は、読み出した楽譜データ305に含まれるコマンドが、ノートオンであれば、その楽譜データ305に含まれるノートナンバが示す音の高さ(ピッチ)に応じたピッチ制御情報、及び、その楽譜データ305に含まれるボリューム情報、をサウンドプロセッサ203に与える。 Further, CPU 201, the command included in the musical score data 305 read out, if the note-on, the pitch control information corresponding to the pitch of the sound indicated by the note number contained in the musical score data 305 (pitch), and its providing volume information included in the musical score data 305, to the sound processor 203.

ここで、ピッチ制御情報について説明しておく。 Description will now be made pitch control information. ピッチ制御情報は、波形データ(音源データ)306を読み出す周期を変えることによって行われるピッチ変換に用いられる。 Pitch control information is used pitch conversion performed by changing the period of reading the waveform data (sound data) 306. つまり、サウンドプロセッサ203は、ピッチ制御情報を一定期間毎に読み出して累算する。 In other words, the sound processor 203 accumulates reads the pitch control information at regular intervals. そして、サウンドプロセッサ203は、この累算結果を加工して、波形データ(音源データ)306のアドレスポインタとする。 Then, the sound processor 203 processing the accumulation result, the address pointer of the waveform data (sound data) 306. よって、ピッチ制御情報に大きな値が設定されれば、アドレスポインタのインクリメントは早く行われ、波形データ(音源データ)306の周波数が高くなり、ピッチ制御情報に小さな値が設定されれば、アドレスポインタのインクリメントは遅く行われ、波形データ(音源データ)306の周波数が低くなる。 Therefore, if it is set to a large value to the pitch control information, the address pointer is quickly incremented, the higher the frequency of the waveform data (sound data) 306, if it is set to a small value to the pitch control information, the address pointer increment is performed late, the frequency of the waveform data (sound data) 306 is lowered. このようにして、サウンドプロセッサ203は、波形データ(音源データ)306のピッチ変換を行う。 In this way, the sound processor 203 performs pitch conversion of the waveform data (sound data) 306.

サウンドプロセッサ203は、与えられたピッチ制御情報に基づいて、アドレスポインタをインクリメントしながら、与えられた先頭アドレスが示す位置に格納されている波形データ(音源データ)306をROM51から読み出す。 Sound processor 203, based on the pitch control information supplied, while incrementing the address pointer, the waveform data (sound data) head address stored in the position indicated by the given read 306 from the ROM 51. そして、サウンドプロセッサ203は、順次読み出される波形データ(音源データ)306に、エンベロープデータ及びボリューム情報を乗算して、音声信号を生成する。 Then, the sound processor 203, the waveform data (sound data) 306, which are sequentially read out, it is multiplied by the envelope data and volume information, to generate an audio signal. このようにして、楽譜データ305が指示する楽器の音色、音の高さ(ピッチ)、及び、音量、の音声信号が生成され、音声信号出力端子49に出力される。 In this way, the tone of the instrument to the musical score data 305 is indicated, the sound level (pitch), and the volume, the audio signal is generated and outputted to the audio signal output terminal 49.

一方、CPU201は、読み出した楽譜データ305に含まれるゲートタイムを管理している。 Meanwhile, CPU 201 manages the gate time included in the musical score data 305 read out. 従って、CPU201は、ゲートタイムが経過した時に、該当する楽音の発音を終了するように、サウンドプロセッサ203に指示を出す。 Accordingly, CPU 201, when the gate time has elapsed, so as to end the sound of the corresponding musical tones, instructs the sound processor 203. これを受けて、サウンドプロセッサ203は、指示された楽音の発音を終了する。 In response to this, the sound processor 203 ends the sound of the indicated tone.

以上のようにして、楽譜データ305に基づいて楽曲が再生され、テレビジョンモニタ90のスピーカ(図示せず)から発音される。 As described above, the reproduced music based on the musical score data 305, is sounded from a speaker (not shown) of the television monitor 90.

次に、図1のゲーム装置1の全体の処理の流れの1例を、フローチャートを用いて説明する。 Next, an example of the overall process flow of the game apparatus 1 of FIG. 1 will be described with reference to a flowchart.

図29は、図1のゲーム装置1の全体の処理の流れの1例を示すフローチャートである。 Figure 29 is a flowchart showing the overall process flow of the game apparatus 1 of FIG. 1. 図29に示すように、ステップS1にて、CPU201は、システムの初期設定を実行する。 As shown in FIG. 29, at step S1, CPU 201 executes initial setting of the system.

ステップS2にて、CPU201は、人魚112の体力を確認して、体力が「0」(体力ゲージ131のバー103の長さが「0」)ならば、所定の失敗画面を表示して、ゲームを終了し、体力が残っているならば、ステップS3に進む。 In step S2, CPU 201 confirms the strength of the mermaid 112, ( "0" length of the bar 103 of the power gauge 131) strength is "0", then the display a predetermined failure screen, game Exit, if there remains a physical strength, the process proceeds to step S3. ステップS3にて、CPU201は、人魚112がゴールに到着したか否かを判断して、到着したならば、所定の成功画面を表示して、ゲームを終了し、到着していない場合は、ステップS4へ進む。 In step S3, CPU201, the mermaid 112 is to determine whether or not arrived at the goal, if you arrive, if you display a predetermined success screen, quit the game, has not arrived, the step It advances to S4.

ステップS4にて、CPU201は、操作物150の状態情報を算出する。 In step S4, CPU 201 calculates the state information of the operation article 150. ステップS5にて、CPU201は、背景120の表示を制御する。 In step S5, CPU 201 controls display of the background 120. ステップS6にて、CPU201は、障害オブジェクトPの表示を制御する。 In step S6, CPU 201 controls display of the obstacle object P. ステップS7にて、CPU201は、操作物150の状態情報に基づいて、カーソル111の表示を制御する。 In step S7, CPU 201, based on the state information of the operation article 150, controls the display of the cursor 111.

ステップS8にて、CPU201は、カーソル111の座標情報に基づいて、人魚112の表示を制御する(式(3)〜式(12)参照)。 In step S8, CPU 201, based on the coordinate information of the cursor 111, controls the display of the mermaid 112 (see equation (3) to (12)). ステップS9にて、CPU201は、体力ゲージ131の表示を制御する。 In step S9, CPU 201 controls display of the power gauge 131.

ステップS10にて、CPU201は、「M」が所定値「K」より小さいかどうかを判断する。 In step S10, CPU 201 is "M" to determine whether the predetermined value "K" is less than. CPU201は、「M」が所定値「K」以上である場合、ステップS11に進み、「M」に「0」を代入して、ステップS12に進む。 CPU201 is "M" if it is the predetermined value "K" or more, the process proceeds to step S11, and substitutes "0" to "M", the process proceeds to step S12. 一方、CPU201は、「M」が所定値「K」より小さい場合、ステップS10からステップS12に進む。 Meanwhile, CPU 201, when "M" is a predetermined value "K" is less than, the flow proceeds from step S10 to step S12. この「M」については、後述の説明の中で明らかになる。 This "M" will become apparent in the description below.

ステップS12では、CPU201は、ビデオ同期の割込み待ちかどうかを判断する。 In step S12, CPU 201 determines whether or waits for the video system synchronous interrupt. CPU201は、テレビジョンモニタ90の表示画面を更新するための画像情報を、垂直ブランキング期間の開始後にグラフィックプロセッサ202に与える。 CPU201 provides image information for updating the display screen of the television monitor 90, a graphic processor 202 after the start of the vertical blanking period. 従って、表示画面を更新するための演算処理が完了したら、ビデオ同期割込みがあるまで処理を進めないようにしている。 Therefore, processing for updating the display screen When finished, so that not proceed the process until the video synchronization interrupt. ステップS12で「YES」であれば、即ち、ビデオ同期の割込み待ちであれば(ビデオ同期信号による割り込みがなければ)、同じステップS12に戻る。 If "YES" in step S12, i.e., if the waits for the video system synchronous interrupt (if no video system synchronous interrupt), the process returns to the same step S12. 一方、ステップS12で「NO」であれば、即ち、ビデオ同期の割込み待ちでなければ(ビデオ同期信号による割り込みがあれば)、ステップS13に進む。 On the other hand, if "NO" in step S12, i.e., if not waits for the video system synchronous interrupt (if the video system synchronous interrupt), the process proceeds to step S13.

ステップS13にて、CPU201は、ステップS5〜ステップS9の結果に基づいて、ゲーム画面(図11〜図13参照)の生成に必要な画像情報を、グラフィックプロセッサ202に与える(画像表示処理)。 In step S13, CPU 201, based on the result of step S5~ step S9, the image information required to generate a game screen (refer to FIGS. 11 to 13), giving the graphic processor 202 (image display process). そして、処理は、ステップS2に進む。 Then, the process proceeds to step S2.

図30は、図29のステップS1の初期設定処理の流れの1例を示すフローチャートである。 Figure 30 is a flowchart showing the flow of an initial setting process in step S1 of FIG. 29. 図30に示すように、ステップS20にて、CPU201は、イメージセンサ43の初期設定処理を実行する。 As shown in FIG. 30, at step S20, CPU 201 executes initial setting processing of the image sensor 43. ステップS21にて、CPU201は、各種フラグ及び各種カウンタを初期化する。 In step S21, CPU 201 initializes various flags and various counters. ステップS22にて、CPU201は、タイマ回路210を発音のための割込み源としてセットする。 In step S22, CPU 201 sets the timer circuit 210 as an interrupt source for pronunciation. なお、割込み処理により、サウンドプロセッサ203による処理が実行されて、テレビジョンモニタ90のスピーカから楽曲が出力される。 Incidentally, an interrupt process, the processing by the sound processor 203 is executed, is output music from the loudspeaker of the television monitor 90.

図31は、図30のステップS20のセンサ初期設定処理の流れの1例を示すフローチャートである。 Figure 31 is a flowchart showing one example of the sensor initialization process in step S20 in FIG. 30. 図31に示すように、最初のステップS30では、高速プロセッサ200は、設定データとして、コマンド“CONF”を設定する。 As shown in FIG. 31, in first step S30, the high speed processor 200, as setting data, and sets the command "CONF". ただし、このコマンド“CONF”は、イメージセンサ43に、高速プロセッサ200からコマンドを送信する設定モードに入ることを知らせるためのコマンドである。 However, the command "CONF" is the image sensor 43 is a command for notifying that enter the setting mode for transmitting a command from the high speed processor 200. そして、次のステップS31にて、コマンド送信処理を実行する。 Then, in step S31, it executes a command transmission process.

図32は、図31のステップS31のコマンド送信処理の流れの1例を示すフローチャートである。 Figure 32 is a flowchart showing the flow of the command transmission processing in step S31 in FIG. 31. 図32に示すように、最初のステップS40では、高速プロセッサ200は、設定データ(ステップS31の場合はコマンド“CONF”)をレジスタデータ(I/Oポート)に設定し、次のステップS41でレジスタ設定クロックCLK(I/Oポート)をローレベルに設定する。 As shown in FIG. 32, in first step S40, the high speed processor 200, configuration data set (command "CONF" If in step S31) to register the data (I / O port) registers at the next step S41 set set the clock CLK to (I / O ports) to a low level. その後、ステップS42で規定時間待機した後、ステップS43で、レジスタ設定クロックCLKをハイレベルに設定する。 Then, after waiting for a specified time at step S42, in step S43, it sets the register setting clock CLK to a high level. そして、さらにステップS44での規定時間の待機の後、ステップS45でレジスタ設定クロックCLKを再びローレベルに設定する。 Then, after a further wait the prescribed time in step S44, is set to low level again register setting clock CLK in step S45.

このようにして、図33に示すように、規定時間の待機を行いながら、レジスタ設定クロックCLKをローレベル,ハイレベルそしてローレベルとすることによって、コマンド(コマンドまたはコマンド+データ)の送信処理が行われる。 In this way, as shown in FIG. 33, while waiting for a specified time, the register setting clock CLK to the low level by the high level and low level, transmission processing of the command (command or command + data) It takes place.

図31の説明に戻る。 Back to the description of FIG. 31. ステップS32では、ピクセルモードを設定するとともに、露光時間の設定を行う。 In step S32, it sets the pixel mode, and sets the exposure time. この実施の形態の場合、イメージセンサ43は先に述べたようにたとえば32ピクセル×32ピクセルのCMOSイメージセンサであるため、設定アドレス“0”のピクセルモードレジスタに32ピクセル×32ピクセルであることを示す“0h”を設定する。 In this embodiment, the image sensor 43 for a CMOS image sensor of the example 32 pixels × 32 pixels as mentioned above, is 32 pixels × 32 pixels in pixel mode register setting address "0" to set the "0h" show. 次のステップS33において、高速プロセッサ200は、レジスタ設定処理を実行する。 In the next step S33, the high speed processor 200 performs a register setting process.

図34は、図31のステップS33のレジスタ設定処理の流れの1例を示すフローチャートである。 Figure 34 is a flowchart showing the flow of the register setting process in step S33 in FIG. 31. 図34に示すように、最初のステップS50では、高速プロセッサ200は、設定データとして、コマンド“MOV”+アドレスを設定し、次のステップS51で、図32で先に説明したコマンド送信処理を実行して、それを送信する。 As shown in FIG. 34, in first step S50, the high speed processor 200 executes the setting data, and sets a command "MOV" + address, in the next step S51, the command transmission process described above in FIG. 32 and, to send it. 次にステップS52において、高速プロセッサ200は、設定データとして、コマンド“LD”+データを設定し、次のステップS53でコマンド送信処理を実行して、それを送信する。 In step S52, the high speed processor 200, as setting data, it sets the command "LD" + data, by executing the command transmission processing in the next step S53, and transmits it. そして、ステップS54で、高速プロセッサ200は、設定データとして、コマンド“SET”を設定し、次のステップS55でそれを送信する。 Then, in step S54, the high speed processor 200, as setting data, and sets a command "SET", and transmits it in the next step S55. なお、コマンド“MOV”は制御レジスタのアドレスを送信することを示すコマンドで、コマンド“LD”はデータを送信することを示すコマンドで、コマンド“SET”はデータをそのアドレスに実際に設定させるためのコマンドである。 Note that the command "MOV" is a command indicating to transmit the address of the control register, the command "LD" is a command indicating to transmit data, command "SET" is order to actually set data to the address which is a command. なお、この処理は、設定する制御レジスタが複数ある場合には、繰り返し実行される。 This process, if there are a plurality of control registers to be set are repeatedly executed.

図31の説明に戻る。 Back to the description of FIG. 31. ステップS34では、設定アドレスを“1”(露光時間設定レジスタのローニブルのアドレスを示す)とし、最大露光時間を示す“FFh”のローニブルデータ“Fh”を設定すべきデータとして設定する。 In step S34, the set address "1", and (the address of the low nibble of the exposure time setting register) is set as data to be set low nibble data "Fh" of indicating the maximum exposure time "FFh". そして、ステップS35で図34のレジスタ設定処理を実行する。 Then, run the register setting process of FIG. 34 in step S35. 同様にして、ステップS36において、設定アドレスを“2”(露光時間設定レジスタのハイニブルのアドレスを示す)とし、最大露光時間を示す“FFh”のハイニブルデータ“Fh”を設定すべきデータとして設定し、ステップS37でレジスタ設定処理を実行する。 Similarly set, in step S36, the set address "2", and (the address of the high nibble of the exposure time setting register), as data to be set high nibble data "Fh" of "FFh" indicating the maximum exposure time then, it executes the register setting process in step S37.

その後、ステップS38で設定終了を示しかつイメージセンサ43にデータの出力を開始させるためのコマンド“RUN”を設定し、ステップS39で送信する。 Then, set the command "RUN" for starting the output of data to the shown and the image sensor 43 to set ends in step S38, the transmitting in step S39. このようにして、図30に示すステップS20でのセンサ初期設定処理が実行される。 In this way, the sensor initialization process in step S20 shown in FIG. 30 is executed. ただし、図31〜図34に示す具体例は、使用されるイメージセンサ43の仕様に応じて、適宜変更され得るものである。 However, the embodiment shown in FIGS. 31 to 34, depending on the specifications of the image sensor 43 to be used, but it can be appropriately changed.

図35は、図29のステップS4の状態情報算出処理の流れの1例を示すフローチャートである。 Figure 35 is a flowchart showing the flow of state information calculation processing in step S4 in FIG. 29. 図35に示すように、ステップS60にて、CPU201は、ADC208からデジタルのピクセルデータを取得する。 As shown in FIG. 35, at step S60, CPU 201 obtains the digital pixel data from the ADC 208. このデジタルのピクセルデータは、イメージセンサ43からのアナログのピクセルデータが、ADC208により、デジタルに変換されたものである。 The digital pixel data, analog pixel data from the image sensor 43, in which the ADC 208, is converted to digital.

ステップS61にて、注目点抽出処理が実行される。 At step S61, target point extracting process is executed. 具体的には、CPU201が、赤外発光ダイオード15の発光時のピクセルデータと消灯時のピクセルデータとの差分を算出して、差分データを得る。 Specifically, CPU 201 may calculate the difference between the infrared light emitting diode 15 turns off when the pixel data and the light emission time of the pixel data to obtain difference data. そして、CPU201が、その差分データの最大値を検出して、所定の閾値Thと比較する。 Then, CPU 201 may detect the maximum value of the difference data is compared with a predetermined threshold value Th. さらに、CPU201は、差分データの最大値が所定の閾値Thを超えている場合は、その最大値の差分データを持つピクセルの座標を算出する。 Further, CPU 201, if the maximum value of the difference data exceeds a predetermined threshold value Th, and calculates the coordinates of the pixel having the difference data of the maximum value. そして、さらに、CPU201は、以上のようにして算出した座標の移動平均を求め、これをテレビジョンモニタ90のスクリーン91上の座標に変換し、操作物150の注目点の座標(Ax[M],Ay[M])とする。 Then, further, CPU 201 obtains the moving average of coordinates calculated in the manner described above, which is converted into coordinates on the screen 91 of the television monitor 90, the coordinates of the target point of the operation article 150 (Ax [M] , Ay [M]) to.

図36は、図35のステップS60のピクセルデータ群取得処理の流れの1例を示すフローチャートである。 Figure 36 is a flowchart showing one example of the pixel data group acquiring process in step S60 in FIG. 35. 図36に示すように、最初のステップS70で、CPU201は、ピクセルデータ配列の要素番号としてXに「−1」、Yに「0」を設定する。 As shown in FIG. 36, in the first step S70, CPU 201 is "-1" to X as an element number of the pixel data array, sets "0" to Y. 本実施の形態におけるピクセルデータ配列は、X=0〜31、Y=0〜31の2次元配列であるが、前述のように各行の先頭ピクセルのデータとしてダミーデータが出力されるので、Xの初期値として「−1」が設定される。 Pixel data array in the present embodiment, X = 0 to 31, is a Y = 0 to 31 of the two-dimensional array, the dummy data is output as data of the head pixel of each line as described above, the X "-1" is set as the initial value. 続くステップS71では、ピクセルデータの取得処理を実行する。 In step S71, it executes the process of acquiring the pixel data.

図37は、図36のステップS71のピクセルデータ取得処理の流れの1例を示すフローチャートである。 Figure 37 is a flowchart showing one example of the pixel data acquisition processing in step S71 in FIG. 36. 図37に示すように、最初のステップS80で、CPU201は、イメージセンサ43からのフレームステータスフラグ信号FSFをチェックし、ステップS81でそのアップエッジ(ローレベルからハイレベルへの)が発生したかどうか判断する。 As shown in FIG. 37, in the first step S80, whether the CPU 201, checks the frame status flag signal FSF from the image sensor 43, the rising edge at the step S81 (from low level to high level) has occurred to decide. そして、ステップS81でフラグ信号FSFのアップエッジを検出すると、次のステップS82において、CPU201は、ADC208に入力されてきたアナログのピクセルデータのデジタルデータへの変換の開始を指示する。 When detecting the rising edge of the flag signal FSF at step S81, in a next step S82, CPU 201 instructs the start of conversion to digital data of the analog pixel data that has been input to the ADC 208. その後、ステップS83でイメージセンサ43からのピクセルストローブPDSをチェックし、ステップS84でそのストローブ信号PDSのローレベルからハイレベルへのアップエッジが発生したかどうか判断する。 Then, check the pixel strobe PDS from the image sensor 43 in step S83, the determining whether a rising edge from the low level to a high level of the strobe signal PDS is generated in step S84.

ステップS84で“YES”が判断されると、CPU201は、ステップS85において、X=−1かどうか、すなわち先頭ピクセルかどうか判断する。 If "YES" is determined in step S84, CPU 201, in step S85, X = -1 if, that is, determine whether the head pixel. 先に述べたように、各行の先頭ピクセルはダミーピクセルとして設定されているので、このステップS85で“YES”が判断されると、次のステップS87でそのときのピクセルデータを取得しないで、要素番号Xをインクリメントする。 As mentioned earlier, since the first pixel of each row is set as the dummy pixel, when "YES" in step S85 is determined, without obtaining the pixel data of that time in a next step S87, the element increments the number X.

ステップS85で“NO”が判断されると、行の第2番目以降のピクセルデータであるので、ステップS86およびS88において、そのときのピクセルデータを取得し、テンポラリレジスタ(図示せず)にそのピクセルデータを格納する。 If "NO" is determined in step S85, the since in second and subsequent pixel data of the line, in step S86 and S88, acquires the pixel data of that time, the pixel in the temporary register (not shown) to store the data. その後、図36のステップS72に進む。 Thereafter, the process proceeds to step S72 in FIG. 36.

図36のステップS72では、テンポラリレジスタに格納されたピクセルデータをピクセルデータ配列P[Y][X]に代入する。 In step S72 of FIG. 36, it substitutes the pixel data stored in the temporary register to the pixel data array P [Y] [X].

続くステップS73でXをインクリメントする。 It increments the X in the subsequent step S73. Xが32に満たない場合、前述のS71からS73の処理を繰り返し実行する。 If X is less than 32 repeatedly executes the processing of S73 from S71 described above. Xが32の場合、すなわちピクセルデータの取得が行の終端に到達した場合には、続くステップS75でXに「−1」を設定し、ステップS76でYをインクリメントし、次の行の先頭からピクセルデータの取得処理を繰り返す。 If X is 32, that is, when the acquisition of the pixel data reaches the end of the line sets "-1" to X in the subsequent step S75, the incremented Y in step S76, from the beginning of the next line repeated pixel data acquiring process.

ステップS77でYが32の場合、すなわちピクセルデータの取得がピクセルデータ配列P[Y][X]の終端に到達した場合、図35のステップS61に進む。 When Y is 32 in step S77, the i.e. if the acquired pixel data is reaching the end of the pixel data array P [Y] [X], the process proceeds to step S61 in FIG. 35.

図38は、図35のステップS61の注目点抽出処理の流れの1例を示すフローチャートである。 Figure 38 is a flowchart showing the flow of the target point extracting process in step S61 in FIG. 35. 図38に示すように、ステップS90にて、CPU201は、イメージセンサ43からの、赤外発光ダイオード15の点灯時のピクセルデータと、赤外発光ダイオード15の消灯時のピクセルデータと、の差分を算出して、差分データを得る。 As shown in FIG. 38, at step S90, CPU 201 is from the image sensor 43, and the lighting time of the pixel data of the infrared light emitting diode 15, and turns off when the pixel data of the infrared light emitting diode 15, a differential calculated to obtain the differential data. ステップS91にて、CPU201は、配列Dif[X][Y]に、算出した差分データを代入する。 In step S91, CPU 201 is a sequence Dif [X] [Y], it substitutes the calculated difference data. ここで、実施の形態では、32ピクセル×32ピクセルのイメージセンサ43を用いているため、X=0〜31、Y=0〜31、である。 Here, in the embodiment, the use of the image sensor 43 of 32 pixels × 32 pixels, X = 0~31, Y = 0~31, a.

ステップS92にて、CPU201は、配列Dif[X][Y]の全要素をスキャンして、その最大値を検出する。 In step S92, CPU 201 scans the all elements of the array Dif [X] [Y], and detects the maximum value. CPU201は、最大値が所定の閾値Thより大きい場合は、ステップS94に進み、所定の閾値Th以下の場合は、図29のステップS10に進む(ステップS93)。 CPU201, the maximum value is the larger than the predetermined threshold value Th, the process proceeds to step S94, in the case of less than the predetermined threshold value Th, the process proceeds to step S10 of FIG. 29 (step S93).

ステップS94にて、CPU201は、その最大値の座標を基に、操作物150の注目点の座標(Xc,Yc)を算出する。 In step S94, CPU 201, based on the coordinates of the maximum value, and calculates the coordinates of the target point of the operation article 150 (Xc, Yc). ステップS95にて、CPU201は、回数Mの値を1つインクリメントする(M=M+1)。 In step S95, CPU 201 increments by one the value of the number M (M = M + 1).

ステップS96にて、CPU201は、座標Xc及びYcをそれぞれ、配列PX[M]及びPY[M]に代入する。 In step S96, CPU 201, respectively the coordinates Xc and Yc, is substituted into array PX [M] and PY [M]. ステップS97にて、CPU201は、操作物150の注目点(Xc,Yc)の移動平均(AX[M],AY[M])を算出する。 In step S97, CPU 201 is a moving average of the target point of the operation article 150 (Xc, Yc) (AX [M], AY [M]) is calculated. ステップS98にて、CPU201は、イメージセンサ43上の注目点の平均座標(AX[M],AY[M])を、テレビジョンモニタ90のスクリーン91上の座標(xc,yc)に変換する。 In step S98, CPU 201, the average coordinates of the target point on the image sensor 43 (AX [M], AY [M]) and are converted into coordinates (xc, yc) of the screen 91 of the television monitor 90.

図39は、図38のステップS94の注目点座標算出処理の流れの1例を示すフローチャートである。 Figure 39 is a flowchart showing the flow of the target point coordinate calculation process in step S94 in FIG. 38. 図39に示すように、ステップS100にて、CPU201は、「m」及び「n」にそれぞれ、ステップS92で求めた最大値のX座標及びY座標を代入する。 As shown in FIG. 39, at step S100, CPU 201 assigns the X and Y coordinates of the maximum values, respectively, calculated in step S92 to the "m" and "n". ステップS101にて、CPU201は、「m」を1つインクリメントする(m=m+1)。 In step S101, CPU 201 increments one "m" (m = m + 1). CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS103に進み、そうでない場合は、ステップS104に進む(ステップS102)。 CPU201 is differential data Dif [m] [n] is larger than the predetermined threshold Th, the process proceeds to step S103, otherwise proceeds to step S104 (step S102). ステップS103にて、CPU201は、「mr」にそのときの「m」を代入する。 In step S103, CPU 201 assigns "m" at the time the "mr". このように、ステップS101〜S103を繰り返しながら、最大値からX軸の正方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのX座標を求める。 Thus, while repeating steps S101 to S103, by executing the scan from the maximum value in the positive direction of the X axis, obtains the X-coordinate of the differential data endmost value exceeds a predetermined threshold value Th.

ステップS104にて、CPU201は、「m」に、ステップS92で求めた最大値のX座標を代入する。 In step S104, CPU 201 is the "m", and substitutes the X-coordinate of the maximum value obtained in step S92. ステップS105にて、CPU201は、「m」を1つデクリメントする。 In step S105, CPU 201 decrements one "m". CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS107に進み、そうでない場合は、ステップS108に進む(ステップS106)。 CPU201 is differential data Dif [m] [n] is larger than the predetermined threshold Th, the process proceeds to step S107, otherwise proceeds to step S108 (step S106). ステップS107にて、CPU201は、「ml」にそのときの「m」を代入する。 In step S107, CPU 201 assigns "m" at the time the "ml". このように、ステップS105〜S107を繰り返しながら、最大値からX軸の負方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのX座標を求める。 Thus, while repeating steps S105 to S107, by executing the scan from the maximum value in the negative direction of the X axis, obtains the X-coordinate of the differential data endmost value exceeds a predetermined threshold value Th.

ステップS108にて、CPU201は、X座標mrとX座標mlとの中心座標を算出して、それを、注目点のX座標(Xc)とする。 In step S108, CPU 201 calculates the center coordinates of the X-coordinate mr and X coordinate ml, it is the X coordinate of the target point (Xc). ステップS109にて、CPU201は、「m」及び「n」にそれぞれ、ステップS108で求めた「Xc」およびステップS92で求めた最大値のY座標を代入する。 In step S109, CPU 201 substitutes the Y-coordinate of the maximum value obtained in the "m" and each "n", "Xc" and step S92 obtained in step S108. ステップS110にて、CPU201は、「n」を1つインクリメントする(n=n+1)。 In step S110, CPU 201 increments by one "n" (n = n + 1). CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS112に進み、そうでない場合は、ステップS113に進む(ステップS111)。 CPU201 is differential data Dif [m] [n] is larger than the predetermined threshold Th, the process proceeds to step S112, otherwise proceeds to step S113 (step S111). ステップS112にて、CPU201は、「nd」にそのときの「n」を代入する。 In step S112, CPU201 assigns "n" at that time to "nd". このように、ステップS110〜S112を繰り返しながら、最大値からY軸の正方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのY座標を求める。 Thus, while repeating steps S110 to S112, by executing the scan from the maximum value in the positive direction of the Y-axis, obtains the Y-coordinate of the differential data endmost value exceeds a predetermined threshold value Th.

ステップS113にて、CPU201は、「n」に、ステップS92で求めた最大値のY座標を代入する。 In step S113, CPU 201 is the "n", and substitutes the Y-coordinate of the maximum value obtained in step S92. ステップS114にて、CPU201は、「n」を1つデクリメントする。 In step S114, CPU201 is decremented by one to "n". CPU201は、差分データDif[m][n]が、所定の閾値Thより大きい場合は、ステップS116に進み、そうでない場合は、ステップS117に進む(ステップS115)。 CPU201 is differential data Dif [m] [n] is larger than the predetermined threshold Th, the process proceeds to step S116, otherwise proceeds to step S117 (step S115). ステップS116にて、CPU201は、「nu」にそのときの「n」を代入する。 In step S116, CPU201 assigns "n" at that time to "nu". このように、ステップS114〜S116を繰り返しながら、最大値からY軸の負方向にスキャンを実行して、値が所定の閾値Thを超える一番端の差分データのY座標を求める。 Thus, while repeating steps S114 to S116, by executing the scan from the maximum value in the negative direction of the Y-axis, obtains the Y-coordinate of the differential data endmost value exceeds a predetermined threshold value Th.

ステップS117にて、CPU201は、Y座標ndとY座標nuとの中心座標を算出して、それを、注目点のY座標(Yc)とする。 In step S117, CPU 201 calculates the center coordinates of the Y coordinate nd and Y coordinate nu, it is the Y coordinate of the target point (Yc). 以上のようにして、操作物150の注目点の座標(Xc,Yc)が算出される。 As described above, the coordinates of the target point of the operation article 0.99 (Xc, Yc) is calculated.

図40は、図29のステップS8の追従オブジェクト制御処理の流れの1例を示すフローチャートである。 Figure 40 is a flowchart showing one example of the follow-up object control process in step S8 in FIG. 29. 図40に示すように、ステップS140にて、CPU201は、式(3)及び式(4)により、人魚112の表示座標(xm[M],ym[M])を算出して登録する。 As shown in FIG. 40, at step S140, CPU 201 using Formula (3) and (4), the display coordinates of the mermaid 112 (xm [M], ym [M]) and registers the calculated.

ステップS141にて、CPU201は、衝突フラグを参照して、現在表示中のフレームにおいて、人魚112が、障害画像Qあるいは障害オブジェクトPに衝突したか否かを確認する。 In step S141, CPU 201 refers to the collision flag, the frame currently displayed, the mermaid 112 confirms whether collides with failure image Q or obstacle object P. その結果、CPU201は、衝突フラグがオンの場合は、ステップS151に進み、オフの場合は、ステップS142に進む(ステップS141)。 As a result, the CPU 201, if the collision flag is on, the process proceeds to step S151, the case of off, the process proceeds to step S142 (step S141).

ステップS142にて、CPU201は、人魚112のx方向の移動距離mxと所定値xrとを比較する。 In step S142, CPU 201 compares the movement of the x-direction of the mermaid 112 distance mx and predetermined value xr. また、CPU201は、人魚112のy方向の移動距離myと所定値yrとを比較する。 Further, CPU 201 compares the moving distance my a predetermined value yr in the y direction of the mermaid 112. ステップS143にて、CPU201は、ステップS142の比較結果に基づいて、角度フラグをセットする(図22(a)参照)。 In step S143, CPU 201, based on the comparison result in step S142, sets the angle flag (see FIG. 22 (a)).

ステップS144にて、CPU201は、人魚112の速度ベクトル(Vxm[M],Vym[M])の符号を判定する。 In step S144, CPU 201 determines the sign of the velocity vector of the mermaid 112 (Vxm [M], Vym [M]). ステップS145にて、CPU201は、ステップS144の結果に基づいて、方向フラグをセットする(図22(b)参照)。 In step S145, CPU 201, based on the result of the step S144, and sets the direction flag (see FIG. 22 (b)).

ステップS146にて、CPU201は、角度フラグ及び方向フラグを参照して、移動方向情報を決定する(図22(c)参照)。 In step S146, CPU 201 refers to the angle flag and the direction flag, determines the movement direction information (see FIG. 22 (c)). ステップS147にて、CPU201は、決定した移動方向情報に従って、アニメーションテーブル格納位置情報を登録する(図24参照)。 In step S147, CPU 201 in accordance with the determined movement direction information, and registers the animation table storage location information (see FIG. 24).

さて、一方、ステップS151にて、CPU201は、人魚112が衝突したものが、障害画像Qが否かを判定する。 Now, whereas, at step S151, CPU 201 are those mermaid 112 collides is, determines whether or not failure image Q is. 判定の結果、CPU201は、障害画像Qに衝突した場合は、ステップS152に進み、そうでない場合、即ち、障害オブジェクトPに衝突した場合は、ステップS153に進む。 As a result of the determination, the CPU 201, if it collides with failure image Q, the process proceeds to step S152, otherwise, i.e., when striking the obstacle object P is the process proceeds to the step S153.

ステップS152にて、CPU201は、背景120のスクロール速度を基に、再び人魚112の表示座標を算出し、そして、再登録する。 In step S152, CPU 201, based on the scrolling speed of the background 120, and calculates the display coordinates of the mermaid 112 again and re-registers. より具体的は、CPU201は、人魚112のx座標に、スクロール速度のx成分を加えたものを、人魚112の新たなx座標とする。 More specifically, CPU 201 is the x-coordinate of the mermaid 112, the plus x-component of the scroll speed, and the new x-coordinate of the mermaid 112. なお、人魚のy座標は、前回のy座標を維持する。 Incidentally, the y coordinate of the mermaid maintains previous y coordinate. 一方、ステップS153にて、CPU201は、現在表示中の人魚112の座標を再登録する。 On the other hand, in step S153, CPU 201 re-registers the coordinates of the mermaid 112 currently displayed.

ステップS154にて、CPU201は、人魚112が衝突した際に使用するアニメーションテーブルの格納位置情報を登録する。 In step S154, CPU 201 registers the storage location information of the animation table used when the mermaid 112 collides. ステップS155にて、CPU201は、衝突フラグをオフにする。 In step S155, CPU 201 turns off the collision flag.

ステップS148にて、CPU201は、ステップS140で算出した人魚112の座標をもとに、人魚112と、障害画像Q及び障害オブジェクトPと、の間での衝突判定を行う(図26及び図27参照)。 In step S148, CPU 201, based on the coordinates of the mermaid 112 calculated in step S140, the mermaid 112 performs a fault image Q and the obstacle object P, and the collision determination between (see FIGS. 26 and 27 ). そして、CPU201は、衝突したと判定したときは、衝突フラグをオンにする。 Then, CPU 201, when it is determined that a collision, to turn on the collision flag.

さて、以上のように本実施の形態では、操作物150自体の動きに連動して、カーソル111(連動オブジェクト)が移動するため、カーソル111の直感的な操作が可能となって、容易な操作によりゲームを行うことができる。 Now, more than in the present embodiment as described, in conjunction with the movement of the operation article 150 itself, since the cursor 111 (linked object) moves, become possible intuitive operation of the cursor 111, easy operation it is possible to carry out the game by.

また、カーソル111は操作物150のスクリーン91上の位置を表すものであるため、カーソル111の動きは操作物150に同期あるいはほぼ同期している必要がある。 Also, the cursor 111 is for illustrates a position on the screen 91 of the operation article 150, the movement of the cursor 111 is required to be synchronized or almost synchronized with the operation article 150. このため、カーソル111の制御は、操作物150の動きに拘束される。 Therefore, the control of the cursor 111 is constrained to movement of the operation article 150. 一方、人魚112(追従オブジェクト)はカーソル111の動きに追従するものであるため、どのような態様でカーソル111に追従させるかは任意に決定できる。 On the other hand, the mermaid 112 (follow-up object) because it is intended to follow the movement of the cursor 111, what to follow the cursor 111 in a manner can be determined arbitrarily. 従って、人魚112の動きに趣向をこらすことができ、視覚的効果を大きくすることができる。 Therefore, it is possible to Colas a preference to the movement of the mermaid 112, it is possible to increase the visual effect. 本実施の形態では、人魚112の動きに、カーソル111との位置関係で決定される加速度、および、人魚112の速度に応じた抵抗、を加味して、人魚112があたかも水中を移動しているかのような視覚的効果を与えている(式(3)及び式(4)参照)。 Or In this embodiment, the movement of the mermaid 112, acceleration determined by the positional relationship between the cursor 111, and, in consideration of resistance, according to the speed of the mermaid 112, mermaid 112 is as if moving in water giving a visual effect, such as (see equation (3) and (4)).

また、本実施の形態では、CPU201は、体力ゲージ131(プレイヤ94がゲームを継続できる指標となる情報)を管理して、体力ゲージ131に基づいて、ゲームを終了させる。 Further, in the present embodiment, CPU 201 is the power gauge 131 manages (the player 94 the information as an index which can continue a game), on the basis of the power gauge 131, to end the game. つまり、本実施の形態では、体力ゲージ131のバー103の長さが「0」になったら、ゲームオーバーとなる。 In other words, in the present embodiment, when the length of the bar 103 of the power gauge 131 is set to "0", the game is over. このようにすれば、プレイヤ94は、無制限にゲームを実行できなくなるので、緊張感が増して、より面白みを増すことができる。 In this way, the player 94, so can not be unlimited run the game, and increases the tension, it is possible to further increase the fun.

さらに、本実施の形態では、人魚112が制限画像(障害オブジェクトPあるいは障害画像Q)が表示される領域に接触あるいは侵入したときに、体力ゲージ131を、第1の規則(原則的な規則)ではない第2の規則(プレイヤ94に不利な例外的な規則)に従って変更する。 Further, in this embodiment, when the mermaid 112 image (obstacle object P or failure image Q) is in contact or penetrate the area displayed limits, the power gauge 131, the first rule (principle rules) change in accordance with not the second rule (adverse exceptional rules to the player 94). つまり、本実施の形態では、このような場合、体力ゲージ131のバー103が急激に短くなる。 That is, in this embodiment, such a case, the bar 103 of the power gauge 131 is rapidly shortened. このようにすれば、プレイヤ94は、その制限画像を回避するように、カーソル111を介して人魚112を操作する必要があり、より一層面白みが増す。 In this way, the player 94, so as to avoid the restriction image, it is necessary to operate the mermaid 112 through the cursor 111, even more interesting is increased.

さらに、本実施の形態では、人魚112が、アイテム110,126が表示される領域に接触あるいは侵入したときに、体力ゲージ131を、第1の規則(原則的な規則)ではない第3の規則(プレイヤ94に有利な例外的な規則)に従って変更する。 Further, in this embodiment, the mermaid 112, when in contact or penetrate the area where the item 110, 126 is displayed, the power gauge 131, the first rule (principle rule) is not a third rule to change in accordance with the (favorable exceptional rules on player 94). つまり、本実施の形態では、このような場合、体力ゲージ131のバー103を所定長だけ長くする。 That is, in this embodiment, such a case, a longer bar 103 of the power gauge 131 by a predetermined length. このようにすれば、プレイヤ94は、そのアイテム110,126を取得するように、カーソル111を介して人魚112を操作する必要があり、より一層面白みが増す。 In this way, the player 94, to obtain the item 110, 126, it is necessary to operate the mermaid 112 through the cursor 111, even more interesting is increased.

さらに、本実施の形態では、背景120に障害画像Qが含まれため、背景120のスクロール制御と障害画像Qの制御とが同義である。 Further, in this embodiment, since it includes failure image Q in the background 120, and the control of the scroll control and fault image Q of the background 120 is synonymous. このため、障害画像Qの表示制御が容易になる。 This facilitates the display control failure image Q.

さらに、本実施の形態では、障害オブジェクトPを、単数又は複数のスプライトにより構成しているため、障害オブジェクトPの詳細な表示制御が可能となって、ゲーム内容の設計の自由度が大きくなる。 Further, in this embodiment, the obstacle object P, because they constitute a single or multiple sprites, making it possible to more detailed display control disorders object P, the degree of freedom in designing the game content is increased.

さらに、本実施の形態では、操作物150の状態情報として、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、を利用できる。 Further, in this embodiment, as the state information of the operation article 150, speed information, moving direction information, moving distance information, velocity vector information, acceleration information, movement locus information, area information, or positional information, either , or their two or more combinations, can be utilized. このため、操作物150の様々な情報を利用して、カーソル111及び人魚112を制御できるため、ゲーム内容の設計の自由度が大きくなる。 Thus, by using various information of the operation article 150, it is possible to control the cursor 111 and the mermaid 112, the degree of freedom in designing the game content is increased.

さらに、本実施の形態では、操作物150に間欠的に光を照射して、これを撮影することにより、操作物150の状態情報を求める。 Furthermore, in the present embodiment, by irradiating intermittently light the operation article 150, by taking this, obtains the state information of the operation article 150. このため、操作物150の状態情報を求めるために、操作物150に電源により駆動する回路を内蔵する必要がない。 Therefore, in order to obtain the state information of the operation article 150, it is not necessary to incorporate a circuit for driving the power supply to the operation article 150. よって、操作物150の操作性及び信頼性の向上を図ることができ、また、コストの低減を図ることができる。 Therefore, it is possible to improve the operability and reliability of the operation article 150, also it is possible to reduce the cost.

さて、次に、本実施の形態の変形例を説明する。 Now, it will be described a modification of this embodiment. 図41は、本実施の形態の変形例におけるゲーム画面の例示図である。 Figure 41 is an illustration of a game screen in a modification of this embodiment. なお、図41において、図11と同様の部分については、同一の参照符号を付している。 Incidentally, in FIG. 41, the same parts as in FIG. 11 are denoted by the same reference numerals. 図41に示すように、テレビジョンモニタ90のスクリーン91に表示されるゲーム画面は、迷路であり、この迷路は、通路133及び壁134を含む。 As shown in FIG. 41, a game screen displayed on the screen 91 of the television monitor 90 is a labyrinth, the maze includes a passage 133 and the wall 134. プレイヤ94は、操作物150を操作して、ゲーム画面のカーソル135を操作する。 Player 94, by operating the operation article 150, to manipulate the cursor 135 of the game screen. このカーソル135は、図11〜図13のカーソル111と同様のものであり、操作物150に連動する。 The cursor 135 is similar to the cursor 111 in FIGS. 11 to 13, linked to the operation article 150. なお、カーソル135の制御は、カーソル111の制御と同様である。 The control of the cursor 135 is the same as the control of the cursor 111.

プレイヤ94は、操作物150によりカーソル135を操作して通路133を進んでいく。 Player 94 advances the passage 133 by operating the cursor 135 by the operation thereof 150. スクリーン91の右端あるいは左端までカーソル135が移動したら、ゲーム画面がスクロールされる。 After moving the cursor 135 to the right or left edge of the screen 91, the game screen is scrolled. なお、スクロール制御については、上記の実施の形態と同様である。 Note that the scroll control is the same as the above embodiment. 従って、このゲーム画面は、バックグラウンドスクリーン140として構成される(図15参照)。 Therefore, the game screen is configured as a background screen 140 (see FIG. 15).

図42は、図41のゲーム画面における衝突判定の説明図である。 Figure 42 is an explanatory view of the collision determination in the game screen of FIG. 41. 図42に示すように、バックグラウンドスクリーン140のうち、スクリーン91に表示された領域(28×32ブロック)を考える。 As shown in FIG. 42, of the background screen 140, consider a display area on the screen 91 (28 × 32 block). そして、この28×32ブロックに対応した配列JA[0]〜JA[895]を用意する。 Then, to prepare the 28 × 32 array corresponding to block JA [0] ~JA [895]. なお、配列JA[0]〜JA[895]を包括して表現するときは、配列JAと表記する。 The arrangement JA [0] ~JA [895] When expressing a comprehensive and is designated as SEQUENCE JA. ここで、通路133を構成するブロックに対応する配列JAには、「0」を代入し、壁134を構成するブロックに対応する配列JAには、「1」を代入する。 Here, the array JA corresponding to the block that constitutes the passage 133, and assigns "0", the array JA corresponding to the blocks constituting the walls 134, substitutes "1".

CPU201は、操作物150の注目点が位置するブロックに対応する配列JAの要素をチェックする。 CPU201 checks the elements of the array JA corresponding to a block where the target point of the operation article 150 is located. そして、CPU201は、該当する配列JAの要素が「1」ならば、以下のようにして、カーソル135を壁134まで移動させる。 Then, CPU 201 may, if the elements of the corresponding sequence JA is "1", as follows, to move the cursor 135 to the wall 134. つまり、カーソル135は、壁134を越えて移動することはできない。 That is, the cursor 135 can not move beyond the wall 134.

図43は、図41のカーソル135が壁134に衝突した場合の座標算出の説明図である。 Figure 43 is an explanatory view of a coordinate calculation when the cursor 135 in FIG. 41 collides with the wall 134. 図43に示すように、例えば、要素が「1」の配列JA[10]に対応するブロック149を考える。 As shown in FIG. 43, for example, consider a block 149 in which an element corresponding to the sequence EN [10] "1". そして、注目点の前回の位置が点Aであり、注目点の今回の位置が点Bであるとする。 Then, the previous position of the target point is a point A, the current position of the target point is assumed to be a point B. この場合は、まず、CPU201は、直線ABが、直線ab、直線bc、直線cdおよび直線daのいずれと交わるかを算出する。 In this case, first, CPU 201 linearly AB calculates whether intersects with any straight line ab, straight bc, linear cd and straight da. つまり、2つのベクトル外積が「0」であれば、その2つのベクトルの交点は存在しない。 That is, if the two vector cross product is "0", the intersection of the two vectors does not exist.

次に、CPU201は、直線ABが交差する直線acと直線ABとの交点Iを算出する。 Next, CPU 201 calculates the intersection point I of the straight line ac and the line AB which line AB intersect. そして、CPU201は、この交点Iの座標を、カーソル135の今回の表示座標とする。 Then, CPU201 is, the coordinates of the intersection point I, and this time of the display coordinates of the cursor 135. こうすれば、カーソル135が、壁134に進入することはない。 In this way, the cursor 135 is not able to enter the wall 134.

この変形例によれば、実施の形態と同様に、操作物150自体の動きに連動して、カーソル135が移動するため、カーソル135の直感的な操作が可能となって、容易な操作により迷路ゲームを行うことができる。 According to this modification, similarly to the embodiment, in conjunction with the movement of the operation article 150 itself, since the cursor 135 is moved, it becomes possible intuitive operation of the cursor 135, the maze by easy operation the game can be carried out.

なお、カーソル135を中心とした所定範囲だけを、スポットを当てたように視認できるようにして、他の領域を暗くするようにすることもできる。 Incidentally, a predetermined range around the cursor 135, as visible as highlights can also be adapted to darken the other regions. こうすれば、迷路が単純だったとしても、難易度が高くなり、より面白みが増す。 In this way, even if the maze was simple, the difficulty is increased, more interesting is increased.

また、上記の例では、カーソル135を操作物150により操作して、迷路を移動させたが、図11等に示したように、カーソル135とは別に、追従オブジェクトを表示して、この追従オブジェクトをカーソル135を介して操作し、迷路を移動するようにすることもできる。 Further, in the above example, by operating the operation article 150 the cursor 135 has moved the labyrinth, as shown in FIG. 11 or the like, separately from the cursor 135, and displays the following objects, the tracking object was operated through the cursor 135 may be adapted to move the maze. この場合、例えば、カーソル135の制御は実施の形態と同様とし、追従オブジェクトの制御は、人魚112の制御と同様とすることができる。 In this case, for example, control of the cursor 135 is the same as the embodiment, the control of the tracking object may be similar to the control of the mermaid 112.

さて、上記では、操作物150の注目点が、要素が「1」の配列JAに対応するブロックに進入した場合は、カーソル135を、通路133と壁134との境界まで移動させることとして、カーソル135の動きを通路133内に規制した。 Now, in the above, the target point of the operation article 150, if it enters the block element corresponds to a sequence JA "1", the cursor 135, as it is moved to the boundary between the passage 133 and the wall 134, the cursor the movement of 135 were restricted within passageway 133. しかし、他の例として、操作物150の注目点の位置が、要素が「1」の配列JAに対応するブロック149にある場合は、ゲームオーバーとすることもできる。 However, as another example, the position of the target point of the operation article 150, when in the block 149 the element is corresponding to the arrangement JA "1" may be a game over. 従って、この場合、プレイヤ94は、壁134に接触しないように、カーソル135を操作しなければならない。 Therefore, in this case, the player 94 so as not to contact the walls 134, it must operate the cursor 135. なお、この場合も、図11等に示したように、カーソル135とは別に、追従オブジェクトを表示して、この追従オブジェクトをカーソル135を介して操作し、迷路を移動するようにすることもできる。 Also in this case, as shown in FIG. 11 or the like, separately from the cursor 135, and displays the following objects, the tracking object is operated through the cursor 135 may be adapted to move the maze .

この変形例によれば、実施の形態と同様に、操作物150自体を動かして、カーソル135を操作できるため、障害物に相当する壁134がスクリーン91上に存在するにもかかわらず、あたかも、実空間に存在する障害物を回避しながら、操作物150を動かしているような印象をプレイヤ94に与えることができる。 According to this modification, similarly to the embodiment, by moving the operation article 150 itself, since it is possible to operate the cursor 135, despite the wall 134 corresponding to the obstacle is present on the screen 91, though, while avoiding the obstacles that exist in the real space, it can give the impression that running the operation article 150 to the player 94. また、実空間に存在する障害物を回避する内容のゲーム装置と比較して、コストの低減、および、省スペース化、を図ることができる。 Further, as compared with the contents game device for avoiding an obstacle present in the real space, cost reduction, and space saving can be achieved.

なお、本発明は、上記の実施の形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能であり、例えば、以下のような変形も可能である。 The present invention is not limited to the above embodiments, it is possible to implement in various features without departing from the scope of the invention, for example, it is possible the following modifications.

(1)実施の形態では、追従オブジェクトとしての人魚112をカーソル111(連動オブジェクト)に追従させた。 (1) In the embodiment, the mermaid 112 as follows objects to follow the cursor 111 (linked objects). しかし、追従オブジェクトとしての人魚112を表示せず、カーソル111として、人魚112を表示することもできる。 However, without displaying the mermaid 112 as follow object, as the cursor 111 may be displayed mermaid 112. この場合は、プレイヤ94は、操作物150を操作して、カーソル111としての人魚112を移動させることになる。 In this case, the player 94 operates the operation article 150, so that moving the mermaid 112 as the cursor 111. このように、この例では、プレイヤ94は、操作物150により直接的に人魚112を操作することになる。 Thus, in this example, the player 94 will be directly manipulating the mermaid 112 by the operation article 150. なお、実施の形態では、プレイヤ94は、操作物150によりカーソル111を介して間接的に人魚112を操作する。 Incidentally, in the embodiment, the player 94 is indirectly operate the mermaid 112 through the cursor 111 by the operation thereof 150.

(2)実施の形態では、操作物として、スティック152および反射ボール151からなる操作物150を採用したが、反射体(例えば、再帰反射シート)を具備するのもであれば、操作物の形態はこれに限定されない。 (2) In the embodiment, as the operation thereof, it is adopted operation article 150 formed from the stick 152 and the reflective ball 151, reflector (e.g., retroreflective sheeting) if also to comprise a form of the operation article It is not limited to this.

(3)実施の形態では、図20(a)〜図20(d)に示すようにして、操作物150の注目点の座標を算出したが、所定の閾値Thを超える最大輝度値を持つピクセルの座標を、スクリーン91上の座標に変換して、これを注目点の座標とすることもできる。 (3) In the embodiment, as shown in FIG. 20 (a) ~ FIG 20 (d), was calculated coordinates of the target point of the operation article 150, the pixel having the maximum luminance value exceeding a predetermined threshold value Th the coordinates are converted into coordinates on the screen 91 may be a coordinate of the target point to this.

(4)図6の高速プロセッサ200として、任意の種類のプロセッサを使用できるが、本件出願人が既に特許出願している高速プロセッサを用いることが好ましい。 (4) as a high-speed processor 200 of FIG. 6, but any appropriate processor can be used, it is preferable to use a high-speed processor that the applicant has been filed patent applications. この高速プロセッサは、例えば、特開平10−307790号公報およびこれに対応するアメリカ特許第6,070,205号に詳細に開示されている。 This high-speed processor, for example, is disclosed in detail in US Patent No. 6,070,205 corresponding to Japanese and this Patent Laid-Open No. 10-307790.

本発明の実施の形態におけるゲームシステムの全体構成を示す図。 Diagram illustrating an overall configuration of a game system according to an embodiment of the present invention. 図1の操作物の斜視図。 Perspective view of the operation of FIG. (a)図2の反射ボールの上面図。 (A) a top view of the reflective ball of FIG. (b)図3(a)の矢印A方向からの反射ボールの側面図。 (B) a side view of a reflection balls from the direction of arrow A in FIG. 3 (a). (c)図3(a)の矢印B方向からの反射ボールの側面図。 (C) a side view of a reflection balls from the direction of arrow B in FIG. 3 (a). 図2の反射ボールの縦断面図。 Longitudinal sectional view of a reflective ball of FIG. 図1の撮像ユニットの一例を示す図解図。 Illustrative view showing one example of an imaging unit of FIG. 図1のゲーム装置の電気的な構成を示す図。 It shows an electrical configuration of the game apparatus of Figure 1. 図6の高速プロセッサのブロック図。 Block diagram of the high speed processor of FIG. 図6のイメージセンサから高速プロセッサへピクセルデータを取り込む構成及びLED駆動回路を示す回路図。 Circuit diagram showing a configuration and an LED driving circuit fetches the pixel data to the high speed processor from the image sensor of FIG. (a)図8のイメージセンサが出力するフレームステータスフラグ信号FSFのタイミング図。 (A) timing diagram of the frame status flag signal FSF the image sensor outputs in Fig. (b)図8のイメージセンサが出力するピクセルデータストローブ信号PDSのタイミング図。 (B) timing diagram of the pixel data strobe signal PDS that image sensor outputs in Fig. (c)図8のイメージセンサが出力するピクセルデータD(X,Y)のタイミング図。 (C) timing diagram of the pixel data D image sensor outputs in Fig. 8 (X, Y). (d)図8の高速プロセッサが出力するLEDコントロール信号LEDCのタイミング図。 (D) timing diagram of LED control signal LEDC high speed processor output in Figure 8. (e)図8の赤外発光ダイオードの点灯状態を示すタイミング図。 (E) timing diagram showing a lighting state of the infrared light emitting diode of FIG. (f)図8のイメージセンサの露光期間を示すタイミング図。 (F) timing diagram illustrating the exposure period of the image sensor of FIG. (a)図9のフレームステータスフラグ信号FSFの拡大図。 (A) an enlarged view of a frame status flag signal FSF of FIG. (b)図9のピクセルデータストローブ信号PDSの拡大図。 (B) an enlarged view of the pixel data strobe signal PDS in FIG. (c)図9のピクセルデータD(X,Y)の拡大図。 (C) an enlarged view of the pixel data D of FIG. 9 (X, Y). 図1のテレビジョンモニタのスクリーンに表示される第1ステージのゲーム画面の例示図。 Example of a game screen of the first stage to be displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示される第1ステージのゲーム画面の他の例示図。 Another example of a game screen of the first stage to be displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示される第2ステージのゲーム画面の例示図。 Example of a game screen of the second stage to be displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示されるオブジェクトを構成するスプライトの説明図。 Illustration of sprites constituting the object displayed on the screen of the television monitor of FIG. 図1のテレビジョンモニタのスクリーンに表示されるバックグラウンドスクリーンの説明図。 Illustration background screen to be displayed on the screen of the television monitor of FIG. (a)バックグラウンドスクリーンをスクロールする前の説明図。 (A) diagram before scrolling the background screen. (b)バックグラウンドスクリーンをスクロールした後の説明図。 (B) Description view after scrolling the background screen. 図6のROMに格納されたプログラム及びデータを示す概念図。 Conceptual diagram showing a program and data stored in the ROM of FIG. (a)一般的なイメージセンサにより撮影された、特別な処理を施さない画像の例示図。 (A) it is taken by a general image sensor, exemplary diagram of an image not subjected to special treatment. (b)図18(a)の画像信号を或る閾値でレベル弁別したときの画像信号の例示図。 (B) 18 exemplary diagram of an image signal when the image signal and the level discrimination with a certain threshold (a). (c)赤外フィルタを介したイメージセンサの点灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図。 (C) illustration of the image signal when the level discriminating an image signal at the time of lighting of the image sensor through the infrared filter at a certain threshold. (d)赤外フィルタを介したイメージセンサの消灯時の画像信号を或る閾値でレベル弁別したときの画像信号の例示図。 (D) illustration of the image signal when the level discriminating an image signal at the time of turning off of the image sensor through the infrared filter at a certain threshold. (e)点灯時の画像信号と消灯時の画像信号との差分信号の例示図。 (E) illustration of a differential signal between the image signal and the image signal at the time of turning off at the time of lighting. 図1の操作物の注目点の座標算出の説明図。 Illustration of coordinate calculation of the target point of the operation of FIG. (a)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際のX方向スキャンの説明図。 (A) the maximum luminance value on the basis of the coordinates of the pixels having, illustration of the X-direction scan in calculating target point coordinates of the operation thereof. (b)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際のY方向スキャンのスタート時の説明図。 (B) the maximum luminance value on the basis of the coordinates of the pixels having, illustration of the start of the Y direction scanning in calculating target point coordinates of the operation thereof. (c)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際のY方向スキャンの説明図。 (C) the maximum luminance value on the basis of the coordinates of the pixels having, illustration of the Y-direction scanning in calculating target point coordinates of the operation thereof. (d)最大輝度値を持つピクセルの座標を基に、操作物の注目点座標を算出する際の結果の説明図。 (D) the maximum luminance value on the basis of the coordinates of the pixels having, illustration of the results of when calculating the target point coordinates of the operation article. CPU201による追従オブジェクト制御処理の説明図。 Illustration of the tracking object control process by the CPU 201. (a)角度フラグの値と角度との関係図。 (A) graph showing the relationship between the value and the angle of the angle flag. (b)方向フラグの値と方向を表す符号との関係図。 (B) graph it is showing the relationship between the code representing the value and direction of the direction flag. (c)角度フラグ及び方向フラグと、移動方向情報と、の関係図。 (C) the angle flag and the direction flag, relationship diagram of the moving direction information. 図22(c)の移動方向情報と、人魚の移動方向と、の関係図。 Relationship diagram of the moving direction information, the moving direction of the mermaid, in FIG. 22 (c). 図22(c)の移動方向情報とアニメーションテーブル格納位置情報との関係図。 Graph showing the relationship between the moving direction information and animation table storage location information of FIG. 22 (c). 図24のアニメーションテーブル格納位置情報により示される、人魚をアニメーションするためのアニメーションテーブルの例示図。 Indicated by the animation table storage location information of FIG. 24, illustration of the animation table for animating the mermaid. CPU201による追従オブジェクト制御処理での衝突判定の説明図。 Illustration of the collision decision at follow-up object control process by the CPU 201. (a)CPU201の追従オブジェクト制御処理で判断される第1の重複パターンの説明図。 (A) illustrates the first duplicate pattern is determined by the CPU201 of the follow-up object control process. (b)CPU201の追従オブジェクト制御処理で判断される第2の重複パターンの説明図。 (B) illustration of a second overlapping pattern is determined by the CPU201 of the follow-up object control process. (c)CPU201の追従オブジェクト制御処理で判断される第3の重複パターンの説明図。 (C) Third illustration of overlapping patterns of which are determined by the CPU201 of the follow-up object control process. (d)CPU201の追従オブジェクト制御処理で判断される第4の重複パターンの説明図。 (D) Fourth illustration of overlapping patterns of which are determined by the CPU201 of the follow-up object control process. (e)CPU201の追従オブジェクト制御処理で判断される第5の重複パターンの説明図。 (E) fifth explanatory diagram of the overlapping patterns that are determined by the CPU201 of the follow-up object control process. (f)CPU201の追従オブジェクト制御処理で判断される第6の重複パターンの説明図。 (F) Sixth illustration of overlapping patterns of which are determined by the CPU201 of the follow-up object control process. (g)CPU201の追従オブジェクト制御処理で判断される第7の重複パターンの説明図。 (G) Seventh illustration of overlapping patterns of which are determined by the CPU201 of the follow-up object control process. (h)CPU201の追従オブジェクト制御処理で判断される第8の重複パターンの説明図。 (H) eighth explanatory diagram of the overlapping patterns that are determined by the CPU201 of the follow-up object control process. (i)CPU201の追従オブジェクト制御処理で判断される第9の重複パターンの説明図。 (I) Ninth illustration of overlapping patterns of which are determined by the CPU201 of the follow-up object control process. (j)CPU201の追従オブジェクト制御処理で判断される第10の重複パターンの説明図。 (J) 10 illustrating the overlapping patterns that are determined by the CPU201 of the follow-up object control process. (k)CPU201の追従オブジェクト制御処理で判断される第11の重複パターンの説明図。 (K) 11 illustrating the overlapping patterns that are determined by the CPU201 of the follow-up object control process. (l)CPU201の追従オブジェクト制御処理で判断される第12の重複パターンの説明図。 (L) 12 illustrating the overlapping patterns that are determined by the CPU201 of the follow-up object control process. (m)CPU201の追従オブジェクト制御処理で判断される第13の重複パターンの説明図。 (M) 13 illustrating the overlapping patterns that are determined by the CPU201 of the follow-up object control process. (n)CPU201の追従オブジェクト制御処理で判断される第14の重複パターンの説明図。 (N) 14 illustrating the overlapping patterns that are determined by the CPU201 of the follow-up object control process. (a)図11〜図13の体力ゲージを構成する枠の例示図。 (A) illustration of a frame constituting the power gauge of 11 to 13. (b)体力ゲージのバーを構成する要素の例示図。 (B) illustration of elements constituting the bar power gauge. 図1のゲーム装置の全体の処理の流れの1例を示すフローチャート。 Flowchart showing the overall process flow of the game apparatus of Figure 1. 図29のステップS1の初期設定処理の流れの1例を示すフローチャート。 Flowchart showing the flow of an initial setting process in step S1 of FIG. 29. 図30のステップS20のセンサ初期設定処理の流れの1例を示すフローチャート。 Flowchart showing one example of the sensor initialization process in step S20 in FIG. 30. 図31のステップS31のコマンド送信処理の流れの1例を示すフローチャート。 Flowchart showing one example of the command transmission processing in step S31 in FIG. 31. (a)図8のレジスタ設定クロックCLKのタイミング図。 (A) timing diagram of the register setting clock CLK in Figure 8. (b)図8のレジスタデータのタイミング図。 (B) timing diagram of the register data of FIG. 図31のステップS33のレジスタ設定処理の流れの1例を示すフローチャート。 Flowchart showing the flow of the register setting process in step S33 in FIG. 31. 図29のステップS4の状態情報算出処理の流れの1例を示すフローチャート。 Flowchart showing the flow of state information calculation processing in step S4 in FIG. 29. 図35のステップS60のピクセルデータ群取得処理の流れの1例を示すフローチャート。 Flowchart showing one example of the pixel data group acquiring process in step S60 in FIG. 35. 図36のステップS71のピクセルデータ取得処理の流れの1例を示すフローチャート。 Flowchart showing one example of the pixel data acquisition processing in step S71 in FIG. 36. 図35のステップS61の注目点抽出処理の流れの1例を示すフローチャート。 Flowchart showing the flow of the target point extracting process in step S61 in FIG. 35. 図38のステップS94の注目点座標算出処理の流れの1例を示すフローチャート。 Flowchart showing the flow of the target point coordinate calculation process in step S94 in FIG. 38. 図29のステップS8の追従オブジェクト制御処理の流れの1例を示すフローチャート。 Flowchart showing one example of the follow-up object control process in step S8 in FIG. 29. 本実施の形態の変形例におけるゲーム画面の例示図。 Example of a game screen in a modification of this embodiment. 図41のゲーム画面における衝突判定の説明図。 Illustration of the collision determination in the game screen of FIG. 41. 図41のカーソルが壁に衝突した場合の座標算出の説明図。 Illustration of coordinate calculation when the cursor hits the wall of Figure 41.

符号の説明 DESCRIPTION OF SYMBOLS

1…ゲーム装置、13…撮像ユニット、15…赤外発光ダイオード、17…赤外フィルタ、19…ハウジング、35…ユニットベース、36…支持筒、37…凸レンズ、39…凹レンズ、41…開口部、43…イメージセンサ、47…映像信号出力端子、49…音声信号出力端子、51…ROM、53…バス、59…基準電圧発生回路、61,81…NPNトランジスタ、67…微分回路、71…コンデンサ、75…LED駆動回路、77…PNPトランジスタ、65,69,73,79…抵抗素子、90…テレビジョンモニタ、91…スクリーン、92…ACアダプタ、93…AVケーブル、94…プレイヤ、101,102…マスク、103…バー、104〜109,121〜125,P…障害オブジェクト、110,126…アイテム 1 ... game device 13 ... imaging unit, 15 ... infrared light emitting diode, 17 ... infrared filter, 19 ... housing, 35 ... unit base, 36 ... support tube, 37 ... lens, 39 ... lens, 41 ... opening, 43 ... image sensor, 47 ... video signal output terminal, 49 ... audio signal output terminal, 51 ... ROM, 53 ... bus, 59 ... reference voltage generating circuit, 61, 81 ... NPN transistor, 67 ... differential circuit, 71 ... capacitors, 75 ... LED drive circuit, 77 ... PNP transistor, 65,69,73,79 ... resistance element, 90 ... television monitor, 91 ... screen, 92 ... AC adapter, 93 ... AV cable, 94 ... player, 101, 102 ... mask, 103 ... bar, 104~109,121~125, P ... failure object, 110, 126 ... items 111,135…カーソル、112…追従オブジェクト、113〜117,Q…障害画像、120…背景、131…体力ゲージ、133…通路、134…壁、140…バックグラウンドスクリーン、149…ブロック、150…操作物、151…反射ボール、152…スティック、153…球状外殻、154…球状内殻、155…反射シート、156,157…ボス、200…高速プロセッサ、201…CPU、202…グラフィックプロセッサ、203…サウンドプロセッサ、204…DMAコントローラ、205…第1バス調停回路、206…第2バス調停回路、207…内部メモリ、208…ADC(A/Dコンバータ)、209…入出力制御回路、210…タイマ回路、211…DRAMリフレッシュ制御回路、212…外部メモ 111,135 ... cursor 112 ... tracking object, 113 to 117, Q ... fault image, 120 ... background, 131 ... power gauge, 133 ... passage 134 ... wall, 140 ... background screen, 149 ... block, 150 ... Operation things, 151 ... reflective ball, 152 ... stick, 153 ... outer spherical shell, 154 ... spherical inner shell 155 ... reflective sheet, 156, 157 ... boss, 200 ... fast processor, 201 ... CPU, 202 ... graphics processor 203 ... sound processor, 204 ... DMA controller, 205 ... first bus arbitration circuit, 206 ... second bus arbitration circuit, 207 ... internal memory, 208 ... ADC (A / D converter), 209 ... output control circuit, 210 ... timer circuit , 211 ... DRAM refresh control circuit, 212 ... external memory インタフェース回路、213…クロックドライバ、214…PLL回路、215…低電圧検出回路、216…水晶振動子、217…バッテリ、218…第1バス、219…第2バス、300…ゲームプログラム、301…画像データ、302…オブジェクト画像データ、303…背景画像データ、304…楽音データ、305…楽譜データ、306…波形データ。 Interface circuit, 213 ... clock driver, 214 ... PLL circuit, 215 ... low-voltage detection circuit, 216 ... crystal oscillator, 217 ... battery, 218 ... first bus, 219 ... second bus, 300 ... game program 301 ... image data, 302 ... object image data, 303 ... background image data, 304 ... tone data, 305 ... score data, 306 ... waveform data.

Claims (16)

  1. プレイヤによって操作される操作物に、予め定められた周期で、光を照射するストロボスコープと、 The operation was to be operated by the player, in a predetermined cycle, a stroboscope that emits light,
    前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、 In each of the time of light emission time and off of the stroboscope, by imaging the operation article, imaging means for generating a light emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、 A difference signal generating means for generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、 Based on the difference signal, and the state information calculating means for calculating the state information of the operation article,
    前記操作物に連動する連動オブジェクトの表示を、前記操作物の前記状態情報に基づいて制御する連動オブジェクト制御手段と、 The display of interlocking object interlocked with the operation thereof, and interlocking object control means for controlling on the basis of the state information of the operation article,
    前記連動オブジェクトの移動を制限する制限画像を制御する制限画像制御手段と、を備えるゲーム装置。 Game device and a limited image control means for controlling the limited image for limiting the movement of the interlocking object.
  2. プレイヤによって操作される操作物に、予め定められた周期で、光を照射するストロボスコープと、 The operation was to be operated by the player, in a predetermined cycle, a stroboscope that emits light,
    前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、 In each of the time of light emission time and off of the stroboscope, by imaging the operation article, imaging means for generating a light emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、 A difference signal generating means for generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、 Based on the difference signal, and the state information calculating means for calculating the state information of the operation article,
    前記操作物の位置を画面上に表すカーソルの表示を、前記操作物の前記状態情報に基づいて制御するカーソル制御手段と、 The display of the cursor indicating the position of the operation article on the screen, and a cursor control means for controlling on the basis of the state information of the operation article,
    前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御する追従オブジェクト制御手段と、を備えるゲーム装置。 The display of the tracking object to follow the movement of the cursor, the game apparatus and a follow-up object control means for controlling, based on the coordinate information of the cursor.
  3. 前記追従オブジェクトの移動を制限する制限画像を制御する制限画像制御手段をさらに備える請求項2記載のゲーム装置。 Game apparatus according to claim 2, further comprising a limited image control means for controlling the limited image for limiting movement of said follow-up object.
  4. プレイヤがゲームを継続できる指標となる情報を管理して、前記指標となる情報に基づいて、ゲームを終了させるゲーム継続管理手段をさらに備える請求項1又は3記載のゲーム装置。 Player manages information as an index can continue the game, based on the information to be the index, the game apparatus according to claim 1 or 3, wherein further comprising a game continuation management means for terminating the game.
  5. 前記制限画像は、迷路を構成する画像である、請求項1、3又は4記載のゲーム装置。 The limited image is an image that constitutes the maze game apparatus as claimed in claim 1, 3 or 4, wherein.
  6. 前記連動オブジェクトが、前記制限画像が表示される領域に接触あるいは侵入したときに、ゲームオーバーとなる、請求項1記載のゲーム装置。 The interlocking objects, when the limited image is in contact or penetrate the region displayed, the game is over, the game apparatus according to claim 1.
  7. 前記追従オブジェクトが、前記制限画像が表示される領域に接触あるいは侵入したときに、ゲームオーバーとなる、請求項3記載のゲーム装置。 The follow-up object when said limited image is in contact or penetrate the region displayed, the game is over, the game apparatus according to claim 3, wherein.
  8. 前記状態情報算出手段が算出する前記操作物の前記状態情報は、速さ情報、移動方向情報、移動距離情報、速度ベクトル情報、加速度情報、移動軌跡情報、面積情報、若しくは、位置情報、のいずれか、又は、それらの2以上の組み合わせ、である、請求項1又は2記載のゲーム装置。 The state information of the operation article the state information calculating means for calculating the speed information, moving direction information, moving distance information, velocity vector information, acceleration information, movement locus information, area information, or positional information, either or their two or more combination, a game apparatus according to claim 1 or 2, wherein.
  9. 請求項1記載のゲーム装置のプレイヤが操作する操作物であって、 A operation article operated by a player of the game apparatus according to claim 1,
    前記プレイヤによって把持される棒状の把持部と、 A grip portion of the rod-shaped to be gripped by the player,
    前記把持部の一方端に設けられ、受けた光を再帰反射する反射部と、を備える操作物。 Wherein provided on one end of the grip portion, the operation article comprising receiving a reflected portion of retroreflective light was, the.
  10. 請求項2記載のゲーム装置のプレイヤが操作する操作物であって、 A operation article operated by a player of the game apparatus according to claim 2,
    前記プレイヤによって把持される棒状の把持部と、 A grip portion of the rod-shaped to be gripped by the player,
    前記把持部の一方端に設けられ、受けた光を再帰反射する反射部と、を備える操作物。 Wherein provided on one end of the grip portion, the operation article comprising receiving a reflected portion of retroreflective light was, the.
  11. プレイヤによって操作される操作物と、 An operation thereof to be operated by a player,
    前記操作物に、予め定められた周期で、光を照射するストロボスコープと、 The operation article, in a predetermined cycle, a stroboscope that emits light,
    前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、 In each of the time of light emission time and off of the stroboscope, by imaging the operation article, imaging means for generating a light emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、 A difference signal generating means for generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、 Based on the difference signal, and the state information calculating means for calculating the state information of the operation article,
    前記操作物に連動する連動オブジェクトの表示を、前記操作物の前記状態情報に基づいて制御する連動オブジェクト制御手段と、 The display of interlocking object interlocked with the operation thereof, and interlocking object control means for controlling on the basis of the state information of the operation article,
    前記連動オブジェクトの移動を制限する制限画像を制御する制限画像制御手段と、を備えるゲームシステム。 Game system and a limited image control means for controlling the limited image for limiting the movement of the interlocking object.
  12. プレイヤによって操作される操作物と、 An operation thereof to be operated by a player,
    前記操作物に、予め定められた周期で、光を照射するストロボスコープと、 The operation article, in a predetermined cycle, a stroboscope that emits light,
    前記ストロボスコープの発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成する撮像手段と、 In each of the time of light emission time and off of the stroboscope, by imaging the operation article, imaging means for generating a light emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成する差分信号生成手段と、 A difference signal generating means for generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出する状態情報算出手段と、 Based on the difference signal, and the state information calculating means for calculating the state information of the operation article,
    前記操作物の位置を画面上に表すカーソルの表示を、前記操作物の前記状態情報に基づいて制御するカーソル制御手段と、 The display of the cursor indicating the position of the operation article on the screen, and a cursor control means for controlling on the basis of the state information of the operation article,
    前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御する追従オブジェクト制御手段と、を備えるゲームシステム。 Game system and a follow-up object control means for controlling, based on the display of the tracking object to follow the movement of the cursor coordinate information of the cursor.
  13. プレイヤによって操作される操作物に、予め定められた周期で、光を照射するステップと、 The operation was to be operated by the player, in a predetermined cycle, the steps of irradiating light,
    前記発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成するステップと、 In each of the time the light emission time and off, the steps of capturing the operation article, to generate an emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成するステップと、 Generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出するステップと、 A step of based on said difference signal, and calculates the state information of the operation article,
    前記操作物に連動する連動オブジェクトの表示を、前記操作物の前記状態情報に基づいて制御するステップと、 And controlling, based on the state information of the display and the operation of the interlocking object interlocked with the operation thereof,
    前記連動オブジェクトの移動を制限する制限画像を制御するステップと、をコンピュータに実行させるゲームプログラム。 Game program to be executed and controlling the limited image for limiting the movement of the interlocking objects, to a computer.
  14. プレイヤによって操作される操作物に、予め定められた周期で、光を照射するステップと、 The operation was to be operated by the player, in a predetermined cycle, the steps of irradiating light,
    前記発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成するステップと、 In each of the time the light emission time and off, the steps of capturing the operation article, to generate an emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成するステップと、 Generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出するステップと、 A step of based on said difference signal, and calculates the state information of the operation article,
    前記操作物の位置を画面上に表すカーソルの表示を、前記操作物の前記状態情報に基づいて制御するステップと、 The display of the cursor indicating the position of the operation article on the screen, and controlling, based on the state information of the operation article,
    前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御するステップと、をコンピュータに実行させるゲームプログラム。 Game program for executing the display of the tracking object to follow the movement of the cursor, and controlling, based on the coordinate information of the cursor, to the computer.
  15. プレイヤによって操作される操作物に、予め定められた周期で、光を照射するステップと、 The operation was to be operated by the player, in a predetermined cycle, the steps of irradiating light,
    前記発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成するステップと、 In each of the time the light emission time and off, the steps of capturing the operation article, to generate an emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成するステップと、 Generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出するステップと、 A step of based on said difference signal, and calculates the state information of the operation article,
    前記操作物に連動する連動オブジェクトの表示を、前記操作物の前記状態情報に基づいて制御するステップと、 And controlling, based on the state information of the display and the operation of the interlocking object interlocked with the operation thereof,
    前記連動オブジェクトの移動を制限する制限画像を制御するステップと、を含むゲーム方法。 Game method comprising the steps of controlling the restriction image for limiting the movement of the interlocking object.
  16. プレイヤによって操作される操作物に、予め定められた周期で、光を照射するステップと、 The operation was to be operated by the player, in a predetermined cycle, the steps of irradiating light,
    前記発光時及び消灯時のそれぞれにおいて、前記操作物を撮影して、発光時画像信号及び消灯時画像信号を生成するステップと、 In each of the time the light emission time and off, the steps of capturing the operation article, to generate an emission time of the image signal and the light-off image signal,
    前記発光時画像信号と前記消灯時画像信号との差分信号を生成するステップと、 Generating a differential signal between the light emitting time of the image signal and the light-off image signal,
    前記差分信号に基づいて、前記操作物の状態情報を算出するステップと、 A step of based on said difference signal, and calculates the state information of the operation article,
    前記操作物の位置を画面上に表すカーソルの表示を、前記操作物の前記状態情報に基づいて制御するステップと、 The display of the cursor indicating the position of the operation article on the screen, and controlling, based on the state information of the operation article,
    前記カーソルの動きに追従する追従オブジェクトの表示を、前記カーソルの座標情報に基づいて制御するステップと、を含むゲーム方法。 Game method comprising the steps of controlling based on the display of the coordinate information of the cursor of the following objects to follow the movement of the cursor.
JP2004307992A 2003-10-23 2004-10-22 Game apparatus, a game program, and a control method of a game apparatus Expired - Fee Related JP4735802B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003362637 2003-10-23
JP2003362637 2003-10-23
JP2004307992A JP4735802B2 (en) 2003-10-23 2004-10-22 Game apparatus, a game program, and a control method of a game apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004307992A JP4735802B2 (en) 2003-10-23 2004-10-22 Game apparatus, a game program, and a control method of a game apparatus

Publications (3)

Publication Number Publication Date
JP2005144158A true true JP2005144158A (en) 2005-06-09
JP2005144158A5 true JP2005144158A5 (en) 2007-12-06
JP4735802B2 JP4735802B2 (en) 2011-07-27

Family

ID=34703139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004307992A Expired - Fee Related JP4735802B2 (en) 2003-10-23 2004-10-22 Game apparatus, a game program, and a control method of a game apparatus

Country Status (1)

Country Link
JP (1) JP4735802B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178278A (en) * 2008-01-30 2009-08-13 Square Enix Co Ltd Video game program and video game device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241885A (en) * 1991-01-16 1992-08-28 Mizuno Corp Golf game simulating device
JPH0650758A (en) * 1992-07-31 1994-02-25 Sony Corp Input device
JPH06198075A (en) * 1992-09-11 1994-07-19 Shinichi Tsubota Game controller
JPH09265346A (en) * 1996-03-29 1997-10-07 Bijiyuaru Sci Kenkyusho:Kk Space mouse, mouse position detection device and visualization device
JPH10222285A (en) * 1997-01-31 1998-08-21 Toshiba Corp Image extracting device
JPH1153572A (en) * 1997-06-04 1999-02-26 Konami Co Ltd Method for representing motion of body, object display method, game system, and computer-readable storage medium recorded with game program
JP2001056870A (en) * 1999-08-20 2001-02-27 Koei:Kk Group character moving method, recording medium, and game device
JP2001209487A (en) * 2000-01-25 2001-08-03 Uw:Kk Handwriting communication system, and handwriting input and handwriting display device used for the system
JP2001307124A (en) * 2000-02-15 2001-11-02 Sega Corp Image processing system, image processor and image pickup device
JP2003236244A (en) * 2002-02-14 2003-08-26 Konami Co Ltd Controller, attitude remote measuring device of controller and video game device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241885A (en) * 1991-01-16 1992-08-28 Mizuno Corp Golf game simulating device
JPH0650758A (en) * 1992-07-31 1994-02-25 Sony Corp Input device
JPH06198075A (en) * 1992-09-11 1994-07-19 Shinichi Tsubota Game controller
JPH09265346A (en) * 1996-03-29 1997-10-07 Bijiyuaru Sci Kenkyusho:Kk Space mouse, mouse position detection device and visualization device
JPH10222285A (en) * 1997-01-31 1998-08-21 Toshiba Corp Image extracting device
JPH1153572A (en) * 1997-06-04 1999-02-26 Konami Co Ltd Method for representing motion of body, object display method, game system, and computer-readable storage medium recorded with game program
JP2001056870A (en) * 1999-08-20 2001-02-27 Koei:Kk Group character moving method, recording medium, and game device
JP2001209487A (en) * 2000-01-25 2001-08-03 Uw:Kk Handwriting communication system, and handwriting input and handwriting display device used for the system
JP2001307124A (en) * 2000-02-15 2001-11-02 Sega Corp Image processing system, image processor and image pickup device
JP2003236244A (en) * 2002-02-14 2003-08-26 Konami Co Ltd Controller, attitude remote measuring device of controller and video game device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178278A (en) * 2008-01-30 2009-08-13 Square Enix Co Ltd Video game program and video game device
JP4700702B2 (en) * 2008-01-30 2011-06-15 株式会社スクウェア・エニックス Video game programs and video game device

Also Published As

Publication number Publication date Type
JP4735802B2 (en) 2011-07-27 grant

Similar Documents

Publication Publication Date Title
US5704836A (en) Motion-based command generation technology
US6599195B1 (en) Background sound switching apparatus, background-sound switching method, readable recording medium with recording background-sound switching program, and video game apparatus
US7704146B2 (en) Multiply interconnectable environmentally interactive character simulation module method and system
US6761634B1 (en) Arcade table
US20090069096A1 (en) Program, information storage medium, game system, and input instruction device
US7394459B2 (en) Interaction between objects and a virtual environment display
US6766036B1 (en) Camera based man machine interfaces
US6867781B1 (en) Graphics pipeline token synchronization
US20050014543A1 (en) Game apparatus, game program and game method
US20080218515A1 (en) Three-dimensional-image display system and displaying method
US20030166413A1 (en) Game machine and game program
US6203431B1 (en) Video game apparatus and memory medium used therefor
US20090091710A1 (en) Interactive projector system and method
US20060183545A1 (en) Multi-user touch-responsive entertainment device
US20030210255A1 (en) Image display processing apparatus, image display processing method, and computer program
US20050237323A1 (en) Three-dimensional image generating apparatus, storage medium storing a three-dimensional image generating program, and three-dimensional image generating method
JP2003058317A (en) Marker for detecting orienting position, orienting position detector and shooting game device
US7682237B2 (en) Music game with strike sounds changing in quality in the progress of music and entertainment music system
JP2005323745A (en) Game machine
JP2002196855A (en) Image processor, image processing method, recording medium, computer program and semiconductor device
US20110034247A1 (en) Game system and game program
WO2007070738A2 (en) Methods and systems for enabling depth and direction detection when interfacing with a computer program
JP2000259340A (en) Device and method for input, input system, and distribution medium
JP2004313598A (en) Game machine
US7297864B2 (en) Image signal generating apparatus, an image signal generating program and an image signal generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110412

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees