JP3451343B2 - Signal generation apparatus and signal generation method - Google Patents

Signal generation apparatus and signal generation method

Info

Publication number
JP3451343B2
JP3451343B2 JP04573994A JP4573994A JP3451343B2 JP 3451343 B2 JP3451343 B2 JP 3451343B2 JP 04573994 A JP04573994 A JP 04573994A JP 4573994 A JP4573994 A JP 4573994A JP 3451343 B2 JP3451343 B2 JP 3451343B2
Authority
JP
Japan
Prior art keywords
signal
screen
processing
gravity
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04573994A
Other languages
Japanese (ja)
Other versions
JPH07253774A (en
Inventor
康治 鳥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP04573994A priority Critical patent/JP3451343B2/en
Publication of JPH07253774A publication Critical patent/JPH07253774A/en
Application granted granted Critical
Publication of JP3451343B2 publication Critical patent/JP3451343B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/206Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えばテレビゲームな
どにおいて、ユーザの操作に反応してテレビや液晶表
示装置などに表示されるべき画面に対応する信号を生成
する信号生成装置及び信号生成方法に関する。
BACKGROUND OF THE INVENTION The present invention relates to a video game , for example.
In etc., generates a signal in response to a user operation corresponding to the screen to be displayed on a television or a liquid crystal display device
And a signal generation method .

【0002】[0002]

【従来の技術】従来、マウスやジョイスティックなどの
ポインティングデバイスを操作することにより、テレビ
や液晶ディスプレイなどの表示画面上の画像を変化させ
るようなテレビゲームなどが知られている。このような
従来技術では、ユーザの指又は手などによる操作を介し
て、表示画像の動作を制御させることが可能である。
2. Description of the Related Art Conventionally, there is known a video game or the like in which an image on a display screen such as a television or a liquid crystal display is changed by operating a pointing device such as a mouse or a joystick. In such a conventional technique, it is possible to control the operation of the display image through an operation by a user's finger or hand.

【0003】一方、いわゆるバーチャルリアリティの技
術を利用してユーザが装着したグローブなどの動きに基
づいて、あたかもユーザが表示画面で示される仮想空間
内に存在するような効果を発生させる機器なども知られ
ている。
On the other hand, there is also known a device that uses a so-called virtual reality technique to generate an effect as if the user were in the virtual space shown on the display screen based on the movement of a glove or the like worn by the user. Has been.

【0004】[0004]

【発明が解決しようとする課題】しかし、マウスやジョ
イスティックなどのポインティングデバイスを操作する
ことにより表示画像の動作を制御させる従来技術では、
ユーザが行うことができる動作が、マウスやジョイステ
ィックに対する指などによる操作に限定されてしまう。
このため、例えばスポーツゲームなどにおいて実際にプ
レーをしている実感に乏しいゲームしか期待できないと
いう問題点を有している。
However, in the prior art in which the operation of a display image is controlled by operating a pointing device such as a mouse or a joystick,
The actions that the user can perform are limited to operations with a finger on a mouse or a joystick.
For this reason, there is a problem that, for example, in a sports game or the like, only a game in which the player feels that he or she is actually playing is not expected.

【0005】また、バーチャルリアリティを実現する従
来技術では、ユーザが仮想空間内に存在するという仮想
現実感を得ることができるが、ユーザがグローブや3次
元ステレオスコープなどの電子器具を装着しなければな
らず、それらの装着による違和感を除くことができない
という問題点を有している。また、それらの器具は装置
のコストアップを招いてしまうという問題点を有してい
る。
Further, in the prior art for realizing virtual reality, it is possible to obtain the virtual reality that the user exists in the virtual space, but unless the user wears electronic equipment such as gloves or a three-dimensional stereoscope. In addition, there is a problem in that it is not possible to eliminate the discomfort caused by mounting them. In addition, these instruments have a problem that the cost of the device is increased.

【0006】本発明の課題は、特別な電子器具を装着又
は操作することなく、ユーザの動作に合せて表示画面を
制御可能とすることにある。
An object of the present invention is to make it possible to control a display screen according to a user's operation without mounting or operating a special electronic device.

【0007】[0007]

【課題を解決するための手段】本発明の信号生成装置
は、まず、撮像された画面の色信号に基づいて、特定条
件の画像領域を抽出する抽出手段(図5における画像認
識回路508等)を有する。この画像領域とは、例えば
バットなどを持ったユーザの動作を順次撮像して得られ
るものである。
Means for Solving the ProblemsSignal generator
Was first imagedBased on the color signal of the screen,
Extraction means for extracting the image area of interest (image recognition in FIG.
Knowledge circuit 508)Have. This imageArea andIs for example
Obtained by sequentially capturing the motion of the user with a bat etc.
It is something.

【0008】次に、上記抽出手段によって抽出された画
像領域の、撮像画面における存在範囲を記憶する第1の
記憶手段(処理画面マップを記憶する画像認識回路50
8等)を有する。
Next, the image extracted by the extraction means
First storage means (image recognition circuit 50 that stores a processing screen map) that stores the existence range of the image region on the imaging screen.
8 etc.).

【0009】続いて、第1の記憶手段に記憶された画像
領域の存在範囲から、該画像領域の重心位置を算出する
重心算出手段(図10におけるステップ1011、及び
図15の重心計算処理の動作フローチャートを実行する
画像認識回路508)を有する。
Next, the image stored in the first storage means
A center of gravity calculating means for calculating the center of gravity position of the image area from the existence range of the area (step 1011 in FIG. 10 , and
The image recognition circuit 508 for executing the operation flowchart of the center of gravity calculation processing of FIG .

【0010】また、出力すべきオブジェクト画面データ
を記憶する第2の記憶手段(図5におけるアプリケーシ
ョンROM514、DRAM507等)を有する。ここ
で、オブジェクト画面データは、複数記憶されるように
構成することができる。
It also has a second storage means (application ROM 514, DRAM 507, etc. in FIG. 5 ) for storing object screen data to be output . Here, a plurality of object screen data can be stored.

【0011】次に、上記第2の記憶手段に記憶された
ブジェクト画面データの、表示画面に出力される位置
指定する表示位置指定手段(図5におけるCPU509
等)を有する。この手段は、併せて、第2の記憶手段に
記憶された予め定められた複数のオブジェクト画面デー
のうち少なくとも1つの種類を指定するように構成さ
れてもよい。
[0011] Then, O stored in said second storage means
Display position specifying means (CPU 509 in FIG. 5) for specifying the position of the object screen data to be output on the display screen .
Etc.). This means also includes a plurality of predetermined object screen data stored in the second storage means.
It may be configured to specify at least one type of data.

【0012】更に、上記表示位置指定手段によって指定
された位置と上記第1の記憶手段に記憶された存在範囲
との位置関係が所定の条件を満たしているか否かを判断
する断手段(図10におけるステップ1006を実行す
る画像認識回路508等)を有する。ここで、所定の条
件とは、例えば、表示位置指定手段によって指定された
位置と第1の記憶手段に記憶された画像領域の存在範囲
とが重なるか否かである。
Furthermore, there range stored in the specified location and the first storage means by the display position specifying means
Judge whether the positional relationship with
Disconnection means (step 1006 in FIG. 10 is executed)
Image recognition circuit 508). Where the prescribed article
The case is, for example, specified by the display position specifying means.
Position and existence range of image area stored in first storage means
It is whether or not and overlap.

【0013】加えて、上記判断手段により、表示位置指
定手段によって指定された位置と第1の記憶手段に記憶
された存在範囲との位置関係が所定の条件を満たしてい
ると判断されると、上記指定された位置に表示されたオ
ブジェクトの重心位置を演算し、重心算出手段によって
算出された画像領域の重心位置とオブジェクトの重心位
置との位置関係に基づき、次に表示されるべき画面に対
応する信号を生成する信号生成手段(図5におけるCP
U509等)を有する。
In addition , the display position finger is determined by the determination means.
Stored in the first storage means and the position designated by the setting means
The positional relationship with the existing range that meets the
If it is determined that the
The center of gravity of the object is calculated, and the center of gravity calculation means
The calculated center of gravity of the image area and the center of gravity of the object
The screen to be displayed next based on the positional relationship with the
Signal generating means for generating a corresponding signal (CP in FIG. 5
U509 etc.) .

【0014】なお、以上の構成からなる本発明の信号生
成装置において、表示位置指定手段によって指定された
位置と第1の記憶手段に記憶された画像領域の存在範囲
とに基づいて、撮像された画面とオブジェクト画面デー
タとが合成された表示画面に対応する信号を生成する合
成信号生成手段(図5におけるビデオ信号入出力回路5
03、CPU509等)を、更に有することが可能であ
る。 また、表示され得る画面に対応する信号の出力手順
を記憶した手順記憶手段を更に備えることで、信号生成
手段が、重心算出手段により算出される画像領域の重心
位置と、演算されるオブジェクトの重心位置との位置関
係に対応して、上記手順記憶手段から次に表示されるべ
き画面に対応する信号の手順を読み出すようにすること
も可能である。 更に、撮像された画面の色信号に基づい
てクロマキー信号を出力する信号出力手段(図7のビデ
オ信号変換回路505におけるクロマキー回路706
等)を更に備えることで、抽出手段が、この信号出力手
段によって出力されたクロマキー信号を認識することに
より特定条件の画像領域を抽出するようにすることも可
能である。
The signal generator of the present invention having the above configuration
Specified by the display position designating means in the computer
Position and existence range of image area stored in first storage means
Based on the
When a signal corresponding to the combined display screen is generated,
Generated signal generating means (video signal input / output circuit 5 in FIG. 5)
03, CPU 509, etc.)
It Also, the output procedure of the signal corresponding to the screen that can be displayed
Is further provided with a procedure storage means that stores
Means is the center of gravity of the image area calculated by the center of gravity calculating means
Positional relationship between the position and the calculated center of gravity of the object
Corresponding to the person in charge
Read the procedure of the signal corresponding to the screen
Is also possible. Furthermore, based on the color signal of the imaged screen
Signal output means for outputting a chroma key signal (see the video
Chroma key circuit 706 in signal conversion circuit 505
Etc.) is further provided so that the extraction means can output the signal.
To recognize the chromakey signal output by the stage
It is also possible to extract more specific image areas.
Noh.

【0015】上述の発明の構成において、第2の記憶手
段又は手順記憶手段は、信号生成装置の本体から取外し
可能な、例えばアプリケーションカートリッジの形式で
構成することが可能である。また、本発明の信号生成方
法は、撮像された画面の色信号に基づいて、特定条件の
画像領域を抽出する抽出ステップ(図12の処理画面マ
ップ作成処理の動作フローチャートにおけるステップ1
202等)と、この抽出ステップにて抽出された画像領
域の、撮像画面における存在範囲をメモリに記憶させる
記憶ステップ(図13の処理画面マップ作成処理の動作
フローチャートにおけるステップ1219等)と、この
記憶ステップにて記憶された画像領域の存在範囲から、
この画像領域の重心位置を算出する重心算出ステップ
(図10の画面認識回路の全体動作フローチャートにお
けるステップ1011、及び図15の重心計算処理の動
作フローチャート)と、予めメモリに記憶されたオブジ
ェクト画面データの、表示画面に出力される位置を指定
する表示位置指定ステップ(図16のCPU処理の動作
フローチャートにおけるステップ1606等)と、この
表示位置指定ステップにて指定された位置と上記記憶ス
テップにて記憶された存在範囲との位置関係が所定の条
件を満たしているか否かを判断する判断ステップ(図1
0の画面認識回路の全体動作フローチャートにおけるス
テップ1006)と、この判断ステップにて、上記表示
位置指定ステップにて指定された位置と上記記憶ステッ
プにて記憶された存在範囲との位置関係が所定の条件を
満たしていると判断されると、上記指定された位置に表
示されたオブジェクトの重心位置を演算し、上記重心算
出ステップにて算出された上記画像領域の重心位置と上
記オブジェクトの重心位置との位置関係に基づき、次に
表示されるべき画面に対応する信号を生成する信号生成
ステップ(図14の衝突検出処理の動作フローチャー
ト、図20の衝突フラグ割込み処理の動作フローチャー
ト等)と、からなる。 この本発明の信号生成方法におい
て、撮像された画面の色信号に基づいてクロマキー信号
を出力する信号出力ステップ(図10の画面認識回路の
全体動作フローチャートにおけるステップ1003)を
更に含むことで、上記抽出ステップが、この信号出力ス
テップにて出力されたクロマキー信号を認識することに
より特 定条件の画像領域を抽出するようにすることが可
能である。
In the above-mentioned configuration of the invention, the second storage means or the procedure storage means can be constructed in the form of, for example, an application cartridge which can be detached from the main body of the signal generating device. Further, the signal generation method of the present invention
Method is based on the color signal of the imaged screen,
Extraction step for extracting the image area (processing screen
Step 1 in the operation flowchart of the backup creation process
202 etc.) and the image area extracted in this extraction step.
The range of existence of the image area on the imaging screen in the memory
Storage step (operation of processing screen map creation processing of FIG. 13
Step 1219, etc. in the flowchart)
From the existence range of the image area stored in the storage step,
Center of gravity calculation step for calculating the center of gravity position of this image area
(See the overall operation flowchart of the screen recognition circuit in FIG.
Step 1011 of moving the center of gravity calculation process of FIG.
Flowchart) and objects previously stored in memory
Specify the position of the output screen data to be output to the display screen
Step for specifying display position (operation of CPU processing in FIG. 16
Step 1606, etc. in the flow chart)
The position specified in the display position specification step and the above memory switch
The positional relationship with the existing range stored in
Judgment step for judging whether or not the condition is satisfied (Fig. 1
0 in the overall operation flowchart of the screen recognition circuit
Step 1006) and the above display in this judgment step.
The position specified in the position specification step and the memory step
The positional relationship with the existing range stored in
When it is judged that the condition is satisfied, the position is displayed at the specified position above.
Calculate the position of the center of gravity of the indicated object and calculate the center of gravity
The center of gravity of the image area calculated in the step
Based on the positional relationship with the center of gravity of the object,
Signal generation that generates the signal corresponding to the screen to be displayed
Step (Operation flow chart of collision detection process in FIG. 14)
And the operation flow chart of the collision flag interrupt processing of FIG.
Etc.) and In the signal generating method of the present invention
The chroma key signal based on the captured color signal of the screen.
A signal output step for outputting (of the screen recognition circuit of FIG.
Step 1003) in the overall operation flowchart
In addition, the extraction step described above includes
To recognize the chroma key signal output at the step
Yes it is possible to extract more image areas of specific conditions
Noh.

【0016】[0016]

【作用】本発明においては、バットを振るユーザなどの
現実の情景を撮像して得られる画面における特定条件の
画像領域の存在範囲と、オブジェクト画面データの表示
画面上での位置との位置関係が所定の条件を満たしてい
る場合に、上記画像領域の重心位置と上記オブジェクト
の重心位置との位置関係に基づいて、次に表示されるべ
き画面に対応する信号が生成される。これにより、ユー
ザは、あたかも実際のプレーをするようにバットを振る
動作などを行うことにより、CG画像などによって表示
されるテレビゲームに参加することなどができる。
In the present invention, a specific condition on a screen obtained by capturing an actual scene of a user swinging a bat
Existence range of image area and display of object screen data
The positional relationship with the position on the screen does not meet the specified conditions.
The center of gravity of the image area and the object
Based on the positional relationship with the center of gravity position of
A signal corresponding to the screen is generated. Thus, the user can participate in the video game displayed by the CG image or the like by performing a motion of swinging the bat as if he / she actually played the game.

【0017】この場合特に、撮像された画面からバット
などの特定の画像領域を抽出する際、クロマキーなどに
よる所定色の画像領域として抽出し、更に、その重心を
算出することにより、ユーザの動作を正確に把握するこ
とができる。
In this case, in particular, the bat is displayed from the imaged screen.
When extracting the specific image region such as, extracted as predetermined color image region due to chroma key, further, by calculating the center of gravity of that, it is possible to accurately grasp the behavior of the user.

【0018】[0018]

【実施例】以下、図面を参照しながら本発明の実施例に
つき詳細に説明する。 <実施例におけるユーザの動作の外観と実施例の動作原
理>実施例の構成及び具体的な動作について説明する前
に、実施例におけるユーザの動作の外観と実施例の動作
原理について、簡単に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings. <External Appearance of User's Operation in Example and Operating Principle of Example> Before describing the configuration and specific operation of the example, the external appearance of the user's operation in the example and the operating principle of the example will be briefly described. To do.

【0019】この実施例は、本発明を野球のテレビゲー
ムに適用したものである。図1に示されるように、ユー
ザは、所定色例えば青色に塗られたバット101を持っ
て構え、表示装置103にCG(コンピュータグラフィ
ックス)画像104として表示される、投手が投げたC
Gによるボール105に向かって、バット101を振
る。
In this embodiment, the present invention is applied to a baseball video game. As shown in FIG. 1, the user holds the bat 101 painted in a predetermined color, for example, blue, and the C thrown by the pitcher is displayed on the display device 103 as a CG (computer graphics) image 104.
The bat 101 is swung toward the ball 105 by G.

【0020】カメラ102は、バット101を持ったユ
ーザが含まれる情景を撮像する。この撮像された画像か
ら、上述の所定色に関するクロマキー信号が抽出される
ことにより、図2に示されるようなバット101の座標
マップ202が作成され、更に、その座標マップ202
上でのバット101の重心座標(図中×印)が検出され
る。そして、このバット101の座標マップ202及び
重心座標と、予め記憶されている図2に示されるような
CGによるボール105の座標201及びその重心座標
(図中×印)との位置関係203が判定されることによ
り、バット101とCGによるボール105の衝突発生
の有無と、衝突が発生した場合におけるバット101の
重心座標とCGによるボール105の重心座標との位置
関係が抽出される。
The camera 102 captures a scene including a user holding the bat 101. By extracting the chroma key signal relating to the above-described predetermined color from the captured image, a coordinate map 202 of the bat 101 as shown in FIG. 2 is created, and further, the coordinate map 202.
The barycentric coordinates of the bat 101 (marked with X in the figure) above are detected. Then, the positional relationship 203 between the coordinate map 202 and the barycentric coordinates of the bat 101 and the coordinates 201 of the ball 105 and the barycentric coordinates (X mark in the drawing) of the CG as shown in FIG. By doing so, the presence or absence of collision of the ball 105 with the bat 101 and the CG, and the positional relationship between the barycentric coordinates of the bat 101 and the barycentric coordinate of the ball 105 with the CG when the collision occurs are extracted.

【0021】図2に示されるように、バット101にC
Gによるボール105が当ったと判定された場合におい
て、バット101の重心座標とCGによるボール105
の重心座標とのずれが所定の許容範囲内にある場合に
は、例えばユーザがホームランを打ったと判定されCG
画像104がホームランに対応する画像に変化する。
As shown in FIG. 2, the bat 101 has a C
When it is determined that the ball 105 by G hits, the center of gravity of the bat 101 and the ball 105 by CG
If the deviation from the barycentric coordinates of is within a predetermined allowable range, for example, it is determined that the user has hit a home run and CG
The image 104 changes to an image corresponding to a home run.

【0022】或いは、図3に示されるように、バット1
01にCGによるボール105が当ったと判定された場
合において、CGによるボール105の重心座標がバッ
ト101の重心座標の下方にずれている場合には、例え
ばユーザがゴロを打ったと判定されCG画像104がゴ
ロに対応する画像に変化する。
Alternatively, as shown in FIG. 3, the bat 1
When it is determined that the ball 105 by CG hits 01, and the center of gravity coordinates of the ball 105 by CG deviate below the center of gravity coordinates of the bat 101, for example, it is determined that the user has hit the ground, and the CG image 104 Changes to an image that corresponds to Goro.

【0023】更に、図4に示されるように、バット10
1にCGによるボール105が当ったと判定された場合
において、CGによるボール105の重心座標がバット
101の重心座標の上方にずれている場合には、例えば
ユーザがフライを打ったと判定されCG画像104がフ
ライに対応する画像に変化する。
Further, as shown in FIG.
When it is determined that the CG ball 105 hits 1, the CG image 104 is determined to be hit by a user, for example, when the CG ball 105 gravity center coordinate is deviated above the bat 101 gravity center coordinate. Changes to the image corresponding to the fly.

【0024】このように、実施例では、ユーザは、あた
かも実際のプレーをするようにバット101を振ること
により、CG画像104によって表示されるテレビゲー
ムに参加することができる。 <実施例の構成>上述の動作を実現する実施例の具体的
な構成について、以下に説明する。
As described above, in the embodiment, the user can participate in the video game displayed by the CG image 104 by swinging the bat 101 as if he / she actually played. <Structure of Embodiment> A specific structure of the embodiment for realizing the above-described operation will be described below.

【0025】図5は、本発明の実施例の全体構成図であ
る。まず、クロックドライバー502は、ビデオ信号入
出力回路503を介して発振器(OSC)504から入
力するクロックに基づいて、図1のカメラ102内に設
けられているCCD501の動作を直接制御すると共
に、HSYNC信号及びVSYNC信号などの同期信号
519を生成し、それをビデオ信号入出力回路503、
VDP506、画像認識回路508、及びCPU509
に供給する。従って、これらの回路は、同期信号519
に基づいて、互いに同期して動作することができる。
FIG. 5 is an overall configuration diagram of an embodiment of the present invention. First, the clock driver 502 directly controls the operation of the CCD 501 provided in the camera 102 of FIG. 1 based on the clock input from the oscillator (OSC) 504 via the video signal input / output circuit 503, and at the same time, HSYNC. Signal and a sync signal 519 such as a VSYNC signal are generated, and are generated by the video signal input / output circuit 503,
VDP 506, image recognition circuit 508, and CPU 509
Supply to. Therefore, these circuits are
, They can operate in synchronization with each other.

【0026】CCD501から出力されるCCD出力信
号518は、ビデオ信号入出力回路503に入力され
る。ビデオ信号入出力回路503は、CCD出力信号5
18をデジタルコンポジットビデオ入力信号520に変
換する動作、ビデオ信号変換回路505からのデジタル
コンポジットビデオ出力信号521をアナログコンポジ
ットビデオ出力信号522に変換する動作を行う。
The CCD output signal 518 output from the CCD 501 is input to the video signal input / output circuit 503. The video signal input / output circuit 503 outputs the CCD output signal 5
18 is converted into a digital composite video input signal 520, and a digital composite video output signal 521 from the video signal conversion circuit 505 is converted into an analog composite video output signal 522.

【0027】ビデオ信号入出力回路503の構成を図6
に示す。図6において、CCD501(図5)からのC
CD出力信号518は、サンプリング回路601により
アナログ的にサンプリングされる。
The configuration of the video signal input / output circuit 503 is shown in FIG.
Shown in. In FIG. 6, C from the CCD 501 (FIG. 5)
The CD output signal 518 is analogly sampled by the sampling circuit 601.

【0028】サンプリング回路601の出力は、自動利
得調整回路(AGC)602によって、その振幅レベル
が調整される。AGC602の出力は、γ補正回路60
3によって、光のパワーに対する信号レベルが所定のγ
特性になるように変換される。
The amplitude level of the output of the sampling circuit 601 is adjusted by an automatic gain adjustment circuit (AGC) 602. The output of the AGC 602 is the γ correction circuit 60.
3, the signal level with respect to the power of light has a predetermined γ
Converted to be characteristic.

【0029】γ補正回路603の出力は、8ビットA/
D変換器604によって、8ビットのデジタルコンポジ
ットビデオ入力信号520に変換される。このデジタル
コンポジットビデオ入力信号520は、図5のビデオ信
号変換回路505に出力される。
The output of the γ correction circuit 603 is an 8-bit A /
It is converted into an 8-bit digital composite video input signal 520 by the D converter 604. The digital composite video input signal 520 is output to the video signal conversion circuit 505 shown in FIG.

【0030】一方、ビデオ信号変換回路505から出力
される8ビットのデジタルコンポジットビデオ出力信号
521は、8ビットD/A変換器605により、アナロ
グコンポジットビデオ出力信号522に変換される。こ
のアナログコンポジットビデオ出力信号522は、図1
の表示装置103に出力される。この結果、表示装置1
03は、アナログコンポジットビデオ出力信号522に
対応するCG画像104を表示する。
On the other hand, the 8-bit digital composite video output signal 521 output from the video signal conversion circuit 505 is converted into an analog composite video output signal 522 by the 8-bit D / A converter 605. This analog composite video output signal 522 is shown in FIG.
Output to the display device 103. As a result, the display device 1
03 displays the CG image 104 corresponding to the analog composite video output signal 522.

【0031】図5に戻り、ビデオ信号変換回路505
は、デジタルコンポジットビデオ入力信号520からク
ロマキー信号523を生成しそれを画像認識回路508
へ出力する動作、画像認識回路508からのスーパーイ
ンポーズ信号525に基づき、ビデオ信号入出力回路5
03から入力されるデジタルコンポジットビデオ出力信
号521に対応する色信号又はビデオディスプレイプロ
セッサ(VDP)506から出力されるデジタルRGB
信号524の何かを選択し、選択された色信号に対応す
るデジタルコンポジットビデオ出力信号521を出力す
る動作を行う。
Returning to FIG. 5, the video signal conversion circuit 505.
Generates a chroma key signal 523 from the digital composite video input signal 520 and outputs it to the image recognition circuit 508.
Output to the video signal input / output circuit 5 based on the superimposing signal 525 from the image recognition circuit 508.
03 corresponding to the digital composite video output signal 521 or the digital RGB output from the video display processor (VDP) 506.
An operation of selecting something in the signal 524 and outputting the digital composite video output signal 521 corresponding to the selected color signal is performed.

【0032】ビデオ信号変換回路505の構成を図7に
示す。色分離フィルター701は、ビデオ信号入出力回
路503(図5)から入力されるデジタルコンポジット
ビデオ入力信号520を入力し、その信号に対応するG
(グリーン)信号、Cy(シアン)信号、及びYe(イ
エロー)信号の3種類の色信号を出力する。
The configuration of the video signal conversion circuit 505 is shown in FIG. The color separation filter 701 inputs the digital composite video input signal 520 input from the video signal input / output circuit 503 (FIG. 5) and G corresponding to the signal.
It outputs three types of color signals: a (green) signal, a Cy (cyan) signal, and a Ye (yellow) signal.

【0033】輪郭補正回路702は、上述の3種類の色
信号を入力し、これらの色信号によって決定される画像
の輪郭を補正する処理を行う。輪郭補正回路702の出
力のうち、G(グリーン)信号以外の信号は、ホワイト
バランス回路703に入力される。ホワイトバランス回
路703は、入力信号に対してホワイトバランスの調整
を行う。
The contour correction circuit 702 inputs the above-mentioned three types of color signals, and performs processing for correcting the contour of the image determined by these color signals. Of the outputs of the contour correction circuit 702, signals other than the G (green) signal are input to the white balance circuit 703. The white balance circuit 703 adjusts the white balance of the input signal.

【0034】ホワイトバランス回路703の出力は、選
択フィルター704に入力される。選択フィルター70
4は、入力に対応するR(レッド)信号及びB(ブル
ー)信号を出力する。
The output of the white balance circuit 703 is input to the selection filter 704. Selection filter 70
4 outputs an R (red) signal and a B (blue) signal corresponding to the input.

【0035】マトリクス回路705は、上述のR(レッ
ド)信号、B(ブルー)信号と、輪郭補正回路702か
ら出力されるG(グリーン)信号を入力し、これらに対
し、次式で示される変換に対応する演算を実行すること
により、輝度信号Yと、色差信号R−Y及びB−Yを出
力する。 Y= ( 8/27)R+(16/27)G+( 1/
9)B R−Y= (15/27)R−(16/27)G−(
1/9)B B−Y=−( 8/27)R−(16/27)G+(
8/9)B クロマキー回路706は、図9に示されるように、色差
信号R−Yが、最小値R−Yminから最大値R−Ym
axの範囲の値となり、かつ、色差信号B−Yが、最小
値B−Yminから最大値B−Ymaxの範囲の値とな
ったときに、論理値“1”を有するクロマキー信号52
3を出力する。このクロマキー信号523は、例えば、
図1のバット101に対応する鮮やかなブルーを示す色
信号が入力されたときに、論理値“1”を示す。このク
ロマキー信号523を用いることにより、後述する画像
認識回路508(図5)は、ユーザが振るバット101
の位置を検出することができ、バット101とCGによ
るボール105とが衝突したか否かを判定できる。
The matrix circuit 705 inputs the above-mentioned R (red) signal, B (blue) signal and the G (green) signal output from the contour correction circuit 702, and converts them into the following equations. The luminance signal Y and the color difference signals R-Y and B-Y are output by executing the calculation corresponding to. Y = (8/27) R + (16/27) G + (1 /
9) B R-Y = (15/27) R- (16/27) G- (
1/9) B B-Y =-(8/27) R- (16/27) G + (
In the 8/9) B chroma key circuit 706, as shown in FIG. 9, the color difference signal R-Y changes from the minimum value R-Ymin to the maximum value R-Ym.
When the value of the color difference signal BY is in the range of ax and the value of the color difference signal BY is in the range of minimum value B-Ymin to maximum value B-Ymax, the chroma key signal 52 having the logical value "1" is obtained.
3 is output. The chroma key signal 523 is, for example,
When a color signal showing bright blue corresponding to the bat 101 in FIG. 1 is input, it shows a logical value “1”. By using this chroma key signal 523, the image recognition circuit 508 (FIG. 5), which will be described later, causes the bat 101 shaken by the user.
Can be detected, and it can be determined whether or not the bat 101 and the CG ball 105 collide.

【0036】次に、マトリクス回路708は、VDP5
06からのデジタルRGB信号524を入力し、それら
に対応する輝度信号Yと、色差信号R−Y及びB−Yを
出力する。
Next, the matrix circuit 708 outputs VDP5
The digital RGB signal 524 from 06 is input, and the luminance signal Y and the color difference signals RY and BY corresponding to them are output.

【0037】選択回路707は、画像認識回路508
(図5)からのスーパーインポーズ信号525に基づ
き、マトリクス回路705又は708の何れかの出力を
選択し、変調回路709へ出力する。変調回路709
は、入力に対応するデジタルコンポジットビデオ出力信
号521を生成し出力する。本実施例では、画像認識回
路508(図5)からのスーパーインポーズ信号525
は、選択回路707に、マトリクス回路708の出力を
常に選択させる仕様となっている。この結果、図1の表
示装置103には、VDP506によって生成されるデ
ジタルRGB信号524に対応するCG画像104が常
に表示されることになる。但し、このスーパーインポー
ズ信号525を制御することにより、カメラ102の撮
像結果に基づいて生成されるデジタルコンポジットビデ
オ入力信号520に対応する実画像とVDP506によ
って生成されるCG画像を合成し、その合成された画像
を表示装置103に表示させることも可能である。
The selection circuit 707 is an image recognition circuit 508.
Based on the superimpose signal 525 from (FIG. 5), the output of either the matrix circuit 705 or 708 is selected and output to the modulation circuit 709. Modulation circuit 709
Generates and outputs a digital composite video output signal 521 corresponding to the input. In this embodiment, the superimpose signal 525 from the image recognition circuit 508 (FIG. 5) is used.
Is designed so that the selection circuit 707 always selects the output of the matrix circuit 708. As a result, the CG image 104 corresponding to the digital RGB signal 524 generated by the VDP 506 is always displayed on the display device 103 in FIG. However, by controlling the superimpose signal 525, a real image corresponding to the digital composite video input signal 520 generated based on the image pickup result of the camera 102 and a CG image generated by the VDP 506 are combined, and the combination is performed. The displayed image can be displayed on the display device 103.

【0038】図5に戻り、ビデオディスプレイプロセッ
サ(VDP)506は、CPU509からの指定に基づ
いて、CG画像104を構成するオブジェクト画面デー
タ及びバックグランド画面データをDRAM507に随
時記憶させ、CPU509からの指定に基づいて、それ
らのデータを指定された座標位置に配置し、その配置結
果に対応するデジタルRGB信号524を生成して、ビ
デオ信号変換回路505へ出力する。この結果、ビデオ
信号変換回路505は、前述したように、このデジタル
RGB信号524に対応するデジタルコンポジットビデ
オ出力信号521を生成し、ビデオ信号入出力回路50
3が、そのデジタルコンポジットビデオ出力信号521
に対応するアナログコンポジットビデオ出力信号522
を生成することにより、表示装置103(図1)にCG
画像104が表示されることになる。
Returning to FIG. 5, the video display processor (VDP) 506 stores the object screen data and the background screen data forming the CG image 104 in the DRAM 507 at any time based on the designation from the CPU 509, and the designation from the CPU 509. Based on the above, the data is arranged at the designated coordinate position, and the digital RGB signal 524 corresponding to the arrangement result is generated and output to the video signal conversion circuit 505. As a result, the video signal conversion circuit 505 generates the digital composite video output signal 521 corresponding to the digital RGB signal 524, as described above, and the video signal input / output circuit 50.
3 is the digital composite video output signal 521
Analog composite video output signal 522
To generate CG on the display device 103 (FIG. 1).
The image 104 will be displayed.

【0039】VDP506の構成を図8に示す。CPU
509からバス526上を転送されてくるオブジェクト
画面データ及びバックグランド画面データは、CPUイ
ンタフェース回路801及びDRAMコントロール回路
802を介して、DRAM507(図5)に記憶され
る。
The structure of the VDP 506 is shown in FIG. CPU
Object screen data and background screen data transferred from the bus 509 on the bus 526 are stored in the DRAM 507 (FIG. 5) via the CPU interface circuit 801 and the DRAM control circuit 802.

【0040】また、CPU509からバス526上を転
送されてくるオブジェクトテーブルデータは、CPUイ
ンタフェース回路801及びオブジェクトコントロール
回路803を介して、オブジェクトテーブルRAM80
4に記憶される。このオブジェクトテーブルデータは、
DRAM507に記憶されている各オブジェクト画面デ
ータとそれぞれに対応するID番号との対応テーブルを
示すテーブルである。CPU509は、時間経過と共
に、各オブジェクト画面データのCG画像104(図
1)上での表示位置を指定する場合に、各オブジェクト
画面データに対応するID番号と、それぞれの表示位置
を指定する。この結果、オブジェクトコントロール回路
803は、指定されたID番号に対応するオブジェクト
画面データをDRAMコントロール回路802を介して
DRAM507から読み出し、ラインバッファRAM8
08に展開した後、その内容をRGB色差データ処理回
路806に出力する。また、オブジェクトコントロール
回路803は、CPU509からの指定に基づいて、現
在表示しているボール105(図1)を示すオブジェク
トの重心位置を、CPUインタフェース回路801から
バス526を介してCPU509に通知する。
The object table data transferred from the CPU 509 on the bus 526 is transferred to the object table RAM 80 via the CPU interface circuit 801 and the object control circuit 803.
4 is stored. This object table data is
9 is a table showing a correspondence table between each object screen data stored in a DRAM 507 and an ID number corresponding to each. When designating the display position of each object screen data on the CG image 104 (FIG. 1) over time, the CPU 509 designates the ID number corresponding to each object screen data and each display position. As a result, the object control circuit 803 reads the object screen data corresponding to the designated ID number from the DRAM 507 via the DRAM control circuit 802, and the line buffer RAM 8
After being expanded to 08, the contents are output to the RGB color difference data processing circuit 806. Further, the object control circuit 803 notifies the CPU 509 from the CPU interface circuit 801 via the bus 526 of the center-of-gravity position of the object showing the ball 105 (FIG. 1) currently displayed, based on the designation from the CPU 509.

【0041】一方、バックグランドコントロール回路8
05は、CPU509から指定されたバックグランド画
面データを、RAMコントロール回路802を介してD
RAM507から読み出し、そのデータに対して表示位
置の制御又はスクロールの制御を行った後、RGB色差
データ処理回路806に出力する。
On the other hand, the background control circuit 8
Reference numeral 05 denotes the background screen data designated by the CPU 509 via the RAM control circuit 802.
The data is read from the RAM 507, the display position is controlled or the scroll is controlled for the data, and then the data is output to the RGB color difference data processing circuit 806.

【0042】RGB色差データ処理回路806は、カラ
ールックアップテーブルRAM807内のカラールック
アップテーブルを参照することにより、オブジェクトコ
ントロール回路803から指定されるオブジェクト画面
データ及びバックグランドコントロール回路805から
指定されるバックグランド画面データに対応するデジタ
ルRGB信号524を生成し、それらをビデオ信号変換
回路505(図5)に出力する。この場合、RGB色差
データ処理回路806は、表示位置毎に、オブジェクト
画面データとバックグランド画面データのどちらを表示
させるかを決定するための制御も行う。そして、RGB
色差データ処理回路806は、オブジェクト画面データ
を出力しているときには、オブジェクト画面データ出力
中信号YSOBJ(以下、YSOBJ信号という)の論
理値を“1”にし、バックグランド画面データを出力し
ているときには、バックグランド画面データ出力中信号
YSBG(以下、YSBG信号という)の論理値を
“1”にする。YSOBJ信号及びYSBG信号は、画
像認識回路508へ出力される。
The RGB color difference data processing circuit 806 refers to the color lookup table in the color lookup table RAM 807 to refer to the object screen data designated by the object control circuit 803 and the background designated by the background control circuit 805. The digital RGB signals 524 corresponding to the ground screen data are generated and output to the video signal conversion circuit 505 (FIG. 5). In this case, the RGB color difference data processing circuit 806 also performs control for determining whether to display the object screen data or the background screen data for each display position. And RGB
The color difference data processing circuit 806 sets the logical value of the object screen data output signal YSOBJ (hereinafter referred to as YSOBJ signal) to “1” when outputting the object screen data, and when outputting the background screen data. , The logical value of the background screen data output signal YSBG (hereinafter referred to as YSBG signal) is set to "1". The YSOBJ signal and the YSBG signal are output to the image recognition circuit 508.

【0043】図5に戻り、画像認識回路508は、同期
信号519に同期して決定されるフレーム周期毎に、ビ
デオ信号変換回路505から入力される1フレーム分の
クロマキー信号523を内部の2つのクロマキー信号用
バッファに交互に保持し、同時に、VDP506内のR
GB色差データ処理回路806から出力される1画面マ
ップ(後述する)分のYSOBJ信号を内部の2つのY
SOBJ信号用バッファに交互に保持する。これと共
に、画像認識回路508は、前回のフレーム周期におい
て2つのクロマキー信号用バッファのうちの1つに保持
された1フレーム分のクロマキー信号523に基づい
て、ユーザが振るバット101(図1)の位置を示す画
面マップを作成する。そして、画像認識回路508は、
この処理の過程において、画面マップ上の現在処理中の
ブロック位置(後述する)にバット101が存在すると
判定した場合には、前回のフレーム周期において2つの
YSOBJ信号用バッファのうちの1つに保持された1
画面マップ分のYSOBJ信号において、上記ブロック
位置に対応するYSOBJ信号の論理値が“1”である
か否か、即ち、バット101が存在すると判定された現
在のブロック位置にボール105(図1)を示すオブジ
ェクト画面データが存在するか否かを判定する。このよ
うにして、画像認識回路508は、バット101とボー
ル105との衝突の有無を検出する。また、画像認識回
路508は、1画面分の画面マップの作成が終了する毎
に画面マップ上のバット101の重心位置を計算し、計
算結果をバス526を介してDRAM510に記憶する
と共に、衝突状態を検出した場合には、CPU509へ
の割込みフラグとして、衝突フラグをセットする。
Returning to FIG. 5, the image recognition circuit 508 outputs the chroma key signal 523 for one frame, which is input from the video signal conversion circuit 505, in two internal frames for each frame period determined in synchronization with the synchronization signal 519. Alternately hold in the chroma key signal buffer and at the same time R in VDP506
A YSOBJ signal for one screen map (described later) output from the GB color difference data processing circuit 806 is converted into two Y
It is held alternately in the SOBJ signal buffer. At the same time, the image recognition circuit 508 causes the user to shake the bat 101 (FIG. 1) based on the one-frame chroma key signal 523 held in one of the two chroma key signal buffers in the previous frame cycle. Create a screen map showing the location. Then, the image recognition circuit 508
In the process of this process, if it is determined that the bat 101 is present at the block position (described later) currently being processed on the screen map, it is held in one of the two YSOBJ signal buffers in the previous frame cycle. Was done 1
In the YSOBJ signal for the screen map, whether the logical value of the YSOBJ signal corresponding to the block position is “1”, that is, the ball 105 (FIG. 1) at the current block position where it is determined that the bat 101 is present. It is determined whether or not the object screen data indicating is present. In this way, the image recognition circuit 508 detects whether or not there is a collision between the bat 101 and the ball 105. Further, the image recognition circuit 508 calculates the position of the center of gravity of the bat 101 on the screen map each time the screen map for one screen is completed, stores the calculation result in the DRAM 510 via the bus 526, and at the same time, the collision state. When the flag is detected, a collision flag is set as an interrupt flag to the CPU 509.

【0044】CPU509は、OS ROM511に記
憶されたオペレーティングシステムに従って動作し、特
には図示しないスロットに挿入されたアプリケーション
カートリッジ513内のアプリケーションROM514
(#1又は#2の何れか)からDRAM510上のプロ
グラム領域にアプリケーションプログラムをロードする
ことにより、この実施例で説明している野球ゲームなど
のテレビゲームを実行する。この場合に、CPU509
は、特には図示しないスタートスイッチ及びストップス
イッチなどから入力されるキースキャン信号527を処
理しながら、時間経過と共に、アプリケーションカート
リッジ513内のアプリケーションROM514からC
G画像104(図1)を構成するオブジェクト画面デー
タ及びバックグランド画面データなどを順次読み出し、
同期信号519に同期した垂直ブランキング期間内に、
それらのデータをバス526からVDP506を介して
DRAM507などに転送する。
The CPU 509 operates according to the operating system stored in the OS ROM 511, and in particular, the application ROM 514 in the application cartridge 513 inserted in a slot (not shown).
A video game such as a baseball game described in this embodiment is executed by loading an application program from (# 1 or # 2) into the program area of the DRAM 510. In this case, the CPU 509
C, from the application ROM 514 in the application cartridge 513 with the passage of time while processing the key scan signal 527 input from a start switch and a stop switch (not shown).
The object screen data and the background screen data that form the G image 104 (FIG. 1) are sequentially read,
Within the vertical blanking period synchronized with the synchronization signal 519,
Those data are transferred from the bus 526 to the DRAM 507 and the like via the VDP 506.

【0045】同時に、CPU509は、時間経過と共
に、DRAM507に転送した各オブジェクト画面デー
タのCG画像104(図1)上での表示位置を、VDP
506に対して順次指定する。
At the same time, the CPU 509 changes the display position on the CG image 104 (FIG. 1) of each object screen data transferred to the DRAM 507 over time by VDP.
506 are sequentially designated.

【0046】また、CPU509は、画像認識回路50
8が衝突状態を検出したことを示す衝突フラグをセット
したタイミングで、衝突フラグ割込み処理を実行する。
この割込み処理において、CPU509は、DRAM5
10に記憶されている画像認識回路508が計算した画
面マップ上のバット101の重心位置と、VDP506
内のオブジェクトコントロール回路803から取得した
現在表示されているボール105(図1)を示すオブジ
ェクトの重心位置との位置関係を判定する。そして、そ
の判定結果に基づき、CPU509は、必要な画像処理
を実行する。
Further, the CPU 509 is the image recognition circuit 50.
Collision flag interruption processing is executed at the timing when the collision flag indicating that the collision state 8 has been detected is set.
In this interrupt processing, the CPU 509 causes the DRAM 5
10, the center of gravity of the bat 101 on the screen map calculated by the image recognition circuit 508 stored in
The positional relationship with the center of gravity of the object showing the currently displayed ball 105 (FIG. 1) acquired from the object control circuit 803 therein is determined. Then, based on the determination result, the CPU 509 executes necessary image processing.

【0047】更に、CPU509は、アプリケーション
カートリッジ513内の音源回路515に必要なデータ
を順次転送することにより、音源回路515に楽音信号
の生成を行わせる。また、CPU509は、必要に応じ
て、本体内の音源回路516に対しても、楽音信号の生
成を行わせる。音源回路515で生成された楽音信号
は、CPU509及び音源回路516を介して、アンプ
517に送られ、ここで増幅された後、特には図示しな
いスピーカに、音声出力信号528として出力される。
Further, the CPU 509 causes the tone generator circuit 515 to generate a tone signal by sequentially transferring necessary data to the tone generator circuit 515 in the application cartridge 513. The CPU 509 also causes the tone generator circuit 516 in the main body to generate a musical tone signal as necessary. The tone signal generated by the tone generator circuit 515 is sent to the amplifier 517 via the CPU 509 and the tone generator circuit 516, amplified here, and then output as a sound output signal 528 to a speaker (not shown).

【0048】加えて、CPU509は、アプリケーショ
ンカートリッジ513が模造されたものでないか否かの
検査処理も行う。 <実施例の具体的な動作>上述の構成を有する実施例の
具体的な動作につき、以下に順次説明する。
In addition, the CPU 509 also performs an inspection process as to whether or not the application cartridge 513 has been imitated. <Specific Operation of Embodiment> The specific operation of the embodiment having the above-described configuration will be sequentially described below.

【0049】図10は、画像認識回路508が特には図
示しないメモリに記憶されたプログラムを実行する動作
として実現される、全体動作フローチャートである。画
像認識回路508は、ビデオ信号変換回路505からの
クロマキー信号523に基づいて、ユーザが振るバット
101(図1)の位置を示す画面マップを作成し、これ
に基づいて、VDP506からYSOBJ信号として供
給される図1のボール105を示すオブジェクト画面デ
ータとバット101との衝突の有無を検出する。
FIG. 10 is an overall operation flowchart realized by the image recognition circuit 508 as an operation for executing a program stored in a memory (not shown). The image recognition circuit 508 creates a screen map showing the position of the bat 101 (FIG. 1) swung by the user based on the chroma key signal 523 from the video signal conversion circuit 505, and based on this, supplies it as a YSOBJ signal from the VDP 506. The presence or absence of a collision between the bat 101 and the object screen data showing the ball 105 of FIG. 1 is detected.

【0050】ここで、図5のCCD501における1画
面分の撮像単位であるフレームは、図26に示されるよ
うに、水平方向576列×垂直方向192行からなる構
成を有する。従って、ビデオ信号変換回路505から出
力されるクロマキー信号523は、576×192画素
分の論理値を示す信号となっている。そして、処理負荷
を軽減するため、画像認識回路508は、図26に示さ
れるように、クロマキー信号523における水平方向6
画素×垂直方向2画素からなる合計12画素分の論理値
を、1つの論理値に圧縮する処理を行う。この論理値が
格納される単位をブロックと呼ぶ。この結果、図26に
示されるように、クロマキー信号523における576
×192画素分の論理値が、水平方向96列×垂直方向
96行分のブロックの論理値に圧縮されることになる。
このような96×96ブロック分の論理値の集合によっ
て、クロマキーに関する画面マップが定義される。
Here, as shown in FIG. 26, a frame which is an image pickup unit for one screen in the CCD 501 of FIG. 5 has a structure of 576 columns in the horizontal direction × 192 rows in the vertical direction. Therefore, the chroma key signal 523 output from the video signal conversion circuit 505 is a signal indicating a logical value of 576 × 192 pixels. Then, in order to reduce the processing load, the image recognition circuit 508 causes the horizontal direction 6 in the chroma key signal 523 as shown in FIG.
A process of compressing a logical value of 12 pixels in total consisting of pixels × 2 pixels in the vertical direction into one logical value is performed. A unit in which this logical value is stored is called a block. As a result, as shown in FIG. 26, 576 in the chroma key signal 523.
The logical value of × 192 pixels is compressed into the logical value of a block of 96 columns in the horizontal direction and 96 rows in the vertical direction.
A screen map relating to the chroma key is defined by such a set of logical values for 96 × 96 blocks.

【0051】一方、YSOBJ信号及びYSBG信号に
よって特定されるオブジェクト画面データ及びバックグ
ランド画面データは、水平方向96列×垂直方向96行
の解像度で表現されており、従って、VDP506から
これらの画面データに基づいてデジタルRGB信号52
4が生成される際には、これらの画面データが表示装置
103(図1)の表示解像度に合せて伸張される。
On the other hand, the object screen data and the background screen data specified by the YSOBJ signal and the YSBG signal are represented by a resolution of 96 columns in the horizontal direction and 96 rows in the vertical direction. Therefore, the VDP 506 converts them into these screen data. Based on the digital RGB signal 52
4 is generated, these screen data are expanded according to the display resolution of the display device 103 (FIG. 1).

【0052】図10において、まず、ステップ1001
で、画像認識回路508内の特には図示しないRAM
(後述する図27参照)の内容がイニシャライズされ
る。次に、電源投入後、ステップ1002で、初期画面
マップが作成済みでないと判定された場合には、ステッ
プ1003で、初期画面マップ作成処理が実行される。
In FIG. 10, first, step 1001
A RAM (not shown) in the image recognition circuit 508
The contents (see FIG. 27 described later) are initialized. Next, after the power is turned on, when it is determined in step 1002 that the initial screen map has not been created, the initial screen map creation process is executed in step 1003.

【0053】初期画面マップとは、図1のカメラ102
によって撮像される、バット101を持ったユーザが存
在しない情景についてのクロマキーに関する画面マップ
である。初期画面マップを作成する目的は、後述する処
理画面マップとしてバット101に対応するクロマキー
が検出されるときに、バット101と同じ色彩の対象物
が背景に存在する場合にその背景がバット101の誤っ
た位置として検出されてしまうことを防止するために、
バット101と同じ色彩の背景対象物の位置を予め検出
しておくことにある。後述するステップ1005の処理
画面マップ作成処理では、図1のカメラ102がバット
101を持ったユーザが存在する情景を撮像した結果に
基づいてフレーム周期毎に処理画面マップが作成される
が、その場合に、処理画面マップ上でクロマキーに関す
る部分として認識される位置が、同時に、初期画面マッ
プ上でバット101と同じ色彩を有する背景対象物が存
在する位置として認識されている場合には、その位置に
はバット101は存在しないものとして処理されること
になる。
The initial screen map is the camera 102 of FIG.
It is a screen map regarding the chroma key about the scene where the user with the bat 101 does not exist captured by. The purpose of creating the initial screen map is that when a chroma key corresponding to the bat 101 is detected as a processing screen map to be described later, if an object of the same color as the bat 101 exists in the background, the background of the bat 101 is incorrect. In order to prevent it from being detected as
The position of the background object having the same color as the bat 101 is detected in advance. In the processing screen map creation processing of step 1005, which will be described later, a processing screen map is created for each frame cycle based on the result of the scene in which the camera 102 of FIG. In the case where the position recognized as the part related to the chroma key on the processing screen map is recognized at the same time as the position where the background object having the same color as the bat 101 exists on the initial screen map, Will be processed as if the bat 101 does not exist.

【0054】ステップ1003の初期画面マップ作成処
理が実行される結果、画像認識回路508内の特には図
示しないRAM上に、図27に示されるデータフォーマ
ットで、96×96ブロックのサイズを有する初期画面
マップが作成される。なお、このRAMは、16ビット
を1ワードとしてデータを記憶するため、1行分の論理
値は6ワード(=96/16)のデータとして記憶され
る。従って、RAM上では、初期画面マップは、6×9
6ワード分のデータ領域を占有する。
As a result of execution of the initial screen map creation processing in step 1003, an initial screen having a size of 96 × 96 blocks in the data format shown in FIG. 27 is stored in the RAM (not shown) in the image recognition circuit 508. A map is created. Since this RAM stores data with 16 bits as one word, the logical value for one row is stored as data of 6 words (= 96/16). Therefore, in RAM, the initial screen map is 6 × 9.
Occupies a data area for 6 words.

【0055】ステップ1003の初期画面マップ作成処
理の詳細な動作フローチャートを図11に示す。以下の
処理では、初期画面マップを安定して取得するために、
複数フレーム分(複数画面分)のクロマキー信号523
について処理が繰り返し実行され、画面マップ上のブロ
ック位置毎に各繰返し処理で得られる論理値の論理和
(OR)が演算されることによって、ブロック位置毎の
最終的な論理値が決定される。そのために、ステップ1
101で処理の繰返し回数であるサンプリング回数が設
定され、後述するステップ1114の判定がYESとな
って1フレーム分の処理が終了する毎に、レジスタnの
値が設定回数に達したと判定されるまで、ステップ11
16でレジスタnの値が+1ずつインクリメントされ、
ステップ1102〜ステップ1114で示されるフレー
ム毎の処理が実行される。
FIG. 11 shows a detailed operation flowchart of the initial screen map creation processing in step 1003. In the following process, in order to stably obtain the initial screen map,
Chroma key signal 523 for multiple frames (for multiple screens)
Is repeatedly executed, and the logical sum (OR) of the logical values obtained in each iterative process is calculated for each block position on the screen map to determine the final logical value for each block position. For that, step 1
In step 101, the number of times of sampling, which is the number of times the process is repeated, is set, and it is determined that the value of the register n has reached the set number of times, every time the processing for one frame ends with YES in step 1114 described later. Until step 11
At 16, the value of register n is incremented by +1
The processing for each frame shown in steps 1102 to 1114 is executed.

【0056】ここで、特には図示しないが、前述したよ
うに、画像認識回路508は、それぞれ図26(a) に示
されるサイズを有するクロマキー信号用バッファを2フ
レーム分(2画面分)有しており、同期信号519(図
5)に同期して決定されるフレーム周期毎に、ビデオ信
号変換回路505から入力される図26(a) に示される
1フレーム分のクロマキー信号523を、上述の2つの
クロマキー信号用バッファに交互に保持する。そして、
図11のステップ1102〜ステップ1114で示され
るフレーム毎の処理は、前回のフレーム周期において2
つのクロマキー信号用バッファのうちの1つに保持され
た1フレーム分のクロマキー信号523に対して実行さ
れる。このとき同時に、他方のクロマキー信号用バッフ
ァには、現在のフレーム周期に対応するクロマキー信号
523が順次入力されている。そして、ステップ111
4の判定がNOとなる毎に、処理対象となるクロマキー
信号用バッファが切り替えられる。
Here, although not specifically shown, as described above, the image recognition circuit 508 has two frames (two screens) of chroma key signal buffers each having the size shown in FIG. 26 (a). Therefore, for each frame period determined in synchronization with the sync signal 519 (FIG. 5), the chroma key signal 523 for one frame shown in FIG. The two chroma-key signal buffers are alternately held. And
The processing for each frame shown in steps 1102 to 1114 of FIG.
This is executed for one frame of chroma key signal 523 held in one of the one chroma key signal buffer. At the same time, the chroma key signal 523 corresponding to the current frame period is sequentially input to the other chroma key signal buffer. Then, step 111
Each time the determination of 4 is NO, the chroma key signal buffer to be processed is switched.

【0057】なお、図26(a) に示されるサイズを有す
る1つのクロマキー信号用バッファは、各画素に対応し
てクロマキー信号523の“0”又は“1”の論理値を
記憶する1ビットのデータを記憶できればよいから、1
ビット×576×192=110592ビット=691
2ワードの記憶容量を有すればよい。
One chroma key signal buffer having the size shown in FIG. 26 (a) is a 1-bit buffer for storing the logical value of "0" or "1" of the chroma key signal 523 corresponding to each pixel. 1 if it can store data
Bit x 576 x 192 = 110592 Bit = 691
It only has to have a storage capacity of 2 words.

【0058】次に、ステップ1102〜ステップ111
4で示されるフレーム毎の処理の詳細について説明す
る。始めに、ステップ1102で、生成される初期画面
マップの水平方向の列位置を示すレジスタXと垂直方向
の行位置を示すレジスタYの値が0にリセットされた
後、ステップ1113でレジスタXの値がクリアされる
と共にレジスタYの値が+1ずつインクリメントされな
がら、ステップ1114でレジスタYの値が96に達し
た(95を越えた)と判定されるまで、ステップ110
3〜ステップ1112→ステップ1113→ステップ1
114→ステップ1103の処理が繰り返し実行され
る。このようにして、初期画面マップにおける96行分
の処理が実行される。
Next, steps 1102 to 111
The details of the processing for each frame shown by 4 will be described. First, in step 1102, the value of the register X indicating the horizontal column position and the value of the register Y indicating the vertical row position of the generated initial screen map are reset to 0, and then the value of the register X is determined in step 1113. Is cleared and the value of the register Y is incremented by +1 until the value of the register Y reaches 96 (exceeds 95) in step 1114.
3 to step 1112 → step 1113 → step 1
The process of 114 → step 1103 is repeatedly executed. In this way, the processing for 96 lines in the initial screen map is executed.

【0059】また、ステップ1111でレジスタXの値
が+1ずつインクリメントされながら、ステップ111
2でレジスタXの値が96に達した(95を越えた)と
判定されるまで、ステップ1103〜ステップ1112
→ステップ1103の処理が繰り返し実行される。この
ようにして、初期画面マップにおける1行内の96ブロ
ック分の処理が実行される。
Further, while the value of the register X is incremented by +1 in step 1111, step 111
Until it is determined that the value of the register X reaches 96 (exceeds 95) in step 2, steps 1103 to 1112
→ The processing of step 1103 is repeatedly executed. In this way, the processing for 96 blocks in one line in the initial screen map is executed.

【0060】そして、レジスタXとYの現在値毎に実行
されるステップ1103〜ステップ1110が、初期画
面マップにおける1ブロック分の処理ということにな
る。以下の説明では、レジスタXとYのそれぞれの現在
値を単にX、Yと記載し、現在のXとYの各値によって
特定されるブロックを処理対象ブロックと呼ぶ。
Then, steps 1103 to 1110 executed for each of the current values of the registers X and Y are the processing for one block in the initial screen map. In the following description, the current values of the registers X and Y are simply described as X and Y, and the block specified by the current values of X and Y is referred to as a processing target block.

【0061】ステップ1103においては、処理対象と
なっているクロマキー信号用バッファから、水平方向に
列位置(6X+1)〜(6X+6)、垂直方向に行位置
(2Y+1)及び(2Y+2)におけるクロマキー信号
523の各論理値が読み出される。例えば、X=0、Y
=0なら、水平方向に列位置1〜6、垂直方向に行位置
1及び2におけるデータ(図26(a) のブロック1)が
読み出される。また、X=1、Y=0なら、水平方向に
列位置7〜12、垂直方向に行位置1及び2におけるデ
ータ(図26(a) のブロック2)が読み出される。更
に、X=0、Y=1ならば、水平方向に列位置1〜6、
垂直方向に行位置3及び4におけるデータ(図26(a)
のブロック97)が読み出される。
In step 1103, the chroma key signals 523 at the column positions (6X + 1) to (6X + 6) in the horizontal direction and the row positions (2Y + 1) and (2Y + 2) in the vertical direction are output from the chroma key signal buffer to be processed. Each logical value is read. For example, X = 0, Y
If = 0, the data (block 1 in FIG. 26A) at column positions 1 to 6 in the horizontal direction and row positions 1 and 2 in the vertical direction are read. If X = 1 and Y = 0, the data (block 2 in FIG. 26A) at column positions 7 to 12 in the horizontal direction and row positions 1 and 2 in the vertical direction are read. Further, if X = 0 and Y = 1, column positions 1 to 6 in the horizontal direction,
Data at row positions 3 and 4 in the vertical direction (Fig. 26 (a)
Block 97) is read.

【0062】ステップ1104では、ステップ1103
で読み出された処理対象ブロック内の12画素分のクロ
マキー信号523の論理値のうち、論理値“1”が6画
素分以上あるか否かが判定される。
In step 1104, step 1103
It is determined whether or not the logical value "1" of the 12-pixel chroma key signal 523 in the block to be processed read in step 6 is 6 or more.

【0063】ステップ1104の判定がYESなら、ス
テップ1105で所定のレジスタに処理対象ブロックに
対応する論理値として“1”がセットされ、ステップ1
104の判定がNOなら、ステップ1106で上記レジ
スタに論理値として“0”がセットされる。
If the determination in step 1104 is YES, step 1105 sets "1" as a logical value corresponding to the block to be processed in a predetermined register, and step 1
If the determination in 104 is NO, in step 1106, "0" is set in the above register as a logical value.

【0064】そして、ステップ1107で、現在の処理
が、初期画面マップを作成するための前述した複数フレ
ーム分の処理のうち最初のフレーム内の処理であると判
定された場合は、ステップ1110において、ステップ
1105又はステップ1106で所定のレジスタにセッ
トされた処理対象ブロックの論理値が、RAM(図2
7)内の初期画面マップ領域における水平方向にX列
目、垂直方向にY行目の処理対象ブロックに対応するア
ドレスに、そのまま書き込まれる。
When it is determined in step 1107 that the current process is the process within the first frame of the above-described processes for a plurality of frames for creating the initial screen map, in step 1110, The logical value of the processing target block set in the predetermined register in step 1105 or step 1106 is the RAM (see FIG.
In the initial screen map area in 7), it is written as it is to the address corresponding to the block to be processed in the X column in the horizontal direction and the Y row in the vertical direction.

【0065】一方、ステップ1107で、現在の処理
が、上記複数フレーム分の処理のうち2つ目以降のフレ
ーム内の処理であると判定された場合には、RAM(図
27)内の初期画面マップ領域における水平方向にX列
目、垂直方向にY行目の処理対象ブロックに対応するア
ドレスの論理値が読み出され、その論理値と、ステップ
1105又はステップ1106で所定のレジスタにセッ
トされた処理対象ブロックの論理値とで、論理和(O
R)が演算され、上記所定のレジスタの内容がその演算
結果に書き換えられる。その後、ステップ1110にお
いて、RAM(図27)内の初期画面マップ領域におけ
る水平方向にX列目、垂直方向にY行目の処理対象ブロ
ックに対応するアドレスの内容が、上記レジスタにセッ
トされた論理値に書き換えられる。
On the other hand, if it is determined in step 1107 that the current process is the process within the second and subsequent frames among the processes for the plurality of frames, the initial screen in the RAM (FIG. 27) is displayed. The logical value of the address corresponding to the processing target block in the X-th column in the horizontal direction and the Y-th row in the vertical direction in the map area is read, and the logical value and the logical value are set in a predetermined register in step 1105 or step 1106. Logical sum (O
R) is calculated, and the contents of the predetermined register are rewritten with the calculation result. Then, in step 1110, the contents of the address corresponding to the processing target block in the X-th column in the horizontal direction and the Y-th row in the vertical direction in the initial screen map area in the RAM (FIG. 27) are set in the register. Rewritten with a value.

【0066】以上のステップ1103〜ステップ111
0の処理が、前述したようにして、初期画面マップの9
6×96ブロック分について繰り返されて1フレーム分
の初期画面マップが作成され、更にそのような初期画面
マップが複数フレーム分作成され、各ブロック位置毎に
フレーム間で論理和が演算されることにより、最終的
に、RAM(図27)に1画面分の初期画面マップが得
られ、図10のステップ1003の処理を終了する。
Steps 1103 to 111 above
As described above, the process of 0 corresponds to 9 of the initial screen map.
By repeating for 6 × 96 blocks, an initial screen map for one frame is created, further such initial screen maps are created for a plurality of frames, and the logical sum is calculated between the frames at each block position. Finally, the initial screen map for one screen is obtained in the RAM (FIG. 27), and the process of step 1003 of FIG. 10 is ended.

【0067】なお、ステップ1003の初期画面マップ
作成処理は、ステップ1002で初期画面マップが作成
済みでないと判定された場合に自動的に実行されるよう
に構成されているが、例えばユーザが図1のカメラ10
2で撮像されない位置で特には図示しない所定のセット
ボタンを押したタイミングでステップ1003の初期画
面マップ作成処理が実行されるように構成してもよい。
It should be noted that the initial screen map creation process of step 1003 is configured to be automatically executed when it is determined in step 1002 that the initial screen map has not been created. Camera 10
The initial screen map creation process of step 1003 may be executed at a timing when a predetermined set button (not shown) is pressed at a position where the image is not captured in 2.

【0068】次に、同期信号519(図5)によって決
定されるフレーム周期に同期して、図10のステップ1
004〜ステップ1015の処理が繰り返し実行され
る。ここでは主に、ユーザが振るバット101(図1)
の位置を示す処理画面マップと後述するステップ101
1で実行される重心計算処理に必要なデータを順次作成
する処理画面マップ作成処理(ステップ1005)、こ
の処理によりバット101の存在が検出されたブロック
位置にボール105(図1)を示すオブジェクト画面デ
ータが存在するか否かを判定する衝突座標検出処理(ス
テップ1006)、処理画面マップ上のバット101の
重心位置を計算する重心計算処理(ステップ101
1)、及びバット101とボール105とが衝突したと
判定された場合に、CPU509への割込みフラグとし
て、衝突フラグをセットする処理(ステップ1013)
が実行される。
Next, in synchronization with the frame period determined by the sync signal 519 (FIG. 5), step 1 of FIG.
The processing from 004 to step 1015 is repeatedly executed. Here, mainly the bat 101 that the user shakes (FIG. 1)
Screen map showing the position of the
Process screen map creating process for sequentially creating data required for the center of gravity calculation process executed in step 1 (step 1005), and the object screen showing the ball 105 (FIG. 1) at the block position where the presence of the bat 101 is detected by this process. Collision coordinate detection processing for determining whether or not data exists (step 1006), center of gravity calculation processing for calculating the center of gravity position of the bat 101 on the processing screen map (step 101)
1), and a process of setting a collision flag as an interrupt flag to the CPU 509 when it is determined that the bat 101 and the ball 105 collide (step 1013)
Is executed.

【0069】この場合、特には図示しないが、前述した
ように、画像認識回路508は、それぞれ図26(a) に
示されるサイズを有するクロマキー信号用バッファを2
フレーム分(2画面分)有しており、同期信号519
(図5)に同期して決定されるフレーム周期毎に、ビデ
オ信号変換回路505から入力される図26(a) に示さ
れる1フレーム分のクロマキー信号523を、2つのク
ロマキー信号用バッファに交互に保持する。また、特に
は図示しないが、前述したように、画像認識回路508
は、それぞれ図26(b) に示されるサイズを有するYS
OBJ信号用バッファを2画面マップ分有しており、同
期信号519(図5)に同期して決定されるフレーム周
期毎に、VDP506内のRGB色差データ処理回路8
06から出力される1画面マップ分のYSOBJ信号を
2つのYSOBJ信号用バッファに交互に保持する。そ
して、図10のステップ1004〜ステップ1015で
示されるフレーム毎の処理は、前回のフレーム周期にお
いて2つのクロマキー信号用バッファのうちの1つに保
持された1フレーム分のクロマキー信号523、及び同
じく前回のフレーム周期において2つのYSOBJ信号
用バッファのうちの1つに保持された1画面マップ分の
YSOBJ信号に対して、実行される。このとき同時
に、他方のクロマキー信号用バッファ及びYSOBJ信
号用バッファのそれぞれには、現在のフレーム周期に対
応するクロマキー信号523及びYSOBJ信号がそれ
ぞれ順次入力されている。そして、ステップ1015の
処理が終了する毎に、処理対象となるクロマキー信号用
バッファ及びYSOBJ信号用バッファが切り替えられ
る。
In this case, although not particularly shown, as described above, the image recognition circuit 508 has two chroma key signal buffers each having the size shown in FIG. 26 (a).
It has a frame (two screens) and a sync signal 519.
For each frame period determined in synchronism with (FIG. 5), one frame of chroma key signal 523 shown in FIG. 26 (a), which is input from the video signal conversion circuit 505, is alternated between two chroma key signal buffers. Hold on. Although not shown in particular, as described above, the image recognition circuit 508
Are YSs each having the size shown in FIG. 26 (b).
It has an OBJ signal buffer for two screen maps, and the RGB color difference data processing circuit 8 in the VDP 506 for each frame period determined in synchronization with the synchronization signal 519 (FIG. 5).
The YSOBJ signals for one screen map output from 06 are alternately held in the two YSOBJ signal buffers. Then, the processing for each frame shown in steps 1004 to 1015 of FIG. 10 is performed by the chroma key signal 523 for one frame held in one of the two chroma key signal buffers in the previous frame cycle, and the previous time. The YSOBJ signal for one screen map held in one of the two YSOBJ signal buffers in the frame period of. At the same time, the chroma key signal 523 and the YSOBJ signal corresponding to the current frame period are sequentially input to the other chroma key signal buffer and the YSOBJ signal buffer, respectively. Then, each time the processing of step 1015 is completed, the chroma key signal buffer and the YSOBJ signal buffer to be processed are switched.

【0070】図10において、ステップ1005の処理
画面マップ作成処理とステップ1006の衝突座標検出
処理は、ブロック位置(図26参照)毎に実行される。
従って、図11で説明した初期画面マップ作成処理の場
合と同様に、まず、ステップ1004で、生成される処
理画面マップの水平方向の列位置を示すレジスタXと垂
直方向の行位置を示すレジスタYの値が0にリセットさ
れた後に、ステップ1009でレジスタXの値がクリア
されると共にレジスタYの値が+1ずつインクリメント
されながら、ステップ1010でレジスタYの値が96
に達した(95を越えた)と判定されるまで、ステップ
1005〜ステップ1008→ステップ1009→ステ
ップ1010→ステップ1005の処理が繰り返し実行
される。このようにして処理画面マップにおける96行
分の処理が実行される。
In FIG. 10, the processing screen map creation processing of step 1005 and the collision coordinate detection processing of step 1006 are executed for each block position (see FIG. 26).
Therefore, as in the case of the initial screen map creation processing described in FIG. 11, first, at step 1004, the register X indicating the horizontal column position and the register Y indicating the vertical row position of the generated processing screen map. Is reset to 0, the value of the register X is cleared in step 1009, the value of the register Y is incremented by +1, and the value of the register Y is set to 96 in step 1010.
Until it is determined that the value has reached (exceeds 95), steps 1005 to 1008 → step 1009 → step 1010 → step 1005 are repeatedly executed. In this way, the processing for 96 lines in the processing screen map is executed.

【0071】また、ステップ1007でレジスタXの値
が+1ずつインクリメントされながら、ステップ100
8でレジスタXの値が96に達した(95を越えた)と
判定されるまで、ステップ1005〜ステップ1008
→ステップ1005の処理が繰り返し実行される。この
ようにして、処理画面マップにおける1行内の96ブロ
ック分の処理が実行される。
Further, while the value of the register X is incremented by +1 in step 1007, step 100
Until it is determined that the value of the register X reaches 96 (exceeds 95) in step 8, steps 1005 to 1008.
→ The process of step 1005 is repeatedly executed. In this way, the processing for 96 blocks in one line in the processing screen map is executed.

【0072】そして、レジスタXとYの現在値毎に実行
されるステップ1005の処理画面マップ作成処理とス
テップ1006の衝突座標検出処理が、処理画面マップ
における1ブロック分の処理ということになる。
The processing screen map creation processing of step 1005 and the collision coordinate detection processing of step 1006 executed for each current value of the registers X and Y are processing for one block in the processing screen map.

【0073】なお、ステップ1004においては、後述
するステップ1005の処理画面マップ作成処理で使用
される図27のRAMに記憶される上端座標と左端座標
の値が97に初期化され、同じく下端座標と右端座標の
値が0に初期化され、また、同じく処理画面マップ作成
処理で使用される重心計算処理用データS_M、S_M
xX、及びS_MyYの値が0に初期化される。なお、
これらのデータは、図27のRAMと同じRAM内の特
には図示しないワーク領域に確保される。
In step 1004, the values of the upper end coordinates and the left end coordinates stored in the RAM of FIG. 27 used in the processing screen map creation processing of step 1005 which will be described later are initialized to 97, and the lower end coordinates are also set. The value of the right end coordinate is initialized to 0, and the center-of-gravity calculation processing data S_M and S_M are also used in the processing screen map creation processing.
The values of xX and S_MyY are initialized to 0. In addition,
These data are secured in a work area (not shown) in the same RAM as the RAM in FIG.

【0074】以下の説明では、レジスタXとYのそれぞ
れの現在値を単にX、Yと記載し、現在のXとYの各値
によって特定されるブロックを処理対象ブロックと呼
ぶ。ステップ1005の処理画面マップ作成処理の詳細
な動作フローチャートを図12及び図13に示す。ここ
では、図27に示されるRAMに記憶される処理画面マ
ップを作成する処理と、同じく図27に示されるRAM
に記憶されるバット101の存在範囲を示す上端座標、
下端座標、左端座標、及び右端座標を検出する処理、並
びに、バット101の重心座標を求めるためのデータを
計算する処理が実行される。
In the following description, the current values of the registers X and Y are simply described as X and Y, and the block specified by the current X and Y values is called a block to be processed. 12 and 13 show detailed operation flowcharts of the processing screen map creation processing in step 1005. Here, the processing for creating the processing screen map stored in the RAM shown in FIG. 27 and the RAM shown in FIG.
Upper end coordinates indicating the existence range of the bat 101 stored in
A process of detecting the lower end coordinates, the left end coordinates, and the right end coordinates, and a process of calculating data for obtaining the barycentric coordinates of the bat 101 are executed.

【0075】まず、ステップ1201においては、処理
対象となっているクロマキー信号用バッファから、水平
方向に列位置(6X+1)〜(6X+6)、垂直方向に
行位置(2Y+1)及び(2Y+2)におけるクロマキ
ー信号523の各論理値が読み出される。初期画面マッ
プ作成処理の場合と同様に、例えば、X=0、Y=1な
ら、水平方向に列位置1〜6、垂直方向に行位置3及び
4におけるデータ(図26(a) のブロック97)が読み
出される。
First, at step 1201, the chroma key signals at the column positions (6X + 1) to (6X + 6) in the horizontal direction and the row position (2Y + 1) and (2Y + 2) in the vertical direction are output from the chroma key signal buffer to be processed. Each logical value of 523 is read. Similar to the case of the initial screen map creation processing, for example, if X = 0 and Y = 1, the data at the column positions 1 to 6 in the horizontal direction and the row positions 3 and 4 in the vertical direction (block 97 in FIG. ) Is read.

【0076】ステップ1202では、ステップ1201
で読み出された処理対象ブロック内の12画素分のクロ
マキー信号523の論理値のうち、論理値“1”が6画
素分以上あるか否かが判定される。
In step 1202, step 1201
It is determined whether or not the logical value "1" of the 12-pixel chroma key signal 523 in the block to be processed read in step 6 is 6 or more.

【0077】ステップ1202の判定がYESで、かつ
ステップ1203で特には図示しないリジェクトスイッ
チがオフなら、ステップ1206で所定のレジスタに処
理対象ブロックに対応する論理値として“1”がセット
され、ステップ1202の判定がNOなら、ステップ1
207で上記レジスタに論理値として“0”がセットさ
れる。
If the judgment in step 1202 is YES, and if a reject switch (not shown) is turned off in step 1203, "1" is set as a logical value corresponding to the block to be processed in a predetermined register in step 1206, and step 1202 If the determination is NO, step 1
At 207, "0" is set as a logical value in the above register.

【0078】ここで、リジェクトスイッチは、ユーザに
よって操作される。処理画面マップ上でクロマキーに関
する部分として認識される位置が、同時に、初期画面マ
ップ上でバット101と同じ色彩を有する背景対象物が
存在する位置として認識されている場合に、その位置に
はバット101は存在しないものとして処理することを
ユーザが希望する場合には、ユーザはこのスイッチをオ
ンする。
Here, the reject switch is operated by the user. When the position recognized as the part related to the chroma key on the processing screen map is recognized at the same time as the position where the background object having the same color as the bat 101 exists on the initial screen map, the bat 101 is located at that position. The user turns on this switch when he or she wishes to treat it as nonexistent.

【0079】そして、ステップ1202の判定がYE
S、即ち、処理対象ブロックがクロマキーに関する部分
として認識される場合において、ステップ1203で特
には図示しないリジェクトスイッチがオンされていると
判定される場合は、ステップ1204で、RAM(図2
7)内の初期画面マップ領域から、水平方向にX列目、
垂直方向にY行目の処理対象ブロックと同じブロック位
置の論理値が読み出される。
Then, the determination at step 1202 is YE.
S, that is, when the block to be processed is recognized as a portion related to the chroma key, and if it is determined in step 1203 that a reject switch (not shown) is turned on, in step 1204, the RAM (FIG.
From the initial screen map area in 7), the Xth column in the horizontal direction,
The logical value at the same block position as the block to be processed on the Y-th row is read out in the vertical direction.

【0080】続いて、ステップ1205では、その論理
値が“1”であるか否かが判定される。ステップ120
5の判定がYES、即ち、処理画面マップ上でクロマキ
ーに関する部分として認識される処理対象ブロックの位
置が、同時に、初期画面マップ上でバット101と同じ
色彩を有する背景対象物が存在する位置として認識され
ている場合は、ステップ1207で前述の所定のレジス
タに論理値として“0”がセットされることにより、そ
のブロック位置にはバット101は存在しないものとし
て処理される。
Then, at step 1205, it is judged if the logical value is "1". Step 120
5 is YES, that is, the position of the processing target block recognized as a portion related to the chroma key on the processing screen map is simultaneously recognized as the position on the initial screen map where the background object having the same color as the bat 101 exists. If so, the logical value "0" is set in the above-mentioned predetermined register in step 1207, so that the bat 101 does not exist at the block position.

【0081】一方、ステップ1205の判定がNO、即
ち、処理画面マップ上でクロマキーに関する部分として
認識される処理対象ブロック位置が、初期画面マップ上
ではバット101と同じ色彩を有する背景対象物が存在
する位置として認識されていない場合は、ステップ12
06で前述した所定のレジスタに論理値として“1”が
セットされることにより、そのブロック位置にはバット
101は存在するものとして処理される。ステップ12
07の処理の後、即ち、処理画面マップ上でバット10
1が存在しないと認識された処理対象ブロックについて
は、後述する図13のステップ1219が実行される。
On the other hand, if the determination in step 1205 is NO, that is, the processing target block position recognized as a portion related to the chroma key on the processing screen map has a background object having the same color as the bat 101 on the initial screen map. If the position is not recognized, step 12
By setting "1" as a logical value in the above-mentioned predetermined register at 06, it is processed that the bat 101 exists at the block position. Step 12
After the processing of 07, that is, the bat 10 on the processing screen map
For the processing target block for which 1 is not recognized, step 1219 of FIG. 13 described later is executed.

【0082】一方、ステップ1206の処理の後、即
ち、処理画面マップ上でバット101が存在すると認識
された処理対象ブロックについては、更に図13のステ
ップ1208〜ステップ1218が実行される。ここで
は、処理画面マップ上でのバット101の存在範囲を示
す図27のRAMに記憶される上端座標、下端座標、左
端座標、及び右端座標を更新する処理、並びに、バット
101の重心座標を求めるためのデータを計算する処理
が実行される。
On the other hand, after the processing of step 1206, that is, for the processing target block in which it is recognized that the bat 101 exists on the processing screen map, steps 1208 to 1218 of FIG. 13 are further executed. Here, the process of updating the upper end coordinates, the lower end coordinates, the left end coordinates, and the right end coordinates stored in the RAM of FIG. 27, which shows the existence range of the bat 101 on the processing screen map, and the barycentric coordinates of the bat 101 are obtained. A process of calculating data for is executed.

【0083】即ち、まず、ステップ1208で、値(Y
+1)が、RAM(図27)に記憶されている上端座標
の値よりも小さいか否かが判定され、この判定がYES
ならば、ステップ1209で、上端座標の値が値(Y+
1)に書き換えられる。
That is, first, at step 1208, the value (Y
+1) is smaller than the value of the upper end coordinates stored in the RAM (FIG. 27), and this determination is YES.
Then, in step 1209, the value of the upper end coordinate is the value (Y +
It is rewritten as 1).

【0084】ステップ1209の後又はステップ120
8の判定がNOの場合には、ステップ1210で、値
(Y+1)が、RAM(図27)に記憶されている下端
座標の値よりも大きいか否かが判定され、この判定がY
ESならば、ステップ1211で、下端座標の値が値
(Y+1)に書き換えられる。
After step 1209 or step 120
If the determination in step 8 is NO, in step 1210, it is determined whether or not the value (Y + 1) is larger than the value of the lower end coordinate stored in the RAM (FIG. 27).
If it is ES, in step 1211, the value of the lower end coordinate is rewritten to the value (Y + 1).

【0085】ステップ1211の後又はステップ121
0の判定がNOの場合には、ステップ1212で、値
(X+1)が、RAM(図27)に記憶されている左端
座標の値よりも小さいか否かが判定され、この判定がY
ESならば、ステップ1213で、左端座標の値が値
(X+1)に書き換えられる。
After step 1211, or step 121
When the determination of 0 is NO, in step 1212, it is determined whether or not the value (X + 1) is smaller than the value of the left end coordinate stored in the RAM (FIG. 27), and this determination is Y.
If it is ES, the value of the leftmost coordinate is rewritten to the value (X + 1) in step 1213.

【0086】ステップ1213の後又はステップ121
2の判定がNOの場合には、ステップ1214で、値
(X+1)が、RAM(図27)に記憶されている右端
座標の値よりも大きいか否かが判定され、この判定がY
ESならば、ステップ1215で、右端座標の値が値
(X+1)に書き換えられる。
After step 1213 or step 121
When the determination result in No. 2 is NO, it is determined in step 1214 whether the value (X + 1) is larger than the value of the right end coordinate stored in the RAM (FIG. 27), and this determination is Y.
If it is ES, the value of the right end coordinate is rewritten to the value (X + 1) in step 1215.

【0087】以上のステップ1208〜1215の処理
により、処理画面マップ上で論理値“1”を有するブロ
ックの範囲において、例えば図28に示されるように、
その範囲を示す上端座標、下端座標、左端座標、及び右
端座標が図27のRAMに得られる。この値は、同時
に、図5のDRAM510に転送される。
As a result of the above processing of steps 1208 to 1215, for example, as shown in FIG. 28, in the range of the block having the logical value "1" on the processing screen map,
The upper end coordinate, the lower end coordinate, the left end coordinate, and the right end coordinate indicating the range are obtained in the RAM of FIG. This value is transferred to the DRAM 510 of FIG. 5 at the same time.

【0088】ステップ1215の後又はステップ121
4の判定がNOの場合には、ステップ1216で、デー
タS_Mの値が+1だけインクリメントされると共に、
ステップ1217で、データS_MxXの値がXだけイ
ンクリメントされ、同様にステップ1218で、データ
S_MyYの値がYだけインクリメントされる。これら
のデータから重心座標を求める原理については後述す
る。
After step 1215 or step 121
If the determination result in 4 is NO, in step 1216, the value of the data S_M is incremented by +1 and
In step 1217, the value of the data S_MxX is incremented by X, and similarly, in step 1218, the value of the data S_MyY is incremented by Y. The principle of obtaining the barycentric coordinates from these data will be described later.

【0089】ステップ1218の処理の後又は前述した
ステップ1207(図12)の処理の後は、ステップ1
219で、図27に示されるRAM内の処理画面マップ
領域における水平方向にX列目、垂直方向にY行目の処
理対象ブロックに対応するアドレスの内容が、前述した
ステップ1206又はステップ1207において所定の
レジスタにセットされた論理値に書き換えられる。
After the processing of step 1218 or the processing of step 1207 (FIG. 12) described above, step 1
In 219, the contents of the address corresponding to the processing target block in the X-th column in the horizontal direction and the Y-th row in the vertical direction in the processing screen map area in the RAM shown in FIG. 27 are predetermined in step 1206 or step 1207 described above. It is rewritten to the logical value set in the register.

【0090】以上の図12及び図13の動作フローチャ
ートで示される図10のステップ1005の処理画面マ
ップ作成処理が、ステップ1005〜ステップ1010
の繰返し処理の一部として実行されることにより、フレ
ーム周期毎に図27に示されるRAMに1画面分の処理
画面マップが作成され、同じく図27に示されるRAM
にバット101の存在範囲を示す上端座標、下端座標、
左端座標、及び右端座標が得られ、更に、図27に示さ
れるRAM上の特には図示しない領域にデータS_M、
S_MxX、及びS_MyYが得られる。
The processing screen map creation processing of step 1005 of FIG. 10 shown in the operation flowcharts of FIGS. 12 and 13 is performed by steps 1005 to 1010.
27 is executed as a part of the iterative processing, a processing screen map for one screen is created in the RAM shown in FIG. 27 for each frame cycle, and the RAM shown in FIG.
The upper end coordinate, the lower end coordinate, indicating the existence range of the bat 101,
The left end coordinates and the right end coordinates are obtained, and further, data S_M,
S_MxX and S_MyY are obtained.

【0091】次に、図10のステップ1006の衝突検
出処理の詳細な動作フローチャートを図14に示す。ま
ず、ステップ1401で、RAM(図27)内の処理画
面マップ領域から、水平方向にX列目、垂直方向にY行
目の処理対象ブロックの論理値が読み出される。
Next, FIG. 14 shows a detailed operation flowchart of the collision detection processing in step 1006 of FIG. First, in step 1401, the logical value of the processing target block in the X-th column in the horizontal direction and the Y-th row in the vertical direction is read from the processing screen map area in the RAM (FIG. 27).

【0092】ステップ1402では、その論理値が
“1”であるか否か、即ち、処理対象ブロックの位置
に、バット101が存在するか否かが判定される。ステ
ップ1402の判定がNOの場合には、そのまま図14
の衝突検出処理を終了し、図10の動作フローチャート
に戻って次のブロック位置に対する処理が続行される。
In step 1402, it is judged whether or not the logical value is "1", that is, whether or not the bat 101 exists at the position of the block to be processed. When the determination in step 1402 is NO, the process in FIG.
The collision detection process is ended and the process returns to the operation flowchart of FIG. 10 to continue the process for the next block position.

【0093】ステップ1402の判定がYESの場合に
は、ステップ1403で、処理対象となっているYSO
BJ信号用バッファから、水平方向にX列目、垂直方向
にY行目の処理対象ブロックに対応するYSOBJ信号
(CGデータ)の論理値が読み出される。
If the determination in step 1402 is yes, in step 1403, the YSO to be processed is processed.
From the BJ signal buffer, the logical value of the YSOBJ signal (CG data) corresponding to the block to be processed in the X column in the horizontal direction and the Y row in the vertical direction is read.

【0094】ステップ1404では、読み出されたYS
OBJ信号の論理値が“1”であるか否か、即ち、処理
対象ブロックにボール105(図1)を示すオブジェク
ト画面データが存在するか否かが判定される。
In step 1404, the read YS
It is determined whether or not the logical value of the OBJ signal is "1", that is, whether or not the object screen data indicating the ball 105 (FIG. 1) is present in the processing target block.

【0095】ステップ1404の判定がNOならば、そ
のまま図14の衝突検出処理を終了し、図10の動作フ
ローチャートに戻って次のブロック位置に対する処理が
続行される。
If the determination in step 1404 is NO, the collision detection process of FIG. 14 is terminated, and the process returns to the operation flowchart of FIG. 10 to continue the process for the next block position.

【0096】ステップ1404の判定がYESなら、ス
テップ1405で、所定の衝突レジスタの値が“0”で
あるか否か、即ち、今まで衝突が検出されておらず今回
の衝突検出が初めてであるか否かが判定される。
If the determination in step 1404 is YES, in step 1405, it is determined whether or not the value of the predetermined collision register is "0", that is, the collision has not been detected so far, and the collision detection of this time is the first time. It is determined whether or not.

【0097】ステップ1405の判定がYESの場合に
は、ステップ1406とステップ1407で、図27の
RAM内に保持される最初の衝突座標のX座標とY座標
がレジスタX及びYの各値に更新される。続いて、ステ
ップ1408で、衝突レジスタの値が、衝突が発生した
ことを示す値“1”にセットされる。その後、図14の
衝突検出処理を終了し、図10の動作フローチャートに
戻って次のブロック位置に対する処理が続行される。
If the determination in step 1405 is YES, in steps 1406 and 1407, the X and Y coordinates of the first collision coordinate held in the RAM of FIG. 27 are updated to the respective values of the registers X and Y. To be done. Then, in step 1408, the value of the collision register is set to the value "1" indicating that a collision has occurred. After that, the collision detection process of FIG. 14 is ended, the process returns to the operation flowchart of FIG. 10, and the process for the next block position is continued.

【0098】一方、ステップ1405の判定がNOの場
合には、ステップ1409とステップ1410で、図2
7のRAM内に保持される最後の衝突座標のX座標とY
座標がレジスタX及びYの各値に更新される。その後、
図14の衝突検出処理を終了し、図10の動作フローチ
ャートに戻って次のブロック位置に対する処理が続行さ
れる。
On the other hand, if the determination in step 1405 is NO, then in steps 1409 and 1410, as shown in FIG.
X and Y of the last collision coordinates held in RAM of 7
The coordinates are updated to the values in registers X and Y. afterwards,
The collision detection process of FIG. 14 is terminated, the process returns to the operation flowchart of FIG. 10, and the process for the next block position is continued.

【0099】以上の図14の動作フローチャートで示さ
れる図10のステップ1006の衝突検出処理が、ステ
ップ1005〜ステップ1010の処理の繰返しに基づ
いて処理画面マップの全範囲に渡って実行されることに
より、衝突の有無と衝突が発生した処理画面マップ上の
ブロック範囲が検出される。
By executing the collision detection processing of step 1006 of FIG. 10 shown in the operation flow chart of FIG. 14 over the entire range of the processing screen map based on the repetition of the processing of steps 1005 to 1010, The presence or absence of a collision and the block range on the processing screen map where the collision has occurred are detected.

【0100】次に、図10のステップ1011の重心計
算処理は、1フレーム周期に1回、即ち、1画面分の処
理画面マップの作成が終了しステップ1010の判定が
YESとなる毎に実行される。この処理では、RAM
(図27)に記憶された処理画面マップ上のバット10
1の重心位置が計算される。
Next, the center-of-gravity calculation process of step 1011 of FIG. 10 is executed once in one frame cycle, that is, every time when the creation of the process screen map for one screen is completed and the determination of step 1010 becomes YES. It In this process, RAM
Bat 10 on the processing screen map stored in (FIG. 27)
The centroid position of 1 is calculated.

【0101】一般に、2次元座標上に存在する領域の重
心のx座標XG及びy座標YGは、次の数1式及び数2
式によって計算することができる。
Generally, the x-coordinate XG and the y-coordinate YG of the center of gravity of the region existing on the two-dimensional coordinates are expressed by the following equation 1 and equation 2
It can be calculated by a formula.

【0102】[0102]

【数1】XG=Σ(mxi・xi )/Σmxi=Σ(mxi
i )/M
XG = Σ (m xi · x i ) / Σm xi = Σ (m xi ·
x i ) / M

【0103】[0103]

【数2】YG=Σ(myj・yj )/Σmyj=Σ(myj
j )/M ここで、サフィックスiとjはそれぞれ列方向(x方
向)及び行方向(y方向)の重心計算領域の各位置であ
り、xi とyj はそれぞれ列方向位置iと行方向位置j
におけるx座標値とy座標値であり、mxiとmyjはそれ
ぞれ列方向位置iと行方向位置jにおける質量の総和で
ある。また、Mは、2次元座標上に存在する領域の質量
の総和である。
[ Formula 2] YG = Σ (m yj · y j ) / Σm yj = Σ (m yj ·
y j ) / M where the suffixes i and j are the respective positions of the centroid calculation region in the column direction (x direction) and the row direction (y direction), and x i and y j are the column direction position i and the row, respectively. Direction position j
X coordinate value and y coordinate value at, and m xi and m yj are sums of masses at column-direction position i and row-direction position j, respectively. Further, M is the total sum of the masses of the regions existing on the two-dimensional coordinates.

【0104】ここで、x座標値及びy座標値が前述した
ブロックを単位とする値である場合には、mxi及びmyj
はそれぞれ列方向ブロック位置i及び行方向ブロック位
置jにおけるブロックの総数に等価である。そして、前
述した図10のステップ1005に対応する図12及び
図13の処理画面マップ作成処理において、数1式及び
数2式における分母項である質量Mは、図13のステッ
プ1216において面積S_Mとして計算され、数1式
における項Σ(mxi・xi )は、図13のステップ12
17の繰返しによってデータS_MxXとして計算さ
れ、数2式における項Σ(myj・yj )は、図13のス
テップ1218の繰返しによってデータS_MyYとし
て計算されている。
Here, when the x-coordinate value and the y-coordinate value are values in units of the blocks described above, m xi and m yj
Are respectively equivalent to the total number of blocks at the column direction block position i and the row direction block position j. Then, in the processing screen map creation processing of FIGS. 12 and 13 corresponding to step 1005 of FIG. 10 described above, the mass M that is the denominator in the equations 1 and 2 is set as the area S_M in step 1216 of FIG. The term Σ (m xi · x i ) calculated in Equation 1 is calculated in step 12 of FIG.
Calculated as data S_MxX by 17 repetitions of the term in equation 2 expression Σ (m yj · y j) are calculated as data S_MyY by repetition of step 1218 of FIG. 13.

【0105】上述のデータS_M、S_MxX、S_M
yY、並びに数1式と数2式の計算式に基づく図10の
ステップ1011の重心計算処理の更に詳細な動作フロ
ーチャートを図15に示す。
The above-mentioned data S_M, S_MxX, S_M
FIG. 15 shows a more detailed operation flowchart of the centroid calculation process of step 1011 of FIG. 10 based on yY and the equations of the equations 1 and 2.

【0106】即ち、ステップ1501で、数1式及び数
2式に対応する以下の数3式及び数4式によって、処理
画面マップ上に存在するバット101の重心座標(X
G、YG)が得られる。
That is, in step 1501, the barycentric coordinates (X) of the bat 101 existing on the processing screen map are expressed by the following formulas 3 and 4 corresponding to the formulas 1 and 2.
G, YG) is obtained.

【0107】[0107]

【数3】XG=S_MxX/S_M## EQU3 ## XG = S_MxX / S_M

【0108】[0108]

【数4】YG=S_MyY/S_M 例えば、図28に示される例では、次式の計算が実行さ
れることにより、重心座標(XG、YG)=(32.
6、16.1)が得られる。 S_MxX=2×30+3×31+3×32+3×33
+3×34+1×35+1×36=521 S_Mx =2+3+3+3+3+1+1=16 故に、XG=521/16=32.6 S_MyY=4×15+7×16+5×17=257 S_My =4+7+5=16 故に、YG=257/16=16.1 以上の図15の動作フローチャートで示される図10の
ステップ1011の重心計算処理の後、図10のステッ
プ1012で、衝突レジスタの値が“1”になっている
か否かが判定される。このレジスタの値は、前述したス
テップ1006の衝突座標検出処理において、処理画面
マップ上のバット101の存在を示す論理値が“1”で
あるブロックが1つでも、ボール105の存在を示すY
SOBJ信号と重なっている場合に、“1”にセットさ
れる(図14のステップ1408参照)。
## EQU00004 ## YG = S_MyY / S_M For example, in the example shown in FIG. 28, the barycentric coordinates (XG, YG) = (32.
6, 16.1) is obtained. S_MxX = 2 × 30 + 3 × 31 + 3 × 32 + 3 × 33
+ 3 × 34 + 1 × 35 + 1 × 36 = 521 S_Mx = 2 + 3 + 3 + 3 + 3 + 1 + 1 = 16 Therefore, XG = 521/16 = 32.6 S_MyY = 4 × 15 + 7 × 16 + 5 × 17 = 257 S_My = 4 + 7 + 5 = 16 Therefore YG = 257/16 = 16 .1 After the center of gravity calculation processing in step 1011 in FIG. 10 shown in the operation flowchart in FIG. 15 above, in step 1012 in FIG. 10, it is determined whether or not the value of the collision register is “1”. The value of this register is Y indicating the presence of the ball 105 even if there is one block having a logical value “1” indicating the presence of the bat 101 on the processing screen map in the collision coordinate detection processing of step 1006 described above.
When it overlaps with the SOBJ signal, it is set to "1" (see step 1408 in FIG. 14).

【0109】そして、ステップ1012の判定がYES
の場合は、ステップ1013で、図5のCPU509へ
の割込みフラグである衝突フラグが“1”にセットされ
る。この結果、CPU509において後述する衝突フラ
グ割込み処理(図20)が発生し、この割込み処理にお
いて、図1のバット101がボール105に当ったこと
に対応して表示装置103に表示されるCG画像104
を制御する処理が実行される。なお、画像認識回路50
8は、上述の衝突フラグのセット処理と共に、ステップ
1011で計算した重心座標(XG、YG)を、図5の
DRAM507に転送する。また、画像認識回路508
は、ステップ1006の衝突座標検出処理によってRA
M(図26)に記憶した最初の衝突座標及び最後の衝突
座標、並びに、ステップ1005の処理画面マップ作成
処理によって上述のRAMに記憶した上端座標、下端座
標、左端座標、及び右端座標を、必要に応じて、DRA
M507に転送する。
Then, the determination in step 1012 is YES.
In this case, in step 1013, the collision flag which is an interrupt flag to the CPU 509 of FIG. 5 is set to "1". As a result, a collision flag interrupt process (FIG. 20) described later occurs in the CPU 509, and in this interrupt process, the CG image 104 displayed on the display device 103 in response to the bat 101 hitting the ball 105 in FIG.
A process for controlling is executed. The image recognition circuit 50
8 transfers the barycentric coordinates (XG, YG) calculated in step 1011 to the DRAM 507 of FIG. 5 together with the above-mentioned collision flag setting processing. In addition, the image recognition circuit 508
Is RA by the collision coordinate detection processing of step 1006.
The first collision coordinate and the last collision coordinate stored in M (FIG. 26) and the upper end coordinate, the lower end coordinate, the left end coordinate, and the right end coordinate stored in the above-mentioned RAM by the processing screen map creation processing of step 1005 are required. Depending on the DRA
Transfer to M507.

【0110】ステップ1013の処理の後は、ステップ
1014で、衝突フラグが“0”に戻ったか否かが判定
される。この衝突フラグの値は、CPU509が実行す
る後述する衝突フラグ割込み処理が終了する時点で
“0”に戻される。この結果、例えばホームラン画像が
進行している複数フレーム周期の間は、図5の画像認識
回路508は図10の動作フローチャートの処理をステ
ップ1014より先に進めないことになる。なお、衝突
フラグ割込み処理が実行されている間にも、ステップ1
004〜ステップ1015の処理をフレーム周期に同期
して進行させる構成にし衝突レジスタの値に応じてCP
U509に更に別の割込みがかけられるようにしてもよ
い。
After the processing of step 1013, it is determined in step 1014 whether the collision flag has returned to "0". The value of the collision flag is returned to "0" at the time when the later-described collision flag interrupt process executed by the CPU 509 ends. As a result, for example, the image recognition circuit 508 of FIG. 5 cannot advance the process of the operation flowchart of FIG. Note that even while the collision flag interrupt process is being executed, step 1
The processing from 004 to step 1015 is configured to proceed in synchronization with the frame cycle, and CP is set according to the value of the collision register.
Further interruptions may be made to U509.

【0111】衝突フラグの値が“0”に戻りステップ1
014の判定がYESとなると、ステップ1015で衝
突レジスタの値も“0”に戻される。ステップ1015
の処理の後又はステップ1012の判定がNOであった
場合には、次のフレーム周期の開始時点に同期してステ
ップ1004の処理に戻る。この場合、前述したよう
に、処理対象となるクロマキー信号用バッファ及びYS
OBJ信号用バッファが変更される。
The value of the collision flag returns to "0" and step 1
When the determination of 014 is YES, the value of the collision register is also returned to “0” in step 1015. Step 1015
After the processing of 1) or when the determination in step 1012 is NO, the processing returns to the processing of step 1004 in synchronization with the start time of the next frame period. In this case, as described above, the chroma key signal buffer and YS to be processed are
The OBJ signal buffer is changed.

【0112】次に、図16及び図17は、図5のCPU
509が実行するCPU処理の動作フローチャートであ
る。CPU509は、基本的には、特には図示しないス
タートスイッチ及びストップスイッチなどから入力され
るキースキャン信号527を処理しながら、時間経過と
共に、アプリケーションカートリッジ513内のアプリ
ケーションROM514からCG画像104(図1)を
構成するオブジェクト画面データ、オブジェクトテーブ
ルデータ、及びバックグランド画面データを順次読み出
し、同期信号519に同期した垂直ブランキング期間内
に、それらのデータをバス526からVDP506に転
送し、更に時間経過と共に、DRAM507に転送した
各オブジェクト画面データのCG画像104(図1)上
での表示位置を、VDP506に対して順次指定する。
Next, FIGS. 16 and 17 show the CPU of FIG.
509 is an operation flowchart of CPU processing executed by 509. The CPU 509 basically processes a key scan signal 527 input from a start switch, a stop switch, or the like (not shown), and with the passage of time, from the application ROM 514 in the application cartridge 513 to the CG image 104 (FIG. 1). The object screen data, the object table data, and the background screen data constituting the above are sequentially read, and those data are transferred from the bus 526 to the VDP 506 within the vertical blanking period synchronized with the synchronization signal 519. The display position on the CG image 104 (FIG. 1) of each object screen data transferred to the DRAM 507 is sequentially designated to the VDP 506.

【0113】図16において、まず、ステップ1601
では、図5のDRAM507の内容などがイニシャライ
ズされる。ステップ1602では、後述する各種割込み
処理が許可される。
In FIG. 16, first, step 1601.
Then, the contents of the DRAM 507 in FIG. 5 are initialized. In step 1602, various interrupt processes described later are permitted.

【0114】ステップ1603では、特には図示しない
スロットに挿入された図5のアプリケーションカートリ
ッジ513内のアプリケーションROM514(#1又
は#2の何れか)から、図5のDRAM510上のプロ
グラム領域にアプリケーションプログラムがロードされ
る。以下、CPU509は、このアプリケーションプロ
グラムに従って、ステップ1604以降の動作を実行す
る。
In step 1603, the application program is loaded from the application ROM 514 (either # 1 or # 2) in the application cartridge 513 of FIG. 5 inserted into a slot (not shown) into the program area of the DRAM 510 of FIG. Loaded. After that, the CPU 509 executes the operations of step 1604 and thereafter according to this application program.

【0115】ステップ1604では、CPU509内の
DMAC(ダイレクトメモリアクセスコントローラ)
に、CG画像104(図1)を構成するバックグランド
画面データのアプリケーションカートリッジ513内の
アプリケーションROM514上での読出し開始アドレ
スと読出しデータ数がセットされる。
At step 1604, a DMAC (Direct Memory Access Controller) in the CPU 509.
The read start address and the number of read data of the background screen data forming the CG image 104 (FIG. 1) on the application ROM 514 in the application cartridge 513 are set.

【0116】ステップ1605では、上記DMACに、
CG画像104(図1)を構成する最初のオブジェクト
画面データの上記アプリケーションROM514上での
読出し開始アドレスと読出しデータ数がセットされる。
At step 1605, the DMAC is
The read start address and the number of read data on the application ROM 514 of the first object screen data forming the CG image 104 (FIG. 1) are set.

【0117】ステップ1606では、上記DMACに、
オブジェクトテーブルデータの上記アプリケーションR
OM514上での読出し開始アドレスと読出しデータ数
がセットされる。このオブジェクトテーブルデータは、
前述したように、DRAM507に記憶される各オブジ
ェクト画面データとそれぞれに対応するID番号との対
応テーブルを示すテーブルである。
At step 1606, the DMAC is
Application R of object table data
The read start address and the number of read data on the OM 514 are set. This object table data is
As described above, it is a table showing a correspondence table of each object screen data stored in the DRAM 507 and the ID number corresponding to each.

【0118】上記ステップ1604〜ステップ1606
の処理の後、ステップ1607で、レジスタACKFに
“1”がセットされる。そして、ステップ1608で、
レジスタACKFの値が“0”に戻るまで待機状態とな
る。
Steps 1604 to 1606 described above
After the above processing, in step 1607, "1" is set in the register ACKF. Then, in step 1608,
It is in a standby state until the value of the register ACKF returns to "0".

【0119】ここで、CPU509は、同期信号519
に基づいて決定される各フレーム周期内の垂直ブランキ
ング期間が開始される時点毎に、ステップ1608の処
理を中断して、図18の動作フローチャートで示される
垂直ブランキング割込み処理を実行する。
Here, the CPU 509 uses the synchronization signal 519.
The vertical blanking interrupt process shown in the operation flowchart of FIG. 18 is executed by interrupting the process of step 1608 at each time when the vertical blanking period in each frame period determined based on the above is started.

【0120】そして、上述のCPU処理によってレジス
タACKFに“1”がセットされた場合は、この割込み
処理が実行されるタイミングで、ステップ1801の判
定がYESとなることにより、前述した図16のステッ
プ1604〜ステップ1606の処理によってCPU5
09内のDMACに設定された各データに基づいて、ア
プリケーションカートリッジ513内のアプリケーショ
ンROM514に記憶されている各データがVDP50
6に転送される。
When "1" is set in the register ACKF by the above-mentioned CPU processing, the determination at step 1801 becomes YES at the timing when this interrupt processing is executed, so that the step shown in FIG. CPU 5 by the processing from 1604 to step 1606
Each data stored in the application ROM 514 in the application cartridge 513 is converted to the VDP50 based on each data set in the DMAC in the 09.
6 is transferred.

【0121】即ち、図16のステップ1604〜ステッ
プ1606の処理は電源オン直後に実行されるため、図
18のステップ1802の判定がYESとなる。この結
果、まず、ステップ1803で、DMACは、ステップ
1604の処理により設定されたバックグランド画面デ
ータの読出し開始アドレスと読出しデータ数に基づい
て、アプリケーションROM514内のバックグランド
画面データを、バス526を介してVDP506にDM
A転送する。VDP506は、このバックグランド画面
データを、図8のCPUインタフェース回路801から
DRAMコントロール回路802を介して図5のDRA
M507に転送する。
That is, since the processes of steps 1604 to 1606 of FIG. 16 are executed immediately after the power is turned on, the determination of step 1802 of FIG. 18 becomes YES. As a result, first, in step 1803, the DMAC transfers the background screen data in the application ROM 514 via the bus 526 based on the read start address and the number of read data of the background screen data set by the process of step 1604. DM to VDP506
A transfer. The VDP 506 transfers the background screen data from the CPU interface circuit 801 of FIG. 8 to the DRAM control circuit 802 of FIG.
Transfer to M507.

【0122】次に、ステップ1804で、DMACは、
ステップ1605の処理により設定されたオブジェクト
画面データの読出し開始アドレスと読出しデータ数に基
づいて、アプリケーションROM514内のオブジェク
ト画面データを、バス526を介してVDP506にD
MA転送する。VDP506は、このオブジェクト画面
データも、図8のCPUインタフェース回路801から
DRAMコントロール回路802を介して図5のDRA
M507に転送する。
Next, in step 1804, the DMAC
The object screen data in the application ROM 514 is transferred to the VDP 506 via the bus 526 based on the read start address and the number of read data of the object screen data set by the process of step 1605.
MA transfer. The VDP 506 also transfers this object screen data from the CPU interface circuit 801 of FIG. 8 through the DRAM control circuit 802 to the DRA of FIG.
Transfer to M507.

【0123】更に、ステップ1805で、DMACは、
ステップ1606の処理により設定されたオブジェクト
テーブルデータの読出し開始アドレスと読出しデータ数
に基づき、アプリケーションROM514内のオブジェ
クトテーブルデータを、バス526を介してVDP50
6にDMA転送する。VDP506は、このオブジェク
トテーブルデータを、CPUインタフェース回路801
からオブジェクトコントロール回路803を介してオブ
ジェクトテーブルRAM804に転送する。
Further, in step 1805, the DMAC
The object table data in the application ROM 514 is transferred to the VDP 50 via the bus 526 based on the read start address and the read data number of the object table data set by the process of step 1606.
DMA transfer to 6. The VDP 506 transfers this object table data to the CPU interface circuit 801.
To the object table RAM 804 via the object control circuit 803.

【0124】その後、ステップ1806で、レジスタA
CKFの値が“0”に戻され、図18に示される垂直ブ
ランキング割込み処理を終了する。この結果、図16の
ステップ1608の処理が再開され、この処理における
判定がYESとなることにより、まず、ユーザが特には
図示しないスタートスイッチを押しそれに対応するキー
スキャン信号527(図5)が入力されるまで、ステッ
プ1609の判定がNO→ステップ1612の判定がN
O→ステップ1609の判定がNO・・・という処理ル
ープが繰り返され、待機状態となる。なお、レジスタS
TFの内容は、図16のステップ1601において
“0”にイニシャライズされている。
Thereafter, in step 1806, register A
The value of CKF is returned to "0", and the vertical blanking interrupt processing shown in FIG. 18 ends. As a result, the process of step 1608 of FIG. 16 is restarted, and the determination in this process is YES, so that the user first presses a start switch (not shown) and inputs the corresponding key scan signal 527 (FIG. 5). Until the determination in step 1609 is NO → the determination in step 1612 is N
The process loop in which the determination of O → step 1609 is NO ... is repeated, and the process enters the standby state. The register S
The contents of TF are initialized to "0" in step 1601 of FIG.

【0125】スタートスイッチが押されそれに対応する
キースキャン信号527が入力されると、ステップ16
09の判定がYESとなる。この結果、まず、ステップ
1610において、レジスタtに時刻0がセットされ
る。このレジスタtは、ユーザがスタートスイッチを押
することによってゲームを開始させた時点からの経過時
刻を示すレジスタであり、このレジスタtの値は、バス
526に接続されているクロック回路512(図5)か
ら一定時間毎に入力される割込み要求に基づいて実行さ
れる、図19のステップ1901として示されるタイマ
ー割込み処理によって、+1ずつインクリメントされ
る。
When the start switch is pressed and the corresponding key scan signal 527 is input, step 16
The determination of 09 is YES. As a result, first, in step 1610, the time 0 is set in the register t. The register t is a register indicating the elapsed time from the time when the user starts the game by pressing the start switch, and the value of the register t is the value of the clock circuit 512 connected to the bus 526 (see FIG. 5). ) Is incremented by +1 by the timer interrupt processing shown as step 1901 in FIG. 19, which is executed based on the interrupt request input at regular intervals.

【0126】次に、ステップ1611で、レジスタST
Fに“1”がセットされる。この結果、ステップ161
2の判定がYESとなり、これ以降、通常は、図17の
ステップ1613〜ステップ1617→ステップ161
9→ステップ1609(図16)→ステップ1612→
ステップ1613という処理ループが繰り返される。
Next, at step 1611, the register ST
“1” is set in F. As a result, step 161
The determination of 2 is YES, and thereafter, normally, step 1613 to step 1617 of FIG. 17 → step 161.
9 → step 1609 (FIG. 16) → step 1612 →
The processing loop of step 1613 is repeated.

【0127】上述の処理ループにおいて、ステップ16
14では、時間経過を示す現在のレジスタtの値に基づ
いて、表示をすべきオブジェクト画面データに対応する
オブジェクトテーブルデータに対して指定するID番号
が演算され、ステップ1615では、現在のレジスタt
の値に基づいて、オブジェクト画面データの表示位置が
演算される。これらのデータは、DRAM507上の所
定のアドレスにセットされ、その読出し開始アドレスと
読出しデータ数がCPU509内のDMACにセットさ
れる。なお、ステップ1614又はステップ1615で
は、後述する音源割込み処理(図22参照)においてア
プリケーションカートリッジ513内の音源回路515
に転送される発音指示データも生成され、DRAM50
7などにセットされる。
In the above processing loop, step 16
At 14, the ID number designated for the object table data corresponding to the object screen data to be displayed is calculated based on the current value of the register t indicating the elapsed time, and at step 1615, the current register t is calculated.
The display position of the object screen data is calculated based on the value of. These data are set to a predetermined address on the DRAM 507, and the read start address and the number of read data are set to the DMAC in the CPU 509. In step 1614 or step 1615, the tone generator circuit 515 in the application cartridge 513 is used in the tone generator interrupt process (see FIG. 22) described later.
Pronunciation instruction data to be transferred to the
Set to 7.

【0128】また、オブジェクト画面データを変更する
必要がある場合には、ステップ1614で、CPU50
9内のDMACに、新たなオブジェクト画面データに対
応するオブジェクトテーブルデータのアプリケーション
ROM514上での読出し開始アドレスと読出しデータ
数がセットされる。また、ステップ1615で、DMA
Cに、新たなオブジェクト画面データのアプリケーショ
ンROM514上での読出し開始アドレスと読出しデー
タ数がセットされる。
If it is necessary to change the object screen data, in step 1614, the CPU 50
In the DMAC in 9, the read start address and the read data number of the object table data corresponding to the new object screen data on the application ROM 514 are set. Also, in step 1615, DMA
In C, the read start address of the new object screen data on the application ROM 514 and the number of read data are set.

【0129】ステップ1616では、レジスタACKF
に“1”がセットされる。その後、前述の垂直ブランキ
ング割込み処理が実行されてレジスタACKFの値が
“0”に戻されるまでは、通常、ステップ1617の判
定がNO→ステップ1619の判定がNO→ステップ1
609(図16)の判定がNO→ステップ1612の判
定がYES→ステップ1613(図17)の判定がNO
→ステップ1617の判定がNO・・・という処理ルー
プが繰り返され、待機状態となる。
In step 1616, the register ACKF
Is set to "1". Thereafter, until the above-described vertical blanking interrupt process is executed and the value of the register ACKF is returned to "0", normally, the determination in step 1617 is NO → the determination in step 1619 is NO → step 1
NO in step 609 (FIG. 16) → YES in step 1612 → NO in step 1613 (FIG. 17)
→ The processing loop in which the determination in step 1617 is NO ... Is repeated, and a standby state is entered.

【0130】CPU509は、前述したように、垂直ブ
ランキング期間が開始される時点毎に、上述の処理ルー
プの処理を中断して、図18の動作フローチャートで示
される垂直ブランキング割込み処理を実行する。
As described above, the CPU 509 interrupts the processing of the processing loop described above at each time when the vertical blanking period is started, and executes the vertical blanking interrupt processing shown in the operation flowchart of FIG. .

【0131】この結果、ステップ1801の判定がYE
S→ステップ1802の判定がNOとなることにより、
ステップ1804が実行される。ステップ1804で
は、CPU509内のDMACは、ステップ1615の
処理による設定に基づいて、オブジェクト画面データの
表示位置を示すデータを、バス526を介してVDP5
06にDMA転送する。また、ステップ1805では、
DMACは、ステップ1614の処理による設定に基づ
いて、表示を行うべきオブジェクト画面データのID番
号を、バス526を介してVDP506にDMA転送す
る。この結果、VDP506内のオブジェクトコントロ
ール回路803は、CPU509から指定されたID番
号によってオブジェクトテーブルRAM804を参照す
ることにより、そのID番号に対応するオブジェクト画
面データをDRAMコントロール回路802を介してD
RAM507から読み出し、CPU509から指定され
た表示位置の情報に基づいてラインバッファRAM80
8に展開した後、その内容をRGB色差データ処理回路
806に出力する。
As a result, the determination in step 1801 is YE.
S → because the determination in step 1802 is NO,
Step 1804 is executed. In step 1804, the DMAC in the CPU 509 sends data indicating the display position of the object screen data to the VDP 5 via the bus 526 based on the setting made in the process of step 1615.
DMA transfer to 06. Also, in step 1805,
The DMAC DMA-transfers the ID number of the object screen data to be displayed to the VDP 506 via the bus 526 based on the setting made by the process of step 1614. As a result, the object control circuit 803 in the VDP 506 refers to the object table RAM 804 by the ID number designated by the CPU 509, and the object screen data corresponding to the ID number is transferred via the DRAM control circuit 802 to the D screen.
The line buffer RAM 80 is read out from the RAM 507 and based on the display position information designated by the CPU 509.
After being expanded to 8, the contents are output to the RGB color difference data processing circuit 806.

【0132】新たなオブジェクト画面データ及びオブジ
ェクトテーブルデータが転送される場合のステップ18
04と1805の処理は、前述した図16のステップ1
604〜ステップ1606が実行された直後の場合と同
様である。
Step 18 when new object screen data and object table data are transferred
The processing of 04 and 1805 is the same as step 1 of FIG. 16 described above.
This is similar to the case immediately after the execution of Steps 604 to 1606.

【0133】その後、ステップ1806で、レジスタA
CKFの値が“0”に戻され、図18に示される垂直ブ
ランキング割込み処理を終了する。この結果、CPU処
理における前述した処理ループが再開され、ステップ1
613の判定がYESとなることにより、次の画面制御
処理が実行される。
Thereafter, in step 1806, register A
The value of CKF is returned to "0", and the vertical blanking interrupt processing shown in FIG. 18 ends. As a result, the above-mentioned processing loop in the CPU processing is restarted, and step 1
When the determination in 613 is YES, the next screen control process is executed.

【0134】上述の処理ループの実行過程で、ユーザが
特には図示しないストップスイッチを押しそれに対応す
るキースキャン信号527(図5)が入力されると、ス
テップ1617の判定がYESとなる。この結果、ステ
ップ1618で、レジスタSTFに“0”がセットされ
る。従って、この時点以降は、ユーザが特には図示しな
いスタートスイッチを再び押しそれに対応するキースキ
ャン信号527が入力されるまで、ステップ1609
(図16)の判定がNO→ステップ1612の判定がN
O→ステップ1609の判定がNO・・・という処理ル
ープが繰り返されて、待機状態となる。なお、レジスタ
tの値はクリアされないため、次にスタートスイッチが
押されると、ストップスイッチが押された時点からゲー
ムの進行が再開される。
When the user presses the stop switch (not shown) and inputs the corresponding key scan signal 527 (FIG. 5) in the execution process of the above processing loop, the determination in step 1617 becomes YES. As a result, in step 1618, "0" is set in the register STF. Therefore, after this point, step 1609 is repeated until the user presses a start switch (not shown) again and the corresponding key scan signal 527 is input.
The determination in (FIG. 16) is NO, and the determination in step 1612 is N.
The process loop in which the determination of O → step 1609 is NO ... is repeated, and the process enters the standby state. Since the value of the register t is not cleared, the next time the start switch is pressed, the progress of the game is resumed from the time when the stop switch is pressed.

【0135】また、上述の処理ループの実行過程で、レ
ジスタtの値が予め設定された終了時刻Tになると、ス
テップ1619の判定がYESとなる。この結果、ステ
ップ1620で、レジスタtの値が0にリセットされ
る。従って、この時点以降は、ゲームが再び最初から繰
り返されることになる。
When the value of the register t reaches the preset end time T in the execution process of the above processing loop, the determination in step 1619 becomes YES. As a result, in step 1620, the value of the register t is reset to 0. Therefore, after this point, the game is repeated from the beginning.

【0136】更に、上述の処理ループの実行過程で、ユ
ーザが特には図示しないスタートスイッチを再度押しそ
れに対応するキースキャン信号527が入力されると、
ステップ1609の判定がYESとなる。この結果、ス
テップ1610でレジスタtの値が強制的に0にリセッ
トされる。従って、この時点以降も、ゲームが再び最初
から繰り返されることになる。
Further, when the user presses the start switch (not shown) again and inputs the corresponding key scan signal 527 in the execution process of the above-mentioned processing loop,
The determination in step 1609 becomes YES. As a result, the value of the register t is forcibly reset to 0 in step 1610. Therefore, even after this point, the game is repeated again from the beginning.

【0137】一方、上述の処理ループの実行過程で、画
像認識回路508によって、前述したように衝突フラグ
が1にセットされると(図10のステップ1013参
照)、CPU509は、上述の処理ループの処理を中断
して、図20の動作フローチャートで示される衝突フラ
グ割込み処理を実行する。
On the other hand, when the image recognition circuit 508 sets the collision flag to 1 as described above (see step 1013 in FIG. 10) in the execution process of the above processing loop, the CPU 509 executes the above processing loop. The processing is interrupted and the collision flag interrupt processing shown in the operation flowchart of FIG. 20 is executed.

【0138】まず、ステップ2001では、レジスタt
によって示されている現在の時刻tが、予め設定された
所定の衝突判定期間T1 〜T2 の範囲に入っているか否
かが判定される。このような衝突判定期間を設けた理由
は、本来、図1のバット101がボール105に当るべ
き時間以外の時間で、バット101に対応するクロマキ
ーがボール105に対応するオブジェクト画面データと
重なってしまった場合に、誤った処理が実行されてしま
うことを防止するためである。
First, in step 2001, the register t
It is determined whether or not the current time t indicated by is within the range of a predetermined collision determination period T 1 to T 2 set in advance. The reason for providing such a collision determination period is that the chroma key corresponding to the bat 101 overlaps with the object screen data corresponding to the ball 105 at a time other than the time when the bat 101 of FIG. This is to prevent erroneous processing from being executed in the case of failure.

【0139】ステップ2002においては、画像認識回
路508からDRAM510に転送されているバット1
01を示すクロマキーの重心座標が、CPU509内に
取り込まれる。
In step 2002, the bat 1 transferred from the image recognition circuit 508 to the DRAM 510.
The barycentric coordinate of the chroma key indicating 01 is loaded into the CPU 509.

【0140】ステップ2003においては、上述のバッ
ト101を示すクロマキーの重心座標と、VDP506
内のオブジェクトコントロール回路803から取得した
現在表示されているボール105を示すオブジェクト画
面データの重心座標との位置関係が判定される。
At step 2003, the chroma key barycentric coordinates indicating the bat 101 and the VDP 506 are set.
The positional relationship with the barycentric coordinates of the object screen data indicating the currently displayed ball 105 acquired from the object control circuit 803 therein is determined.

【0141】この結果、図2に示されるように、2つの
重心座標のずれが所定の許容範囲内にある場合には、図
1の表示装置103上のCG画像104を例えばホーム
ランに対応する画像に変化させるべく、ステップ200
4で、第1画像処理が実行される。なお、処理画面マッ
プ上におけるバット101を示すクロマキーの重心座標
と、ボール105を示すオブジェクト画面データの重心
座標は、ユーザがバット101をちょうどストライクゾ
ーンに対応する位置に振り下ろしたときに一致するよう
に、予め図1のカメラ102の方向が調整されているも
のとする。
As a result, as shown in FIG. 2, when the deviation between the two barycentric coordinates is within a predetermined allowable range, the CG image 104 on the display device 103 in FIG. 1 is converted into an image corresponding to a home run, for example. Step 200 to change to
At 4, the first image processing is executed. It should be noted that the barycentric coordinates of the chroma key indicating the bat 101 on the processing screen map and the barycentric coordinates of the object screen data indicating the ball 105 should match when the user swings the bat 101 right down to a position corresponding to the strike zone. First, it is assumed that the direction of the camera 102 in FIG. 1 is adjusted in advance.

【0142】また、図3に示されるように、ボール10
5を示すオブジェクト画面データの重心座標がバット1
01を示すクロマキーの重心座標の下方にずれている場
合には、図1の表示装置103上のCG画像104を例
えばゴロに対応する画像に変化させるべく、ステップ2
005で、第2画像処理が実行される。
Also, as shown in FIG.
The barycentric coordinates of the object screen data indicating 5 are bat 1
If the displacement is below the barycentric coordinate of the chroma key indicating 01, the CG image 104 on the display device 103 in FIG.
At 005, the second image processing is executed.

【0143】更に、図4に示されるように、ボール10
5を示すオブジェクト画面データの重心座標がバット1
01を示すクロマキーの重心座標の上方にずれている場
合には、図1の表示装置103上のCG画像104を例
えばフライに対応する画像に変化させるべく、ステップ
2006で、第3画像処理が実行される。
Further, as shown in FIG.
The barycentric coordinates of the object screen data indicating 5 are bat 1
If the displacement is above the center of gravity of the chroma key indicating 01, the third image processing is executed in step 2006 in order to change the CG image 104 on the display device 103 in FIG. 1 into an image corresponding to a fly, for example. To be done.

【0144】図21は、ステップ2004〜2006に
示される第1〜第3画像処理を一般的に表した第n画像
処理の動作フローチャートである。ステップ2101で
は、現在の処理が第1、第2、又は第3の何れの画像処
理かによって、また、時間経過を示す現在のレジスタt
の値に基づいて、オブジェクト画面データの表示位置が
演算される。また、ステップ2102では、現在の処理
が第1、第2、又は第3の何れの画像処理かによって、
また、現在のレジスタtの値に基づいて、表示をすべき
オブジェクト画面データに対応するオブジェクトテーブ
ルデータに対して指定するID番号が演算される。な
お、ステップ2101又はステップ2102では、後述
する音源割込み処理(図22参照)においてアプリケー
ションカートリッジ513内の音源回路515に転送さ
れる発音指示データも生成され、DRAM507などに
セットされる。
FIG. 21 is an operational flowchart of the nth image processing generally showing the first to third image processings shown in steps 2004 to 2006. In step 2101, depending on whether the current processing is the first, second, or third image processing, and the current register t indicating the passage of time.
The display position of the object screen data is calculated based on the value of. In step 2102, depending on whether the current processing is the first, second, or third image processing,
Further, the ID number designated for the object table data corresponding to the object screen data to be displayed is calculated based on the current value of the register t. In step 2101 or step 2102, tone generation instruction data transferred to the tone generator circuit 515 in the application cartridge 513 in tone generator interrupt processing (see FIG. 22) described later is also generated and set in the DRAM 507 or the like.

【0145】ステップ2103では、レジスタACKF
に“1”がセットされる。その後、前述した垂直ブラン
キング割込み処理が実行されてレジスタACKFの値が
“0”に戻されるまでは、通常は、ステップ2104の
判定がNO→ステップ2105の判定がNO→ステップ
2106の判定がNO→ステップ2104の判定がNO
・・・という処理ループが繰り返され、待機状態とな
る。
In step 2103, the register ACKF
Is set to "1". After that, until the above-described vertical blanking interrupt process is executed and the value of the register ACKF is returned to “0”, normally, the determination in step 2104 is NO → the determination in step 2105 is NO → the determination in step 2106 is NO. → NO in step 2104
The processing loop of ... Is repeated, and the standby state is entered.

【0146】CPU509は、前述したように、垂直ブ
ランキング期間が開始される時点毎に、上述の処理ルー
プの処理を中断して、図18の動作フローチャートで示
される垂直ブランキング割込み処理を実行する。
As described above, the CPU 509 interrupts the processing of the above-described processing loop and executes the vertical blanking interrupt processing shown in the operation flowchart of FIG. 18 each time the vertical blanking period is started. .

【0147】この結果、ステップ1801の判定がYE
S→ステップ1802の判定がNOとなることにより、
ステップ1804が実行される。ステップ1804で
は、CPU509内のDMACは、ステップ2101の
処理による設定に基づいて、オブジェクト画面データの
表示位置を示すデータを、バス526を介してVDP5
06にDMA転送する。また、ステップ1805では、
DMACは、ステップ2102の処理による設定に基づ
いて、表示を行うべきオブジェクト画面データのID番
号を、バス526を介してVDP506にDMA転送す
る。この結果、VDP506内のオブジェクトコントロ
ール回路803は、CPU509から指定されたID番
号によってオブジェクトテーブルRAM804を参照す
ることにより、そのID番号に対応するオブジェクト画
面データをDRAMコントロール回路802を介してD
RAM507から読み出し、CPU509から指定され
た表示位置の情報に基づいてラインバッファRAM80
8に展開した後、その内容をRGB色差データ処理回路
806に出力する。
As a result, the determination in step 1801 is YE.
S → because the determination in step 1802 is NO,
Step 1804 is executed. In step 1804, the DMAC in the CPU 509 sends the data indicating the display position of the object screen data to the VDP 5 via the bus 526 based on the setting made in the process of step 2101.
DMA transfer to 06. Also, in step 1805,
The DMAC DMA-transfers the ID number of the object screen data to be displayed to the VDP 506 via the bus 526 based on the setting made by the process of step 2102. As a result, the object control circuit 803 in the VDP 506 refers to the object table RAM 804 by the ID number designated by the CPU 509, and the object screen data corresponding to the ID number is transferred via the DRAM control circuit 802 to the D screen.
The line buffer RAM 80 is read out from the RAM 507 and based on the display position information designated by the CPU 509.
After being expanded to 8, the contents are output to the RGB color difference data processing circuit 806.

【0148】その後、ステップ1806で、レジスタA
CKFの値が“0”に戻され、図18に示される垂直ブ
ランキング割込み処理を終了する。この結果、第n画像
処理における前述した処理ループが再開され、ステップ
2106の判定がYESとなることにより、第n画像処
理の次のレジスタtの値に対応する画面制御処理が実行
される。
Thereafter, in step 1806, register A
The value of CKF is returned to "0", and the vertical blanking interrupt processing shown in FIG. 18 ends. As a result, the above-described processing loop in the nth image processing is restarted, and the determination in step 2106 becomes YES, so that the screen control processing corresponding to the value of the register t next to the nth image processing is executed.

【0149】上述の処理ループの実行過程で、ユーザが
特には図示しないストップスイッチを押しそれに対応す
るキースキャン信号527(図5)が入力されると、ス
テップ2105の判定がYESとなる。この結果、ステ
ップ2108で、レジスタSTFに“0”がセットさ
れ、図21の第n画像処理を終了する。この結果、後述
する図20のステップ2007を実行した後に衝突フラ
グ割込み処理も終了し、CPU509処理のループに戻
る。従って、この時点以降は、ユーザが特には図示しな
いスタートスイッチを再び押しそれに対応するキースキ
ャン信号527が入力されるまで、ステップ1609
(図16)の判定がNO→ステップ1612の判定がN
O→ステップ1609の判定がNO・・・という処理ル
ープが繰り返されて、待機状態となる。
When the user presses the stop switch (not shown) and inputs the corresponding key scan signal 527 (FIG. 5) in the execution process of the above processing loop, the determination in step 2105 becomes YES. As a result, in step 2108, "0" is set in the register STF, and the n-th image processing in FIG. 21 ends. As a result, the collision flag interrupt process is also terminated after executing step 2007 in FIG. 20 described later, and the process returns to the CPU 509 process loop. Therefore, after this point, step 1609 is repeated until the user presses a start switch (not shown) again and the corresponding key scan signal 527 is input.
The determination in (FIG. 16) is NO, and the determination in step 1612 is N.
The process loop in which the determination of O → step 1609 is NO ... is repeated, and the process enters the standby state.

【0150】また、図21の第n画像処理の実行過程
で、レジスタtの値が予め設定された第n画像処理の終
了時刻ENDになると、ステップ2104の判定がYE
Sとなる。この結果、ステップ2107で、レジスタt
の値が0にリセットされ、図21の第n画像処理を終了
し、更に、後述する図20のステップ2007を実行し
た後に衝突フラグ割込み処理も終了し、CPU509処
理のループに戻る。従って、この時点以降は、ゲームが
再び最初から繰り返されることになる。
Further, when the value of the register t reaches the preset end time END of the nth image processing in the execution process of the nth image processing of FIG. 21, the determination in step 2104 is YE.
It becomes S. As a result, in step 2107, the register t
21 is reset to 0, the nth image processing in FIG. 21 is terminated, and further, the collision flag interrupt processing is terminated after executing step 2007 in FIG. 20 described later, and the process returns to the CPU 509 processing loop. Therefore, after this point, the game is repeated from the beginning.

【0151】なお、ステップ2107で、レジスタtの
値を0にリセットせず、強制的に予め定められた所定の
値にセットすることにより、表示装置103上のCG画
像104の表示を、次の場面に移行させることも可能で
ある。
In step 2107, the value of the register t is not reset to 0, but is forcibly set to a predetermined value, so that the CG image 104 displayed on the display device 103 is displayed as follows. It is also possible to shift to a scene.

【0152】図21の第n画像処理を終了した後に実行
される図20の衝突フラグ割込み処理におけるステップ
2007においては、衝突フラグが“0”に戻される。
この処理は、前述したように、画像認識回路508が実
行する図10に示される動作フローチャートにおいて、
ステップ1014より先に処理を進ませるための処理で
ある。
At step 2007 in the collision flag interruption processing of FIG. 20 executed after the nth image processing of FIG. 21 is completed, the collision flag is returned to “0”.
This process is performed by the image recognition circuit 508 in the operation flowchart shown in FIG.
This is a process for advancing the process before step 1014.

【0153】次に、図22は、CPU509が実行する
音源割込み処理の動作フローチャートである。この割込
み処理は、図5のアプリケーションカートリッジ513
内の音源回路515が、後述する音源処理(図25)を
実行する過程において、CPU509への割込みフラグ
として、音源割込み要求フラグをセットした時点で実行
される。
Next, FIG. 22 is an operation flowchart of the sound source interruption processing executed by the CPU 509. This interrupt processing is performed by the application cartridge 513 of FIG.
The tone generator circuit 515 therein executes the tone generator processing (FIG. 25) described later when the tone generator interrupt request flag is set as an interrupt flag to the CPU 509.

【0154】まず、ステップ2201では、監視タイマ
ーがリセットされる。監視タイマーは、模造されたアプ
リケーションカートリッジ513の使用を阻止するため
に使用される。
First, in step 2201, the monitoring timer is reset. The watch timer is used to prevent the use of the imitated application cartridge 513.

【0155】上述の監視タイマーの値は、バス526に
接続されているクロック回路512(図5)から一定時
間毎に入力される割込み要求に基づいて実行される図2
3の動作フローチャートで示される監視タイマーカウン
ト処理のステップ2301において、順次インクリメン
トされる。そして、ステップ2302で、この監視タイ
マーの値が、オーバーフローしたか否かが判定されてい
る。
The value of the above-mentioned monitoring timer is executed based on the interrupt request input from the clock circuit 512 (FIG. 5) connected to the bus 526 at regular intervals.
In step 2301 of the monitoring timer count process shown in the operation flow chart of No. 3, it is sequentially incremented. Then, in step 2302, it is determined whether or not the value of this monitoring timer has overflowed.

【0156】ここで、アプリケーションカートリッジ5
13が正規のメーカによって製造されたものである場合
には、アプリケーションカートリッジ513は、後述す
る音源処理(図25)を実行する過程において、CPU
509への割込みフラグである音源割込み要求フラグを
セット及びリセットする動作を順次実行する。これに対
して、CPU509は、音源割込み要求フラグがセット
される毎に、図22の音源割込み処理のステップ220
1を実行することにより、監視タイマーは適当な時間間
隔でリセットされることになる。
Here, the application cartridge 5
If 13 is manufactured by a legitimate maker, the application cartridge 513 uses the CPU in the process of executing a sound source process (FIG. 25) described later.
The operation of setting and resetting the sound source interrupt request flag which is an interrupt flag to 509 is sequentially executed. On the other hand, the CPU 509 executes step 220 of the sound source interrupt processing of FIG. 22 every time the sound source interrupt request flag is set.
Performing a 1 will cause the watchdog timer to be reset at the appropriate time intervals.

【0157】従って、アプリケーションカートリッジ5
13が正規のメーカによって製造されたものである場合
には、図23の監視タイマーカウント処理のステップ2
302の判定は常にNOとなる。
Therefore, the application cartridge 5
If 13 is manufactured by a legitimate manufacturer, step 2 of the monitoring timer count process of FIG. 23.
The determination at 302 is always NO.

【0158】一方、アプリケーションカートリッジ51
3が模造されたものである場合は、コスト的な理由など
からCPU509への割込みフラグである音源割込み要
求フラグをセット及びリセットする動作が装備されてい
ない場合がほとんどとなるため、音源回路515がCP
U509に対して適度に短い時間間隔で音源割込み要求
を発生することがなくなり、この結果、監視タイマーが
リセットされなくなるか或いは適度に短い時間間隔でリ
セットされることがなくなり、やがて、監視タイマーが
オーバーフローすることにより図23の監視タイマーカ
ウント処理のステップ2302の判定がYESとなる。
On the other hand, the application cartridge 51
In the case where 3 is imitated, it is almost the case that the operation for setting and resetting the sound source interrupt request flag which is the interrupt flag to the CPU 509 is not provided due to cost reasons or the like. CP
A sound source interrupt request is not generated to U509 at an appropriately short time interval, and as a result, the monitoring timer is not reset or reset at an appropriately short time interval, and eventually the monitoring timer overflows. By doing so, the determination in step 2302 of the monitoring timer count processing in FIG. 23 becomes YES.

【0159】この場合には、ステップ2303で、CP
U509への再度の割込みフラグとして、オーバーフロ
ーフラグOVFが1にセットされる。この結果、CPU
509は、再度の割込み処理として、図24の動作フロ
ーチャートで示されるオーバーフロー割込み処理を実行
し、ステップ2401で、CPU509自身の動作を停
止(ホールト)させる。
In this case, in step 2303, CP
The overflow flag OVF is set to 1 as the interrupt flag to U509 again. As a result, the CPU
As the interrupt processing again, the CPU 509 executes the overflow interrupt processing shown in the operation flowchart of FIG. 24, and stops (halts) the operation of the CPU 509 itself in step 2401.

【0160】以上の監視タイマーを使って制御により、
模造されたアプリケーションカートリッジ513の使用
が阻止される。次に、図22の音源割込み処理におい
て、ステップ2202では、予めDRAM507上に作
成されている発音指示データが、バス526を介して、
アプリケーションカートリッジ513内の音源回路51
5に転送される。この発音指示データは、CPU509
が前述した図17のステップ1614又はステップ16
15、或いは、図21のステップ2101又はステップ
2102などのCG画像104(図1)の制御処理を実
行するのに合せて生成され、DRAM507に記憶され
ている。
By the control using the above monitoring timer,
The use of the imitated application cartridge 513 is prevented. Next, in the sound source interruption process of FIG. 22, in step 2202, the pronunciation instruction data created in advance in the DRAM 507 is transferred via the bus 526.
Sound source circuit 51 in the application cartridge 513
5 is transferred. This pronunciation instruction data is stored in the CPU 509.
Is the above-mentioned step 1614 or step 16 of FIG.
15, or generated in accordance with the control processing of the CG image 104 (FIG. 1) such as step 2101 or step 2102 of FIG. 21 and stored in the DRAM 507.

【0161】なお、アプリケーションカートリッジ51
3内の音源回路515に対してのみではなく、本体側に
装備されている音源回路516に対しても同様の制御が
実行されてもよい。
The application cartridge 51
The same control may be executed not only for the tone generator circuit 515 in the No. 3 but also for the tone generator circuit 516 mounted on the main body side.

【0162】以上説明した図16〜図24の動作フロー
チャートで示される各処理が、CPU509が実行する
処理である。最後に、図25は、アプリケーションカー
トリッジ513内の音源回路515が実行する音源処理
の動作フローチャートである。
Each process shown in the operation flowcharts of FIGS. 16 to 24 described above is a process executed by the CPU 509. Finally, FIG. 25 is an operation flowchart of the sound source processing executed by the sound source circuit 515 in the application cartridge 513.

【0163】アプリケーションカートリッジ513が特
には図示しないホルダーに装着されると、図25の動作
フローチャートの実行が開始され、まず、ステップ25
01において、音源回路515内部のレジスタやワーク
RAMの内容などがイニシャライズされる。
When the application cartridge 513 is attached to a holder (not shown), execution of the operation flowchart of FIG. 25 is started, and first, step 25
At 01, the contents of the registers and work RAM inside the tone generator circuit 515 are initialized.

【0164】その後、ステップ2502〜ステップ25
07の各処理が、繰り返し実行される。まず、音源回路
515は、1発音単位分の楽音信号を生成する毎(例え
ば数秒分の楽音波形データの読出しを完了する毎)に、
ステップ2502で、図5のCPU509への割込みフ
ラグである音源割込み要求フラグをセットする。これに
対しCPU509は、前述した図22の音源割込み処理
を実行することにより、次の発音単位に対する発音指示
データを音源回路515に出力する。
Then, steps 2502 to 25
Each processing of 07 is repeatedly executed. First, the tone generator circuit 515 generates a tone signal for one tone generation unit (for example, every time reading of tone waveform data for several seconds is completed).
In step 2502, a sound source interrupt request flag which is an interrupt flag to the CPU 509 of FIG. 5 is set. On the other hand, the CPU 509 outputs the tone generation instruction data for the next tone generation unit to the tone generator circuit 515 by executing the tone generator interrupt process of FIG.

【0165】音源回路515は、ステップ2503にお
いて、入力されるデータに変化が起こるまで待機状態と
する。入力されるデータに変化が起こると、更にステッ
プ2504で、入力されるデータが安定するまで待機状
態となる。
In step 2503, the tone generator circuit 515 waits until the input data changes. When the input data changes, in step 2504, a standby state is entered until the input data becomes stable.

【0166】入力されるデータが安定すると、ステップ
2505で音源割込み要求フラグを0にリセットした
後、ステップ2506で、入力される発音指示データを
解釈する。
When the input data becomes stable, the tone generator interrupt request flag is reset to 0 in step 2505, and then the input sound generation instruction data is interpreted in step 2506.

【0167】そして、ステップ2507で、そのデータ
に対応する楽音信号を生成する。1発音単位分の楽音信
号の生成を完了すると、音源回路515は、再びステッ
プ2502を実行し、図5のCPU509への割込みフ
ラグである音源割込み要求フラグをセットする。
Then, in step 2507, a tone signal corresponding to the data is generated. When the tone signal generation for one tone generation unit is completed, the tone generator circuit 515 again executes step 2502 and sets a tone generator interrupt request flag which is an interrupt flag to the CPU 509 in FIG.

【0168】以上のようにして音源回路515で生成さ
れた楽音信号は、CPU509及び音源回路516を介
して、アンプ517に送られ、ここで増幅された後、特
には図示しないスピーカに、音声出力信号528として
出力される。 <他の実施例>以上説明した実施例では、CPU509
は、画像認識回路508からDRAM510に転送され
てきた処理画面マップ(図26参照)上のバット101
の重心位置と、VDP506内のオブジェクトコントロ
ール回路803から取得した現在表示されているボール
105(図1)を示すオブジェクトの重心位置との位置
関係のみに基づいて、図1の表示装置103に表示され
るCG画像104を制御している。しかし、本発明はこ
れに限られるものではなく、画像認識回路508が、図
10のステップ1006の衝突座標検出処理によってR
AM(図26)に記憶した最初の衝突座標及び最後の衝
突座標、並びに、ステップ1005の処理画面マップ作
成処理によって上述のRAMに記憶したバット101の
存在範囲を示す上端座標、下端座標、左端座標、及び右
端座標を、DRAM507に転送するように構成し、こ
れらの各種位置データに基づいて図1の表示装置103
に表示されるCG画像104を制御するように構成され
てもよい。
The musical tone signal generated by the tone generator circuit 515 as described above is sent to the amplifier 517 via the CPU 509 and the tone generator circuit 516, where it is amplified and then output to a speaker (not shown). It is output as the signal 528. <Other Embodiments> In the embodiment described above, the CPU 509
Is the bat 101 on the processing screen map (see FIG. 26) transferred from the image recognition circuit 508 to the DRAM 510.
1 is displayed on the display device 103 of FIG. 1 based only on the positional relationship between the center of gravity of the object and the center of gravity of the object showing the currently displayed ball 105 (FIG. 1) acquired from the object control circuit 803 in the VDP 506. CG image 104 is controlled. However, the present invention is not limited to this, and the image recognition circuit 508 performs the R by the collision coordinate detection processing of step 1006 of FIG.
First collision coordinates and last collision coordinates stored in AM (FIG. 26), and upper end coordinates, lower end coordinates, left end coordinates indicating the existence range of the bat 101 stored in the above-mentioned RAM by the processing screen map creation processing of step 1005. , And the right edge coordinates are transferred to the DRAM 507, and based on these various position data, the display device 103 in FIG.
May be configured to control the CG image 104 displayed in.

【0169】[0169]

【発明の効果】本発明によれば、ユーザは、あたかも実
際のプレーをするようにバットを振る動作などを行うこ
とにより、CG画像によって表示されるテレビゲームに
参加することなどが可能となる。
According to the present invention, the user can participate in the video game displayed by the CG image by swinging the bat as if he / she actually played the game.

【0170】この場合特に、撮像された画面から、バッ
トなどを、クロマキーなどによる所定色の画像領域とし
抽出し、更に、その重心を算出することによって、ユ
ーザの動作を正確に把握することが可能となる。
[0170] Particularly, in this case, from the captured screen, bat, etc., extracted, etc. Te by a predetermined color image area <br/> chromakey, further, by calculating the center of gravity of its accurate operation of the user It becomes possible to grasp.

【0171】なお、本発明によれば、ユーザの動作に反
応して画像制御を行うテレビゲームだけでなく、現実の
様々な情景を撮像した結果に基づいて様々な画像制御を
行う装置を実現することが可能となる。
According to the present invention, not only a video game in which image control is performed in response to a user's action, but also a device for performing various image controls based on the results of capturing various real scenes are realized. It becomes possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例の動作の外観図である。FIG. 1 is an external view of an operation of an embodiment.

【図2】実施例の動作原理図(その1)である。FIG. 2 is a diagram (No. 1) of the operation principle of the embodiment.

【図3】実施例の動作原理図(その2)である。FIG. 3 is a second operational principle diagram of the embodiment.

【図4】実施例の動作原理図(その3)である。FIG. 4 is a diagram (part 3) of the operation principle of the embodiment.

【図5】本発明の実施例の全体構成図である。FIG. 5 is an overall configuration diagram of an embodiment of the present invention.

【図6】ビデオ信号入出力回路の構成図である。FIG. 6 is a configuration diagram of a video signal input / output circuit.

【図7】ビデオ信号変換回路の構成図である。FIG. 7 is a configuration diagram of a video signal conversion circuit.

【図8】VDPの構成図である。FIG. 8 is a block diagram of a VDP.

【図9】クロック回路の説明図である。FIG. 9 is an explanatory diagram of a clock circuit.

【図10】画像認識回路の全体動作フローチャートであ
る。
FIG. 10 is an overall operation flowchart of the image recognition circuit.

【図11】初期画面マップ作成処理の動作フローチャー
トである。
FIG. 11 is an operation flowchart of an initial screen map creation process.

【図12】処理画面マップ作成処理の動作フローチャー
ト(その1)である。
FIG. 12 is an operation flowchart (No. 1) of processing screen map creation processing.

【図13】処理画面マップ作成処理の動作フローチャー
ト(その2)である。
FIG. 13 is an operation flowchart (No. 2) of processing screen map creation processing.

【図14】衝突検出処理の動作フローチャートである。FIG. 14 is an operation flowchart of a collision detection process.

【図15】重心計算処理の動作フローチャートである。FIG. 15 is an operation flowchart of a center of gravity calculation process.

【図16】CPU処理の動作フローチャート(その1)
である。
FIG. 16 is an operation flowchart of CPU processing (No. 1)
Is.

【図17】CPU処理の動作フローチャート(その2)
である。
FIG. 17 is an operation flowchart of CPU processing (No. 2)
Is.

【図18】垂直ブランキング割込み処理の動作フローチ
ャートである。
FIG. 18 is an operation flowchart of vertical blanking interrupt processing.

【図19】タイマー割込み処理の動作フローチャートで
ある。
FIG. 19 is an operation flowchart of timer interrupt processing.

【図20】衝突フラグ割込み処理の動作フローチャート
である。
FIG. 20 is an operation flowchart of collision flag interrupt processing.

【図21】第n画像処理の動作フローチャートである。FIG. 21 is an operation flowchart of n-th image processing.

【図22】音源割込み処理の動作フローチャートであ
る。
FIG. 22 is an operation flowchart of a sound source interrupt process.

【図23】監視タイマーカウント処理の動作フローチャ
ートである。
FIG. 23 is an operation flowchart of monitoring timer count processing.

【図24】オーバーフロー割込み処理の動作フローチャ
ートである。
FIG. 24 is an operation flowchart of overflow interrupt processing.

【図25】音源処理の動作フローチャートである。FIG. 25 is an operation flowchart of sound source processing.

【図26】フレームの画素構成と画面マップとの関係図
である。
FIG. 26 is a relationship diagram between a pixel configuration of a frame and a screen map.

【図27】画像認識回路のRAMマップを示した図であ
る。
FIG. 27 is a diagram showing a RAM map of the image recognition circuit.

【図28】上・下・左・右端座標の検出処理の説明図で
ある。
FIG. 28 is an explanatory diagram of detection processing of upper / lower / left / right edge coordinates.

【符号の説明】[Explanation of symbols]

101 バット 102 カメラ 103 表示装置 104 CG画像 105 ボール 501 CCD 502 クロックドライバー 503 ビデオ信号入出力回路 504 発振器(OSC) 505 ビデオ信号変換回路 506 VDP 507 DRAM 508 画像認識回路 509 CPU 510 DRAM 511 OS ROM 512 クロック回路 513 アプリケーションカートリッジ 514 アプリケーションROM 515、516 音源回路 517 アンプ 518 CCD出力信号 519 同期信号 520 デジタルコンポジットビデオ入力信号 521 デジタルコンポジットビデオ出力信号 522 アナログコンポジットビデオ出力信号 523 クロマキー信号 524 デジタルRGB信号 525 スーパーインポーズ信号 526 バス 527 キースキャン信号 528 音声出力信号528 101 Bat 102 camera 103 display device 104 CG image 105 balls 501 CCD 502 clock driver 503 video signal input / output circuit 504 Oscillator (OSC) 505 Video signal conversion circuit 506 VDP 507 DRAM 508 image recognition circuit 509 CPU 510 DRAM 511 OS ROM 512 clock circuit 513 application cartridge 514 Application ROM 515, 516 sound source circuit 517 amplifier 518 CCD output signal 519 Sync signal 520 digital composite video input signal 521 Digital composite video output signal 522 analog composite video output signal 523 Chromakey signal 524 digital RGB signals 525 Superimpose signal 526 bus 527 key scan signal 528 audio output signal 528

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G09G 5/00 510 G09G 5/00 510A 510H 550 550C 5/34 5/34 Z H04N 7/18 H04N 7/18 K P (58)調査した分野(Int.Cl.7,DB名) G09G 5/00 - 5/42 A63F 13/00 G06F 3/00 G06F 3/033 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI G09G 5/00 510 G09G 5/00 510A 510H 550 550C 5/34 5/34 Z H04N 7/18 H04N 7/18 K P (58 ) Fields surveyed (Int.Cl. 7 , DB name) G09G 5/00-5/42 A63F 13/00 G06F 3/00 G06F 3/033 H04N 7/18

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮像された画面の色信号に基づいて、特
定条件の画像領域を抽出する抽出手段と、該抽出手段によって抽出された画像領域の、撮像画面に
おける存在範囲を 記憶する第1の記憶手段と、 該第1の記憶手段に記憶された画像領域の存在範囲か
ら、該画像領域の重心位置を算出する重心算出手段と、出力すべきオブジェクト画面データ を記憶する第2の記
憶手段と、 該第2の記憶手段に記憶されたオブジェクト画面データ
の、表示画面に出力される位置を指定する表示位置指定
手段と、 該表示位置指定手段によって指定された位置と前記第1
の記憶手段に記憶された存在範囲との位置関係が所定の
条件を満たしているか否かを判断する判断手段と、 該判断手段により、前記表示位置指定手段によって指定
された位置と前記第1の記憶手段に記憶された存在範囲
との位置関係が所定の条件を満たしていると判断される
と、前記指定された位置に表示されたオブジェクトの重
心位置を演算し、前記重心算出手段によって算出された
前記画像領域の重心位置と前記オブジェクトの重心位置
との位置関係に基づき、次に表示されるべき画面に対応
する信号を生成する信号生成手段と、 を有することを特徴とする信号生成装置。
1. A feature based on a color signal of an imaged screen.
Extraction means for extracting an image region of constant conditions, the extraction of the image area extracted by the means and the imaging screen
A first storage unit for storing the existence range of the image area, and an existence range of the image area stored in the first storage unit .
Et al., A center-of-gravity calculating means for calculating the centroid position of the image area, the second storage means and the object picture data stored in the storage means of said second storing an object screen data to be output
A display position designating means for designating a position to be output on the display screen, the position designated by the display position designating means, and the first position.
The positional relationship with the existing range stored in the storage means of
Determination means for determining whether or not the condition is satisfied, and the display position designating means designated by the determination means
Location and existence range stored in the first storage means
It is determined that the positional relationship with
And the weight of the object displayed at the specified position.
Calculated by the center of gravity calculation means by calculating the center position
Center of gravity of the image area and center of gravity of the object
Corresponds to the screen to be displayed next based on the positional relationship with
And signal generating means for generating a signal, a signal generation device and having a.
【請求項2】 前記表示位置指定手段によって指定され
た位置と前記第1の記憶手段に記憶された画像領域の存
在範囲とに基づいて、前記撮像された画面と前記オブジ
ェクト画面データとが合成された表示画面に対応する信
号を生成する合成信号生成手段を、 更に 有することを特徴とする請求項1に記載の信号生成
装置。
2. Designated by the display position designating means
Position and the existence of the image area stored in the first storage means.
The imaged screen and the object based on the presence range.
Image corresponding to the display screen
The signal generation apparatus according to claim 1 , further comprising a synthesized signal generation unit that generates a signal .
【請求項3】 表示され得る画面に対応する信号の出力
手順を記憶した手順記憶手段を更に備え、 前記信号生成手段は、前記重心算出手段により算出され
る画像領域の重心位置と、演算されるオブジェクトの重
心位置との位置関係に対応して、前記手順記憶 手段から
次に表示されるべき画面に対応する信号の手順を読み出
す、 ことを特徴とする請求項1又は2に記載の信号生成
置。
3. Output of a signal corresponding to a screen that can be displayed
The procedure further includes procedure storing means for storing procedures, wherein the signal generating means is calculated by the center of gravity calculating means.
Center of gravity of the image area and the weight of the calculated object
Corresponding to the positional relationship with the cardiac position, from the procedure storage means
Read out the procedure of the signal corresponding to the screen to be displayed next
To, signal generating instrumentation <br/> location according to claim 1 or 2, characterized in that.
【請求項4】 前記判断手段により判断される位置関係
の所定の条件とは、前記表示位置指定手段によって指定
された位置と前記第1の記憶手段に記憶された画像領域
の存在範囲とが重なるか否かである、 ことを特徴とする請求項1乃至3の何れか1項に記載の
信号生成装置。
4. A positional relationship determined by the determination means.
The predetermined condition of is specified by the display position specifying means.
Position and the image area stored in the first storage means
4. It is whether or not the existence range of the object overlaps with the existing area of the object.
Signal generator .
【請求項5】 撮像された画面の色信号に基づいてクロ
マキー信号を出力する信号出力手段を更に備え、前記抽
出手段は、該信号出力手段によって出力されたクロマキ
ー信号を認識することにより特定条件の画像領域を抽出
する、 ことを特徴とする請求項1乃至4の何れか1項に記載の
信号生成装置。
5. A color signal based on a color signal of an imaged screen is used.
Further comprising a signal output means for outputting a mackey signal,
The output means is the chroma key output by the signal output means.
Extraction of image area of specific condition by recognizing signal
According to any one of claims 1 to 4, characterized in that
Signal generator .
【請求項6】6. 前記手順記憶手段は、信号生成装置の本The procedure storage means is a book of a signal generator.
体から取外し可能に構成される、Configured to be removable from the body, ことを特徴とする請A contract characterized by
求項3乃至5の何れか1項に記載の信号生成装置。The signal generation device according to any one of claim 3 to claim 5.
【請求項7】7. 前記第2の記憶手段は、信号生成装置のThe second storage means is a signal generating device.
本体から取外し可能に構成される、It is configured to be removable from the main body, ことを特徴とする請求項1乃至6の何れか1項に記載の7. The method according to any one of claims 1 to 6, characterized in that
信号生成装置。Signal generator.
【請求項8】8. 撮像された画面の色信号に基づいて、特Based on the captured color signal of the screen,
定条件の画像領域を抽出する抽出ステップと、An extraction step of extracting an image region of a constant condition, 該抽出ステップにて抽出された画像領域の、撮像画面にOn the imaging screen of the image area extracted in the extraction step
おける存在範囲をメモリに記憶させる記憶ステップと、A storage step for storing the existence range in the memory, 該記憶ステップにて記憶された画像領域の存在範囲かExistence range of the image area stored in the storing step
ら、該画像領域の重心位置を算出する重心算出ステップ, The center of gravity calculation step for calculating the center of gravity position of the image area
と、When, 予めメモリに記憶されたオブジェクト画面データの、表A table of object screen data stored in memory in advance.
示画面に出力される位置を指定する表示位置指定ステッDisplay position specification step to specify the position to be output on the display screen.
プと、And 該表示位置指定ステップにて指定された位置と前記記憶The position specified in the display position specifying step and the memory
ステップにて記憶された存在範囲との位置関係が所定のThe positional relationship with the existing range stored in step is
条件を満たしているか否かを判断する判断ステップと、A determination step of determining whether or not the condition is satisfied, 該判断ステップにて、前記表示位置指定ステップにて指In the judging step, the finger is pressed in the display position specifying step.
定された位置と前記記憶ステップにて記憶された存在範The determined position and the existence range stored in the storage step.
囲との位置関係が所定の条件を満たしているとIf the positional relationship with the enclosure meets the specified conditions 判断されJudged
ると、前記指定された位置に表示されたオブジェクトのThen, of the object displayed at the specified position
重心位置を演算し、前記重心算出ステップにて算出されThe position of the center of gravity is calculated and calculated in the step of calculating the center of gravity.
た前記画像領域の重心位置と前記オブジェクトの重心位Center of gravity of the image area and center of gravity of the object
置との位置関係に基づき、次に表示されるべき画面に対The screen to be displayed next based on the positional relationship with the
応する信号を生成する信号生成ステップと、A signal generating step for generating a corresponding signal, からなることを特徴とする信号生成方法。A signal generation method comprising:
【請求項9】9. 撮像された画面の色信号に基づいてクロBased on the color signal of the imaged screen,
マキー信号を出力す信号出力ステップを更に含み、前記Further comprising a signal output step of outputting a mackey signal,
抽出ステップは、該信号出力ステップにて出力されたクThe extraction step includes the clock output in the signal output step.
ロマキー信号を認識することにより特定条件の画像領域Image area of specific condition by recognizing Romakey signal
を抽出する、To extract, ことを特徴とする請求項8に記載の信号生成方法。The signal generating method according to claim 8, wherein
JP04573994A 1994-03-16 1994-03-16 Signal generation apparatus and signal generation method Expired - Fee Related JP3451343B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04573994A JP3451343B2 (en) 1994-03-16 1994-03-16 Signal generation apparatus and signal generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04573994A JP3451343B2 (en) 1994-03-16 1994-03-16 Signal generation apparatus and signal generation method

Publications (2)

Publication Number Publication Date
JPH07253774A JPH07253774A (en) 1995-10-03
JP3451343B2 true JP3451343B2 (en) 2003-09-29

Family

ID=12727693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04573994A Expired - Fee Related JP3451343B2 (en) 1994-03-16 1994-03-16 Signal generation apparatus and signal generation method

Country Status (1)

Country Link
JP (1) JP3451343B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233458A (en) * 1996-02-28 1997-09-05 Toshiba Corp Method and device for selecting image
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
JP4009433B2 (en) 2001-03-29 2007-11-14 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME PROGRAM, AND GAME SYSTEM
JP4028708B2 (en) 2001-10-19 2007-12-26 株式会社コナミデジタルエンタテインメント GAME DEVICE AND GAME SYSTEM
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
JP2005301479A (en) * 2004-04-08 2005-10-27 Akinori Yoshino Instruction input device based on projected action of presenter
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
JP5212521B2 (en) * 2011-07-07 2013-06-19 株式会社ニコン Image display device

Also Published As

Publication number Publication date
JPH07253774A (en) 1995-10-03

Similar Documents

Publication Publication Date Title
JP3725460B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
JP4971483B2 (en) Image display program, image display apparatus, image display system, and image display method
EP0652524A1 (en) Image processing device and method
JP5026692B2 (en) Image processing apparatus, image processing method, and program
JP2002298145A (en) Position detector and attitude detector
JP3451343B2 (en) Signal generation apparatus and signal generation method
JPH07281666A (en) Image controlling device
JP2005218757A (en) Virtual reality tennis game system
JP7446754B2 (en) Image processing device, image processing method, and program
JP3463379B2 (en) Image control apparatus and image control method
JP3371521B2 (en) Signal generation apparatus and signal generation method
JPH07155467A (en) Video game device having image input of game player
JP5496991B2 (en) Image display program, image display apparatus, image display system, and image display method
JP3586880B2 (en) Image extraction apparatus and image extraction method
JPH07253775A (en) Picture controlling device
JPH07296149A (en) Image controller
JPH07253880A (en) Arithmetic processing system
JPH0850661A (en) Image controller
JP4878396B2 (en) Image recognition program, image recognition apparatus, image recognition system, and image recognition method
JP5647443B2 (en) Image recognition program, image recognition apparatus, image recognition system, and image recognition method
JP3407394B2 (en) Image display control apparatus and image display control method
JPH07271982A (en) Image controller
JPH0887592A (en) Image controller
JP3371535B2 (en) Image control apparatus and image control method
JPH07296197A (en) Image processing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees