JPH08112449A - Image control device - Google Patents

Image control device

Info

Publication number
JPH08112449A
JPH08112449A JP6281202A JP28120294A JPH08112449A JP H08112449 A JPH08112449 A JP H08112449A JP 6281202 A JP6281202 A JP 6281202A JP 28120294 A JP28120294 A JP 28120294A JP H08112449 A JPH08112449 A JP H08112449A
Authority
JP
Japan
Prior art keywords
image
collision
chroma key
bat
dimensional position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6281202A
Other languages
Japanese (ja)
Other versions
JP3463379B2 (en
Inventor
Norio Iizuka
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP28120294A priority Critical patent/JP3463379B2/en
Publication of JPH08112449A publication Critical patent/JPH08112449A/en
Application granted granted Critical
Publication of JP3463379B2 publication Critical patent/JP3463379B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Abstract

PURPOSE: To realize an image control device in which a virtual reality as if a player performs a batting operation at hand can be created. CONSTITUTION: A characteristic point detecting part 50 and a CPU 71 detect the position and size of a chromakey image in a taken image, and converts them into the three-dimensional position of an operating element virtually arranged within a virtual space and its operating quantity. A collision judging part 60 converts the pitching locus of an object image into the three-dimensional position within the virtual space, and judges whether or not the three- dimensional position of the object image collides the three-dimensional position of the operating element. While screen-displaying the object image according to the pitching locus, the CPU 71 also generates a batting locus corresponding to the operating quantity of the operating element when the collision judging part 60 judges the collision, and screen-displays the object image after batted according to this batting locus. Thus, a virtual reality as if a ball delivered to the hand of a batter is batted can be created.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば、バーチャルリ
アリティ(仮想現実感)を創出するビデオゲームなどに
用いて好適な画像制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image control apparatus suitable for use in, for example, a video game for creating virtual reality.

【0002】[0002]

【従来の技術】従来より、操作パッド等の操作に応じて
オブジェクト画像を動画制御したり、効果音を発生させ
たりする画像制御装置が各種実用化されている。なお、
ここで言うオブジェクト画像とは、ゲーム画面に表示さ
れる「キャラクタ」を指し、背景となるバックグラウン
ド画面上に移動表示されるものである。この種の装置
は、ビデオゲームあるいはTVゲームと呼ばれ、遊戯者
の反射神経を問うシューティングゲームや、仮想的な現
実感をシミュレートするゲーム等が知られている。
2. Description of the Related Art Conventionally, various image control devices have been put into practical use, which control a moving image of an object image or generate a sound effect in accordance with an operation of an operation pad or the like. In addition,
The object image mentioned here refers to a “character” displayed on the game screen, and is moved and displayed on the background screen as a background. This type of device is called a video game or a TV game, and a shooting game that asks a player's reflexes, a game that simulates a virtual reality, and the like are known.

【0003】このようなビデオゲームは、ゲーム操作に
対応したビデオ信号を発生する画像処理部と、この画像
処理部から供給されるビデオ信号を映像表示するディス
プレイとから構成される。画像処理部は、CPU、RO
MおよびRAM等から構成され、例えば、ROMパック
に記憶された画像情報および制御情報を順次読み出し、
画面背景となるバックグラウンド画像をディスプレイに
表示すると共に、ゲーム操作に応じて対応するキャラク
タ(オブジェクト画像)を画面背景上を動画表示し、そ
の動きに応じた効果音を発音するようにしている。
Such a video game is composed of an image processing section for generating a video signal corresponding to a game operation and a display for displaying the video signal supplied from the image processing section. The image processing unit is a CPU, RO
M and RAM etc., for example, sequentially read out the image information and control information stored in the ROM pack,
A background image serving as a screen background is displayed on the display, and a corresponding character (object image) is displayed as a moving image on the screen background in response to a game operation, and a sound effect corresponding to the movement is pronounced.

【0004】[0004]

【発明が解決しようとする課題】さて、上述したよう
に、従来の画像制御装置では、操作パッドの操作に応じ
てオブジェクト画像を表示制御するのが一般的であり、
仮想的な現実感をシミュレートするゲームでは不向きに
なることが多い。つまり、仮想的な現実感を追求するに
は、実際の行動(行為)に即した形態で画像制御にする
必要がある。例えば、投球シーンを画面に表示し、この
表示画面に基づいて遊戯者がバッティング動作するよう
にしたシミュレーションゲームでは、操作パッドに替え
て「バット」が操作子となり、この「バット」の位置あ
るいは動きに応じて画像制御することが要求される。
As described above, in the conventional image control device, it is general to display and control the object image according to the operation of the operation pad,
It is often unsuitable for games that simulate virtual reality. That is, in order to pursue a virtual reality, it is necessary to perform image control in a form that matches the actual action. For example, in a simulation game in which a pitching scene is displayed on the screen and the player batting based on this display screen, the "bat" becomes the operator instead of the operation pad, and the position or movement of this "bat" is changed. It is required to control the image according to the above.

【0005】こうした画像制御を行う場合には、周知の
クロマキー検出処理により操作子の位置や動きを検出す
る手法が有効である。クロマキー検出処理とは、この場
合、特定色に色付けされた「バット(操作子)」を撮像
画像からクロマキー抽出し、これにより遊戯者が持つ操
作子(バット)の位置や動きを画面上の位置として検出
する。そして、検出した操作子の位置と画面に表示され
る「ボール像(オブジェクト画像)」とが予め定められ
たタイミング時点に重なり合った時に、「ボール像(オ
ブジェクト画像)」と「バット(操作子)」とが衝突し
たと見做し、打撃操作に応じて飛翔する「ボール像(オ
ブジェクト画像)」を表示制御する。
When performing such image control, a method of detecting the position and movement of the operator by a well-known chroma key detection process is effective. In this case, the chroma key detection process is to extract the “bat (operator)” colored in a specific color from the captured image using the chroma key, and to detect the position and movement of the operator (bat) held by the player on the screen. To detect as. When the detected position of the manipulator and the "ball image (object image)" displayed on the screen overlap at a predetermined timing, the "ball image (object image)" and the "bat (manipulator)" Is regarded as a collision, and display control of a “ball image (object image)” flying in response to a hitting operation is performed.

【0006】ところで、上記のようにバッティング動作
をシミュレートする装置では、投球シーンにおいて、
「ボール像」があたかも遊戯者(打者)の方へ飛んでく
るように、その表示位置と大きさとを表示制御する訳で
あるが、徐々に形状が大きくなる「ボール像」を画面表
示して”ボールが飛んでくる状態”をシミュレートして
も、いま一つ「打者の手元に飛んでくる」という仮想現
実感に欠けるという問題がある。
By the way, in the device for simulating the batting operation as described above, in the pitching scene,
The display position and size of the "ball image" are controlled as if they were flying toward the player (batter), but the "ball image" of gradually increasing shape is displayed on the screen. Even if we simulate "a state where a ball is flying", there is another problem that the virtual reality of "flying to the batter's hand" is lacking.

【0007】そこで、実際のバッテイング動作を勘案す
ると、打者は投手が投げたボールを打撃の瞬間まで見定
めることはなく、多くの場合、投手からボールがリリー
スされた時点から直接視野で球道を見定め、ある距離ま
でボールが接近した時点からは間接視野でボールを捉え
てミートのタイミングを計り、これを打撃するようにし
ている。したがって、バッティング動作をシミュレート
する装置においても、このような実際の打撃態様に即し
て、投球時点からある距離まではボールが接近してくる
ように見えるよう表示制御し、これ以後の間接視野でボ
ールを捉える、謂わば仮想空間をモデルリングすれば、
あたかも打者の手元に飛んでくるボールをミートすると
いう仮想現実感を醸し出すことが可能になる。
Therefore, in consideration of the actual batting operation, the batter does not judge the ball thrown by the pitcher until the moment of hitting, and in many cases, the ball path is directly viewed from the time the ball is released by the pitcher, When the ball approaches a certain distance, he catches the ball with an indirect field of view, measures the timing of the meat, and hits it. Therefore, even in a device that simulates a batting motion, display control is performed so that the ball appears to approach from a pitching time to a certain distance in accordance with such an actual hitting mode, and the indirect visual field thereafter. If you model the virtual space that captures the ball with
It becomes possible to create a virtual reality as if you meet a ball flying to the batter's hand.

【0008】そこで本発明は、上述した事情に鑑みてな
されたもので、あたかも遊戯者の手元で打撃操作すると
いう仮想現実感を創出し得る画像制御装置を提供するこ
とを目的としている。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image control device capable of creating a virtual reality feeling as if the player is hitting with a hand.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載の発明では、撮像画像から特定色の
クロマキー像を抽出すると共に、この撮像画像中におけ
るクロマキー像の位置および大きさを、仮想空間内に仮
想配置される操作子の3次元位置とその操作量とに変換
する操作情報発生手段と、前記仮想空間内に仮想配置さ
れる操作子の衝突対象となるオブジェクト画像の移動軌
跡を、前記仮想空間内の3次元位置に変換し、このオブ
ジェクト画像の3次元位置と前記操作子の3次元位置と
が衝突するか否を判定する衝突判定手段と、前記移動軌
跡に従ってオブジェクト画像を画面表示する一方、前記
衝突判定手段が衝突を判定した場合には、前記操作子の
操作量に対応した移動軌跡を生成し、この移動軌跡に従
って前記操作子と衝突した後のオブジェクト画像を画面
表示する表示信号を出力する表示制御手段とを具備する
ことを特徴としている。
In order to achieve the above object, according to the invention described in claim 1, a chroma key image of a specific color is extracted from a captured image, and the position and size of the chroma key image in the captured image are extracted. Of the operation information generating means for converting the three-dimensional position of the manipulator virtually arranged in the virtual space and its operation amount, and the movement of the object image which is the collision target of the manipulator virtually arranged in the virtual space. Collision determination means for converting the trajectory into a three-dimensional position in the virtual space and determining whether or not the three-dimensional position of the object image and the three-dimensional position of the operator collide, and the object image according to the movement trajectory. On the other hand, when the collision determination means determines a collision, a movement locus corresponding to the operation amount of the manipulator is generated, and a collision is made with the manipulator according to the movement locus. It is characterized by comprising display control means for outputting a display signal for an object image screen after.

【0010】また、請求項2に記載の発明にあっては、
撮像画像から特定色の操作子を表わすクロマキー像を抽
出すると共に、この撮像画像中におけるクロマキー像の
位置および大きさを検出する特徴点検出手段と、この特
徴点検出手段によって検出されるクロマキー像の位置お
よび大きさを、仮想空間内に仮想配置される前記操作子
の3次元位置とその操作量とに変換する操作子情報発生
手段と、前記操作子の衝突対象となるオブジェクト画像
の移動軌跡を、前記仮想空間内の3次元位置に変換する
オブジェクト情報発生手段と、前記仮想空間内における
前記操作子の3次元位置と前記オブジェクト画像の3次
元位置とが予め設定される衝突条件下で衝突するか否を
判定する衝突判定手段と、前記オブジェクト画像の3次
元位置が仮想空間内にて定義される表示空間であるか非
表示空間であるかを判別し、この表示空間内にオブジェ
クト画像が存在する時には、当該表示空間に対応する移
動軌跡に従ってオブジェクト画像を画面表示し、一方、
前記非表示空間内にて前記衝突判定手段が衝突判定した
時には、前記操作子の操作量に応じた移動軌跡を生成
し、この移動軌跡に従って前記操作子と衝突した後のオ
ブジェクト画像を画面表示する表示信号を出力する表示
制御手段とを具備することを特徴としている。
Further, in the invention according to claim 2,
A chroma key image representing an operator of a specific color is extracted from the captured image, and a feature point detecting means for detecting the position and size of the chroma key image in the captured image, and a chroma key image detected by the feature point detecting means. A manipulator information generating means for converting a position and a size into a three-dimensional position of the manipulator virtually arranged in the virtual space and an operation amount thereof, and a movement locus of an object image which is a collision target of the manipulator. , The object information generating means for converting into a three-dimensional position in the virtual space, and the three-dimensional position of the operator and the three-dimensional position of the object image in the virtual space collide under preset collision conditions. Collision determining means for determining whether or not the three-dimensional position of the object image is a display space or a non-display space defined in the virtual space. Discriminated, when the object image exists in the display space, an object image is displayed on a screen in accordance with the movement trajectory corresponding to the display space, whereas,
When the collision determination means makes a collision determination in the non-display space, a movement locus is generated according to the operation amount of the manipulator, and an object image after colliding with the manipulator is displayed on the screen according to the movement locus. And a display control means for outputting a display signal.

【0011】そして、上記請求項2の発明に従属する実
施態様項の内、請求項3に記載の発明によれば、前記特
徴点検出手段は、抽出したクロマキー像の重心位置およ
び面積を検出することを特徴とする。また、請求項4に
記載の発明によれば、前記操作子情報発生手段は、前記
特徴点検出手段によって検出されるクロマキー像の位置
を仮想空間のxy平面に写像してxy座標値(x,y)
とし、当該クロマキー像の大きさに応じてz座標値を定
めて操作子の3次元位置(x,y,z)を生成すること
を特徴とする。さらに、請求項5に記載の発明では、前
記操作子情報発生手段は、クロマキー像の面積変化から
操作子のスイング速度を算出すると共に、そのスイング
速度のピーク値を検出することを特徴とする。請求項6
に記載の発明では、前記衝突判定手段は、操作子の3次
元位置に対応して定められる衝突可能領域と、当該操作
子のスイングタイミング範囲とからなる衝突判定パラメ
ータに従って仮想空間内における前記操作子と前記オブ
ジェクト画像との衝突の有無を判定することを特徴とす
る。
According to the invention of claim 3 among the embodiment dependent on the invention of claim 2, the feature point detecting means detects the barycentric position and the area of the extracted chromakey image. It is characterized by Further, according to the invention described in claim 4, the manipulator information generating means maps the position of the chroma key image detected by the feature point detecting means onto the xy plane of the virtual space, and the xy coordinate value (x, y)
The z-coordinate value is determined according to the size of the chroma key image to generate the three-dimensional position (x, y, z) of the operator. Further, in the invention according to a fifth aspect, the manipulator information generation means calculates the swing speed of the manipulator from the area change of the chroma key image and detects the peak value of the swing speed. Claim 6
In the invention described in (3), the collision determining means is configured to perform collision in the virtual space according to a collision determination parameter including a collision possible area defined corresponding to a three-dimensional position of the operator and a swing timing range of the operator. And whether there is a collision between the object image and the object image.

【0012】[0012]

【作用】本発明にあっては、操作情報発生手段が撮像画
像から特定色のクロマキー像を抽出して撮像画像中にお
けるクロマキー像の位置および大きさを仮想空間内に仮
想配置される操作子の3次元位置とその操作量とに変換
し、衝突判定手段が前記操作子の衝突対象となるオブジ
ェクト画像の移動軌跡を、前記仮想空間内の3次元位置
に変換し、このオブジェクト画像の3次元位置と前記操
作子の3次元位置とが衝突するか否を判定する。そし
て、表示制御手段が前記移動軌跡に従ってオブジェクト
画像を画面表示する一方、前記衝突判定手段が衝突を判
定した場合には、前記操作子の操作量に対応した移動軌
跡を生成し、この移動軌跡に従って前記操作子と衝突し
た後のオブジェクト画像を画面表示する表示信号を出力
するので、例えば、後述する実施例のように、投球され
る球筋(軌跡)が仮想空間内でシミュレートされるか
ら、この結果、あたかも打者の手元に飛んでくるボール
を打撃するという仮想現実感を創出することが可能にな
る。
According to the present invention, the operation information generating means extracts a chroma key image of a specific color from the picked-up image, and the position and size of the chroma key image in the picked-up image of the operator virtually arranged in the virtual space. The three-dimensional position and its operation amount are converted into a three-dimensional position of the object image, and the collision determination means converts the movement trajectory of the object image, which is the collision target of the operator, into the three-dimensional position in the virtual space. And the three-dimensional position of the operator collides with each other. Then, while the display control means displays the object image on the screen according to the movement trajectory, when the collision determination means determines a collision, a movement trajectory corresponding to the operation amount of the operator is generated, and according to the movement trajectory. Since a display signal for displaying the object image on the screen after the collision with the manipulator is output, for example, the pitched ball muscle (trajectory) is simulated in the virtual space as in the embodiment described later. As a result, it is possible to create a virtual reality of hitting a ball flying to the batter's hand.

【0013】[0013]

【実施例】以下、図面を参照して本発明の実施例につい
て説明する。 A.実施例の概要 図1は、本発明による画像制御装置の全体構成を示す外
観図であり、バッティング操作をシミュレートする野球
ゲームに適用した一例を図示している。この図におい
て、1はCCD等の固体撮像素子を備える撮像部であ
り、バッターボックス(図示略)に位置する遊戯者Bを
撮像する。ここで、遊戯者Bは、例えば、クロマキー検
出用として「青色」に着色されたバットBATを用いて
バッティング動作する。
Embodiments of the present invention will be described below with reference to the drawings. A. Outline of Embodiments FIG. 1 is an external view showing an overall configuration of an image control apparatus according to the present invention, and shows an example applied to a baseball game simulating a batting operation. In this figure, reference numeral 1 denotes an image pickup unit including a solid-state image pickup device such as a CCD, which picks up an image of a player B located in a batter box (not shown). Here, the player B performs a batting operation using, for example, a bat BAT colored in “blue” for detecting a chroma key.

【0014】2は装置本体であり、遊戯者Bを撮像した
実画像からこの特定色のクロマキー像(バットBAT
像)を抽出し、これによりバットBATの位置や動きを
画面上の位置として検出する。そして、検出した操作子
の位置と画面に表示される「ボール像(オブジェクト画
像)」との衝突が後述する動作により判定された場合、
その打撃操作に応じて飛翔する「打球像(オブジェクト
画像)」を表示制御する。また、装置本体2は、ゲーム
の背景シーンとなるバックグラウンド画像と、このバッ
クグラウンド画像上を移動表示されるオブジェクト画像
とを合成してディスプレイ3に表示する。
Reference numeral 2 is a main body of the apparatus, and a chroma key image (bat BAT) of this specific color is obtained from an actual image of the player B.
Image), and the position or movement of the bat BAT is detected as a position on the screen. Then, when a collision between the detected position of the operator and the “ball image (object image)” displayed on the screen is determined by the operation described below,
Display control of a “hit ball image (object image)” flying in response to the hitting operation is performed. Further, the device body 2 synthesizes the background image that is the background scene of the game and the object image that is moved and displayed on the background image, and displays the synthesized image on the display 3.

【0015】バックグラウンド画像上に移動表示される
オブジェクト画像は、バットBAT像の位置、面積およ
び重心位置に対応して表示制御されるようになってお
り、その詳細については後述する。ディスプレイ3に
は、装置本体2の表示制御結果に基づき、例えば、背景
シーン上における投手のスローイング動作や、スローイ
ングに応じたボールの飛翔動作、あるいは打撃操作に対
応する打球の飛翔動作などが動画表示されるようになっ
ている。
The object image that is moved and displayed on the background image is display-controlled in correspondence with the position, area and center of gravity of the bat BAT image, the details of which will be described later. On the display 3, based on the display control result of the device body 2, for example, a throwing motion of a pitcher on a background scene, a ball flying motion corresponding to the throwing, or a ball hitting motion corresponding to a batting operation is displayed as a moving image. It is supposed to be done.

【0016】次に、このような全体構成における本願発
明の特徴について図2を参照して説明する。前述したよ
うに、実際の打撃動作において、打者は投手が投げたボ
ールを打撃の瞬間まで見定めることはなく、投球時点か
ら直接視野で球道を見定め、ある距離までボールが接近
した時点から間接視野でボールを捉えてミートのタイミ
ングを計り、これを打撃するようにしている。そこで、
本発明による画像制御装置では、こうした点に着目し、
投球時点からある距離まではボールが接近してくるよう
に見えるよう画面表示し、これ以後の間接視野でボール
を捉える仮想空間をモデル化することで、あたかも打者
の手元に飛んでくるボールをミートするという仮想現実
感を創出するものである。
Next, the features of the present invention in such an overall configuration will be described with reference to FIG. As described above, in the actual striking motion, the batter does not judge the ball thrown by the pitcher until the moment of hitting, but determines the ball path from the time of pitching with a direct field of view and from the point of time when the ball approaches a certain distance with an indirect field of view. I catch the ball, time the meat, and hit it. Therefore,
In the image control device according to the present invention, focusing on these points,
By displaying on the screen as if the ball was approaching from the pitching time to a certain distance, and modeling the virtual space that captures the ball with the indirect view after that, it is possible to meet the ball flying to the batter's hand. It creates a virtual reality of doing.

【0017】すなわち、図2に図示するように、投球時
点からある距離までは遊戯者Bに対してボールが接近し
てくるように見えるよう画面表示される空間SP1と、
これ以後の間接視野でボールを捉える仮想空間を、「ボ
ールが画面表示されない空間SP2」と定義すると共
に、この空間SP2中に操作子(バットBAT)が存在
し得る空間SP3を定義する。つまり、仮想的に投球さ
れる「ボール」と、遊戯者Bによって打撃操作される
「バットBAT」とを3次元座標(x,y,z)にて上
記空間SP1〜SP3をモデリングすることで、打者の
手元に飛んでくるボールをミートするという仮想現実感
を創出することを特徴としており、以下、こうした特徴
を具現する実施例の構成および動作について順次説明す
る。
That is, as shown in FIG. 2, a space SP1 is displayed on the screen so that the player B looks like the ball is approaching from a pitching time to a certain distance,
A virtual space that captures the ball with an indirect visual field thereafter is defined as "a space SP2 in which the ball is not displayed on the screen", and a space SP3 in which an operator (bat BAT) can exist in this space SP2. In other words, by modeling the above-mentioned spaces SP1 to SP3 with the three-dimensional coordinates (x, y, z) of the "ball" that is virtually thrown and the "bat BAT" that is hit by the player B, It is characterized by creating a virtual reality of meeting a ball flying to the batter's hand, and the configuration and operation of an embodiment embodying such a feature will be sequentially described below.

【0018】B.実施例の構成 次に、図3〜図8を参照して実施例の電気的構成につい
て説明する。なお、これらの図において、図1に示した
全体構成の各部と共通する要素には同一の番号を付して
いる。 (1)撮像部1の構成 撮像部1は、図4に図示するように、構成要素10〜1
3から構成されている。図4において、10は発振回路
であり、8倍オーバーサンプリング信号8fSCを発生し
て出力する。11はこの8倍オーバーサンプリング信号
8fSCを次段のクロックドライバ12に供給すると共
に、CCD13から出力される撮像信号SSをサンプリ
ング画像データDSに変換する撮像信号処理部であり、
その構成については後述する。クロックドライバ12
は、発振回路10から供給される8倍オーバーサンプリ
ング信号8fSCに基づき、水平駆動信号、垂直駆動信
号、水平/垂直同期信号および帰線消去信号等の各種タ
イミング信号を発生する一方、上記水平駆動信号および
垂直駆動信号に対応する撮像駆動信号を発生してCCD
13に供給する。CCD13は、この撮像駆動信号に従
って撮像信号SSを発生する。
B. Configuration of Embodiment Next, the electrical configuration of the embodiment will be described with reference to FIGS. In these figures, the same elements as those in each part of the overall configuration shown in FIG. 1 are designated by the same reference numerals. (1) Configuration of Image Capturing Unit 1 The image capturing unit 1 includes components 10 to 1 as shown in FIG.
It consists of three. In FIG. 4, reference numeral 10 denotes an oscillator circuit, which generates and outputs an 8 times oversampling signal 8f SC . An image pickup signal processing unit 11 supplies the 8 × oversampling signal 8f SC to the clock driver 12 in the next stage and also converts the image pickup signal SS output from the CCD 13 into sampling image data D S.
The configuration will be described later. Clock driver 12
Generates various timing signals such as a horizontal driving signal, a vertical driving signal, a horizontal / vertical synchronizing signal and a blanking signal based on the 8 times oversampling signal 8f SC supplied from the oscillation circuit 10, while the above horizontal driving signal is generated. Image pickup drive signal corresponding to the signal and the vertical drive signal to generate a CCD
Supply to 13. The CCD 13 generates an image pickup signal SS according to this image pickup drive signal.

【0019】撮像信号処理部11は、CCD13から供
給される撮像信号SSをコンディショニングした後、A
/D変換してサンプリング画像データDSを発生するも
のであり、その概略構成について図5を参照して説明す
る。図5において、11aはサンプリング回路であり、
上述したクロックドライバ12から供給される4倍オー
バーサンプリング信号4fSCに応じて撮像信号SSをサ
ンプルホールドして次段へ出力する。11bはサンプリ
ングされた撮像信号SSを所定レベルに変換して出力す
るAGC(自動利得制御)回路である。11cは、撮像
信号SSのガンマ特性をγ=1/2.2に補正して出力
するγ補正回路である。11dは、このガンマ補正され
た撮像信号SSを8ビット長のサンプリング画像データ
Sに変換して出力するA/D変換回路である。サンプ
リング画像データDSは、後述するビデオ信号処理部2
0に供給される。11eはビデオ信号処理部20から供
給されるコンポジット映像信号DCVをアナログビデオ信
号SVに変換して前述したディスプレイ3に出力するD
/A変換回路である。
The image pickup signal processing section 11 conditions the image pickup signal SS supplied from the CCD 13 and then A
The S / D conversion is performed to generate the sampled image data D S , and its schematic configuration will be described with reference to FIG. In FIG. 5, 11a is a sampling circuit,
The image pickup signal SS is sampled and held according to the 4 × oversampling signal 4f SC supplied from the clock driver 12 and output to the next stage. Reference numeral 11b is an AGC (automatic gain control) circuit for converting the sampled image pickup signal SS into a predetermined level and outputting it. Reference numeral 11c is a γ correction circuit which corrects the gamma characteristic of the image pickup signal SS to γ = 1 / 2.2 and outputs it. Reference numeral 11d denotes an A / D conversion circuit that converts the gamma-corrected image pickup signal SS into 8-bit length sampling image data D S and outputs the sampled image data D S. The sampling image data D S is the video signal processing unit 2 described later.
0 is supplied. Reference numeral 11e is a D that converts the composite video signal D CV supplied from the video signal processing unit 20 into an analog video signal S V and outputs the analog video signal S V to the display 3 described above.
A / A conversion circuit.

【0020】(2)装置本体2の構成 装置本体2は、図3に示すように、大別すると、特徴点
検出部50、衝突判定部60および制御部70から構成
されており、以下これら各部について詳述する。 特徴点検出部50の構成 まず、特徴点検出部50は、撮像部1から供給される撮
像信号SSにクロマキー検出を施してバットBAT像の
位置、面積および重心位置を抽出するクロマキー検出処
理部41と、このクロマキー検出処理部41によって生
成される特徴パラメータ、すなわち、バットBAT像の
位置、面積および重心位置を一時記憶するパラメータメ
モリ42とから構成される。さらに、クロマキー検出処
理部41は、図4に示すようにビデオ信号処理部20、
画像処理部30および位置検出処理部40から構成され
ており、以下これら各部について詳述する。
(2) Structure of the device body 2 As shown in FIG. 3, the device body 2 is roughly divided into a feature point detection section 50, a collision determination section 60 and a control section 70. Will be described in detail. Configuration of Feature Point Detecting Section 50 First, the feature point detecting section 50 performs chroma key detection on the image pickup signal SS supplied from the image pickup section 1 to extract the position, area and barycentric position of the bat BAT image. And a parameter memory 42 for temporarily storing the characteristic parameters generated by the chroma key detection processing unit 41, that is, the position, area and center of gravity position of the BAT BAT image. Further, the chroma key detection processing unit 41, as shown in FIG.
The image processing unit 30 and the position detection processing unit 40 are included, and each of these units will be described in detail below.

【0021】(a)ビデオ信号処理部20の構成 図4において、ビデオ信号処理部20は、撮像部1から
供給されるサンプリング画像データDSに対して色差変
換処理とクロマキー検出処理とを施し、その結果を後述
する位置検出処理部40に供給する。また、この処理部
20は、後述する画像処理部30から供給される画像処
理データDSPをコンポジット映像信号D CVに変換し、前
述したD/A変換回路11e(図5参照)に供給する。
なお、この画像処理データDSPとは、バックグラウンド
画像と、当該バックグラウンド画像上に移動表示される
オブジェクト画像とを合成したCG画像を形成するもの
である。
(A) Configuration of Video Signal Processing Unit 20 In FIG. 4, the video signal processing unit 20 includes
Sampling image data D suppliedSFor color difference
Conversion processing and chroma key detection processing have been performed, and the results will be described later.
It is supplied to the position detection processing unit 40. Also, this processing unit
Reference numeral 20 denotes an image processing unit supplied from an image processing unit 30 described later.
Physical data DSPComposite video signal D CVConvert to and before
It is supplied to the D / A conversion circuit 11e (see FIG. 5) described above.
The image processing data DSPAnd the background
The image and the background image is moved and displayed
Forming a CG image by combining with an object image
Is.

【0022】ここで、図6を参照して上記各処理を具現
するビデオ信号処理部20の構成について説明する。図
6において、20aは色分離フィルタであり、サンプリ
ング画像データDSを信号Ye(イエロー)、信号Cy
(シアン)および信号G(グリーン)に色分離して次段
へ出力する。20bは映像信号中における変化点の前後
に対して輝度変調を施して画質調整する輪郭補正回路で
ある。20cはホワイトバランス回路であり、各信号Y
e,Cy,Gを規定レベルに設定して出力する。20d
はバンドパスフィルタで構成される分別フィルタであ
り、各信号Ye,Cyを信号R(赤)および信号B
(青)に分別して出力する。20eは三原色を表わす信
号R,G,Bを各8ビット長の輝度信号Y、色差信号B
−Y,R−Yに変換するマトリクス回路である。
Here, the configuration of the video signal processing unit 20 which embodies the above processes will be described with reference to FIG. In FIG. 6, reference numeral 20a denotes a color separation filter which converts the sampling image data D S into the signal Ye (yellow) and the signal Cy.
(Cyan) and signal G (green) are color-separated and output to the next stage. Reference numeral 20b is a contour correction circuit that adjusts the image quality by performing brightness modulation before and after the change point in the video signal. 20c is a white balance circuit for each signal Y
e, Cy, and G are set to specified levels and output. 20d
Is a separation filter composed of a bandpass filter, which converts each signal Ye and Cy into a signal R (red) and a signal B.
(Blue) is sorted and output. Reference numeral 20e designates signals R, G and B representing the three primary colors, a luminance signal Y and a color difference signal B each having a length of 8 bits.
This is a matrix circuit for converting into -Y and RY.

【0023】20fはクロマキー信号発生回路であり、
後述するCPU71(図3参照)から与えられるR−Y
閾値およびB−Y閾値に応じた閾値設定領域内に、色差
信号B−Y,R−Yがそれぞれ収る時にクロマキー検出
した旨を表わす「H」レベルのクロマキー検出信号CR
Oを出力する。なお、この実施例では、R−Y閾値およ
びB−Y閾値は、「青色」に対応するよう設定される。
20gは、マトリクス回路20eから出力される各8ビ
ット長の輝度信号Y、色差信号B−Y,R−Yを、4ビ
ット長の輝度信号Y’、2ビット長の色差信号B−
Y’,R−Y’に変換する色差変換回路である。
Reference numeral 20f is a chroma key signal generating circuit,
RY given from a CPU 71 (see FIG. 3) described later
The chroma key detection signal CR of "H" level indicating that the chroma key is detected when the color difference signals BY and RY fall within the threshold setting area corresponding to the threshold and the BY threshold, respectively.
Output O. In this embodiment, the RY threshold value and the BY threshold value are set to correspond to “blue”.
Reference numeral 20g denotes a luminance signal Y of 8-bit length, color difference signals BY and RY output from the matrix circuit 20e, a luminance signal Y'of 4-bit length, and a color difference signal B-of 2-bit length.
It is a color difference conversion circuit for converting into Y ′ and RY ′.

【0024】20hは、画像処理部30(後述する)か
ら供給される画像処理データDSP(RGB信号)を輝度
信号Y、色差信号B−Y,R−Yに変換するマトリクス
回路である。20iはセレクタであり、後述する位置検
出処理部40から供給されるセレクト信号SLに応じて
マトリクス回路20eの出力、あるいはマトリクス回路
20hの出力のいずれかを選択して次段へ供給する。2
0jはモジュレータである。モジュレータ20jは、セ
レクタ20iを介して供給される輝度信号Y、色差信号
B−Y,R−Yに各種同期信号(水平/垂直同期信号お
よび帰線消去信号)を重畳したディジタルコンポジット
映像信号DCVを生成する。
Reference numeral 20h is a matrix circuit for converting image processing data D SP (RGB signals) supplied from the image processing section 30 (described later) into a luminance signal Y and color difference signals BY and RY. Reference numeral 20i denotes a selector, which selects either the output of the matrix circuit 20e or the output of the matrix circuit 20h according to a select signal SL supplied from a position detection processing unit 40 described later and supplies the selected output to the next stage. Two
0j is a modulator. Modulator 20j the luminance signal Y, the color difference signal B-Y, the digital composite video signal by superimposing the various synchronization signals to the R-Y (horizontal / vertical synchronization signals and blanking signals) D CV supplied through the selector 20i To generate.

【0025】上記構成によれば、ビデオ信号処理部20
は、撮像部1から供給されるサンプリング画像データD
Sを輝度信号Y’、2ビット長の色差信号B−Y’,R
−Y’に変換すると共に、クロマキー検出信号CROを
発生して画像処理部30(後述する)側へ供給する。ま
た、この処理部20は、画像処理部30側から入力され
る画像処理データDSP(RGB信号)、あるいは撮像部
1から供給されるサンプリング画像データDSのいずれ
かをセレクト信号SLに応じて選択し、選択されたデー
タをコンポジット映像信号DCVに変換して出力する。な
お、セレクト信号SLは、後述する位置検出処理部40
から供給される信号である。
According to the above configuration, the video signal processing section 20
Is the sampling image data D supplied from the imaging unit 1.
S is a luminance signal Y ′, 2-bit color difference signals BY ′, R
While converting into −Y ′, a chroma key detection signal CRO is generated and supplied to the image processing unit 30 (described later) side. In addition, the processing unit 20 receives either the image processing data D SP (RGB signal) input from the image processing unit 30 side or the sampling image data D S supplied from the imaging unit 1 according to the select signal SL. The selected data is converted into a composite video signal D CV and output. The select signal SL is the position detection processing unit 40 described later.
Is a signal supplied from.

【0026】(b)画像処理部30の構成 次に、画像処理部30の構成について説明する。画像処
理部30は、図4に示すように、ビデオディスプレイプ
ロセッサ(以下、VDPと略す)31とVRAM32と
から構成される。VDP31の基本的機能は、VRAM
32に格納されるバックグラウンド画像データDBGおよ
びオブジェクト画像データDOBを制御部70(後述す
る)側から供給される制御信号SCに応じて読み出し、
これを1走査ライン毎のドット表示色を表わす画像処理
データDSPを発生することにある。以下、図7を参照し
て画像処理部30の構成について詳述する。
(B) Configuration of Image Processing Unit 30 Next, the configuration of the image processing unit 30 will be described. As shown in FIG. 4, the image processing unit 30 includes a video display processor (hereinafter abbreviated as VDP) 31 and a VRAM 32. The basic function of VDP31 is VRAM
The background image data D BG and the object image data D OB stored in 32 are read according to a control signal SC supplied from the control unit 70 (described later) side,
This is to generate the image processing data D SP representing the dot display color for each scanning line. Hereinafter, the configuration of the image processing unit 30 will be described in detail with reference to FIG. 7.

【0027】図7において、31aはCPUインタフェ
ース回路であり、制御部70を構成するCPU71のバ
スを介して供給される制御信号SCに応じて構成要素3
1b〜31dに各種制御指示を与える。制御信号SC
は、バックグラウンド画像およびオブジェクト画像を表
示制御する各種コマンドや、VRAM32にDMA転送
されるバックグラウンド画像データDBGおよびオブジェ
クト画像データDOBから形成される。31bはVRAM
コントロール回路であり、構成要素31a,31cおよ
び31dから供給される制御信号に対応してVRAM3
2とのデータ授受を行う。
In FIG. 7, reference numeral 31a denotes a CPU interface circuit, which is a constituent element 3 according to a control signal SC supplied via a bus of a CPU 71 which constitutes a control unit 70.
Various control instructions are given to 1b to 31d. Control signal SC
Is formed from various commands for controlling the display of the background image and the object image, and the background image data D BG and the object image data D OB which are DMA-transferred to the VRAM 32. 31b is VRAM
A VRAM 3 which is a control circuit and corresponds to a control signal supplied from the components 31a, 31c and 31d.
Exchange data with 2.

【0028】すなわち、上記CPUインタフェース回路
31aからDMA転送する旨の制御信号SCを受けた場
合には、当該回路31aを介してDMA転送されるバッ
クグラウンド画像データDBG、あるいはオブジェクト画
像データDOBを所定の記憶エリアに格納する。また、バ
ックグラウンドコントロール回路31cからバックグラ
ウンド画像データDBGを読み出す旨の指示を受けた場
合、対応するデータDBGを読み出して回路31c側に返
送する。これと同様に、オブジェクトコントロール回路
31dからオブジェクト画像データDOBを読み出す旨の
指示を受けた場合、対応するデータDOBを読み出して回
路31d側に返送する。
That is, when the control signal SC for DMA transfer is received from the CPU interface circuit 31a, the background image data D BG or the object image data D OB DMA-transferred via the circuit 31a is sent. Store in a predetermined storage area. When an instruction to read the background image data D BG is received from the background control circuit 31c, the corresponding data D BG is read and returned to the circuit 31c side. Similarly, when an instruction to read the object image data D OB is received from the object control circuit 31d, the corresponding data D OB is read and returned to the circuit 31d side.

【0029】バックグラウンドコントロール回路31c
は、回路31aを介して制御部70側から与えられるバ
ックグラウンド表示制御コマンドに基づき、VRAMコ
ントロール回路31bを経由して読み出されたバックグ
ラウンド画像データDBGに対して表示位置を指定した
後、色差データ処理回路31eへ供給する。また、この
回路31cは、上述したビデオ信号処理部20から供給
される輝度信号Y’,色差信号B−Y’,R−Y’、す
なわち、撮像部1によって撮像された1フレーム分のサ
ンプリング画像を、VRAMコントロール回路31bを
介してVRAM32に格納する。つまり、撮像した画像
をバックグラウンド画像データDBGにすることが可能に
なっている。
Background control circuit 31c
Specifies the display position for the background image data D BG read via the VRAM control circuit 31b based on the background display control command given from the control unit 70 side via the circuit 31a, It is supplied to the color difference data processing circuit 31e. In addition, the circuit 31c is configured so that the luminance signal Y ′, the color difference signals BY ′, RY ′ supplied from the video signal processing unit 20 described above, that is, the sampling image for one frame imaged by the imaging unit 1 Are stored in the VRAM 32 via the VRAM control circuit 31b. That is, the captured image can be used as the background image data D BG .

【0030】オブジェクトコントロール回路31dは、
回路31aを介して制御部70側から与えられるオブジ
ェクトテーブルデータTOBをオブジェクトテーブルRA
M31fに書き込む。オブジェクトテーブルデータTOB
とは、表示画面におけるオブジェクト画像データDOB
表示位置を指定する座標データである。また、当該回路
31dは、オブジェクト表示制御コマンドに応じてVR
AM32から読み出されたオブジェクト画像データDOB
に対し、上記オブジェクトテーブルデータTOBを参照し
て表示位置を求めると共に、1走査ライン分のオブジェ
クト画像データDOBをラインバッファRAM31gに一
時記憶する。ラインバッファRAM31gに一時記憶さ
れるオブジェクト画像データDOBは、1走査毎に更新さ
れる。このRAM31gから読み出されたオブジェクト
画像データDOBは、色差データ処理回路31eに供給さ
れる。
The object control circuit 31d is
The object table data T OB given from the control unit 70 side via the circuit 31a is stored in the object table RA.
Write to M31f. Object table data T OB
Is coordinate data that specifies the display position of the object image data D OB on the display screen. In addition, the circuit 31d responds to the VR according to the object display control command.
Object image data D OB read from AM32
On the other hand, the display position is obtained by referring to the object table data T OB, and the object image data D OB for one scanning line is temporarily stored in the line buffer RAM 31g. The object image data D OB temporarily stored in the line buffer RAM 31g is updated every scan. The object image data D OB read from the RAM 31g is supplied to the color difference data processing circuit 31e.

【0031】色差データ処理回路31eは、バックグラ
ウンドコントロール回路31cおよびオブジェクトコン
トロール回路31dから供給される8ビット長の画像デ
ータDBG,DOBを、周知のカラールックアップテーブル
RAM31hを参照して各4ビット長のR信号,G信号
およびB信号から形成される画像処理データDSPに変換
して出力する。また、この色差データ処理回路31e
は、上述した画像処理データDSP(RGB信号)の他、
信号YSBGおよび信号YSOBJを発生する。
The color difference data processing circuit 31e outputs the 8-bit image data D BG and D OB supplied from the background control circuit 31c and the object control circuit 31d to each 4 by referring to a known color lookup table RAM 31h. The image processing data D SP formed from the R signal, G signal, and B signal of bit length is converted and output. Further, this color difference data processing circuit 31e
Is the image processing data D SP (RGB signal) described above,
The signal YSBG and the signal YSOBJ are generated.

【0032】信号YSBGおよび信号YSOBJは、現
在出力している画像処理データDSPがバックグラウンド
画像データDBGに対応するものであるか、あるいはオブ
ジェクト画像データDOBに対応するものであるかを表わ
す信号である。例えば、現在出力している画像処理デー
タDSPがバックグラウンド画像データDBGに対応するも
のである時には、信号YSBGが「H(ハイ)」とな
り、信号YSOBJが「L(ロウ)」になる。一方、こ
れとは逆に画像処理データDSPがオブジェクト画像デー
タDOBに対応するものであれば、信号YSBGが「L」
となり、信号YSOBJが「H」になる。
The signal YSBG and the signal YSOBJ represent whether the currently output image processing data D SP corresponds to the background image data D BG or the object image data D OB. It is a signal. For example, when the currently output image processing data D SP corresponds to the background image data D BG , the signal YSBG becomes “H (high)” and the signal YSOBJ becomes “L (low)”. On the other hand, on the contrary, if the image processing data D SP corresponds to the object image data D OB , the signal YSBG is “L”.
And the signal YSOBJ becomes "H".

【0033】このように、画像処理部30では、制御部
70側からDMA転送されるバックグラウンド画像デー
タDBGおよびオブジェクト画像データDOBをVRAM3
2に格納しておき、CPU71から供給される制御信号
SC(各種表示制御コマンド)に応じてこのVRAM3
2から画像データDBGあるいは画像データDOBを読み出
し、これを1走査ライン毎のドット表示色を表わす画像
処理データDSPを発生すると共に、当該画像処理データ
SPの表示属性を表わす信号YSBGおよびYSOBJ
を出力する。
As described above, in the image processing unit 30, the background image data D BG and the object image data D OB DMA-transferred from the control unit 70 side are stored in the VRAM 3.
2 and stores the VRAM 3 in accordance with a control signal SC (various display control commands) supplied from the CPU 71.
2. The image data D BG or the image data D OB is read from 2, and the image processing data D SP representing the dot display color for each scanning line is generated and the signal YSBG representing the display attribute of the image processing data D SP and YSOBJ
Is output.

【0034】(c)位置検出処理部40の構成 位置検出処理部40は、複数のロジック素子を配列して
なるゲートアレイとラインバッファとから構成されてお
り、後述する制御部70の指示の下にサンプリング画像
データDS中に含まれるクロマキー像の座標位置や、当
該クロマキー像の面積および重心位置を、予め定められ
たロジックに基づいて論理演算する。図示されていない
ラインバッファには、ビデオ信号処理部20から供給さ
れるクロマキー検出信号CROが一走査ライン分、順次
一時記憶されることによってクロマキー検出が施され、
1画面分完了した時点で上記論理演算に基づき、クロマ
キー像の座標位置、当該クロマキー像の面積および重心
位置からなる特徴パラメータが定まり、これが後段の特
徴パラメータメモリ42にセットされる。
(C) Configuration of Position Detection Processing Unit 40 The position detection processing unit 40 is composed of a gate array formed by arranging a plurality of logic elements and a line buffer, and under the instruction of the control unit 70 described later. The logical position of the chroma key image included in the sampled image data D S , and the area and barycentric position of the chroma key image are logically calculated based on a predetermined logic. The chroma key detection signal CRO supplied from the video signal processing unit 20 is sequentially temporarily stored in a line buffer (not shown) for one scanning line to perform chroma key detection.
At the time when one screen is completed, based on the above logical operation, the characteristic parameter including the coordinate position of the chroma key image, the area of the chroma key image and the position of the center of gravity is determined, and this is set in the characteristic parameter memory 42 in the subsequent stage.

【0035】位置検出処理部40は、上述した画像処理
部30から供給される信号YSBGおよびYSOBJに
基づき、前述したセレクト信号SLを発生してビデオ信
号処理部20に与え、サンプリング画像データDS(実
画像)と画像処理データDSP(CG画像)との重なり具
合、つまり、画面表示される画像の優先順位(前後関
係)を制御する。さらに、処理部40は、制御部70の
指示の下に前述した撮像信号処理部11、ビデオ信号処
理部20およびVDP31へそれぞれレジスタコントロ
ール信号SREGを供給し、各部レジスタのデータセット
/リセットを制御する。
The position detection processing section 40 generates the above-mentioned select signal SL based on the signals YSBG and YSOBJ supplied from the above-mentioned image processing section 30 and supplies it to the video signal processing section 20, and the sampling image data D S ( The degree of overlap between the actual image) and the image processing data D SP (CG image), that is, the priority order (front-back relationship) of the image displayed on the screen is controlled. Further, the processing unit 40 supplies a register control signal S REG to the image pickup signal processing unit 11, the video signal processing unit 20 and the VDP 31 described above under the instruction of the control unit 70 to control the data set / reset of each unit register. To do.

【0036】次に、図8を参照して特徴パラメータメモ
リ42のレジスタ構成について説明する。このメモリ4
2は、上記構成による位置検出処理部40から供給され
るクロマキー像の座標位置や、当該クロマキー像の面積
および重心位置などの特徴パラメータを一時記憶するも
のであり、これらパラメータは以下に説明するエリアE
1〜E8に格納される。図8において、E1は初期画面
エリアであり、水平方向(走査ライン)当り96ドッ
ト、垂直方向に96ラインから形成される初期画面のデ
ータを一時記憶する。初期画面のデータとは、ゲーム開
始に先立って撮像されたシーン内に存在するクロマキー
検出結果を指す。シーン内にクロマキー検出色(例え
ば、青色)の物体が存在した場合、前述したバットBA
T(図1参照)の一部と誤認する虞がある。そこで、初
期画面エリアE1に一時記憶されるデータは、クロマキ
ー検出されたドット位置をバットBAT(図1参照)と
誤認しないようにするため、当該ドット位置を不感帯と
する際に用いられる。
Next, the register configuration of the characteristic parameter memory 42 will be described with reference to FIG. This memory 4
2 temporarily stores characteristic parameters such as the coordinate position of the chroma key image supplied from the position detection processing unit 40 having the above-described configuration, the area of the chroma key image and the position of the center of gravity, and these parameters are the areas described below. E
1 to E8. In FIG. 8, E1 is an initial screen area for temporarily storing data of an initial screen formed of 96 dots in the horizontal direction (scanning line) and 96 lines in the vertical direction. The data of the initial screen refers to the chroma key detection result existing in the scene captured before the start of the game. If there is an object of chroma key detection color (for example, blue) in the scene, the bat BA
There is a risk of misidentifying it as a part of T (see FIG. 1). Therefore, the data temporarily stored in the initial screen area E1 is used when the dot position detected by the chroma key is not mistaken for the bat BAT (see FIG. 1) when the dot position is set as the dead zone.

【0037】E2は水平方向96ドット、垂直方向96
ラインで形成される処理画面エリアであり、実画像にお
いてクロマキー検出されるバットBAT像(あるいは調
整パネル像CP)およびCG画像中のオブジェクト画像
(本実施例では、ボール像)が1フレーム毎に更新記憶
される。E3〜E4は、それぞれ1フレーム毎に更新さ
れる処理画面でのバットBAT像の上端/下端位置を一
時記憶する上端座標エリア、下端座標エリアである。E
5〜E6は、それぞれ1フレーム毎に更新される処理画
面でのバットBAT像(あるいは調整パネル像CP)の
左端/右端位置を一時記憶する左端座標エリア、右端座
標エリアである。E7は重心座標エリアであり、実画像
にてクロマキー検出されるバットBAT像の面積(後述
する)に基づき算出される重心位置を処理画面上の座標
位置が記憶される。
E2 is 96 dots in the horizontal direction and 96 dots in the vertical direction.
This is a processing screen area formed by lines, and the bat BAT image (or adjustment panel image CP) that is chroma key detected in the actual image and the object image (ball image in this embodiment) in the CG image are updated every frame. Remembered. E3 to E4 are the upper end coordinate area and the lower end coordinate area for temporarily storing the upper end / lower end positions of the bat BAT image on the processing screen updated for each frame. E
Reference numerals 5 to E6 are a left end coordinate area and a right end coordinate area for temporarily storing the left end / right end positions of the bat BAT image (or the adjustment panel image CP) on the processing screen updated for each frame. E7 is a barycentric coordinate area in which the barycentric position calculated based on the area (described later) of the bat BAT image that is chroma key detected in the actual image is stored as the coordinate position on the processing screen.

【0038】E8は、実画像にてクロマキー検出される
バットBAT像の面積が記憶される面積エリアである。
この面積エリアE8にセットされる面積は、ブロック個
数で表わされる。ここで言うブロックとは、処理画面に
おいて水平方向6ドット、垂直方向2ラインからなる1
2ドット領域を指す。この12ドット領域から形成され
るブロック中に、「6ドット」以上のクロマキー検出が
あった場合、そのブロックがバットBAT像の面積とし
て見做される。
E8 is an area area in which the area of the bat BAT image subjected to chroma key detection in the actual image is stored.
The area set in the area area E8 is represented by the number of blocks. The block referred to here is composed of 6 dots in the horizontal direction and 2 lines in the vertical direction on the processing screen.
Indicates a 2-dot area. When chroma key detection of "6 dots" or more is detected in the block formed from the 12 dot area, the block is regarded as the area of the bat BAT image.

【0039】衝突判定部60の構成 次に、再び図3を参照して衝突判定部60の構成につい
て説明する。衝突判定部60は、特徴点検出部50によ
ってクロマキー抽出されたバットBAT像とオブジェク
ト画像(ボール像)との衝突を判定するものであり、構
成要素61〜64からなる。61は操作子座標メモリで
あり、上述した特徴パラメータに対応して生成されるバ
ットBATの3次元座標位置を記憶する。この3次元座
標位置は、前述した空間SP3(図2参照)における3
次元座標として表現されるものであり、上記特徴パラメ
ータメモリ42の記憶エリアE7(図8参照)に格納さ
れる重心位置を、記憶エリアE8(図8参照)に格納さ
れる面積値に応じて3次元座標に変換したものである。
すなわち、xy面内の座標は「重心位置」に相当し、こ
れをバットBAT像の面積の大きさに応じてz軸座標
(距離)を規定したものである。なお、こうした特徴パ
ラメータに基づく座標変換はCPU71の処理によって
行われ、その結果が操作子座標メモリ61に書き込まれ
る。
Structure of Collision Judgment Unit 60 Next, the structure of the collision judgment unit 60 will be described with reference to FIG. 3 again. The collision determination unit 60 determines the collision between the bat BAT image extracted by the feature point detection unit 50 with the chroma key and the object image (ball image), and includes the components 61 to 64. A manipulator coordinate memory 61 stores the three-dimensional coordinate position of the bat BAT generated corresponding to the above-mentioned characteristic parameters. This three-dimensional coordinate position is 3 in the space SP3 (see FIG. 2) described above.
It is expressed as a dimensional coordinate, and the barycentric position stored in the storage area E7 (see FIG. 8) of the characteristic parameter memory 42 is set to 3 depending on the area value stored in the storage area E8 (see FIG. 8). It is converted to dimensional coordinates.
That is, the coordinates in the xy plane correspond to the “center of gravity position”, and the z-axis coordinate (distance) is defined according to the size of the area of the bat BAT image. The coordinate conversion based on such characteristic parameters is performed by the processing of the CPU 71, and the result is written in the manipulator coordinate memory 61.

【0040】62は衝突判定パラメータメモリであり、
仮想空間SP2(図2参照)内における「ボール」と
「バット」との衝突判定条件が記憶される。この衝突判
定条件とは、操作子座標メモリ61に記憶されるバット
BATの3次元座標位置に対応して定められる衝突範囲
と、バットBATのミートタイミングの範囲とを表わす
パラメータを指す。このパラメータによって規定される
衝突範囲内で所定のミートタイミングにてバットBAT
がスイングされた時に、「ボール」が「バット」で打撃
されたと見做すようにしている判定する。当該パラメー
タメモリ62には、例えば、ゲーム開始に先立って、遊
戯者Bの熟練度に応じた衝突判定条件を表わすパラメー
タが書き込まれる。したがって、ビギナーに対しては衝
突範囲やミートタイミング範囲を広げておき、「ミー
ト」を容易するよう設定したり、熟練者にはこれとは逆
に範囲を狭めてゲームを難しくすることも可能になる。
Reference numeral 62 is a collision determination parameter memory,
The collision determination condition between the “ball” and the “bat” in the virtual space SP2 (see FIG. 2) is stored. The collision determination condition is a parameter that represents a collision range defined corresponding to the three-dimensional coordinate position of the bat BAT stored in the manipulator coordinate memory 61 and a range of the meet timing of the bat BAT. Bat BAT at a predetermined meet timing within the collision range specified by this parameter
When the player swings, it judges that the "ball" is hit with the "bat". In the parameter memory 62, for example, prior to the start of the game, a parameter representing a collision determination condition according to the skill level of the player B is written. Therefore, it is possible to widen the collision range and the meet timing range for beginners and set it so that “meet” can be facilitated, or it is possible for the expert to narrow the range and make the game difficult. Become.

【0041】63はオブジェクト座標メモリであり、仮
想空間SP2におけるオブジェクト画像、つまり、「ボ
ール像」の3次元座標位置が記憶される。この「ボール
像」の3次元座標位置とは、前述したように、打者の手
元に飛んでくるボールをシミュレートするためのもので
あり、仮想空間SP2内の「ボール像」の球道を規定す
る座標値である。このメモリ63に格納される3次元座
標値は、例えば、「カーブ」、「シュート」等の球種に
対応させて変化するものである。したがって、投球時点
からある距離まではボールが接近して見えるような形態
でディスプレイ3にオブジェクト画像(「ボール」)を
画面表示した後、実際の打撃操作に即して、打者の間接
視野によって捉えられる球筋(軌跡)を、このメモリ6
3に記憶される3次元座標値で仮想的にシミュレートす
る訳である。これにより、あたかも打者の手元に飛んで
くるボールをミートするという仮想現実感を創出するこ
とが可能になる。
An object coordinate memory 63 stores the object image in the virtual space SP2, that is, the three-dimensional coordinate position of the "ball image". As described above, the three-dimensional coordinate position of the "ball image" is for simulating a ball flying to the batter's hand, and defines the ball path of the "ball image" in the virtual space SP2. It is a coordinate value. The three-dimensional coordinate value stored in the memory 63 changes corresponding to the type of sphere such as “curve” and “shoot”. Therefore, after displaying the object image (“ball”) on the display 3 in such a form that the ball can be seen to be close to a certain distance from the pitching time, the indirect visual field of the batter captures it in accordance with the actual batting operation. This memory 6
This is a virtual simulation with the three-dimensional coordinate values stored in 3. This makes it possible to create a virtual reality of meeting a ball flying to the batter's hand.

【0042】64はこれらメモリ61〜63に格納され
るパラメータを随時読み出して「ボール」と「バット」
との衝突の有無を判定し、衝突を判定した時に割込み信
号IRを発生する仮想空間内衝突判定手段である。この
判定手段64は、例えば、ゲートアレイ等で構成され、
ハードウェア的に論理演算して衝突判定する。なお、こ
れに替えて専用のマイクロプロセッサを備えてソフトウ
ェア処理で衝突判定したり、あるいは後述するCPU7
1でこうした処理を実行させる構成とすることも可能で
ある。上記構成による衝突判定部60では、各メモリ6
1〜63に対してCPU71から上述した諸パラメータ
が順次DMA転送される一方、判定手段64がこれら各
メモリ61〜63から読み出したパラメータに従って随
時、衝突判定を行い、判定パラメータによって規定され
る衝突範囲内において所定のミートタイミングでバット
BATがスイングされた時に、衝突したと見做し、割込
み信号IRを発生する。
Reference numeral 64 indicates a "ball" and a "bat" by reading out the parameters stored in these memories 61 to 63 as needed.
It is a collision determining means in the virtual space for determining the presence or absence of a collision with and generating an interrupt signal IR when the collision is determined. The determination means 64 is composed of, for example, a gate array,
Collision is determined by hardware logical operation. Instead of this, a dedicated microprocessor is provided to detect a collision by software processing, or a CPU 7 described later is used.
It is also possible to adopt a configuration in which such processing is executed in 1. In the collision determination unit 60 having the above configuration, each memory 6
The above-mentioned parameters are sequentially DMA-transferred to the CPUs 1 to 63 from the CPU 71, while the determining unit 64 determines the collision at any time according to the parameters read from the memories 61 to 63, and the collision range defined by the determination parameters. When the bat BAT is swung at a predetermined meet timing inside, it is considered to have collided, and an interrupt signal IR is generated.

【0043】制御部70の構成 次に、再び図3を参照して制御部70の構成について説
明する。制御部70は、構成要素71〜74から構成さ
れる。CPU71は、装置本体2の操作パネル(図示
略)に配設される各種操作子をキースキャンし、これら
操作子の設定操作に応じて生成される操作子信号を検出
して装置各部を制御するものであり、その動作の詳細に
ついては後述する。このCPU71は、内部タイマを備
え、当該タイマによってカウントされるタイマカウンタ
値に基づきゲーム進行を管理する。また、CPU71
は、周知のDMAコントローラを備えており、画像制御
動作に必要な各種データ(バックグラウンド画像データ
BGやオブジェクト画像データDOB)を前述した画像処
理部30(図7参照)へDMA転送するよう構成されて
いる。
Configuration of Control Unit 70 Next, the configuration of the control unit 70 will be described with reference to FIG. 3 again. The control unit 70 includes components 71 to 74. The CPU 71 performs key scanning on various operating elements arranged on an operating panel (not shown) of the apparatus main body 2, detects operating element signals generated according to the setting operation of these operating elements, and controls each part of the apparatus. The details of the operation will be described later. The CPU 71 has an internal timer and manages the progress of the game based on the timer counter value counted by the timer. In addition, the CPU 71
Includes a well-known DMA controller so that various data necessary for image control operation (background image data D BG and object image data D OB ) are DMA-transferred to the above-mentioned image processing unit 30 (see FIG. 7). It is configured.

【0044】72はワークRAMであり、上記CPU7
1のワークエリアとして各種演算結果やフラグ値が一時
記憶される。73はCPU71の動作を管理するOS
(オペレーションシステム)プログラムや、アプリケー
ションプログラムが記憶されるプログラムメモリであ
る。なお、この実施例においては、前述したように、バ
ッティング動作をシミュレートするアプリケーションプ
ログラムが記憶されている。74はCPU71側から供
給される音声合成指示信号に基づき、ゲーム動作に対応
した各種効果音、例えば、ミート時の「打撃音」、「ミ
ット捕球音」あるいはアンパイヤの「判定コール(スト
ライク/ボール)」などを音声合成して発音する音声出
力手段である。
Reference numeral 72 denotes a work RAM, which is the CPU 7
As a work area 1, various calculation results and flag values are temporarily stored. 73 is an OS that manages the operation of the CPU 71
(Operating system) A program memory in which programs and application programs are stored. In this embodiment, as described above, the application program for simulating the batting operation is stored. Reference numeral 74 is based on a voice synthesis instruction signal supplied from the CPU 71 side, and various sound effects corresponding to the game operation, for example, “striking sound” at the time of a meet, “mitt catching sound” or “judgment call (strike / ball) of an umpire. ) ”And the like are voice-synthesized and sounded.

【0045】C.実施例の動作 次に、上記構成による実施例の動作について説明する。
以下では、まず、前述した位置検出処理部40の動作に
ついて説明した後、本願発明の要旨に係わる制御部70
(CPU71)の動作について説明する。 (1)位置検出処理部40の動作 ここでは、ゲートアレイによって構成される位置検出処
理部40の動作について図9〜図13を参照して説明す
る。処理部40では、制御部70の指示に応じてサンプ
リング画像データDS中に含まれるクロマキー像(バッ
トBAT像)の座標位置や、当該クロマキー像の面積お
よび重心位置が、次の処理動作によって求められる。
C. Operation of Embodiment Next, the operation of the embodiment having the above configuration will be described.
Hereinafter, first, the operation of the position detection processing unit 40 described above will be described, and then the control unit 70 according to the gist of the present invention.
The operation of the (CPU 71) will be described. (1) Operation of Position Detection Processing Unit 40 Here, the operation of the position detection processing unit 40 configured by the gate array will be described with reference to FIGS. 9 to 13. In the processing unit 40, the coordinate position of the chroma key image (bat BAT image) included in the sampling image data D S , the area and the barycentric position of the chroma key image are obtained by the next processing operation according to the instruction of the control unit 70. To be

【0046】メインルーチンの動作 まず、装置本体2に電源が投入され、CPU71側から
システムリセットを表わす制御信号SCが位置検出処理
部40に供給されると、位置検出処理部40は、上記制
御信号SCに基づき、内部にセットされるマイクロプロ
グラムをロードして図9に示すメインルーチンを起動
し、ステップSA1を実行する。ステップSA1では、
自身の内部レジスタをリセット、あるいは初期値をセッ
トするイニシャライズを行う一方、撮像信号処理部1
1、ビデオ信号処理部20およびVDP31へそれぞれ
レジスタセットを指示するレジスタコントロール信号S
REGを供給し、次のステップSA2に進む。
Operation of Main Routine First, when the apparatus main body 2 is powered on and the control signal SC representing the system reset is supplied from the CPU 71 side to the position detection processing unit 40, the position detection processing unit 40 causes the position detection processing unit 40 to perform the above-mentioned control signal. Based on SC, the microprogram set inside is loaded, the main routine shown in FIG. 9 is started, and step SA1 is executed. In step SA1,
While resetting its own internal register or performing initialization to set an initial value, the imaging signal processing unit 1
1. Register control signal S for instructing the video signal processing unit 20 and VDP 31 to set registers respectively
Supply REG , and proceed to the next step SA2.

【0047】ステップSA2では、「初期画面マップ」
が作成されているか否かを判断する。ここで、例えば、
「初期画面マップ」が作成されていない場合、判断結果
は「NO」となり、次のステップSA3に処理を進め
る。この「初期画面マップ」とは、ゲーム開始に先立っ
て、撮像部1が撮像する画面内に、バットBAT(図1
参照)と同色の物体が存在するか否かを確認するために
使用されるものである。そして、ステップSA3に進む
と、複数フレーム分のクロマキー検出結果を重ね合わ
せ、これを前述した特徴パラメータメモリ42の初期画
面エリアE1(図8参照)に格納し、初期画面内に存在
するクロマキー検出ブロックを「不感帯」と見做すため
の「初期画面マップ」を作成する。
At step SA2, "initial screen map"
Is created. Where, for example,
When the "initial screen map" is not created, the determination result is "NO", and the process proceeds to the next step SA3. This “initial screen map” means that the bat BAT (see FIG. 1) is displayed in the screen imaged by the imaging unit 1 prior to the start of the game.
It is used to confirm whether or not there is an object of the same color as that of the reference). Then, in step SA3, the chroma key detection results for a plurality of frames are overlaid and stored in the initial screen area E1 (see FIG. 8) of the characteristic parameter memory 42 described above, and the chroma key detection blocks existing in the initial screen are stored. Create an "initial screen map" to consider the "dead zone".

【0048】このようにして「初期画面マップ」の作成
がなされると、位置検出処理部40は、次のステップS
A4に処理を進める。なお、「初期画面マップ」が予め
用意されている場合には、上記ステップSA2の判断結
果は「YES」となり、ステップSA4に進む。ステッ
プSA4では、レジスタX,Yの値をゼロリセットす
る。なお、このレジスタX,Yには、水平方向96ドッ
ト、垂直方向96ラインで形成される画面座標に相当す
る値が処理内容に応じて順次セットされる。
When the "initial screen map" is created in this way, the position detection processing unit 40 proceeds to the next step S
The process proceeds to A4. When the "initial screen map" is prepared in advance, the result of the determination in step SA2 is "YES", and the process proceeds to step SA4. At step SA4, the values of the registers X and Y are reset to zero. A value corresponding to screen coordinates formed by 96 dots in the horizontal direction and 96 lines in the vertical direction is sequentially set in the registers X and Y according to the processing content.

【0049】次に、ステップSA5に進むと、位置検出
処理部40は、内部ラインバッファ(図示略)に一時記
憶されたクロマキー検出信号CROに対してブロック単
位毎のクロマキー検出を施す。ブロック単位のクロマキ
ー検出とは、ラインバッファから読み出したクロマキー
検出信号CROを水平方向6ドット、垂直方向2ライン
からなるブロックに区分けし、「H」レベルのクロマキ
ー検出信号CROがブロック当り「6ドット」以上存在
した時に、当該ブロックの属性を「クロマキー有り」と
見做すものである。こうしたクロマキー検出の結果は、
前述した処理画面エリアE2(図8参照)にブロック属
性としてストアされ、これが「処理画面マップ」とな
る。
Next, in step SA5, the position detection processing section 40 performs chroma key detection for each block on the chroma key detection signal CRO temporarily stored in the internal line buffer (not shown). Chromakey detection in block units means that the chromakey detection signal CRO read out from the line buffer is divided into blocks each consisting of 6 dots in the horizontal direction and 2 lines in the vertical direction, and the chromakey detection signal CRO at the “H” level is “6 dots” per block. When the block exists, the attribute of the block is regarded as “with chroma key”. The result of such chromakey detection is
It is stored as a block attribute in the above-mentioned processing screen area E2 (see FIG. 8), and this becomes a “processing screen map”.

【0050】次いで、位置検出処理部40は、ステップ
SA6へ処理を進め、レジスタXの値を1インクリメン
トして歩進させ、続いて、ステップSA7ではこの歩進
されたレジスタXの値が「96」、つまり、1走査ライ
ン分の処理が完了したか否かを判断する。ここで、レジ
スタXの値が「96」に達していない場合には、判断結
果が「NO」となり、1走査ライン分の処理が完了する
迄、上記ステップSA5〜SA6を繰り返す。一方、1
走査ライン分の処理が完了した場合には、ステップSA
7の判断結果が「YES」となり、ステップSA8に進
み、レジスタXの値を再びゼロリセットすると共に、レ
ジスタYの値を1インクリメントして走査ラインを垂直
方向に更新する。
Next, the position detection processing unit 40 advances the processing to step SA6, increments the value of the register X by 1 and advances the value, and subsequently, in step SA7, the value of the advanced register X is "96". That is, it is determined whether or not the processing for one scanning line is completed. Here, when the value of the register X has not reached "96", the determination result becomes "NO" and the above steps SA5 to SA6 are repeated until the processing for one scanning line is completed. On the other hand, 1
When the processing for the scanning lines is completed, step SA
The determination result of 7 is "YES", the process proceeds to step SA8, the value of the register X is reset to zero again, and the value of the register Y is incremented by 1 to update the scanning line in the vertical direction.

【0051】そして、ステップSA9に進むと、処理部
40はレジスタYの値が「96」であるか否かを判断す
る。ここで、レジスタYの値が「96」に達していない
場合には、判断結果が「NO」となり、上述したステッ
プSA5〜SA8を繰り返す。そして、いま、1フレー
ム分(1画面分)の走査が完了したとする。そうする
と、上記ステップSA9の判断結果が「YES」とな
り、処理部40は次のステップSA10に処理を進め
る。ステップSA10では、上記ステップSA5におい
てクロマキー検出されたブロックに基づき、クロマキー
像(バットBAT像)の左端/右端座標および上端/下
端座標を算出する座標検出処理を実行し、これによって
得られるクロマキー像(バットBAT像)の左端/右端
座標および上端/下端座標を、特徴パラメータメモリ4
2の記憶エリアE3〜E6(図8参照)に記憶する一
方、クロマキー検出されたブロック個数の面積を求め、
これを記憶エリアE10に格納する。以上のようにバッ
トBAT像のクロマキー検出がなされると、処理部40
はステップSA11へ処理を進め、当該バットBAT像
の重心位置を求める。そして、このステップSA11以
後は、その処理をステップSA4に戻し、上述した動作
を順次繰り返してフレーム毎のクロマキー像抽出を行
う。
Then, in step SA9, the processing section 40 determines whether or not the value of the register Y is "96". Here, when the value of the register Y has not reached "96", the determination result is "NO", and steps SA5 to SA8 described above are repeated. Then, it is assumed that scanning for one frame (one screen) is completed. Then, the determination result of step SA9 becomes “YES”, and the processing unit 40 advances the processing to the next step SA10. In step SA10, a coordinate detection process of calculating the left edge / right edge coordinates and the upper edge / lower edge coordinates of the chroma key image (butt BAT image) is executed based on the block detected in the chroma key in step SA5, and the chroma key image ( The left edge / right edge coordinates and the upper edge / lower edge coordinates of the bat BAT image) are stored in the feature parameter memory 4
2 storage areas E3 to E6 (see FIG. 8), while obtaining the area of the number of blocks detected by the chroma key,
This is stored in the storage area E10. When the chroma key detection of the bat BAT image is performed as described above, the processing unit 40
Advances the processing to step SA11 to obtain the position of the center of gravity of the bat BAT image. Then, after step SA11, the processing is returned to step SA4, and the above-described operation is sequentially repeated to extract the chroma key image for each frame.

【0052】初期画面マップ作成ルーチンの動作 次に、図10を参照して初期画面マップ作成ルーチンの
動作について説明する。上述したように、初期画面マッ
プが作成されていない場合、位置検出処理部40はステ
ップSA3に処理を進め、図10に示す初期画面マップ
作成ルーチンを実行してステップSB1に処理を進め
る。ステップSB1では、内部レジスタにセットされる
サンプリング回数nを読み出す。サンプリング回数nと
は、撮像部1から供給されるクロマキー検出信号CRO
を何フレーム分取り込むかを表わすものである。次い
で、ステップSB2に進むと、レジスタX,Yの値をゼ
ロリセットし、次のステップSB3に進む。ステップS
B3では、ラインバッファに取込まれたクロマキー検出
信号CROの内、X方向(水平方向)の6ドット分、Y
方向(垂直方向)の2ライン分、すなわち、1ブロック
分を読み出す。
Operation of Initial Screen Map Creating Routine Next, the operation of the initial screen map creating routine will be described with reference to FIG. As described above, when the initial screen map is not created, the position detection processing unit 40 advances the processing to step SA3, executes the initial screen map creation routine shown in FIG. 10, and advances the processing to step SB1. In step SB1, the sampling number n set in the internal register is read. The sampling number n is the chroma key detection signal CRO supplied from the image pickup unit 1.
It shows how many frames are taken in. Next, when proceeding to step SB2, the values of the registers X and Y are reset to zero, and then proceeding to the next step SB3. Step S
At B3, of the chroma key detection signal CRO fetched in the line buffer, 6 dots in the X direction (horizontal direction), Y
Two lines in the direction (vertical direction), that is, one block is read.

【0053】次いで、ステップSB4に進むと、この読
み出した1ブロック中に「6ドット」以上の「H」レベ
ルのクロマキー検出信号CROが存在するか否かを判断
する。ここで、「6ドット」以上存在しなければ、「ク
ロマキー無し」として判断結果が「NO」となり、ステ
ップSB5に進む。ステップSB5では、そのブロック
属性を「0」として次のステップSB7へ処理を進め
る。一方、これに対し、「6ドット」以上存在すると、
「クロマキー有り」とされて、判断結果が「YES」と
なり、ステップSB6に進む。ステップSB6では、そ
のブロック属性を「1」にセットし、次のステップSB
7へ処理を進める。ステップSB7では、最初のフレー
ムであるか否かを判断する。ここで、最初にサンプリン
グしたフレームであると、判断結果は「YES」とな
り、ステップSB8に進む。
Next, in step SB4, it is judged whether or not there is a "H" level chroma key detection signal CRO of "6 dots" or more in the read one block. If "6 dots" or more does not exist, the determination result is "no chroma key" and the determination result is "NO", and the process proceeds to step SB5. In step SB5, the block attribute is set to "0" and the process proceeds to the next step SB7. On the other hand, if there are more than 6 dots,
It is determined that "chroma key is present", the determination result is "YES", and the process proceeds to step SB6. In step SB6, the block attribute is set to "1", and the next step SB
Processing proceeds to 7. In step SB7, it is determined whether or not it is the first frame. Here, if it is the first sampled frame, the determination result is "YES", and the process proceeds to step SB8.

【0054】ステップSB8に進むと、位置検出処理部
40は、現レジスタX,Yの値に応じて初期画面エリア
E1へ判定したブロック属性をストアする。そして、こ
の後、ステップSB9に進み、レジスタXの値を1イン
クリメントし、指定ブロックの番号を歩進させる。次
に、ステップSB10に進むと、この歩進された指定ブ
ロックの番号が「96」、つまり、1走査(水平)ライ
ン分完了したか否かを判断する。ここで、完了していな
い場合には、判断結果が「NO」となり、ステップSB
11に進む。ステップSB11では、レジスタYの値が
「96」、つまり、1フレーム分終了したか否かを判断
する。ここで、1フレーム分の処理が終了していない場
合には、判断結果が「NO」となり、前述したステップ
SB3に戻る。これにより、ステップSB3〜SB6が
繰り返され、次のブロック属性が判定される。
In step SB8, the position detection processing section 40 stores the determined block attribute in the initial screen area E1 according to the values of the current registers X and Y. Then, after that, the process proceeds to Step SB9, the value of the register X is incremented by 1, and the number of the designated block is incremented. Next, in step SB10, it is determined whether or not the number of the stepped designated block is "96", that is, one scanning (horizontal) line is completed. Here, if not completed, the determination result is “NO”, and step SB
Proceed to 11. In step SB11, it is determined whether the value of the register Y is "96", that is, whether one frame has been completed. Here, if the processing for one frame is not completed, the determination result is “NO”, and the process returns to step SB3 described above. As a result, steps SB3 to SB6 are repeated and the next block attribute is determined.

【0055】そして、例えば、いま、1走査(水平)ラ
イン分のブロック属性の判定が完了したとする。そうす
ると、ステップSB10の判断結果が「YES」とな
り、処理部40はステップSB13へ処理を進める。ス
テップSB13では、レジスタXをゼロリセットする一
方、レジスタYの値を1インクリメントして走査ライン
を更新する。そして、この後、再び、ステップSB11
を介してステップSB3以降のブロック判定がなされ
る。次いで、1フレーム分のブロック属性について判定
が完了すると、上述したステップSB11の判断結果が
「YES」となり、ステップSB12に進む。ステップ
SB12では、サンプリング回数nが設定回数に達した
か否かを判断する。
Then, for example, it is assumed that the determination of the block attribute for one scanning (horizontal) line is completed. Then, the determination result of step SB10 becomes "YES", and the processing unit 40 advances the process to step SB13. In step SB13, the register X is reset to zero, and the value of the register Y is incremented by 1 to update the scan line. Then, after this, again, step SB11
Block determination from step SB3 onward is performed via. Next, when the determination of the block attribute for one frame is completed, the above-mentioned determination result of step SB11 becomes "YES", and the process proceeds to step SB12. In step SB12, it is determined whether the sampling number n has reached the set number.

【0056】ここで、設定回数に達していない場合に
は、判断結果が「NO」となり、ステップSB14へ処
理を進める。ステップSB14では、サンプリング回数
nを歩進させ、再び前述したステップSB2以降を実行
する。こうして1回目の初期画面マップが作成され、2
回目の初期画面マップの作成を行う過程で、ステップS
B7に進むと、ここでの判断結果が「NO」となり、ス
テップSB15に進む。ステップSB15では、先にス
トアされた対応ブロック属性をレジスタX,Yの値に応
じて初期画面エリアE1から読み出す。そして、ステッ
プSB16に進むと、先のブロック属性と、現在判定さ
れたブロック属性との論理和を求める。続いて、ステッ
プSB8では、この論理和を新たなブロック属性として
レジスタX,Yの値に基づき初期画面エリアE1にスト
アする。そして、所定フレーム分の論理和が生成される
と、上述したステップSB12の判断結果が「YES」
となり、このルーチンを終了し、位置検出処理部40の
処理は前述したメインルーチンへ復帰する。
If the set number of times has not been reached, the determination result is "NO", and the process proceeds to step SB14. In step SB14, the number of times of sampling n is incremented, and the above-mentioned step SB2 and subsequent steps are executed again. In this way, the first initial screen map is created,
In the process of creating the initial screen map for the second time, step S
When proceeding to B7, the determination result here becomes "NO", and the routine proceeds to step SB15. In step SB15, the corresponding block attribute stored previously is read from the initial screen area E1 according to the values of the registers X and Y. Then, in step SB16, the logical sum of the previous block attribute and the currently determined block attribute is obtained. Then, in step SB8, this logical sum is stored as a new block attribute in the initial screen area E1 based on the values of the registers X and Y. Then, when the logical sum of a predetermined number of frames is generated, the determination result of step SB12 described above is "YES".
Then, this routine is ended, and the processing of the position detection processing unit 40 returns to the main routine described above.

【0057】処理画面マップ作成ルーチンの動作 初期画面マップが作成されると、位置検出処理部40は
ステップSA5を介して図11に示す処理画面マップ作
成ルーチンを実行してステップSC1に処理を進める。
ステップSC1では、ラインバッファに書き込まれたク
ロマキー検出信号CROの内、X方向(水平方向)6ド
ット、Y方向(垂直方向)2ラインからなる1ブロック
を読み出す。次いで、ステップSC2に進むと、その読
み出した1ブロック内に「6ドット」以上の「H」レベ
ルのクロマキー検出信号CROが存在するか否かを判断
する。ここで、「6ドット」以上存在しなければ、「ク
ロマキー無し」として判断結果が「NO」となり、ステ
ップSC3に進む。ステップSC3では、そのブロック
属性を「0」として次のステップSC4へ処理を進め
る。ステップSC4では、この判定されたブロック属性
をレジスタX,Yの値に基づき処理画面エリアE2(図
8参照)にストアする。
Operation of Processing Screen Map Creation Routine When the initial screen map is created, the position detection processing section 40 executes the processing screen map creation routine shown in FIG. 11 through step SA5 and advances the processing to step SC1.
In step SC1, one block consisting of 6 dots in the X direction (horizontal direction) and 2 lines in the Y direction (vertical direction) is read from the chroma key detection signal CRO written in the line buffer. Next, in step SC2, it is determined whether or not there is a "H" level chroma key detection signal CRO of "6 dots" or more in the read one block. If "6 dots" or more does not exist, the determination result is "no chroma key" and the result is "NO", and the process proceeds to step SC3. In step SC3, the block attribute is set to "0" and the process proceeds to the next step SC4. In step SC4, the determined block attribute is stored in the processing screen area E2 (see FIG. 8) based on the values of the registers X and Y.

【0058】一方、上記ステップSC2の判断結果が
「YES」となった場合、すなわち、1ブロック内に
「6ドット」以上の「H」レベルのクロマキー検出信号
CROが存在する時には、処理部40はステップSC5
に処理を進める。ステップSC5では、リジェクトスイ
ッチSRがオン操作されているか否かを判断する。この
リジェクトスイッチSRとは、装置本体2の操作パネル
に配設されるスイッチであり、そのスイッチ操作に応じ
て「不感帯」を設けるか否かを設定するものである。こ
こで、当該スイッチSRがオン設定されている場合に
は、初期画面マップに記憶されたクロマキー検出ブロッ
クを「不感帯」と見做すようにする。
On the other hand, when the result of the determination in step SC2 is "YES", that is, when there is a "H" level chroma key detection signal CRO of "6 dots" or more in one block, the processing section 40 Step SC5
Proceed to. In step SC5, it is determined whether or not the reject switch SR has been turned on. The reject switch SR is a switch arranged on the operation panel of the apparatus main body 2, and is for setting whether or not to provide a "dead zone" according to the switch operation. Here, when the switch SR is turned on, the chroma key detection block stored in the initial screen map is regarded as a “dead zone”.

【0059】すなわち、上記ステップSC5において、
リジェクトスイッチSRがオン設定されている場合に
は、判断結果が「YES」となり、次のステップSC6
に進む。ステップSC6では、初期画面エリアE1から
レジスタX,Yの値に応じて対応するブロック属性を読
み出す。次いで、ステップSC7に進むと、初期画面エ
リアE1から読み出したブロック属性が「1」であるか
否かを判断する。ここで、当該ブロック属性が「1」で
ある時、その判断結果は「YES」となり、上述したス
テップSC3に進み、ブロック属性を「0」に変更し、
その後、ステップSC4を介して、この変更されたブロ
ック属性をレジスタX,Yの値に応じて処理画面エリア
E2に書き込む。この結果、初期画面マップに記憶され
たクロマキー検出ブロックが「不感帯」に設定される訳
である。
That is, in step SC5,
When the reject switch SR is set to ON, the determination result is "YES", and the next step SC6
Proceed to. At step SC6, the block attribute corresponding to the values of the registers X and Y is read from the initial screen area E1. Next, in step SC7, it is determined whether the block attribute read from the initial screen area E1 is "1". Here, when the block attribute is “1”, the determination result is “YES”, the process proceeds to step SC3 described above, and the block attribute is changed to “0”,
Then, the changed block attribute is written in the processing screen area E2 in accordance with the values of the registers X and Y via step SC4. As a result, the chroma key detection block stored in the initial screen map is set to the "dead zone".

【0060】なお、上記リジェクトスイッチSRがオン
設定されない場合、つまり、「不感帯」を設定しない時
には、ステップSC5の判断結果が「NO」となり、ス
テップSC8に進む。ステップSC8では、上述したス
テップSC2において判定された結果に基づき、対応す
るブロックの属性を「1」に設定し、続いて、ステップ
SC4を介してそのブロック属性をレジスタX,Yの値
に応じて処理画面エリアE2に書き込む。
When the reject switch SR is not set to ON, that is, when the "dead zone" is not set, the determination result of step SC5 is "NO", and the process proceeds to step SC8. In step SC8, the attribute of the corresponding block is set to "1" based on the result determined in step SC2 described above, and then the block attribute is set in accordance with the values of the registers X and Y via step SC4. Write in the processing screen area E2.

【0061】座標検出ルーチンの動作 次に、図12を参照して座標検出ルーチンの動作につい
て説明する。位置検出処理部40はステップSA10
(図9参照)を介して座標検出ルーチンを実行し、ステ
ップSE1に処理を進める。ステップSE1では、レジ
スタX,Yと、レジスタX’,Y’と、レジスタSとを
それぞれゼロリセットして初期化する。なお、レジスタ
Sには、後述する動作によってブロック個数を累算して
なるバットBAT像の面積が格納される。また、レジス
タX’,Y’に格納される値については後述する。
Operation of Coordinate Detection Routine Next, the operation of the coordinate detection routine will be described with reference to FIG. The position detection processing unit 40 executes step SA10.
The coordinate detection routine is executed via (see FIG. 9), and the process proceeds to step SE1. In step SE1, the registers X and Y, the registers X ′ and Y ′, and the register S are reset to zero and initialized. Note that the register S stores the area of the bat BAT image obtained by accumulating the number of blocks by the operation described later. The values stored in the registers X'and Y'will be described later.

【0062】続いて、ステップSE2に進むと、処理部
40は特徴パラメータメモリ42の処理画面エリアE2
からレジスタX,Yの値に対応するブロック属性を読み
出してステップSE3に処理を進める。ステップSE3
では、その読み出したブロック属性が「1」、すなわ
ち、クロマキー検出されたバットBAT像であるか否か
を判断する。ここで、ブロック属性が「1」でない場合
には、判断結果が「NO」となり、ステップSE4に進
む。ステップSE4では、レジスタXの値を1インクリ
メントして歩進させる。そして、ステップSE5に進む
と、歩進されたレジスタXの値が「96」、つまり、1
水平(走査)ライン分のブロック属性を読み出したか否
かを判断する。ここで、1水平ライン分の読み出しが完
了していない場合には、判断結果が「NO」となり、再
び上記ステップSE2へ処理を戻す。
Subsequently, in step SE2, the processing section 40 causes the processing screen area E2 of the characteristic parameter memory 42 to be processed.
The block attributes corresponding to the values of the registers X and Y are read from and the process proceeds to step SE3. Step SE3
Then, it is determined whether or not the read block attribute is “1”, that is, the bat BAT image detected by the chroma key. Here, if the block attribute is not "1", the determination result is "NO", and the process proceeds to step SE4. At step SE4, the value of the register X is incremented by 1 to advance. Then, when the process proceeds to step SE5, the value of the stepped register X is "96", that is, 1
It is determined whether or not the block attributes for horizontal (scanning) lines have been read. Here, if the reading for one horizontal line is not completed, the determination result is "NO", and the process is returned to the step SE2 again.

【0063】そして、例えば、このステップSE2にお
いて読み出したブロック属性が「1」であったとする。
そうすると、次のステップSE3の判断結果が「YE
S」となり、ステップSE6に処理を進める。ステップ
SE6では、レジスタXの値がレジスタX’の値より大
であるか否かを判断する。レジスタX’には、前回検出
したX座標がセットされており、この座標値と今回の座
標値との比較結果に応じて右端/左端座標を更新するよ
うにしている。つまり、ここでの判断結果が「NO」に
なると、ステップSE7に進み、レジスタXの値を左端
座標エリアE5(図8参照)にストアしてバットBAT
像の左端座標を更新する。一方、ステップSE6の判断
結果が「YES」になると、ステップSE8に進み、レ
ジスタXの値を右端座標エリアE6(図8参照)にスト
アしてバットBAT像の右端座標を更新する。
Then, for example, it is assumed that the block attribute read in step SE2 is "1".
Then, the determination result of the next step SE3 is "YE
S ”, and the process proceeds to step SE6. In step SE6, it is determined whether the value of register X is larger than the value of register X '. The previously detected X coordinate is set in the register X ', and the right end / left end coordinates are updated according to the result of comparison between this coordinate value and the present coordinate value. That is, when the determination result here is "NO", the flow proceeds to step SE7, the value of the register X is stored in the leftmost coordinate area E5 (see FIG. 8), and the bat BAT is stored.
Update the left edge coordinates of the image. On the other hand, when the determination result of step SE6 is "YES", the process proceeds to step SE8, the value of the register X is stored in the right end coordinate area E6 (see FIG. 8), and the right end coordinate of the bat BAT image is updated.

【0064】次いで、ステップSE9に進むと、処理部
40は、レジスタYの値がレジスタY’の値より大であ
るか否かを判断する。ここで、レジスタY’は、上記レ
ジスタX’と同様に、前回検出したY座標がセットされ
ており、この座標値と今回の座標値との比較結果に応じ
て上端/下端座標を更新するようにしている。つまり、
判断結果が「NO」になると、ステップSE10に進
み、レジスタYの値を上端座標エリアE3(図8参照)
にストアしてバットBAT像の上端座標を更新する。一
方、ステップSE9の判断結果が「YES」になると、
ステップSE11に進み、レジスタYの値を下端座標エ
リアE4(図8参照)にストアしてバットBAT像の下
端座標を更新する。
Next, in step SE9, the processing section 40 determines whether or not the value of the register Y is larger than the value of the register Y '. Here, in the register Y ', similarly to the register X', the previously detected Y coordinate is set, and the upper end / lower end coordinates are updated according to the comparison result of this coordinate value and the present coordinate value. I have to. That is,
When the result of the determination is "NO", the flow proceeds to step SE10 and the value of the register Y is set to the upper end coordinate area E3 (see FIG. 8).
And the upper end coordinates of the BAT BAT image are updated. On the other hand, if the determination result of step SE9 is “YES”,
In step SE11, the value of the register Y is stored in the lower end coordinate area E4 (see FIG. 8) to update the lower end coordinate of the bat BAT image.

【0065】そして、ステップSE12では、レジスタ
Sの値を1インクリメントし、面積を1ブロック増加さ
せる。続いて、ステップSE13に進むと、レジスタ
X,Yの値をそれぞれレジスタX’,Y’に書き換え
る。こうして上記ステップSE2〜SE13の処理が1
水平ライン分なされると、上述したステップSE5の判
断結果が「YES」となり、ステップSE14に進み、
レジスタXの値をゼロリセットすると共に、レジスタY
の値を1歩進させる。次いで、ステップSE15に進む
と、レジスタYの値が「96」、つまり、1フレーム分
の座標検出がなされたか否かを判断する。そして、1フ
レーム分の座標検出が完了していない場合には、前述し
たステップSE2以降が繰り返される。一方、1フレー
ム分の座標検出が完了した時には、このルーチンから前
述したメインルーチン(図9参照)へ処理を戻す。
Then, in step SE12, the value of the register S is incremented by 1 to increase the area by 1 block. Then, in step SE13, the values of the registers X and Y are rewritten into the registers X'and Y ', respectively. Thus, the processing of steps SE2 to SE13 is 1
When the horizontal line is completed, the determination result of the above-mentioned step SE5 becomes "YES", and the process proceeds to step SE14,
The value of register X is reset to zero and register Y
Increments the value of. Next, in step SE15, it is determined whether the value of the register Y is "96", that is, whether or not the coordinates of one frame have been detected. Then, when the coordinate detection for one frame is not completed, the above-mentioned step SE2 and subsequent steps are repeated. On the other hand, when the coordinate detection for one frame is completed, the process is returned from this routine to the above-mentioned main routine (see FIG. 9).

【0066】重心計算ルーチンの動作 上記座標検出ルーチンによって、クロマキー検出された
バットBAT像の左端/右端座標および上端/下端座標
が検出されると、位置検出処理部40はステップSA1
2を介して図13に示す重心計算ルーチンを実行し、ス
テップSF1に処理を進める。まず、ステップSF1で
は、レジスタXG,YGをゼロリセットする。レジスタ
XG,YGは、それぞれクロマキー検出されたブロック
に基づいて算出されるバットBAT像の重心座標が格納
されるものである。次に、ステップSF2に進むと、レ
ジスタX,Yを初期化し、続いて、ステップSF3で
は、特徴パラメータメモリ42の処理画面エリアE2か
らレジスタX,Yの値に対応するブロック属性を読み出
す。
Operation of Center of Gravity Calculation Routine When the coordinate detection routine detects the left edge / right edge coordinates and the upper edge / lower edge coordinates of the chroma key-detected bat BAT image, the position detection processing section 40 causes the position detection processing unit 40 to execute step SA1.
The center of gravity calculation routine shown in FIG. 13 is executed via 2, and the process proceeds to step SF1. First, in step SF1, the registers XG and YG are reset to zero. The registers XG and YG store the barycentric coordinates of the bat BAT image calculated based on the blocks detected by the chroma key. Next, in step SF2, the registers X and Y are initialized, and subsequently, in step SF3, the block attributes corresponding to the values of the registers X and Y are read from the processing screen area E2 of the characteristic parameter memory 42.

【0067】次に、ステップSF4に進むと、処理部4
0は、この読み出したブロック属性が「1」、すなわ
ち、クロマキー検出されたバットBAT像であるか否か
を判断する。ここで、ブロック属性が「1」でない場合
には、判断結果が「NO」となり、ステップSF5に進
む。ステップSF5では、レジスタXの値を1インクリ
メントして歩進させる。そして、ステップSF6に進む
と、レジスタXの値が「96」、つまり、1水平(走
査)ライン分のブロック属性を読み出したか否かを判断
する。ここで、1水平ライン分の読み出しが完了してい
ない場合には、判断結果が「NO」となり、再び上記ス
テップSF3に処理を戻す。
Next, in step SF4, the processing unit 4
0 determines whether or not the read block attribute is "1", that is, the bat BAT image subjected to the chroma key detection. Here, when the block attribute is not "1", the determination result is "NO", and the process proceeds to step SF5. At step SF5, the value of the register X is incremented by 1 to advance. Then, in step SF6, it is determined whether or not the value of the register X is "96", that is, the block attribute for one horizontal (scanning) line is read. Here, when the reading for one horizontal line is not completed, the determination result is “NO”, and the process is returned to the step SF3 again.

【0068】そして、例えば、次に読み出したブロック
属性が「1」であるとする。そうすると、ステップSF
4の判断結果は「YES」となり、処理部40はステッ
プSF7に処理を進める。ステップSF7では、クロマ
キー検出されたブロックを質点と見做し、このブロック
の座標(X,Y)と面積Sとの比を順次累算する重心計
算を行う。なお、この面積Sは上述した座標検出ルーチ
ンにおいてレジスタSに格納されるものである。次い
で、ステップSF8に進むと、上記ステップSF7の重
心計算結果に応じて重心座標を更新し、続いて、ステッ
プSF5においてレジスタXの値を歩進させる。
Then, for example, assume that the next read block attribute is "1". Then, step SF
The determination result of 4 is "YES", and the processing unit 40 advances the processing to step SF7. In step SF7, the block in which the chroma key is detected is regarded as a mass point, and the center of gravity is calculated by sequentially accumulating the ratio of the coordinates (X, Y) of this block and the area S. The area S is stored in the register S in the coordinate detection routine described above. Next, in step SF8, the barycentric coordinates are updated according to the barycenter calculation result in step SF7, and subsequently, in step SF5, the value of the register X is incremented.

【0069】ここで、1水平ライン分の読み出しが完了
したとすると、ステップSF6の判断結果が「YES」
となり、ステップSF9に進み、レジスタXの値をゼロ
リセットすると共に、レジスタYの値を1歩進させる。
次いで、ステップSF10に進むと、レジスタYの値が
「96」、つまり、1フレーム分の重心計算がなされた
か否かを判断する。そして、1フレーム分の重心計算が
完了していない場合には、判断結果が「NO」となり、
前述したステップSF3以降の処理を繰り返す。一方、
1フレーム分の重心計算が完了した時には、判断結果が
「YES」となり、このルーチンを終了してメインルー
チン(図9参照)に復帰する。
Here, assuming that the reading for one horizontal line is completed, the determination result of step SF6 is "YES".
In step SF9, the value of register X is reset to zero and the value of register Y is incremented by one.
Next, in step SF10, it is determined whether or not the value of the register Y is "96", that is, whether the gravity center calculation for one frame has been performed. When the calculation of the center of gravity for one frame is not completed, the determination result is “NO”,
The processing from step SF3 onward is repeated. on the other hand,
When the calculation of the center of gravity for one frame is completed, the determination result becomes "YES", the routine is ended and the process returns to the main routine (see FIG. 9).

【0070】このように、位置検出処理部40では、撮
像部1側から供給されるサンプリング画像データDS
に含まれるバットBAT像をクロマキー検出信号CRO
に基づいて検出し、これを1フレーム毎の処理画面マッ
プとして登録する。そして、この処理画面マップから読
み出したブロック属性に基づき処理画面におけるバット
BAT像の左端/右端座標および上端/下端座標を求め
ると共に、その面積と重心位置とを算出し、これらパラ
メータを特徴パラメータメモリ42にセットする。
As described above, in the position detection processing section 40, the bat BAT image included in the sampling image data D S supplied from the image pickup section 1 side is converted into the chroma key detection signal CRO.
Is registered as a processing screen map for each frame. Then, based on the block attributes read from the processing screen map, the left end / right end coordinates and the upper end / lower end coordinates of the bat BAT image on the processing screen are obtained, and the area and center of gravity position are calculated, and these parameters are stored in the characteristic parameter memory 42. Set to.

【0071】(2)制御部70(CPU71)の動作 次に、上述した位置検出処理部40によって生成される
特徴パラメータに基づき、仮想的なバッティングをシミ
ュレートするCPU71の動作について図14〜図16
を参照して説明する。CPU71では、マルチタスクモ
ニタ環境下で「タスク0」と「タスク1」とが並列的に
処理されると共に、前述した仮想空間内衝突判定手段6
4(図3参照)が発生する割込み信号IRに従って「割
込みタスク」が割り込み実行される。以下では、まず、
メインタスクである「タスク0ルーチン」について説明
した後、所定のイベントに応じてタスク切換される「タ
スク1ルーチン」について説明する。なお、タスク切換
えは、例えば、一定周期毎に「タスク0」と「タスク
1」とを交互に切換えたり、あるいはBIOSのI/O
待ちで切換える。また、割込み信号IRが発生した時に
は、このタスク切換えに優先して「割込みタスク」が処
理される。
(2) Operation of Control Unit 70 (CPU 71) Next, the operation of the CPU 71 which simulates virtual batting based on the characteristic parameters generated by the position detection processing unit 40 described above will be described with reference to FIGS.
Will be described with reference to. In the CPU 71, "task 0" and "task 1" are processed in parallel in a multi-task monitor environment, and the collision determining means 6 in the virtual space described above is also processed.
4 (see FIG. 3), the "interrupt task" is executed by interruption in accordance with the interrupt signal IR. In the following, first
After the "task 0 routine" that is the main task is described, the "task 1 routine" in which the task is switched according to a predetermined event will be described. It should be noted that the task switching may be performed, for example, by alternately switching between "task 0" and "task 1" at regular intervals, or by the BIOS I / O.
Switch while waiting. When the interrupt signal IR is generated, the "interrupt task" is processed in priority to this task switching.

【0072】タスク0ルーチンの動作 装置本体2の電源投入により、CPU71はプログラム
メモリ73に記憶されたオペレーションシステムプログ
ラムを読み出してロードしてリアルタイムモニタを起動
すると共に、当該メモリ73からアプリケーションプロ
グラムを読み出してワークRAM52に展開する。これ
により、図14に示すタスク0ルーチンが実行され、C
PU71の処理がステップSG1に進む。ステップSG
1では、前述した位置検出処理部40が特徴パラメータ
メモリ42にセットしたパラメータ、つまり、バットB
AT像の重心座標位置およびその面積を読み出す。
Operation of Task 0 Routine When the apparatus main body 2 is turned on, the CPU 71 reads out and loads the operation system program stored in the program memory 73 to activate the real-time monitor, and at the same time reads the application program from the memory 73. It is expanded in the work RAM 52. As a result, the task 0 routine shown in FIG. 14 is executed, and C
The process of PU71 progresses to step SG1. Step SG
1, the parameter set in the characteristic parameter memory 42 by the position detection processing unit 40 described above, that is, the bat B
The barycentric coordinate position of the AT image and its area are read out.

【0073】続いて、ステップSG2に進むと、特徴パ
ラメータメモリ42から読み出したバットBAT像の重
心座標位置およびその面積に基づき「バット」の3次元
座標を発生する。すなわち、読み出した重心座標位置に
よってxy面内の座標が定まり、これをバットBAT像
の面積の大きさに応じてz軸座標(距離)に変換するこ
とで「バット」の3次元座標位置を求め、これを操作子
座標メモリ61(図3参照)に書き込む。そして、ステ
ップSG3では、バットBAT像の面積変化率に基づき
「バット」のスイング速度やスイングピークを算出し、
これら「バット」操作に関わるパラメータをワークRA
M72に書き込み、この後、再びステップSG1へ処理
を戻す。なお、ここで言うバットBAT像の面積変化率
とは、前回抽出された面積値と今回抽出した面積値との
変化分を指し、この変化分に基づきスイング速度を導出
したり、その速度が最大となるスイングピークを導出す
る。
Subsequently, proceeding to step SG2, three-dimensional coordinates of the "bat" are generated based on the barycentric coordinate position of the bat BAT image read from the characteristic parameter memory 42 and its area. That is, the coordinates in the xy plane are determined by the read barycentric coordinate position, and the three-dimensional coordinate position of the “bat” is obtained by converting this into the z-axis coordinate (distance) according to the size of the area of the BAT BAT image. , And writes this in the manipulator coordinate memory 61 (see FIG. 3). Then, in step SG3, the swing speed and swing peak of the “bat” are calculated based on the area change rate of the bat BAT image,
The parameters related to these "bat" operations are the work RA
After writing to M72, the process is returned to step SG1 again. In addition, the area change rate of the bat BAT image here refers to a change amount between the previously extracted area value and the currently extracted area value, and the swing speed is derived based on this change amount or the speed is the maximum. Then, the swing peak is derived.

【0074】このように、タスク0ルーチンでは、特徴
パラメータメモリ42から読み出したバットBAT像の
重心位置と面積値とに応じて仮想空間SP3内における
「バット」の3次元座標位置を求める一方、スイング速
度やそのピークを逐次導出する。こうして得られた「バ
ット」の3次元座標位置は、仮想空間内衝突判定手段6
4(図3参照)においてなされる衝突判定の条件パラメ
ータとして扱われる。一方、「バット」のスイング速度
やスイングピークは、後述する割込みタスクルーチンに
おいてバッティング操作に対応した打撃態様をシミュレ
ートする際のパラメータとして用いられるようになって
おり、その意図するところは追って説明する。
As described above, in the task 0 routine, the three-dimensional coordinate position of the “bat” in the virtual space SP3 is obtained according to the barycentric position and the area value of the bat BAT image read from the characteristic parameter memory 42, while swinging. The velocity and its peak are sequentially derived. The three-dimensional coordinate position of the “bat” thus obtained is used as the collision determination means 6 in the virtual space.
4 (see FIG. 3), it is treated as a condition parameter for the collision determination. On the other hand, the swing speed and the swing peak of the “bat” are used as parameters when simulating the batting mode corresponding to the batting operation in the interrupt task routine described later, and the intended purpose will be described later. .

【0075】タスク1ルーチンの動作 次に、図15を参照してタスク1ルーチンの動作につい
て説明する。タスク1ルーチンでは、仮想空間SP2
(図2参照)内における「ボール」と「バット」との衝
突判定条件を設定すると共に、仮想的に投球される「ボ
ール」の球種(軌跡)を定め、定めた球種(軌跡)によ
る「ボール(オブジェクト画像)」の投球過程をシミュ
レートする。つまり、仮想空間SP1内では遊戯者B
(打者)側へ「ボール(オブジェクト画像)」が接近し
てくるように見えるよう表示制御し、これ以後の仮想空
間SP2ではあたかも打者の手元に飛んでくる状態に対
応させて「ボール(オブジェクト画像)」を非表示とす
る。そして、キャッチャー位置に「ボール」が到達した
時点で「捕球音」や、アンパイヤの「判定コール」の音
声合成を指示する効果音制御も行う。以下、これら動作
について詳述する。
Operation of Task 1 Routine Next, the operation of the task 1 routine will be described with reference to FIG. In the task 1 routine, the virtual space SP2
(Refer to FIG. 2) In addition to setting the collision determination condition between the "ball" and the "bat", the ball type (trajectory) of the virtually thrown "ball" is determined and determined according to the determined ball type (trajectory). Simulate the process of throwing a "ball (object image)". That is, in the virtual space SP1, the player B
The display control is performed so that the “ball (object image)” appears to be approaching to the (batter) side, and in the virtual space SP2 thereafter, the “ball (object image)” is associated with the state that the ball is flying to the batter. ) ”Is hidden. Then, when the "ball" reaches the catcher position, the sound effect control for instructing the voice synthesis of the "ball catching sound" and the umpire "judgment call" is also performed. Hereinafter, these operations will be described in detail.

【0076】いま、例えば、CPU71が上述したタス
ク0ルーチンを処理している時に、I/O待ちになった
とする。そうすると、タスク切換えがなされて図15に
示すタスク1ルーチンが起動され、CPU71はステッ
プSH1へ処理を進める。ステップSH1では、装置本
体2のパネル面(図示略)にて設定される動作レベルに
従った衝突判定パラメータを生成し、これを衝突判定パ
ラメータメモリ62に書き込む。判定パラメータとは、
バットBATの3次元座標位置に対応して定められる衝
突可能領域と、バットBATのミートタイミングの範囲
とで形成される。
It is assumed that, for example, the CPU 71 is waiting for I / O while processing the above-described task 0 routine. Then, task switching is performed, the task 1 routine shown in FIG. 15 is activated, and the CPU 71 advances the process to step SH1. In step SH1, a collision determination parameter according to the operation level set on the panel surface (not shown) of the apparatus body 2 is generated, and this is written in the collision determination parameter memory 62. What is a judgment parameter?
It is formed of a collision possible area defined corresponding to the three-dimensional coordinate position of the bat BAT and a range of the meet timing of the bat BAT.

【0077】次いで、ステップSH2に進むと、仮想的
に投球される「ボール」の球種、例えば、「カーブ」や
「スライダ」などの複数の球種の内からいずれか択一選
択された球種を表わすデータをワークRAM73の所定
エリアに登録する。こうして、衝突判定パラメータと投
球パラメータとが定まると、CPU71は次のステップ
SH3に進み、設定された投球パラメータに従った球種
の軌跡を表わすボール座標データ(3次元座標[x
(t),y(t),z(t)])を生成し、これをオブ
ジェクト座標メモリ63(図3参照)に書き込む。
Next, at step SH2, the ball type of the "ball" virtually pitched, for example, a ball selected from a plurality of ball types such as "curve" and "slider" is selected. The data representing the seed is registered in a predetermined area of the work RAM 73. In this way, when the collision determination parameter and the pitching parameter are determined, the CPU 71 proceeds to the next step SH3, and the ball coordinate data (three-dimensional coordinate [x
(T), y (t), z (t)]) and writes this in the object coordinate memory 63 (see FIG. 3).

【0078】そして、CPU71は、ステップSH4に
進むと、「ボール像(オブジェクト画像)」が仮想空間
SP1内に存在するか否かを判断する。この判断は、ゲ
ーム進行を管理するタイマカウント値tと、当該カウン
ト値tに対応付けられたボール座標データのz座標値z
(t)とに基づいてなされる。ここで、「ボール像(オ
ブジェクト画像)」が仮想空間SP1内に存在すると判
断された場合には、判断結果が「YES」となり、次の
ステップSH5に進む。ステップSH5では、現タイマ
カウント値tに対応するボール座標データ[x(t),
y(t),z(t)]を読み出し、これをxy面上へ写
像変換してなる画面座標位置に、当該ボール座標データ
のz座標値z(t)に対応した大きさの「ボール像(オ
ブジェクト画像)」を表示させるよう画像処理部30へ
指示する。
When the CPU 71 proceeds to step SH4, it determines whether or not the "ball image (object image)" exists in the virtual space SP1. This determination is based on the timer count value t for managing the progress of the game and the z coordinate value z of the ball coordinate data associated with the count value t.
(T) and based on. Here, when it is determined that the “ball image (object image)” exists in the virtual space SP1, the determination result is “YES”, and the process proceeds to the next step SH5. In step SH5, ball coordinate data [x (t), corresponding to the current timer count value t
[y (t), z (t)] is read out, and a "ball image of a size corresponding to the z coordinate value z (t) of the ball coordinate data is placed at the screen coordinate position obtained by mapping and transforming this onto the xy plane. (Object image) ”is instructed to the image processing unit 30.

【0079】なお、画像処理部30は、ディスプレイ3
の垂直帰線期間に同期してCPU71の制御の下にDM
A転送されてくるバックグラウンド画像データDBGおよ
びオブジェクト画像データDOBをVRAM32から順次
読み出して1走査ライン毎のドット表示色を表わす画像
処理データDSPに変換し、これをディスプレイ3に画面
表示するようにしており、これによりディスプレイ3に
は打者側へ接近するように見えるよう順次形状が大きく
なる「ボール像(オブジェクト画像)」が表示されるこ
とになる。
Note that the image processing section 30 includes the display 3
DM under the control of the CPU 71 in synchronization with the vertical blanking period of
A The background image data D BG and the object image data D OB that have been transferred are sequentially read from the VRAM 32, converted into image processing data D SP representing a dot display color for each scanning line, and displayed on the display 3. As a result, the display 3 displays a "ball image (object image)" of which the shape is gradually increased so that the batter appears to approach.

【0080】一方、「ボール像(オブジェクト画像)」
が仮想空間SP1を超えて仮想空間SP2に入った場合
には、上記ステップSH4の判断結果が「NO」とな
り、ステップSH6に進む。ステップSH6に進むと、
CPU71は、現在の「ボール」位置、すなわち、ボー
ル座標データのz座標値z(t)がキャッチャー位置に
到達しているか否かを判断する。ここで、キャッチャー
位置に到達していない場合には、判断結果が「NO」と
なり、再び上記ステップSH3以降の動作を繰り返して
投球状態をシミュレートし続ける。これに対し、ボール
座標データのz座標値z(t)がキャッチャー位置に達
した時には、上記ステップSH6の判断結果が「YE
S」となり、ステップSH7へ処理を進める。
On the other hand, "ball image (object image)"
When the virtual space SP1 exceeds the virtual space SP1 and enters the virtual space SP2, the determination result of the step SH4 becomes "NO", and the process proceeds to step SH6. Going to step SH6,
The CPU 71 determines whether or not the current “ball” position, that is, the z coordinate value z (t) of the ball coordinate data has reached the catcher position. Here, if the catcher position has not been reached, the determination result is "NO", and the operation after step SH3 is repeated again to continue simulating the pitching state. On the other hand, when the z coordinate value z (t) of the ball coordinate data reaches the catcher position, the determination result of the above step SH6 is "YE.
S ”, and the process proceeds to step SH7.

【0081】ステップSH7では、「ボール」が仮想空
間SP2内に置かれるキャッチャー位置に到達したのに
伴い、キャッチャーミットに「ボール」が捕球される際
の効果音を発生すべく、音声出力手段74へ「捕球音」
を発音するよう指示する。次いで、この後、CPU71
はステップSH8に処理を進め、「ボール」がキャッチ
ャー位置に達した時点におけるボール座標データのx座
標値x(t)およびy座標値y(t)に基づき投球コー
スが「ストライク」であるか、あるいは「ボール」であ
るかを判定する。この判定に際しては、遊戯者Bが「ボ
ール」をミートできずに空振りした時、一意的に「スト
ライク」と判定される。そして、この判定結果を、実際
に即して「アンパイヤの判定コール」として発音させる
べく音声出力手段74へ音声合成を指示する。この後、
CPU71は処理をステップSH2に戻し、次の投球パ
ラメータをセットして再び上述した処理を繰り返し、
「バット」と「ボール」との衝突が発生する迄、投球時
点からキャッチャーに捕球される迄の投球状態をシミュ
レートする。
In step SH7, as the "ball" reaches the catcher position placed in the virtual space SP2, the sound output means is generated to generate a sound effect when the "ball" is caught in the catcher mitt. 74 "Catch sound"
Instruct to pronounce. Then, after this, the CPU 71
Advances the processing to step SH8 to determine whether the pitching course is "strike" based on the x coordinate value x (t) and the y coordinate value y (t) of the ball coordinate data at the time when the "ball" reaches the catcher position. Alternatively, it is determined whether it is a “ball”. In this determination, when the player B misses the "ball" without hitting the ball, the player B is uniquely determined to be "strike". Then, the voice output unit 74 is instructed to perform voice synthesis so that this determination result is actually pronounced as an "umpire determination call". After this,
The CPU 71 returns the processing to step SH2, sets the next pitching parameter, and repeats the above-mentioned processing again,
Simulates the pitching state from the time of pitching until the catcher catches the ball until the "bat" collides with the "ball".

【0082】割込みタスクルーチンの動作 次に、図16を参照し、遊戯者Bのバットスイングによ
り仮想的な「ボール」をミートした場合に起動される割
込みタスクルーチンの動作について説明する。さて、上
述したように、タスク0ではクロマキー検出されたバッ
トBAT像に基づき仮想空間SP3内における「バッ
ト」位置、スイング速度およびスイングピークが生成さ
れ、一方、タスク1では衝突判定条件をセットすると共
に、設定された投球パラメータに応じた軌跡で仮想的に
投球される「ボール像」を表示制御する訳であるが、こ
れらタスク0,1がタスク切換えに応じて交互に実行さ
れている状態において、遊戯者Bがバットスイング操作
したとする。
Operation of Interrupt Task Routine Next, with reference to FIG. 16, the operation of the interrupt task routine that is activated when a virtual "ball" is met by the bat swing of the player B will be described. As described above, in the task 0, the “bat” position, the swing speed and the swing peak in the virtual space SP3 are generated based on the chroma key-detected bat BAT image, while the task 1 sets the collision determination condition and The display control of the "ball image" that is virtually pitched in the trajectory according to the set pitching parameter is performed. In the state where these tasks 0 and 1 are alternately executed according to the task switching, It is assumed that the player B operates the bat swing.

【0083】ここで、このスイング操作が衝突判定パラ
メータによって規定される判定条件、すなわち、バット
BATの3次元座標位置に対応して定められる衝突領域
と、バットBATがスイング操作されるタイミング範囲
とを満たした場合、仮想空間内衝突判定手段64(図3
参照)が「バット」と「ボール」とが衝突したと判定し
て割り込み信号IRを発生する。割り込み信号IRがC
PU71に供給されると、当該CPU71は図16に示
す割り込みタスクルーチンを実行し、ステップSJ1へ
処理を進める。
Here, the determination condition defined by the collision determination parameter for this swing operation, that is, the collision area defined corresponding to the three-dimensional coordinate position of the bat BAT, and the timing range in which the bat BAT is swing operated are defined. If satisfied, the collision determination means 64 in the virtual space (see FIG.
Determines that the “bat” and the “ball” have collided with each other, and generates an interrupt signal IR. Interrupt signal IR is C
When supplied to the PU 71, the CPU 71 executes the interrupt task routine shown in FIG. 16 and advances the process to step SJ1.

【0084】ステップSJ1では、上述したタスク1ル
ーチンの動作を強制的にアボートし、次のステップSJ
2へ処理を進める。ステップSJ2では、「バット」と
「ボール」とが衝突した衝突座標位置(xc,yc
c)を求めると共に、衝突発生時点における「バッ
ト」のスイング速度およびスイングピーク情報をワーク
RAM72から読み出す。なお、上記の衝突座標位置
(xc,yc,zc)は、衝突発生時点のオブジェクト座
標位置から得られる。また、スイングピーク情報とは、
衝突発生時点で検出されるスイング速度が、スイングピ
ークに一致するか否かや、ピークに一致しない時にはそ
のスイング速度がピーク前であるか否かを表わす情報で
あり、このスイングピーク情報に基づきミートされた打
球の打撃態様、つまり、「ジャストミート」、「流し気
味のミート」および「引張り気味のミート」を識別する
ようになっている。
In step SJ1, the operation of the task 1 routine described above is forcibly aborted, and the next step SJ
The process proceeds to 2. In step SJ2, the collision coordinate position (x c , y c , where the “bat” and the “ball” collide)
z c ), and the swing speed and swing peak information of the “bat” at the time of collision occurrence are read from the work RAM 72. The collision coordinate position (x c , y c , z c ) is obtained from the object coordinate position at the time of collision. What is swing peak information?
The swing speed detected at the time of collision is information indicating whether or not the swing peak matches the swing peak, and when the swing speed does not match the peak, whether or not the swing speed is before the peak. The hitting mode of the hit ball, that is, "just meat", "flowing meat" and "pulling meat" is identified.

【0085】次いで、ステップSJ3に進むと、CPU
71は「バット」と「ボール」との衝突を表わす効果音
を発音するよう音声出力手段に打撃音の発生を指示する
一方、「打球」を画面表示すべく、対応するオブジェク
ト画像データDOBをプログラムメモリ73から読み出
し、これをVRAM32側へDMA転送する。こうして
「打球」を画面表示させる準備が整うと、CPU71は
次のステップSJ4に進み、上述したスイング速度およ
びスイングピーク情報に基づき打撃態様を定めると共
に、衝突時点における「バット」の重心位置に従って当
たり具合を判定し、判定した当たり具合と打撃態様とに
応じた打球軌跡を表わす打球軌跡パラメータを算出す
る。したがって、例えば、一定以上のスイング速度であ
って、スイングピークを超えた時点で「バット」と「ボ
ール」とが衝突し、しかも「バット」の重心位置とボー
ル中心とが一致する場合には、レフト方向へ「引張られ
た」打球軌跡となる。
Then, in step SJ3, the CPU
Reference numeral 71 instructs the sound output means to generate a hitting sound so as to produce a sound effect representing a collision between the “bat” and the “ball”, while displaying the corresponding hitting object image data D OB in order to display the “hit ball” on the screen. It is read from the program memory 73 and DMA-transferred to the VRAM 32 side. When the "hit ball" is ready to be displayed on the screen in this way, the CPU 71 proceeds to the next step SJ4 to determine the batting mode based on the swing speed and the swing peak information described above, and to determine the hit state according to the center of gravity position of the "bat" at the time of the collision. Is calculated, and a hit ball trajectory parameter representing a hit ball trajectory according to the determined hit condition and hitting mode is calculated. Therefore, for example, when the swing speed is equal to or higher than a certain level, the “bat” and the “ball” collide with each other when the swing peak is exceeded, and moreover, the center of gravity position of the “bat” and the ball center match, The trajectory is a ball that is "pulled" in the left direction.

【0086】次に、ステップSJ5に進むと、算出され
た打球軌跡パラメータに対応する3次元の打球座標デー
タを生成し、この打球座標データに従って打球軌跡をデ
ィスプレイ3に画面表示する。次いで、ステップSJ6
に進むと、打球座標データに対応する打球軌跡の表示が
完了したか否かを判断し、表示完了していない場合には
判断結果が「NO」となり、上記ステップSJ5を繰り
返し、一方、打球軌跡の表示が完了したならば、判断結
果が「YES」となって、次のステップSJ7に進み、
前述したタスク1ルーチンを強制アボート時点から再起
動させ、再度、ゲームを繰り返させる。
Next, in step SJ5, three-dimensional hitting ball coordinate data corresponding to the calculated hitting ball trajectory parameter is generated, and the hitting ball trajectory is displayed on the display 3 according to the hitting ball coordinate data. Then, step SJ6
If it is determined that the display of the hit ball trajectory corresponding to the hit ball coordinate data has been completed, the result of the judgment is "NO" and the above step SJ5 is repeated, while the hit ball trajectory is repeated. If the display of is completed, the determination result is “YES”, and the process proceeds to the next step SJ7,
The task 1 routine described above is restarted from the time of forced abort, and the game is repeated again.

【0087】以上のように、この実施例にあっては、投
球時点からある距離まではボールが接近して見えるよう
な形態でディスプレイ3にオブジェクト画像(「ボー
ル」)を画面表示した後、実際の打撃操作に即して、打
者の間接視野によって捉えられる球筋(軌跡)を3次元
座標値で仮想的にシミュレートするから、あたかも打者
の手元に飛んでくるボールをミートするという仮想現実
感を創出することが可能になる。
As described above, in this embodiment, after the object image (“ball”) is displayed on the display 3 in such a form that the ball can be seen as approaching from the pitching time to a certain distance, The ball muscle (trajectory) captured by the batter's indirect visual field is virtually simulated with three-dimensional coordinate values in accordance with the batting operation of, so that the virtual reality of meeting a ball flying to the batter's hand is provided. It becomes possible to create.

【0088】また、本実施例によれば、衝突判定パラメ
ータメモリ62には、遊戯者Bの熟練度に応じた衝突判
定条件が記憶されるため、ビギナーに対しては衝突範囲
やミートタイミング範囲を広げておき、「ミート」を容
易とするよう設定したり、熟練者にはこれとは逆に範囲
を狭めてゲームを難しくする等、ユーザのレベルに応じ
てゲームを楽しむことが可能になる。さらに、この実施
例では、ミート時のバットスイング速度およびスイング
ピーク情報に基づいて定められる打撃態様と、ミート時
の「バット」と「ボール」との当たり具合とを勘案した
打球軌跡で打球を画面表示するため、よりリアルな打撃
操作をシミュレートすることが可能となっている。
Further, according to the present embodiment, the collision determination parameter memory 62 stores the collision determination condition according to the skill level of the player B, so that the beginner can set the collision range and the meet timing range. It is possible to enjoy the game depending on the level of the user, for example, by setting it wide to make the "meet" easy, or conversely, the expert can narrow the range to make the game difficult. Further, in this embodiment, a hitting ball is screened with a hitting trajectory in consideration of the hitting mode determined based on the bat swing speed and swing peak information at the time of meeting and the hitting condition between the "bat" and the "ball" at the time of meeting. Since it is displayed, it is possible to simulate a more realistic striking operation.

【0089】なお、上述した実施例にあっては、投球さ
れる「ボール像」が画面表示される仮想空間SP1と、
これが非表示となる仮想空間SP2とに分けられている
が、これら空間の大きさは固定的なものではなく、遊戯
者Bが最も臨場感を得られるように調整変更することも
可能となっている。また、上記実施例では、バッティン
グ操作をシミュレートする画像制御装置に適用した場合
について開示したが、本発明による要旨は当該装置に限
定されるものではなく、例えば、「テニス」や「ゴル
フ」等、遊戯者の運動行動を取り入れた各種シミュレー
ションゲームに適用できることは言うまでもない。
In the embodiment described above, the virtual space SP1 in which the "ball image" to be thrown is displayed on the screen,
This is divided into a virtual space SP2 that is hidden, but the size of these spaces is not fixed, and it is possible to adjust and change so that the player B can get the most realistic feeling. There is. Further, in the above embodiment, the case where the invention is applied to the image control device that simulates a batting operation is disclosed, but the gist of the present invention is not limited to the device, and for example, “tennis”, “golf”, etc. Needless to say, it can be applied to various simulation games that incorporate the movement behavior of the player.

【0090】[0090]

【発明の効果】本発明によれば、操作情報発生手段が撮
像画像から特定色のクロマキー像を抽出して撮像画像中
におけるクロマキー像の位置および大きさを仮想空間内
に仮想配置される操作子の3次元位置とその操作量とに
変換し、衝突判定手段が衝突対象となるオブジェクト画
像の移動軌跡を、前記仮想空間内の3次元位置に変換
し、このオブジェクト画像の3次元位置と前記操作子の
3次元位置とが衝突するか否を判定する。そして、表示
制御手段が前記移動軌跡に従ってオブジェクト画像を画
面表示する一方、前記衝突判定手段が衝突を判定した場
合には、前記操作子の操作量に対応した移動軌跡を生成
し、この移動軌跡に従って前記操作子と衝突した後のオ
ブジェクト画像を画面表示する表示信号を出力するの
で、例えば、前述した本実施例のように、バッティング
動作するゲームでは、投球される球筋(軌跡)が仮想空
間内でシミュレートされるため、あたかも打者の手元に
飛んでくるボールを打撃するという仮想現実感を創出す
ることができる。
According to the present invention, the operation information generating means extracts a chroma key image of a specific color from the picked-up image, and the position and size of the chroma key image in the picked-up image are virtually arranged in the virtual space. 3D position and its operation amount, and the collision determination means converts the movement trajectory of the object image to be a collision target into a 3D position in the virtual space, and the 3D position of this object image and the operation. It is determined whether or not the child's three-dimensional position collides. Then, while the display control means displays the object image on the screen according to the movement trajectory, when the collision determination means determines a collision, a movement trajectory corresponding to the operation amount of the operator is generated, and according to the movement trajectory. Since the display signal for displaying the object image after colliding with the operation element is output on the screen, for example, in the game where the batting operation is performed as in the above-described embodiment, the pitched ball muscle (trajectory) is in the virtual space. Since it is simulated, it is possible to create the virtual reality of hitting a ball flying to the batter's hand.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例による画像制御装置の全体構
成を示す外観図である。
FIG. 1 is an external view showing an overall configuration of an image control apparatus according to an embodiment of the present invention.

【図2】同実施例の概要を説明するための図である。FIG. 2 is a diagram for explaining the outline of the embodiment.

【図3】同実施例の電気的構成を示すブロック図であ
る。
FIG. 3 is a block diagram showing an electrical configuration of the embodiment.

【図4】同実施例における撮像部1およびクロマキー検
出処理部41の構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of an image pickup unit 1 and a chroma key detection processing unit 41 in the embodiment.

【図5】同実施例における撮像信号処理部11の構成を
示すブロック図である。
FIG. 5 is a block diagram showing a configuration of an image pickup signal processing unit 11 in the embodiment.

【図6】同実施例におけるビデオ信号処理部20の構成
を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of a video signal processing unit 20 in the embodiment.

【図7】同実施例における画像処理部30の構成を示す
ブロック図である。
FIG. 7 is a block diagram showing a configuration of an image processing unit 30 in the embodiment.

【図8】同実施例における特徴パラメータメモリの構成
を示すメモリマップである。
FIG. 8 is a memory map showing a configuration of a characteristic parameter memory according to the embodiment.

【図9】位置検出処理部40におけるメインルーチンの
動作を示すフローチャートである。
9 is a flowchart showing an operation of a main routine in the position detection processing section 40. FIG.

【図10】位置検出処理部40における初期画面マップ
作成ルーチンの動作を示すフローチャートである。
10 is a flowchart showing the operation of an initial screen map creation routine in the position detection processing unit 40. FIG.

【図11】位置検出処理部40における処理画面マップ
作成ルーチンの動作を示すフローチャートである。
11 is a flowchart showing an operation of a processing screen map creation routine in the position detection processing unit 40. FIG.

【図12】位置検出処理部40における座標検出処理ル
ーチンの動作を示すフローチャートである。
FIG. 12 is a flowchart showing the operation of a coordinate detection processing routine in the position detection processing section 40.

【図13】位置検出処理部40における重心計算処理ル
ーチンの動作を示すフローチャートである。
FIG. 13 is a flowchart showing an operation of a centroid calculation processing routine in the position detection processing section 40.

【図14】CPU71におけるタスク0ルーチンの動作
を示すフローチャートである。
FIG. 14 is a flowchart showing the operation of the task 0 routine in the CPU 71.

【図15】CPU71におけるタスク1ルーチンの動作
を示すフローチャートである。
FIG. 15 is a flowchart showing the operation of the task 1 routine in the CPU 71.

【図16】CPU51における割り込みタスクルーチン
の動作を示すフローチャートである。
16 is a flowchart showing the operation of the interrupt task routine in the CPU 51. FIG.

【符号の説明】[Explanation of symbols]

1 撮像部 2 装置本体 3 ディスプレイ 40 位置検出処理部(操作情報発生手段) 50 特徴点検出部(操作情報発生手段) 60 衝突判定部(衝突判定手段) 70 制御部 71 CPU(操作情報発生手段、衝突判定手段、表示
制御手段)
DESCRIPTION OF SYMBOLS 1 Image pick-up part 2 Device main body 3 Display 40 Position detection process part (operation information generation means) 50 Characteristic point detection part (operation information generation means) 60 Collision determination part (collision determination means) 70 Control part 71 CPU (operation information generation means, Collision determination means, display control means)

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 G06F 15/62 415 Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display location G06T 7/00 G06F 15/62 415

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 撮像画像から特定色のクロマキー像を抽
出すると共に、この撮像画像中におけるクロマキー像の
位置および大きさを、仮想空間内に仮想配置される操作
子の3次元位置とその操作量とに変換する操作情報発生
手段と、 前記仮想空間内に仮想配置される操作子の衝突対象とな
るオブジェクト画像の移動軌跡を、前記仮想空間内の3
次元位置に変換し、このオブジェクト画像の3次元位置
と前記操作子の3次元位置とが衝突するか否を判定する
衝突判定手段と、 前記移動軌跡に従ってオブジェクト画像を画面表示する
一方、前記衝突判定手段が衝突を判定した場合には、前
記操作子の操作量に対応した移動軌跡を生成し、この移
動軌跡に従って前記操作子と衝突した後のオブジェクト
画像を画面表示する表示信号を出力する表示制御手段と
を具備することを特徴とする画像制御装置。
1. A chroma key image of a specific color is extracted from a captured image, and the position and size of the chroma key image in the captured image are calculated as a three-dimensional position of an operator virtually arranged in a virtual space and its operation amount. And the operation information generating means for converting the operation information generating means into the virtual space, and the movement locus of the object image that is the collision target of the operator virtually arranged in the virtual space.
Collision determining means for converting the three-dimensional position into a three-dimensional position and determining whether or not the three-dimensional position of the object and the three-dimensional position of the manipulator collide with each other; When the means determines a collision, a display control for generating a movement locus corresponding to the operation amount of the manipulator and outputting a display signal for displaying the object image after colliding with the manipulator on the screen according to the movement locus. And an image control device.
【請求項2】 撮像画像から特定色の操作子を表わすク
ロマキー像を抽出すると共に、この撮像画像中における
クロマキー像の位置および大きさを検出する特徴点検出
手段と、 この特徴点検出手段によって検出されるクロマキー像の
位置および大きさを、仮想空間内に仮想配置される前記
操作子の3次元位置とその操作量とに変換する操作子情
報発生手段と、 前記操作子の衝突対象となるオブジェクト画像の移動軌
跡を、前記仮想空間内の3次元位置に変換するオブジェ
クト情報発生手段と、 前記仮想空間内における前記操作子の3次元位置と前記
オブジェクト画像の3次元位置とが予め設定される衝突
条件下で衝突するか否を判定する衝突判定手段と、 前記オブジェクト画像の3次元位置が仮想空間内にて定
義される表示空間であるか非表示空間であるかを判別
し、この表示空間内にオブジェクト画像が存在する時に
は、当該表示空間に対応する移動軌跡に従ってオブジェ
クト画像を画面表示し、 一方、前記非表示空間内にて前記衝突判定手段が衝突判
定した時には、前記操作子の操作量に応じた移動軌跡を
生成し、この移動軌跡に従って前記操作子と衝突した後
のオブジェクト画像を画面表示する表示信号を出力する
表示制御手段とを具備することを特徴とする画像制御装
置。
2. A feature point detecting means for extracting a chroma key image representing an operator of a specific color from a captured image and detecting the position and size of the chroma key image in the captured image, and the feature point detecting means. Operator information generation means for converting the position and size of the generated chroma key image into the three-dimensional position of the operator virtually arranged in the virtual space and the operation amount thereof, and an object which is a collision target of the operator. Object information generating means for converting a moving locus of an image into a three-dimensional position in the virtual space, and a collision in which the three-dimensional position of the operator and the three-dimensional position of the object image in the virtual space are preset. Collision determination means for determining whether or not a collision occurs under the conditions, and whether the three-dimensional position of the object image is a display space defined in virtual space or not. If the object image exists in the display space, the object image is displayed on the screen in accordance with the movement trajectory corresponding to the display space, while the collision determination means in the non-display space. When it determines that a collision has occurred, a display control unit that generates a movement locus according to the operation amount of the manipulator and outputs a display signal for displaying the object image after colliding with the manipulator on the screen according to the movement locus. An image control device characterized by:
【請求項3】 前記特徴点検出手段は、抽出したクロマ
キー像の重心位置および面積を検出することを特徴とす
る請求項2記載の画像制御装置。
3. The image control device according to claim 2, wherein the feature point detecting means detects a barycentric position and an area of the extracted chroma key image.
【請求項4】 前記操作子情報発生手段は、前記特徴点
検出手段によって検出されるクロマキー像の位置を仮想
空間のxy平面に写像してxy座標値(x,y)とし、
当該クロマキー像の大きさに応じてz座標値を定めて操
作子の3次元位置(x,y,z)を生成することを特徴
とする請求項2記載の画像制御装置。
4. The manipulator information generating means maps the position of the chroma key image detected by the feature point detecting means onto an xy plane of a virtual space to obtain xy coordinate values (x, y),
3. The image control apparatus according to claim 2, wherein the three-dimensional position (x, y, z) of the operator is generated by determining the z coordinate value according to the size of the chroma key image.
【請求項5】 前記操作子情報発生手段は、クロマキー
像の面積変化から操作子のスイング速度を算出すると共
に、そのスイング速度のピーク値を検出することを特徴
とする請求項2記載の画像制御装置。
5. The image control according to claim 2, wherein the manipulator information generation means calculates the swing speed of the manipulator from the area change of the chroma key image and detects the peak value of the swing speed. apparatus.
【請求項6】 前記衝突判定手段は、操作子の3次元位
置に対応して定められる衝突可能領域と、当該操作子の
スイングタイミング範囲とからなる衝突判定パラメータ
に従って仮想空間内における前記操作子と前記オブジェ
クト画像との衝突の有無を判定することを特徴とする請
求項2記載の画像制御装置。
6. The manipulator in the virtual space according to a collision judgment parameter including a collision possible area defined corresponding to a three-dimensional position of the manipulator and a swing timing range of the manipulator. The image control apparatus according to claim 2, wherein it is determined whether or not there is a collision with the object image.
JP28120294A 1994-10-19 1994-10-19 Image control apparatus and image control method Expired - Fee Related JP3463379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28120294A JP3463379B2 (en) 1994-10-19 1994-10-19 Image control apparatus and image control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28120294A JP3463379B2 (en) 1994-10-19 1994-10-19 Image control apparatus and image control method

Publications (2)

Publication Number Publication Date
JPH08112449A true JPH08112449A (en) 1996-05-07
JP3463379B2 JP3463379B2 (en) 2003-11-05

Family

ID=17635779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28120294A Expired - Fee Related JP3463379B2 (en) 1994-10-19 1994-10-19 Image control apparatus and image control method

Country Status (1)

Country Link
JP (1) JP3463379B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003061778A1 (en) * 2002-01-21 2003-07-31 Yugen Kaisha Mega Hit Simulator for ball practicing hitting
ES2214115A1 (en) * 2002-10-15 2004-09-01 Universidad De Malaga System for automatically recognizing screening objects in database, has motion control module moving mobile autonomous agent by environment and allowing cameras to be directed to same selected points
JP2007212635A (en) * 2006-02-08 2007-08-23 Copcom Co Ltd Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same
JP2008048961A (en) * 2006-08-25 2008-03-06 Nintendo Co Ltd Game program and game device
JP2009103727A (en) * 2002-06-27 2009-05-14 Shinsedai Kk Information processor having input system using stroboscope
US7662047B2 (en) 2002-06-27 2010-02-16 Ssd Company Limited Information processor having input system using stroboscope
KR101599303B1 (en) * 2015-03-16 2016-03-03 (주)코아텍 Baseball game system based on the virtual reality and game proceeding method using the same
JP2016047219A (en) * 2014-08-28 2016-04-07 学校法人立命館 Body motion training support system
JP2017534135A (en) * 2014-11-06 2017-11-16 北京京東尚科信息技術有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. Method for simulating and controlling a virtual ball on a mobile device
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
JP2020175240A (en) * 2017-09-04 2020-10-29 日本電信電話株式会社 Analysis data collection device, method therefor, program, and data structure

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003061778A1 (en) * 2002-01-21 2003-07-31 Yugen Kaisha Mega Hit Simulator for ball practicing hitting
US7662047B2 (en) 2002-06-27 2010-02-16 Ssd Company Limited Information processor having input system using stroboscope
JP2009103727A (en) * 2002-06-27 2009-05-14 Shinsedai Kk Information processor having input system using stroboscope
JP2009297539A (en) * 2002-06-27 2009-12-24 Shinsedai Kk Information processor having input system using stroboscope, input device, man-machine interface, and computer program
ES2214115A1 (en) * 2002-10-15 2004-09-01 Universidad De Malaga System for automatically recognizing screening objects in database, has motion control module moving mobile autonomous agent by environment and allowing cameras to be directed to same selected points
JP2007212635A (en) * 2006-02-08 2007-08-23 Copcom Co Ltd Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same
JP2008048961A (en) * 2006-08-25 2008-03-06 Nintendo Co Ltd Game program and game device
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US11478706B2 (en) 2010-05-11 2022-10-25 Sony Interactive Entertainment LLC Placement of user information in a game space
JP2016047219A (en) * 2014-08-28 2016-04-07 学校法人立命館 Body motion training support system
JP2017534135A (en) * 2014-11-06 2017-11-16 北京京東尚科信息技術有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. Method for simulating and controlling a virtual ball on a mobile device
KR101599303B1 (en) * 2015-03-16 2016-03-03 (주)코아텍 Baseball game system based on the virtual reality and game proceeding method using the same
JP2020175240A (en) * 2017-09-04 2020-10-29 日本電信電話株式会社 Analysis data collection device, method therefor, program, and data structure

Also Published As

Publication number Publication date
JP3463379B2 (en) 2003-11-05

Similar Documents

Publication Publication Date Title
KR100404692B1 (en) Image processing apparatus and image processing method
JP4221838B2 (en) Game device, hit determination method, and information recording medium
US6949024B2 (en) Image processing apparatus for a game, method and program for image processing for a game, and computer-readable medium
JP4619087B2 (en) GAME PROGRAM AND GAME DEVICE
JP3766981B2 (en) Image control apparatus and image control method
JP2001029654A (en) Image processing device
JP3463379B2 (en) Image control apparatus and image control method
US8506371B2 (en) Game device, game device control method, program, information storage medium
JP2005218757A (en) Virtual reality tennis game system
JPH10290886A (en) Image processing device and image processing method
JP3894937B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4129651B2 (en) Image processing apparatus, game apparatus, image processing method, and recording medium
JPH0850661A (en) Image controller
JP3451343B2 (en) Signal generation apparatus and signal generation method
JP4071011B2 (en) Program for controlling execution of golf game and game apparatus for executing the program
JP3470118B2 (en) Character operation program, character operation method, and video game apparatus
JP3371535B2 (en) Image control apparatus and image control method
JPH07271982A (en) Image controller
JPH1173525A (en) Processor and method for image processing
JP4545545B2 (en) GAME PROGRAM AND GAME DEVICE
JP5117474B2 (en) GAME DEVICE, GAME CONTROL PROGRAM, AND GAME CONTROL METHOD
JPH07282265A (en) Image control unit
JP3407394B2 (en) Image display control apparatus and image display control method
JP3470117B2 (en) Image display program, image display method, and video game apparatus
JP3622234B2 (en) Image control apparatus and image control method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080822

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080822

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090822

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100822

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100822

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees