JP3052933B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method

Info

Publication number
JP3052933B2
JP3052933B2 JP10159011A JP15901198A JP3052933B2 JP 3052933 B2 JP3052933 B2 JP 3052933B2 JP 10159011 A JP10159011 A JP 10159011A JP 15901198 A JP15901198 A JP 15901198A JP 3052933 B2 JP3052933 B2 JP 3052933B2
Authority
JP
Japan
Prior art keywords
polygons
game
image processing
character
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10159011A
Other languages
Japanese (ja)
Other versions
JPH1173525A (en
Inventor
憲夫 芳賀
昌紀 山下
忠信 沼田
信 山本
花織 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP10159011A priority Critical patent/JP3052933B2/en
Publication of JPH1173525A publication Critical patent/JPH1173525A/en
Application granted granted Critical
Publication of JP3052933B2 publication Critical patent/JP3052933B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、サッカーゲームな
どのTVゲーム機などに見られる、多数のキャラクタが
登場・対戦するゲームに好適な画像処理技術に係り、と
くに、キャラクタの視線制御、観客の挙動制御、および
画面のカラー調整のためのフォグ制御の各処理を実行す
ることで、ゲームをよりリアルに且つ臨場感溢れるもの
にする画像処理装置および画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique suitable for a game in which a large number of characters appear and compete with each other, such as a TV game machine such as a soccer game. The present invention relates to an image processing apparatus and an image processing method that make a game more realistic and realistic by executing each process of behavior control and fog control for color adjustment of a screen.

【0002】[0002]

【従来の技術】近年のコンピュータ技術の発達に伴い、
TVゲーム機、シミュレーション装置などに関する画像
処理技術が広く一般に普及するようになっている。この
ようなシステムでは、表示画面や表示内容をよりリアル
に見せる画像処理技術の高度化が、商品価値を高めるう
えで非常に大きなウエイトを占めている。
2. Description of the Related Art With the recent development of computer technology,
2. Description of the Related Art Image processing technologies related to TV game machines, simulation devices, and the like have become widely and widely used. In such a system, the advancement of image processing technology that makes the display screen and display contents look more realistic occupies a very large weight in increasing the commercial value.

【0003】TVゲーム機を一例にとると、そのコンポ
ーネントとしては、パッド、ジョイスティックなどの操
作器および表示用モニタを含むペリフェラルと、画像処
理、音響処理、ペリフェラルとのデータ通信などを実行
するCPUを搭載した処理装置とを備え、操作器との間
でインターラクティブにゲーム展開を演出できるように
なっている。
As an example of a TV game machine, its components include a peripheral including an operating device such as a pad and a joystick and a display monitor, and a CPU for executing image processing, sound processing, data communication with the peripheral, and the like. It is equipped with a mounted processing device, and can interactively develop a game with the operation device.

【0004】このようなTVゲーム機の一分野として、
サッカーゲームを行うことができるゲーム装置がある。
このサッカーゲームは、通常、3次元仮想空間にフィー
ルドおよび観客席(スタンド)を設けたサッカースタジ
アムを構築し、フィールド上で2チームのキャラクタ
(表示体、若しくはオブジェクトとも呼ばれる。)が仮
想のサッカー競技を行うものである。具体的には、プレ
ーヤからの操作情報に応じたモーションの計算、ボール
の処理、コリジョン(当たり)の処理、ロボットの処
理、フィールドの処理などを順次実行し、プレーヤの操
作を反映させたゲーム展開を画面表示する。
[0004] As one field of such TV game machines,
There is a game device that can play a soccer game.
In this soccer game, a soccer stadium in which a field and spectator seats (stands) are provided in a three-dimensional virtual space is usually constructed, and two teams of characters (also referred to as display bodies or objects) are played in a virtual soccer game on the field. Is what you do. Specifically, the game development that reflects the operation of the player by sequentially executing motion calculation, ball processing, collision (hit) processing, robot processing, field processing, and the like according to operation information from the player. Is displayed on the screen.

【0005】このとき、スタンドの観客の挙動もゲーム
の雰囲気を盛り上げる重要な要素であるから、観客の挙
動処理も取り入れることが多い。観客の挙動の制御方法
としては、1)アニメーション(動画)と同様に、予め
動きのある観客の画像データをフレーム毎に多数用意し
ておき、その画像を競技場面に応じてテクスチャを貼り
付けて動画的に表示する方法、2)観客を表したポリゴ
ンデータを用意しておいて競技場面に応じてポリゴンを
動かす、などの方法がある。
[0005] At this time, the behavior of the audience at the stand is also an important factor that enhances the atmosphere of the game, and therefore, processing of the behavior of the audience is often adopted. As a method of controlling the behavior of the spectator, 1) As in the case of animation (moving image), a large number of image data of the spectator in motion are prepared in advance for each frame, and the image is pasted with a texture according to the competition scene. 2) polygon data representing the audience is prepared, and the polygon is moved according to the competition scene.

【0006】また、ゲームの雰囲気や臨場感を盛り上げ
る重要な要素として、表示画面のカラー度合いが、1日
の時間経過い対応した実際の明るさ(日照など)にマッ
チしているかどうかの問題がある。特に、野外で行うこ
とが多いサッカーゲームでは大切なことで、サッカーを
1日の内のどの時間帯で行うかにより、明るさに関する
物理的環境は微妙に変わる。つまり、朝、昼、晩のいず
れの時間帯で行うか、また、それらの中間時間帯のどこ
で行うかにより、明るさが異なる。従来では時間帯に応
じてカラー画面の輝度を調整する、という手法が知られ
ている。
Another important factor that enhances the atmosphere and realism of the game is whether the color level of the display screen matches the actual brightness (such as sunshine) corresponding to the passage of time in a day. is there. Particularly in a soccer game that is often played outdoors, the physical environment related to brightness slightly changes depending on the time of day in which soccer is played. In other words, the brightness differs depending on whether the operation is performed in the morning, afternoon, or evening, or where the operation is performed during the intermediate time. Conventionally, a method of adjusting the brightness of a color screen according to a time zone is known.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上述し
た従来のゲーム機にあっては、ゲームの臨場感やリアル
感の面において、依然として、下記のような物足りなさ
があった。
However, the above-mentioned conventional game machines still have the following shortcomings in terms of realism and realism of the game.

【0008】第1に、例えばサッカーゲームを例にと
り、例えばキャラクタがボールをドリブルしながら攻撃
をする場合を想定すると、従来装置では、そのキャラク
タを、走る方向に顔を向けたままドリブルさせるだけで
ある。しかし、実際のサッカーゲームでは、ドリブルし
ながらシュートしたり、味方にパスする場合、ドリブル
している選手は蹴る出すタイミングを計ったり、蹴り出
すゾーンや味方選手を探すため、走行方向と同じか、ま
たは異なる方向を見る(見渡す)動作を行うものであ
る。つまり、ドリブルしながら走るモーションの制御だ
けでは、実際のサッカー競技者の挙動をリアルにシミュ
レートしているとは言い難く、表示画面に写るキャラク
タの動作がとても単調かつ不自然であった。この顔の向
き(つまり,視線)の制御は、ドリブルしながら走る競
技者のみならず、ほかのボールを持たない競技者につい
ても同様であった。さらに、守備側のキャラクタも実際
には、攻撃側のキャラクタの動作に左右される顔の向き
(視線)になるのが自然であるが、従来はそのような制
御はなされていなかった。
First, assuming, for example, a soccer game as an example, and assuming that a character attacks while dribbling a ball, in the conventional device, it is only necessary to dribble the character with its face facing in the running direction. is there. However, in an actual soccer game, if you shoot while dribbling or pass to an ally, the player who dribble measures the timing to kick out and looks for the zone to kick off and a friendly player, so if it is the same as the running direction, Alternatively, an operation of viewing (looking over) in a different direction is performed. In other words, it is difficult to say that the behavior of a soccer player is realistically simulated only by controlling the motion of running while dribbling, and the movement of the character shown on the display screen is very monotonous and unnatural. The control of the face direction (that is, the line of sight) was the same not only for the competitor running while dribbling, but also for the competitor having no other ball. Furthermore, it is natural that the character on the defensive side actually has a face direction (line of sight) that depends on the motion of the character on the attacking side, but such control has not been performed conventionally.

【0009】第2に、観客の挙動もゲームの臨場感を盛
り上げる需要な要素であるが、従来の場合は、観客個々
の多彩な動き(よりリアルな挙動)、ソフトプログラム
の設計の簡単さ、演算負荷の減少、メモリ容量の少量化
などの点で、これらを同時に満足させるものではなかっ
た。
Second, the behavior of the spectator is also an important factor that enhances the realism of the game. In the conventional case, however, a variety of motions of the spectator (more realistic behavior), the simplicity of software program design, These problems cannot be satisfied at the same time in terms of a reduction in calculation load and a reduction in memory capacity.

【0010】従来のように、動画的にテクスチャを貼っ
て観客を表示する場合、動きを表したフレーム枚数が少
ないと、観客の動きは粗くかつぎこちの無いものになる
から、これを回避しようと思えばフレーム枚数が多くな
る。したがって、扱う画像データも多く、必要なメモリ
容量も増大するとともに、ソフトプログラムの設計の手
間も増え、また演算負荷も大きくなる。この負荷があま
り増大すると、キャラクタの方の制御に支障も出るか
ら、観客の方は省力化したい。しかし、観客の方の制御
処理を間引いたりして省力化すると、表示される画面は
迫力がなく、臨場感に乏しいものとなる。
[0010] As in the prior art, when displaying a spectator with a moving image of texture, if the number of frames representing the motion is small, the spectator's motion becomes coarse or uneven, so that it is necessary to avoid this. If you think about it, the number of frames will increase. Therefore, the amount of image data to be handled is large, the required memory capacity is increased, the effort for designing a software program is increased, and the calculation load is also increased. If this load increases too much, the control of the character will be hindered, so the audience wants to save labor. However, if labor saving is performed by thinning out the control processing of the audience, the displayed screen is not powerful and lacks a sense of reality.

【0011】一方、観客をポリゴンで表す場合、ポリゴ
ンで表すことのできる観客数はその制御の負担を考える
と、著しく制限される。制御のための演算負荷を無視す
れば、個々の観客をポリゴンで表し、その動きを個々そ
れぞれに制御することも可能とは思われるが、多数の観
客に対して実際上、それは困難である。そこで、どうし
ても、メインになる特定の(選択された)観客のみをポ
リゴンで表すことになるが、実際には観客は個々に異な
る動きをする一方で、時には集団で同じ動きをすること
もある。このため、特定の観客だけをメインに動かして
も、迫力が無く、臨場感に欠ける。
On the other hand, when a spectator is represented by a polygon, the number of spectators that can be represented by a polygon is significantly limited in view of the control load. If the calculation load for control is neglected, it may be possible to represent each spectator by a polygon and control the movement of each spectator individually, but it is practically difficult for a large number of spectators. Therefore, only the specific (selected) audience that is the main audience is inevitably represented by polygons. In practice, however, the audiences make different movements individually, but sometimes the same movements are made in groups. For this reason, even if only a specific audience is moved to the main, it is not powerful and lacks a sense of reality.

【0012】第3に、従来装置の場合、1日の内の実際
の明るさに関する物理的環境の制御面でも、昨今のゲー
ム機に求められているニーズを満足させてはいない。例
えば、朝、昼、晩の中間の時間帯にゲーム機の前に座っ
てサッカーゲームを楽しむプレーヤ(遊戯者)にとって
は、表示画面がそのような物理的環境にマッチすること
が望ましい。しかし、従来装置のように単純に輝度を調
整するだけの処理の場合、夜に近付くにつれて画面が暗
くなってしまい、かえって操作が難しくなる。
Third, in the case of the conventional device, the control of the physical environment relating to the actual brightness within a day does not satisfy the needs required of the game machine these days. For example, for a player (player) who enjoys a soccer game while sitting in front of a game machine in the middle of the morning, afternoon, and evening, it is desirable that the display screen matches such a physical environment. However, in the case of a process that simply adjusts the luminance as in the conventional device, the screen becomes darker as the night approaches, and the operation becomes rather difficult.

【0013】本発明は、以上のような課題に鑑みてなさ
れたもので、サッカーゲームなどの画像処理において、
ゲームのリアル感、臨場感をより一層高めた処理を施す
ことができ、ゲーム装置に求められている昨今のニーズ
に十分に応えることのできる画像処理装置およびその方
法を提供することを、その目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has been developed in image processing of a soccer game or the like.
It is an object of the present invention to provide an image processing apparatus and a method thereof that can perform processing that further enhances the realism and realism of a game, and that can sufficiently respond to the recent needs of game apparatuses. And

【0014】また本発明は、サッカーゲームなどに関わ
るゲームの画像処理において、キャラクタの動きを実際
の競技者のそれに、より正確にシミュレートしたものに
し、ゲームのリアル感を向上させることを、別の目的と
する。
Further, the present invention provides a method of improving the realism of a game by making the movement of a character more accurately simulate that of a real player in image processing of a game related to a soccer game or the like. The purpose of.

【0015】さらに本発明は、サッカーゲームなどに関
わるゲームの画像処理において、観客の動きをよりリア
ルに表現し、ゲームの臨場感を著しく向上させること
を、別の目的とする。
It is another object of the present invention to express the movement of spectators more realistically in image processing of a game related to a soccer game or the like, and to significantly improve the sense of reality of the game.

【0016】さらに本発明は、サッカーゲームなどに関
わるゲームの画像処理において、プレーヤがゲーム装置
を操作してゲームを行う実時間をより的確に反映したカ
ラー状態の表示画面を提供し、ゲームの臨場感を著しく
向上させることを、別の目的とする。
Further, the present invention provides a color display screen which more accurately reflects the real time at which a player operates a game device and plays a game in image processing of a game related to a soccer game or the like. Another object is to significantly improve the feeling.

【0017】またさらに、本発明は、上記の正確にシミ
ュレートされたキャラクタの動作を用いて、ゲームの状
況を遊戯者に伝えるための新たな手段、及びゲームの難
易度を調整するための新たな手段を提供することを目的
とする。
Still further, the present invention provides a new means for communicating a game situation to a player using the above-described accurately simulated character movement, and a new means for adjusting the difficulty of the game. It is intended to provide a simple means.

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【課題を解決するための手段】上記課題を解決するべ
く、本発明の画像処理装置は、仮想3次元空間内に配列
された複数の表示体の挙動を画面に表示する画像処理装
置において、複数枚のポリゴンを互いに関連付けて一つ
のオブジェクトとして扱い、当該オブジェクトを構成す
る複数枚のポリゴンのそれぞれを他のオブジェクトを構
成する複数枚のポリゴンと交互に重ねあわせた状態で、
前記オブジェクトをオブジェクト単位で重ね合わせ方向
に交差する方向に沿って周期的に揺動させる揺動手段を
具備することを特徴とする。当該揺動手段は前記オブジ
ェクトを上下方向或いは左右方向に揺動させることが好
ましい。また、本発明の好適な態様として、複数枚のポ
リゴンを複数群或いは複数列用意する。また、オブジェ
クトを構成する複数枚のポリゴンには互いに関連する図
柄を描いてもよい。
In order to solve the above-mentioned problems, an image processing apparatus according to the present invention is arranged in a virtual three-dimensional space.
In an image processing apparatus for displaying the behavior of a plurality of display objects on a screen, a plurality of polygons are treated as one object in association with each other, and each of the plurality of polygons constituting the object constitutes another object In a state where it is overlapped alternately with multiple polygons,
The direction in which the objects are superimposed in object units
A swinging means for periodically swinging along a direction intersecting with. It is preferable that the swing means swings the object vertically or horizontally. In a preferred embodiment of the present invention, a plurality of polygons are prepared in a plurality of groups or a plurality of rows. Further, symbols related to each other may be drawn on a plurality of polygons constituting the object.

【0023】本発明の画像処理方法は、仮想3次元空間
内に配列された複数の表示体の挙動を画面に表示する画
像処理方法において、複数枚のポリゴンを互いに関連付
けて一つのオブジェクトとして扱い、当該オブジェクト
を構成する複数枚のポリゴンのそれぞれを他のオブジェ
クトを構成する複数枚のポリゴンと交互に重ねあわせた
状態で、前記オブジェクトをオブジェクト単位で重ね合
わせ方向に交差する方向に沿って周期的に揺動させるこ
とを特徴とする。本発明の好適な態様として、オブジェ
クトを上下方向或いは左右方向に揺動させる。また、複
数枚のポリゴンを複数群或いは複数列用意してもよい。
さらに、オブジェクトを構成する複数枚のポリゴンには
互いに関連する図柄を描いてもよい。
The image processing method of the present invention provides a virtual three-dimensional space
In an image processing method for displaying the behavior of a plurality of display objects arranged in a screen on a screen, a plurality of polygons are treated as one object in association with each other, and each of the plurality of polygons constituting the object is treated as another object. The object is superimposed on an object-by-object basis while being alternately superimposed on a plurality of polygons
It is characterized by periodically swinging along a direction intersecting the shifting direction . As a preferred mode of the present invention, the object is swung in the vertical direction or the horizontal direction. Also, a plurality of polygons may be prepared in a plurality of groups or a plurality of rows.
Further, symbols related to each other may be drawn on a plurality of polygons constituting the object.

【0024】また、本発明は本発明の画像処理方法をコ
ンピュータに実行させるプログラムが格納されたROM
を提供する。
The present invention also relates to the image processing method of the present invention.
ROM that stores programs to be executed by the computer
I will provide a.

【0025】[0025]

【0026】[0026]

【0027】[0027]

【発明の実施の形態】以下、本発明の一つの実施形態を
図1〜図21を参照して説明する。この実施形態は、本
発明の画像処理装置を一体に組み込んだゲーム装置に関
する。なお、ここでのアプリケーションソフトはサッカ
ーゲームのソフトである場合を例示するが、野球ゲー
ム、ソフトボール、バスケットボールなど、その他のゲ
ームソフトであっても同様に実施できる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS. This embodiment relates to a game device in which the image processing device of the present invention is integrated. Although the application software here is an example of software of a soccer game, other application software such as a baseball game, softball, and basketball can be similarly implemented.

【0028】図1は、本実施形態に係るゲーム装置のブ
ロック構成の概要を示す。このゲーム装置は、CPU
(中央処理装置)1を有し、このCPU1にバスBUS
を通してROM2、作業用RAM3、入力装置4および
ビデオディスプレイプロセッサ(VDP)5が接続され
ている。CPU1は、ROM2に予め格納されているゲ
ームのプログラムを順次実行する。本発明に関わる種々
の処理は、ROM2に格納されているプログラムをVD
P5が一定周期で実行する中で実現される。この本発明
に関わる処理としては、キャラクタの視線制御の処理、
観客の挙動制御の処理、表示画面のカラー調整としての
フォグ制御の処理の3つである。このため、ROM2に
はCPU1やVDP5で処理するプログラムのほか、キ
ャラクタのポリゴンデータ、および、それら3つの処理
に必要なプログラムおよび固定データ(観客のポリゴン
データ、フォグの基準データなど)が予め格納されてい
る。
FIG. 1 shows an outline of a block configuration of a game device according to the present embodiment. This game device has a CPU
(Central processing unit) 1 and a bus BUS
, A ROM 2, a working RAM 3, an input device 4, and a video display processor (VDP) 5 are connected. The CPU 1 sequentially executes a game program stored in the ROM 2 in advance. Various processes relating to the present invention are performed by executing a program stored in the ROM 2 by VD
This is realized while P5 is executed at a constant period. The processing according to the present invention includes processing of gaze control of the character,
There are three types of processing: spectator behavior control processing and fog control processing as color adjustment of the display screen. Therefore, in addition to the programs processed by the CPU 1 and the VDP 5, the ROM 2 previously stores character polygon data, and programs and fixed data (such as polygon data of a spectator and reference data of fog) necessary for the three processes. ing.

【0029】作業用RAM3は、ゲーム実行中の各種デ
ータを一時的に記憶する。入力装置4は、ジョイスティ
ックなど、プレーヤが操作する操作器を備え、キャラク
タの移動、モーションを制御する場合など、ゲーム進行
に必要なデータを入力するために使用される。
The work RAM 3 temporarily stores various data during execution of the game. The input device 4 includes an operating device operated by the player, such as a joystick, and is used to input data necessary for the progress of the game, for example, when controlling the movement and motion of a character.

【0030】VDP5には、ビデオRAM(VRAM)
6、描画装置7、作業用RAM8が接続されている。V
RAM6にはROM2からのポリゴンデータが格納され
る。このポリゴンデータのそれぞれは、表示すべき頂点
数分の座標データと、それら頂点のカラーパレットとし
て与えられる色データとを備える。VDP5はデジタル
信号プロセッサ(DSP)を有している。このVDP5
も、ROM2に予め格納されている画像処理専用のプロ
グラムを、フレームの切換タイミングなどの一定周期の
タイミング信号に呼応して起動し、実行する。VDP5
の処理により、VRAM6に記憶されているポリゴンデ
ータが座標変換処理されて、描画装置7に渡される。
The VDP 5 has a video RAM (VRAM)
6, a drawing device 7, and a working RAM 8 are connected. V
The RAM 6 stores polygon data from the ROM 2. Each of the polygon data includes coordinate data for the number of vertices to be displayed and color data given as a color palette of the vertices. VDP5 has a digital signal processor (DSP). This VDP5
Also, a program dedicated to image processing stored in advance in the ROM 2 is started and executed in response to a timing signal having a fixed cycle such as a frame switching timing. VDP5
By the above processing, the polygon data stored in the VRAM 6 is subjected to coordinate conversion processing, and is passed to the drawing device 7.

【0031】描画装置7にはテクスチャデータROM9
およびフレームバッファメモリ10が接続されている。
描画装置7により、座標変換されたポリゴンデータにテ
クスチャが貼り付けられ、フレームバッファメモリ10
に1フレーム(画面)分のピクセルデータとして書き込
まれる。
The drawing device 7 has a texture data ROM 9
And a frame buffer memory 10.
The drawing device 7 pastes a texture on the coordinate-converted polygon data, and the frame buffer memory 10
Is written as pixel data for one frame (screen).

【0032】フレームバッファメモリ10はD/A変換
器11を介してCRTなどの表示装置12に接続されて
いる。D/A変換器11はビデオ信号発生回路として機
能するもので、フレームバッファメモリ10からピクセ
ルデータを読み出し、アナログ信号に変換する。この変
換データはビデオ信号として表示装置12に順次送ら
れ、画像が表示される。
The frame buffer memory 10 is connected via a D / A converter 11 to a display device 12 such as a CRT. The D / A converter 11 functions as a video signal generation circuit, reads pixel data from the frame buffer memory 10, and converts the pixel data into an analog signal. The converted data is sequentially sent to the display device 12 as a video signal, and an image is displayed.

【0033】さらに、このゲーム装置はバスBUSに接
続されたフォグ回路13および実時間クロック14を備
える。実時間クロック14は日常の実際の時間データを
CPU1に与えるようになっている。フォグ回路13は
後述するように、ゲーム装置が操作される時間(すなわ
ち、プレーヤがゲームを行う日常の実際の時間)に応じ
て、表示画面のカラーをフォグデータと呼ばれる別途設
定したカラーデータでマスクして調整する、いわゆる
「フォグ機能」を発揮するもので、CPU1の指示の下
にフォグデータを生成してVDP5に送るようになって
いる。
Further, the game device includes a fog circuit 13 and a real time clock 14 connected to the bus BUS. The real-time clock 14 supplies daily actual time data to the CPU 1. As will be described later, the fog circuit 13 masks the color of the display screen with separately set color data called fog data in accordance with the time when the game device is operated (that is, the actual actual time when the player plays the game). The fog data is generated under the instruction of the CPU 1 and sent to the VDP 5.

【0034】図2に、CPU1により実行されるフレー
ム毎の処理の一例を示す。まず最初に、CPU1は、プ
レーヤの操作情報に対応したキャラクタのモーション・
コマンド(走る、走る方向を変える、ボールを蹴るな
ど)を入力装置4から受け取り、3次元仮想空間におけ
るキャラクタのモーションの計算を実行する(ステップ
S1)。
FIG. 2 shows an example of processing for each frame executed by the CPU 1. First, the CPU 1 determines the motion of the character corresponding to the operation information of the player.
A command (running, changing the running direction, kicking a ball, etc.) is received from the input device 4, and the motion of the character in the three-dimensional virtual space is calculated (step S1).

【0035】次いで、CPU1は、サッカーボールの位
置を進めるなど、3次元仮想空間におけるボールの処理
を行い(ステップS2)、さらに、3次元仮想空間にお
けるコリジョン(当たり)の処理を行う(ステップS
3)。このコリジョン処理は、キャラクタと地面との
間、キャラクタ同士、キャラクタとボールとの間など、
様々なコリジョン判定およびその処理が実行される。次
いで、CPU1は、プレーヤが操作しているキャラクタ
(ロボット)の、プレーヤからの操作情報に対応した仮
想3次元空間での挙動処理を行う(ステップS4)。
Next, the CPU 1 performs processing of the ball in the three-dimensional virtual space such as advancing the position of the soccer ball (step S2), and further performs processing of collision (hit) in the three-dimensional virtual space (step S2).
3). This collision processing is performed between the character and the ground, between the characters, between the character and the ball, etc.
Various collision determinations and processing are performed. Next, the CPU 1 performs a behavior process of the character (robot) operated by the player in the virtual three-dimensional space corresponding to the operation information from the player (step S4).

【0036】さらに、CPU1はキャラクタの視線制御
の処理を行う(ステップS5)。この視線制御は本発明
の特徴との一つを成すもので、競技中のキャラクタの動
作の多様化を計り、サッカーゲームのリアル感を増加さ
せようとするものである。この処理の詳細は後述する。
Further, the CPU 1 performs a process of controlling the line of sight of the character (step S5). This gaze control is one of the features of the present invention, and is intended to increase the realism of a soccer game by diversifying the movements of the characters during the game. Details of this processing will be described later.

【0037】この視線制御の処理済むと、CPU1は、
サッカー競技場のフィールドの処理を行う(ステップS
6)。このフィールドの処理は、仮想3次元空間のフィ
ールド内に居る各キャラクタの位置を参照して、どのキ
ャラクタがオフセットライン内に居るか、どのキャラク
タがゴールエリアに居るかなどを判断して、ゲームを進
める上での戦術に関わる必要な処理を指令するものであ
る。
When the line-of-sight control processing is completed, the CPU 1
Perform the processing of the field of the soccer stadium (step S
6). The processing of this field refers to the position of each character in the field of the virtual three-dimensional space, determines which character is in the offset line, which character is in the goal area, and so forth, and plays the game. It is a command for necessary processing related to tactics in proceeding.

【0038】この後、CPU1は、観客の挙動制御の処
理を行い(ステップS7)、さらにフォグ制御の指令を
出す(ステップS8)。これら2つの処理も、本発明の
特徴の一部を成すものである。観客の挙動制御の処理
は、演算負荷を押えた状態で、観客の挙動を多彩に表現
し、リアル感および臨場感を向上させようとするもの
で、その詳細は後述する。また、フォグ制御の処理は、
上述したフォグ機能を使用して、プレーヤが実際にゲー
ムを行っている1日の内の実時間に合わせたカラー画面
の明暗度(昼間の試合か、夜間の試合かなどによるカラ
ー調整)の制御を行い、リアル感および臨場観を盛り上
げようとするもので、その詳細は後述する。
Thereafter, the CPU 1 performs a process for controlling the behavior of the audience (step S7), and further issues a command for fog control (step S8). These two processes also form part of the features of the present invention. The process of controlling the behavior of the spectator is to express the behavior of the spectator in a variety of ways while suppressing the calculation load, and to improve the sense of realism and presence, which will be described later in detail. Also, the processing of fog control is
Using the above-described fog function, control of the brightness of the color screen (color adjustment depending on whether the game is a daytime game or a nighttime game) according to the actual time of the day when the player is actually playing the game. In order to enhance the sense of realism and the sense of reality, the details of which will be described later.

【0039】最後に、その他の必要な処理を実行する
(ステップS9)。なお、ステップS5における視点制
御がキャラクタの注視点のみが決定され、実際にキャラ
クタを振り向かせるモーションは、次の処理時間S1に
おいて行われるようにしても良い。ステップS4でも同
様にしても良い。つまり、データ取得、注視点決定か
ら、実際いそちらに向くモーションが行われるまで、最
大1/60秒のタイムラグを設けることができる。
Finally, other necessary processing is executed (step S9). Note that the viewpoint control in step S5 may determine only the gazing point of the character, and the motion of actually turning the character may be performed in the next processing time S1. The same may be applied to step S4. In other words, a time lag of up to 1/60 second can be provided from the data acquisition and determination of the point of gaze to the actual motion directed to that point.

【0040】CPU1は以上の処理をフレーム毎に繰り
返す。このため、ゲームの進行に伴って、CPU1はプ
レーヤ操作に応じたモーションなどのコマンドを、VD
P5に送る。VDP5には、またCPU1の制御の元
で、ROM2から必要なポリゴンデータが渡される。そ
こで、VDP5は、ポリゴンデータをVRAM6に一時
記憶させるとともに、コマンドにしたがってポリゴンデ
ータを仮想3次元空間から透視2次元空間に座標変換
し、この変換座標を描画装置7に渡す。描画装置7は座
標変換されたポリゴンデータにテクスチャを貼り付け、
フレームバッファメモリ10に書き込む。この結果、フ
レーム毎にピクセルデータが更新された画像が表示装置
12に表示される。
The CPU 1 repeats the above processing for each frame. For this reason, as the game progresses, the CPU 1 issues commands such as motions corresponding to player operations to the VD.
Send to P5. Under the control of the CPU 1, necessary polygon data is passed to the VDP 5 from the ROM 2. Therefore, the VDP 5 temporarily stores the polygon data in the VRAM 6, converts the coordinates of the polygon data from the virtual three-dimensional space to the perspective two-dimensional space according to the command, and passes the converted coordinates to the drawing device 7. The drawing device 7 pastes a texture on the polygon data subjected to the coordinate conversion,
Write to the frame buffer memory 10. As a result, an image in which the pixel data is updated for each frame is displayed on the display device 12.

【0041】上述したキャラクタの視線制御の処理を図
3〜図7に基づき説明する。この処理は上述した図2の
ステップS5で実行される処理である。
The above-described character line-of-sight control processing will be described with reference to FIGS. This process is a process executed in step S5 of FIG. 2 described above.

【0042】最初にキャラクタCの視線方向を決める角
度演算の原理を説明する。いま、キャラクタCが3次元
仮想空間の座標(xp,yp,zp)に位置し、また対
象体としてサッカーボールBが同空間の座標(xt,y
t,zt)に位置しているものとする。この場合、図3
に示すy軸方向からみたときのジオメトリから、 x’=xt−xp z’=zt−zp の値が演算でき、この値x’,z’からキャラクタCと
ボールBとの間のx−z面上での角度θyおよび距離L
が計算できる。同様に、このジオメトリから横軸にキャ
ラクタCとボールBとの間の距離Lをとり、縦軸をy軸
としたときのジオメトリを図4に示すように想定でき
る。つまり、キャラクタCの座標(yp,Lp)および
ボールBの座標(yt,Lt)を設定できる。この場
合、 y’=yt−Lt L’=Lt−Lp の値が演算でき、このy’およびL’からy−L面上で
のキャラクタCのボールBを見つめる角度θyが計算で
きる。つまり、各キャラクタについて、例えばボールを
みるときの視線はθy,L,θxのパラメータで決ま
る。対象体がボールに限らず、相手プレーヤ、ゴール、
審判であったりする場合も同様に計算できる。つまり、
自己キャラクタの座標と相手プレーヤや審判の所定点の
座標、ゴールの例えば中心位置の座標とを与えてやれば
よい。
First, the principle of the angle calculation for determining the gaze direction of the character C will be described. Now, the character C is located at the coordinates (xp, yp, zp) of the three-dimensional virtual space, and the soccer ball B as the target is the coordinates (xt, y) of the same space.
(t, zt). In this case, FIG.
X ′ = xt−xp z ′ = zt−zp can be calculated from the geometry as viewed from the y-axis direction, and x−z between the character C and the ball B can be calculated from the values x ′ and z ′. Angle θy and distance L on the surface
Can be calculated. Similarly, from this geometry, the distance L between the character C and the ball B is taken on the horizontal axis, and the geometry when the vertical axis is the y axis can be assumed as shown in FIG. That is, the coordinates (yp, Lp) of the character C and the coordinates (yt, Lt) of the ball B can be set. In this case, the value of y ′ = yt−Lt L ′ = Lt−Lp can be calculated, and the angle θy at which the character C's ball B on the yL plane can be calculated from y ′ and L ′. That is, for each character, for example, the line of sight when looking at the ball is determined by the parameters θy, L, and θx. The target body is not limited to the ball,
In the case of a referee, the same can be calculated. That is,
The coordinates of the own character, the coordinates of a predetermined point of the opponent player or the referee, and the coordinates of, for example, the center position of the goal may be given.

【0043】このように視線方向が決まるが、キャラク
タが実際にその方向に視線を向ける過程においては、種
々の体の向け方(回転の仕方)がある。この様子を図5
に示す。本実施形態では、視線制御時に体を向ける(回
転させる)部分として、キャラクタCの頭部HD、胴部
BD,腰部HPを指定している。そして、 1)頭部HDの回転(上下方向、横方向の回転)を先行
させ、これに胴部BDの回転を追随させ、これに腰部H
Pの回転を追随させる、 2)頭部HDと胴部BDの同時回転を先行させ、これに
腰部HPの回転を追随させる、 3)胴部HDのみ回転させる、などの回転状態を競技の
場面毎に、キャラクタの置かれている状況毎に制御でき
るようになっている。この制御は、例えば、フレーム毎
に各部HD,BD,HPのそれまでの回転角を記憶して
おき、次フレームでは、現在の回転角に微小角度を増加
させたモーションを指令すればよく、各部毎に演算角度
θx,θyまで達したフレームで回転モーションの指令
が終わるようにすればよい。
The direction of the line of sight is thus determined. In the process of the character actually turning the line of sight in that direction, there are various ways of turning (rotating) the body. Figure 5 shows this situation.
Shown in In the present embodiment, the head HD, the torso BD, and the waist HP of the character C are specified as the parts to which the body is turned (rotated) during the gaze control. And 1) the rotation of the head HD (rotation in the vertical direction and the horizontal direction) is preceded, and the rotation of the torso BD follows the rotation of the head HD.
The rotation scene such as following the rotation of P, 2) preceding the simultaneous rotation of the head HD and the torso BD, and following the rotation of the waist HP, 3) rotating only the torso HD, etc. In each case, control can be performed for each situation where the character is placed. In this control, for example, the rotation angles of the units HD, BD, and HP up to that point are stored for each frame, and in the next frame, a motion in which the current rotation angle is increased by a small angle may be commanded. The rotation motion command may end at the frame that has reached the calculation angles θx and θy every time.

【0044】なお、一般的には、人間の動きには構造的
な法則性があり、モーションさせるときには、この法則
性を加味すると最も自然な動きに見える。例えば、振り
向くときには図5にも示した如く、首の回転速度が最も
速く、次に上半身、最後に全身となる。そこで、振り向
きの場合、首を上半身より速く、かつ上半身を全身より
速く回転させることが望ましい。
In general, human motion has a structural rule, and when a motion is performed, the motion appears to be the most natural when this rule is added. For example, when turning around, as shown in FIG. 5, the rotation speed of the neck is the fastest, then the upper body, and finally the whole body. Therefore, when turning around, it is desirable to rotate the neck faster than the upper body and the upper body faster than the whole body.

【0045】また、頭部HDの回転角度が一定値に達し
た時点で胴部BDの回転を開始させるような処理によっ
て、頭→胴→腰の回転タイミングをずらして表現しても
良い。
Further, the rotation timing of the head → torso → waist may be staggered by a process of starting the rotation of the torso BD when the rotation angle of the head HD reaches a certain value.

【0046】このように決まる視線制御の処理の一例を
図6および図7に示す。この処理はCPU1により実施
される。なお、この視線制御の手法は多様な形態をとる
ことができるので、ここに示すものはあくまで一例とし
て示し、本発明を限定するものではない。また、この視
線制御の処理は、フィールド上に居る全競技者(キャラ
クタ)について実施してもよいし、演算負荷を軽減する
観点から、表示視野内に入るキャラクタのみついて実施
してもよい。さらに、表示視野内のキャラクタであって
も、とくに、注目すべきキャラクタ(例えばボールに関
わるモーションを行っているキャラクタや、プレーヤ
(遊戯者)が操作しているキャラクタ)など特定のキャ
ラクタのみについて実施してもよい。
FIGS. 6 and 7 show an example of the eye-gaze control processing determined in this way. This process is performed by the CPU 1. Note that since this gaze control method can take various forms, the method shown here is shown only as an example and does not limit the present invention. The gaze control process may be performed on all players (characters) on the field, or may be performed only on characters within the display field of view from the viewpoint of reducing the computational load. Furthermore, even for characters within the display field of view, particularly, only specific characters such as a notable character (for example, a character performing a motion related to a ball or a character operated by a player (player)) are implemented. May be.

【0047】図5に示すように、例えば、あるキャラク
タが現在走っているかどうかを判断し、YES(走って
いる)かNO(走っていない)で場合分けを行う(ステ
ップS21)。YESの場合、さらに、相手チームがボ
ールを持っているか否かを判断し(ステップS22)す
る。この判断がYES(相手チームが持っている)の場
合、さらに、相手チームのキャラクタがドリブル中であ
るか否かを判断する(ステップS23)。この判断でY
ES(ドリブル中である)のときは、さらに、ドリブル
しているキャラクタが3メートル以内にいるか否かを距
離計算値から判断する(ステップS24)。この判断で
YES(3メートル以内にいる)のとき、いま制御対象
となっているキャラクタはボールの方に視線を向ける
(ステップS25)。このステップ25の処理では、前
述した図5の回転処理が加味される。例えば、このステ
ップ25に至るキャラクタは走っているので、走りなが
ら視線をボールに向けるには、1)の態様が例えば好適
となる。
As shown in FIG. 5, for example, it is determined whether or not a certain character is currently running, and a case is determined according to YES (running) or NO (not running) (step S21). In the case of YES, it is further determined whether or not the opposing team has the ball (step S22). If this determination is YES (the opponent team has), it is further determined whether or not the character of the opponent team is dribbling (step S23). In this judgment Y
In the case of ES (dribbling), it is further determined from the distance calculation value whether or not the dribbling character is within 3 meters (step S24). If YES in this determination (the player is within 3 meters), the character to be controlled turns his or her gaze toward the ball (step S25). In the process of step 25, the above-described rotation process of FIG. 5 is added. For example, since the character reaching step 25 is running, the mode of 1) is suitable for turning the line of sight to the ball while running.

【0048】ステップS24でNO(3メートル以内に
いない)のときは、いま制御御対象となっているキャラ
クタは、ドリブルしている相手キャラクタに視線を向け
る(ステップS26)。このときの回転制御は図5で説
明したいずれの態様をとってもよく、その時点で相手と
の角度関係がどのようになっているかに応じて選択すれ
ばよい。
When the answer to the determination of step S24 is NO (not within 3 meters), the character to be controlled turns its gaze to the opponent character dribbling (step S26). The rotation control at this time may take any of the modes described with reference to FIG. 5, and may be selected according to the angle relationship with the partner at that time.

【0049】ステップS23でNO(ドリブル中ではな
い)のとき、および、ステップS22でNO(相手チー
ムがボールを持っていない)のときは、現在のボールの
挙動が「ハイボール」か否かを判断する(ステップS2
7)。「ハイボール」はここではボールの位置がキャラ
クタの頭上よりも高い状態を言う。この判断がYES
(ハイボールである)のときは、いま制御対象となって
いるキャラクタにボールに視線を向けるように指令する
(ステップS28)。反対に、NO(ハイボールでな
い)のときは、視線制御は行わず、モーションに依存し
た視線を維持させる(ステップS29)。例えば、この
キャラクタは少なくとも走っているから、走行方向を向
いた視線を維持させる。以下、モーションに依存すると
は、視線制御を行わず、プログラムに定められたキャラ
クタの動作パターン(モーション)の動きをそのまま使
うことを言う。
If NO in step S23 (dribbling is not in progress), and if NO in step S22 (the opposing team does not have the ball), it is determined whether or not the current behavior of the ball is "high ball". Judge (Step S2
7). “Highball” here refers to a state where the position of the ball is higher than the head of the character. This judgment is YES
If it is (high ball), the character to be controlled is instructed to look at the ball (step S28). On the other hand, when the answer is NO (not highball), the gaze control is not performed, and the gaze depending on the motion is maintained (step S29). For example, since this character is running at least, it keeps the line of sight in the running direction. Hereinafter, depending on the motion means that the gaze control is not performed and the motion of the motion pattern (motion) of the character defined in the program is used as it is.

【0050】ステップS21の判断でNO、つまり自分
が走行していない状態が判断されたときは、ドリブル中
であるか(図7ステップS30)、センタリングエリア
内にいるか(ステップS31)を順次判断する。ステッ
プS31でYESと判断されたときは、ドリブル中でか
つセンタリングエリア内にいる場合であるから、当然ゴ
ールを狙うのが自然の流れである。そこで、この場合
は、キャラクタの視線をゴールに向けさせる(ステップ
S32)。
If the determination in step S21 is NO, that is, if it is determined that the vehicle is not running, it is sequentially determined whether the vehicle is dribbling (step S30 in FIG. 7) or in the centering area (step S31). . When it is determined as YES in step S31, it is a case where the vehicle is dribbling and the vehicle is in the centering area, and therefore, it is natural to aim for the goal. Therefore, in this case, the gaze of the character is directed to the goal (step S32).

【0051】ステップS31でセンタリングエリア内に
いないときは、例えば、4秒に1回の割合でトップの選
手に視線を向けさせる(ステップS33)とともに、4
秒に1回の割合でゴールに視線を向けさせる(ステップ
S34)。また、ステップS30でNO(ドリブル中で
はない)のときは、例えば、セットプレイ中であるか否
かを判断する(ステップS35)。この判断がYES
(セットプレイ中)のときはさらに、パスの相手が決ま
っていてキックに入っているか否かを判断し(ステップ
S37)、YESのときはパスの相手に視線を向けさせ
(ステップS37)、NOのときは格別の視線制御は行
わずに、モーションに依存した視線を確保させる(ステ
ップS38)。
When it is not within the centering area in step S31, the gaze is directed to the top player, for example, once every four seconds (step S33).
The gaze is directed to the goal once per second (step S34). If NO in step S30 (not dribbling), for example, it is determined whether or not set play is being performed (step S35). This judgment is YES
In the case of (during set play), it is further determined whether or not the opponent of the pass is determined and the player is kicking (step S37). In the case of YES, the gaze is directed to the opponent of the pass (step S37), and NO In this case, no special gaze control is performed, and a gaze depending on the motion is secured (step S38).

【0052】このようにキャラクタの視線制御を施すよ
うにしたため、実際のサッカーゲームにおいて競技者が
行う挙動に非常近いシミュレーションを行うことができ
る。従来のように視線は例えば走行方向を向いたまま
で、突然に、別の方向にボールを蹴り出すということも
なくなる。このような場合でも、キャラクタは事前に、
蹴り出す、または蹴り出したい方向に視線を向けるの
で、よりリアルにキャラクタの挙動を表現でき、臨場感
も高められ、ゲーム性の高いゲーム装置を提供できる。
しかも、視線制御の際、頭部だけを回転させるだけでは
なく、必要に応じて、胴部や腰部も追随または同時に回
転させるので、その視線制御に挙動にリアル感が確実に
高められる。
Since the gaze control of the character is performed as described above, it is possible to perform a simulation that is very close to a behavior performed by a competitor in an actual soccer game. As in the prior art, the line of sight remains, for example, in the running direction, and the ball is not suddenly kicked out in another direction. In such a case, the character must
Since the player kicks or turns his or her gaze in the direction in which the player wants to kick, it is possible to more realistically express the behavior of the character, enhance the sense of presence, and provide a game device with high game characteristics.
In addition, at the time of gaze control, not only the head is rotated, but also the torso and the waist are followed or rotated at the same time as necessary, so that the behavior of the gaze control is reliably enhanced.

【0053】また別の視点から上記視線制御の利点を考
えると、キャラクタが向ける視線方向自体が、プレーヤ
(遊戯者)に次の操作を行うヒントを暗示するというこ
とである。例えば、ドリブル中のキャラクタが頻繁に後
ろに視線を向け始めたら、後ろから相手チームのキャラ
クタが迫っていることが考えられるから、プレーヤ(遊
戯者)はこの追跡を避けなければと思うようになる。し
たがって、キャラクタの挙動がプレーヤ(遊戯者)にゲ
ームの状況を伝える(暗示する)ことができる。
Considering the advantage of the above-mentioned gaze control from another viewpoint, the gaze direction directed by the character implies a hint to the player (player) for performing the next operation. For example, if the character being dribble frequently starts to look behind, the opponent team's character may be approaching from behind, and the player (player) will have to avoid this pursuit. . Therefore, the behavior of the character can convey (implicit) the situation of the game to the player (player).

【0054】反対に、図6および図7に示した判断ステ
ップに、若干のフロックを混ぜることもできる。つま
り、正規の判断とは全く別の方向にわざと視線を向けさ
せるのである。これにより、プレーヤ(遊戯者)の判断
を攪乱することができ、ゲーム装置としての興味性、ゲ
ーム性を一層高めることができ、また、ゲームの難易度
を上げることができる。
On the contrary, some flocks can be mixed in the judging steps shown in FIG. 6 and FIG. That is, the gaze is intentionally turned in a direction completely different from the normal judgment. As a result, the determination of the player (player) can be disturbed, and the interest and game characteristics of the game device can be further increased, and the difficulty of the game can be increased.

【0055】続いて、上述した観客の挙動制御の処理を
図8〜図17を用いて説明する。
Next, the processing for controlling the behavior of the audience described above will be described with reference to FIGS.

【0056】最初に、本発明に係る観客を表す画像デー
タ(観客データ)の構造を図8により説明する。いま、
後ろに進むほど座席が高くなるm(>2)列のスタンド
に観客が座っているとし、このm列の観客の内のn(>
2)行を切り出す。この「m列×n行」の内の、m’列
(>0)分に対する「m’列×n行」の観客を1枚の矩
形状のポリゴンに複数観客分のテクスチャアを貼って表
す。例えば、図8において、A〜D,A’〜D’,A”
〜D”は12枚の矩形状のポリゴンを示し、各ポリゴン
がスタンド奥行き方向に進むほど高くなる状態を模して
積層した仮想空間でのデータ構造を示す。ポリゴンA〜
D,A’〜D’,A”〜D”のそれぞれは、1枚のポリ
ゴンで、例えば3列(=m’)×4行(=n)分の複数
の観客を表す。1枚目のポリゴンAの後ろ(奥行き方
向)に仮想的に位置する2枚目のポリゴンBは例えば1
列だけ上がった状態を初期状態とし、3枚目のポリゴン
Cは例えば1列だけ上がった状態を初期状態とし、さら
に、4枚目のポリゴンDは例えば1列だけ上がった状態
を初期状態としている。このため、A〜D,A’〜
D’,A”〜D”の12枚のポリゴンにより、スタンド
に陣取る例えば「14列×4行」の観客を表す。
First, the structure of image data (audience data) representing an audience according to the present invention will be described with reference to FIG. Now
Suppose that the spectator is sitting on the m (> 2) row of stands where the seats are higher as going backward, and n (>) of the m rows of spectators
2) Cut out the line. Of the “m columns × n rows”, the audience of “m ′ columns × n rows” for the m ′ columns (> 0) is represented by pasting textures for a plurality of audiences on one rectangular polygon. . For example, in FIG. 8, A to D, A 'to D', A "
DD ″ indicates 12 rectangular polygons, and indicates a data structure in a virtual space in which each polygon is stacked to simulate a state in which each polygon becomes higher as it goes in the depth direction of the stand.
Each of D, A ′ to D ′, and A ″ to D ″ is a single polygon and represents a plurality of spectators of, for example, 3 columns (= m ′) × 4 rows (= n). The second polygon B virtually positioned behind (in the depth direction) the first polygon A is, for example, 1
The initial state is a state in which the column is raised by one row, the initial state is a state in which the third polygon C is raised by one row, for example, and the initial state is a state in which the fourth polygon D is raised by one row, for example. . Therefore, A ~ D, A '~
The 12 polygons D ', A "to D" represent, for example, an audience of "14 columns x 4 rows" standing on the stand.

【0057】12の枚のポリゴンA〜D,A’〜D’,
A”〜D”の内、例えば、最初の4枚のポリゴンA〜D
が観客の図柄的に相互に関連し、その次の4枚のポリゴ
ンA’〜D’が観客の図柄的に相互に関連し、最後の4
枚のポリゴンA”〜D”が観客の図柄的に相互に関連し
ている。同時に、12の枚のポリゴンA〜D,A’〜
D’,A”〜D”の1、5、9枚目の3枚のポリゴン
A,A’,A”が同一に動かされる同一オブジェクトO
B1を構成している。同様に、2、6、10枚目の3枚
のポリゴンB,B’,B”が同一に動かされる同一オブ
ジェクトOB2を構成している。同様に、3、7、11
枚目の3枚のポリゴンC,C’,C”が同一オブジェク
トOB3を、4、8、12枚目の3枚のポリゴンD,
D’,D”が同一オブジェクトOB4をそれぞれ構成し
ている。オブジェクト毎の観客の図柄は関連しなくても
よい。つまり、本発明の観客データは、複数個(枚)の
ポリゴンが互いに仮想空間上で分離されながらも、同一
のオブジェクトを形成している点に一つの特徴がある。
なお、オブジェクト毎の観客の図柄は関連させくてもよ
い。勿論、関連させることも可能である。
Twelve polygons A to D, A 'to D',
A "to D", for example, the first four polygons A to D
Are related to each other in the pattern of the spectator, and the next four polygons A ′ to D ′ are related to each other in the pattern of the spectator.
The polygons A "to D" are related to each other in the pattern of the audience. At the same time, 12 polygons A ~ D, A '~
The same object O in which three first, fifth and ninth polygons A, A 'and A "of D', A" to D "are moved in the same manner.
B1. Similarly, the third, second, sixth, and tenth polygons B, B ′, and B ″ constitute the same object OB2 that is moved in the same manner.
The third polygon C, C ′, and C ″ are the same object OB3, and the fourth, eighth, and twelfth third polygons D,
D 'and D "constitute the same object OB4. The design of the audience for each object does not need to be related. That is, in the audience data of the present invention, a plurality (polygons) of polygons are in the virtual space. One feature is that they form the same object while being separated above.
In addition, the design of the audience for each object may be related. Of course, it is also possible to relate them.

【0058】このように構成されるデータに対して、図
9に示す観客挙動制御の処理がCPU1により実施され
る。つまり、CPU1は全体の観客データのポリゴンの
内、その挙動を制御するポリゴン群を決める(ステップ
S41)。これにより、視点カメラから見える観客の
内、例えば自分が応援するチーム側に陣取った観客のポ
リゴンの群(例えば図10図の12枚のポリゴンA〜
D,A’〜D’,A”〜D”)。ここで、複数のポリゴ
ン群を選択しても勿論よい。
The CPU 1 executes an audience behavior control process shown in FIG. That is, the CPU 1 determines a polygon group for controlling the behavior among the polygons of the entire audience data (step S41). Thereby, among the spectators viewed from the viewpoint camera, for example, a group of polygons of spectators set up on the team side that they support (for example, 12 polygons A to
D, A 'to D', A "to D"). Here, a plurality of polygon groups may of course be selected.

【0059】次いでCPU1は、決定(選択)したポリ
ゴン群を動かす挙動パターンを選択する(ステップS4
2)。この挙動パターンとしては、ここでは、1群ある
いは複数群のポリゴンのそれぞれを上下(縦)方向に動
かす、または左右(横)方向に動かすパターンが用意さ
れている。この挙動パターンが選択されると、CPU1
は、選択した挙動パターンに沿って1群あるいは複数群
のポリゴンのそれぞれを動かす処理を行う(ステップS
43a,…,S43n)。
Next, the CPU 1 selects a behavior pattern for moving the determined (selected) polygon group (step S4).
2). Here, as the behavior pattern, a pattern is prepared in which one or more groups of polygons are moved in the vertical (vertical) direction or in the horizontal (horizontal) direction. When this behavior pattern is selected, the CPU 1
Performs a process of moving one or more groups of polygons along the selected behavior pattern (step S
43a,..., S43n).

【0060】このポリゴンの動かし方の一例を図10〜
図17に示す。これらの図のポリゴン群は1群を例示し
ており、図8の同一のデータ構成を有する。ポリゴンを
動かす前の状態が図10の状態であるとすると、この状
態から、例えばフレーム更新毎に、図11、図12、図
13、図14、図15、図16で示すポリゴン位置の状
態へと順次動かし、複数フレーム後には一順して再び図
17で示すポリゴン位置の状態(図10と同じポリゴン
位置の状態)に戻る。
An example of how to move this polygon is shown in FIGS.
As shown in FIG. The polygon group in these figures exemplifies one group, and has the same data configuration in FIG. Assuming that the state before moving the polygon is the state of FIG. 10, the state is changed from this state to the state of the polygon position shown in FIG. 11, FIG. 12, FIG. 13, FIG. 14, FIG. After a plurality of frames, the state returns to the polygon position shown in FIG. 17 (the same polygon position as in FIG. 10) again.

【0061】具体例としては、図11に示す最初のフレ
ーム更新時には、最初のオブジェクトOB1を形成する
手前から1、5、9番目の3つのポリゴンA,A’,
A”を仮想空間で上方向に上げる(up)。図12に示
すその次のフレーム更新時には、オブジェクトOB1の
3つのポリゴンA,A’,A”をさらに上方向に上げる
(up)とともに、2番目のオブジェクトOB2を形成
する2、6、10番目の3つのポリゴンB,B’,B”
を上方向に上げる(up)。図13に示すその次のフレ
ーム更新時には、オブジェクトOB1のポリゴンA,
A’,A”を仮想空間で下方向に下げる(down)と
ともに、2番目のオブジェクトOB2のポリゴンB,
B’,B”をさらに上方向に上げ、かつ、3番目のオブ
ジェクトOB3を形成する3、7、11番目の3つのポ
リゴンC,C’,C”を上方向に上げる(up)。図1
4に示すその次のフレーム更新時には、2番目のオブジ
ェクトOB2のポリゴンB,B’,B”および3番目の
オブジェクトOB3のポリゴンC,C’,C”を下方向
に下げる(down)とともに、オブジェクトOB4の
3つのポリゴンD,D’,D”を上方向に上げる(u
p)。そして、図15に示すその次のフレーム更新時に
は、3番目のオブジェクトOB3のポリゴンC,C’,
C”およびオブジェクトOB4のポリゴンD,D’,
D”を下方向に下げる(down)。その次のフレーム
更新時には、遅れて下げ始めたオブジェクトOB4の3
つのポリゴンD,D’,D”を下方向にさらに下げる
(down)。これにより、図17に示すように、一巡
して最初のポリゴン位置状態に戻る。ポリゴンを左右方
向に動かすときも同様である。
As a specific example, at the time of updating the first frame shown in FIG. 11, three polygons A, A ′, A ′, and A ′, which are the first, fifth, and ninth from before the first object OB1 is formed.
A ″ is raised in the virtual space upward (up). At the time of the next frame update shown in FIG. 12, three polygons A, A ′, and A ″ of the object OB1 are further raised upward (up), and The second, sixth, and tenth three polygons B, B ′, B ″ forming the second object OB2
Is raised upward (up). When the next frame shown in FIG. 13 is updated, polygons A,
A ′ and A ″ are lowered in the virtual space (down), and polygons B and B of the second object OB2 are
B ′, B ″ are further raised upward, and the third, seventh and eleventh three polygons C, C ′, C ″ forming the third object OB3 are raised upward (up). FIG.
4, the polygons B, B ', B "of the second object OB2 and the polygons C, C', C" of the third object OB3 are lowered (down). Raise the three polygons D, D ', D "of OB4 upward (u
p). Then, at the time of updating the next frame shown in FIG. 15, the polygons C, C ′,
C "and the polygons D, D ',
D ”is lowered in the downward direction (down). At the time of the next frame update, 3 of the object OB4 that started to be delayed with a delay is updated.
The two polygons D, D ', D "are further lowered in the downward direction (down). As a result, as shown in Fig. 17, the polygon returns to the initial polygon position state. is there.

【0062】そして、CPU1は、1群あるいは複数群
のポリゴンのそれぞれを動かす度に(例えば図10から
図11に至る状態)、視点カメラから見える分の観客デ
ータをVDP5に指定する(ステップS44)。この
後、再びステップS41の処理に戻って、フレーム更新
毎に上述した挙動パターンの制御処理を繰り返す。な
お、この観客の挙動制御の処理は複数の表示フレーム毎
に行うようにして、かかる処理を間引きして、簡素化す
ることもできる。なお、3次元仮想空間内の表示体は、
仮想空間内の所定の視点(遊戯者によって移動され得
る。)から表示画面に対して透視変換されて表示され
る。また、仮想カメラの位置、投影センターに相当する
視点と、キャラクターの視線制御における視点とは、念
のために、別物であることを指摘しておく。
Each time the CPU 1 moves one or more groups of polygons (for example, the state from FIG. 10 to FIG. 11), the CPU 1 designates the audience data that can be seen from the viewpoint camera to the VDP 5 (step S44). . Thereafter, the process returns to step S41, and the above-described behavior pattern control process is repeated every frame update. It should be noted that the processing of the audience behavior control is performed for each of a plurality of display frames, and such processing can be thinned out to simplify the processing. The display in the three-dimensional virtual space is
The display screen is perspectively transformed and displayed from a predetermined viewpoint (which can be moved by a player) in the virtual space. In addition, it should be pointed out that the viewpoint corresponding to the position of the virtual camera, the projection center, and the viewpoint in the gaze control of the character are different objects just in case.

【0063】この結果、複数のポリゴンを1つのオブジ
ェクトとして関連付け、かつ、このような複数のオブジ
ェクトの各ポリゴンを横断的にグループ化してインター
リーブし、関連する絵柄をグループ毎にテクスチャで与
えているので、オブジェクト単位で各ポリゴンを動かす
だけで、絶え間なく動く観客の多彩な挙動をよりリアル
に表現することができる。オブジェクト単位で動かすの
で、そのソフトプログラムのコマンド数が少なくなるな
ど、その設計を簡単化できる。また、挙動制御自体も簡
単になって、制御のための演算負荷が少なくなる。観客
個々をポリゴンで表示する場合に比べて遜色の無いリア
ルな挙動を表現しながら、扱うデータ量は格段に少なく
て済む。したがって、観客データを格納しておくメモリ
の容量の少なくてよい。当然に、動画的に観客の挙動を
表示する場合よりも、データ数が少なく、かつ、よりリ
アルに臨場感をもって表現できる。
As a result, a plurality of polygons are associated as one object, and the polygons of such a plurality of objects are grouped transversely and interleaved, and related patterns are given by texture for each group. By simply moving each polygon on an object-by-object basis, it is possible to more realistically express the variegated behavior of a constantly moving audience. Since the operation is performed on an object basis, the design can be simplified, for example, the number of commands of the software program is reduced. Further, the behavior control itself is simplified, and the calculation load for the control is reduced. The amount of data to be handled can be significantly reduced while expressing realistic behavior that is comparable to the case where individual audiences are displayed by polygons. Therefore, the capacity of the memory for storing the audience data may be small. Naturally, the number of data can be reduced and the expression can be made more realistically with a sense of reality than when the behavior of the audience is displayed as a moving image.

【0064】続いて、上述したフォグ制御の処理を図1
8〜図21を用いて説明する。このフォグ制御とは、前
述したように、カラー値を持った一種のマスクデータを
画像データ上に重畳する処理であり、従来の輝度データ
のみによって1日の日照変化に伴う明るさの度合いの変
化を表すことは難しい点を改善しようとするものであ
る。
Subsequently, the above-described fog control process is described with reference to FIG.
This will be described with reference to FIGS. As described above, the fog control is a process of superimposing a type of mask data having a color value on image data, and a change in the degree of brightness due to a change in sunshine of a day using only conventional brightness data. Is an attempt to improve the difficulty.

【0065】この処理はCPU1により、例えば図18
に示すように実行される。なお、この図18の処理をV
DP5で実行させてもよい。
This processing is performed by the CPU 1, for example, as shown in FIG.
Is performed as shown in FIG. The processing of FIG.
It may be executed by DP5.

【0066】CPU1は、まず、その時点の実時間(す
なわち、プレーヤ(遊戯者)がゲーム装置を操作してい
る実際の時間)を実時間クロック13から読み込む(ス
テップS51)。次いで、その実時間が予め定めた、
昼、夕、夜の基準となる時間帯からずれているかどうか
を判断する(ステップS52)。この昼、夕、夜の基準
時間帯は、例えば、図19のように定められている。例
えば、昼間の基準時間帯としては比較的長めに6:00
〜16:30を、夕方の基準時間帯としては17:00
〜18:30に、夜間の基準時間帯としては19:30
〜5:30にそれぞれ設定されている。ここで、昼間の
基準時間帯を長めにしているのは、朝方近くにプレイす
る遊戯者と夕方近くにプレイする遊戯者との間で、画面
の明るさが影響してゲーム結果に差が出ないようにする
ためである。
First, the CPU 1 reads the real time at that time (ie, the actual time during which the player (player) is operating the game device) from the real time clock 13 (step S51). Then, the real time was predetermined,
It is determined whether there is a deviation from the reference time zones of day, evening, and night (step S52). The reference time periods of day, evening, and night are determined, for example, as shown in FIG. For example, it is relatively long at 6:00 in the daytime reference time zone.
16:30 to 17:00 as the evening reference time zone
~ 18: 30, 19:30 as the reference time zone at night
5:30. Here, the reason why the reference time period in the daytime is made longer is that a difference in the game result occurs between a player who plays near the morning and a player who plays near the evening due to the effect of the screen brightness. This is to prevent it.

【0067】ステップS52の判断でYESとなるとき
は、昼、夕、夜の基準時間帯別に予め設定されているフ
ォグデータのパラメータ値をROM2から読み出す(ス
テップS53)。このパラメータとしては、赤、青、緑
のフォグのカラーコード、オフセット値(フォグの濃さ
を表す)、および濃度(奥行きに対するフォグの掛か具
合の3つであり、基準時間帯についてはそれらのパラメ
ータ値が適宜な値になるように予め決められている。
If the determination in step S52 is YES, the parameter values of fog data set in advance for the reference time periods of day, evening, and night are read from the ROM 2 (step S53). The three parameters are a color code of red, blue, and green fog, an offset value (representing the density of the fog), and a density (how the fog is applied to the depth). The value is determined in advance so as to be an appropriate value.

【0068】次いで、CPU1はフォグデータを演算
し、そのデータをマスクデータとしてVDP5に出力す
る(ステップS54,S55)。
Next, CPU 1 calculates fog data and outputs the data to VDP 5 as mask data (steps S54 and S55).

【0069】一方、ステップS52でNOとなるとき
は、実時間と基準時間帯とのずれを計算する(ステップ
S56)。例えば、実時間が朝の5:45であったとす
れば、夜の基準時間帯と昼のそれとの丁度、中間で、1
5分のずれがある。
On the other hand, if the answer is NO in step S52, the difference between the real time and the reference time zone is calculated (step S56). For example, if the real time is 5:45 in the morning, then the actual time is 1 in the middle of the reference time zone at night and that at noon.
There is a 5 minute shift.

【0070】次いで、CPU1は、ずれがある実時間を
挟んで存在する2つの基準時間帯のフォグデータのパラ
メータ値(R,G,Bのカラーコード、オフセット値、
濃度)をそれぞれ読み出す(ステップS57)。実時間
が例えば5:45であったとすれば、夜間と昼間の基準
時間帯のパラメータ値がそれぞれ読み出される。
Next, the CPU 1 determines the fog data parameter values (R, G, B color codes, offset values,
(Density) are read out (step S57). Assuming that the actual time is, for example, 5:45, the parameter values in the nighttime and daytime reference time zones are respectively read.

【0071】そして、オフセット値および濃度に対する
パラメータ値の補間演算が行われる(ステップS5
8)。例えば、実時間が例えば5:45の場合、オフセ
ット値および濃度は丁度、夜間と昼間の基準時間帯のオ
フセット値および濃度の1/2の平均値となる。実時間
がいずれかの基準時間帯により近い場合、その近い分の
重み付けがなされ、平均化(補間)される。
Then, the interpolation calculation of the parameter value with respect to the offset value and the density is performed (step S5).
8). For example, when the actual time is, for example, 5:45, the offset value and the density are just average values of オ フ セ ッ ト of the offset value and the density in the nighttime and daytime reference time zones. If the actual time is closer to any of the reference time zones, the weight of the closer part is weighted and averaged (interpolated).

【0072】このように実時間が基準時間帯からずれて
いた場合でも、補間演算により、オフセット値と濃度が
決まり、前述と同様にフォグデータが演算され、出力さ
れる(ステップS54,S55)。
As described above, even when the actual time deviates from the reference time zone, the offset value and the density are determined by the interpolation calculation, and the fog data is calculated and output as described above (steps S54 and S55).

【0073】この結果、プレーヤ(遊戯者)がゲームを
行うときの日照状態(物理的明るさ)に応じてフォグが
掛けられた画像がリアルタイムに表示される。例えば、
夕方にゲームを行う場合、競技場の外の背景には黒っぽ
いフォグが掛けられる(図20の斜線参照)。また例え
ば、夜間にゲームを行う場合、背景に月が出ているとす
れば、黒っぽいフォグと月光に輝く黄色っぽいフォグと
が背景に掛かる(図21の斜線参照)。
As a result, an image fogged according to the sunshine state (physical brightness) when the player (player) plays the game is displayed in real time. For example,
When a game is played in the evening, a dark fog is hung on the background outside the stadium (see diagonal lines in FIG. 20). For example, in the case of playing a game at night, if the moon is present in the background, a dark fog and a yellowish fog shining in moonlight hang on the background (see the oblique lines in FIG. 21).

【0074】このため、従来のように単に輝度値のみの
制御で、競技場およびその周囲を表示する画像の日照状
態(物理的明るさ)を表現する場合とは異なり、よりリ
アルに明るさの変化を表現できる。とくに、カラーのフ
ォグデータを被せているため、例えば月が出ている部分
など、局所的な明るさの調整も容易に可能である。ま
た、本実施形態では例えば朝焼け、夕焼けが出るような
基準時間帯間の微妙な明るさをも、昼間、夕方、夜間の
内の2つの基準時間帯を使った補間パラメータから処理
できる。
For this reason, unlike the conventional case where the control of only the brightness value is used to represent the sunshine state (physical brightness) of the image displaying the stadium and its surroundings, the brightness is more realistically controlled. Can express change. In particular, since the color fog data is covered, it is possible to easily adjust the local brightness, for example, at a portion where the moon is appearing. Further, in the present embodiment, for example, subtle brightness between reference time zones such as when a sunrise or a sunset appears can be processed from interpolation parameters using two reference time zones of daytime, evening, and nighttime.

【0075】つまり、昼、夕、夜の一番ゲームに適した
カラー状態に対応したカラー状態を予め作成しておい
て、実時間に合ったカラー状態を昼/夕、夕/夜、もし
くは夜/昼の基準値間で補間(具体的には、カラーの混
ぜ合わせ処理;2つの基準値の間で補間をした輝度値を
付加してもよい)してカラー状態を決める。このため、
単に輝度値のみで調整する場合のように画面が暗くなっ
て操作が難しくなるということもない。カラー調整の開
始点(一方の基準値)と終着点(もう一方の基準値)と
が予め決まっており、ゲームに適した状態がセットされ
ているから、どの時間にプレイしても画面のカラー状態
による有利/不利が生じない。つまり、ゲームであるこ
との特殊性ゆえに、「時間の変化に拠るカラー変化」を
演出した上で、「プレイする時間帯によって有利/不利
が生じて不公正感を出さない」ということが重要であ
り、本実施形態の装置はこれに応えることができる。こ
のように、競技場やその周辺を取り巻く環境の明るさ表
現に関して臨場感に優れた画像を提供できる。
That is, a color state corresponding to a color state most suitable for the day, evening, and night game is created in advance, and a color state suitable for real time is changed to day / evening, evening / night, or night / night. The color state is determined by interpolating between the daytime reference values (specifically, color mixing processing; a luminance value interpolated between the two reference values may be added). For this reason,
The screen is not darkened and the operation is not difficult as in the case where the adjustment is performed only with the luminance value. Since the start point (one reference value) and the end point (the other reference value) of the color adjustment are predetermined, and the state suitable for the game is set, the color of the screen can be displayed at any time. There are no advantages / disadvantages depending on the condition. In other words, because of the uniqueness of being a game, it is important to produce “color changes due to changes in time” and then “do not create unfair feelings due to advantages / disadvantages depending on the time of playing”. Yes, the device of the present embodiment can respond to this. As described above, it is possible to provide an image with an excellent sense of reality regarding the brightness expression of the environment surrounding the stadium and its surroundings.

【0076】上述したキャラクタの視線制御、観客の挙
動制御、およびフォグ制御は必ずしも3つ同時に実行し
なくてもよい。いずれか1つまたは2つの制御を行うよ
うにしてもよい。
It is not always necessary to simultaneously execute the above-described three types of character line-of-sight control, spectator behavior control, and fog control. Any one or two controls may be performed.

【0077】なお、図22はキャラクタの視線制御の結
果表示される画面を模式的に示したものである。また、
図8から図17において説明した実施形態において、競
技場を臨む観客、すなわち、ゲーム空間である三次元仮
想空間内に表示される表示体の一例、を有するテクスチ
ャーをA乃至D"のそれぞれのポリゴン面に貼られた態
様は特に限定されない。例えば、ポリゴン面にマッピン
グされるテクスチャーのうち、観客を模した表示体以外
の背景部分を透明ビットのテクスチャーとし、表示体の
部分を不透明ビットのテクチャーとすることができる。
FIG. 22 schematically shows a screen displayed as a result of the gaze control of the character. Also,
In the embodiment described with reference to FIGS. 8 to 17, the texture having the spectators facing the stadium, that is, an example of a display object displayed in a three-dimensional virtual space that is a game space is represented by polygons A to D ″, respectively. There is no particular limitation on the mode attached to the surface.For example, among the textures mapped on the polygon surface, the background part other than the display body imitating the audience is the texture of the transparent bit, and the part of the display body is the texture of the opaque bit. can do.

【0078】図23はこのテクスチャーの模式図であ
る。観客である表示体300および必要であればその周
囲部分301も含めて不透明ビットのテクスチャー領域
とする。それ以外の部分、例えば、背景部分302を透
明ビットのテクスチャー領域とする。図24は、他の観
客の形態に係わるテクスチャーの例である。背景302
は同様に透明ビットであり、キャラクタ−304は不透
明ビットである。このテクスチャーは、図23のテクス
チャーが貼られるポリゴン以外のポリゴンに貼り付けら
れ、図23のテクスチャーが貼られたポリゴンの手前、
即ちより仮想視点側に図24のテクスチャーが貼られた
ポリゴンを配置する。図25は、これらのテクスチャー
が図8乃至17に示すように重畳、すなわち、重ねられ
た状態を示すものである。図23の透明な背景部分に図
24のキャラクタ304が重ねて表示される。したがっ
て、図23と図24とのポリゴンが重ねられて表示され
ると、両方のテクスチャーの観客が合成、合体、或いは
重ねられて画面に表示される。なお、それぞれのポリゴ
ンのキャラクターである観客同士が重なると3次元空間
において下の方の観客、すなわち、優先度の低いポリゴ
ンの観客は優先度の高いポリゴンの観客の下になり画面
には表示されないことになる。
FIG. 23 is a schematic diagram of this texture. The opaque bit texture area including the display body 300 as a spectator and the surrounding area 301 if necessary is used. The other part, for example, the background part 302 is set as a transparent bit texture area. FIG. 24 is an example of a texture related to another audience form. Background 302
Are also transparent bits and character-304 is an opaque bit. This texture is pasted on a polygon other than the polygon to which the texture of FIG. 23 is pasted,
That is, the polygon on which the texture shown in FIG. 24 is pasted is arranged closer to the virtual viewpoint. FIG. 25 shows a state in which these textures are superimposed, that is, superimposed as shown in FIGS. The character 304 of FIG. 24 is displayed on the transparent background portion of FIG. Therefore, when the polygons of FIG. 23 and FIG. 24 are superimposed and displayed, the audiences of both textures are combined, combined, or superimposed and displayed on the screen. In addition, when the spectators who are the characters of each polygon overlap, the spectator lower in the three-dimensional space, that is, the spectator of the low-priority polygon is below the spectator of the high-priority polygon and is not displayed on the screen. Will be.

【0079】このようなテクスチャーが貼られた複数の
ポリゴンを図8から図17のように、複数のポリゴンを
その重ね合わせ方向に直交或いはこれ以外に交差する面
に沿って、あるいは、3次元空間内でポリゴンA乃至
D"に臨む仮想カメラに沿って交差する方向、或いは、
その重ね合わせ方向に交差する方向に動かすことによっ
て観客の動きを前記実施形態の場合と同様に再現或いは
シミュレートすることができる。図26及び図27は図
23で説明したポリゴン400と図24で説明したポリ
ゴン402とを重ね、図26はポリゴン400を上に動
かし、図27はポリゴン402を上に動かした場合であ
る。
As shown in FIGS. 8 to 17, a plurality of polygons on which such a texture is pasted are formed along a plane orthogonal to or overlapping with the overlapping direction, or in a three-dimensional space. In the direction intersecting along a virtual camera facing polygons A to D ", or
The movement of the spectator can be reproduced or simulated by moving the spectator in a direction intersecting the superposition direction in the same manner as in the above-described embodiment. 26 and 27 overlap the polygon 400 described in FIG. 23 and the polygon 402 described in FIG. 24, FIG. 26 shows the case where the polygon 400 is moved upward, and FIG. 27 shows the case where the polygon 402 is moved upward.

【0080】このように、本発明によれば、サッカー競
技場における観客のように多数の表示体が揺動するよう
な動き、或いは、多数の表示体からなる群の動き、多数
の表示体を複数のブロックに分けて、各ブロックを制御
された状態で動かすことが好適な場合(動物や昆虫の群
の動き)において、その動きをより効率的に作り出すこ
とが可能となる。このような動きは、特定のモードの
時、例えば、サッカーゲームの場合、選手が放ったボー
ルがゴールした場合に生じるようにする。なお、繰り返
すが、ここで説明したテクスチャーは、背景(例えば、
雲、波等)及び観客などのキャラクタを含めた絵のデー
タであっても良いことは勿論である。また、図23の背
景部分を透明テクスチャーから構成されることに代え
て、単一色のテクスチャーにし、図24のキャラクター
を、この単一色とは区別できるような色のテクスチャー
から構成しても良い。さらに、図24の背景部分を単一
色のテクスチャーにし、図23の背景部分は透明色にし
たまま、図23のキャラクタの少なくとも輪郭を前記単
一色以外にすることも可能である。さらにまた、図8乃
至図17の場合は各ポリゴンを仮想空間状斜め上方に徐
々に位置するように配置したが、これに限らず、ほぼ平
坦面に各ポリゴンを配置するようにもできる。
As described above, according to the present invention, a movement in which a large number of display bodies swings like a spectator in a soccer stadium, a movement of a group of a large number of display bodies, and a large number of display bodies. In a case where it is preferable to divide each block into a plurality of blocks and move each block in a controlled state (movement of a group of animals or insects), the movement can be created more efficiently. Such a movement is performed in a specific mode, for example, in the case of a soccer game, when a ball released by a player reaches a goal. Note that, again, the texture described here is the background (for example,
Of course, it may be picture data including characters such as clouds, waves, and spectators. Further, instead of the background portion of FIG. 23 being composed of a transparent texture, a single color texture may be used, and the character of FIG. 24 may be composed of a color texture that can be distinguished from this single color. Further, it is also possible to make the background part of FIG. 24 a single color texture and leave the background part of FIG. 23 transparent, while at least the outline of the character of FIG. 23 is other than the single color. Further, in the case of FIGS. 8 to 17, the polygons are arranged so as to be gradually positioned diagonally upward in the virtual space. However, the present invention is not limited to this, and the polygons may be arranged on a substantially flat surface.

【0081】[0081]

【発明の効果】以上のように本発明の一つの態様によれ
ば、キャラクタにゲームを通して関わりを持つ目標体と
当該キャラクタとの間の物理的関係またはゲーム内容に
関する関係が所定条件を合致すると判断されたとき、キ
ャラクタの視線を目標体に向けさせるようにしたので、
例えばサッカーゲームにおいてキャラクタがボールをド
リブルしながら攻撃をする場合、事前に、蹴り出すゾー
ンや味方選手を探すため、別の方を見る(見渡す)動作
を行うので、実際のサッカー競技者の挙動をよりリアル
にシミュレートでき、より自然な動きになり、リアル感
および臨場感を向上させることができる。
As described above, according to one aspect of the present invention, it is determined that the physical relationship or the game content between the target object and the character concerned with the character through the game matches the predetermined condition. The character's line of sight to the target body when
For example, in a soccer game, when a character makes an attack while dribbling a ball, the character performs an action to look (look over) another person in advance to search for a kicking zone or a friendly player. It is possible to simulate more realistically, to make the movement more natural, and to improve the sense of realism and presence.

【0082】また、この視点制御は、1)ゲーム中の作
戦の立て方、ゲームの難易度にも影響させることができ
る、2)ボールゲームの場合、ボールを持っているキャ
ラクタの行動からボールの転送される(べき)先や周囲
の状況を把握でき、操作がし易い、などの効果も得られ
る。
Further, this viewpoint control can influence 1) how to make a strategy during the game and the difficulty of the game. 2) In the case of a ball game, the behavior of the character holding the ball can It is possible to obtain the effect of being able to grasp the destination to be transferred (should be) and the surrounding situation, and to facilitate the operation.

【0083】また本発明の別の態様によれば、複数の観
客を模したテクスチャを個々に貼り付ける複数枚のポリ
ゴンを仮想的に重ね合わせ、この複数枚のポリゴンをそ
の重ね合わせ方向に交差する方向に沿って動かすように
したので、観客個々の多彩な動き(よりリアルな挙動)
を表現でき、ソフトプログラムの設計を簡単化させ、演
算負荷を減少させ、メモリ容量の少量化を可能にするな
ど、これらを要求を同時にほとんど満足させ、かつ、ゲ
ームの臨場感を盛り上げることができる。
According to another aspect of the present invention, a plurality of polygons to which textures imitating a plurality of spectators are individually pasted are virtually superimposed, and the plurality of polygons intersect in the superimposing direction. Various movements (more realistic behavior) for each audience because they are moved along the direction
Can simplify the design of software programs, reduce the computational load, reduce the amount of memory, etc., and at the same time almost satisfy these requirements and increase the realism of the game. .

【0084】さらに本発明の別の態様によれば、プレー
ヤがゲームを実行する1日の内の実際の時間を検知し、
この実際の時間に応じて画像の画面カラーを、予めゲー
ムに最適になるように調整した画面カラーから補完して
求めるようにしたので、時間に合わせて画面カラーを変
化させる演出を加えた上で、画面カラーを常にゲームの
支障にならないように保つことができる。また、従来の
ように輝度だけで画面カラー状態を調整するときの不都
合を回避でき、表示画面のカラー状態と1日の内の明る
さの変化とを安定してかつ精度良く適合させ、ゲームの
臨場感を高めることができる。
According to yet another aspect of the present invention, the actual time of day during which the player executes the game is detected,
According to this actual time, the screen color of the image is obtained by complementing the screen color adjusted in advance so that it is optimal for the game, so after adding the effect of changing the screen color according to the time, , The screen color can always be kept so as not to hinder the game. In addition, it is possible to avoid the inconvenience of adjusting the screen color state only with the luminance as in the conventional case, and to stably and accurately match the color state of the display screen with the change in the brightness within a day, thereby improving the game performance. Realism can be enhanced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明の一実施例に係るゲーム装置の機
能的な構成を示すブロック図である。
FIG. 1 is a block diagram showing a functional configuration of a game device according to one embodiment of the present invention.

【図2】CPUの処理の概要を示す粗いフローチャート
である。
FIG. 2 is a rough flowchart showing an outline of processing by a CPU;

【図3】視線制御における角度計算を説明する図であ
る。
FIG. 3 is a diagram illustrating angle calculation in line-of-sight control.

【図4】視線制御における角度計算を説明する図であ
る。
FIG. 4 is a diagram illustrating angle calculation in line-of-sight control.

【図5】キャラクタの視線制御の様子を示す図である。FIG. 5 is a diagram illustrating a state of gaze control of a character.

【図6】視線制御の一例を示す概略フローチャートであ
る。
FIG. 6 is a schematic flowchart illustrating an example of line-of-sight control.

【図7】図6と共に、視線制御の一例を示す概略フロー
チャートである。
FIG. 7 is a schematic flowchart showing an example of gaze control together with FIG. 6;

【図8】ポリゴンによる観客データのデータ構造を説明
する図である。
FIG. 8 is a diagram illustrating a data structure of spectator data using polygons.

【図9】観客の挙動制御の処理の一例を示す概略フロー
チャートである。
FIG. 9 is a schematic flowchart illustrating an example of a process of controlling the behavior of an audience.

【図10】観客の挙動制御の一例の一こまを示す説明図
である。
FIG. 10 is an explanatory diagram showing one example of spectator behavior control.

【図11】観客の挙動制御の一例の別の一こまを示す説
明図である。
FIG. 11 is an explanatory diagram showing another example of spectator behavior control.

【図12】観客の挙動制御の一例の別の一こまを示す説
明図である。
FIG. 12 is an explanatory diagram showing another frame of an example of spectator behavior control.

【図13】観客の挙動制御の一例の別の一こまを示す説
明図である。
FIG. 13 is an explanatory diagram illustrating another example of spectator behavior control.

【図14】観客の挙動制御の一例の別の一こまを示す説
明図である。
FIG. 14 is an explanatory diagram illustrating another example of spectator behavior control.

【図15】観客の挙動制御の一例の別の一こまを示す説
明図である。
FIG. 15 is an explanatory diagram illustrating another example of spectator behavior control.

【図16】観客の挙動制御の一例の別の一こまを示す説
明図である。
FIG. 16 is an explanatory diagram illustrating another example of spectator behavior control.

【図17】観客の挙動制御の一例の別の一こまを示す説
明図である。
FIG. 17 is an explanatory diagram showing another example of spectator behavior control.

【図18】フォグ制御の一例に係る概略フローチャート
である。
FIG. 18 is a schematic flowchart according to an example of fog control.

【図19】フォグ制御のための時間帯分けを説明する図
である。
FIG. 19 is a diagram illustrating time division for fog control.

【図20】フォグ制御による表示画面の一例を示す図で
ある。
FIG. 20 is a diagram illustrating an example of a display screen by fog control.

【図21】フォグ制御による表示画面の別の一例を示す
図である。
FIG. 21 is a diagram showing another example of a display screen by fog control.

【図22】キャラクタの視線制御の結果、画面に表示さ
れる映像の模式図である。
FIG. 22 is a schematic diagram of an image displayed on a screen as a result of a gaze control of a character.

【図23】観客を含むテクスチャーの他の例である。FIG. 23 is another example of a texture including an audience.

【図24】それのさらに他の例である。FIG. 24 is yet another example thereof.

【図25】それぞれのテクスチャーが貼られたポリゴン
を重ねて表示した場合のテクスチャーの表示態様であ
る。
FIG. 25 shows a texture display mode in a case where polygons to which respective textures are pasted are displayed in a superimposed manner.

【図26】図25の表示態様において、各ポリゴン面を
動かす一態様である。
FIG. 26 shows one mode of moving each polygon surface in the display mode of FIG. 25.

【図27】さらに他の態様である。FIG. 27 shows still another embodiment.

【符号の説明】[Explanation of symbols]

1 CPU 2 ROM 3 RAM 4 入力装置 5 VDP 6 VRAM 7 描画装置 9 テクスチャデータROM 10 フレームバッファメモリ 11 D/A変換器 12 表示装置 13 フォグ回路 14 実時間クロック DESCRIPTION OF SYMBOLS 1 CPU 2 ROM 3 RAM 4 Input device 5 VDP 6 VRAM 7 Drawing device 9 Texture data ROM 10 Frame buffer memory 11 D / A converter 12 Display device 13 Fog circuit 14 Real time clock

フロントページの続き (72)発明者 山本 信 東京都大田区羽田1丁目2番12号 株式 会社 セガ・エンタープライゼス内 (72)発明者 山本 花織 東京都大田区羽田1丁目2番12号 株式 会社 セガ・エンタープライゼス内 (56)参考文献 特開 平5−249953(JP,A) 特開 平5−333850(JP,A) 特開 平9−161095(JP,A) 特開 平8−54820(JP,A) 特開 平7−231985(JP,A) DOS/V magazine(1995 年4月15日号),ソフトバンク,平成7 年4月15日,Vol.5,No.5, p.184−185(「Magic Carp et」特にp.184右写真のドラゴン) 月刊ゲームウォーカー(1996年8月 号),角川書店,平成8年8月1日,V ol.3,No.8,p.126(右下写 真:「スペースハリアー」スプライトの 重ね合わせによるドラゴンの表現) 月刊ゲームウォーカー(1996年8月 号),角川書店,平成8年8月1日,V ol.3,No.8,p.34−37(「N iGHTS」特にp.36等のリングの表 現) 月刊ゲームウォーカー(1996年11月 号),角川書店,平成8年11月1日,V ol.3,No.11,p.127(左上 「アフターバーナー▲II▼」) 月刊ゲームウォーカー(1996年12月 号),角川書店,平成8年12月1日,V ol.3,No.12,p.136(「実況 Jリーグパーフェクトストライカー」) 月刊ゲームウォーカー(1995年6月 号),角川書店,平成7年6月1日,V ol.2,No.6,p.46−47(「バ ーチャストストライカー」) ”BIT ENTERTAINMEN T”,月刊アスキー(1996年7月号), アスキー,平成8年7月1日,Vol. 20,No.7,p.505−508(特にp. 506右上写真:「NBA Full C ourt Press」「Micros oft Soccer」) (58)調査した分野(Int.Cl.7,DB名) A63F 9/22 G06T 15/70 Continued on the front page (72) Inventor Shin Yamamoto 1-2-12 Haneda, Ota-ku, Tokyo Co., Ltd. Inside Sega Enterprises (72) Inventor Kaori Yamamoto 1-2-12 Haneda, Ota-ku, Tokyo Sega Co., Ltd. In the enterprises (56) References JP-A-5-249953 (JP, A) JP-A-5-333850 (JP, A) JP-A 9-161095 (JP, A) JP-A-8-54820 (JP) , A) JP-A-7-231985 (JP, A) DOS / V magazine (April 15, 1995), Softbank, April 15, 1995, Vol. 5, No. 5, p. 184-185 ("Magical Carp et", especially the dragon on the right photograph on page 184) Monthly Game Walker (August 1996), Kadokawa Shoten, August 1, 1996, Vol. 3, No. 8, p. 126 (Shima Right bottom: Expression of dragon by superposition of "Space Harrier" sprite) Monthly Game Walker (August 1996 issue), Kadokawa Shoten, August 1, 1996, Vol. 3, No. 8, p. 34-37 (Representation of "NiGHTS", especially rings on page 36, etc.) Monthly Game Walker (November 1996), Kadokawa Shoten, November 1, 1996, Vol. 3, No. 11, p. 127 (upper left "Afterburner II") Monthly Game Walker (December 1996), Kadokawa Shoten, December 1, 1996, Vol. 3, No. 12, p. 136 ("Jikkyou J League Perfect Striker") Monthly Game Walker (June 1995 issue), Kadokawa Shoten, June 1, 1995, Vol. 2, No. 6, p. 46-47 ("virtual striker") "BIT ENTERTAINMENT T", monthly ASCII (July 1996), ASCII, July 1, 1996, Vol. 7, p. 505-508 (especially on p. 506 upper right photo: "NBA Full Court Press", "Micros of Soccer") (58) Fields investigated (Int. Cl. 7 , DB name) A63F 9/22 G06T 15/70

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 仮想3次元空間内に配列された複数の表
示体の挙動を画面に表示する画像処理装置において、複
数枚のポリゴンを互いに関連付けて一つのオブジェクト
として扱い、当該オブジェクトを構成する複数枚のポリ
ゴンのそれぞれを他のオブジェクトを構成する複数枚の
ポリゴンと交互に重ねあわせた状態で、前記オブジェク
トをオブジェクト単位で重ね合わせ方向に交差する方向
に沿って周期的に揺動させる揺動手段を具備することを
特徴とする画像処理装置。
1. An image processing apparatus for displaying on a screen the behavior of a plurality of display objects arranged in a virtual three-dimensional space, wherein a plurality of polygons are treated as one object in association with each other, and a plurality of polygons constituting the object are treated. Direction in which the objects intersect in the direction in which the objects are overlapped in units of objects in a state in which each of the polygons is alternately overlapped with a plurality of polygons constituting another object
An oscillating means for periodically oscillating along the line .
【請求項2】 前記揺動手段は前記オブジェクトを上下
方向或いは左右方向に揺動させることを特徴とする請求
項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the swing unit swings the object vertically or horizontally.
【請求項3】 前記複数枚のポリゴンを複数群或いは複
数列有することを特徴とする請求項1又は請求項2のう
ち何れか1項に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the plurality of polygons have a plurality of groups or a plurality of rows.
【請求項4】 前記オブジェクトを構成する複数枚のポ
リゴンには互いに関連する図柄が描かれていることを特
徴とする請求項1乃至請求項3のうち何れか1項に記載
の画像処理装置。
4. The image processing apparatus according to claim 1, wherein symbols related to each other are drawn on a plurality of polygons constituting the object.
【請求項5】 仮想3次元空間内に配列された複数の表
示体の挙動を画面に表示する画像処理方法において、複
数枚のポリゴンを互いに関連付けて一つのオブジェクト
として扱い、当該オブジェクトを構成する複数枚のポリ
ゴンのそれぞれを他のオブジェクトを構成する複数枚の
ポリゴンと交互に重ねあわせた状態で、前記オブジェク
トをオブジェクト単位で重ね合わせ方向に交差する方向
に沿って周期的に揺動させることを特徴とする画像処理
方法。
5. An image processing method for displaying, on a screen, behaviors of a plurality of display objects arranged in a virtual three-dimensional space, wherein a plurality of polygons are treated as one object in association with each other, and a plurality of polygons constituting the object are treated. Direction in which the objects intersect in the direction in which the objects are overlapped in units of objects in a state in which each of the polygons is alternately overlapped with a plurality of polygons constituting another object
An image processing method characterized by periodically swinging along an axis.
【請求項6】 オブジェクトを上下方向或いは左右方向
に揺動させることを特徴とする請求項5に記載の画像処
理方法。
6. The image processing method according to claim 5, wherein the object is swung vertically or horizontally.
【請求項7】 前記複数枚のポリゴンを複数群或いは複
数列有することを特徴とする請求項5又は請求項6のう
ち何れか1項に記載の画像処理方法。
7. The image processing method according to claim 5, wherein the plurality of polygons have a plurality of groups or a plurality of rows.
【請求項8】 前記オブジェクトを構成する複数枚のポ
リゴンには互いに関連する図柄が描かれていることを特
徴とする請求項5乃至請求項7のうち何れか1項に記載
の画像処理方法。
8. The image processing method according to claim 5, wherein symbols related to each other are drawn on a plurality of polygons constituting the object.
【請求項9】 請求項5乃至請求項8のうち何れか1項
に記載の画像処理方法をコンピュータに実行させるプロ
グラムが格納されたROM。
9. A ROM storing a program for causing a computer to execute the image processing method according to claim 5. Description:
JP10159011A 1997-02-18 1998-06-08 Image processing apparatus and image processing method Expired - Fee Related JP3052933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10159011A JP3052933B2 (en) 1997-02-18 1998-06-08 Image processing apparatus and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP3408997 1997-02-18
JP9-34089 1997-02-18
JP10159011A JP3052933B2 (en) 1997-02-18 1998-06-08 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10036173A Division JPH10290886A (en) 1997-02-18 1998-02-18 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JPH1173525A JPH1173525A (en) 1999-03-16
JP3052933B2 true JP3052933B2 (en) 2000-06-19

Family

ID=26372890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10159011A Expired - Fee Related JP3052933B2 (en) 1997-02-18 1998-06-08 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3052933B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600793B2 (en) * 2000-09-20 2010-12-15 株式会社セガ Image processing device
JP5027355B2 (en) * 2001-02-27 2012-09-19 株式会社スクウェア・エニックス VIDEO GAME DEVICE AND CONTROL METHOD THEREOF, VIDEO GAME PROGRAM AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP2003053032A (en) * 2001-08-20 2003-02-25 Shinsedai Kk Soccer game device
JP4706966B2 (en) 2005-12-06 2011-06-22 株式会社セガ Image generation program and image processing apparatus
JP4838067B2 (en) * 2006-07-20 2011-12-14 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing apparatus control method, and program
JP5451136B2 (en) * 2008-03-31 2014-03-26 株式会社カプコン Game program and game system
JP5613433B2 (en) * 2010-03-31 2014-10-22 株式会社カプコン Image processing program, recording medium, and computer apparatus

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
"BIT ENTERTAINMENT",月刊アスキー(1996年7月号),アスキー,平成8年7月1日,Vol.20,No.7,p.505−508(特にp.506右上写真:「NBA Full Court Press」「Microsoft Soccer」)
DOS/V magazine(1995年4月15日号),ソフトバンク,平成7年4月15日,Vol.5,No.5,p.184−185(「Magic Carpet」特にp.184右写真のドラゴン)
月刊ゲームウォーカー(1995年6月号),角川書店,平成7年6月1日,Vol.2,No.6,p.46−47(「バーチャストストライカー」)
月刊ゲームウォーカー(1996年11月号),角川書店,平成8年11月1日,Vol.3,No.11,p.127(左上「アフターバーナー▲II▼」)
月刊ゲームウォーカー(1996年12月号),角川書店,平成8年12月1日,Vol.3,No.12,p.136(「実況Jリーグパーフェクトストライカー」)
月刊ゲームウォーカー(1996年8月号),角川書店,平成8年8月1日,Vol.3,No.8,p.126(右下写真:「スペースハリアー」スプライトの重ね合わせによるドラゴンの表現)
月刊ゲームウォーカー(1996年8月号),角川書店,平成8年8月1日,Vol.3,No.8,p.34−37(「NiGHTS」特にp.36等のリングの表現)

Also Published As

Publication number Publication date
JPH1173525A (en) 1999-03-16

Similar Documents

Publication Publication Date Title
KR100300832B1 (en) Image processing apparatus and image processing method
US8172678B2 (en) Image processing for a game
US6746331B1 (en) Assisting a player to contact an object by adjusting timing
US6603479B1 (en) Picture processing device, picture processing method, and game device and storage medium using the same
JPH10290886A (en) Image processing device and image processing method
JP4775989B2 (en) Image generation system, program, and information storage medium
JP4776831B2 (en) Program, information storage medium, game device, and host device
JP2020103798A (en) Game system and program
JP3052933B2 (en) Image processing apparatus and image processing method
JP3453111B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3686070B2 (en) Program, information storage medium, and image generation system
JP5938024B2 (en) GAME DEVICE, GAME SYSTEM, AND PROGRAM
JP4600793B2 (en) Image processing device
JP2007054656A (en) Image processor and image processing method
JP2009045273A (en) Program, information storage medium, and game system
JP4656622B2 (en) Image generation system, program, and information storage medium
JP5220349B2 (en) Program, information storage medium, and image generation system
JP6905568B2 (en) Game program, game processing method and information processing device
JP6980869B2 (en) Game system and programs
JP2001104634A (en) Game machine

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000307

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080407

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 14

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees