JP2000176167A - Game machine, game control method and storage medium thereof - Google Patents

Game machine, game control method and storage medium thereof

Info

Publication number
JP2000176167A
JP2000176167A JP10361643A JP36164398A JP2000176167A JP 2000176167 A JP2000176167 A JP 2000176167A JP 10361643 A JP10361643 A JP 10361643A JP 36164398 A JP36164398 A JP 36164398A JP 2000176167 A JP2000176167 A JP 2000176167A
Authority
JP
Japan
Prior art keywords
moving object
game
moving
color
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10361643A
Other languages
Japanese (ja)
Inventor
Takaaki Sotooka
高明 外岡
Yuichi Ninagawa
裕一 蜷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Co Ltd filed Critical Square Co Ltd
Priority to JP10361643A priority Critical patent/JP2000176167A/en
Publication of JP2000176167A publication Critical patent/JP2000176167A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable recognition how closer a moving object approach an object by making a hue of the moving object merge into a set object. SOLUTION: When showing a flying object as a polygon that can move in an optional direction in a virtual three-dimensional space, and displaying the flying object made up of an image that is texture mapped to the polygon and a cloud as an object are to be displayed, in the virtual three-dimensional space, the height direction distance (d) between the cloud and the flying object is obtained, and if the distance (d) exists within a prescribed range (S21, S22, S23-Yes), on the basis of the distance (d), correction is made to bring the display RGB value of an image forming the flying object closer to the display RGB value of the cloud (S30).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲームプログラム
に従ってゲームを進行させるゲーム装置及びゲーム制御
方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game device and a game control method for advancing a game according to a game program.

【0002】[0002]

【従来の技術】従来より仮想三次元空間中において移動
体を移動させるビデオゲーム、例えば飛行機あるいは各
種乗物の模擬シュミレーションゲームや、コントローラ
より各種の指示を行って移動体を所望の方向に移動させ
て途中にもうけられた障害物等を避けて目的地に到達さ
せるゲーム等が知られている。
2. Description of the Related Art Conventionally, a video game in which a moving object is moved in a virtual three-dimensional space, for example, a simulation simulation game of an airplane or various vehicles, or various instructions from a controller to move the moving object in a desired direction. 2. Description of the Related Art Games and the like for avoiding obstacles and the like created on the way and reaching a destination are known.

【0003】このようなゲームにおいては、移動体に対
して視点からの距離に基づいてデプスキューイング処理
を行うことで、仮想三次元空間に現実に即した奥行き感
を与えている。
In such a game, depth cuing is performed on a moving object based on a distance from a viewpoint to give a virtual three-dimensional space a sense of depth that is realistic.

【0004】[0004]

【発明が解決しようとしている課題】しかしながら、デ
プスキューイングは視点からの距離を基準にしているた
め、移動体が目標物にどれくらい近づいているかを認識
することが難しく、実際に目標物に到達して例えばそれ
以上の移動ができなくなったことを持って目標物に到達
したと判断するなどしていた。
However, since depth queuing is based on the distance from the viewpoint, it is difficult to recognize how close the moving object is to the target. For example, it is determined that the vehicle has reached the target object because it cannot move any more.

【0005】[0005]

【課題を解決するための手段】本発明は上述の課題に鑑
みて成されたもので、上述の課題を解決し、移動体の色
合いを設定した対象物に対して溶け込ませることによ
り、目標物にどれくらい近づいているかを認識可能とす
ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and solves the above-mentioned problems. The purpose is to make it possible to recognize how close the user is.

【0006】かかる目的を達成する一手段として例えば
以下の構成を備える。即ち、仮想三次元空間を任意方向
へ移動可能なポリゴンおよび当該ポリゴンにテクスチャ
マッピングされる画像とからなる移動体および他のオブ
ジェクトとを表示可能な表示手段とを備えるゲーム装置
において、前記移動体が前記他のオブジェクトの所定範
囲内に存在するとき、前記移動体と前記他のオブジェク
トとの離間距離を算出する離間距離算出手段と、前記離
間距離算出手段で算出された離間距離に基づいて前記移
動体を構成する画像の表示色を所定の表示色に近づける
表示色補正手段とを備えることを特徴とする。
As one means for achieving the above object, for example, the following arrangement is provided. That is, in a game device including a moving body including a polygon that can move in a virtual three-dimensional space in an arbitrary direction and an image texture-mapped to the polygon and a display unit that can display other objects, A separation distance calculating unit that calculates a separation distance between the moving object and the other object when the moving object is within a predetermined range of the other object; and the moving based on the separation distance calculated by the separation distance calculation unit. A display color correction unit that brings a display color of an image forming the body closer to a predetermined display color.

【0007】また、仮想三次元空間を任意方向へ移動可
能なポリゴンおよび当該ポリゴンにテクスチャマッピン
グされる画像とからなる移動体と他のオブジェクトとを
表示可能な表示手段と、前記移動体が前記他のオブジェ
クトの所定範囲内に存在するとき前記移動体と前記他の
オブジェクトとの画面高さ方向の離間距離を算出する離
間距離算出手段と、前記離間距離算出手段で算出された
離間距離に基づいて前記移動体を構成する画像の各表示
色を予め前記他のオブジェクト毎に設定した表示色に近
づける補正手段とを備えることを特徴とする。
[0007] Also, a display means capable of displaying a moving object composed of a polygon capable of moving in a virtual three-dimensional space in an arbitrary direction and an image texture-mapped to the polygon, and another object; A distance calculating unit that calculates a distance in the screen height direction between the moving object and the other object when the moving object is within a predetermined range of the object, based on the distance calculated by the distance calculating unit. A correction unit that brings each display color of the image forming the moving object closer to a display color set in advance for each of the other objects.

【0008】そして例えば、前記移動体は飛行体であ
り、前記他のオブジェクトは雲を模したものであること
を特徴とする。
[0008] For example, the moving object is a flying object, and the other object is a cloud.

【0009】また例えば、前記表示色は輝度カラー情報
値で表わされており、前記補正手段は前記移動体を構成
する画像の各輝度カラー情報値を予め前記他のオブジェ
クト毎に設定した各輝度カラー情報値に近づける色補正
を行なうことを特徴とする。
Further, for example, the display color is represented by a luminance color information value, and the correction means sets each luminance color information value of an image constituting the moving object to each luminance set in advance for each of the other objects. It is characterized in that a color correction approaching the color information value is performed.

【0010】更に例えば、前記移動体に対する色補正
は、前記移動体と前記他のオブジェクトとの離間距離が
なくなった時には、前記移動体の表示色をほぼ前記他の
オブジェクトの表示色とすることを特徴とする。
Further, for example, the color correction for the moving object may be such that when the separation distance between the moving object and the other object is lost, the display color of the moving object is substantially the display color of the other object. Features.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明に係
る一発明の実施の形態例を詳細に説明する。以下の説明
は、本発明をゲーム装置に適用した例を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. The following description describes an example in which the present invention is applied to a game device.

【0012】[第1の実施の形態例]図1は本発明に係
る一実施の形態例におけるゲームシステムの全体構成を
示すブロック図である。ゲームシステム51は、大別し
て、ゲームシステム51の主たる機能を有するゲーム装
置本体52と、ゲーム装置本体52に対する操作指示の
ための入力を行うコントローラ53と、後述するゲーム
に関する処理を実現するためのプログラムや画像デー
タ、サウンドデータなどを格納するCD−ROM(Comp
act Disc Read Only Memory )54と、ゲームの途中経
過データやゲーム環境設定データなどのゲームデータを
保存するメモリカード55と、ゲーム装置本体52から
の映像信号や音声信号に基づいてゲーム内容に応じた映
像表示やサウンド出力を行なうモニタディスプレイ56
とから構成されている。
[First Embodiment] FIG. 1 is a block diagram showing the overall configuration of a game system according to an embodiment of the present invention. The game system 51 is roughly divided into a game device main body 52 having a main function of the game system 51, a controller 53 for inputting an operation instruction to the game device main body 52, and a program for realizing a game-related process described later. CD-ROM (Comp
act Disc Read Only Memory) 54, a memory card 55 for storing game data such as game progress data and game environment setting data, and a game content based on video and audio signals from the game device main body 52. Monitor display 56 for video display and sound output
It is composed of

【0013】ゲーム装置本体52には、その上面に、C
D−ROM54をセットするためのディスクホルダ6
1、ディスクホルダ61を開くためのオープンボタン6
2、電源ボタン63およびリセットボタン64が設けら
れている。さらにゲーム装置本体52の前面には、コン
トローラ53やゲーム途中経過などを記憶するメモリカ
ード55を装着するためのスロット部65が設けられ、
このスロット部65を介してコントローラ53やメモリ
カード55がゲーム装置本体52に着脱自在に装着され
る。
The game apparatus main body 52 has a C
Disk holder 6 for setting D-ROM 54
1. Open button 6 for opening disk holder 61
2. A power button 63 and a reset button 64 are provided. Further, on the front surface of the game device main body 52, a slot portion 65 for mounting a controller 53 and a memory card 55 for storing the progress of the game and the like is provided,
The controller 53 and the memory card 55 are removably attached to the game device main body 52 via the slot portion 65.

【0014】また、ゲーム装置本体52の後面には、A
V(Audio and Visual)ケーブル57を接続するAV出
力部(図示省略)が設けられており、このAVケーブル
57を介してゲーム装置本体52とモニタディスプレイ
56とが接続されている。モニタディスプレイ56は、
CRT(Cathode Ray Tube)などにより構成することが
できる。
On the rear surface of the game device main body 52, A
An AV output unit (not shown) for connecting a V (Audio and Visual) cable 57 is provided, and the game apparatus main body 52 and the monitor display 56 are connected via the AV cable 57. The monitor display 56
It can be constituted by a CRT (Cathode Ray Tube) or the like.

【0015】図2は、図1のゲーム装置本体とその周辺
の詳細構成を示すブロック図である。ゲーム装置本体5
2は、CPU(Central Processing Unit;中央演算処
理ユニット)101、GTE(Geometric Transform En
gine ;グラフィックスデータ生成プロセッサ)10
2、周辺デバイス103、メインメモリ104、OS−
ROM(Operating System ROM)105、MDEC(Mo
tion Decoder;データ伸張エンジン)106、PIO
(Parallel Input Output;拡張パラレルポート)10
7、SIO(Serial Input Output ;拡張シリアルポー
ト)108、GPU(Graphics Processing Unit ;グ
ラフィックス描画処理プロセッサ)109、フレームバ
ッファ110、SPU(Sound Processing Unit;サウ
ンド再生処理プロセッサ)111、サウンドバッファ1
12、CD−ROMドライブ113、CD−ROMデコ
ーダ114、CD−ROMバッファ115および通信デ
バイス116から構成されている。
FIG. 2 is a block diagram showing a detailed configuration of the game device main body of FIG. 1 and its periphery. Game device body 5
2 is a CPU (Central Processing Unit) 101, GTE (Geometric Transform En
gine; graphics data generation processor) 10
2. Peripheral device 103, main memory 104, OS-
ROM (Operating System ROM) 105, MDEC (Mo
tion Decoder; data decompression engine) 106, PIO
(Parallel Input Output; extended parallel port) 10
7, SIO (Serial Input Output; extended serial port) 108, GPU (Graphics Processing Unit; graphics drawing processor) 109, frame buffer 110, SPU (Sound Processing Unit; sound reproduction processor) 111, sound buffer 1
12, a CD-ROM drive 113, a CD-ROM decoder 114, a CD-ROM buffer 115, and a communication device 116.

【0016】また、CPU101、周辺デバイス10
3、メインメモリ104、OS−ROM105、MDE
C106、PIO107、SIO108、GPU10
9、SPU111、CD−ROMデコーダ114および
通信デバイス116は、バス100を介して互いに接続
されている。
The CPU 101 and the peripheral device 10
3. Main memory 104, OS-ROM 105, MDE
C106, PIO107, SIO108, GPU10
9, the SPU 111, the CD-ROM decoder 114, and the communication device 116 are connected to each other via the bus 100.

【0017】図3は、フレームバッファ110のメモリ
構成を示す図である。同図に示すようにフレームバッフ
ァ110は、GPU109により描画される画像デー
タ、あるいはメインメモリ104から転送される画像デ
ータを格納するダブルバッファ構成の描画領域A111
0、描画領域B1120、モニタディスプレイ56に表
示する画像データを格納するダブルバッファ構成の表示
領域A1130、表示領域B1140とを有する。
FIG. 3 is a diagram showing a memory configuration of the frame buffer 110. As shown in the figure, a frame buffer 110 has a double buffer configuration drawing area A111 for storing image data drawn by the GPU 109 or image data transferred from the main memory 104.
0, a drawing area B1120, a display area A1130 having a double buffer structure for storing image data to be displayed on the monitor display 56, and a display area B1140.

【0018】この描画領域A1110、描画領域B11
20と表示領域A1130、表示領域B1140は映像
表示を行なう際のフィールドレートに応じてGPU10
9により交互に切り替えられる。
The drawing area A1110 and the drawing area B11
20, the display area A 1130, and the display area B 1140 correspond to the GPU 10 according to the field rate at the time of displaying an image.
9 alternately.

【0019】また、フレームバッファ110は、GPU
109が画像を描画する際に色指定のために参照するカ
ラールックアップテーブル(CLUT)1150、テク
スチャマッピング(Texture mapping)用のテクスチャ
パターンデータなどを格納するテクスチャパターン領域
1160等を有する。
The frame buffer 110 has a GPU
Reference numeral 109 denotes a color lookup table (CLUT) 1150 that is referred to for specifying a color when drawing an image, and a texture pattern area 1160 that stores texture pattern data for texture mapping.

【0020】図4はCULT1150の詳細を示す図で
ある。CULT1150は、図4に図示の如く、本実施
の形態例においては16個のCULTエントリ1151
(CULT1〜CULT16)を有する。各CULTエ
ントリ1151は、イメージデータであり、各々1つの
色情報を定義する。このため、CULT1150は16
色の色情報を定義できる。
FIG. 4 is a diagram showing details of the CULT 1150. As shown in FIG. 4, the CULT 1150 has 16 CULT entries 1151 in the present embodiment.
(CULT1 to CULT16). Each CULT entry 1151 is image data, and defines one piece of color information. Therefore, CULT 1150 is 16
You can define color information for colors.

【0021】図5はCULTエントリ1151の詳細を
示す図である。図5に図示するごとく、1つのCULT
エントリ1151、即ち、1つの色情報は、赤色の輝度
を定義する4ビットのR値1151a、緑色の輝度を定
義する4ビットのG値1151b、及び青色の輝度を定
義する4ビットのB値1151c、及び1ビットのフラ
グビットの計16ビットによって構成される。
FIG. 5 is a diagram showing details of the CULT entry 1151. As shown in FIG. 5, one CULT
The entry 1151, that is, one piece of color information is a 4-bit R value 1151a that defines red luminance, a 4-bit G value 1151b that defines green luminance, and a 4-bit B value 1151c that defines blue luminance. , And 1 bit flag bit.

【0022】CPU101は、OS−ROM105に格
納されているOS(オペレーティングシステム)や、C
D−ROM54から読み出されてメインメモリ104に
展開されるプログラムやデータなどに基づいてゲーム装
置本体52の各部を制御し、後述するゲームに関する処
理を実行する。以下、本実施の形態例のゲーム進行処理
を説明する。
The CPU 101 stores an OS (operating system) stored in the OS-ROM 105 and a C
Based on programs and data read from the D-ROM 54 and expanded in the main memory 104, the game device control unit controls various parts of the game apparatus main body 52 to execute processing related to a game described later. Hereinafter, the game progress processing of the present embodiment will be described.

【0023】CPU101は、CD−ROM54からゲ
ームプログラムや三次元モデルのモデリングデータなど
読み出してメインメモリ104に転送する。また、同様
にしてCD−ROM54からカラールックアップテーブ
ル(CLUT:Color Look−Up Table)やテクスチャパ
ターンデータなどを読み出してフレームバッファ110
に転送し、GPU109に画像の描画を指示する。
The CPU 101 reads a game program, modeling data of a three-dimensional model, and the like from the CD-ROM 54 and transfers them to the main memory 104. In the same manner, a color look-up table (CLUT: Color Look-Up Table), texture pattern data, and the like are read from the CD-ROM 54 and the frame buffer 110 is read.
And instructs the GPU 109 to draw an image.

【0024】これに応じてGPU109は、GTE10
2で求められた座標データや色情報、フレームバッファ
110に展開されたCLUTやテクスチャパターンデー
タなどに基づいてモデリング処理やレンダリング処理な
どを行なう。そして、三次元モデルを配置して構成した
仮想三次元空間における任意領域の二次元投影画像をフ
レームバッファ110上に描画する。
In response, the GPU 109 makes the GTE 10
Modeling processing and rendering processing are performed based on the coordinate data and color information obtained in step 2, CLUT and texture pattern data developed in the frame buffer 110, and the like. Then, a two-dimensional projected image of an arbitrary area in the virtual three-dimensional space configured by arranging the three-dimensional model is drawn on the frame buffer 110.

【0025】その後、この画像データに同期信号を付加
するなどして映像信号としてモニタディスプレイ56に
出力する。これによりモニタディスプレイ56の画面上
にはゲーム内容に応じた映像が表示される。
Thereafter, the image data is output to the monitor display 56 as a video signal by adding a synchronizing signal or the like. As a result, an image corresponding to the game content is displayed on the screen of the monitor display 56.

【0026】また、CPU101は、CD−ROM54
からサウンドデータを読み出してメインメモリ104や
SPU111に転送し、SPU111にサウンドの再生
を指示する。これに応じてSPU111は、これらのサ
ウンドデータについて変調処理や再生処理などを適宜実
行する。加えて、このサウンド再生データをCD−RO
Mデコーダ114から転送されたオーディオ再生データ
と重ね合わせて音声信号としてモニタディスプレイ56
に出力する。これによりモニタディスプレイ56の内蔵
スピーカ(図示省略)からはゲーム内容に応じたBGM
(Back GroundMusic)や効果音などが出力される。
The CPU 101 has a CD-ROM 54
Then, the sound data is read from the main memory 104 and transferred to the main memory 104 or the SPU 111 to instruct the SPU 111 to reproduce the sound. In response to this, the SPU 111 appropriately executes a modulation process, a reproduction process, and the like on these sound data. In addition, this sound reproduction data is stored in a CD-RO
The monitor display 56 is superimposed on the audio reproduction data transferred from the M decoder 114 to produce an audio signal.
Output to As a result, the built-in speaker (not shown) of the monitor display 56 outputs BGM according to the game content.
(Back GroundMusic) and sound effects are output.

【0027】また、CPU101は、発振器(図示省
略)から供給されるタイミング信号に基づいてクロック
信号を生成し、このクロック信号を内蔵するタイマカウ
ンタ(図示省略)によって計数することで時間を計時す
る。
The CPU 101 generates a clock signal based on a timing signal supplied from an oscillator (not shown) and counts the clock signal by a built-in timer counter (not shown) to measure time.

【0028】GTE102はCPU101に接続され、
CPU101のコプロセッサとして動作する。このGT
E102は、CPU101からの演算要求に応じて三次
元モデルを構成する各三次元座標データについて、移
動、回転、拡大、縮小などの座標計算や二次元座標デー
タへの透視変換計算、仮想的に設定された光源の種類や
その光源からの距離や角度、視点位置などに応じて各部
の輝度を計算する輝度計算などの固定小数点形式の行列
やベクトルの演算処理を行なう。
The GTE 102 is connected to the CPU 101,
It operates as a coprocessor of the CPU 101. This GT
In step E102, coordinate calculation such as movement, rotation, enlargement, and reduction, and perspective transformation calculation to two-dimensional coordinate data are performed for each three-dimensional coordinate data constituting the three-dimensional model in response to a calculation request from the CPU 101. It performs matrix and vector arithmetic processing in a fixed-point format such as brightness calculation for calculating the brightness of each unit according to the type of the light source, the distance and angle from the light source, the viewpoint position, and the like.

【0029】周辺デバイス103は、割り込み制御やD
MA(Direct Memory Access )転送に関する制御など
を行なう。メインメモリ104は、CPU101が実行
するプログラムやその実行のために必要となるデータな
どが格納されるメモリである。このメインメモリ104
のメモリ構成や格納されるデータなどについては後述す
る。OS−ROM105は、OSカーネルやブートロー
ダなど、ゲーム装置本体52の基本制御を行なうOSが
格納されている。
The peripheral device 103 controls interrupt control and D
It performs control related to MA (Direct Memory Access) transfer. The main memory 104 is a memory for storing programs executed by the CPU 101 and data necessary for the execution. This main memory 104
The memory configuration and stored data will be described later. The OS-ROM 105 stores an OS such as an OS kernel and a boot loader that performs basic control of the game apparatus main body 52.

【0030】MDEC106は、JPEG(Joint Phot
ographic Coding Experts Group)方式やMPEG(Mov
ing Picture Expert Group)方式などの静止画および動
画の圧縮画像データに対して、ハフマン符号化(Huffma
n coding )のデコード処理、逆量子化処理、IDCT
(Inversed Discrete Cosine Translation;逆離散コサ
イン変換)演算などを行い、圧縮された画像データを伸
張する。また、PIO107はパラレルデータ用の拡張
ポートであり、SIO108はシリアルデータ用の拡張
ポートである。
The MDEC 106 is a JPEG (Joint Photo)
ographic Coding Experts Group) or MPEG (Mov
Huffman coding (Huffma coding) for still and moving image compressed image data such as the
n coding) decoding, inverse quantization, IDCT
(Inverse Discrete Cosine Translation) operation is performed to decompress the compressed image data. The PIO 107 is an extension port for parallel data, and the SIO 108 is an extension port for serial data.

【0031】GPU109は、CPU101とは独立し
て動作するサブプロセッサである。このGPU109
は、CPU101からの描画指示に従ってGTE102
で求められた座標データや色情報、フレームバッファ1
10に展開されたCLUTやテクスチャパターンデータ
などに基づいて、複数のポリゴンによって構成される三
次元モデルのモデリング処理やレンダリング処理などを
行なう。そして、三次元モデルを配置して構成した仮想
三次元空間における任意領域の二次元投影画像をフレー
ムバッファ110上に描画する。なお、ポリゴンとは、
三次元モデルを構成する図形の最小単位であり、三角形
や四角形などの多角形平面からなるものである。
The GPU 109 is a sub-processor that operates independently of the CPU 101. This GPU109
Is a GTE 102 according to a drawing instruction from the CPU 101.
Coordinate data and color information obtained in step 2, frame buffer 1
Based on the CLUT, texture pattern data, and the like developed in 10, a modeling process and a rendering process of a three-dimensional model composed of a plurality of polygons are performed. Then, a two-dimensional projected image of an arbitrary area in the virtual three-dimensional space configured by arranging the three-dimensional model is drawn on the frame buffer 110. A polygon is
It is the minimum unit of a figure constituting a three-dimensional model, and is formed of a polygonal plane such as a triangle or a quadrangle.

【0032】SPU111は、CPU101とは独立し
て動作するサブプロセッサである。このSPU111
は、CPU101からのサウンド再生指示に従ってサウ
ンドバッファ112に格納されたADPCM(Adaptive
Differential Pulse Code modulation)形式のサウン
ドデータに対して音量調整処理や、ピッチ変換、音程調
整、エンベロープ、リバーブなどの各種変調処理を適宜
実行する。加えてその再生処理を行ない、音声信号とし
てモニタディスプレイ56に出力する。
The SPU 111 is a sub-processor that operates independently of the CPU 101. This SPU111
Are ADPCM (Adaptive) stored in the sound buffer 112 in accordance with a sound reproduction instruction from the CPU 101.
Various modulation processing such as volume adjustment processing, pitch conversion, pitch adjustment, envelope, and reverb are appropriately performed on the sound data in the Differential Pulse Code modulation (Differential Pulse Code Modulation) format. In addition, the reproduction processing is performed, and the reproduced signal is output to the monitor display 56 as an audio signal.

【0033】また、SPU111は、CD−ROMデコ
ーダ114から転送されたオーディオ再生データをSP
U111で再生したサウンド再生データと重ね合わせて
音声信号としてモニタディスプレイ56に出力する。
The SPU 111 converts the audio reproduction data transferred from the CD-ROM decoder 114 into an SP.
The data is superimposed on the sound reproduction data reproduced in U111 and output to the monitor display 56 as an audio signal.

【0034】サウンドバッファ112は、CPU101
によりメインメモリ104から転送されたADPCM形
式のサウンドデータなどを一時的に格納するメモリであ
る。また、このサウンドバッファ112は、SPU11
1がリバーブ処理を行なう際に作業領域として使用した
り、加工用のサウンドデータなどをメインメモリ104
へ転送する際のバッファとしても使用される。
The sound buffer 112 includes the CPU 101
Is a memory for temporarily storing ADPCM-format sound data and the like transferred from the main memory 104. The sound buffer 112 is used for the SPU 11
1 is used as a work area when reverb processing is performed, and sound data for processing is stored in the main memory 104.
It is also used as a buffer when transferring to.

【0035】CD−ROMドライブ113は、CD−R
OM54の駆動制御を行ない、CD−ROM54に格納
されている符号化されたデータを読み取る。CD−RO
Mデコーダ114は、CD−ROMドライブ113がC
D−ROM54から読み取ったデータをデコードすると
ともにエラー訂正処理などを行ない、デコードしたプロ
グラムやデータをメインメモリ104やSPU111な
どに転送する。また、CD−ROMドライブ113は内
部音源およびミキサ(共に図示省略)を備え、オーディ
オデータの再生機能を有する。CD−ROMバッファ1
15は、転送用データを一時的に格納するメモリであ
る。
The CD-ROM drive 113 has a CD-R
The OM 54 is driven and the encoded data stored in the CD-ROM 54 is read. CD-RO
The M decoder 114 has a CD-ROM drive 113
The data read from the D-ROM 54 is decoded, error correction processing and the like are performed, and the decoded program and data are transferred to the main memory 104, the SPU 111, and the like. The CD-ROM drive 113 includes an internal sound source and a mixer (both not shown) and has a function of reproducing audio data. CD-ROM buffer 1
Reference numeral 15 denotes a memory for temporarily storing transfer data.

【0036】通信デバイス116には、ゲーム装置本体
52に対してスロット部65を介して着脱自在に装着さ
れるコントローラ53およびメモリカード55が接続さ
れる。この通信デバイス116は、コントローラ53お
よびメモリカード55とゲーム装置本体52の各部、た
とえばCPU101やメインメモリ104との間のデー
タ転送を制御する。
The controller 53 and the memory card 55 which are removably attached to the game apparatus main body 52 via the slot 65 are connected to the communication device 116. The communication device 116 controls data transfer between the controller 53 and the memory card 55 and each unit of the game apparatus main body 52, for example, the CPU 101 and the main memory 104.

【0037】コントローラ53は、プレイヤからの操作
入力に応じた各種操作信号を通信デバイス116を介し
てゲーム装置本体52に送出する入力デバイスである。
このコントローラ53は、スタートボタンや方向キーな
ど種々の入力を行うための複数の入力ボタンが設けられ
ている。
The controller 53 is an input device for transmitting various operation signals corresponding to the operation input from the player to the game apparatus main body 52 via the communication device 116.
The controller 53 is provided with a plurality of input buttons for performing various inputs such as a start button and a direction key.

【0038】メモリカード55はフラッシュメモリによ
って構成され、ゲームの途中経過データやゲーム環境設
定データなどのゲームデータを保存する。
The memory card 55 is constituted by a flash memory and stores game data such as game progress data and game environment setting data.

【0039】なお、このゲーム装置本体52において、
メインメモリ104と、フレームバッファ110、サウ
ンドバッファ112、CD−ROMバッファ115、M
DEC106との間では、画像の描画や表示、サウンド
出力などに際して大量の画像データやサウンドデータの
転送を行なう必要がある。このため、データ転送を高速
で行なうために、CPU101を介さずに周辺デバイス
103の制御下において直接両者間でデータ転送を行な
う、いわゆるDMA転送が行なわれる。
In this game device main body 52,
Main memory 104, frame buffer 110, sound buffer 112, CD-ROM buffer 115, M
It is necessary to transfer a large amount of image data and sound data to the DEC 106 when drawing or displaying an image or outputting sound. Therefore, in order to perform data transfer at high speed, so-called DMA transfer is performed in which data transfer is directly performed between the two under the control of the peripheral device 103 without the intervention of the CPU 101.

【0040】以上の構成を備える本実施の形態例のCD
−ROM54は例えばゲーム進行に必要なプログラムの
記憶手段として、メモリカード55はゲームデータをセ
ーブする途中経過記憶手段、ゲームデータ記憶手段など
の機能を、CPU101は、その他の各種機能を実現す
る手段の機能をそれぞれ有する。また、CPU101、
GTE102、GPU109、モニタディスプレイ56
などは、後述する時間表示手段の機能を有する。
The CD of the present embodiment having the above configuration
-The ROM 54 is, for example, a storage unit for a program necessary for the progress of the game, the memory card 55 is a storage unit for saving game data, a game data storage unit, and the CPU 101 is a storage unit for realizing various other functions. Each has a function. Also, the CPU 101,
GTE102, GPU109, monitor display 56
And the like have the function of time display means described later.

【0041】次に以上の構成を備える本実施の形態例の
GTE102におけるキャラクタが奥に進むほどキャラ
クタが霞んでいく処理の詳細を説明する。
Next, a description will be given of details of processing in which the character is blurred as the character moves further in the GTE 102 according to the present embodiment having the above configuration.

【0042】以下の説明は、移動体の例として空中を移
動する飛行体をキャラクタがを操作し、溶け込ます対象
物であるマップ奥の特定キャラクタを雲オブジェクトす
る場合を例として行なう。
In the following description, as an example of a moving object, a case will be described in which a character operates a flying object moving in the air, and a specific character at the back of the map, which is an object to be melted, is a cloud object.

【0043】飛行体を仮想三次元空間を任意方向へ移動
可能なポリゴンで表わし、当該ポリゴンにテクスチャマ
ッピングされる画像とからなる飛行体と他のオブジェク
ト(溶け込ます対象物である雲オブジェクト)とを表示
する場合に、仮想三次元空間において、操作者の視点位
置を(x0,y0,z0)とする。
The flying object is represented by a polygon that can move in a virtual three-dimensional space in an arbitrary direction, and the flying object composed of an image texture-mapped to the polygon and another object (a cloud object that is a melting object). When displaying, in the virtual three-dimensional space, the viewpoint position of the operator is (x0, y0, z0).

【0044】そして図6に示すようにマップ上におい
て、処理を施す対象の飛行体の座標を、飛行体の中心座
標(x1,y1,z1)で示し、特定のキャラクタ(溶
け込ます対象物)の座標を特定キャラクタの中心座標
(x2,y2,z2)で示す。そして、対象物と飛行体
との高さ方向の距離dを求め、距離dに基づいて飛行体
を構成する画像の各表示RGB値を対象物の表示RGB
値に近づける補正を行なう。
Then, as shown in FIG. 6, on the map, the coordinates of the flying object to be processed are indicated by the center coordinates (x1, y1, z1) of the flying object, and the coordinates of the specific character (the object to be melted in) are displayed. The coordinates are indicated by the center coordinates (x2, y2, z2) of the specific character. Then, a distance d in the height direction between the target object and the flying object is obtained, and each display RGB value of an image forming the flying object is displayed based on the distance d.
Perform correction to approximate the value.

【0045】本実施の形態例では、対象物のY座標の高
さに対応するパラメータ(フォグパラメータ)と、対象
物座標位置で飛行体が最終的に溶け込むRPG(フォグ
RGB、フォグパラメータが最大のときのRGB)とを
設定し、フォグパラメータとフォグRGBとからCLU
Tをフレーム毎に求め、飛行体(キャラクタ)に対象物
との距離に応じた色彩を与える。即ち、飛行体が奥に進
むほど対象物の色に近づく(キャラクタが霞んでいく)
処理を実現している。
In the present embodiment, a parameter (fog parameter) corresponding to the height of the Y coordinate of the target object and an RPG (fog RGB, fog parameter at which the flying object finally melts at the target coordinate position are the largest) RGB) and set the CLU from the fog parameter and the fog RGB.
T is obtained for each frame, and a color corresponding to the distance to the object is given to the flying object (character). That is, the closer the flying object is to the back, the closer to the color of the target object (the character is blurred).
Processing is realized.

【0046】以下、図7を参照して本実施の形態例にお
けるゲーム進行制御を説明する。図7は、本実施の形態
例におけるゲーム進行制御を説明するためのフローチャ
ートである。
Hereinafter, the game progress control in this embodiment will be described with reference to FIG. FIG. 7 is a flowchart for explaining game progress control in the present embodiment.

【0047】本実施の形態例に係るゲーム及びグラフィ
ックシステムのCD−ROMドライブ113に、ゲーム
プログラムやゲームデータ及びグラフィックなどが記憶
されているCD−ROM54をセットしてゲーム装置5
2の電源ボタン63を投入した時、あるいは後述するゲ
ーム終了となった時や、リセットボタン64によってゲ
ームをリセット(リスタート)する時は、図7に示す制
御に移行する。
The game apparatus 5 is set by setting the CD-ROM 54 storing the game program, game data, graphics, and the like in the CD-ROM drive 113 of the game and graphic system according to this embodiment.
When the second power button 63 is turned on, when the game to be described later is ended, or when the game is reset (restarted) by the reset button 64, the process shifts to the control shown in FIG.

【0048】まず、ステップS10において、メインメ
モリ104に格納されたプログラムに従って、ゲームに
必要なデータ、及びグラフィックをCD−ROM54か
らメインメモリ104あるいはフレームバッファに格納
する。
First, in step S10, data and graphics required for the game are stored from the CD-ROM 54 in the main memory 104 or the frame buffer according to the program stored in the main memory 104.

【0049】次にステップS11において、オープニン
グ表示やキャラクタ設定などの初期設定を行なうゲーム
開始処理を行う。続いてステップS12以下のゲーム制
御を行う。図8は本実施の形態例に係るゲームの様子を
示した図である。
Next, in step S11, a game start process for performing initial settings such as opening display and character setting is performed. Then, the game control of step S12 and subsequent steps is performed. FIG. 8 is a diagram showing a state of the game according to the present embodiment.

【0050】ゲーム空間である仮想三次元空間85は、
ゲーム操作者のコントローラ53の操作信号に基づいて
その位置、移動速度が制御される移動体82、飛行体で
ある他のオブジェクト83と84、及び同じく他のプロ
ジェクトである雲オブジェクト81とから構成され、各
オブジェクトはゲームデータであるポリゴンデータ、テ
クステャであるグラフィックなどから構成される。
The virtual three-dimensional space 85, which is a game space,
It is composed of a moving object 82 whose position and moving speed are controlled based on an operation signal of the controller 53 of the game operator, other objects 83 and 84 which are flying objects, and a cloud object 81 which is another project. Each object is composed of polygon data that is game data, graphics that are textures, and the like.

【0051】まずステップS12において、ゲーム操作
者のコントローラ53の操作信号に基づいて、移動体の
位置またはゲーム視点の変更、および他のオブジェクト
の位置、並びに移動速度の制御を行う。
First, in step S12, the position of the moving object or the viewpoint of the game, and the positions of other objects and the moving speed are controlled based on the operation signal of the controller 53 of the game operator.

【0052】次にステップS13において、その他のゲ
ーム制御を行う。このその他のゲーム制御は、例えば、
移動体82と飛行体83及び84によるシューティング
ゲームなどのゲーム制御を行う制御である。
Next, in step S13, other game controls are performed. This other game control, for example,
This is control for performing game control such as a shooting game using the moving body 82 and the flying bodies 83 and 84.

【0053】続いてステップS14に進み、現在のゲー
ム画面のモニタディスプレイ56への表示制御を行う。
そしてステップS15に進み、ゲームが終了したか否か
を調べる。ゲーム終了でなければステップS12に戻
り、上記ゲーム制御を行う。
Subsequently, the flow advances to step S14 to control the display of the current game screen on the monitor display 56.
Then, the process proceeds to a step S15 to check whether or not the game is over. If the game has not ended, the process returns to step S12 to perform the game control.

【0054】このようにしてゲームを進行していき、ゲ
ーム終了となるとステップS15よりステップS16に
進み、ゲーム終了処理を行ってゲームを終了する。
The game proceeds as described above, and when the game ends, the process proceeds from step S15 to step S16 to execute a game end process and end the game.

【0055】上述した図7のステップS14における表
示制御の詳細を図9を参照して以下に説明する。図9は
本実施の形態例の図7のステップS14における表示制
御の詳細を説明するフローチャートである。
Details of the display control in step S14 of FIG. 7 will be described below with reference to FIG. FIG. 9 is a flowchart illustrating details of the display control in step S14 of FIG. 7 of the present embodiment.

【0056】図9のフローチャートに示すように、本実
施の形態例の表示処理においては、ステップS21から
ステップS23でキャラクタ(飛行体)が目的の対象物
である雲オブジェクトと所定の距離(x,y,z)に入
ったか否かが判断される。
As shown in the flowchart of FIG. 9, in the display processing of this embodiment, in steps S21 to S23, the character (flying object) is at a predetermined distance (x, (y, z) is determined.

【0057】まずステップS21で飛行体のx座標(x
1)と雲オブジェクトのx座標(x2)の距離が所定値
以下か(x1−x2)の絶対値が所定値以下か)否かを
判断する。飛行体のx座標(x1)と雲オブジェクトの
x座標の距離が所定値以下でない場合にはステップS2
5に進み、三次元演算および描画処理を実行する。
First, at step S21, the x coordinate (x
It is determined whether the distance between 1) and the x coordinate (x2) of the cloud object is equal to or less than a predetermined value or not (absolute value of (x1-x2) is equal to or less than a predetermined value). If the distance between the x coordinate (x1) of the flying object and the x coordinate of the cloud object is not less than a predetermined value, step S2
Proceed to 5 to execute three-dimensional calculation and drawing processing.

【0058】ステップS25の三次元演算および描画処
理では、キャラクタ(飛行体)が目的の対象物である雲
オブジェクトと所定の距離(x,y,z)に入っていな
い場合にはキャラクタの表示色の変更は行わずに指示さ
れた位置への移動が行なわれ、GPU109はCPU1
01からの描画指示に従ってGTE102で求められた
座標データや色情報、フレームバッファ110に展開さ
れたCLUTやテクスチャパターンデータなどに基づい
て、三次元モデルを配置して構成した仮想三次元空間に
おける任意領域の二次元投影画像をフレームバッファ1
10上に描画する。そしてリターンする。
In the three-dimensional calculation and drawing processing in step S25, if the character (flying object) is not within a predetermined distance (x, y, z) from the cloud object as the target object, the display color of the character is displayed. Is moved to the specified position without changing the CPU 1, and the GPU 109
An arbitrary area in a virtual three-dimensional space configured by arranging a three-dimensional model based on the coordinate data and color information obtained by the GTE 102 in accordance with the drawing instruction from 01, CLUT and texture pattern data developed in the frame buffer 110, and the like. 2D projection image of frame buffer 1
Draw on 10. And return.

【0059】一方、ステップS21で飛行体のx座標
(x1)と雲オブジェクトのx座標の距離が所定値以下
である場合にはステップS22に進み、飛行体のz座標
(z1)と雲オブジェクトのz座標(z2)の距離が所
定値以下か(z1−z2)の絶対値が所定値以下か)否
かを判断する。飛行体のz座標(z1)と雲オブジェク
トのz座標(z2)の距離が所定値以下でない場合には
ステップS25に進み、三次元演算および描画処理を実
行する。
On the other hand, if the distance between the x coordinate (x1) of the flying object and the x coordinate of the cloud object is equal to or less than a predetermined value in step S21, the process proceeds to step S22, where the z coordinate (z1) of the flying object and the cloud object are compared. It is determined whether or not the distance of the z coordinate (z2) is equal to or less than a predetermined value or the absolute value of (z1-z2) is equal to or less than a predetermined value. If the distance between the z-coordinate (z1) of the flying object and the z-coordinate (z2) of the cloud object is not less than the predetermined value, the process proceeds to step S25, where three-dimensional calculation and drawing processing are executed.

【0060】一方、ステップS22で飛行体のz座標
(z1)と雲オブジェクトのz座標(z2)の距離が所
定値以下である場合にはステップS23に進み、飛行体
のy座標(y1)と雲オブジェクトのy座標(y2)の
距離が所定値以下か(y1−y2)の絶対値が所定値以
下か)否かを判断する。飛行体のy座標(y1)と雲オ
ブジェクトのy座標の距離が所定値以下でない場合には
ステップS25に進み、三次元演算および描画処理を実
行する。
On the other hand, if the distance between the z coordinate (z1) of the flying object and the z coordinate (z2) of the cloud object is equal to or less than the predetermined value in step S22, the process proceeds to step S23, where the y coordinate (y1) of the flying object and It is determined whether the distance of the cloud object at the y-coordinate (y2) is equal to or less than a predetermined value or whether the absolute value of (y1-y2) is equal to or less than a predetermined value. If the distance between the y-coordinate (y1) of the flying object and the y-coordinate of the cloud object is not less than the predetermined value, the process proceeds to step S25, where three-dimensional calculation and drawing processing are executed.

【0061】一方、ステップS23で飛行体のy座標
(y1)と雲オブジェクトのy座標の距離が所定値以下
の場合には、キャラクタ(飛行体)が目的の対象物であ
る雲オブジェクトと所定の距離(x,y,z)に入った
状態であるため、ステップS23よりステップS30に
進み、飛行体と対象物との離間距離dに基づいてモデル
に貼り付けるテクスチャにデプスキューイング(CLU
Tフォグ)処理を施す。CLUTフォグ処理は飛行体が
対象物に近づくにつれて対象物の色に溶け込むようにす
る。このようにして上述したキャラクタ(飛行体)への
色補正が行なわれてからステップS25に進む。
On the other hand, if the distance between the y-coordinate (y1) of the flying object and the y-coordinate of the cloud object is equal to or less than a predetermined value in step S23, the character (flying object) is set to a predetermined distance from the cloud object as the target object. Since the state is within the distance (x, y, z), the process proceeds from step S23 to step S30, and the depth cueing (CLU) is applied to the texture to be attached to the model based on the separation distance d between the flying object and the object.
(T fog) processing. CLUT fog processing allows the vehicle to blend in with the color of the object as it approaches the object. After the above-described color correction for the character (flying object) is performed, the process proceeds to step S25.

【0062】このステップS30のデプスキューイング
処理の詳細を図10のフローチャートを参照して以下に
説明する。
The details of the depth queuing process in step S30 will be described below with reference to the flowchart of FIG.

【0063】デプスキューイング処理において、対象物
をゲーム内の雲(ポリゴン)とする場合、雲ポリゴンに
対して予め溶け込むフォグRGB(色r0,g0,b
0、例えば白)を予め設定する。そして飛行体がこの雲
ポリゴンの所定範囲内にいるとき当該処理を実行するこ
とになり、まずステップS31において画面高さy方向
の離間距離dからフォグパラメータPを求める。フォグ
パラメータPはフォグRGB値にどれだけ影響されてい
るかという値であり、RGBを加工するためのパラメー
タで、フォグパラメータPが0のときは飛行体の各RG
Bは元のRGB、Pが255のときは雲ポリゴンに設定
したフォグRGBになる。その中間は単純な一次比例と
なる。
In the depth queuing process, when the object is a cloud (polygon) in the game, fog RGB (colors r0, g0, b
0, for example, white) is set in advance. When the flying object is within the predetermined range of the cloud polygon, the process is executed. First, in step S31, the fog parameter P is obtained from the separation distance d in the screen height y direction. The fog parameter P is a value indicating how much the fog RGB value is affected. The fog parameter P is a parameter for processing the RGB.
B is the original RGB, and if P is 255, it is the fog RGB set for the cloud polygon. The middle is a simple linear proportion.

【0064】フォグパラメータPの例を図11に示す。
フォグパラメータPが決定したら、次にステップS32
からステップS34でフレームメモリに記憶されている
飛行を表示するためのCLUT1150の各色について
のパラメータPと元のRGBおよびフォグRGBからフ
ォグ処理をしたRGB値を算出する。
FIG. 11 shows an example of the fog parameter P.
After the fog parameter P is determined, the process proceeds to step S32.
In step S34, the RGB values obtained by fog processing are calculated from the parameters P for each color of the CLUT 1150 for displaying the flight stored in the frame memory and the original RGB and fog RGB.

【0065】まずステップS32で最初の色の R=(r0−8*r)*P/2048+r (1) 但し、r:飛行体のR値、r0:雲ポリゴンのR値に従
ってRの値を算出する。
First, in step S32, R = (r0-8 * r) * P / 2048 + r of the first color (1) where r is the R value of the flying object, and r0 is the value of R according to the R value of the cloud polygon. I do.

【0066】続いてステップS33で G=(g0−8*g)*P/2048+g (2) 但し、g:飛行体のG値、g0:雲ポリゴンのG値に従
って最初の色のGの値を算出する。
Then, in step S33, G = (g0−8 * g) * P / 2048 + g (2) where g is the G value of the flying object, and g0 is the G value of the first color according to the G value of the cloud polygon. calculate.

【0067】最後にステップS34で B=(b0−8*b)*P/2048+b (3) 但し、b:飛行体のB値、b0:雲ポリゴンのB値に従
って最初の色のBの値を算出する。
Finally, in step S34, B = (b0−8 * b) * P / 2048 + b (3) where b is the B value of the flying object, and b0 is the B value of the first color according to the B value of the cloud polygon. calculate.

【0068】そしてステップS35でCLUT1150
の飛行体の全ての色に対する色補正が終了したか否かを
調べる。まだ色補正をしていない色が合った場合にはス
テップS36に進み、次の色に対する色補正を行うよう
にセットしてステップS32に進み、以下ステップS3
2からステップS34で次の色に対する補正RGB値の
CLUT1150への登録を行なう。
Then, in step S35, the CLUT 1150
It is determined whether or not the color correction for all colors of the flying object has been completed. If the colors that have not been color-corrected match, the process proceeds to step S36, where it is set to perform color correction for the next color, and the process proceeds to step S32.
From step 2 in step S34, the correction RGB values for the next color are registered in the CLUT 1150.

【0069】このようにして順次CLUT1150の色
補正を行い、CLUT1150の移動した飛行体に対す
る全ての色の補正が終了するとステップS35よりステ
ップS37に進み、補正した(加工した)CLUT11
50を用いた描画処理を行うようにセットして当該ルー
チンを終了する。
In this manner, the color correction of the CLUT 1150 is sequentially performed, and when the correction of all the colors of the moving body of the CLUT 1150 is completed, the process proceeds from the step S35 to a step S37, where the corrected (processed) CLUT 11 is processed.
The processing is set so as to perform the drawing process using 50, and the routine ends.

【0070】なお、CLUT1150への登録は、全て
の色についての補正値が求まってから一括して行っても
良い。図12は、本実施の形態例におけるステップS3
7のCLUT変更処理を説明するための図である。
Note that registration to the CLUT 1150 may be performed collectively after correction values for all colors are obtained. FIG. 12 shows step S3 in the present embodiment.
FIG. 7 is a diagram for explaining CLUT change processing of No. 7;

【0071】その後、図9のステップS25の処理を実
行し、飛行体が雲オブジェクトに近づくと色がより雲オ
ブジェクトに近い色に修正されて表示されることにな
る。
Thereafter, the process of step S25 in FIG. 9 is executed, and when the flying object approaches the cloud object, the color is corrected to a color closer to the cloud object and displayed.

【0072】実際のゲーム画面では、例えば図8に示す
ように雲オブジェクト81が視点80からみた最奥下側
に表示されている。そして、視点80より雲ポリゴン8
1方向を視た場合に一定の視野角の中に飛行体82〜8
4が位置すると、当該位置の飛行体に対して上記デプス
キューイング処理を行なう。
In the actual game screen, for example, as shown in FIG. 8, a cloud object 81 is displayed at the lowermost position as viewed from the viewpoint 80. Then, from the viewpoint 80, the cloud polygon 8
Flying objects 82 to 8 within a certain viewing angle when viewing in one direction
When the position 4 is located, the depth queuing process is performed on the flying object at the position.

【0073】なお、本実施の形態例においては、移動体
である飛行体(OBJ)は、15ビットのRGBセット
を16色分、つまり0〜31の値を48個持っている。
これを図10に示す制御によって書き換え、飛行体を例
えば雲に近づくにつれて溶け込んだような色にするフォ
グ効果を簡単な制御で持たせている。
In this embodiment, the flying object (OBJ), which is a moving object, has 16 15-bit RGB sets for 16 colors, that is, 48 values of 0 to 31.
This is rewritten by the control shown in FIG. 10, and the fog effect of giving the flying object a color that melts as it approaches the cloud is provided with simple control.

【0074】以上説明したように本実施の形態例によれ
ば、あるキャラクタ(飛行体)がもともと持っているC
LUT(16色分)を、フォグパラメータ・フォグRG
B値から計算して新しいCLUTをフレームごとに生成
するという、いわば本来使用すべきCLUTを逐一加工
して使用するだけの簡単な処理で確実にキャラクタの対
象物に対する位置を確実に認識させることができる。
As described above, according to the present embodiment, the C that a character (flying object) originally has
LUT (for 16 colors) is converted to fog parameter / fog RG
By calculating from the B value and generating a new CLUT for each frame, it is possible to reliably recognize the position of the character with respect to the target object by a simple process of simply processing the CLUT that should be used one by one and using it. it can.

【0075】また、フォグパラメータPを図11に示す
マップで算出するため、例えばマップy座標の最小値と
最大値にパラメータ値を割り振ることができ、中間座標
では単純に中割り計算して算出でき極めて容易に算出す
ることができる。なお、強制的に定数値を入力する様に
してもよい。
Since the fog parameter P is calculated using the map shown in FIG. 11, for example, the parameter value can be assigned to the minimum value and the maximum value of the map y coordinate. It can be calculated very easily. Note that a constant value may be forcibly input.

【0076】更に、CLUTの生成においても、飛行体
の16色の色おのおのが、フォグパラメータP=0のと
きは元の飛行体CLUTのRGB値そのもので、フォグ
パラメータP=255のときは雲の色(フォグRGB
値)そのものとなり、0〜255の中間値のときは単純
な中割りで計算することができ、高速で算出でき、ゲー
ムの進行の障害となることもない。
Further, in the generation of the CLUT, each of the 16 colors of the flying object is the RGB value itself of the original flying object CLUT when the fog parameter P = 0, and the cloud value when the fog parameter P = 255. Color (fog RGB
Value) itself, and when it is an intermediate value between 0 and 255, it can be calculated by a simple intermediate division, can be calculated at high speed, and does not hinder the progress of the game.

【0077】以上説明したように、例えばゲーム内に設
定する雲のオブジェクト(ポリゴン)上方または下方に
飛行体が重なるとき、飛行体の色合いを雲の色(予め設
定したフォグRGB値)へ溶け込ませる表現が可能とな
る。
As described above, for example, when a flying object overlaps above or below a cloud object (polygon) set in the game, the hue of the flying object blends into the color of the cloud (preset fog RGB values). Expression becomes possible.

【0078】このとき、例えばフォグRGBを白色に設
定すると特に雲に溶け込んだ表現とすることができる。
At this time, for example, when fog RGB is set to white, it is possible to express the image particularly in the cloud.

【0079】なお、以上の説明ではキャラクタを飛行
体、目標対象物を雲としたが、キャラクタ、目標対象物
に制限されず、種々の物を対象とできることは勿論であ
る。
In the above description, the character is a flying object and the target object is a cloud. However, it is needless to say that the object is not limited to the character and the target object but can be various objects.

【0080】以上説明したように本実施の形態例によれ
ば、簡単な構成で、所定の対象物を基準にしてキャラク
タの色彩を変化させることができる。
As described above, according to the present embodiment, the color of a character can be changed with a simple configuration based on a predetermined object.

【0081】[第2の実施の形態例]以上の説明では、
デプスキューイング処理における飛行体CLUTの補正
RGB値を上述した(1)式、(2)式および(3)式
で求めていた。しかし本発明は以上の例に限定されるも
のではなく、フォグパラメータの算出方法も適宜転向で
きることは勿論である。
[Second Embodiment] In the above description,
The corrected RGB values of the flying object CLUT in the depth queuing process have been obtained by the above-described equations (1), (2) and (3). However, the present invention is not limited to the above example, and it goes without saying that the calculation method of the fog parameter can be appropriately changed.

【0082】例えば、フォグパラメータPを P={Pr−Pf)*vy/h} (4) で求めても良い。For example, the fog parameter P may be obtained by P = {Pr-Pf) * vy / h} (4)

【0083】また、飛行体CLUTの補正RGB値を以
下に示す式に従って求めてもよい。以下の式においても
上述した第1の実施の形態例と同様の作用効果を奏する
ことができる。
The corrected RGB values of the flying object CLUT may be obtained according to the following equation. In the following equation, the same operation and effect as those of the first embodiment can be obtained.

【0084】第2の実施の形態例においては、 R=r(1−P/255)+(P/255)r0 (5) 但し、r:飛行体のR値、r0:雲ポリゴンのR値に従
ってRの値を算出する。また、 G=g(1−P/255)+(P/255)g0 (5) 但し、g:飛行体のG値、g0:雲ポリゴンのG値に従
ってGの値を算出する。また、 B=b(1−P/255)+(P/255)b0 (5) 但し、b:飛行体のB値、b0:雲ポリゴンのB値に従
ってBの値を算出する。
In the second embodiment, R = r (1−P / 255) + (P / 255) r0 (5) where r: R value of the flying object, r0: R value of the cloud polygon The value of R is calculated according to G = g (1−P / 255) + (P / 255) g0 (5) where g: the G value of the flying object, and g0: the G value according to the G value of the cloud polygon. B = b (1−P / 255) + (P / 255) b0 (5) where b is the B value of the flying object, and b0 is the value of B according to the B value of the cloud polygon.

【0085】以上説明したように本実施の形態例によれ
ば、簡単な構成で、所定の対象物を基準にしてキャラク
タの色彩を変化させることができる。
As described above, according to the present embodiment, the color of a character can be changed with a simple configuration based on a predetermined object.

【0086】[第3の実施の形態例]以上の説明におい
ては、対象物とキャラクタの高さに対する距離dを基に
デプスキューイング処理における飛行体CLUTの補正
RGB値を求めていた。しかし、本発明は以上の例に限
定されるものではなく、視点から対象物までの距離と、
視点からキャラクタまでの距離の差に応じて直接キャラ
クタオブジェクトのCULTを変化させてフォグ表現を
しても良い。
[Third Embodiment] In the above description, the corrected RGB values of the flying object CLUT in the depth queuing process are obtained based on the distance d with respect to the height of the object and the character. However, the present invention is not limited to the above example, and the distance from the viewpoint to the object,
The fog expression may be performed by directly changing the CULT of the character object according to the difference in the distance from the viewpoint to the character.

【0087】本発明に係る第3の実施の形態例のデプス
キューイング処理における距離の算出方法の例を図13
を参照して以下に説明する。図13において、80は操
作者の視点位置(x0,y0,z0)、81は目標対象
物(雲)、82は飛行体を表わしている。
FIG. 13 shows an example of a method of calculating a distance in the depth queuing process according to the third embodiment of the present invention.
This will be described below with reference to FIG. In FIG. 13, reference numeral 80 denotes an operator's viewpoint position (x0, y0, z0); 81, a target object (cloud); and 82, a flying object.

【0088】マップ上において、処理を施す対象の飛行
体の座標を、飛行体の中心座標(x1,y1,z1)と
し、特定のキャラクタ(溶け込ます対象物)の座標を特
定キャラクタの中心座標(x2,y2,z2)とする
と、対象物と飛行体との距離dを求めるにはz座標に着
目すればよく、視点位置と対象物である雲までの距離d
1は(z0−z2)の絶対値、視点位置と飛行体までの
距離は(z0−z1)の絶対値、対象物である雲と飛行
体との距離dは(z1−z2)の絶対値でそれぞれ求め
ることができる。
On the map, the coordinates of the flying object to be processed are defined as the center coordinates (x1, y1, z1) of the flying object, and the coordinates of a specific character (the object to be blended) are defined as the center coordinates ( x2, y2, z2), the distance d between the target and the flying object can be obtained by focusing on the z coordinate, and the viewpoint position and the distance d between the target object and the cloud are calculated.
1 is the absolute value of (z0-z2), the distance between the viewpoint position and the flying object is the absolute value of (z0-z1), and the distance d between the target cloud and the flying object is the absolute value of (z1-z2) Can be obtained respectively.

【0089】従って第3の実施の形態例では、対象物と
飛行体との距離dを(z1−z2)の絶対値として求
め、距離dに基づいて飛行体を構成する画像の各表示R
GB値を対象物の表示RGB値に近づける補正を行な
う。
Therefore, in the third embodiment, the distance d between the object and the flying object is determined as the absolute value of (z1-z2), and each display R of the image forming the flying object is determined based on the distance d.
Correction is performed so that the GB value approaches the displayed RGB value of the object.

【0090】対象物と飛行体の距離に対応するパラメー
タ(フォグパラメータ)と、対象物座標位置で飛行体が
最終的に溶け込むRPG(フォグRGB、フォグパラメ
ータが最大のときのRGB)とを設定し、フォグパラメ
ータとフォグRGBとからCLUTをフレーム毎に求
め、飛行体(キャラクタ)に対象物との距離に応じた色
彩を与える。
A parameter (fog parameter) corresponding to the distance between the object and the flying object and an RPG (fog RGB, RGB when the fog parameter is the maximum) at which the flying object finally melts at the coordinate position of the object are set. , A CLUT is determined for each frame from the fog parameters and the fog RGB, and a color corresponding to the distance to the object is given to the flying object (character).

【0091】第3の実施の形態例においても、基本的な
補正値の制御は上述した第1乃至第2の実施の形態例と
同様の制御で補正値を求めることができる。
In the third embodiment, the basic control of the correction value can be performed by the same control as in the first and second embodiments described above.

【0092】なお、以上の説明ではz座標に着目し、第
1の実施の形態例ではy座標に着目したが、z座標とy
座標の両方に着目して、三次元的に距離を算出してフォ
グパラメータを求めても良い。
In the above description, attention is paid to the z coordinate, and in the first embodiment, attention is paid to the y coordinate.
The fog parameter may be obtained by calculating the distance three-dimensionally by focusing on both the coordinates.

【0093】[他の実施の形態例]以上、本発明を実施
の形態およびその変形例に基づいて具体的に説明した
が、本発明は上記実施の形態およびその変形例に限定さ
れるものではなく、その要旨を逸脱しない範囲で適宜変
更可能であることはもちろんである。
[Other Embodiments] While the present invention has been described in detail with reference to the embodiments and the modifications thereof, the present invention is not limited to the above embodiments and the modifications thereof. Needless to say, it can be appropriately changed without departing from the gist of the invention.

【0094】たとえば、上記実施の形態およびその変形
例では、家庭用ゲーム機をプラットホームとして本発明
を実現した場合について述べたが、本発明は、パーソナ
ルコンピュータなどの汎用コンピュータやアーケードゲ
ーム機をプラットホームとして実現してもよい。
For example, in the above-described embodiment and its modifications, the case where the present invention is realized using a home game machine as a platform has been described. However, the present invention uses a general-purpose computer such as a personal computer or an arcade game machine as a platform. It may be realized.

【0095】また、上記実施の形態およびその変形例で
は、本発明を実現するためのプログラムやデータをCD
−ROMに格納し、このCD−ROMを情報記録媒体と
して用いた。しかしながら、情報記録媒体はCD−RO
Mに限定されるものではなく、磁気ディスクやROMカ
ードなどコンピュータが読み取り可能なその他の磁気
的、光学的記録媒体あるいは半導体メモリであってもよ
い。
In the above-described embodiment and its modifications, programs and data for realizing the present invention are stored on a CD.
-Stored in a ROM, and this CD-ROM was used as an information recording medium. However, the information recording medium is a CD-RO
The storage medium is not limited to M, but may be another magnetic or optical recording medium or a semiconductor memory that can be read by a computer, such as a magnetic disk or a ROM card.

【0096】また、本発明を実現するためのプログラム
やデータは、ゲーム機やコンピュータに対して着脱可能
なCD−ROMなどのメディアにより提供される形態に
限定されず、本発明を実現するためのセーブデータは、
通信回線などを介して接続された他の機器から受信して
メモリに記録する形態であってもよいし、さらには、通
信回線などを介して接続された他の機器側のメモリに上
記プログラムやデータを記録し、このプログラムやデー
タを通信回線などを介して使用する形態であってもよ
い。
Further, the programs and data for realizing the present invention are not limited to the form provided by a medium such as a CD-ROM that is detachable from a game machine or a computer. Save data is
The program may be received from another device connected via a communication line or the like and recorded in a memory.Furthermore, the above program or the like may be stored in a memory of another device connected via a communication line or the like. Data may be recorded, and this program or data may be used via a communication line or the like.

【0097】[0097]

【発明の効果】以上説明した様に本発明によれば、移動
体の色合いを設定した対象物に対して溶け込ませること
ができ、目標物にどれくらい近づいているかを認識可能
とすることができる。
As described above, according to the present invention, the color of the moving object can be blended into the set object, and it is possible to recognize how close the object is to the target.

【0098】[0098]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施の形態例におけるゲームシ
ステムの全体構成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of a game system according to an embodiment of the present invention.

【図2】本実施の形態例の図1に示すゲーム装置本体と
その周辺の詳細構成を示すブロック図である。
FIG. 2 is a block diagram showing a detailed configuration of a main body of the game apparatus shown in FIG. 1 of the present embodiment and its periphery.

【図3】本実施の形態例の図2に示すフレームバッファ
のメモリ構成を示す図である。
FIG. 3 is a diagram showing a memory configuration of a frame buffer shown in FIG. 2 of the present embodiment.

【図4】図2に示すフレームバッファに格納するCLU
Tの構成を示す図である。
FIG. 4 is a diagram illustrating a CLU stored in a frame buffer shown in FIG. 2;
FIG. 3 is a diagram illustrating a configuration of T.

【図5】図4に示すCLUTのCLUTエントリの構成
を示す図である。
5 is a diagram showing a configuration of a CLUT entry of the CLUT shown in FIG.

【図6】本実施の形態例におけるデプスキューイング処
理における目的対象物とキャラクタの飛行体との位置関
係を説明するための図である。
FIG. 6 is a diagram for explaining a positional relationship between a target object and a flying object of a character in a depth queuing process according to the embodiment;

【図7】本実施の形態例におけるゲーム進行制御を説明
するためのフローチャートである。
FIG. 7 is a flowchart for explaining game progress control in the present embodiment.

【図8】本実施の形態例におけるゲーム進行制御を説明
するための図である。
FIG. 8 is a diagram for explaining game progress control in the present embodiment.

【図9】本実施の形態例の図7の表示制御の詳細を説明
するためのフローチャートである。
FIG. 9 is a flowchart illustrating details of the display control of FIG. 7 according to the embodiment;

【図10】本実施の形態例における図9の対象物へのデ
プスキューイング処理を説明するためのフローチャート
である。
FIG. 10 is a flowchart illustrating a depth queuing process for the object in FIG. 9 in the present embodiment.

【図11】本実施の形態例におけるフォグパラメータP
の例を示す図である。
FIG. 11 shows a fog parameter P in the present embodiment.
It is a figure showing the example of.

【図12】本実施の形態例における図10のCLUT変
更処理の様子を説明するための図である。
FIG. 12 is a diagram for explaining a state of the CLUT change processing of FIG. 10 in the present embodiment.

【図13】本発明に係る第3の実施の形態例のデプスキ
ューイング処理における距離の算出方法を説明するため
の図である。
FIG. 13 is a diagram illustrating a method of calculating a distance in depth queuing processing according to the third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

51 ゲームシステム 52 ゲーム装置本体 53 コントローラ 54 CD−ROM(Compact Disc Read Only Memory
) 55 メモリカード 56 モニタディスプレイ 57 AV(Audio and Visual)ケーブル 61 ディスクホルダ 62 オープンボタン 63 電源ボタン 64 リセットボタン 65 スロット部 80 視点位置 81 目標対象物(雲ポリゴン) 82〜84 操作キャラクタ(飛行体) 100 バス 101 CPU(Central Processing Unit;中央演算
処理ユニット) 102 GTE(Geometric Transform Engine ;グラ
フィックスデータ生成プロセッサ) 103 周辺デバイス 104 メインメモリ 105 OS−ROM(Operating System ROM) 106 MDEC(Motion Decoder;データ伸張エンジ
ン) 107 PIO(Parallel Input Output;拡張パラレ
ルポート) 108 SIO(Serial Input Output ;拡張シリアル
ポート) 109 GPU(Graphics Processing Unit ;グラフ
ィックス描画処理プロセッサ) 110 フレームバッファ 111 SPU(Sound Processing Unit;サウンド再
生処理プロセッサ) 112 サウンドバッファ 113 CD−ROMドライブ 114 CD−ROMデコーダ 115 CD−ROMバッファ 116 通信デバイス 1110、1120 ダブルバッファ構成の描画領域 1130、1140 表示領域 1150 カラールックアップテーブル(CLUT)1
150 1160 テクスチャパターン領域
51 Game System 52 Game Console 53 Controller 54 CD-ROM (Compact Disc Read Only Memory)
55) Memory card 56 Monitor display 57 AV (Audio and Visual) cable 61 Disk holder 62 Open button 63 Power button 64 Reset button 65 Slot part 80 View point position 81 Target object (cloud polygon) 82-84 Operation character (flying object) Reference Signs List 100 bus 101 CPU (Central Processing Unit) 102 GTE (Geometric Transform Engine; graphics data generation processor) 103 Peripheral device 104 Main memory 105 OS-ROM (Operating System ROM) 106 MDEC (Motion Decoder; data decompression) Engine) 107 PIO (Parallel Input Output; extended parallel port) 108 SIO (Serial Input Output; extended serial port) 109 GPU (Graphics Processing Unit; graphics drawing processing processor) 110) Frame buffer 111 Sound processing unit (SPU) 112 Sound buffer 113 CD-ROM drive 114 CD-ROM decoder 115 CD-ROM buffer 116 Communication device 1110, 1120 Double buffer configuration drawing area 1130 1140 Display area 1150 Color lookup table (CLUT) 1
150 1160 Texture pattern area

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 仮想三次元空間を任意方向へ移動可能な
ポリゴンおよび当該ポリゴンにテクスチャマッピングさ
れる画像とからなる移動体および他のオブジェクトとを
表示可能な表示手段とを備えるゲーム装置において、 前記移動体が前記他のオブジェクトの所定範囲内に存在
するとき、前記移動体と前記他のオブジェクトとの離間
距離を算出する離間距離算出手段と、 前記離間距離算出手段で算出された離間距離に基づいて
前記移動体を構成する画像の表示色を所定の表示色に近
づける表示色補正手段とを備えることを特徴とするゲー
ム装置。
1. A game device comprising: a display unit capable of displaying a moving object including a polygon capable of moving in a virtual three-dimensional space in an arbitrary direction and an image texture-mapped to the polygon and other objects. When the moving object is within a predetermined range of the other object, a separation distance calculating unit that calculates a separation distance between the moving object and the other object, and based on the separation distance calculated by the separation distance calculating unit. And a display color correcting means for bringing a display color of an image forming the moving object closer to a predetermined display color.
【請求項2】 仮想三次元空間を任意方向へ移動可能な
ポリゴンおよび当該ポリゴンにテクスチャマッピングさ
れる画像とからなる移動体と他のオブジェクトとを表示
可能な表示手段とを備えるゲーム装置において、 前記移動体が前記他のオブジェクトの所定範囲内に存在
するとき前記移動体と前記他のオブジェクトとの画面高
さ方向の離間距離を算出する離間距離算出手段と、 前記離間距離算出手段で算出された離間距離に基づいて
前記移動体を構成する画像の各表示色を予め前記他のオ
ブジェクト毎に設定した表示色に近づける補正手段とを
備えることを特徴とするゲーム装置。
2. A game device comprising: a moving body composed of a polygon movable in an arbitrary direction in a virtual three-dimensional space and an image texture-mapped to the polygon; and display means capable of displaying another object. When the moving object is within a predetermined range of the another object, the distance calculating unit calculates a distance in the screen height direction between the moving object and the other object, and the distance calculating unit calculates the distance. A game device comprising: a correction unit that brings each display color of an image forming the moving object closer to a display color set in advance for each of the other objects based on a separation distance.
【請求項3】 前記移動体は飛行体であり、前記他のオ
ブジェクトは雲を模したものであることを特徴とする請
求項1又は請求項2のいずれかに記載のゲーム装置。
3. The game device according to claim 1, wherein the moving object is a flying object, and the other object is an object simulating a cloud.
【請求項4】 前記表示色は輝度カラー情報値で表わさ
れており、前記補正手段は前記移動体を構成する画像の
各輝度カラー情報値を予め前記他のオブジェクト毎に設
定した各輝度カラー情報値に近づける色補正を行なうこ
とを特徴とする請求項1乃至請求項3のいずれかに記載
のゲーム装置。
4. The display color is represented by a luminance color information value, and the correction means sets each luminance color information value of an image constituting the moving body in advance for each of the other objects. 4. The game apparatus according to claim 1, wherein color correction is performed so as to approach an information value.
【請求項5】 前記移動体に対する色補正は、前記移動
体と前記他のオブジェクトとの離間距離がなくなった時
には、前記移動体の表示色をほぼ前記他のオブジェクト
の表示色とすることを特徴とする請求項1乃至請求項4
のいずれかに記載のゲーム装置。
5. The color correction for the moving object, wherein the display color of the moving object is substantially the display color of the other object when the separation distance between the moving object and the other object is lost. Claims 1 to 4
A game device according to any one of the above.
【請求項6】 仮想三次元空間を任意方向へ移動可能な
ポリゴンおよび当該ポリゴンにテクスチャマッピングさ
れる画像とからなる移動体および他のオブジェクトとを
表示可能な表示手段を備えるゲーム装置におけるゲーム
制御方法であって、 前記移動体が前記他のオブジェクトの所定範囲内に存在
するとき、前記移動体と前記他のオブジェクトとの離間
距離を算出し、前記算出した離間距離に基づいて前記移
動体を構成する画像の表示色を所定の表示色に近づける
ことを特徴とするゲーム制御方法。
6. A game control method in a game apparatus comprising a display means capable of displaying a moving object including a polygon capable of moving in a virtual three-dimensional space in an arbitrary direction and an image texture-mapped to the polygon and other objects. When the moving object is within a predetermined range of the other object, a distance between the moving object and the other object is calculated, and the moving object is configured based on the calculated distance. A game control method comprising: bringing a display color of an image to be played closer to a predetermined display color.
【請求項7】 仮想三次元空間を任意方向へ移動可能な
ポリゴンおよび当該ポリゴンにテクスチャマッピングさ
れる画像とからなる移動体と他のオブジェクトとを表示
可能な表示手段を備えるゲーム装置におけるゲーム制御
方法であって、 前記移動体が前記他のオブジェクトの所定範囲内に存在
するとき前記移動体と前記他のオブジェクトとの画面高
さ方向の離間距離を算出し、算出した離間距離に基づい
て前記移動体を構成する画像の各表示色を予め前記他の
オブジェクト毎に設定した表示色に近づけることを特徴
とするゲーム制御方法。
7. A game control method in a game apparatus comprising a display unit capable of displaying a moving object including a polygon movable in an arbitrary direction in a virtual three-dimensional space and an image texture-mapped to the polygon, and another object. When the moving object is within a predetermined range of the other object, a distance in the screen height direction between the moving object and the other object is calculated, and the moving is performed based on the calculated distance. A game control method, wherein each display color of an image constituting a body is brought close to a display color set in advance for each of the other objects.
【請求項8】 前記移動体は飛行体であり、前記他のオ
ブジェクトは雲を模したものであることを特徴とする請
求項6又は請求項7のいずれかに記載のゲーム制御方
法。
8. The game control method according to claim 6, wherein the moving object is a flying object, and the other object is an object simulating a cloud.
【請求項9】 前記表示色は輝度カラー情報値で表わさ
れており、前記移動体の色補正は前記移動体を構成する
画像の各輝度カラー情報値を予め前記他のオブジェクト
毎に設定した各輝度カラー情報値に近づける色補正であ
ることを特徴とする請求項6乃至請求項8のいずれかに
記載のゲーム制御方法。
9. The display color is represented by a luminance color information value, and in the color correction of the moving object, each luminance color information value of an image forming the moving object is set in advance for each of the other objects. 9. The game control method according to claim 6, wherein the color correction is performed to approach each luminance color information value.
【請求項10】 前記移動体に対する色補正は、前記移
動体と前記他のオブジェクトとの離間距離がなくなった
時には、前記移動体の表示色をほぼ前記他のオブジェク
トの表示色とすることを特徴とする請求項6乃至請求項
9のいずれかに記載のゲーム制御方法。
10. The color correction for the moving object, wherein the display color of the moving object is substantially the display color of the other object when the separation distance between the moving object and the other object is lost. The game control method according to any one of claims 6 to 9, wherein
【請求項11】 前記請求項1乃至請求項10のいずれ
かに記載の機能を実現するコンピュータプログラム列。
11. A computer program sequence for realizing the function according to any one of claims 1 to 10.
【請求項12】 前記請求項1乃至請求項10のいずれ
かに記載の機能を実現するコンピュータプログラムを記
録したコンピュータ読み取り可能な記憶媒体。
12. A computer-readable storage medium storing a computer program for realizing the functions according to any one of claims 1 to 10.
JP10361643A 1998-12-18 1998-12-18 Game machine, game control method and storage medium thereof Pending JP2000176167A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10361643A JP2000176167A (en) 1998-12-18 1998-12-18 Game machine, game control method and storage medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10361643A JP2000176167A (en) 1998-12-18 1998-12-18 Game machine, game control method and storage medium thereof

Publications (1)

Publication Number Publication Date
JP2000176167A true JP2000176167A (en) 2000-06-27

Family

ID=18474395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10361643A Pending JP2000176167A (en) 1998-12-18 1998-12-18 Game machine, game control method and storage medium thereof

Country Status (1)

Country Link
JP (1) JP2000176167A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014220793A (en) * 2013-04-10 2014-11-20 株式会社エム・ソフト Image color adjustment method and image color adjustment system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014220793A (en) * 2013-04-10 2014-11-20 株式会社エム・ソフト Image color adjustment method and image color adjustment system

Similar Documents

Publication Publication Date Title
EP1040855B1 (en) Game apparatus, game display control method, and computer-readable storage medium
US20060046844A1 (en) Video game device and image processing program
US20010006391A1 (en) Image creating device
US8305392B2 (en) Storage medium having game program stored therein and game apparatus
US8072458B2 (en) Storage medium having game program stored thereon and game apparatus
JP3249955B2 (en) Image generation system and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4056021B2 (en) Image generating apparatus and information storage medium
JP4082937B2 (en) GAME SYSTEM AND GAME PROGRAM
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4167358B2 (en) Image generation system and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP2001134779A (en) Method and device for providing non-realistic comic contour line in three-dimensional video graphics system
JP3297410B2 (en) Image generation system and information storage medium
JP4012948B2 (en) GAME DEVICE, COMPUTER-READABLE RECORDING MEDIUM, AND GAME IMAGE LIGHT EXPRESSION METHOD
JP2000176167A (en) Game machine, game control method and storage medium thereof
JP2000218036A (en) Game device, game control method and recording medium therefor
JP2004341570A (en) Image generation system, program and information storage medium
JP3223170B2 (en) GAME DEVICE, IMAGE GENERATION METHOD, AND RECORDING MEDIUM RECORDING IMAGE GENERATION PROGRAM
JP3254195B2 (en) Image generation system and information storage medium
JP3614340B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2006318196A (en) Program, information storage medium and image generation system
JP4475763B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4391633B2 (en) Image generation system and information storage medium