JP4035648B2 - Game device - Google Patents

Game device Download PDF

Info

Publication number
JP4035648B2
JP4035648B2 JP2004338661A JP2004338661A JP4035648B2 JP 4035648 B2 JP4035648 B2 JP 4035648B2 JP 2004338661 A JP2004338661 A JP 2004338661A JP 2004338661 A JP2004338661 A JP 2004338661A JP 4035648 B2 JP4035648 B2 JP 4035648B2
Authority
JP
Japan
Prior art keywords
data
texture
moving body
area
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004338661A
Other languages
Japanese (ja)
Other versions
JP2005129076A (en
Inventor
隆 磯脇
淳一 山中
宏 増井
隆史 藤村
剛 岩崎
尚武 西村
誠 大崎
功基 小岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2004338661A priority Critical patent/JP4035648B2/en
Publication of JP2005129076A publication Critical patent/JP2005129076A/en
Application granted granted Critical
Publication of JP4035648B2 publication Critical patent/JP4035648B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Description

本発明は、本発明は、ビデオゲーム装置に関する。特に、アミューズメントセンターや家庭に設置されたゲーム装置でよりリアルな画像表現を行い得るようにしたゲーム装置に関する。   The present invention relates to a video game apparatus. In particular, the present invention relates to a game apparatus that can perform a more realistic image expression with an amusement center or a game apparatus installed at home.

コンピュータ技術の進歩に伴い、コンピュータグラフィックス技術を用いたビデオゲーム装置が広く利用されるようになってきた。この種のビデオゲーム装置はユーザに広く受け入れられている。そして、多種多様なゲーム装置が数多く案出され、それ等に対応した様々なゲームソフトが供給されている。   With the advance of computer technology, video game devices using computer graphics technology have been widely used. This type of video game device is widely accepted by users. Many different game devices have been devised, and various game software corresponding to them has been supplied.

ユーザがビデオゲームをより楽しむことができるようにするために、画像がよりリアルな表現で画面に表示されることが望まれる。例えば、カーレースのような車両競走においては、車両や背景の動きが自然に表現され、あるいは運転中に起こり得ること、例えば衝突による車の損傷の具合等がリアルに表現されることが望ましい。   In order to allow the user to enjoy the video game more, it is desired that the image be displayed on the screen with a more realistic expression. For example, in a vehicle race such as a car race, it is desirable that the movement of the vehicle or the background is expressed naturally, or that it can occur during driving, for example, the state of damage to the vehicle due to a collision is realistically expressed.

従来は、このような衝突による車の壊れた状態のポリゴンを持ち、これによって表現していたが、壊れた状態は多様であるため、これを表現するためには多量のポリゴンを記憶する必要があるが、実際には、これは困難であった。また、少ないポリゴンの記憶では、車のエネルギーと壊れの程度とが一致せずに、表現の多様化に対応できなかった。   Conventionally, it has polygons in such a state that the car is broken due to such a collision, and it is expressed by this. However, since there are various broken states, it is necessary to store a large amount of polygons to express this. In practice, this was difficult. In addition, the memory of few polygons did not match the energy of the car and the degree of breakage, and could not cope with diversification of expressions.

また、同様なことが車両の走行において発生しており、例えば車両の走行の速度に応じた背景の動きが表現されておらず、実際に車が走行しているときの動きが自然に表現されないという不都合もあった。   In addition, the same thing occurs in the traveling of the vehicle, for example, the background movement according to the traveling speed of the vehicle is not expressed, and the movement when the vehicle is actually traveling is not naturally expressed. There was also an inconvenience.

一方、三次元画面(3D)表示は、座標変換等の複雑な演算を繰返すため、CPUが負担する演算量が膨大になる。このため、画像表現の特殊効果等を行うと、これに使用される演算量の分だけ他の処理にかけられる処理時間を減らなければならない。   On the other hand, since the three-dimensional screen (3D) display repeats complicated calculations such as coordinate transformation, the amount of calculation burdened by the CPU becomes enormous. For this reason, if a special effect or the like of image representation is performed, the processing time required for other processing must be reduced by the amount of calculation used for this.

よって、本発明は、画面表現を多様化する際にデータ転送の時間を減少させて処理時間を高速化するゲーム装置を提供することを第1の目的とする。
よって、本発明は、実際に走行体が走行している状態を背景画面に反映させることにより画面表現を多様化できるゲーム装置を提供することを第2の目的とする。
また、本発明は、車が衝突した際の衝突のエネルギや衝突の方向に応じた結果を画面に表現できるようにして画面表現を多様化できるゲーム装置を提供することを第3の目的とする。
Accordingly, a first object of the present invention is to provide a game device that reduces the data transfer time and increases the processing time when diversifying the screen representation.
Therefore, a second object of the present invention is to provide a game apparatus that can diversify the screen expression by reflecting the actual traveling state of the traveling body on the background screen.
It is a third object of the present invention to provide a game device that can diversify the screen expression so that the result according to the energy and direction of the collision when the car collides can be expressed on the screen. .

上記目的を達成するために、本発明に係わる画像処理装置は、移動体が移動する状況を画面に表示する画像処理装置において、移動体が移動する状況の画面を表示手段に与えるための記憶領域を共通表示用領域、移動表示用領域に分割した第1の記憶手段と、移動体が移動する状況の画面を表現するためのデータを前記記憶手段の分割状況に応じて分割して記憶するとともに、当該分割した記憶データ間の関係を示す情報を記憶する第2の記憶手段と、移動体が移動する際に前記分割した記憶データ間の関係を基に前記第2の記憶手段に分割記憶しているデータを第1の記憶手段の移動表示用領域に転送する手段とを備えたことを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention is a storage area for displaying a screen of a situation in which a moving body moves on a display means in an image processing apparatus that displays the situation in which the moving body moves on a screen. The first storage means that is divided into the common display area and the movement display area, and the data for expressing the screen of the situation in which the moving body moves are divided and stored according to the division status of the storage means. A second storage means for storing information indicating a relationship between the divided storage data and a second storage means based on the relationship between the divided storage data when the mobile body moves. Means for transferring the stored data to the moving display area of the first storage means.

本発明の他の形態は、前記第1の記憶手段はテクスチャメモリであり、テクスチャメモリは、移動体が移動する状況を表示しているときにデータが書き変わらないテクスチャデータを記憶する共通用領域と、背景等の移動体の移動に伴うテクスチャを偶数ブロックと奇数のブロックとにそれぞれ分割した際の両ブロックを記憶できる偶数ブロック用領域及び奇数ブロックとに分割して使用することを特徴とする。   In another aspect of the present invention, the first storage means is a texture memory, and the texture memory stores a common area for storing texture data in which data is not rewritten when a moving body is displayed. And the texture associated with the movement of the moving body such as the background is divided into an even block area and an odd block that can store both blocks when divided into even blocks and odd blocks. .

本発明の更に他の形態は、前記第2の記憶手段は読出し専用記憶装置であり、前記読出し専用記憶装置は、テクスチャメモリの分割状況に応じた状態で、共通用テクスチャ、各ブロック毎のテクスチャを、各1ブロック毎に記憶したことを特徴とする。   According to still another aspect of the present invention, the second storage unit is a read-only storage device, and the read-only storage device has a common texture and a texture for each block in a state corresponding to the division state of the texture memory. Is stored for each block.

さらに他の形態に係わる本発明は、前記第2の記憶手段の一ブロックは、数枚のテクスチャを記憶しており、前記転送する手段は、この1ブロックに記憶されている数枚のテクスチャのうち1フレーム毎に1枚のテクスチャを転送するようにしたことを特徴とする。   In the present invention according to yet another aspect, one block of the second storage means stores several textures, and the transferring means stores several textures stored in the one block. One feature is that one texture is transferred for each frame.

本発明はさらに、移動体が移動する状況を画面に表示する画像処理装置において、複数のテクスチャを用意し、そのうちの少なくとも一つの第1のテクスチャに移動体が停止あるいは低速状態にある背景画像を与え、残りの少なくとも一つの第2のテクスチャに移動体が低速以上の走行状態にあるときの背景画像を与え、移動体の状況に応じて第1のテクスチャに加えて第2のテクスチャを画面にマッピングする手段を備えることを特徴とする。   The present invention further provides a plurality of textures in an image processing apparatus that displays on a screen a situation in which a moving object moves, and a background image in which the moving object is stopped or in a low-speed state is provided in at least one of the first textures. Give a background image when the moving body is running at a low speed or more to the remaining at least one second texture, and add the second texture to the screen in addition to the first texture according to the situation of the moving body A means for mapping is provided.

さらに他の形態に係わる発明では、前記第1のテクスチャは移動体がほぼ停止状況にあるときの路面の画面を表示できる絵であり、第2のテクスチャは移動体が走行状態にあるときの路面が流れる画面を表示できる絵であることを特徴とする。   In still another aspect of the invention, the first texture is a picture that can display a screen of the road surface when the moving body is almost stopped, and the second texture is a road surface when the moving body is in a running state. It is a picture that can display a screen on which the character flows.

さらに、前記第2のテクスチャは、移動体の走行状態の速度に応じて複数の画面を表示できる絵であることを特徴とする。   Further, the second texture is a picture capable of displaying a plurality of screens according to the speed of the moving state of the moving body.

またさらに、本発明は、移動体が移動する状況を画面に表示する画像処理装置において、移動体が衝突したときに、移動体の移動方向と移動量を検出して、その検出量を移動体の変形量に反映させることができる処理手段を備えたことを特徴とする。   Still further, the present invention provides an image processing apparatus that displays a moving state of a moving body on a screen, detects the moving direction and the moving amount of the moving body when the moving body collides, and determines the detected amount as the moving body. And a processing means capable of reflecting the amount of deformation.

この発明の他の形態は、前記移動体をブロック分けし、前記画像処理の対象のブロックを検出値から与えることを特徴とする。さらに、他の形態は、前記移動体に、変形前のテクスチャと変形後のテクスチャとをマッピングしておき、前記衝突した際の検出量に応じて前記両テクスチャのブレンド比を変えるようにしたことを特徴とする。さらに、また、前記ブレンド比は、前記テクスチャの透明度パラメータを変化させるものである。   Another aspect of the present invention is characterized in that the moving body is divided into blocks, and a block to be subjected to the image processing is given from a detected value. Furthermore, in another embodiment, the texture before deformation and the texture after deformation are mapped to the moving body, and the blend ratio of both textures is changed according to the detected amount at the time of collision. It is characterized by. Furthermore, the blend ratio changes the transparency parameter of the texture.

以上述べたように、本発明によれば、移動体の移動を表現するための第1記憶手段の容量以上に画像データを使用できるとともに、移動体の移動を表現するための画像を常に最新のものにすることができる。   As described above, according to the present invention, the image data can be used in excess of the capacity of the first storage means for expressing the movement of the moving object, and the image for expressing the movement of the moving object is always the latest. Can be a thing.

さらに、移動体の移動速度の状況に応じた背景画面を得ることができるために、自然で表現力豊かな画像処理ができることになる。   Furthermore, since a background screen corresponding to the moving speed of the moving body can be obtained, natural and expressive image processing can be performed.

またさらに、衝突に移動体の方向、エネルギー量が反映されることになり、移動体の衝突による変形が多様化されて、移動体の移動方向と衝突に態様が正確に表示されることになり、かつ、ブロック化したために、計算負荷が限定的である。   Furthermore, the direction of the moving body and the amount of energy are reflected in the collision, the deformation caused by the collision of the moving body is diversified, and the moving direction of the moving body and the mode are displayed accurately. In addition, the calculation load is limited due to the blocking.

まず、本発明の特殊効果画像のアルゴリズムを実行し得るゲーム装置の構成について図面を参照して説明する。   First, the configuration of a game apparatus that can execute the special effect image algorithm of the present invention will be described with reference to the drawings.

図1は、ビデオゲーム装置の概要を表すブロック図である。この装置は、装置全体の制御を行うCPUブロック10、ゲーム画面の表示制御を行うビデオブロック11、効果音等を生成するサウンドブロック12、CD−ROMの読み出しを行うサブシステム13等により構成されている。   FIG. 1 is a block diagram showing an outline of a video game apparatus. This apparatus comprises a CPU block 10 for controlling the entire apparatus, a video block 11 for controlling display of a game screen, a sound block 12 for generating sound effects, a subsystem 13 for reading a CD-ROM, and the like. Yes.

CPUブロック10は、SCU(System Control Unit)100、メインCPU101、RAM102、ROM103、カートリッジI/F1a、サブCPU104、CPUバス103等により構成されている。メインCPU101は、装置全体の制御を行うものである。このメインCPU101は、内部にDSP(Digital Signal Processor)と同様の演算機能を備え、アプリケーションソフトを高速に実行可能である。   The CPU block 10 includes an SCU (System Control Unit) 100, a main CPU 101, a RAM 102, a ROM 103, a cartridge I / F 1a, a sub CPU 104, a CPU bus 103, and the like. The main CPU 101 controls the entire apparatus. The main CPU 101 has an arithmetic function similar to that of a DSP (Digital Signal Processor) inside, and can execute application software at high speed.

RAM102は、メインCPU101のワークエリアとして使用されるものである。ROM103には、初期化処理用のイニシャルプログラム等が書き込まれている。SCU100は、バス105、106、107を制御することにより、メインCPU101、VDP120、130、DSP140、CPU141等の間におけるデータ入出力を円滑に行うものである。また、SCU100は、内部にDMAコントローラを備え、ゲーム中のオブジェクト(あるいはスプライト)データをビデオブロック11内のVRAMに転送することができる。これにより、ゲーム等のアプリケーションソフトを高速に実行することが可能である。カートリッジI/F1aは、ROMカートリッジの形態で供給されるアプリケーションソフトを入力するためのものである。   The RAM 102 is used as a work area for the main CPU 101. In the ROM 103, an initial program for initialization processing and the like are written. The SCU 100 smoothly performs data input / output between the main CPU 101, the VDP 120, 130, the DSP 140, the CPU 141, and the like by controlling the buses 105, 106, and 107. Further, the SCU 100 includes a DMA controller therein, and can transfer object (or sprite) data in the game to the VRAM in the video block 11. Thereby, application software such as a game can be executed at high speed. The cartridge I / F 1a is for inputting application software supplied in the form of a ROM cartridge.

サブCPU104は、SMPC(System Manager & Peripheral Control)と呼ばれるもので、メインCPU101からの要求に応じて、入力装置2bからペリフェラルデータをコネクタ2aを介して収集する機能等を備えている。メインCPU101はサブCPU104から受け取ったペリフェラルデータに基づき、例えばゲーム画面中の車両(オブジェクト)を移動させる等の処理を行うものである。コネクタ2aには、ハンドル、アクセル及びブレーキ等からなる操縦装置が接続される。また、PAD、ジョイスティック、キーボード等のうちの任意のペリフェラルも接続可能である。コネクタ2aに2台の操縦装置2bを接続することによってカーレースの対戦を行うことが可能となる。サブCPU104は、コネクタ2a(本体側端子)に接続されたペリフェラルの種類を自動的に認識し、ペリフェラルの種類に応じた通信方式に従いペリフェラルデータ等を収集する機能を備えている。   The sub CPU 104 is called SMPC (System Manager & Peripheral Control), and has a function of collecting peripheral data from the input device 2b via the connector 2a in response to a request from the main CPU 101. The main CPU 101 performs processing such as moving a vehicle (object) in the game screen based on the peripheral data received from the sub CPU 104. A control device including a handle, an accelerator, a brake, and the like is connected to the connector 2a. Also, any peripheral among PAD, joystick, keyboard and the like can be connected. By connecting two control devices 2b to the connector 2a, a car race can be played. The sub CPU 104 has a function of automatically recognizing the type of peripheral connected to the connector 2a (main body side terminal) and collecting peripheral data and the like according to a communication method according to the type of peripheral.

ビデオブロック11は、主に、ビデオゲームのポリゴンデータから成るオブジェクト等の描画を行うVDP(Video Display Processor)120、主に、背景画面の描画、ポリゴン画像データ(オブジェクト)および背景画像の合成、クリッピング処理等を行うVDP130とを備えている。   The video block 11 is mainly a VDP (Video Display Processor) 120 that draws an object composed of polygon data of a video game, mainly a background screen drawing, synthesis of polygon image data (object) and background image, clipping And a VDP 130 that performs processing and the like.

VDP120には、VRAM121、複数のフレームバッファ(図示の例では、122、123の2つ)に接続される。ビデオゲーム装置のオブジェクトを表すポリゴンの描画コマンドはメインCPU101からSCU100を介してVDP120に送られ、VRAM121に書き込まれる。VDP120は、VRAMから描画コマンドを内部のシステムレジスタに読込み、フレームバッファに描画データを書込む。描画されたフレームバッファ122または123のデータはVDP130に送られる。VDP120は定形オブジェクト、拡縮オブジェクト、変形オブジェクト等を表示するテクスチャパーツ表示、四角形ポリゴン、ポリライン、ライン等を表示する非定形オブジェクト表示、パーツ同士の半透明演算、半輝度演算、シャドウ演算、ぼかし演算、メッシュ演算、シェーディング演算等の色演算、メッシュ処理、設定した表示領域以外の描画をしないようにするクリッピングを行う演算機能、等を備えている。また、行列演算を行うジオメタライザを備えており、拡大、縮小、回転、変形、座標変換等の演算を素早く行うことができる。   The VDP 120 is connected to a VRAM 121 and a plurality of frame buffers (two in the example shown, 122 and 123). A polygon drawing command representing an object of the video game apparatus is sent from the main CPU 101 to the VDP 120 via the SCU 100 and written into the VRAM 121. The VDP 120 reads a drawing command from the VRAM into an internal system register and writes drawing data into the frame buffer. The drawn data in the frame buffer 122 or 123 is sent to the VDP 130. VDP 120 is a textured part display that displays standard objects, scaling objects, deformed objects, etc., non-standard object display that displays quadrilateral polygons, polylines, lines, etc., translucent operation between parts, semi-luminance calculation, shadow calculation, blur calculation, Color calculation such as mesh calculation and shading calculation, mesh processing, calculation function for performing clipping to prevent drawing other than the set display area, and the like are provided. In addition, a geometalizer that performs matrix operations is provided, and operations such as enlargement, reduction, rotation, deformation, and coordinate conversion can be performed quickly.

VDP130はVRAM131に接続され、VDP130から出力された画像データはメモリ132を介してエンコーダ160に出力される構成となっている。VDP130は、VDP120の持つ機能に加えて、スクロール画面表示を制御するスクロール機能と、オブジェクト及び画面の表示優先順位を決めるプライオリティ機能等を備える。   The VDP 130 is connected to the VRAM 131, and image data output from the VDP 130 is output to the encoder 160 via the memory 132. In addition to the functions of the VDP 120, the VDP 130 includes a scroll function for controlling scroll screen display, a priority function for determining display priority of objects and screens, and the like.

エンコーダ160は、この画像データに同期信号等を付加することにより映像信号を生成し、TV受像機5(あるいはプロジェクタ)に出力する。これにより、TV受像機5に各種ゲームの画面が表示される。   The encoder 160 generates a video signal by adding a synchronization signal or the like to this image data, and outputs it to the TV receiver 5 (or projector). As a result, various game screens are displayed on the TV receiver 5.

サウンドブロック12は、PCM方式あるいはFM方式に従い音声合成を行うDSP140と、このDSP140の制御等を行うCPU141とにより構成されている。DSP140により生成された音声データは、D/Aコンバータ170により2チャンネルの信号に変換された後にスピーカ5bに出力される。   The sound block 12 includes a DSP 140 that performs speech synthesis in accordance with the PCM method or the FM method, and a CPU 141 that controls the DSP 140 and the like. The audio data generated by the DSP 140 is converted into a 2-channel signal by the D / A converter 170 and then output to the speaker 5b.

サブシステム13は、CD−ROMドライブ1b、CD I/F180、CPU181、MPEG AUDIO182、MPEG VIDEO183等により構成されている。このサブシステム13は、CD−ROMの形態で供給されるアプリケーションソフトの読み込み、動画の再生等を行う機能を備えている。   The subsystem 13 includes a CD-ROM drive 1b, a CD I / F 180, a CPU 181, an MPEG AUDIO 182 and an MPEG VIDEO 183. The sub-system 13 has functions for reading application software supplied in the form of a CD-ROM, reproducing moving images, and the like.

CD−ROMドライブ1bはCD−ROMからデータを読み取るものである。CPU181は、CD−ROMドライブ1bの制御、読み取られたデータの誤り訂正等の処理を行うものである。CD−ROMから読み取られたデータは、CDI/F180、バス106、SCU100を介してメインCPU101に供給され、アプリケーションソフトとして利用される。   The CD-ROM drive 1b reads data from a CD-ROM. The CPU 181 performs processing such as control of the CD-ROM drive 1b and error correction of the read data. Data read from the CD-ROM is supplied to the main CPU 101 via the CDI / F 180, the bus 106, and the SCU 100, and used as application software.

また、MPEG AUDIO182、MPEG VIDEO183は、MPEG規格(Motion Picture Expert Group)により圧縮されたデータを復元するデバイスである。これらのMPEG AUDIO182、MPEG VIDEO183を用いてCD−ROMに書き込まれたMPEG圧縮データの復元を行うことにより、動画の再生を行うことが可能となる。   MPEG AUDIO 182 and MPEG VIDEO 183 are devices for restoring data compressed according to the MPEG standard (Motion Picture Expert Group). By restoring the MPEG compressed data written in the CD-ROM using these MPEG AUDIO 182 and MPEG VIDEO 183, it is possible to reproduce a moving image.

CPU101は、図示しない主ゲームプログラム及び運転操作のデータに従って三次元仮想空間でカーレースゲームを展開する。主ゲームプログラムやデータはROMカートリッジやCD−ROM、フロッピーディスク等の情報記録媒体によって供給され、予めメモリ内にロードされる。また、プログラムやデータは、インターネット、パソコン通信、衛星通信等の通信網や放送等の媒体を媒介としてダウンロードしても良い。CPU101は、三次元仮想空間に車両や背景のオブジェクトを配置し、TV受像機のフレーム周期に同期してオブジェクトの位置・移動等を制御する。   The CPU 101 develops a car racing game in a three-dimensional virtual space in accordance with a main game program and driving operation data (not shown). The main game program and data are supplied by an information recording medium such as a ROM cartridge, a CD-ROM, a floppy disk, etc., and loaded in the memory in advance. The program and data may be downloaded via a communication network such as the Internet, personal computer communication, satellite communication, or a medium such as broadcast. The CPU 101 arranges vehicles and background objects in the three-dimensional virtual space, and controls the position and movement of the objects in synchronization with the frame period of the TV receiver.

<第1の実施の形態における画像処理>
図2〜図8は、本発明の第1の実施の形態を説明するために示した図であって、テクスチャメモリの容量以上にテクスチャデータを使用できるようにする技術を説明するための図である。
<Image Processing in First Embodiment>
2 to 8 are diagrams for explaining the first embodiment of the present invention, and are diagrams for explaining a technique for enabling the use of texture data exceeding the capacity of the texture memory. is there.

本発明の第1の実施の形態の概要を説明すれば、第1にテクスチャメモリを共通用領域、偶数ブロック用領域、奇数ブロック用領域に分割して使用すること、第2に表示手段に表示するためのテクスチャデータを分割して偶数ブロック、奇数ブロック及び共通ブロックに形成しておくとともに、エリアという概念を採用して当該エリアと偶数ブロック・奇数ブロックとの関連を付けておくこと、第3に移動体が表示される位置に応じて分割形成したおいた偶数ブロック、奇数ブロック及び共通ブロックのテクスチャデータを前記テクスチャメモリに転送しておくこと、第4にゲームの展開に伴って移動体の周囲に必要なテクスチャデータをテクスチャメモリの偶数ブロック用領域あるいは奇数ブロック用領域から取り出してゆくが、この場合にテクスチャメモリの領域の変化があったときに、奇数ブロック・偶数ブロックとエリアとの関係から、テクスチャメモリの偶数ブロック用領域あるいは奇数ブロック用領域に書換えが必要か否かを判断すること、第5に前記テクスチャメモリの該当ブロック用領域の書換えが必要なときには、前記テクスチャメモリの当該ブロック用領域に上記形成しておいた該当するブロックのテクスチャデータのみを転送するようにすることにある。   The outline of the first embodiment of the present invention will be described. First, the texture memory is divided into a common area, an even block area, and an odd block area, and secondly displayed on the display means. The texture data to be divided is formed into even blocks, odd blocks, and common blocks, and the concept of area is adopted to associate the areas with the even blocks and odd blocks; The texture data of the even block, the odd block and the common block separately formed according to the position where the mobile body is displayed is transferred to the texture memory. Necessary texture data around is taken out from the even block area or odd block area of the texture memory. Determining whether or not rewriting to the even block area or the odd block area of the texture memory is necessary based on the relationship between the odd block / even block and the area when there is a change in the texture memory area; When the corresponding block area of the texture memory needs to be rewritten, only the texture data of the corresponding block formed above is transferred to the block area of the texture memory.

なお、偶数ブロックのテクスチャデータ又は奇数ブロックのテクスチャデータを転送する場合、該当する1つのブロックのテクスチャデータを一括して転送するのではなく、当該ブロックを構成する1枚のテクスチャデータ(例えば 256×256Texcel)単位で転送することとする。   When transferring texture data of even blocks or texture data of odd blocks, the texture data of one corresponding block is not transferred all at once, but one texture data (for example, 256 × It will be transferred in units of 256Texcel).

上述した内容を実現させることにより、テクスチャメモリの容量以上にテクスチャデータを使用できるようにすることができるとともに、テクスチャメモリ上のテクスチャデータを常にアップデート(最新のテクスチャデータに)できることになる。   By realizing the above-described contents, the texture data can be used more than the capacity of the texture memory, and the texture data on the texture memory can always be updated (to the latest texture data).

図2は、同第1の実施の形態で使用するテクスチャメモリを説明するための図である。この図において、符号21はテクスチャメモリであり、このテクスチャメモリ21は、例えば共通用領域21a、偶数ブロック用領域21b、奇数ブロック用領域21cに分割して使用するようにしている。ここで、このようにテクスチャメモリを分割する意味はテクスチャメモリを使用する上での便宜上のことであり、ハードウエア上では1つのままである。   FIG. 2 is a diagram for explaining a texture memory used in the first embodiment. In this figure, reference numeral 21 denotes a texture memory. The texture memory 21 is divided into a common area 21a, an even block area 21b, and an odd block area 21c, for example. Here, the meaning of dividing the texture memory in this way is for convenience in using the texture memory, and remains one on the hardware.

ここで、例えば256×256texelを一単位とするテクスチャデータをテクスチャの枚数としては1枚と数えるものとすると、この実施の形態では、共通用領域21aはテクスチャ数が最大6枚、偶数ブロック用領域21bはテクスチャ数が最大9枚、奇数ブロック用領域21cはテクスチャ数が最大9枚で構成されるものとしている。したがって、図2においても、共通用領域21aでは点線で分割された領域が6領域、偶数ブロック用領域21bでは点線で分割された領域が9領域、奇数ブロック用領域21cでは点線で分割された領域が9領域に、分割されて表示されている。   Here, for example, assuming that texture data with 256 × 256 texel as one unit is counted as one texture, in this embodiment, the common area 21a has a maximum number of textures of 6 and is an even block area. 21b has a maximum number of 9 textures, and the odd block area 21c has a maximum of 9 textures. Accordingly, in FIG. 2, in the common area 21a, the area divided by the dotted line is 6 areas, in the even block area 21b, the area divided by the dotted line is 9 areas, and in the odd block area 21c, the area is divided by the dotted line. Are divided into nine areas and displayed.

また、共通用領域21aは、表示手段の画面に常に表示されるようなモデル、例えば、道路のような表示データに使用されることになり、ゲーム処理中に書換わることはない。   The common area 21a is used for a model that is always displayed on the screen of the display means, for example, display data such as a road, and is not rewritten during the game process.

図3は、同第1の実施の形態で使用する表示データを示すものであって、例えば自動車レースのコース全体のテクスチャデータを示す図である。この図からも分かるように、例えば閉回路状の自動車レース用のコースを表示用のデータとして、通常は、図3に示すような表示データ210として構築しておき、ゲームの展開に応じた移動体の移動に伴って、その場面に必要なテクスチャデータ等を前記表示データ210から取り出して使用している。   FIG. 3 is a diagram showing display data used in the first embodiment, for example, showing texture data of the entire course of the car race. As can be seen from this figure, for example, a closed circuit-like course for car racing is constructed as display data, usually as display data 210 as shown in FIG. As the body moves, texture data necessary for the scene is extracted from the display data 210 and used.

この第1の実施の形態においては、上記表示データ210を、図3に示すように、例えば、ブロックBLK1,BLK2,BLK3,…,BLK6の6つのブロックに分割するものとする。なお、第1の実施の形態では、表示データ210を6つのブロックに分割したが、容量の許す限りいくらでもよい。   In the first embodiment, as shown in FIG. 3, the display data 210 is divided into, for example, six blocks BLK1, BLK2, BLK3,..., BLK6. In the first embodiment, the display data 210 is divided into six blocks. However, the display data 210 may be any number as long as the capacity permits.

また、この第1の実施の形態では、エリアARという概念を採用し、上述したように分割した第1のブロックBLK1,第2のブロックBLK2,第3のブロックBLK3,…,第6のブロックBLK6とを、エリアAR1,AR2,AR3,…,AR6に対応付けて記憶させておく。すなわち、ブロックBLK1〜BLK6とエリアAR1〜AR6とは次の図27のような対応関係を持たせてある。   In the first embodiment, the concept of area AR is adopted, and the first block BLK1, the second block BLK2, the third block BLK3,..., The sixth block BLK6 divided as described above. Are stored in association with the areas AR1, AR2, AR3,..., AR6. That is, the blocks BLK1 to BLK6 and the areas AR1 to AR6 have a correspondence relationship as shown in FIG.

図4は、上述したように表示データ210を分割したブロックBLKについてテクスチャメモリ21に対応させた状態で構築したモデル、テクスチャに関するデータを示す図であり、図4(1)に第1のブロックBLK1のテクスチャTD1、図4(2)に第2のブロックBLK2のテクスチャTD2、図4(3)に第3のブロックBLK3のテクスチャTD3、図4(4)に第4のブロックBLK4のテクスチャTD4、図4(5)に第5のブロックBLK5のテクスチャTD5、図4(6)に第6のブロックBLK6のテクスチャTD6、をそれぞれ示している。   FIG. 4 is a diagram showing data relating to the model and texture constructed in a state in which the block BLK obtained by dividing the display data 210 as described above is associated with the texture memory 21, and FIG. 4 (1) shows the first block BLK1. 4 (2) shows the texture TD2 of the second block BLK2, FIG. 4 (3) shows the texture TD3 of the third block BLK3, FIG. 4 (4) shows the texture TD4 of the fourth block BLK4, 4 (5) shows the texture TD5 of the fifth block BLK5, and FIG. 4 (6) shows the texture TD6 of the sixth block BLK6.

すなわち、テクスチャTD1は、図4(1)に示すように、テクスチャメモリ21に対応させた状態において、奇数ブロック用領域21cに相当する領域に構築し、他の共通用領域21a、偶数ブロック用領域21bに相当する領域にはデータを構築しない。   That is, as shown in FIG. 4A, the texture TD1 is constructed in an area corresponding to the odd block area 21c in a state corresponding to the texture memory 21, and the other common area 21a and even block area Data is not constructed in the area corresponding to 21b.

同様に、テクスチャTD2は、図4(2)に示すように、テクスチャメモリ21に対応させた状態において、偶数ブロック用領域21bに相当する領域に構築し、他の共通用領域21a、奇数ブロック用領域21cに相当する領域にはデータを構築しない。   Similarly, as shown in FIG. 4 (2), the texture TD2 is constructed in an area corresponding to the even block area 21b in a state corresponding to the texture memory 21, and is used for the other common area 21a and odd block. Data is not constructed in the area corresponding to the area 21c.

同様に、テクスチャTD3は、図4(3)に示すように、テクスチャメモリ21に対応させた状態において、奇数ブロック用領域21cに相当する領域に構築し、他の共通用領域21a、偶数ブロック用領域21bに相当する領域にはデータを構築しない。   Similarly, as shown in FIG. 4 (3), the texture TD3 is constructed in an area corresponding to the odd block area 21c in a state corresponding to the texture memory 21, and is used for other common areas 21a and even blocks. Data is not constructed in the area corresponding to the area 21b.

同様に、テクスチャTD4は、図4(4)に示すように、テクスチャメモリ21に対応させた状態において、偶数ブロック用領域21bに相当する領域に構築し、他の共通用領域21a、奇数ブロック用領域21cに相当する領域にはデータを構築しない。   Similarly, as shown in FIG. 4 (4), the texture TD4 is constructed in an area corresponding to the even block area 21b in a state corresponding to the texture memory 21, and is used for the other common area 21a and odd block. Data is not constructed in the area corresponding to the area 21c.

同様に、テクスチャTD5は、図4(5)に示すように、テクスチャメモリ21に対応させた状態において、奇数ブロック用領域21cに相当する領域に構築し、他の共通用領域21a、偶数ブロック用領域21bに相当する領域にはデータを構築しない。   Similarly, as shown in FIG. 4 (5), the texture TD5 is constructed in an area corresponding to the odd block area 21c in a state corresponding to the texture memory 21, and is used for the other common area 21a and even block area. Data is not constructed in the area corresponding to the area 21b.

同様に、テクスチャTD6は、図4(6)に示すように、テクスチャメモリ21に対応させた状態において、偶数ブロック用領域21bに相当する領域に構築し、他の共通用領域21a、奇数ブロック用領域21cに相当する領域にはデータを構築しない。   Similarly, as shown in FIG. 4 (6), the texture TD6 is constructed in an area corresponding to the even block area 21b in a state corresponding to the texture memory 21, and is used for the other common areas 21a and odd blocks. Data is not constructed in the area corresponding to the area 21c.

なお、共通テクスチャDTcは、図4(7)に示すように、テクスチャメモリ21に対応させた状態において、共通用領域21aに相当する領域に構築し、他の偶数ブロック用領域21b、奇数ブロック用領域21cに相当する領域にはデータを構築しない。   As shown in FIG. 4 (7), the common texture DTc is constructed in a region corresponding to the common region 21a in a state corresponding to the texture memory 21, and is used for another even block region 21b and odd block. Data is not constructed in the area corresponding to the area 21c.

上述したように構築したテクスチャTD1〜TD6,TDcを、例えばROM等に格納しておくものとする。   Assume that the textures TD1 to TD6 and TDc constructed as described above are stored in, for example, a ROM.

次に、上述したような前提を基に図5ないし図11を参照して第1の実施の形態におけるデータ処理について説明する。   Next, data processing according to the first embodiment will be described with reference to FIGS.

〔初期状態〕
図6はゲームの開始初期の状態にある場合を示す図であり、図7はそのときにテクスチャメモリのテクスチャの番号を示す図である。
〔initial state〕
FIG. 6 is a diagram showing a case where the game is in an initial state, and FIG. 7 is a diagram showing texture numbers in the texture memory at that time.

まず、ゲームの開始時に、ゲームプログラムの処理に応じて、移動体のうちの自車30は、図6に示すように、第1のエリアAR1にいるものとする。この場合、テクスチャメモリ21には、共通用領域21aには共通テクスチャTDcが、偶数ブロック用領域21bにはテクスチャTD2が、奇数ブロック用領域21cにはテクスチャTD1が、それぞれ格納されることになる。   First, at the start of the game, according to the processing of the game program, the vehicle 30 of the moving body is assumed to be in the first area AR1, as shown in FIG. In this case, the texture memory 21 stores the common texture TDc in the common area 21a, the texture TD2 in the even block area 21b, and the texture TD1 in the odd block area 21c.

このような状態において、ゲームプログラムの展開に伴って第1のブロックBLK1にいる自車30が図6の矢印に示す方向に移動し、第2のブロックBLK2に自車30aが移動したものとする。   In such a state, it is assumed that the host vehicle 30 in the first block BLK1 moves in the direction indicated by the arrow in FIG. 6 and the host vehicle 30a moves to the second block BLK2 in accordance with the development of the game program. .

〔自車30が同一エリア番号のブロック間を移動した場合〕
自車30が同一エリア番号のブロック間を移動した場合について、図6及び図7を参照して説明する。
[When the vehicle 30 moves between blocks of the same area number]
A case where the host vehicle 30 moves between blocks having the same area number will be described with reference to FIGS. 6 and 7.

ここで、図5のフローチャートが所定時間毎に実行されて、まず、現在、偶数ブロック又は奇数ブロックを書換え中かを判断する(S501)。この場合、書換えが行われていないので(S501;NO)、現在、自車30がいるエリア番号を求める(S502)。   Here, the flowchart of FIG. 5 is executed at predetermined time intervals. First, it is determined whether the even block or the odd block is currently being rewritten (S501). In this case, since rewriting has not been performed (S501; NO), an area number where the host vehicle 30 is present is obtained (S502).

ここで、表1から第1のブロックBLK1と、第2のブロックBLK2とは第2のエリアAR2として関連付けられているので、エリア番号がAR2となって、同じエリア番号と判断される(S503)。したがって、エリアARの番号に変化がないことから(S503;YES)、この処理を抜けることになり、テクスチャの転送は行われない。   Here, since the first block BLK1 and the second block BLK2 are associated as the second area AR2 from Table 1, the area number is AR2, and it is determined that they are the same area number (S503). . Therefore, since there is no change in the area AR number (S503; YES), this process is exited and the texture is not transferred.

〔自車30が異なるエリア番号のブロック間を移動した場合〕
自車が異なるエリア番号のブロック間を移動した場合について図8及び図9を参照して説明する。なお、図8は自車とコースのブロック番号との関連を示す図であり、図9はテクスチャメモリの状態を示す図である。また、図9(a)は自車が同一ブロックを移動しているときのメモリ状態を、図9(b)は自車が異なるエリア番号になる移動をした場合に書き換えられるテクスチャメモリの状況を示す図である。
[When the vehicle 30 moves between blocks of different area numbers]
A case where the own vehicle moves between blocks having different area numbers will be described with reference to FIGS. 8 is a diagram showing the relationship between the vehicle and the block number of the course, and FIG. 9 is a diagram showing the state of the texture memory. 9A shows the memory state when the vehicle is moving in the same block, and FIG. 9B shows the state of the texture memory that is rewritten when the vehicle moves with a different area number. FIG.

次に、上述したような条件において、ゲームプログラムの展開により、自車30が、図8に示すように第2のブロックBLK2から第3のブロックBLK3に移動したものとする。   Next, it is assumed that the host vehicle 30 has moved from the second block BLK2 to the third block BLK3 as shown in FIG.

ここで、図5のフローチャートが所定時間毎に実行されて、まず、現在、偶数ブロック又は奇数ブロックを書換え中かを判断する(S501)。この場合、書換えが行われていないので(S501;NO)、現在、自車30がいるエリア番号を求める(S502)。   Here, the flowchart of FIG. 5 is executed at predetermined time intervals. First, it is determined whether the even block or the odd block is currently being rewritten (S501). In this case, since rewriting has not been performed (S501; NO), an area number where the host vehicle 30 is present is obtained (S502).

ここで、表1から第2のブロックBLK2と、第3のブロックBLK3とは第3のエリアAR3として関連付けられているので、エリア番号がAR3となって、前回の番号(AR2)とは異なるエリア番号(AR3)と判断される(S503)。したがって、エリアARの番号が変化したことから(S503;NO)、そのエリア番号(AR3)を記憶し(S504)、そのエリア番号(AR3)より書き換えるブロック番号(BLK)を求める。この場合、第3のブロックBLK3のテクスチャTD3を書換えることが判明したので(S505)、奇数ブロックに対応する奇数ブロック用領域21cが前回書き換えたか判定する(S506)。ここでは、奇数ブロックに対応する奇数ブロック用領域21cを前回書き換えていないので(S506;NO)、当該奇数ブロック用フラッグをセットする(S507)。また、偶数ブロックに対応する偶数ブロック用領域21bを前回書き換えているか否かを判定する(S508)。偶数ブロック用領域21bは、前回書き換えていないため(S508;NO)、当該偶数ブロック用フラッグをセットする(S509)。   Here, since the second block BLK2 and the third block BLK3 are associated as the third area AR3 from Table 1, the area number is AR3 and is an area different from the previous number (AR2). The number (AR3) is determined (S503). Accordingly, since the area AR number has changed (S503; NO), the area number (AR3) is stored (S504), and the block number (BLK) to be rewritten is obtained from the area number (AR3). In this case, since it has been found that the texture TD3 of the third block BLK3 is to be rewritten (S505), it is determined whether the odd block area 21c corresponding to the odd block has been rewritten last time (S506). Here, since the odd block area 21c corresponding to the odd block has not been rewritten last time (S506; NO), the odd block flag is set (S507). Further, it is determined whether or not the even block area 21b corresponding to the even block has been rewritten last time (S508). Since the even block region 21b has not been rewritten last time (S508; NO), the even block flag is set (S509).

そして、奇数ブロックを書換え中かを判断する(S101)。ここで、書換えをすることになるので(S510;YES)、当該奇数ブロック用フラッグを基に、第3のブロックに相当するテクスチャTD3をテクスチャメモリ21の奇数ブロック用領域21cに転送して奇数ブロック用領域21cを書き換え(S511)、当該奇数ブロック用フラッグを更新する(S512)。これにより、図9(a)のように、テクスチャメモリ21において、偶数ブロック用領域21bには第2のブロックBLK2に相当するテクスチャTD2が、奇数ブロック用領域21cには第1のブロックに相当するテクスチャTD1が格納されていたものが、図9(b)に示すように、テクスチャメモリ21において、偶数ブロック用領域21bには第2のブロックBLK2に相当するテクスチャTD2が、奇数ブロック用領域21cには第3のブロックに相当するテクスチャTD3が転送されて書き換えられることになる。また、偶数ブロック用領域21bのテクスチャTD2は書き換えられないことになる。   Then, it is determined whether the odd block is being rewritten (S101). Here, since rewriting is performed (S510; YES), based on the odd block flag, the texture TD3 corresponding to the third block is transferred to the odd block area 21c of the texture memory 21 to generate the odd block. The area 21c is rewritten (S511), and the odd block flag is updated (S512). As a result, as shown in FIG. 9A, in the texture memory 21, the texture TD2 corresponding to the second block BLK2 corresponds to the even block area 21b, and the first block corresponds to the odd block area 21c. As shown in FIG. 9B, the texture TD1 stored in the texture memory 21 has the texture TD2 corresponding to the second block BLK2 in the even block area 21b in the odd block area 21c. The texture TD3 corresponding to the third block is transferred and rewritten. In addition, the texture TD2 of the even block area 21b is not rewritten.

なお、テクスチャメモリ21の偶数ブロック用領域21bを書き換える必要が生じたときには、図5のフローチャートのステップS501〜S510、S513、S514の処理が実行されることになり、偶数ブロック用領域21bが書き換えられることになる。   When it is necessary to rewrite the even block area 21b of the texture memory 21, the processes of steps S501 to S510, S513, and S514 in the flowchart of FIG. 5 are executed, and the even block area 21b is rewritten. It will be.

例えばROM等に記憶しておいたテクスチャTD1〜TD6を、テクスチャメモリ21の偶数ブロック用領域21b又は奇数ブロック用領域21cに転送する場合には、当該偶数ブロック用領域21b又は奇数ブロック用領域21cの全部の領域分のデータを一括して転送するのではなく、1フレームにつき1枚(256×256texel)分を転送している。このようにすることにより、転送時間を短縮している。なぜならば、本発明のゲーム機の場合、処理時間に限界があるため、これに対処する必要があるからである。   For example, when the textures TD1 to TD6 stored in the ROM or the like are transferred to the even block area 21b or the odd block area 21c of the texture memory 21, the even block area 21b or the odd block area 21c Instead of transferring the data for all the areas at once, one frame (256 × 256 texel) is transferred per frame. By doing so, the transfer time is shortened. This is because in the case of the game machine of the present invention, the processing time is limited, and it is necessary to deal with this.

〔自車がコースを逆走する場合〕
自車がコースを逆走する場合の動作を図10、図11を参照して説明する。ここで、図10は自車がコース上を走行する場合の図であり、図10(a)がブロックBLK2を走行中の状態を、図10(b)が自車がブロックBLK2からブロックBLK3に移動した場合の状態を、図10(c)が自車がブロックBLK3からブロックBLK2に逆走した場合の状態を、それぞれ示している。
[If your vehicle runs backwards on the course]
The operation when the host vehicle runs backward on the course will be described with reference to FIGS. Here, FIG. 10 is a diagram when the host vehicle travels on the course, FIG. 10 (a) shows a state in which the vehicle is traveling on the block BLK2, and FIG. 10 (b) shows that the host vehicle moves from the block BLK2 to the block BLK3. FIG. 10C shows the state when the vehicle moves, and the state when the host vehicle runs backward from the block BLK3 to the block BLK2.

また、図11は上記状態のテクスチャメモリの状況を示すものであり、図11(a)が図10(a)の状況のときのメモリ状態を、図11(b)が図10(b)の状況のときのメモリ状態を、図11(c)が図10(c)の状況のときのメモリ状態を、それぞれ示したものである。   FIG. 11 shows the state of the texture memory in the above state. FIG. 11 (a) shows the memory state in the state of FIG. 10 (a), and FIG. 11 (b) shows the state of FIG. 10 (b). FIG. 11 (c) shows the memory state when the situation is, and FIG. 11 (c) shows the memory state when the situation is FIG. 10 (c).

図10(a)の状況にあるときには、テクスチャメモリ21は図11(a)に示すように、共通用領域21aに共通テクスチャTDcを、偶数ブロック用領域21bに第2のブロックBLK2に相当するテクスチャTD2を、奇数ブロック用領域21cに第1のブロックBLK1に相当するテクスチャTD1を、それぞれ記憶している。そして、ステップS501、S502、S503の処理が実行されてゆき、テクスチャメモリ21の偶数ブロック用領域21bも奇数ブロック用領域21cも書換えが生じない。   In the situation shown in FIG. 10A, as shown in FIG. 11A, the texture memory 21 has a texture corresponding to the common block TDc in the common area 21a and a texture corresponding to the second block BLK2 in the even block area 21b. The texture TD1 corresponding to the first block BLK1 is stored in the odd block area 21c. Then, the processing of steps S501, S502, and S503 is executed, and neither the even block area 21b nor the odd block area 21c of the texture memory 21 is rewritten.

また、図10(b)の状況にあるときには、ブロックBLK2からブロックBLK3に移動した瞬間にステップS501〜S512が処理されて、以後、ステップ501、S510、S511、S512が処理されることになり、図11(b)に示すように、奇数ブロック用領域21cを書き換え中になる。   Further, in the situation of FIG. 10B, steps S501 to S512 are processed at the moment when the block BLK2 moves to the block BLK3, and thereafter steps 501, S510, S511, and S512 are processed. As shown in FIG. 11B, the odd block area 21c is being rewritten.

このような状況のときに、図10(c)のようにブロックBLK3からブロックBLK2へ急激に進行方向を換えて逆走した場合でも、エリアAR3で同じであるため、テクスチャTDの書換えか生じることがない。この期間は、エリアのチェック(ステップS503)を行わないが、エリアAR3で同じであるため、問題が生じることなく、図11(c)に示すように、奇数ブロック用領域21cを第3のブロックBLK3に相当するテクスチャTD3に書換えを続行する(S501−S510−S511−S512)。   In such a situation, even if the traveling direction is suddenly changed from the block BLK3 to the block BLK2 as shown in FIG. 10 (c), the same processing is performed in the area AR3. There is no. During this period, the area check (step S503) is not performed, but since it is the same in the area AR3, as shown in FIG. 11C, the odd block area 21c is set in the third block without causing a problem. Rewriting to texture TD3 corresponding to BLK3 is continued (S501-S510-S511-S512).

このような第1の実施の形態によれば、テクスチャメモリの容量以上にテクスチャデータを使用できるとともに、テクスチャデータを常に最新のものにすることができる。   According to such a first embodiment, texture data can be used in excess of the capacity of the texture memory, and the texture data can always be updated.

<第2の実施の形態における画像処理>
図12〜図17は、本発明の第2の実施の形態を説明するために示した図であって、移動体の走行速度に応じた背景画像を得られるようにした技術を説明するための図である。
<Image Processing in Second Embodiment>
FIGS. 12 to 17 are diagrams for explaining the second embodiment of the present invention, and are for explaining a technique for obtaining a background image corresponding to the traveling speed of the moving body. FIG.

本発明の第2の実施の形態の概要を説明する。まず、第2の実施の形態では、ゲームを実行中に、移動体の速度に応じた背景画面を得て自然な感じの画面を得られるようにするとともに、そのような画面を得るためのデータ転送時間を短縮することができるようにすることを目的としている。   An outline of the second embodiment of the present invention will be described. First, in the second embodiment, while a game is being executed, a background screen corresponding to the speed of the moving body is obtained to obtain a natural-feeling screen, and data for obtaining such a screen is obtained. The purpose is to shorten the transfer time.

そして、第2の実施の形態にあっては、背景画面に関して複数のテクスチャを用意すること、第1のテクスチャには移動体が停止しているか又は低速状態の背景画面データを与えておき、残りの第2のテクスチャには移動体が低速以上の走行状態にあるときの背景画面のデータを速度帯域に対応させて用意しておき、次に、移動体の速度状況に応じて第1のテクスチャに加えて第2のテクスチャを画面にマッピンク処理するようにしたものである。   In the second embodiment, a plurality of textures are prepared for the background screen, and the first texture is provided with background screen data in which the moving body is stopped or in a low-speed state. In the second texture, data on the background screen when the moving body is in a traveling state at a low speed or more is prepared corresponding to the speed band, and then the first texture is set according to the speed condition of the moving body. In addition to this, the second texture is mapped on the screen.

このような画像処理を行うことにより、移動体の移動速度の状況に応じた背景画面を得ることができるために、自然で表現力豊かな画像処理ができることになる。   By performing such image processing, it is possible to obtain a background screen according to the state of the moving speed of the moving body, so that natural and expressive image processing can be performed.

図12は、本発明の第2の実施の形態を説明するための記憶手段の様子を示す図である。この図12において、符号31はROMであり、符号41はテクスチャメモリである。   FIG. 12 is a diagram showing the state of the storage means for explaining the second embodiment of the present invention. In FIG. 12, reference numeral 31 is a ROM, and reference numeral 41 is a texture memory.

まず、移動体の速度について、例えば、
(1)0〔km/h〕〜109〔km/h〕
(2)110〔km/h〕〜199〔km/h〕
(3)200〔km/h〕〜249〔km/h〕
(4)250〔km/h〕〜279〔km/h〕
(5)280〔km/h〕〜のように分類する。
First, regarding the speed of the moving object, for example,
(1) 0 [km / h] to 109 [km / h]
(2) 110 [km / h] to 199 [km / h]
(3) 200 [km / h] to 249 [km / h]
(4) 250 [km / h] to 279 [km / h]
(5) Classify as 280 [km / h].

この分類に従って、ROM31にマイクロテクスチャを用意する。
(1)0〔km/h〕〜109〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT1を格納しておく。
(2)110〔km/h〕〜199〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT2を格納しておく。
(3)200〔km/h〕〜249〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT3を格納しておく。
(4)250〔km/h〕〜279〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT4を格納しておく。
(5)280〔km/h〕〜の速度用のマイクロテクスチャ(第2のテクスチャ)MT5を格納しておく。
According to this classification, a microtexture is prepared in the ROM 31.
(1) The microtexture (second texture) MT1 for the speed of 0 [km / h] to 109 [km / h] is stored.
(2) The micro texture (second texture) MT2 for speeds of 110 [km / h] to 199 [km / h] is stored.
(3) The microtexture (second texture) MT3 for speeds of 200 [km / h] to 249 [km / h] is stored.
(4) A microtexture (second texture) MT4 for speeds of 250 [km / h] to 279 [km / h] is stored.
(5) The micro texture (second texture) MT5 for speeds of 280 [km / h] to 280 is stored.

また、同上ROM31に、停止時又は低速時の通常のテクスチャ(第1のテクスチャ)TDを格納しておく。   The ROM 31 stores a normal texture (first texture) TD at the time of stopping or at a low speed.

また、前記ROM31に格納されているマイクロテクスチャMT1〜MT5は、テクスチャメモリ41の領域41Aに転送されることになる。   The microtextures MT1 to MT5 stored in the ROM 31 are transferred to the area 41A of the texture memory 41.

図13は、同第2の実施の形態において実行される画像データ処理について説明するためのフローチャートである。この図を参照して説明すると、ゲームを処理している途中において、移動体の速度を常にチェックする(S601)。このステップ601において、移動体の速度から転送すべきマイクロテクスチャMTの番号を求める。   FIG. 13 is a flowchart for explaining the image data processing executed in the second embodiment. Referring to this figure, the speed of the moving body is always checked during the game processing (S601). In this step 601, the number of the microtexture MT to be transferred is obtained from the speed of the moving object.

次に、前回転送したマイクロテクスチャMTの番号と、今回転送するマイクロテクスチャMTの番号とが同一か否かを判定する(S101)。同一番号でなければ(S602;NO)、この求めた番号を記憶させて(S603)、この番号から転送元アドレスを求め、ROM31の所定のアドレスからマイクロテクスチャ(第2のテクスチャ)MTm(例えば、m=1,2,…,5)を読み出し、テクスチャメモリ41の領域41Aに転送する(S604)。   Next, it is determined whether the number of the microtexture MT transferred last time is the same as the number of the microtexture MT transferred this time (S101). If it is not the same number (S602; NO), the obtained number is stored (S603), the transfer source address is obtained from this number, and the microtexture (second texture) MTm (for example, from the predetermined address of the ROM 31) m = 1, 2,..., 5) are read out and transferred to the area 41A of the texture memory 41 (S604).

まず、移動体が停止しているときの背景画像データは、例えば第1のテクスチャTDをテクスチャメモリ41の所定の領域に転送することにより転送済となっている。   First, the background image data when the moving body is stopped is already transferred by transferring the first texture TD to a predetermined area of the texture memory 41, for example.

〔移動体が停止又は低速の場合の動作〕
このようなところで移動体の速度がチェックされて、停止中から低速の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT1を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT1がマッピングされる。これにより、CRT上には、図14に示すように、移動体50と、停止した道路標識51とが表示されることになる。なお、以後、移動体50が停止中であれば、ステップS601、S602と処理されて、CRT上には、図14に示すように、移動体50と、停止した道路標識51とが表示されることになる。
[Operation when the moving body is stopped or at low speed]
At such a point, the speed of the moving body is checked, and it is determined that the moving body is in the low speed region from the stop. The microtexture MT1 is extracted from the area of the ROM 31 and written to the region 41A of the texture memory 41 (S601 to S604). . In other words, the microtexture MT1 is mapped to the first texture TD. Thereby, as shown in FIG. 14, the moving body 50 and the stopped road sign 51 are displayed on the CRT. After that, if the moving body 50 is stopped, steps S601 and S602 are processed, and the moving body 50 and the stopped road sign 51 are displayed on the CRT as shown in FIG. It will be.

〔移動体が低速以上で中速の速度の場合の動作〕
次に、移動体の速度がチェックされて、第2番目の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT2を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT2がマッピングされる。
[Operation when the moving body is at a low speed or higher and at a medium speed]
Next, the speed of the moving body is checked, and it is determined that the moving body is in the second speed area. The microtexture MT2 is extracted from the area of the ROM 31 and written in the area 41A of the texture memory 41 (S601 to S604). In other words, the microtexture MT2 is mapped to the first texture TD.

すると、CRT上には、図15に示すように、移動体50と、テクスチャメモリ41に書込まれた第1のテクスチャTDにより表示されるる停止した道路標識51と、テクスチャメモリ41の領域41Aに書込まれたマイクロテクスチャ(第2のテクスチャ)MT2とにより、少し流れた状態の道路標識として表示される。   Then, on the CRT, as shown in FIG. 15, the moving body 50, the stopped road sign 51 displayed by the first texture TD written in the texture memory 41, and the area 41 </ b> A of the texture memory 41 are displayed. By the written micro texture (second texture) MT2, it is displayed as a road sign in a slightly flowed state.

〔移動体が低速以上で高速の速度の場合の動作〕
次に、移動体の速度がチェックされて、第3番目の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT3を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT3がマッピングされる。
[Operation when the moving body is at a low speed and a high speed]
Next, the speed of the moving body is checked, and it is determined that the moving body is in the third speed area. The microtexture MT3 is extracted from the area of the ROM 31 and written in the area 41A of the texture memory 41 (S601 to S604). In other words, the microtexture MT3 is mapped to the first texture TD.

すると、CRT上には、図15に示すように、移動体50と、テクスチャメモリ41に書込まれた第1のテクスチャTDにより表示されるる停止した道路標識51と、テクスチャメモリ41の領域41Aに書込まれたマイクロテクスチャ(第2のテクスチャ)MT3とにより、かなり流れた状態の道路標識として表示される。   Then, on the CRT, as shown in FIG. 15, the moving body 50, the stopped road sign 51 displayed by the first texture TD written in the texture memory 41, and the area 41 </ b> A of the texture memory 41 are displayed. By the written microtexture (second texture) MT3, it is displayed as a road sign in a considerably flowed state.

〔移動体が低速以上で高速よりさらに高速速度の場合の動作〕
次に、移動体の速度がチェックされて、第4番目の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT4を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT4がマッピングされる。
[Operation when the moving body is at a low speed or higher and at a higher speed than the high speed]
Next, the speed of the moving object is checked, and it is determined that the moving body is in the fourth speed area, and the microtexture MT4 is taken out from the area of the ROM 31 and written in the area 41A of the texture memory 41 (S601 to S604). In other words, the microtexture MT4 is mapped to the first texture TD.

すると、CRT上には、図15に示すように、移動体50と、テクスチャメモリ41に書込まれた第1のテクスチャTDにより表示されるる停止した道路標識51と、テクスチャメモリ41の領域41Aに書込まれたマイクロテクスチャ(第2のテクスチャ)MT4とにより、完全に流れて直線状に続く状態の道路標識として表示される。   Then, on the CRT, as shown in FIG. 15, the moving body 50, the stopped road sign 51 displayed by the first texture TD written in the texture memory 41, and the area 41 </ b> A of the texture memory 41 are displayed. By the written microtexture (second texture) MT4, it is displayed as a road sign that flows completely and continues in a straight line.

このように第2の実施の形態では、移動体の速度を常にチェックし、移動体の速度に相応しい背景画面のテクスチャを取り出して、テクスチャメモリ41の所定の領域41Aに転送することにより、第1のテクスチャに第2のテクスチャをマッピングして移動体の速度に応じた背景画面をCRT上に表示できるようにした。   As described above, in the second embodiment, the speed of the moving object is always checked, the texture of the background screen suitable for the speed of the moving object is extracted, and transferred to the predetermined area 41A of the texture memory 41, thereby By mapping the second texture to the texture of the background, a background screen corresponding to the speed of the moving object can be displayed on the CRT.

これにより、移動体の速度に応じた背景画面が表示されることになり、画面の表現力が上昇する。また、背景画面を移動体の速度状況に応じて変更するのに、単に、第2のテクスチャを転送するのみであるので、転送に必要な時間を短縮でき、しかも転送データを少なくできる。   As a result, a background screen corresponding to the speed of the moving object is displayed, and the expressiveness of the screen increases. Also, since the background screen is changed according to the speed status of the moving body, the second texture is simply transferred, so that the time required for the transfer can be shortened and the transfer data can be reduced.

<第3の実施の形態における画像処理>
図18〜図26は、本発明の第3の実施の形態を説明するために示した図であって、移動体が移動中に衝突した際に移動速度や衝突の方向に応じた移動体の壊れを多様に表現できる技術を説明するための図である。
<Image Processing in Third Embodiment>
FIGS. 18 to 26 are diagrams for explaining the third embodiment of the present invention. When the mobile body collides during movement, the mobile body according to the moving speed and the direction of the collision is shown. It is a figure for demonstrating the technique which can express breakage variously.

本発明の第3実施の形態についてその概要を説明する。まず、第3の実施の形態では、移動体である車がクラッシュすることによる破損を効果的に表示するための画像処理を行うことにあり、ゲーム装置でかかる処理を行うときに演出効果が高めることを目的としている。   The outline of the third embodiment of the present invention will be described. First, in the third embodiment, image processing is performed to effectively display damage caused by a car crashing as a moving body, and the effect of rendering is enhanced when such processing is performed on a game device. The purpose is that.

また、この第3の実施の形態にあっては、(1)車がぶつかった方向を検出すること、(2)車がぶつかった速度(エネルギー)を検出すること、(3)これらの情報を車の変形に反映させることにある。
具体的には、(i) 車がぶつかっていない状態の車の全体ポリゴンデータを用意しておく、(ii) 車がこわれた状態の車全体のポリゴンデータを用意しておく、(iii) 各ポリゴンのブロックの番号と頂点との対応データを用意しておき、(iv) 車がぶつかった方向の情報からどのブロックかを決定し、(v) 車がぶつかった速度(エネルギー 壁(他車)への法線ベクトルに沿った方向)に応じて、該当ブロックの壊れに相当するポリゴンデータを(i) のデータと、(ii)のデータとから1次式又は2次式等で補間するようにしている。
In the third embodiment, (1) the direction in which the car collided is detected, (2) the speed (energy) in which the car collided is detected, and (3) these pieces of information are stored. It is to be reflected in the deformation of the car.
Specifically, (i) Prepare the whole polygon data of the car in a state where the car does not collide, (ii) Prepare the polygon data of the whole car in the state where the car is broken, (iii) Prepare the correspondence data of polygon block numbers and vertices, and (iv) determine which block from the information of the direction that the car hit, (v) the speed at which the car hit (energy wall (other cars)) The polygon data corresponding to the break of the corresponding block is interpolated from the data of (i) and the data of (ii) by a linear expression or a quadratic expression in accordance with the direction along the normal vector to I have to.

また、傷なしの通常のテクスチャ(第1のテクスチャ)と、傷有りのテクスチャ(第2のテクスチャ)とをテクスチャマッピングしておき、両者の透明度のパラメータを制御し、通常は、通常のテクスチャのみが見えるように表示しておく。すなわち、この場合には、後者のテクスチャの透明度のパラメータが大きく設定されるようにしておく。   In addition, texture mapping is performed on a normal texture without scratches (first texture) and a texture with scratches (second texture), and the transparency parameters of both are controlled. Normally, only normal textures are used. Display so that can be seen. That is, in this case, the latter transparency parameter of the texture is set to be large.

要するに、この場合には、第1のテクスチャと第2のテクスチャの透明度パラメータを変更することにより、第1のテクスチャを表示させたり、第2のテクスチャを表示させたりすることができる。そして、ぶつかった状況に応じて、透明度のパラメータを変更することにより、よりリアルに衝突後の状況を表現することができる。   In short, in this case, the first texture or the second texture can be displayed by changing the transparency parameters of the first texture and the second texture. Then, the situation after the collision can be expressed more realistically by changing the transparency parameter according to the situation of the collision.

このような画像処理を行うことにより、移動体の移動速度の状況に応じた背景画面を得ることができるために、自然で表現力豊かな画像処理ができることになる。   By performing such image processing, it is possible to obtain a background screen according to the state of the moving speed of the moving body, so that natural and expressive image processing can be performed.

〔第3実施形態の前提〕
図18は、移動体である車をブロック分けした状態の平面図を示しており、このブロック分けで車を構成する平面側のポリゴンデータを得ている。図19は衝突する前の正常な状態における車の一部のポリゴンデータの例を示し、同様のブロック分けした状態の図である。図20は、衝突した後の破壊された状態にある車の一部におけるポリゴンデータの例を示し、同様のブロック分けした状態の図である。
[Premise of the third embodiment]
FIG. 18 is a plan view showing a state in which a vehicle as a moving body is divided into blocks, and polygon data on the plane side constituting the vehicle is obtained by this block division. FIG. 19 shows an example of polygon data of a part of a vehicle in a normal state before the collision, and is a diagram in a similar block-divided state. FIG. 20 shows an example of polygon data in a part of a car in a destroyed state after a collision, and is a diagram in a similar block state.

図19に示す車の一部において、例えばリンゴデータP11,P12,P13,…は、図20においては、例えばポリゴンデータP11a,P12a,P13a,…に相当している。また、図19、図20では、車の一部についてポリゴンデータが表示されているが、もちろん、車全体のポリゴンデータ(図示せず)、は、図21に示すようなROM31に予め記憶させておく。   19, for example, apple data P11, P12, P13,... Corresponds to, for example, polygon data P11a, P12a, P13a,. 19 and 20, polygon data is displayed for a part of the car. Of course, the polygon data (not shown) of the entire car is stored in advance in a ROM 31 as shown in FIG. deep.

例えば、図18及び図19に示す正常な車の一部のポリゴンを含む車全体のポリゴンデータはROM31の領域311に予め格納しておく。また、例えば図20に示す破壊されたな車の一部のポリゴンを含む車全体のポリゴンデータはROM31の領域312に予め格納しておく。   For example, the polygon data of the entire vehicle including the polygons of a part of a normal vehicle shown in FIGS. 18 and 19 is stored in advance in the area 311 of the ROM 31. Further, for example, the polygon data of the entire vehicle including the polygons of a part of the destroyed vehicle shown in FIG. 20 is stored in the area 312 of the ROM 31 in advance.

〔動作〕
図22は、第3実施の形態の動作を説明するためのフローチャートである。また、図23は車が衝突した場合の衝突判定の方法を説明するためのものであり、図24は二つの車が衝突したときの、速度の受渡しのことを説明するための図である。
[Operation]
FIG. 22 is a flowchart for explaining the operation of the third embodiment. FIG. 23 is a diagram for explaining a collision determination method when a vehicle collides, and FIG. 24 is a diagram for explaining speed delivery when two vehicles collide.

まず、このフローチャートに入ると、衝突しているか否かの判定をするために必要な処理がされる(S700)。   First, when entering this flowchart, processing necessary to determine whether or not there is a collision is performed (S700).

この処理は、次のようにする。まず、車81と車82との二体の中心を結ぶベクトルを二体間ベクトル(Sx,Sz)とする。なお、(S′x,S′z)を二体間ベクトル(Sx,Sz)の正規化ベクトル(単位ベクトル)とする。
各点座標と正規化ベクトル(S′x,S′z)との内積を用いて、どの点が一番他車に近いがを調べる。車81で車82に近い点を、車81の頂点(Px1,Pz1)とする。車82で最も車81に近い点を、車82の頂点(Px2,Pz2)とする。
This process is as follows. First, a vector connecting the centers of the two bodies of the car 81 and the car 82 is a two-body vector (Sx, Sz). Note that (S′x, S′z) is a normalized vector (unit vector) of the vector between two bodies (Sx, Sz).
Using the inner product of each point coordinate and the normalized vector (S′x, S′z), it is examined which point is closest to the other vehicle. A point close to the car 82 in the car 81 is defined as the apex (Px1, Pz1) of the car 81. The point closest to the car 81 in the car 82 is defined as the apex (Px2, Pz2) of the car 82.

二体間ベクトルに垂直な正規化ベクトル(Tx,Tz)=(−S′z,S′x)とすると、各点と上記ベクトル(Tx,Tz)との内積を用い、頂点(車81の頂点、車82の頂点)を挟む自車の点を求めて、これを他点とする。したがって、車81の他点は他点(Qx1,Qz1)となり、車82の他点は他点(Qx2,Qz2)となる。頂点と他点の差より、車81の線分ベクトルSV1と、車82の線分ベクトルSV2とを求める。   Assuming that the normalized vector (Tx, Tz) = (− S′z, S′x) perpendicular to the vector between two bodies, the inner product of each point and the vector (Tx, Tz) is used, and the vertex (the vehicle 81 The point of the own vehicle sandwiching the apex and the apex of the car 82 is obtained, and this is set as another point. Therefore, the other point of the car 81 is the other point (Qx1, Qz1), and the other point of the car 82 is the other point (Qx2, Qz2). A line segment vector SV1 of the car 81 and a line segment vector SV2 of the car 82 are obtained from the difference between the vertex and another point.

さらに、これら線分ベクトルSV1,SV2と、二体間ベクトルとの外積により、どちらの線分ベクトルSV1,SV2が二体間ベクトルに対して鋭角かを求める。ここでは、車82の線分ベクトルSV2の方が鋭角となっているので、この線分ベクトルSV2の頂点が他方の線分ベクトルSV1に接するとする。   Further, which line segment vector SV1, SV2 is an acute angle with respect to the two-body vector is obtained by the outer product of these line segment vectors SV1, SV2 and the two-body vector. Here, since the line segment vector SV2 of the car 82 has an acute angle, it is assumed that the vertex of the line segment vector SV2 is in contact with the other line segment vector SV1.

この場合、車82の点が車81の線分に接することが求まる。したがって、車82の点が車81の線分に達した時点で衝突があったと判断すればよい(S701)。   In this case, it is determined that the point of the car 82 touches the line segment of the car 81. Therefore, it may be determined that there is a collision when the point of the car 82 reaches the line segment of the car 81 (S701).

そして、衝突が発生したと判断したところで(S701;YES)、車82の点が車81の線分のどの場所に接するかを判断する処理を実行する(S702)。   When it is determined that a collision has occurred (S701; YES), a process of determining which point on the line of the car 81 is in contact with the point of the car 82 is executed (S702).

ここでは、車82の頂点が車81の線分に接するが、この接する頂点と正規化ベクトル(Tx,Tz)の内積と、線分の2点と正規化ベクトル(Tx,Tz)の内積値の内分を求めることで、前記頂点が線分のどの部位に接するかが求められる。これにより、車81,82の接する部位AAを求めることができる。これにより、衝突したときの車の衝突部位にあるポリゴンを求めることができる。   Here, the vertex of the car 82 is in contact with the line segment of the car 81. The inner product of the vertex and the normalization vector (Tx, Tz), and the two points of the line segment and the normalization vector (Tx, Tz). By calculating the internal part of the line, it is determined which part of the line segment the vertex touches. Thereby, the part AA which the cars 81 and 82 contact can be obtained. Thereby, the polygon in the collision site of the car when it collides can be obtained.

次に、衝突方向と衝突の速度(衝突エネルギー)を得る処理を実行する(S703)。これは次のように処理をする。図24において、車81の速度ベクトルを(Vx1,Vz1)とし、車82の速度ベクトルを(Vx2,Vz2)とし、車81と車82の中心を結ぶベクトルを二体間ベクトル(Sx,Sz)とする。
各車81の速度ベクトル(Vx1,Vz1)と、車82の速度ベクトル(Vx2,Vz2)とを二体間ベクトルに分解する。これら二体間ベクトルは、速度ベクトルと二体間ベクトルの正規化ベクトル(S′x,S′z)との内積によって求めることができる。
Next, a process of obtaining the collision direction and the collision speed (collision energy) is executed (S703). This is processed as follows. In FIG. 24, the speed vector of the car 81 is (Vx1, Vz1), the speed vector of the car 82 is (Vx2, Vz2), and the vector connecting the center of the car 81 and the car 82 is a two-body vector (Sx, Sz). And
The speed vector (Vx1, Vz1) of each car 81 and the speed vector (Vx2, Vz2) of the car 82 are decomposed into a two-body vector. These two-body vectors can be obtained by the inner product of the velocity vector and the normalized vector (S′x, S′z) of the two-body vector.

すなわち、車81の二体間速度ベクトル(Wx1,Wz1)=(Vx1,Vz1)・(S′x,S′z)で得ることができる。   That is, the two-body speed vector (Wx1, Wz1) of the car 81 can be obtained by (Vx1, Vz1) · (S′x, S′z).

また、車82の二体間速度ベクトル(Wx2,Wz2)=(Vx2,Vz2)・(S′x,S′z)で得ることができる。   Further, the two-body speed vector (Wx2, Wz2) of the vehicle 82 can be obtained by (Vx2, Vz2) · (S′x, S′z).

このようにした求めた二体間速度ベクトル(Wx1,Wz1)、二体間速度ベクトル(Wx2,Wz2)との差によって、衝突発生の際に受け渡す速度ベクトルとなり、衝突の速度の方向と速度の大きさを得ることができる。   Due to the difference between the two-body velocity vector (Wx1, Wz1) and the two-body velocity vector (Wx2, Wz2) obtained in this way, the velocity vector is transferred when a collision occurs. The size of can be obtained.

このようにして衝突の速度の方向と速度の大きさを得ることができる(S703)。上記処理(S702)によって得た衝突の部位の情報と、この処理(S701)によって得た衝突速度の方向と衝突の速度の情報とを基に、ROM31の領域311,312からそれぞれ読み出した車の当該部位のポリゴンデータを補間処理する(S704)。   In this way, the direction and speed of the collision speed can be obtained (S703). Based on the information on the location of the collision obtained by the above processing (S702) and the information on the direction of the collision speed and the velocity of the collision obtained by this processing (S701), The polygon data of the part is interpolated (S704).

補間処理方法は、例えば公知の1次式又は2次式を用いて補間を行うものとする。このようにして補間されたポリゴンデータをRAMに転送する(S706)。   As the interpolation processing method, for example, interpolation is performed using a known linear expression or quadratic expression. The polygon data interpolated in this way is transferred to the RAM (S706).

このようにRAMに転送されたポリゴンデータをRAMポリゴンという。このRAMポリゴンは、結局、計算によって得られたことになる。すなわち、多数の壊れたポリゴンデータをメモリに準備することなく、破壊された状態の画面をリアルに再現することができることになる。   Polygon data transferred to the RAM in this way is called a RAM polygon. This RAM polygon is eventually obtained by calculation. That is, it is possible to realistically reproduce a broken screen without preparing a large number of broken polygon data in the memory.

衝突した部分の傷を表現するために、車を構成するポリゴンに通常の傷なしテクスチャと傷ありテクスチャとをテクスチャマッピンクしておき、衝突した部分のダメージの状態に応じて両者のテクスチャの透明度パラメータを制御することにより(S705)、車が衝突した部分のダメージに応じた傷を表現できるようにしている。   In order to express the scratches of the collided part, the normal texture without scratches and the texture with scratches are mapped to the polygons that make up the car, and the transparency of both textures is determined according to the state of damage of the collided parts By controlling the parameters (S705), it is possible to express a scratch corresponding to the damage of the part where the car collided.

すなわち、通常は、図25に示すように前者のテクスチャ95のみが見えるように表示し、後者の透明度が大きくなるような透明度パラメータが、後者のテクスチャに設定されている。   That is, normally, as shown in FIG. 25, only the former texture 95 is displayed so as to be visible, and a transparency parameter that increases the latter transparency is set for the latter texture.

そして、衝突したときには上記計算結果を用いて、前記車の衝突エネルギの程度に応じて、後者の透明度パラメータを制御して透明度を下げて、車の地肌について、衝突エキルギーが大きくなるほど、図26に示すように徐々に傷96が浮かび上がってくるようにしている。   Then, in the event of a collision, the above calculation result is used to control the latter transparency parameter in accordance with the degree of the collision energy of the vehicle to lower the transparency. As shown, the scratch 96 gradually emerges.

このように上記処理ステップによって、車の衝突の方向によっては壊れ(へこみ)が少なくとも、傷が発生する画像処理を再現できることになる。   As described above, the above processing steps can reproduce the image processing in which the breakage (dent) is caused at least depending on the direction of the collision of the car and the scratches are generated.

本実施の形態は、このように画像処理されるので、衝突に車の方向、エネルギー量が反映されることになる。すなわち、車の衝突による変形が多様化されて、車の移動方向と衝突に態様が正確に表示されることになる。また、ブロック化したために、計算負荷が限定的である。   In this embodiment, since the image processing is performed in this way, the direction of the vehicle and the amount of energy are reflected in the collision. That is, the deformation caused by the collision of the car is diversified, and the mode is accurately displayed in the moving direction and the collision of the car. In addition, the calculation load is limited due to the block.

本発明に係わる実施形態のゲーム装置の機能ブロック図である。It is a functional block diagram of the game device of an embodiment concerning the present invention. 同第1の実施の形態で使用するテクスチャメモリを説明するための図である。It is a figure for demonstrating the texture memory used in the said 1st Embodiment. 同第1の実施の形態で使用する表示データを示す図である。It is a figure which shows the display data used in the said 1st Embodiment. 同第1の実施の形態で使用するROMに記憶させるデータを示す図である。It is a figure which shows the data memorize | stored in ROM used in the said 1st Embodiment. 同第1の実施形態の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the said 1st Embodiment. 同第1の実施の形態で使用されるゲームの開始初期の状態にある場合の例を示す図である。It is a figure which shows the example in the case of being in the start initial state of the game used by the said 1st Embodiment. 同第1の実施の形態におけるテクスチャメモリのテクスチャの番号を示す図である。It is a figure which shows the number of the texture of the texture memory in the said 1st Embodiment. 同第1の実施の形態における自車とコースのブロック番号との関連を示す図である。It is a figure which shows the relationship between the own vehicle and the block number of a course in the said 1st Embodiment. 同第1の実施の形態におけるテクスチャメモリの状態を示す図である。It is a figure which shows the state of the texture memory in the same 1st Embodiment. 同第1の実施の形態における自車がコース上を走行する場合の図である。It is a figure in case the own vehicle drive | works on a course in the said 1st Embodiment. 同第1の実施の形態におけるテクスチャメモリの状況を示す図である。It is a figure which shows the condition of the texture memory in the same 1st Embodiment. 同第2の実施の形態を説明するための記憶手段の様子を示す図である。It is a figure which shows the mode of the memory | storage means for demonstrating the 2nd Embodiment. 同第2の実施の形態において実行される画像データ処理について説明するためのフローチャートである。It is a flowchart for demonstrating the image data process performed in the said 2nd Embodiment. 同第2の実施の形態における停止状態の画面の例を示す図である。It is a figure which shows the example of the screen of the stop state in the said 2nd Embodiment. 同第2の実施の形態における中速状態の画面の例を示す図である。It is a figure which shows the example of the screen of the medium speed state in the said 2nd Embodiment. 同第2の実施の形態における高速状態の画面の例を示す図である。It is a figure which shows the example of the screen of the high speed state in the said 2nd Embodiment. 同第2の実施の形態におけるさらに高速状態の画面の例を示す図である。It is a figure which shows the example of the screen of the further high-speed state in the said 2nd Embodiment. 同第3の実施の形態における車のブロック分けした画面の例を示す図である。It is a figure which shows the example of the screen divided into the block of the car in the said 3rd Embodiment. 同第3の実施の形態における正常な車のブロック分けした画面の例を示す図である。It is a figure which shows the example of the screen which divided the block of the normal vehicle in the said 3rd Embodiment. 同第3の実施の形態における衝突した車のブロック分けした画面の例を示す図である。It is a figure which shows the example of the screen divided into the block of the car which collided in the 3rd Embodiment. 同第3の実施の形態で使用するROMの例を示す図である。It is a figure which shows the example of ROM used in the said 3rd Embodiment. 同第3の実施形態の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the said 3rd Embodiment. 同第3の実施の形態における車が衝突した場合の衝突判定の方法を説明するための図である。It is a figure for demonstrating the method of the collision determination when the car in the said 3rd Embodiment collides. 同第3の実施の形態における二つの車が衝突したときの、速度の受渡しのことを説明するための図である。It is a figure for demonstrating the delivery of speed when the two vehicles collide in the 3rd embodiment. 同第3の実施の形態におけるテクスチャの画面の例を示す図である。It is a figure which shows the example of the screen of the texture in the said 3rd Embodiment. 同第3の実施の形態におけるテクスチャの画面の例を示す図である。It is a figure which shows the example of the screen of the texture in the said 3rd Embodiment. ブロックとエリアとの対応関係を示すグラフである。It is a graph which shows the correspondence of a block and an area.

符号の説明Explanation of symbols

1 ビデオゲーム装置本体
1a カートリッジI/F
1b CD−ROMドライブ
2a コネクタ
2b ゲーム操作用のパッド
2c ケーブル
3a コネクタ
3b フロッピーディスクドライブ(FDD)
3c ケーブル
4a、4b ケーブル
5 TV受像機
10 CPUブロック
11 ビデオブロック
12 サウンドブロック
13 サブシステム
100 SCU(System Control Unit)
101 メインCPU
102 RAM
103 ROM
104 サブCPU
105 CPUバス
106、107 バス
120、130 VDP
121 VRAM
122、123 フレームバッファ
131 VRAM
132 メモリ
140 DSP
141 CPU
160 エンコーダ
180 CD I/F
181 CPU
182 MPEG AUDIO
183 MPEG VIDEO
1 Video game apparatus main body 1a Cartridge I / F
1b CD-ROM drive 2a connector 2b game operation pad 2c cable 3a connector 3b floppy disk drive (FDD)
3c Cable 4a, 4b Cable 5 TV receiver 10 CPU block 11 Video block 12 Sound block 13 Subsystem 100 SCU (System Control Unit)
101 Main CPU
102 RAM
103 ROM
104 Sub CPU
105 CPU bus 106, 107 Bus 120, 130 VDP
121 VRAM
122, 123 Frame buffer 131 VRAM
132 Memory 140 DSP
141 CPU
160 Encoder 180 CD I / F
181 CPU
182 MPEG AUDIO
183 MPEG VIDEO

Claims (7)

移動体が移動する状況を画面に表示するゲーム装置の画像処理方法において、三次元仮想空間で前記移動体によって行われるレースをコースに展開するための表示データを前記移動体と他の表示体との干渉の有無に応じたポリゴンデータとして複数のテクスチャに関連づけて記憶する記憶手段と、前記記憶手段に記憶された各テクスチャに関するデータを処理する手段と、前記データを処理する手段によって処理されたポリゴンデータの画像を画面上に表示する表示手段とを備え、前記データを処理する手段は、前記移動体が他の表示体と衝突した状態にあるときに干渉状態にあると判定する工程と、前記工程で干渉状態にあるとされたときに、その衝突の際の方向や衝突エネルギーを演算する工程と、前記工程で得られた演算値を前記移動体の変形量に反映させる工程と、前記移動体に、変形前のテクスチャと変形後のテクスチャとを割り当て、前記衝突した際の衝突エネルギーの大きさに応じて前記両テクスチャのブレンド比を変える工程と、前記ブレンド比を、前記テクスチャの透明度パラメータを変化させて決定する工程を備えていることを特徴とするゲーム装置の画像処理方法。 In the image processing method for a game device that displays on a screen a situation in which a moving body moves, display data for developing a race performed by the moving body on a course in a three-dimensional virtual space is transmitted between the moving body and another display body. Storage means for storing in association with a plurality of textures as polygon data according to the presence or absence of interference, means for processing data relating to each texture stored in the storage means, and polygons processed by the means for processing the data Display means for displaying an image of data on a screen, and the means for processing the data is determined to be in an interference state when the moving body is in a state of colliding with another display body; when it is to be in interference state in step, the moving and the step of calculating the direction and the collision energy at the time of the collision, the calculated value obtained in the step A step of reflecting the deformation amount of the the mobile, a step of allocation and textures after deformation and deformation prior to texture, varying the blend ratio of the two textures according to the size of the collision energy upon the collision An image processing method for a game apparatus , comprising: determining the blend ratio by changing a transparency parameter of the texture . 請求項に記載のゲーム装置の画像処理方法において、前記データを処理する手段は、前記移動体の線分ベクトルと他の表示体の線分ベクトルとから前記移動体と前記他の表示体とが衝突した状態にあると判定する工程を備えていることを特徴とするゲーム装置の画像処理方法。 2. The image processing method for a game device according to claim 1 , wherein the means for processing the data includes: the moving body and the other display body based on the line segment vector of the moving body and the line segment vector of another display body. An image processing method for a game apparatus, comprising: a step of determining that the two have collided with each other. 請求項1または2に記載のゲーム装置の画像処理方法において、前記データを処理する手段は、前記移動体を複数のブロックに分け、前記画像処理の対象のブロックを前記演算値から決定する工程を備えていることを特徴とするゲーム装置の画像処理方法。 3. The image processing method for a game apparatus according to claim 1 , wherein the data processing means divides the moving body into a plurality of blocks and determines a block to be subjected to the image processing from the calculated value. An image processing method for a game device, comprising: 請求項1、2または3のうちいずれか1項に記載のゲーム装置の画像処理方法において、前記データを処理する手段は、画像処理の前後における対象ブロックのポリゴン形状の変化を、変形前のポリゴンデータと変形後のポリゴンデータから、前記演算量に基づいて補間する工程を備えていることを特徴とするゲーム装置の画像処理方法。 4. The image processing method for a game device according to claim 1, 2 or 3 , wherein the means for processing the data indicates a change in polygonal shape of the target block before and after the image processing. An image processing method for a game apparatus, comprising a step of interpolating data and deformed polygon data based on the calculation amount. 請求項に記載のゲーム装置の画像処理方法において、前記データを処理する手段は、衝突前のポリゴンデータと衝突後のポリゴンデータから、前記移動体の対象ブロックのポリゴンデータを補間する工程を備えていることを特徴とするゲーム装置の画像処理方法。 5. The image processing method for a game apparatus according to claim 4 , wherein the means for processing the data includes a step of interpolating polygon data of the target block of the moving object from the polygon data before the collision and the polygon data after the collision. An image processing method for a game device, comprising: 移動体が移動する状況を画面に表示するゲーム装置において、三次元仮想空間で前記移動体によって行われるレースをコースに展開するための表示データを前記移動体と他の表示体との干渉の有無に応じたポリゴンデータとして複数のテクスチャに関連づけて記憶する記憶手段と、前記記憶手段に記憶された各テクスチャに関するデータを処理する手段と、前記データを処理する手段によって処理されたポリゴンデータの画像を画面上に表示する表示手段とを備え、前記データを処理する手段は、前記移動体が他の表示体と衝突した状態にあるときに干渉状態にあると判定し、前記干渉状態にあるとされたときに、その衝突の際の方向や衝突エネルギーを演算し、前記演算による演算値を前記移動体の変形量に反映させ、前記移動体に、変形前のテクスチャと変形後のテクスチャとを割り当て、前記衝突した際の衝突エネルギーの大きさに応じて前記テクスチャのブレンド比を変えるとともに、前記ブレンド比を、前記テクスチャの透明度パラメータを変化させて決定することを特徴とするゲーム装置。 In a game device that displays on a screen a situation in which a moving body moves, display data for developing a race performed by the moving body in a three-dimensional virtual space on a course, whether or not there is interference between the moving body and another display body Storage means for storing the polygon data in association with a plurality of textures as polygon data according to the above, means for processing data relating to each texture stored in the storage means, and an image of polygon data processed by the means for processing the data. Display means for displaying on a screen, and the means for processing the data determines that the moving body is in an interference state when it is in a state of collision with another display body, and is in the interference state. when the, calculates the direction and the collision energy at the time of the collision, to reflect the calculated value by the calculation to the amount of deformation of the movable body, the movable body, deformation Assign the texture after the texture variations, along with changing the blending ratio of the texture according to the size of the collision energy upon the collision, the blend ratio, be determined by changing the transparency parameter of said texture A game device characterized by the above. 請求項1、2、3、4または5のいずれか1項に記載のゲーム装置の画像処理方法における前記データを処理する手段の各工程をコンピュータに実行させるための画像処理プログラムが記憶されたゲーム装置用記憶媒体。 A game in which an image processing program for causing a computer to execute each step of the means for processing the data in the image processing method of the game device according to any one of claims 1, 2, 3, 4, or 5 is stored. Device storage medium.
JP2004338661A 2004-11-24 2004-11-24 Game device Expired - Fee Related JP4035648B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004338661A JP4035648B2 (en) 2004-11-24 2004-11-24 Game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004338661A JP4035648B2 (en) 2004-11-24 2004-11-24 Game device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP32172797A Division JP4042188B2 (en) 1997-11-21 1997-11-21 Image processing device

Publications (2)

Publication Number Publication Date
JP2005129076A JP2005129076A (en) 2005-05-19
JP4035648B2 true JP4035648B2 (en) 2008-01-23

Family

ID=34650970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004338661A Expired - Fee Related JP4035648B2 (en) 2004-11-24 2004-11-24 Game device

Country Status (1)

Country Link
JP (1) JP4035648B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004964A (en) * 2008-06-24 2010-01-14 Sega Corp Game apparatus, image processing method for game apparatus, game image processing program, its storage medium, and image processing method for game apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110465091B (en) * 2019-08-09 2020-12-11 腾讯科技(深圳)有限公司 Control method and device for virtual racing car object, storage medium and electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004964A (en) * 2008-06-24 2010-01-14 Sega Corp Game apparatus, image processing method for game apparatus, game image processing program, its storage medium, and image processing method for game apparatus

Also Published As

Publication number Publication date
JP2005129076A (en) 2005-05-19

Similar Documents

Publication Publication Date Title
KR100549754B1 (en) Image processing method, image processing system, and storage medium for a game machine
JP4651435B2 (en) Program, information storage medium, and image generation system
KR100362704B1 (en) Image data generation method and image data processing apparatus and recording medium
US8411092B2 (en) 2D imposters for simplifying processing of plural animation objects in computer graphics generation
CN1977290B (en) Display, displaying method
JP2763499B2 (en) Image synthesizing apparatus and image synthesizing method
US7312804B2 (en) Program product, image generation method and image generation system
EP1722334A2 (en) A method, an apparatus and a computer program product for generating an image
EP1630746B1 (en) Image processor and image processing method
JP2000215325A (en) Method and device for processing image and recording medium recording program
WO2006028093A1 (en) Video generation device and video generation method
JP4234089B2 (en) Entertainment device, object display device, object display method, program, and character display method
JP4717622B2 (en) Program, information recording medium, and image generation system
US20080136831A1 (en) Method and System for Renewing Screen
US20010017629A1 (en) Methods and apparatus for drawing contours of objects in video games
JP2006195882A (en) Program, information storage medium and image generation system
JP3955425B2 (en) 3D sound reproduction system
US6508708B1 (en) Method for processing object movements, game machine using said method, and recording medium on which a related program is recorded
JP2003022452A (en) Image processor and solid-shape display program
JP4035648B2 (en) Game device
JP4743770B2 (en) Image generation system, program, and information storage medium
US6518967B1 (en) Game apparatus, game method, and computer-readable storage medium
JP2005108257A (en) Game device
JP2002352268A (en) Image processing method and program for image processing
JP5063022B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071014

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131109

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees