JP4035648B2 - Game device - Google Patents
Game device Download PDFInfo
- Publication number
- JP4035648B2 JP4035648B2 JP2004338661A JP2004338661A JP4035648B2 JP 4035648 B2 JP4035648 B2 JP 4035648B2 JP 2004338661 A JP2004338661 A JP 2004338661A JP 2004338661 A JP2004338661 A JP 2004338661A JP 4035648 B2 JP4035648 B2 JP 4035648B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- texture
- moving body
- area
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Description
本発明は、本発明は、ビデオゲーム装置に関する。特に、アミューズメントセンターや家庭に設置されたゲーム装置でよりリアルな画像表現を行い得るようにしたゲーム装置に関する。 The present invention relates to a video game apparatus. In particular, the present invention relates to a game apparatus that can perform a more realistic image expression with an amusement center or a game apparatus installed at home.
コンピュータ技術の進歩に伴い、コンピュータグラフィックス技術を用いたビデオゲーム装置が広く利用されるようになってきた。この種のビデオゲーム装置はユーザに広く受け入れられている。そして、多種多様なゲーム装置が数多く案出され、それ等に対応した様々なゲームソフトが供給されている。 With the advance of computer technology, video game devices using computer graphics technology have been widely used. This type of video game device is widely accepted by users. Many different game devices have been devised, and various game software corresponding to them has been supplied.
ユーザがビデオゲームをより楽しむことができるようにするために、画像がよりリアルな表現で画面に表示されることが望まれる。例えば、カーレースのような車両競走においては、車両や背景の動きが自然に表現され、あるいは運転中に起こり得ること、例えば衝突による車の損傷の具合等がリアルに表現されることが望ましい。 In order to allow the user to enjoy the video game more, it is desired that the image be displayed on the screen with a more realistic expression. For example, in a vehicle race such as a car race, it is desirable that the movement of the vehicle or the background is expressed naturally, or that it can occur during driving, for example, the state of damage to the vehicle due to a collision is realistically expressed.
従来は、このような衝突による車の壊れた状態のポリゴンを持ち、これによって表現していたが、壊れた状態は多様であるため、これを表現するためには多量のポリゴンを記憶する必要があるが、実際には、これは困難であった。また、少ないポリゴンの記憶では、車のエネルギーと壊れの程度とが一致せずに、表現の多様化に対応できなかった。 Conventionally, it has polygons in such a state that the car is broken due to such a collision, and it is expressed by this. However, since there are various broken states, it is necessary to store a large amount of polygons to express this. In practice, this was difficult. In addition, the memory of few polygons did not match the energy of the car and the degree of breakage, and could not cope with diversification of expressions.
また、同様なことが車両の走行において発生しており、例えば車両の走行の速度に応じた背景の動きが表現されておらず、実際に車が走行しているときの動きが自然に表現されないという不都合もあった。 In addition, the same thing occurs in the traveling of the vehicle, for example, the background movement according to the traveling speed of the vehicle is not expressed, and the movement when the vehicle is actually traveling is not naturally expressed. There was also an inconvenience.
一方、三次元画面(3D)表示は、座標変換等の複雑な演算を繰返すため、CPUが負担する演算量が膨大になる。このため、画像表現の特殊効果等を行うと、これに使用される演算量の分だけ他の処理にかけられる処理時間を減らなければならない。 On the other hand, since the three-dimensional screen (3D) display repeats complicated calculations such as coordinate transformation, the amount of calculation burdened by the CPU becomes enormous. For this reason, if a special effect or the like of image representation is performed, the processing time required for other processing must be reduced by the amount of calculation used for this.
よって、本発明は、画面表現を多様化する際にデータ転送の時間を減少させて処理時間を高速化するゲーム装置を提供することを第1の目的とする。
よって、本発明は、実際に走行体が走行している状態を背景画面に反映させることにより画面表現を多様化できるゲーム装置を提供することを第2の目的とする。
また、本発明は、車が衝突した際の衝突のエネルギや衝突の方向に応じた結果を画面に表現できるようにして画面表現を多様化できるゲーム装置を提供することを第3の目的とする。
Accordingly, a first object of the present invention is to provide a game device that reduces the data transfer time and increases the processing time when diversifying the screen representation.
Therefore, a second object of the present invention is to provide a game apparatus that can diversify the screen expression by reflecting the actual traveling state of the traveling body on the background screen.
It is a third object of the present invention to provide a game device that can diversify the screen expression so that the result according to the energy and direction of the collision when the car collides can be expressed on the screen. .
上記目的を達成するために、本発明に係わる画像処理装置は、移動体が移動する状況を画面に表示する画像処理装置において、移動体が移動する状況の画面を表示手段に与えるための記憶領域を共通表示用領域、移動表示用領域に分割した第1の記憶手段と、移動体が移動する状況の画面を表現するためのデータを前記記憶手段の分割状況に応じて分割して記憶するとともに、当該分割した記憶データ間の関係を示す情報を記憶する第2の記憶手段と、移動体が移動する際に前記分割した記憶データ間の関係を基に前記第2の記憶手段に分割記憶しているデータを第1の記憶手段の移動表示用領域に転送する手段とを備えたことを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention is a storage area for displaying a screen of a situation in which a moving body moves on a display means in an image processing apparatus that displays the situation in which the moving body moves on a screen. The first storage means that is divided into the common display area and the movement display area, and the data for expressing the screen of the situation in which the moving body moves are divided and stored according to the division status of the storage means. A second storage means for storing information indicating a relationship between the divided storage data and a second storage means based on the relationship between the divided storage data when the mobile body moves. Means for transferring the stored data to the moving display area of the first storage means.
本発明の他の形態は、前記第1の記憶手段はテクスチャメモリであり、テクスチャメモリは、移動体が移動する状況を表示しているときにデータが書き変わらないテクスチャデータを記憶する共通用領域と、背景等の移動体の移動に伴うテクスチャを偶数ブロックと奇数のブロックとにそれぞれ分割した際の両ブロックを記憶できる偶数ブロック用領域及び奇数ブロックとに分割して使用することを特徴とする。 In another aspect of the present invention, the first storage means is a texture memory, and the texture memory stores a common area for storing texture data in which data is not rewritten when a moving body is displayed. And the texture associated with the movement of the moving body such as the background is divided into an even block area and an odd block that can store both blocks when divided into even blocks and odd blocks. .
本発明の更に他の形態は、前記第2の記憶手段は読出し専用記憶装置であり、前記読出し専用記憶装置は、テクスチャメモリの分割状況に応じた状態で、共通用テクスチャ、各ブロック毎のテクスチャを、各1ブロック毎に記憶したことを特徴とする。 According to still another aspect of the present invention, the second storage unit is a read-only storage device, and the read-only storage device has a common texture and a texture for each block in a state corresponding to the division state of the texture memory. Is stored for each block.
さらに他の形態に係わる本発明は、前記第2の記憶手段の一ブロックは、数枚のテクスチャを記憶しており、前記転送する手段は、この1ブロックに記憶されている数枚のテクスチャのうち1フレーム毎に1枚のテクスチャを転送するようにしたことを特徴とする。 In the present invention according to yet another aspect, one block of the second storage means stores several textures, and the transferring means stores several textures stored in the one block. One feature is that one texture is transferred for each frame.
本発明はさらに、移動体が移動する状況を画面に表示する画像処理装置において、複数のテクスチャを用意し、そのうちの少なくとも一つの第1のテクスチャに移動体が停止あるいは低速状態にある背景画像を与え、残りの少なくとも一つの第2のテクスチャに移動体が低速以上の走行状態にあるときの背景画像を与え、移動体の状況に応じて第1のテクスチャに加えて第2のテクスチャを画面にマッピングする手段を備えることを特徴とする。 The present invention further provides a plurality of textures in an image processing apparatus that displays on a screen a situation in which a moving object moves, and a background image in which the moving object is stopped or in a low-speed state is provided in at least one of the first textures. Give a background image when the moving body is running at a low speed or more to the remaining at least one second texture, and add the second texture to the screen in addition to the first texture according to the situation of the moving body A means for mapping is provided.
さらに他の形態に係わる発明では、前記第1のテクスチャは移動体がほぼ停止状況にあるときの路面の画面を表示できる絵であり、第2のテクスチャは移動体が走行状態にあるときの路面が流れる画面を表示できる絵であることを特徴とする。 In still another aspect of the invention, the first texture is a picture that can display a screen of the road surface when the moving body is almost stopped, and the second texture is a road surface when the moving body is in a running state. It is a picture that can display a screen on which the character flows.
さらに、前記第2のテクスチャは、移動体の走行状態の速度に応じて複数の画面を表示できる絵であることを特徴とする。 Further, the second texture is a picture capable of displaying a plurality of screens according to the speed of the moving state of the moving body.
またさらに、本発明は、移動体が移動する状況を画面に表示する画像処理装置において、移動体が衝突したときに、移動体の移動方向と移動量を検出して、その検出量を移動体の変形量に反映させることができる処理手段を備えたことを特徴とする。 Still further, the present invention provides an image processing apparatus that displays a moving state of a moving body on a screen, detects the moving direction and the moving amount of the moving body when the moving body collides, and determines the detected amount as the moving body. And a processing means capable of reflecting the amount of deformation.
この発明の他の形態は、前記移動体をブロック分けし、前記画像処理の対象のブロックを検出値から与えることを特徴とする。さらに、他の形態は、前記移動体に、変形前のテクスチャと変形後のテクスチャとをマッピングしておき、前記衝突した際の検出量に応じて前記両テクスチャのブレンド比を変えるようにしたことを特徴とする。さらに、また、前記ブレンド比は、前記テクスチャの透明度パラメータを変化させるものである。 Another aspect of the present invention is characterized in that the moving body is divided into blocks, and a block to be subjected to the image processing is given from a detected value. Furthermore, in another embodiment, the texture before deformation and the texture after deformation are mapped to the moving body, and the blend ratio of both textures is changed according to the detected amount at the time of collision. It is characterized by. Furthermore, the blend ratio changes the transparency parameter of the texture.
以上述べたように、本発明によれば、移動体の移動を表現するための第1記憶手段の容量以上に画像データを使用できるとともに、移動体の移動を表現するための画像を常に最新のものにすることができる。 As described above, according to the present invention, the image data can be used in excess of the capacity of the first storage means for expressing the movement of the moving object, and the image for expressing the movement of the moving object is always the latest. Can be a thing.
さらに、移動体の移動速度の状況に応じた背景画面を得ることができるために、自然で表現力豊かな画像処理ができることになる。 Furthermore, since a background screen corresponding to the moving speed of the moving body can be obtained, natural and expressive image processing can be performed.
またさらに、衝突に移動体の方向、エネルギー量が反映されることになり、移動体の衝突による変形が多様化されて、移動体の移動方向と衝突に態様が正確に表示されることになり、かつ、ブロック化したために、計算負荷が限定的である。 Furthermore, the direction of the moving body and the amount of energy are reflected in the collision, the deformation caused by the collision of the moving body is diversified, and the moving direction of the moving body and the mode are displayed accurately. In addition, the calculation load is limited due to the blocking.
まず、本発明の特殊効果画像のアルゴリズムを実行し得るゲーム装置の構成について図面を参照して説明する。 First, the configuration of a game apparatus that can execute the special effect image algorithm of the present invention will be described with reference to the drawings.
図1は、ビデオゲーム装置の概要を表すブロック図である。この装置は、装置全体の制御を行うCPUブロック10、ゲーム画面の表示制御を行うビデオブロック11、効果音等を生成するサウンドブロック12、CD−ROMの読み出しを行うサブシステム13等により構成されている。
FIG. 1 is a block diagram showing an outline of a video game apparatus. This apparatus comprises a
CPUブロック10は、SCU(System Control Unit)100、メインCPU101、RAM102、ROM103、カートリッジI/F1a、サブCPU104、CPUバス103等により構成されている。メインCPU101は、装置全体の制御を行うものである。このメインCPU101は、内部にDSP(Digital Signal Processor)と同様の演算機能を備え、アプリケーションソフトを高速に実行可能である。
The
RAM102は、メインCPU101のワークエリアとして使用されるものである。ROM103には、初期化処理用のイニシャルプログラム等が書き込まれている。SCU100は、バス105、106、107を制御することにより、メインCPU101、VDP120、130、DSP140、CPU141等の間におけるデータ入出力を円滑に行うものである。また、SCU100は、内部にDMAコントローラを備え、ゲーム中のオブジェクト(あるいはスプライト)データをビデオブロック11内のVRAMに転送することができる。これにより、ゲーム等のアプリケーションソフトを高速に実行することが可能である。カートリッジI/F1aは、ROMカートリッジの形態で供給されるアプリケーションソフトを入力するためのものである。
The
サブCPU104は、SMPC(System Manager & Peripheral Control)と呼ばれるもので、メインCPU101からの要求に応じて、入力装置2bからペリフェラルデータをコネクタ2aを介して収集する機能等を備えている。メインCPU101はサブCPU104から受け取ったペリフェラルデータに基づき、例えばゲーム画面中の車両(オブジェクト)を移動させる等の処理を行うものである。コネクタ2aには、ハンドル、アクセル及びブレーキ等からなる操縦装置が接続される。また、PAD、ジョイスティック、キーボード等のうちの任意のペリフェラルも接続可能である。コネクタ2aに2台の操縦装置2bを接続することによってカーレースの対戦を行うことが可能となる。サブCPU104は、コネクタ2a(本体側端子)に接続されたペリフェラルの種類を自動的に認識し、ペリフェラルの種類に応じた通信方式に従いペリフェラルデータ等を収集する機能を備えている。
The
ビデオブロック11は、主に、ビデオゲームのポリゴンデータから成るオブジェクト等の描画を行うVDP(Video Display Processor)120、主に、背景画面の描画、ポリゴン画像データ(オブジェクト)および背景画像の合成、クリッピング処理等を行うVDP130とを備えている。
The video block 11 is mainly a VDP (Video Display Processor) 120 that draws an object composed of polygon data of a video game, mainly a background screen drawing, synthesis of polygon image data (object) and background image, clipping And a
VDP120には、VRAM121、複数のフレームバッファ(図示の例では、122、123の2つ)に接続される。ビデオゲーム装置のオブジェクトを表すポリゴンの描画コマンドはメインCPU101からSCU100を介してVDP120に送られ、VRAM121に書き込まれる。VDP120は、VRAMから描画コマンドを内部のシステムレジスタに読込み、フレームバッファに描画データを書込む。描画されたフレームバッファ122または123のデータはVDP130に送られる。VDP120は定形オブジェクト、拡縮オブジェクト、変形オブジェクト等を表示するテクスチャパーツ表示、四角形ポリゴン、ポリライン、ライン等を表示する非定形オブジェクト表示、パーツ同士の半透明演算、半輝度演算、シャドウ演算、ぼかし演算、メッシュ演算、シェーディング演算等の色演算、メッシュ処理、設定した表示領域以外の描画をしないようにするクリッピングを行う演算機能、等を備えている。また、行列演算を行うジオメタライザを備えており、拡大、縮小、回転、変形、座標変換等の演算を素早く行うことができる。
The VDP 120 is connected to a
VDP130はVRAM131に接続され、VDP130から出力された画像データはメモリ132を介してエンコーダ160に出力される構成となっている。VDP130は、VDP120の持つ機能に加えて、スクロール画面表示を制御するスクロール機能と、オブジェクト及び画面の表示優先順位を決めるプライオリティ機能等を備える。
The
エンコーダ160は、この画像データに同期信号等を付加することにより映像信号を生成し、TV受像機5(あるいはプロジェクタ)に出力する。これにより、TV受像機5に各種ゲームの画面が表示される。
The
サウンドブロック12は、PCM方式あるいはFM方式に従い音声合成を行うDSP140と、このDSP140の制御等を行うCPU141とにより構成されている。DSP140により生成された音声データは、D/Aコンバータ170により2チャンネルの信号に変換された後にスピーカ5bに出力される。
The sound block 12 includes a
サブシステム13は、CD−ROMドライブ1b、CD I/F180、CPU181、MPEG AUDIO182、MPEG VIDEO183等により構成されている。このサブシステム13は、CD−ROMの形態で供給されるアプリケーションソフトの読み込み、動画の再生等を行う機能を備えている。
The subsystem 13 includes a CD-
CD−ROMドライブ1bはCD−ROMからデータを読み取るものである。CPU181は、CD−ROMドライブ1bの制御、読み取られたデータの誤り訂正等の処理を行うものである。CD−ROMから読み取られたデータは、CDI/F180、バス106、SCU100を介してメインCPU101に供給され、アプリケーションソフトとして利用される。
The CD-
また、MPEG AUDIO182、MPEG VIDEO183は、MPEG規格(Motion Picture Expert Group)により圧縮されたデータを復元するデバイスである。これらのMPEG AUDIO182、MPEG VIDEO183を用いてCD−ROMに書き込まれたMPEG圧縮データの復元を行うことにより、動画の再生を行うことが可能となる。
MPEG AUDIO 182 and
CPU101は、図示しない主ゲームプログラム及び運転操作のデータに従って三次元仮想空間でカーレースゲームを展開する。主ゲームプログラムやデータはROMカートリッジやCD−ROM、フロッピーディスク等の情報記録媒体によって供給され、予めメモリ内にロードされる。また、プログラムやデータは、インターネット、パソコン通信、衛星通信等の通信網や放送等の媒体を媒介としてダウンロードしても良い。CPU101は、三次元仮想空間に車両や背景のオブジェクトを配置し、TV受像機のフレーム周期に同期してオブジェクトの位置・移動等を制御する。
The
<第1の実施の形態における画像処理>
図2〜図8は、本発明の第1の実施の形態を説明するために示した図であって、テクスチャメモリの容量以上にテクスチャデータを使用できるようにする技術を説明するための図である。
<Image Processing in First Embodiment>
2 to 8 are diagrams for explaining the first embodiment of the present invention, and are diagrams for explaining a technique for enabling the use of texture data exceeding the capacity of the texture memory. is there.
本発明の第1の実施の形態の概要を説明すれば、第1にテクスチャメモリを共通用領域、偶数ブロック用領域、奇数ブロック用領域に分割して使用すること、第2に表示手段に表示するためのテクスチャデータを分割して偶数ブロック、奇数ブロック及び共通ブロックに形成しておくとともに、エリアという概念を採用して当該エリアと偶数ブロック・奇数ブロックとの関連を付けておくこと、第3に移動体が表示される位置に応じて分割形成したおいた偶数ブロック、奇数ブロック及び共通ブロックのテクスチャデータを前記テクスチャメモリに転送しておくこと、第4にゲームの展開に伴って移動体の周囲に必要なテクスチャデータをテクスチャメモリの偶数ブロック用領域あるいは奇数ブロック用領域から取り出してゆくが、この場合にテクスチャメモリの領域の変化があったときに、奇数ブロック・偶数ブロックとエリアとの関係から、テクスチャメモリの偶数ブロック用領域あるいは奇数ブロック用領域に書換えが必要か否かを判断すること、第5に前記テクスチャメモリの該当ブロック用領域の書換えが必要なときには、前記テクスチャメモリの当該ブロック用領域に上記形成しておいた該当するブロックのテクスチャデータのみを転送するようにすることにある。 The outline of the first embodiment of the present invention will be described. First, the texture memory is divided into a common area, an even block area, and an odd block area, and secondly displayed on the display means. The texture data to be divided is formed into even blocks, odd blocks, and common blocks, and the concept of area is adopted to associate the areas with the even blocks and odd blocks; The texture data of the even block, the odd block and the common block separately formed according to the position where the mobile body is displayed is transferred to the texture memory. Necessary texture data around is taken out from the even block area or odd block area of the texture memory. Determining whether or not rewriting to the even block area or the odd block area of the texture memory is necessary based on the relationship between the odd block / even block and the area when there is a change in the texture memory area; When the corresponding block area of the texture memory needs to be rewritten, only the texture data of the corresponding block formed above is transferred to the block area of the texture memory.
なお、偶数ブロックのテクスチャデータ又は奇数ブロックのテクスチャデータを転送する場合、該当する1つのブロックのテクスチャデータを一括して転送するのではなく、当該ブロックを構成する1枚のテクスチャデータ(例えば 256×256Texcel)単位で転送することとする。 When transferring texture data of even blocks or texture data of odd blocks, the texture data of one corresponding block is not transferred all at once, but one texture data (for example, 256 × It will be transferred in units of 256Texcel).
上述した内容を実現させることにより、テクスチャメモリの容量以上にテクスチャデータを使用できるようにすることができるとともに、テクスチャメモリ上のテクスチャデータを常にアップデート(最新のテクスチャデータに)できることになる。 By realizing the above-described contents, the texture data can be used more than the capacity of the texture memory, and the texture data on the texture memory can always be updated (to the latest texture data).
図2は、同第1の実施の形態で使用するテクスチャメモリを説明するための図である。この図において、符号21はテクスチャメモリであり、このテクスチャメモリ21は、例えば共通用領域21a、偶数ブロック用領域21b、奇数ブロック用領域21cに分割して使用するようにしている。ここで、このようにテクスチャメモリを分割する意味はテクスチャメモリを使用する上での便宜上のことであり、ハードウエア上では1つのままである。
FIG. 2 is a diagram for explaining a texture memory used in the first embodiment. In this figure,
ここで、例えば256×256texelを一単位とするテクスチャデータをテクスチャの枚数としては1枚と数えるものとすると、この実施の形態では、共通用領域21aはテクスチャ数が最大6枚、偶数ブロック用領域21bはテクスチャ数が最大9枚、奇数ブロック用領域21cはテクスチャ数が最大9枚で構成されるものとしている。したがって、図2においても、共通用領域21aでは点線で分割された領域が6領域、偶数ブロック用領域21bでは点線で分割された領域が9領域、奇数ブロック用領域21cでは点線で分割された領域が9領域に、分割されて表示されている。
Here, for example, assuming that texture data with 256 × 256 texel as one unit is counted as one texture, in this embodiment, the
また、共通用領域21aは、表示手段の画面に常に表示されるようなモデル、例えば、道路のような表示データに使用されることになり、ゲーム処理中に書換わることはない。
The
図3は、同第1の実施の形態で使用する表示データを示すものであって、例えば自動車レースのコース全体のテクスチャデータを示す図である。この図からも分かるように、例えば閉回路状の自動車レース用のコースを表示用のデータとして、通常は、図3に示すような表示データ210として構築しておき、ゲームの展開に応じた移動体の移動に伴って、その場面に必要なテクスチャデータ等を前記表示データ210から取り出して使用している。
FIG. 3 is a diagram showing display data used in the first embodiment, for example, showing texture data of the entire course of the car race. As can be seen from this figure, for example, a closed circuit-like course for car racing is constructed as display data, usually as
この第1の実施の形態においては、上記表示データ210を、図3に示すように、例えば、ブロックBLK1,BLK2,BLK3,…,BLK6の6つのブロックに分割するものとする。なお、第1の実施の形態では、表示データ210を6つのブロックに分割したが、容量の許す限りいくらでもよい。
In the first embodiment, as shown in FIG. 3, the
また、この第1の実施の形態では、エリアARという概念を採用し、上述したように分割した第1のブロックBLK1,第2のブロックBLK2,第3のブロックBLK3,…,第6のブロックBLK6とを、エリアAR1,AR2,AR3,…,AR6に対応付けて記憶させておく。すなわち、ブロックBLK1〜BLK6とエリアAR1〜AR6とは次の図27のような対応関係を持たせてある。 In the first embodiment, the concept of area AR is adopted, and the first block BLK1, the second block BLK2, the third block BLK3,..., The sixth block BLK6 divided as described above. Are stored in association with the areas AR1, AR2, AR3,..., AR6. That is, the blocks BLK1 to BLK6 and the areas AR1 to AR6 have a correspondence relationship as shown in FIG.
図4は、上述したように表示データ210を分割したブロックBLKについてテクスチャメモリ21に対応させた状態で構築したモデル、テクスチャに関するデータを示す図であり、図4(1)に第1のブロックBLK1のテクスチャTD1、図4(2)に第2のブロックBLK2のテクスチャTD2、図4(3)に第3のブロックBLK3のテクスチャTD3、図4(4)に第4のブロックBLK4のテクスチャTD4、図4(5)に第5のブロックBLK5のテクスチャTD5、図4(6)に第6のブロックBLK6のテクスチャTD6、をそれぞれ示している。
FIG. 4 is a diagram showing data relating to the model and texture constructed in a state in which the block BLK obtained by dividing the
すなわち、テクスチャTD1は、図4(1)に示すように、テクスチャメモリ21に対応させた状態において、奇数ブロック用領域21cに相当する領域に構築し、他の共通用領域21a、偶数ブロック用領域21bに相当する領域にはデータを構築しない。
That is, as shown in FIG. 4A, the texture TD1 is constructed in an area corresponding to the
同様に、テクスチャTD2は、図4(2)に示すように、テクスチャメモリ21に対応させた状態において、偶数ブロック用領域21bに相当する領域に構築し、他の共通用領域21a、奇数ブロック用領域21cに相当する領域にはデータを構築しない。
Similarly, as shown in FIG. 4 (2), the texture TD2 is constructed in an area corresponding to the
同様に、テクスチャTD3は、図4(3)に示すように、テクスチャメモリ21に対応させた状態において、奇数ブロック用領域21cに相当する領域に構築し、他の共通用領域21a、偶数ブロック用領域21bに相当する領域にはデータを構築しない。
Similarly, as shown in FIG. 4 (3), the texture TD3 is constructed in an area corresponding to the
同様に、テクスチャTD4は、図4(4)に示すように、テクスチャメモリ21に対応させた状態において、偶数ブロック用領域21bに相当する領域に構築し、他の共通用領域21a、奇数ブロック用領域21cに相当する領域にはデータを構築しない。
Similarly, as shown in FIG. 4 (4), the texture TD4 is constructed in an area corresponding to the
同様に、テクスチャTD5は、図4(5)に示すように、テクスチャメモリ21に対応させた状態において、奇数ブロック用領域21cに相当する領域に構築し、他の共通用領域21a、偶数ブロック用領域21bに相当する領域にはデータを構築しない。
Similarly, as shown in FIG. 4 (5), the texture TD5 is constructed in an area corresponding to the
同様に、テクスチャTD6は、図4(6)に示すように、テクスチャメモリ21に対応させた状態において、偶数ブロック用領域21bに相当する領域に構築し、他の共通用領域21a、奇数ブロック用領域21cに相当する領域にはデータを構築しない。
Similarly, as shown in FIG. 4 (6), the texture TD6 is constructed in an area corresponding to the
なお、共通テクスチャDTcは、図4(7)に示すように、テクスチャメモリ21に対応させた状態において、共通用領域21aに相当する領域に構築し、他の偶数ブロック用領域21b、奇数ブロック用領域21cに相当する領域にはデータを構築しない。
As shown in FIG. 4 (7), the common texture DTc is constructed in a region corresponding to the
上述したように構築したテクスチャTD1〜TD6,TDcを、例えばROM等に格納しておくものとする。 Assume that the textures TD1 to TD6 and TDc constructed as described above are stored in, for example, a ROM.
次に、上述したような前提を基に図5ないし図11を参照して第1の実施の形態におけるデータ処理について説明する。 Next, data processing according to the first embodiment will be described with reference to FIGS.
〔初期状態〕
図6はゲームの開始初期の状態にある場合を示す図であり、図7はそのときにテクスチャメモリのテクスチャの番号を示す図である。
〔initial state〕
FIG. 6 is a diagram showing a case where the game is in an initial state, and FIG. 7 is a diagram showing texture numbers in the texture memory at that time.
まず、ゲームの開始時に、ゲームプログラムの処理に応じて、移動体のうちの自車30は、図6に示すように、第1のエリアAR1にいるものとする。この場合、テクスチャメモリ21には、共通用領域21aには共通テクスチャTDcが、偶数ブロック用領域21bにはテクスチャTD2が、奇数ブロック用領域21cにはテクスチャTD1が、それぞれ格納されることになる。
First, at the start of the game, according to the processing of the game program, the
このような状態において、ゲームプログラムの展開に伴って第1のブロックBLK1にいる自車30が図6の矢印に示す方向に移動し、第2のブロックBLK2に自車30aが移動したものとする。
In such a state, it is assumed that the
〔自車30が同一エリア番号のブロック間を移動した場合〕
自車30が同一エリア番号のブロック間を移動した場合について、図6及び図7を参照して説明する。
[When the
A case where the
ここで、図5のフローチャートが所定時間毎に実行されて、まず、現在、偶数ブロック又は奇数ブロックを書換え中かを判断する(S501)。この場合、書換えが行われていないので(S501;NO)、現在、自車30がいるエリア番号を求める(S502)。
Here, the flowchart of FIG. 5 is executed at predetermined time intervals. First, it is determined whether the even block or the odd block is currently being rewritten (S501). In this case, since rewriting has not been performed (S501; NO), an area number where the
ここで、表1から第1のブロックBLK1と、第2のブロックBLK2とは第2のエリアAR2として関連付けられているので、エリア番号がAR2となって、同じエリア番号と判断される(S503)。したがって、エリアARの番号に変化がないことから(S503;YES)、この処理を抜けることになり、テクスチャの転送は行われない。 Here, since the first block BLK1 and the second block BLK2 are associated as the second area AR2 from Table 1, the area number is AR2, and it is determined that they are the same area number (S503). . Therefore, since there is no change in the area AR number (S503; YES), this process is exited and the texture is not transferred.
〔自車30が異なるエリア番号のブロック間を移動した場合〕
自車が異なるエリア番号のブロック間を移動した場合について図8及び図9を参照して説明する。なお、図8は自車とコースのブロック番号との関連を示す図であり、図9はテクスチャメモリの状態を示す図である。また、図9(a)は自車が同一ブロックを移動しているときのメモリ状態を、図9(b)は自車が異なるエリア番号になる移動をした場合に書き換えられるテクスチャメモリの状況を示す図である。
[When the
A case where the own vehicle moves between blocks having different area numbers will be described with reference to FIGS. 8 is a diagram showing the relationship between the vehicle and the block number of the course, and FIG. 9 is a diagram showing the state of the texture memory. 9A shows the memory state when the vehicle is moving in the same block, and FIG. 9B shows the state of the texture memory that is rewritten when the vehicle moves with a different area number. FIG.
次に、上述したような条件において、ゲームプログラムの展開により、自車30が、図8に示すように第2のブロックBLK2から第3のブロックBLK3に移動したものとする。
Next, it is assumed that the
ここで、図5のフローチャートが所定時間毎に実行されて、まず、現在、偶数ブロック又は奇数ブロックを書換え中かを判断する(S501)。この場合、書換えが行われていないので(S501;NO)、現在、自車30がいるエリア番号を求める(S502)。
Here, the flowchart of FIG. 5 is executed at predetermined time intervals. First, it is determined whether the even block or the odd block is currently being rewritten (S501). In this case, since rewriting has not been performed (S501; NO), an area number where the
ここで、表1から第2のブロックBLK2と、第3のブロックBLK3とは第3のエリアAR3として関連付けられているので、エリア番号がAR3となって、前回の番号(AR2)とは異なるエリア番号(AR3)と判断される(S503)。したがって、エリアARの番号が変化したことから(S503;NO)、そのエリア番号(AR3)を記憶し(S504)、そのエリア番号(AR3)より書き換えるブロック番号(BLK)を求める。この場合、第3のブロックBLK3のテクスチャTD3を書換えることが判明したので(S505)、奇数ブロックに対応する奇数ブロック用領域21cが前回書き換えたか判定する(S506)。ここでは、奇数ブロックに対応する奇数ブロック用領域21cを前回書き換えていないので(S506;NO)、当該奇数ブロック用フラッグをセットする(S507)。また、偶数ブロックに対応する偶数ブロック用領域21bを前回書き換えているか否かを判定する(S508)。偶数ブロック用領域21bは、前回書き換えていないため(S508;NO)、当該偶数ブロック用フラッグをセットする(S509)。
Here, since the second block BLK2 and the third block BLK3 are associated as the third area AR3 from Table 1, the area number is AR3 and is an area different from the previous number (AR2). The number (AR3) is determined (S503). Accordingly, since the area AR number has changed (S503; NO), the area number (AR3) is stored (S504), and the block number (BLK) to be rewritten is obtained from the area number (AR3). In this case, since it has been found that the texture TD3 of the third block BLK3 is to be rewritten (S505), it is determined whether the
そして、奇数ブロックを書換え中かを判断する(S101)。ここで、書換えをすることになるので(S510;YES)、当該奇数ブロック用フラッグを基に、第3のブロックに相当するテクスチャTD3をテクスチャメモリ21の奇数ブロック用領域21cに転送して奇数ブロック用領域21cを書き換え(S511)、当該奇数ブロック用フラッグを更新する(S512)。これにより、図9(a)のように、テクスチャメモリ21において、偶数ブロック用領域21bには第2のブロックBLK2に相当するテクスチャTD2が、奇数ブロック用領域21cには第1のブロックに相当するテクスチャTD1が格納されていたものが、図9(b)に示すように、テクスチャメモリ21において、偶数ブロック用領域21bには第2のブロックBLK2に相当するテクスチャTD2が、奇数ブロック用領域21cには第3のブロックに相当するテクスチャTD3が転送されて書き換えられることになる。また、偶数ブロック用領域21bのテクスチャTD2は書き換えられないことになる。
Then, it is determined whether the odd block is being rewritten (S101). Here, since rewriting is performed (S510; YES), based on the odd block flag, the texture TD3 corresponding to the third block is transferred to the
なお、テクスチャメモリ21の偶数ブロック用領域21bを書き換える必要が生じたときには、図5のフローチャートのステップS501〜S510、S513、S514の処理が実行されることになり、偶数ブロック用領域21bが書き換えられることになる。
When it is necessary to rewrite the
例えばROM等に記憶しておいたテクスチャTD1〜TD6を、テクスチャメモリ21の偶数ブロック用領域21b又は奇数ブロック用領域21cに転送する場合には、当該偶数ブロック用領域21b又は奇数ブロック用領域21cの全部の領域分のデータを一括して転送するのではなく、1フレームにつき1枚(256×256texel)分を転送している。このようにすることにより、転送時間を短縮している。なぜならば、本発明のゲーム機の場合、処理時間に限界があるため、これに対処する必要があるからである。
For example, when the textures TD1 to TD6 stored in the ROM or the like are transferred to the
〔自車がコースを逆走する場合〕
自車がコースを逆走する場合の動作を図10、図11を参照して説明する。ここで、図10は自車がコース上を走行する場合の図であり、図10(a)がブロックBLK2を走行中の状態を、図10(b)が自車がブロックBLK2からブロックBLK3に移動した場合の状態を、図10(c)が自車がブロックBLK3からブロックBLK2に逆走した場合の状態を、それぞれ示している。
[If your vehicle runs backwards on the course]
The operation when the host vehicle runs backward on the course will be described with reference to FIGS. Here, FIG. 10 is a diagram when the host vehicle travels on the course, FIG. 10 (a) shows a state in which the vehicle is traveling on the block BLK2, and FIG. 10 (b) shows that the host vehicle moves from the block BLK2 to the block BLK3. FIG. 10C shows the state when the vehicle moves, and the state when the host vehicle runs backward from the block BLK3 to the block BLK2.
また、図11は上記状態のテクスチャメモリの状況を示すものであり、図11(a)が図10(a)の状況のときのメモリ状態を、図11(b)が図10(b)の状況のときのメモリ状態を、図11(c)が図10(c)の状況のときのメモリ状態を、それぞれ示したものである。 FIG. 11 shows the state of the texture memory in the above state. FIG. 11 (a) shows the memory state in the state of FIG. 10 (a), and FIG. 11 (b) shows the state of FIG. 10 (b). FIG. 11 (c) shows the memory state when the situation is, and FIG. 11 (c) shows the memory state when the situation is FIG. 10 (c).
図10(a)の状況にあるときには、テクスチャメモリ21は図11(a)に示すように、共通用領域21aに共通テクスチャTDcを、偶数ブロック用領域21bに第2のブロックBLK2に相当するテクスチャTD2を、奇数ブロック用領域21cに第1のブロックBLK1に相当するテクスチャTD1を、それぞれ記憶している。そして、ステップS501、S502、S503の処理が実行されてゆき、テクスチャメモリ21の偶数ブロック用領域21bも奇数ブロック用領域21cも書換えが生じない。
In the situation shown in FIG. 10A, as shown in FIG. 11A, the
また、図10(b)の状況にあるときには、ブロックBLK2からブロックBLK3に移動した瞬間にステップS501〜S512が処理されて、以後、ステップ501、S510、S511、S512が処理されることになり、図11(b)に示すように、奇数ブロック用領域21cを書き換え中になる。
Further, in the situation of FIG. 10B, steps S501 to S512 are processed at the moment when the block BLK2 moves to the block BLK3, and thereafter steps 501, S510, S511, and S512 are processed. As shown in FIG. 11B, the
このような状況のときに、図10(c)のようにブロックBLK3からブロックBLK2へ急激に進行方向を換えて逆走した場合でも、エリアAR3で同じであるため、テクスチャTDの書換えか生じることがない。この期間は、エリアのチェック(ステップS503)を行わないが、エリアAR3で同じであるため、問題が生じることなく、図11(c)に示すように、奇数ブロック用領域21cを第3のブロックBLK3に相当するテクスチャTD3に書換えを続行する(S501−S510−S511−S512)。
In such a situation, even if the traveling direction is suddenly changed from the block BLK3 to the block BLK2 as shown in FIG. 10 (c), the same processing is performed in the area AR3. There is no. During this period, the area check (step S503) is not performed, but since it is the same in the area AR3, as shown in FIG. 11C, the
このような第1の実施の形態によれば、テクスチャメモリの容量以上にテクスチャデータを使用できるとともに、テクスチャデータを常に最新のものにすることができる。 According to such a first embodiment, texture data can be used in excess of the capacity of the texture memory, and the texture data can always be updated.
<第2の実施の形態における画像処理>
図12〜図17は、本発明の第2の実施の形態を説明するために示した図であって、移動体の走行速度に応じた背景画像を得られるようにした技術を説明するための図である。
<Image Processing in Second Embodiment>
FIGS. 12 to 17 are diagrams for explaining the second embodiment of the present invention, and are for explaining a technique for obtaining a background image corresponding to the traveling speed of the moving body. FIG.
本発明の第2の実施の形態の概要を説明する。まず、第2の実施の形態では、ゲームを実行中に、移動体の速度に応じた背景画面を得て自然な感じの画面を得られるようにするとともに、そのような画面を得るためのデータ転送時間を短縮することができるようにすることを目的としている。 An outline of the second embodiment of the present invention will be described. First, in the second embodiment, while a game is being executed, a background screen corresponding to the speed of the moving body is obtained to obtain a natural-feeling screen, and data for obtaining such a screen is obtained. The purpose is to shorten the transfer time.
そして、第2の実施の形態にあっては、背景画面に関して複数のテクスチャを用意すること、第1のテクスチャには移動体が停止しているか又は低速状態の背景画面データを与えておき、残りの第2のテクスチャには移動体が低速以上の走行状態にあるときの背景画面のデータを速度帯域に対応させて用意しておき、次に、移動体の速度状況に応じて第1のテクスチャに加えて第2のテクスチャを画面にマッピンク処理するようにしたものである。 In the second embodiment, a plurality of textures are prepared for the background screen, and the first texture is provided with background screen data in which the moving body is stopped or in a low-speed state. In the second texture, data on the background screen when the moving body is in a traveling state at a low speed or more is prepared corresponding to the speed band, and then the first texture is set according to the speed condition of the moving body. In addition to this, the second texture is mapped on the screen.
このような画像処理を行うことにより、移動体の移動速度の状況に応じた背景画面を得ることができるために、自然で表現力豊かな画像処理ができることになる。 By performing such image processing, it is possible to obtain a background screen according to the state of the moving speed of the moving body, so that natural and expressive image processing can be performed.
図12は、本発明の第2の実施の形態を説明するための記憶手段の様子を示す図である。この図12において、符号31はROMであり、符号41はテクスチャメモリである。
FIG. 12 is a diagram showing the state of the storage means for explaining the second embodiment of the present invention. In FIG. 12,
まず、移動体の速度について、例えば、
(1)0〔km/h〕〜109〔km/h〕
(2)110〔km/h〕〜199〔km/h〕
(3)200〔km/h〕〜249〔km/h〕
(4)250〔km/h〕〜279〔km/h〕
(5)280〔km/h〕〜のように分類する。
First, regarding the speed of the moving object, for example,
(1) 0 [km / h] to 109 [km / h]
(2) 110 [km / h] to 199 [km / h]
(3) 200 [km / h] to 249 [km / h]
(4) 250 [km / h] to 279 [km / h]
(5) Classify as 280 [km / h].
この分類に従って、ROM31にマイクロテクスチャを用意する。
(1)0〔km/h〕〜109〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT1を格納しておく。
(2)110〔km/h〕〜199〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT2を格納しておく。
(3)200〔km/h〕〜249〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT3を格納しておく。
(4)250〔km/h〕〜279〔km/h〕の速度用のマイクロテクスチャ(第2のテクスチャ)MT4を格納しておく。
(5)280〔km/h〕〜の速度用のマイクロテクスチャ(第2のテクスチャ)MT5を格納しておく。
According to this classification, a microtexture is prepared in the
(1) The microtexture (second texture) MT1 for the speed of 0 [km / h] to 109 [km / h] is stored.
(2) The micro texture (second texture) MT2 for speeds of 110 [km / h] to 199 [km / h] is stored.
(3) The microtexture (second texture) MT3 for speeds of 200 [km / h] to 249 [km / h] is stored.
(4) A microtexture (second texture) MT4 for speeds of 250 [km / h] to 279 [km / h] is stored.
(5) The micro texture (second texture) MT5 for speeds of 280 [km / h] to 280 is stored.
また、同上ROM31に、停止時又は低速時の通常のテクスチャ(第1のテクスチャ)TDを格納しておく。
The
また、前記ROM31に格納されているマイクロテクスチャMT1〜MT5は、テクスチャメモリ41の領域41Aに転送されることになる。
The microtextures MT1 to MT5 stored in the
図13は、同第2の実施の形態において実行される画像データ処理について説明するためのフローチャートである。この図を参照して説明すると、ゲームを処理している途中において、移動体の速度を常にチェックする(S601)。このステップ601において、移動体の速度から転送すべきマイクロテクスチャMTの番号を求める。
FIG. 13 is a flowchart for explaining the image data processing executed in the second embodiment. Referring to this figure, the speed of the moving body is always checked during the game processing (S601). In this
次に、前回転送したマイクロテクスチャMTの番号と、今回転送するマイクロテクスチャMTの番号とが同一か否かを判定する(S101)。同一番号でなければ(S602;NO)、この求めた番号を記憶させて(S603)、この番号から転送元アドレスを求め、ROM31の所定のアドレスからマイクロテクスチャ(第2のテクスチャ)MTm(例えば、m=1,2,…,5)を読み出し、テクスチャメモリ41の領域41Aに転送する(S604)。
Next, it is determined whether the number of the microtexture MT transferred last time is the same as the number of the microtexture MT transferred this time (S101). If it is not the same number (S602; NO), the obtained number is stored (S603), the transfer source address is obtained from this number, and the microtexture (second texture) MTm (for example, from the predetermined address of the ROM 31) m = 1, 2,..., 5) are read out and transferred to the
まず、移動体が停止しているときの背景画像データは、例えば第1のテクスチャTDをテクスチャメモリ41の所定の領域に転送することにより転送済となっている。 First, the background image data when the moving body is stopped is already transferred by transferring the first texture TD to a predetermined area of the texture memory 41, for example.
〔移動体が停止又は低速の場合の動作〕
このようなところで移動体の速度がチェックされて、停止中から低速の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT1を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT1がマッピングされる。これにより、CRT上には、図14に示すように、移動体50と、停止した道路標識51とが表示されることになる。なお、以後、移動体50が停止中であれば、ステップS601、S602と処理されて、CRT上には、図14に示すように、移動体50と、停止した道路標識51とが表示されることになる。
[Operation when the moving body is stopped or at low speed]
At such a point, the speed of the moving body is checked, and it is determined that the moving body is in the low speed region from the stop. The microtexture MT1 is extracted from the area of the
〔移動体が低速以上で中速の速度の場合の動作〕
次に、移動体の速度がチェックされて、第2番目の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT2を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT2がマッピングされる。
[Operation when the moving body is at a low speed or higher and at a medium speed]
Next, the speed of the moving body is checked, and it is determined that the moving body is in the second speed area. The microtexture MT2 is extracted from the area of the
すると、CRT上には、図15に示すように、移動体50と、テクスチャメモリ41に書込まれた第1のテクスチャTDにより表示されるる停止した道路標識51と、テクスチャメモリ41の領域41Aに書込まれたマイクロテクスチャ(第2のテクスチャ)MT2とにより、少し流れた状態の道路標識として表示される。
Then, on the CRT, as shown in FIG. 15, the moving
〔移動体が低速以上で高速の速度の場合の動作〕
次に、移動体の速度がチェックされて、第3番目の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT3を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT3がマッピングされる。
[Operation when the moving body is at a low speed and a high speed]
Next, the speed of the moving body is checked, and it is determined that the moving body is in the third speed area. The microtexture MT3 is extracted from the area of the
すると、CRT上には、図15に示すように、移動体50と、テクスチャメモリ41に書込まれた第1のテクスチャTDにより表示されるる停止した道路標識51と、テクスチャメモリ41の領域41Aに書込まれたマイクロテクスチャ(第2のテクスチャ)MT3とにより、かなり流れた状態の道路標識として表示される。
Then, on the CRT, as shown in FIG. 15, the moving
〔移動体が低速以上で高速よりさらに高速速度の場合の動作〕
次に、移動体の速度がチェックされて、第4番目の速度領域にあると判断されて、ROM31のエリアからマイクロテクスチャMT4を取り出してテクスチャメモリ41の領域41Aに書き込む(S601〜S604)。言い換えれば、第1のテクスチャTDに、マイクロテクスチャMT4がマッピングされる。
[Operation when the moving body is at a low speed or higher and at a higher speed than the high speed]
Next, the speed of the moving object is checked, and it is determined that the moving body is in the fourth speed area, and the microtexture MT4 is taken out from the area of the
すると、CRT上には、図15に示すように、移動体50と、テクスチャメモリ41に書込まれた第1のテクスチャTDにより表示されるる停止した道路標識51と、テクスチャメモリ41の領域41Aに書込まれたマイクロテクスチャ(第2のテクスチャ)MT4とにより、完全に流れて直線状に続く状態の道路標識として表示される。
Then, on the CRT, as shown in FIG. 15, the moving
このように第2の実施の形態では、移動体の速度を常にチェックし、移動体の速度に相応しい背景画面のテクスチャを取り出して、テクスチャメモリ41の所定の領域41Aに転送することにより、第1のテクスチャに第2のテクスチャをマッピングして移動体の速度に応じた背景画面をCRT上に表示できるようにした。
As described above, in the second embodiment, the speed of the moving object is always checked, the texture of the background screen suitable for the speed of the moving object is extracted, and transferred to the
これにより、移動体の速度に応じた背景画面が表示されることになり、画面の表現力が上昇する。また、背景画面を移動体の速度状況に応じて変更するのに、単に、第2のテクスチャを転送するのみであるので、転送に必要な時間を短縮でき、しかも転送データを少なくできる。 As a result, a background screen corresponding to the speed of the moving object is displayed, and the expressiveness of the screen increases. Also, since the background screen is changed according to the speed status of the moving body, the second texture is simply transferred, so that the time required for the transfer can be shortened and the transfer data can be reduced.
<第3の実施の形態における画像処理>
図18〜図26は、本発明の第3の実施の形態を説明するために示した図であって、移動体が移動中に衝突した際に移動速度や衝突の方向に応じた移動体の壊れを多様に表現できる技術を説明するための図である。
<Image Processing in Third Embodiment>
FIGS. 18 to 26 are diagrams for explaining the third embodiment of the present invention. When the mobile body collides during movement, the mobile body according to the moving speed and the direction of the collision is shown. It is a figure for demonstrating the technique which can express breakage variously.
本発明の第3実施の形態についてその概要を説明する。まず、第3の実施の形態では、移動体である車がクラッシュすることによる破損を効果的に表示するための画像処理を行うことにあり、ゲーム装置でかかる処理を行うときに演出効果が高めることを目的としている。 The outline of the third embodiment of the present invention will be described. First, in the third embodiment, image processing is performed to effectively display damage caused by a car crashing as a moving body, and the effect of rendering is enhanced when such processing is performed on a game device. The purpose is that.
また、この第3の実施の形態にあっては、(1)車がぶつかった方向を検出すること、(2)車がぶつかった速度(エネルギー)を検出すること、(3)これらの情報を車の変形に反映させることにある。
具体的には、(i) 車がぶつかっていない状態の車の全体ポリゴンデータを用意しておく、(ii) 車がこわれた状態の車全体のポリゴンデータを用意しておく、(iii) 各ポリゴンのブロックの番号と頂点との対応データを用意しておき、(iv) 車がぶつかった方向の情報からどのブロックかを決定し、(v) 車がぶつかった速度(エネルギー 壁(他車)への法線ベクトルに沿った方向)に応じて、該当ブロックの壊れに相当するポリゴンデータを(i) のデータと、(ii)のデータとから1次式又は2次式等で補間するようにしている。
In the third embodiment, (1) the direction in which the car collided is detected, (2) the speed (energy) in which the car collided is detected, and (3) these pieces of information are stored. It is to be reflected in the deformation of the car.
Specifically, (i) Prepare the whole polygon data of the car in a state where the car does not collide, (ii) Prepare the polygon data of the whole car in the state where the car is broken, (iii) Prepare the correspondence data of polygon block numbers and vertices, and (iv) determine which block from the information of the direction that the car hit, (v) the speed at which the car hit (energy wall (other cars)) The polygon data corresponding to the break of the corresponding block is interpolated from the data of (i) and the data of (ii) by a linear expression or a quadratic expression in accordance with the direction along the normal vector to I have to.
また、傷なしの通常のテクスチャ(第1のテクスチャ)と、傷有りのテクスチャ(第2のテクスチャ)とをテクスチャマッピングしておき、両者の透明度のパラメータを制御し、通常は、通常のテクスチャのみが見えるように表示しておく。すなわち、この場合には、後者のテクスチャの透明度のパラメータが大きく設定されるようにしておく。 In addition, texture mapping is performed on a normal texture without scratches (first texture) and a texture with scratches (second texture), and the transparency parameters of both are controlled. Normally, only normal textures are used. Display so that can be seen. That is, in this case, the latter transparency parameter of the texture is set to be large.
要するに、この場合には、第1のテクスチャと第2のテクスチャの透明度パラメータを変更することにより、第1のテクスチャを表示させたり、第2のテクスチャを表示させたりすることができる。そして、ぶつかった状況に応じて、透明度のパラメータを変更することにより、よりリアルに衝突後の状況を表現することができる。 In short, in this case, the first texture or the second texture can be displayed by changing the transparency parameters of the first texture and the second texture. Then, the situation after the collision can be expressed more realistically by changing the transparency parameter according to the situation of the collision.
このような画像処理を行うことにより、移動体の移動速度の状況に応じた背景画面を得ることができるために、自然で表現力豊かな画像処理ができることになる。 By performing such image processing, it is possible to obtain a background screen according to the state of the moving speed of the moving body, so that natural and expressive image processing can be performed.
〔第3実施形態の前提〕
図18は、移動体である車をブロック分けした状態の平面図を示しており、このブロック分けで車を構成する平面側のポリゴンデータを得ている。図19は衝突する前の正常な状態における車の一部のポリゴンデータの例を示し、同様のブロック分けした状態の図である。図20は、衝突した後の破壊された状態にある車の一部におけるポリゴンデータの例を示し、同様のブロック分けした状態の図である。
[Premise of the third embodiment]
FIG. 18 is a plan view showing a state in which a vehicle as a moving body is divided into blocks, and polygon data on the plane side constituting the vehicle is obtained by this block division. FIG. 19 shows an example of polygon data of a part of a vehicle in a normal state before the collision, and is a diagram in a similar block-divided state. FIG. 20 shows an example of polygon data in a part of a car in a destroyed state after a collision, and is a diagram in a similar block state.
図19に示す車の一部において、例えばリンゴデータP11,P12,P13,…は、図20においては、例えばポリゴンデータP11a,P12a,P13a,…に相当している。また、図19、図20では、車の一部についてポリゴンデータが表示されているが、もちろん、車全体のポリゴンデータ(図示せず)、は、図21に示すようなROM31に予め記憶させておく。
19, for example, apple data P11, P12, P13,... Corresponds to, for example, polygon data P11a, P12a, P13a,. 19 and 20, polygon data is displayed for a part of the car. Of course, the polygon data (not shown) of the entire car is stored in advance in a
例えば、図18及び図19に示す正常な車の一部のポリゴンを含む車全体のポリゴンデータはROM31の領域311に予め格納しておく。また、例えば図20に示す破壊されたな車の一部のポリゴンを含む車全体のポリゴンデータはROM31の領域312に予め格納しておく。
For example, the polygon data of the entire vehicle including the polygons of a part of a normal vehicle shown in FIGS. 18 and 19 is stored in advance in the
〔動作〕
図22は、第3実施の形態の動作を説明するためのフローチャートである。また、図23は車が衝突した場合の衝突判定の方法を説明するためのものであり、図24は二つの車が衝突したときの、速度の受渡しのことを説明するための図である。
[Operation]
FIG. 22 is a flowchart for explaining the operation of the third embodiment. FIG. 23 is a diagram for explaining a collision determination method when a vehicle collides, and FIG. 24 is a diagram for explaining speed delivery when two vehicles collide.
まず、このフローチャートに入ると、衝突しているか否かの判定をするために必要な処理がされる(S700)。 First, when entering this flowchart, processing necessary to determine whether or not there is a collision is performed (S700).
この処理は、次のようにする。まず、車81と車82との二体の中心を結ぶベクトルを二体間ベクトル(Sx,Sz)とする。なお、(S′x,S′z)を二体間ベクトル(Sx,Sz)の正規化ベクトル(単位ベクトル)とする。
各点座標と正規化ベクトル(S′x,S′z)との内積を用いて、どの点が一番他車に近いがを調べる。車81で車82に近い点を、車81の頂点(Px1,Pz1)とする。車82で最も車81に近い点を、車82の頂点(Px2,Pz2)とする。
This process is as follows. First, a vector connecting the centers of the two bodies of the
Using the inner product of each point coordinate and the normalized vector (S′x, S′z), it is examined which point is closest to the other vehicle. A point close to the
二体間ベクトルに垂直な正規化ベクトル(Tx,Tz)=(−S′z,S′x)とすると、各点と上記ベクトル(Tx,Tz)との内積を用い、頂点(車81の頂点、車82の頂点)を挟む自車の点を求めて、これを他点とする。したがって、車81の他点は他点(Qx1,Qz1)となり、車82の他点は他点(Qx2,Qz2)となる。頂点と他点の差より、車81の線分ベクトルSV1と、車82の線分ベクトルSV2とを求める。
Assuming that the normalized vector (Tx, Tz) = (− S′z, S′x) perpendicular to the vector between two bodies, the inner product of each point and the vector (Tx, Tz) is used, and the vertex (the
さらに、これら線分ベクトルSV1,SV2と、二体間ベクトルとの外積により、どちらの線分ベクトルSV1,SV2が二体間ベクトルに対して鋭角かを求める。ここでは、車82の線分ベクトルSV2の方が鋭角となっているので、この線分ベクトルSV2の頂点が他方の線分ベクトルSV1に接するとする。
Further, which line segment vector SV1, SV2 is an acute angle with respect to the two-body vector is obtained by the outer product of these line segment vectors SV1, SV2 and the two-body vector. Here, since the line segment vector SV2 of the
この場合、車82の点が車81の線分に接することが求まる。したがって、車82の点が車81の線分に達した時点で衝突があったと判断すればよい(S701)。
In this case, it is determined that the point of the
そして、衝突が発生したと判断したところで(S701;YES)、車82の点が車81の線分のどの場所に接するかを判断する処理を実行する(S702)。
When it is determined that a collision has occurred (S701; YES), a process of determining which point on the line of the
ここでは、車82の頂点が車81の線分に接するが、この接する頂点と正規化ベクトル(Tx,Tz)の内積と、線分の2点と正規化ベクトル(Tx,Tz)の内積値の内分を求めることで、前記頂点が線分のどの部位に接するかが求められる。これにより、車81,82の接する部位AAを求めることができる。これにより、衝突したときの車の衝突部位にあるポリゴンを求めることができる。
Here, the vertex of the
次に、衝突方向と衝突の速度(衝突エネルギー)を得る処理を実行する(S703)。これは次のように処理をする。図24において、車81の速度ベクトルを(Vx1,Vz1)とし、車82の速度ベクトルを(Vx2,Vz2)とし、車81と車82の中心を結ぶベクトルを二体間ベクトル(Sx,Sz)とする。
各車81の速度ベクトル(Vx1,Vz1)と、車82の速度ベクトル(Vx2,Vz2)とを二体間ベクトルに分解する。これら二体間ベクトルは、速度ベクトルと二体間ベクトルの正規化ベクトル(S′x,S′z)との内積によって求めることができる。
Next, a process of obtaining the collision direction and the collision speed (collision energy) is executed (S703). This is processed as follows. In FIG. 24, the speed vector of the
The speed vector (Vx1, Vz1) of each
すなわち、車81の二体間速度ベクトル(Wx1,Wz1)=(Vx1,Vz1)・(S′x,S′z)で得ることができる。
That is, the two-body speed vector (Wx1, Wz1) of the
また、車82の二体間速度ベクトル(Wx2,Wz2)=(Vx2,Vz2)・(S′x,S′z)で得ることができる。
Further, the two-body speed vector (Wx2, Wz2) of the
このようにした求めた二体間速度ベクトル(Wx1,Wz1)、二体間速度ベクトル(Wx2,Wz2)との差によって、衝突発生の際に受け渡す速度ベクトルとなり、衝突の速度の方向と速度の大きさを得ることができる。 Due to the difference between the two-body velocity vector (Wx1, Wz1) and the two-body velocity vector (Wx2, Wz2) obtained in this way, the velocity vector is transferred when a collision occurs. The size of can be obtained.
このようにして衝突の速度の方向と速度の大きさを得ることができる(S703)。上記処理(S702)によって得た衝突の部位の情報と、この処理(S701)によって得た衝突速度の方向と衝突の速度の情報とを基に、ROM31の領域311,312からそれぞれ読み出した車の当該部位のポリゴンデータを補間処理する(S704)。 In this way, the direction and speed of the collision speed can be obtained (S703). Based on the information on the location of the collision obtained by the above processing (S702) and the information on the direction of the collision speed and the velocity of the collision obtained by this processing (S701), The polygon data of the part is interpolated (S704).
補間処理方法は、例えば公知の1次式又は2次式を用いて補間を行うものとする。このようにして補間されたポリゴンデータをRAMに転送する(S706)。 As the interpolation processing method, for example, interpolation is performed using a known linear expression or quadratic expression. The polygon data interpolated in this way is transferred to the RAM (S706).
このようにRAMに転送されたポリゴンデータをRAMポリゴンという。このRAMポリゴンは、結局、計算によって得られたことになる。すなわち、多数の壊れたポリゴンデータをメモリに準備することなく、破壊された状態の画面をリアルに再現することができることになる。 Polygon data transferred to the RAM in this way is called a RAM polygon. This RAM polygon is eventually obtained by calculation. That is, it is possible to realistically reproduce a broken screen without preparing a large number of broken polygon data in the memory.
衝突した部分の傷を表現するために、車を構成するポリゴンに通常の傷なしテクスチャと傷ありテクスチャとをテクスチャマッピンクしておき、衝突した部分のダメージの状態に応じて両者のテクスチャの透明度パラメータを制御することにより(S705)、車が衝突した部分のダメージに応じた傷を表現できるようにしている。 In order to express the scratches of the collided part, the normal texture without scratches and the texture with scratches are mapped to the polygons that make up the car, and the transparency of both textures is determined according to the state of damage of the collided parts By controlling the parameters (S705), it is possible to express a scratch corresponding to the damage of the part where the car collided.
すなわち、通常は、図25に示すように前者のテクスチャ95のみが見えるように表示し、後者の透明度が大きくなるような透明度パラメータが、後者のテクスチャに設定されている。
That is, normally, as shown in FIG. 25, only the
そして、衝突したときには上記計算結果を用いて、前記車の衝突エネルギの程度に応じて、後者の透明度パラメータを制御して透明度を下げて、車の地肌について、衝突エキルギーが大きくなるほど、図26に示すように徐々に傷96が浮かび上がってくるようにしている。 Then, in the event of a collision, the above calculation result is used to control the latter transparency parameter in accordance with the degree of the collision energy of the vehicle to lower the transparency. As shown, the scratch 96 gradually emerges.
このように上記処理ステップによって、車の衝突の方向によっては壊れ(へこみ)が少なくとも、傷が発生する画像処理を再現できることになる。 As described above, the above processing steps can reproduce the image processing in which the breakage (dent) is caused at least depending on the direction of the collision of the car and the scratches are generated.
本実施の形態は、このように画像処理されるので、衝突に車の方向、エネルギー量が反映されることになる。すなわち、車の衝突による変形が多様化されて、車の移動方向と衝突に態様が正確に表示されることになる。また、ブロック化したために、計算負荷が限定的である。 In this embodiment, since the image processing is performed in this way, the direction of the vehicle and the amount of energy are reflected in the collision. That is, the deformation caused by the collision of the car is diversified, and the mode is accurately displayed in the moving direction and the collision of the car. In addition, the calculation load is limited due to the block.
1 ビデオゲーム装置本体
1a カートリッジI/F
1b CD−ROMドライブ
2a コネクタ
2b ゲーム操作用のパッド
2c ケーブル
3a コネクタ
3b フロッピーディスクドライブ(FDD)
3c ケーブル
4a、4b ケーブル
5 TV受像機
10 CPUブロック
11 ビデオブロック
12 サウンドブロック
13 サブシステム
100 SCU(System Control Unit)
101 メインCPU
102 RAM
103 ROM
104 サブCPU
105 CPUバス
106、107 バス
120、130 VDP
121 VRAM
122、123 フレームバッファ
131 VRAM
132 メモリ
140 DSP
141 CPU
160 エンコーダ
180 CD I/F
181 CPU
182 MPEG AUDIO
183 MPEG VIDEO
1 Video game apparatus main body 1a Cartridge I / F
1b CD-ROM
3c Cable 4a, 4b Cable 5
101 Main CPU
102 RAM
103 ROM
104 Sub CPU
105
121 VRAM
122, 123
132
141 CPU
181 CPU
182 MPEG AUDIO
183 MPEG VIDEO
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004338661A JP4035648B2 (en) | 2004-11-24 | 2004-11-24 | Game device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004338661A JP4035648B2 (en) | 2004-11-24 | 2004-11-24 | Game device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP32172797A Division JP4042188B2 (en) | 1997-11-21 | 1997-11-21 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005129076A JP2005129076A (en) | 2005-05-19 |
JP4035648B2 true JP4035648B2 (en) | 2008-01-23 |
Family
ID=34650970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004338661A Expired - Fee Related JP4035648B2 (en) | 2004-11-24 | 2004-11-24 | Game device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4035648B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010004964A (en) * | 2008-06-24 | 2010-01-14 | Sega Corp | Game apparatus, image processing method for game apparatus, game image processing program, its storage medium, and image processing method for game apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110465091B (en) * | 2019-08-09 | 2020-12-11 | 腾讯科技(深圳)有限公司 | Control method and device for virtual racing car object, storage medium and electronic device |
-
2004
- 2004-11-24 JP JP2004338661A patent/JP4035648B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010004964A (en) * | 2008-06-24 | 2010-01-14 | Sega Corp | Game apparatus, image processing method for game apparatus, game image processing program, its storage medium, and image processing method for game apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2005129076A (en) | 2005-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100549754B1 (en) | Image processing method, image processing system, and storage medium for a game machine | |
JP4651435B2 (en) | Program, information storage medium, and image generation system | |
KR100362704B1 (en) | Image data generation method and image data processing apparatus and recording medium | |
US8411092B2 (en) | 2D imposters for simplifying processing of plural animation objects in computer graphics generation | |
CN1977290B (en) | Display, displaying method | |
JP2763499B2 (en) | Image synthesizing apparatus and image synthesizing method | |
US7312804B2 (en) | Program product, image generation method and image generation system | |
EP1722334A2 (en) | A method, an apparatus and a computer program product for generating an image | |
EP1630746B1 (en) | Image processor and image processing method | |
JP2000215325A (en) | Method and device for processing image and recording medium recording program | |
WO2006028093A1 (en) | Video generation device and video generation method | |
JP4234089B2 (en) | Entertainment device, object display device, object display method, program, and character display method | |
JP4717622B2 (en) | Program, information recording medium, and image generation system | |
US20080136831A1 (en) | Method and System for Renewing Screen | |
US20010017629A1 (en) | Methods and apparatus for drawing contours of objects in video games | |
JP2006195882A (en) | Program, information storage medium and image generation system | |
JP3955425B2 (en) | 3D sound reproduction system | |
US6508708B1 (en) | Method for processing object movements, game machine using said method, and recording medium on which a related program is recorded | |
JP2003022452A (en) | Image processor and solid-shape display program | |
JP4035648B2 (en) | Game device | |
JP4743770B2 (en) | Image generation system, program, and information storage medium | |
US6518967B1 (en) | Game apparatus, game method, and computer-readable storage medium | |
JP2005108257A (en) | Game device | |
JP2002352268A (en) | Image processing method and program for image processing | |
JP5063022B2 (en) | Program, information storage medium, and image generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070710 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071014 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101109 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121109 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121109 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121109 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131109 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |