JPH06348861A - Method and device for generating picture and household game machine - Google Patents

Method and device for generating picture and household game machine

Info

Publication number
JPH06348861A
JPH06348861A JP6018228A JP1822894A JPH06348861A JP H06348861 A JPH06348861 A JP H06348861A JP 6018228 A JP6018228 A JP 6018228A JP 1822894 A JP1822894 A JP 1822894A JP H06348861 A JPH06348861 A JP H06348861A
Authority
JP
Japan
Prior art keywords
coordinates
image
color information
dimensional image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6018228A
Other languages
Japanese (ja)
Inventor
Masaaki Oka
正昭 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP6018228A priority Critical patent/JPH06348861A/en
Priority to CA002466377A priority patent/CA2466377C/en
Priority to CA002121005A priority patent/CA2121005C/en
Priority to TW083103170A priority patent/TW244382B/zh
Priority to DE69431685T priority patent/DE69431685T2/en
Priority to EP94302563A priority patent/EP0620532B1/en
Priority to EP00200823A priority patent/EP1008958B1/en
Priority to DE69429205T priority patent/DE69429205T2/en
Priority to KR1019940007846A priority patent/KR100328659B1/en
Publication of JPH06348861A publication Critical patent/JPH06348861A/en
Priority to US08/797,876 priority patent/US5912671A/en
Priority to HK00107843A priority patent/HK1028664A1/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To easily and exactly display the three-dimensional picture of an object. CONSTITUTION:Necessary information is read from the picture information of a three-dimensional object stored in a main memory 2. Then, the vertex coordinates of an infinitesimal polygon representing the three-dimensional object are obtained and the color and luminance data at every vertex are calculated by a geometry processor 61 in a graphic processor 6, and the coordinate value and plotting color data at an intermediate point between respective vertexes are calculated by interpolation by using the coordinate value, color, and luminance data of each vertex by a raster processor 62. Then, the plotting color data are stored on picture elements indicated by the coordinate values of a display area 51 in a video memory 5. Thus, a three-dimensional picture VD1 of the object can be plotted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、情報処理により画像を
作成する画像作成方法及び画像作成装置と、この画像作
成方法及び画像作成装置を用いた家庭用ゲーム機とに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image creating method and an image creating apparatus for creating an image by information processing, and a home-use game machine using the image creating method and the image creating apparatus.

【0002】[0002]

【従来の技術】例えば、家庭用ゲーム機やパーソナルコ
ンピュータ装置あるいはグラフィックコンピュータ装置
等において、テレビジョン受像機やモニタ受像機あるい
はCRTディスプレイ装置等に出力されて表示される画
像は2次元のものが殆どであり、基本的には2次元の平
面的な背景に2次元のキャラクタ等を適宜に配置して移
動させたり、変化させたりするような形態で画像表示が
行われている。
2. Description of the Related Art For example, in a home game machine, a personal computer device, a graphic computer device or the like, almost two-dimensional images are output and displayed on a television receiver, a monitor receiver, a CRT display device or the like. Basically, an image is displayed in a form in which a two-dimensional character or the like is appropriately arranged and moved or changed on a two-dimensional planar background.

【0003】しかしながら、上述したような2次元的な
画像表示や映像では、表現できる背景及びキャラクタや
それらの動きに制限があり、例えばゲームの臨場感を高
めることが困難である。
However, in the above-described two-dimensional image display and video, there are restrictions on the background and characters that can be expressed, and their movements, and it is difficult to enhance the sense of presence in a game, for example.

【0004】そこで、例えば次に示すような方法で疑似
的な3次元の画像や映像を作成することが行われてい
る。すなわち、上記キャラクタとしていくつかの方向か
ら見た画像を用意しておき、表示画面中での視点の変化
等に応じてこれらの複数画像の内から1つを選択して表
示したり、2次元の画像を奥行き方向に重ねて疑似的な
3次元画像を表現したりするような方法が挙げられる。
また、画像データを生成あるいは作成する際に、いわゆ
るテクスチャ(生地、地模様)の画像を多面体等の所望
の面に貼り付けるようなテクスチャマッピング方法や、
画像の色データをいわゆるカラールックアップテーブル
を通して変換することにより表示色を変化させる手法が
採られている。
Therefore, for example, a pseudo three-dimensional image or video is created by the following method. That is, as the character, images viewed from several directions are prepared, and one of these images is selected and displayed in accordance with a change in the viewpoint on the display screen, or a two-dimensional image is displayed. There is a method of expressing a pseudo three-dimensional image by superimposing the images in the depth direction.
Also, when generating or creating image data, a texture mapping method such as attaching a so-called texture (texture, ground pattern) image to a desired surface such as a polyhedron,
A method of changing a display color by converting color data of an image through a so-called color look-up table is adopted.

【0005】ここで、従来の家庭用ゲーム機の概略的な
構成の一例を図12に示す。この図12において、マイ
クロプロセッサ等から成るCPU91は、入力パッドや
ジョイスティック等の入力デバイス94の操作情報をイ
ンターフェイス93を介し、メインバス99を通して取
り出す。この操作情報の取り出しと同時に、メインメモ
リ92に記憶されている3次元画像のデータがビデオプ
ロセッサ96によってソースビデオメモリ95に転送さ
れ、記憶される。
FIG. 12 shows an example of a schematic structure of a conventional home-use game machine. In FIG. 12, a CPU 91 including a microprocessor or the like takes out operation information of an input device 94 such as an input pad or a joystick through an interface 93 and a main bus 99. Simultaneously with the extraction of this operation information, the data of the three-dimensional image stored in the main memory 92 is transferred to and stored in the source video memory 95 by the video processor 96.

【0006】また、上記CPU91は、上記ソースビデ
オメモリ95に記憶された画像を重ね合わせて表示する
ための画像データの読み出し順位を上記ビデオプロセッ
サ96に送る。上記ビデオプロセッサ96は上記画像デ
ータの読み出し順位に従って上記ソースビデオメモリ9
5から画像データを読み出し、画像を重ね合わせて表示
する。
Further, the CPU 91 sends to the video processor 96 the read order of the image data for displaying the images stored in the source video memory 95 in an overlapping manner. The video processor 96 uses the source video memory 9 according to the order of reading the image data.
The image data is read from 5, and the images are superimposed and displayed.

【0007】上述のように画像を表示すると同時に、上
記取り出された操作情報中の音声情報により、オーディ
オプロセッサ97はオーディオメモリ98内に記憶され
ている上記表示される画像に応じた音声データを出力す
る。
At the same time as displaying the image as described above, the audio processor 97 outputs the audio data corresponding to the displayed image stored in the audio memory 98 by the audio information in the extracted operation information. To do.

【0008】図13は、図12に示す構成をもつ家庭用
ゲーム機において、2次元画像のデータを用いて3次元
画像を出力する手順を示す図である。この図13では、
市松模様の背景画像上に円筒状の物体を3次元画像とし
て表示する場合を説明する。
FIG. 13 is a diagram showing a procedure for outputting a three-dimensional image by using the data of the two-dimensional image in the home-use game machine having the configuration shown in FIG. In this Figure 13,
A case where a cylindrical object is displayed as a three-dimensional image on a checkered background image will be described.

【0009】この図13のソースビデオメモリ95に
は、市松模様の背景画像200と、この背景画像200
上の円筒状の物体の深さ方向の断面を表す矩形の画像、
いわゆるスプライト201、202、203、204の
データが記憶されている。この矩形の画像201、20
2、203、204上の円筒の断面の画像以外の部分は
透明色で描かれている。
In the source video memory 95 of FIG. 13, a checkered background image 200 and this background image 200 are shown.
A rectangular image representing the cross-section of the upper cylindrical object in the depth direction,
Data of so-called sprites 201, 202, 203, 204 are stored. This rectangular image 201, 20
Portions other than the image of the cylindrical cross section on 2, 203, and 204 are drawn in a transparent color.

【0010】ビデオプロセッサ96内のシンクジェネレ
ータ100は、表示する画像の同期信号に合わせた読み
出しアドレス信号を発生する。また、このシンクジェネ
レータ100は、上記読み出しアドレス信号をメインバ
ス99を介して図12のCPU91から与えられた読み
出しアドレステーブル101に送る。さらに、このシン
クジェネレータ100は上記読み出しアドレステーブル
101からの情報に従って上記ソースビデオメモリ95
内の画像データを読み出す。
The sync generator 100 in the video processor 96 generates a read address signal that matches the sync signal of the image to be displayed. The sync generator 100 also sends the read address signal to the read address table 101 provided from the CPU 91 of FIG. 12 via the main bus 99. Further, the sync generator 100 uses the source video memory 95 according to the information from the read address table 101.
Read the image data in.

【0011】上記読み出された画像データは、上記CP
U91により上記メインバス99を介して与えられたプ
ライオリティテーブル102内の画像の重ね合わせ順位
に基づいて、重ね合わせ処理部103で順次重ね合わせ
られる。この場合には、上記背景画像200が最も順位
が低く、矩形の画像201、202、203、204と
順に順位が高くなっているため、背景画像200から順
次画像が重ね合わせられる。
The read image data is the CP
Based on the superposition order of the images in the priority table 102 given by the U 91 via the main bus 99, the superposition processing unit 103 sequentially superimposes the images. In this case, the background image 200 has the lowest rank, and the rectangular images 201, 202, 203, and 204 have higher ranks, so that the background images 200 are sequentially superimposed.

【0012】次に、透明色処理部104において、円筒
以外の部分を背景画像で表示するために上記重ね合わせ
られた円筒の断面の画像201、202、203、20
4により表示される円筒以外の部分を透明にする処理を
施す。上述した処理により、円筒状の物体の2次元画像
のデータが図13に示す3次元画像VD0 の画像データ
として出力される。
Next, in the transparent color processing unit 104, the images 201, 202, 203, 20 of the cross-sections of the above-described cylinders are superimposed in order to display a portion other than the cylinders as a background image.
A process for making a portion other than the cylinder displayed by 4 transparent is performed. Through the above-described processing, the data of the two-dimensional image of the cylindrical object is output as the image data of the three-dimensional image VD 0 shown in FIG.

【0013】[0013]

【発明が解決しようとする課題】ところで、上述した従
来の3次元画像を出力する方法においては、ソースビデ
オメモリ内に出力画像と同じ画像が生成されているので
はなく、ソースビデオメモリ内に記憶されている2次元
画像の画像データの読み出し位置を変化させ、複数の画
像データを読み出して重ね合わせることにより3次元画
像を生成しているため、3次元画像の表現能力に限界が
生じる。即ち、家庭用ゲーム機により画面上に表示され
た、対象とする3次元画像の物体の操作を行う場合に、
その操作に応じて上記対象物体を精確に表現することが
できないときが生じるものである。
By the way, in the above-described conventional method for outputting a three-dimensional image, the same image as the output image is not generated in the source video memory, but is stored in the source video memory. Since the three-dimensional image is generated by changing the read position of the image data of the existing two-dimensional image, and reading out and superimposing a plurality of image data, the expression capability of the three-dimensional image is limited. That is, when operating an object of a target three-dimensional image displayed on the screen by a home-use game machine,
There are times when the target object cannot be represented accurately according to the operation.

【0014】例えば、上記3次元画像の対象物体を操作
した後には、操作者から対象物体への視点が変化するた
め、上記3次元画像の対象物体の位置及び方向は変化す
るにも拘らず、上記3次元画像の対象物体の位置及び方
法が精確に変化していなかったり、また、上記対象物体
の表現され得る位置及び方向が限定されて例えば対象物
体の裏側を表現する操作を行うことができなかったり、
さらには、上記操作者の視点から3次元的に連続した移
動を行う画面を表示しているにも拘らず、操作者の視点
に対応する画面の表示が不連続に行われたりする場合が
生じている。
For example, after operating the target object of the three-dimensional image, the viewpoint from the operator to the target object changes, so that the position and direction of the target object of the three-dimensional image change, but The position and method of the target object in the three-dimensional image have not changed accurately, or the position and direction of the target object that can be expressed are limited, so that the operation of expressing the back side of the target object can be performed. Or not
Furthermore, there may be a case in which the screen corresponding to the operator's viewpoint is discontinuously displayed, even though the screen that moves three-dimensionally from the operator's viewpoint is displayed. ing.

【0015】また、3次元的な画面を表現するために、
操作者の動作及び上記対象物体の動作に対応した擬似的
な動作のための画像データや、画像に変化を与えるため
の画像データを事前に用意しておくので、記憶する画像
データは膨大な量になる。
In order to represent a three-dimensional screen,
Since the image data for the pseudo-motion corresponding to the motion of the operator and the motion of the target object and the image data for changing the image are prepared in advance, a huge amount of image data is stored. become.

【0016】さらに、記憶された2次元画像のデータを
3次元画像のデータとして表示するためにゲームを作成
するために時間がかかり、また、作成されたゲームの操
作時の処理量が増加するので実行処理速度が遅くなる。
Furthermore, it takes time to create a game because the stored two-dimensional image data is displayed as three-dimensional image data, and the amount of processing during operation of the created game increases. Execution processing speed becomes slow.

【0017】そのうえ、ソースビデオメモリ内に記憶さ
れている2次元画像のデータを用いて2次元画像のゲー
ムを表現する場合には、上記2次元画像のデータを変形
して2次元画像を動作させるため、上記ソースビデオメ
モリからの画像データの読み出し制御が複雑になり、画
像データの読み出しが困難になる。
Moreover, when a two-dimensional image game is expressed using the two-dimensional image data stored in the source video memory, the two-dimensional image data is modified to operate the two-dimensional image. Therefore, the control of reading the image data from the source video memory becomes complicated, and it becomes difficult to read the image data.

【0018】そこで、本発明は上述の実情に鑑み、操作
者の操作に対応して対象物体の位置や方向が精確に変化
する3次元画像を、より簡易で迅速に表示することがで
きる画像作成方法、画像作成装置及び家庭用ゲーム機を
提供するものである。
Therefore, in view of the above situation, the present invention is capable of more easily and rapidly displaying a three-dimensional image in which the position and direction of the target object are accurately changed according to the operation of the operator. A method, an image creating device, and a home-use game machine are provided.

【0019】[0019]

【課題を解決するための手段】本発明に係る画像作成方
法は、第1のメモリに記憶された所望の3次元画像を表
す単位となる複数の微小な多角形領域の各頂点の座標を
読み出す工程と、上記記憶された多角形領域の各頂点の
座標を変換してスクリーン上の座標を算出し、さらに上
記各頂点における色情報を求める工程と、上記各頂点の
スクリーン上の座標及び色情報を用いて上記各頂点の間
の境界点の座標及び色情報を算出し、上記境界点の座標
及び色情報を用いて上記境界点の間の中間点の座標及び
色情報を算出する工程と、第2のメモリ内に上記算出さ
れた中間点の座標及び色情報を記憶する工程とから成
り、上記記憶された中間点の色情報により3次元画像を
表示することにより上述した課題を解決する。
According to the image creating method of the present invention, the coordinates of the vertices of a plurality of minute polygonal areas, which are units representing a desired three-dimensional image, stored in the first memory are read out. A step, a step of converting coordinates of each vertex of the stored polygonal area to calculate coordinates on the screen, and further obtaining color information at each vertex, and coordinates and color information on the screen of each vertex. Calculating the coordinates and color information of the boundary points between the respective vertices using, and calculating the coordinates and color information of the intermediate points between the boundary points using the coordinates and color information of the boundary points, The above-mentioned problem is solved by the step of storing the coordinates and color information of the calculated intermediate point in the second memory, and displaying the three-dimensional image by the stored color information of the intermediate point.

【0020】また、本発明に係る画像作成装置は、所望
の3次元画像を表す単位となる複数の微小な多角形領域
の各頂点の座標が記憶される第1のメモリと、上記第1
のメモリに記憶された多角形領域の各頂点の座標を変換
してスクリーン上の座標を算出し、さらに上記各頂点に
おける色情報を求めるジェオメトリプロセッサと、上記
ジェオメトリプロセッサにより算出された各頂点のスク
リーン上の座標及び色情報を用いて上記各頂点の間の境
界点の座標及び色情報を算出し、上記境界点の座標及び
色情報を用いて上記境界点の間の中間点の座標及び色情
報を算出するラスタプロセッサと、上記ラスタプロセッ
サにより算出された中間点の座標及び色情報を記憶する
第2のメモリとを有し、上記中間点の色情報を記憶する
ことにより3次元画像を表示することを特徴とする。
Further, the image creating apparatus according to the present invention includes a first memory for storing coordinates of vertices of a plurality of minute polygonal areas which are units representing a desired three-dimensional image, and the first memory.
The coordinates of the vertices of the polygonal area stored in the memory are converted to calculate the coordinates on the screen, and further, a geometry processor for obtaining color information at each vertex and each vertex calculated by the geometry processor. The coordinates and color information of the boundary points between the vertices are calculated using the coordinates and the color information on the screen, and the coordinates of the intermediate points between the boundary points and the coordinates and the color information of the boundary points are calculated. A raster processor that calculates color information and a second memory that stores the coordinates and color information of the intermediate point calculated by the raster processor are provided. By storing the color information of the intermediate point, a three-dimensional image is displayed. It is characterized by displaying.

【0021】ここで、上記第1のメモリには多角形領域
の各頂点の座標値及び色情報が記憶されていることを特
徴とする。
Here, it is characterized in that the first memory stores the coordinate value and color information of each vertex of the polygonal area.

【0022】また、テクスチャ画像としての他の2次元
画像を変形し、上記表示された3次元画像上に貼付表示
することを特徴とする。
Further, it is characterized in that another two-dimensional image as a texture image is transformed and pasted and displayed on the displayed three-dimensional image.

【0023】ここで、上記第1のメモリには多角形領域
の各頂点の座標値及び上記他の2次元画像上の座標位置
を示すテクスチャ座標が記憶されていることを特徴とす
る。
Here, the first memory stores the coordinate value of each vertex of the polygonal area and the texture coordinate indicating the coordinate position on the other two-dimensional image.

【0024】さらに、上記多角形領域の各頂点の内の1
つの頂点を基点としてこの頂点から水平方向にスライス
して得られた線分の両端の点を上記境界点とし、上記中
間点の色情報を内挿によって算出することを特徴とす
る。
Further, one of the vertices of the polygon area is
It is characterized in that the color information of the intermediate point is calculated by interpolation, with points at both ends of a line segment obtained by slicing one vertex as a base point in the horizontal direction from this vertex as the boundary points.

【0025】尚、上記色情報としてはカラー表示を行う
ための色ベクトルでもよいし、白黒表示を行うための輝
度又は階調データでもよい。
The color information may be a color vector for color display or luminance or gradation data for monochrome display.

【0026】さらに、本発明に係る家庭用ゲーム機は、
ゲームプログラム及びこのゲームプログラムで使用され
る画像情報が記憶される外部記憶媒体と、上記外部記憶
媒体に記憶されたゲームプログラムの画像情報中の対象
物体の動作を操作する操作手段と、上記ゲームプログラ
ムの画像情報を表示する表示手段と、上記画像情報中の
3次元画像の対象物体を表す単位となる複数の微小な多
角形領域の各頂点の座標が記憶される第1のメモリと、
上記第1のメモリに記憶された多角形領域の各頂点の座
標を上記操作手段からの入力に応じて変換してスクリー
ン上の座標を算出し、さらに上記各頂点における色情報
を求めるジェオメトリプロセッサと、上記ジェオメトリ
プロセッサにより算出された各頂点のスクリーン上の座
標及び色情報を用いて上記各頂点の間の境界点の座標及
び色情報を算出し、上記境界点の座標及び色情報を用い
て上記境界点の間の中間点の座標及び色情報を算出する
ラスタプロセッサと、上記ラスタプロセッサにより算出
された中間点の座標及び色情報を記憶する第2のメモリ
とを有し、上記中間点の色情報を記憶することにより3
次元画像を表示することを特徴とする。
Furthermore, the home-use game machine according to the present invention is
An external storage medium in which a game program and image information used in this game program are stored, an operation unit for operating a motion of a target object in the image information of the game program stored in the external storage medium, and the game program Display means for displaying the image information of 1., a first memory for storing the coordinates of the vertices of a plurality of minute polygonal regions serving as a unit representing the target object of the three-dimensional image in the image information,
A geometry processor for calculating coordinates on the screen by converting the coordinates of each vertex of the polygonal area stored in the first memory according to the input from the operating means, and further obtaining the color information at each vertex. And the coordinates and color information of the boundary points between the vertices are calculated using the on-screen coordinates and color information of the vertices calculated by the geometry processor, and the coordinates and color information of the boundary points are used. A raster processor for calculating coordinates and color information of an intermediate point between the boundary points, and a second memory for storing coordinates and color information of the intermediate point calculated by the raster processor. 3 by storing the color information of
It is characterized by displaying a three-dimensional image.

【0027】ここで、上記外部記憶媒体はCD−ROM
又はメモリカードであることを特徴とする。
Here, the external storage medium is a CD-ROM.
Alternatively, it is a memory card.

【0028】また、不揮発性の記憶手段を有し、上記ゲ
ームプログラムの終了時のゲームの進行状況を記録する
ことを特徴とする。
Further, it is characterized in that it has a non-volatile storage means and records the progress of the game at the end of the game program.

【0029】[0029]

【作用】本発明においては、第1のメモリに記憶された
多角形領域の各頂点の座標を変換してスクリーン上の座
標及び色情報を算出し、この算出された各頂点のスクリ
ーン上の座標及び色情報を用いて上記各頂点の間の境界
点の座標及び色情報を算出し、さらに、上記境界点の座
標及び色情報を用いて上記境界点の間の中間点の座標及
び色情報を算出して、この中間点の色情報を第2のメモ
リに書き込むことにより3次元画像を表示する。
In the present invention, the coordinates of each vertex of the polygonal area stored in the first memory are converted to calculate the coordinates on the screen and the color information, and the calculated coordinates of each vertex on the screen. And the color information to calculate the coordinates and color information of the boundary points between the vertices, and the coordinates and color information of the boundary points to obtain the coordinates and color information of the intermediate points between the boundary points. A three-dimensional image is displayed by calculating and writing the color information of this intermediate point in the second memory.

【0030】ここで、いわゆるテクスチャソース画像等
の他の2次元画像を変形し、上記多角形領域の各頂点の
内の1つの頂点を基点とし、この頂点から水平方向にラ
スタ線n本分スライスさせた線分の両端の点を上記境界
点として得られる中間点の色情報を上記表示された3次
元画像上に貼付表示する方法によって3次元画像を表示
する方法も用いることができる。
Here, another two-dimensional image such as a so-called texture source image is transformed, and one vertex of each vertex of the polygonal area is used as a base point, and n raster lines are sliced in the horizontal direction from this vertex. It is also possible to use a method of displaying a three-dimensional image by a method of pasting and displaying the color information of the intermediate points obtained by using the points at both ends of the line segment as the boundary points on the displayed three-dimensional image.

【0031】さらに、本発明の家庭用ゲーム機は、CD
−ROM及びメモリカード等の外部記憶媒体に記憶され
たゲームプログラムを入力し、このゲームプログラムの
実行中に表示される3次元画像を上記画像作成方法及び
画像作成装置を用いて作成する。
Further, the home-use game machine of the present invention is a CD
-Entering a game program stored in an external storage medium such as a ROM and a memory card, and creating a three-dimensional image displayed during execution of this game program using the above-described image creating method and image creating apparatus.

【0032】[0032]

【実施例】以下、本発明の好ましい実施例について、図
面を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described below with reference to the drawings.

【0033】図1には、本発明に係る画像作成装置の一
実施例を示す。この図1において、マイクロプロセッサ
等から成る中央処理装置であるCPU1は、入力パッド
やジョイスティック等の入力デバイス4の操作情報をイ
ンターフェイス3及びメインバス9を介して取り出す。
この取り出された操作情報に基づいて、上記CPU1は
第1のメモリであるメインメモリ2に記憶されている3
次元画像の情報を上記メインバス9を介してグラフィッ
クプロセッサ6に送る。このグラフィックプロセッサ6
は、送られた3次元画像の情報を変換して画像データを
生成する。この生成された画像データによる3次元画像
が第2のメモリであるビデオメモリ5上に描かれる。こ
のビデオメモリ5上に描かれた3次元画像データはビデ
オ信号のスキャン時に読み出されて、図示しない表示装
置上に3次元画像が表示される。
FIG. 1 shows an embodiment of the image forming apparatus according to the present invention. In FIG. 1, a CPU 1 which is a central processing unit including a microprocessor or the like takes out operation information of an input device 4 such as an input pad or a joystick via an interface 3 and a main bus 9.
Based on the retrieved operation information, the CPU 1 stores 3 in the main memory 2 which is the first memory.
The information of the three-dimensional image is sent to the graphic processor 6 via the main bus 9. This graphic processor 6
Converts the information of the sent three-dimensional image to generate image data. A three-dimensional image based on the generated image data is drawn on the video memory 5, which is the second memory. The three-dimensional image data drawn on the video memory 5 is read when the video signal is scanned, and the three-dimensional image is displayed on a display device (not shown).

【0034】上述のように3次元画像を表示すると同時
に、上記CPU1によって取り出された操作情報中の上
記表示された3次元画像に対応する音声情報がオーディ
オプロセッサ7に送られる。上記オーディオプロセッサ
7は、この送られた音声情報に基づいてオーディオメモ
リ8内に記憶されている音声データを出力する。
Simultaneously with displaying the three-dimensional image as described above, the voice information corresponding to the displayed three-dimensional image in the operation information retrieved by the CPU 1 is sent to the audio processor 7. The audio processor 7 outputs the audio data stored in the audio memory 8 based on the sent audio information.

【0035】次に、本発明の第1の実施例として、対象
となる物体の陰影を付加することにより3次元画像を表
示するシェーディング方法を説明し、第2の実施例とし
て、他の2次元画像を変形して貼付することにより3次
元画像を表示するテクスチャマッピング方法を説明す
る。
Next, as a first embodiment of the present invention, a shading method for displaying a three-dimensional image by adding a shadow of a target object will be described, and as a second embodiment, another two-dimensional image will be described. A texture mapping method for displaying a three-dimensional image by deforming and attaching the image will be described.

【0036】3次元を示す座標系には、3次元の物体そ
のものに関する形状や寸法を表現するためのオブジェク
ト座標系、3次元の物体を空間に配置したときの物体の
位置を示すワールド(世界)座標系、及びスクリーン上
に表示した3次元の物体を表現するためのスクリーン座
標系等が使用されることが多いが、以下に説明する実施
例においては、説明を簡略化するために、対象となる3
次元の物体のオブジェクト座標系及びスクリーン座標系
を中心に説明する。また、スクリーン座標系上の3次元
の物体の3次元画像を表す単位となる多角形領域、いわ
ゆるポリゴンは簡略化した三角形領域として説明する。
The coordinate system showing three dimensions is an object coordinate system for expressing the shape and dimensions of the three-dimensional object itself, and the world showing the position of the object when the three-dimensional object is arranged in space. In many cases, a coordinate system, a screen coordinate system for expressing a three-dimensional object displayed on a screen, etc. are used, but in order to simplify the description, in the embodiments described below, Become 3
A description will be given focusing on the object coordinate system and the screen coordinate system of a three-dimensional object. Also, a polygonal area, which is a unit representing a three-dimensional image of a three-dimensional object on the screen coordinate system, a so-called polygon will be described as a simplified triangular area.

【0037】先ず、第1の実施例であるシェーディング
方法を以下に説明する。図2に示すメインメモリ2内に
は、対象となる3次元の物体の画像を作成するために必
要な三角形の各頂点座標及び色ベクトル等の画像情報が
記憶されている。これらの画像情報は図1のCPU1に
より読み出され、図2に示すグラフィックプロセッサ6
内のジェオメトリプロセッサ61に送られる。
First, the shading method of the first embodiment will be described below. The main memory 2 shown in FIG. 2 stores image information such as the coordinates of each vertex of a triangle and a color vector necessary to create an image of a target three-dimensional object. These pieces of image information are read by the CPU 1 of FIG. 1 and the graphic processor 6 shown in FIG.
To the geometry processor 61.

【0038】このジェオメトリプロセッサ61では、上
記読み出された画像情報を用い、各頂点座標を変換して
スクリーン上の頂点座標を算出する。また、対象物体の
属性と光源データとから法線ベクトルと光源ベクトルと
の内積計算等を行い、上記スクリーン上での各頂点の色
及び輝度データを算出する。上記算出された各頂点のス
クリーン上の座標値、色及び輝度データはラスタプロセ
ッサ62に送られる。このラスタプロセッサ62では、
上記送られた各頂点の座標値、色及び輝度データを用い
て、3頂点に囲まれた三角形内の中間点の描画色データ
を内挿によって全て算出する。これにより、ビデオメモ
リ5内の表示領域51上の上記座標値で示される画素上
には上記描画色データによる3次元の対象物体の画像V
1 が描かれ、この画像VD1 は上記グラフィックプロ
セッサ6の制御により出力される。
The geometry processor 61 uses the read image information to convert the vertex coordinates to calculate the vertex coordinates on the screen. Further, the inner product of the normal vector and the light source vector is calculated from the attribute of the target object and the light source data, and the color and brightness data of each vertex on the screen is calculated. The calculated coordinate values, color and brightness data of each vertex on the screen are sent to the raster processor 62. In this raster processor 62,
All the drawing color data of the intermediate points in the triangle surrounded by the three vertices are calculated by interpolation using the coordinate values, the color and the luminance data of the respective vertices sent above. As a result, the image V of the three-dimensional target object based on the drawing color data is displayed on the pixel indicated by the coordinate value on the display area 51 in the video memory 5.
D 1 is drawn, and this image VD 1 is output under the control of the graphic processor 6.

【0039】また、図2に示すメインメモリ2内には、
対象となる3次元の物体の画像を作成するために必要な
三角形の各頂点座標及び貼付するための他の画像上の座
標位置を示すテクスチャ座標等の画像情報が記憶されて
いる。第2の実施例であるテクスチャマッピング方法で
は、第1の実施例と同様に、図1のCPU1によりこれ
らの画像情報が読み出され、上記グラフィックプロセッ
サ6内のジェオメトリプロセッサ61に送られる。
Further, in the main memory 2 shown in FIG.
Image information such as vertex coordinates of a triangle necessary for creating an image of a target three-dimensional object and texture coordinates indicating a coordinate position on another image for pasting is stored. In the texture mapping method of the second embodiment, similar to the first embodiment, the CPU 1 of FIG. 1 reads out these image information and sends it to the geometry processor 61 in the graphic processor 6.

【0040】このジェオメトリプロセッサ61では、上
記読み出された画像情報を用い、各頂点座標を変換して
スクリーン上の頂点座標を算出する。また、対象物体の
属性と光源データとから法線ベクトルと光源ベクトルと
の内積計算等を行い、上記スクリーン上での各頂点の輝
度データを算出する。上記算出された各頂点のスクリー
ン上の座標値及び輝度データはラスタプロセッサ62に
送られる。このラスタプロセッサ62では、上記送られ
た対象物体の各頂点に対応する上記対象物体上に貼付す
べき画像が記憶されている領域、即ちテクスチャ領域内
の3つの頂点で囲まれる三角形内の中間点の輝度データ
を内挿によって全て算出する。これにより、図3のビデ
オメモリ5内の表示領域51上の上記座標値で示される
画素上には、テクスチャ画像52上の上記算出された座
標値で示される輝度データを用いて画像が貼付されて画
像VD2 が描かれる。この画像VD2 はグラフィックプ
ロセッサ6の制御により出力される。
The geometry processor 61 calculates the vertex coordinates on the screen by converting the vertex coordinates using the read image information. Further, the inner product of the normal vector and the light source vector is calculated from the attribute of the target object and the light source data, and the brightness data of each vertex on the screen is calculated. The calculated coordinate values and luminance data of each vertex on the screen are sent to the raster processor 62. In this raster processor 62, an area in which an image to be attached to the target object corresponding to each vertex of the sent target object is stored, that is, a midpoint in a triangle surrounded by three vertices in the texture area. All the luminance data of are calculated by interpolation. As a result, an image is pasted on the pixel indicated by the coordinate value on the display area 51 in the video memory 5 in FIG. 3 using the brightness data indicated by the calculated coordinate value on the texture image 52. The image VD 2 is drawn. This image VD 2 is output under the control of the graphic processor 6.

【0041】次に、本発明の第1の実施例であるシェー
ディング方法により3次元画像を表示するときの手順を
図4のフローチャートに示す。
Next, the procedure for displaying a three-dimensional image by the shading method according to the first embodiment of the present invention is shown in the flowchart of FIG.

【0042】先ず、図4のステップSP1では、図2の
メインメモリ2内に記憶されているオブジェクト座標系
で表される微小な三角形の頂点座標V、上記オブジェク
ト座標系で表された頂点座標Vを世界座標系に変換する
ための座標変換マトリックスR、平行移動ベクトルT、
上記世界座標系で表された頂点座標をスクリーン座標系
で表す視線ベクトル、法線ベクトルN、及び色ベクトル
C等の各種画像情報から必要な情報が図1に示すCPU
1によって順次読み出され、これらの情報はグラフィッ
クプロセッサ6に送られる。
First, in step SP1 of FIG. 4, vertex coordinates V of a minute triangle represented by the object coordinate system stored in the main memory 2 of FIG. 2 and vertex coordinates V represented by the object coordinate system. Coordinate transformation matrix R for transforming to the world coordinate system, translation vector T,
The CPU shown in FIG. 1 provides necessary information from various image information such as a line-of-sight vector, a normal vector N, and a color vector C that represent the vertex coordinates represented in the world coordinate system in the screen coordinate system.
The information is sequentially read by 1 and these pieces of information are sent to the graphic processor 6.

【0043】次に、図4のステップSP2では、上記読
み出された1つの三角形の情報を用いて、上記三角形の
頂点の座標値及び描画色が算出される。
Next, in step SP2 of FIG. 4, the coordinate value of the apex of the triangle and the drawing color are calculated using the information of the read one triangle.

【0044】先ず、図2の上記グラフィックプロセッサ
6内のジェオメトリプロセッサ61において、3次元で
表示されている上記頂点座標Vが上記座標変換マトリッ
クスR及び平行移動ベクトルTにより、以下の(1)式
に示す2次元表示の座標Sに変換される。 ( XS 、YS 、ZS )=( XV 、YV 、ZV )×R+(XT 、YT 、ZT ) ・・・・・(1)
First, in the geometry processor 61 in the graphic processor 6 of FIG. 2, the vertex coordinates V displayed three-dimensionally are expressed by the following equation (1) using the coordinate transformation matrix R and the translation vector T. Is converted into the coordinate S of the two-dimensional display shown in. (X S , Y S , Z S ) = (X V , Y V , Z V ) × R + (X T , Y T , Z T ) ... (1)

【0045】次に、上記座標Sは、以下に示す(2)、
(3)式より透視変換され、画面上の座標(X、Y)と
して表現される。ここで、hは3次元の物体を操作する
操作者の視点から画面までの距離を示す。 X=XS ×(h/ZS )・・・・(2) Y=YS ×(h/ZS )・・・・(3) この透視変換は、遠近感を出すため、操作者の視点から
の距離に応じて対象物体の大きさを変更するものであ
る。
Next, the coordinates S are as follows (2),
It is perspectively transformed by the equation (3) and expressed as coordinates (X, Y) on the screen. Here, h indicates the distance from the viewpoint of the operator who operates the three-dimensional object to the screen. X = X S × (h / Z S ) ··· (2) Y = Y S × (h / Z S ) ·· (3) This perspective transformation gives a sense of perspective, so The size of the target object is changed according to the distance from the viewpoint.

【0046】また、面の法線ベクトルNは、上記座標変
換マトリックスRを用いて、以下の(4)式に示す頂点
の法線ベクトルPに変換される。 (XP 、YP 、ZP )=(XN 、YN 、ZN )×R・・・(4)
The normal vector N of the surface is converted into the normal vector P of the apex shown in the following equation (4) using the coordinate conversion matrix R. (X P , Y P , Z P ) = (X N , Y N , Z N ) × R (4)

【0047】従って、(4)式に示す法線ベクトルP、
光源ベクトルLの内積、及び頂点本来の色Cにより、上
記座標の描画色Dは以下の(5)式で示される。 (RD 、GD 、BD )=(P×L)×(RC 、GC 、BC )・・・(5)
Therefore, the normal vector P shown in equation (4),
The drawing color D of the above coordinates is represented by the following expression (5) by the inner product of the light source vector L and the original color C of the vertex. (R D , G D , B D ) = (P × L) × (R C , G C , B C ) ... (5)

【0048】図4のステップSP3では、上記ジェオメ
トリプロセッサ61において、1つの三角形の3頂点S
0 、S1 、S2 の座標値及び描画色が求められたか否か
を判別する。これにより、3頂点の全ての座標値及び描
画色が求められてない場合にはステップSP2に戻り、
未だ求められていない三角形の頂点の座標値と描画色と
を求める。しかし、3頂点の全ての座標値と描画色とが
求められた場合にはステップSP4に進み、図2のグラ
フィックプロセッサ6内のラスタプロセッサ62におい
て、この三角形内の画素を表す中間点の全てについて座
標値を求め、この座標値で示される描画色をビデオメモ
リ5上に書き込む。
In step SP3 of FIG. 4, the three vertices S of one triangle in the geometry processor 61.
It is determined whether or not the coordinate values of 0 , S 1 and S 2 and the drawing color have been obtained. As a result, when all coordinate values and drawing colors of the three vertices have not been obtained, the process returns to step SP2,
The coordinate values of the vertices of the triangle that have not yet been obtained and the drawing color are obtained. However, when all coordinate values and drawing colors of the three vertices are obtained, the process proceeds to step SP4, and the raster processor 62 in the graphic processor 6 in FIG. 2 determines all the intermediate points representing the pixels in this triangle. The coordinate value is obtained, and the drawing color indicated by this coordinate value is written in the video memory 5.

【0049】例えば、図5に示すように、3頂点の全て
の座標値と描画色とが求められた三角形の3頂点S0
1 、S2 の座標値及び描画色は、 S0 (X0 、Y0 、R0 、G0 、B0 ) S1 (X1 、Y1 、R1 、G1 、B1 ) S2 (X2 、Y2 、R2 、G2 、B2 ) で表される。
For example, as shown in FIG. 5, the three vertices S 0 of the triangle for which all the coordinate values of the three vertices and the drawing color are obtained,
The coordinate values and drawing colors of S 1 and S 2 are S 0 (X 0 , Y 0 , R 0 , G 0 , B 0 ) S 1 (X 1 , Y 1 , R 1 , G 1 , B 1 ) S represented by 2 (X 2, Y 2, R 2, G 2, B 2).

【0050】先ず、これら3頂点S0 、S1 、S2 で囲
まれる三角形を水平方向にスライスする。このときにラ
スタ線n本分スライスされた線分ABの両端の境界点
A、Bの座標値及び描画色を内挿により求める。上記境
界点A、Bの座標は、 A(XA 、YA 、RA 、GA 、BA ) B(XB 、YB 、RB 、GB 、BB ) で表されるとすると、この境界点Aの座標値及び描画色
は、以下の(6)、(7)、(8)、(9)、(10)
式で算出される。 XA =X0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+X1 ×n/(Y1 −Y0 ) ・・・(6) YA =Y0 +n ・・・(7) RA =R0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+R1 ×n/(Y1 −Y0 ) ・・・(8) GA =G0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+G1 ×n/(Y1 −Y0 ) ・・・(9) BA =B0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+B1 ×n/(Y1 −Y0 ) ・・・(10)
First, the triangle surrounded by these three vertices S 0 , S 1 and S 2 is sliced in the horizontal direction. At this time, the coordinate values of the boundary points A and B at both ends of the line segment AB sliced by n raster lines and the drawing color are obtained by interpolation. The coordinates of the boundary points A and B are represented by A (X A , Y A , RA , G A , B A ) B (X B , Y B , R B , G B , B B ) The coordinate value and drawing color of the boundary point A are as follows (6), (7), (8), (9), (10)
It is calculated by the formula. X A = X 0 × (Y 1 -Y 0 -n) / (Y 1 -Y 0) + X 1 × n / (Y 1 -Y 0) ··· (6) Y A = Y 0 + n ··· (7) RA = R 0 × (Y 1 −Y 0 −n) / (Y 1 −Y 0 ) + R 1 × n / (Y 1 −Y 0 ) ... (8) G A = G 0 × (Y 1 -Y 0 -n) / (Y 1 -Y 0) + G 1 × n / (Y 1 -Y 0) ··· (9) B A = B 0 × (Y 1 -Y 0 -n) / (Y 1 −Y 0 ) + B 1 × n / (Y 1 −Y 0 ) ... (10)

【0051】また、境界点Bの座標値及び描画色は、以
下の(11)、(12)、(13)、(14)、(1
5)式で算出される。 XB =X0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+X2 ×n/(Y2 −Y0 ) ・・・(11) YB =Y0 +n ・・・(12) RB =R0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+R2 ×n/(Y2 −Y0 ) ・・・(13) GB =G0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+G2 ×n/(Y2 −Y0 ) ・・・(14) BB =B0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+B2 ×n/(Y2 −Y0 ) ・・・(15)
The coordinate value and drawing color of the boundary point B are (11), (12), (13), (14) and (1) below.
It is calculated by the equation (5). X B = X 0 × (Y 2 -Y 0 -n) / (Y 2 -Y 0) + X 2 × n / (Y 2 -Y 0) ··· (11) Y B = Y 0 + n ··· (12) R B = R 0 × (Y 2 -Y 0 -n) / (Y 2 -Y 0) + R 2 × n / (Y 2 -Y 0) ··· (13) G B = G 0 × (Y 2 -Y 0 -n) / (Y 2 -Y 0) + G 2 × n / (Y 2 -Y 0) ··· (14) B B = B 0 × (Y 2 -Y 0 -n) / (Y 2 −Y 0 ) + B 2 × n / (Y 2 −Y 0 ) ... (15)

【0052】さらに、上記境界点AとBとを結んだ線分
ABを境界点A側から値mだけ境界点B側に移動させた
中間点Pの座標値と描画色とを線分ABの両端の境界点
A、Bから内挿によって求める。この中間点Pの座標値
及び描画色は、 P(XP 、YP 、RP 、GP 、BP ) で表され、以下の(16)、(17)、(18)、(1
9)、(20)式より算出される。 XP =XA +m ・・・(16) YP =YA ・・・(17) RP =RA ×(XB −XA −m)/(XB −XA )+RB ×m/(XB −XA ) ・・・(18) GP =GA ×(XB −XA −m)/(XB −XA )+GB ×m/(XB −XA ) ・・・(19) BP =BA ×(XB −XA −m)/(XB −XA )+BB ×m/(XB −XA ) ・・・(20)
Furthermore, the line segment AB connecting the boundary points A and B is moved from the boundary point A side to the boundary point B side by a value m, and the coordinate value of the intermediate point P and the drawing color of the line segment AB. Interpolation is performed from the boundary points A and B at both ends. The coordinate value of the intermediate point P and the drawing color are represented by P (X P , Y P , R P , G P , B P ) and the following (16), (17), (18), (1
It is calculated from the equations (9) and (20). X P = X A + m ··· (16) Y P = Y A ··· (17) R P = R A × (X B -X A -m) / (X B -X A) + R B × m / (X B -X A) ··· (18) G P = G A × (X B -X A -m) / (X B -X A) + G B × m / (X B -X A) · ·· (19) B P = B A × (X B -X A -m) / (X B -X A) + B B × m / (X B -X A) ··· (20)

【0053】このように求められた中間点Pの座標値が
示す図2のビデオメモリ5内の表示領域51上に、上記
求められた中間点Pの画素値(RP 、GP 、BP )を書
き込む。
[0053] On the display area 51 of the video memory 5 of FIG. 2 indicated by the coordinate value of the thus determined was intermediate point P, the the obtained pixel value of the intermediate point P (R P, G P, B P ) Write.

【0054】次に、図4のステップSP5では、全ての
三角形について、三角形内の座標値及びこの座標値の描
画色を求め、この三角形内の描画色を図2のビデオメモ
リ5内の表示領域51上に書き込む操作を行ったか否か
を判別する。上記操作を全ての三角形について行ったな
らば、図2の表示領域51の画像は、図2のグラフィッ
クプロセッサ6により3次元の画像VD1 として出力さ
れる。しかし、上記操作が全ての三角形について行われ
ていなければステップSP1に戻り、さらに、中間点の
描画色が求められていない三角形について3頂点の座標
位置を求めるための情報を図2のメインメモリ2内から
読み出し、この三角形の中間点の描画色を算出する。
Next, in step SP5 of FIG. 4, for all triangles, the coordinate value within the triangle and the drawing color of this coordinate value are obtained, and the drawing color within this triangle is displayed in the display area in the video memory 5 of FIG. It is determined whether or not an operation of writing on 51 is performed. If the above operation is performed for all triangles, the image in the display area 51 of FIG. 2 is output as the three-dimensional image VD 1 by the graphic processor 6 of FIG. However, if the above operation is not performed for all the triangles, the process returns to step SP1 and, further, the information for determining the coordinate positions of the three vertices of the triangle for which the drawing color of the intermediate point is not obtained is stored in the main memory 2 of FIG. The drawing color is read from inside and the drawing color at the intermediate point of this triangle is calculated.

【0055】次に、本発明の第2の実施例であるテクス
チャマッピング方法により3次元画像を表示するときの
手順を図6のフローチャートに示す。
Next, the procedure for displaying a three-dimensional image by the texture mapping method according to the second embodiment of the present invention is shown in the flowchart of FIG.

【0056】先ず、図6のステップSP11では、上記
メインメモリ2内に記憶されている、オブジェクト座標
系で表される微小な三角形の頂点座標V、上記オブジェ
クト座標系で表された頂点座標Vを世界座標系に変換す
るための座標変換マトリックスR、平行移動ベクトル
T、上記世界座標系で表された頂点座標をスクリーン座
標系で表す視線ベクトル、法線ベクトルN、及び元の画
像の記憶領域の頂点座標等の各種情報から必要な情報が
図1に示すCPU1によって順次読み出され、これらの
情報はグラフィックプロセッサ6に送られる。
First, in step SP11 of FIG. 6, the vertex coordinates V of a minute triangle represented by the object coordinate system and the vertex coordinates V represented by the object coordinate system stored in the main memory 2 are set. A coordinate transformation matrix R for transforming into the world coordinate system, a translation vector T, a line-of-sight vector representing the vertex coordinates represented in the world coordinate system in the screen coordinate system, a normal vector N, and the storage area of the original image. Necessary information is sequentially read by the CPU 1 shown in FIG. 1 from various information such as vertex coordinates, and these pieces of information are sent to the graphic processor 6.

【0057】次に、図6のステップSP12では、上記
読み出された1つの三角形の情報を用いて、上記三角形
の頂点の座標値及び輝度データを算出する。
Next, in step SP12 of FIG. 6, the coordinate value and the brightness data of the vertices of the triangle are calculated using the information of the read one triangle.

【0058】先ず、上記グラフィックプロセッサ6内の
ジェオメトリプロセッサ61において、3次元で表示さ
れている上記頂点座標Vが上記座標変換マトリックスR
及び平行移動ベクトルTより、上記(1)式に示す2次
元表示の座標Sに変換された後、上記座標Sは上記
(2)、(3)式より透視変換され、画面上の座標
(X、Y)として表現される。
First, in the geometry processor 61 in the graphic processor 6, the vertex coordinates V displayed three-dimensionally are converted into the coordinate conversion matrix R.
And the translation vector T are converted into the coordinates S of the two-dimensional display shown in the equation (1), the coordinates S are perspective-transformed from the equations (2) and (3), and the coordinates (X , Y).

【0059】また、面の法線ベクトルNは、上記座標変
換マトリックスRを用いて上記(4)式に示す頂点の法
線ベクトルPに変換される。ここで、上記(4)式に示
す頂点の法線ベクトルP及び光源ベクトルLの内積によ
り、各頂点のライティング量lは以下の(21)式で示
される。 l=(P×L) ・・・(21)
Further, the normal vector N of the surface is converted into the normal vector P of the apex shown in the equation (4) using the coordinate conversion matrix R. Here, the lighting amount l of each vertex is expressed by the following equation (21) by the inner product of the vertex normal vector P and the light source vector L shown in the equation (4). l = (P × L) (21)

【0060】図6のステップSP13では、上記ジェオ
メトリプロセッサ61において、1つの三角形の3頂点
の座標値及び輝度データが求められたか否かを判別す
る。これにより、3頂点の全ての座標値及び輝度データ
が求められてない場合にはステップSP12に戻り、未
だ求められていない三角形の頂点の座標値及び輝度デー
タを求める。また、3頂点の全ての座標値及び輝度デー
タが求められた場合にはステップSP14に進み、上記
グラフィックプロセッサ6内のラスタプロセッサ62に
おいて、図3に示すテクスチャ画像52上の三角形内の
中間点の全てのテクスチャ座標値を求め、このテクスチ
ャ座標値に対応する表示領域51上の座標値が示す輝度
データを、上記テクスチャ座標の示す画素の画素データ
にかけ、これにより得られた値を上記表示領域51上の
座標値に書き込む。
In step SP13 of FIG. 6, it is determined whether or not the geometry processor 61 has obtained the coordinate values and the brightness data of the three vertices of one triangle. As a result, if all the coordinate values and the brightness data of the three vertices have not been calculated, the process returns to step SP12, and the coordinate values and the brightness data of the vertices of the triangle that have not been calculated yet are calculated. When all the coordinate values and the brightness data of the three vertices are obtained, the process proceeds to step SP14, where the raster processor 62 in the graphic processor 6 determines the intermediate point in the triangle on the texture image 52 shown in FIG. All texture coordinate values are obtained, the brightness data indicated by the coordinate values on the display area 51 corresponding to the texture coordinate values are applied to the pixel data of the pixel indicated by the texture coordinates, and the value obtained by this is applied to the display area 51. Write in the coordinate values above.

【0061】ここで、上記対象物体の画像上に貼付する
ためのテクスチャ画像52上の画像の1つの三角形の3
頂点T0 、T1 、T2 の座標値を、図7に示すように、 T0 (U0 、V0 ) T1 (U1 、V1 ) T2 (U2 、V2 ) と表し、この点T0 と点T1 との境界点C、点T0 と点
2 との境界点D、及び上記境界点Cと境界点Dとを結
んだ線分CDの中間点Qの各点の座標値を、 C(UC 、VC ) D(UD 、VD ) Q(UQ 、VQ ) と表す。
Here, 3 of one triangle of the image on the texture image 52 to be pasted on the image of the target object.
The coordinate values of the vertices T 0 , T 1 , T 2 are represented as T 0 (U 0 , V 0 ) T 1 (U 1 , V 1 ) T 2 (U 2 , V 2 ), as shown in FIG. 7. each of the boundary point C, the point T 0 and the boundary point D between the point T 2, and the intermediate point Q of the line segment CD of connecting the said boundary point C and the boundary points D between T 0 and the point T 1 this point the coordinates of the point, expressed as C (U C, V C) D (U D, V D) Q (U Q, V Q).

【0062】上記テクスチャ画像52上の三角形の3頂
点は、対象物体を表す画像上の三角形の3頂点に対応し
ているため、上記対象物体を表す画像上の三角形の3頂
点の座標値、輝度データ、及びテクスチャ画像52上の
画像の座標値であるテクスチャ座標は、図8に示すよう
に、 S0 (X0 、Y0 、L0 、U0 、V0 ) S1 (X1 、Y1 、L1 、U1 、V1 ) S2 (X2 、Y2 、L2 、U2 、V2 ) で表される。
Since the three vertices of the triangle on the texture image 52 correspond to the three vertices of the triangle on the image representing the target object, the coordinate values and brightness of the three vertices of the triangle on the image representing the target object are described. As shown in FIG. 8, the data and the texture coordinates that are the coordinate values of the image on the texture image 52 are: S 0 (X 0 , Y 0 , L 0 , U 0 , V 0 ) S 1 (X 1 , Y It is represented by 1 , L 1 , U 1 , V 1 ) S 2 (X 2 , Y 2 , L 2 , U 2 , V 2 ).

【0063】先ず、これら3頂点S0 、S1 、S2 で囲
まれる三角形を水平方向にスライスする。このときにラ
スタ線n本分スライスされた線分ABの両端の境界点
A、Bの座標値、輝度データ、及びテクスチャ座標を内
挿により求める。
First, the triangle surrounded by these three vertices S 0 , S 1 and S 2 is sliced in the horizontal direction. At this time, the coordinate values of the boundary points A and B at both ends of the line segment AB sliced by n raster lines, the brightness data, and the texture coordinates are obtained by interpolation.

【0064】上記境界点A、Bの座標は、 A(XA 、YA 、LA ) B(XA 、YA 、LA ) で表される。The coordinates of the boundary points A and B are represented by A (X A , Y A , L A ) B (X A , Y A , L A ).

【0065】よって、上記境界点Aの座標値、輝度デー
タ、及び境界点Aのテクスチャ座標を示す境界点Aに対
応する境界点Cの座標は、以下の(22)、(23)、
(24)、(25)、(26)式で算出される。 XA =X0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+X1 ×n/(Y1 −Y0 ) ・・・(22) YA =Y0 +n ・・・(23) LA =L0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+L1 ×n/(Y1 −Y0 ) ・・・(24) CU =U0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+U1 ×n/(Y1 −Y0 ) ・・・(25) CV =V0 ×(Y1 −Y0 −n)/(Y1 −Y0 )+V1 ×n/(Y1 −Y0 ) ・・・(26)
Therefore, the coordinates of the boundary point A corresponding to the boundary point A indicating the coordinate value of the boundary point A, the brightness data, and the texture coordinates of the boundary point A are as follows (22), (23),
It is calculated by the equations (24), (25), and (26). X A = X 0 × (Y 1 -Y 0 -n) / (Y 1 -Y 0) + X 1 × n / (Y 1 -Y 0) ··· (22) Y A = Y 0 + n ··· (23) L A = L 0 × (Y 1 -Y 0 -n) / (Y 1 -Y 0) + L 1 × n / (Y 1 -Y 0) ··· (24) C U = U 0 × (Y 1 -Y 0 -n) / (Y 1 -Y 0) + U 1 × n / (Y 1 -Y 0) ··· (25) C V = V 0 × (Y 1 -Y 0 -n) / (Y 1 −Y 0 ) + V 1 × n / (Y 1 −Y 0 ) ... (26)

【0066】また、上記境界点Bの座標値、輝度デー
タ、及び境界点Bのテクスチャ座標を示す境界点Bに対
応する境界点Dの座標は、以下の(27)、(28)、
(29)、(30)、(31)式で算出される。 XB =X0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+X2 ×n/(Y2 −Y0 ) ・・・(27) YB =Y0 +n ・・・(28) LB =L0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+L2 ×n/(Y2 −Y0 ) ・・・(29) DU =U0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+U2 ×n/(Y2 −Y0 ) ・・・(30) DV =V0 ×(Y2 −Y0 −n)/(Y2 −Y0 )+V2 ×n/(Y2 −Y0 ) ・・・(31)
The coordinates of the boundary point D corresponding to the boundary point B indicating the coordinate value of the boundary point B, the brightness data, and the texture coordinates of the boundary point B are as follows (27), (28),
It is calculated by the equations (29), (30) and (31). X B = X 0 × (Y 2 -Y 0 -n) / (Y 2 -Y 0) + X 2 × n / (Y 2 -Y 0) ··· (27) Y B = Y 0 + n ··· (28) L B = L 0 × (Y 2 -Y 0 -n) / (Y 2 -Y 0) + L 2 × n / (Y 2 -Y 0) ··· (29) D U = U 0 × (Y 2 -Y 0 -n) / (Y 2 -Y 0) + U 2 × n / (Y 2 -Y 0) ··· (30) D V = V 0 × (Y 2 -Y 0 -n) / (Y 2 −Y 0 ) + V 2 × n / (Y 2 −Y 0 ) ... (31)

【0067】さらに、上記境界点Aと境界点Bとを繋い
だ線分ABを、境界点A側から値mだけ境界点B側に移
動させた中間点Pの座標値、輝度データ、及びテクスチ
ャ座標を線分ABの両端の境界点A、Bから内挿によっ
て求める。この中間点Pの座標を、 P(XP 、YP 、LP ) とすると、この中間点Pの座標値、輝度データ、及び中
間点Pのテクスチャ座標を示す中間点Pに対応する中間
点Qの座標は、以下の(32)、(33)、(34)、
(35)、(36)式より算出される。 XP =XA +m ・・・(32) YP =YA ・・・(33) LP =LA ×(XB −XA −m)/(XB −XA )+LB ×m/(XB −XA ) ・・・(34) QU =UC ×(XB −XA −m)/(XB −XA )+UD ×m/(XB −XA ) ・・・(35) QV =VC ×(XB −XA −m)/(XB −XA )+VD ×m/(XB −XA ) ・・・(36)
Further, the line segment AB connecting the boundary point A and the boundary point B is moved from the boundary point A side to the boundary point B side by the value m, the coordinate value of the intermediate point P, the brightness data, and the texture. Coordinates are obtained from the boundary points A and B at both ends of the line segment AB by interpolation. Letting P (X P , Y P , L P ) be the coordinates of the intermediate point P, the intermediate point corresponding to the intermediate point P indicating the coordinate value of the intermediate point P, the brightness data, and the texture coordinates of the intermediate point P. The coordinates of Q are (32), (33), (34),
It is calculated from equations (35) and (36). X P = X A + m ··· (32) Y P = Y A ··· (33) L P = L A × (X B -X A -m) / (X B -X A) + L B × m / (X B -X A) ··· (34) Q U = U C × (X B -X A -m) / (X B -X A) + U D × m / (X B -X A) · ·· (35) Q V = V C × (X B -X A -m) / (X B -X A) + V D × m / (X B -X A) ··· (36)

【0068】上記求められた中間点Pのテクスチャ座標
が示す図3のビデオメモリ5内のテクスチャ画像52上
の画素から画素データを読み出し、この画素データに上
記輝度データをかけた値を、表示領域51上の上記中間
点Pの座標値が示す位置に書き込む。
Pixel data is read from the pixel on the texture image 52 in the video memory 5 of FIG. 3 indicated by the obtained texture coordinates of the intermediate point P, and the value obtained by multiplying the pixel data by the above luminance data is displayed. It writes in the position which the coordinate value of the said intermediate point P on 51 shows.

【0069】次に、図6のステップSP15では、上記
対象物体を表す全ての三角形について、三角形内の座標
値及び輝度データを求め、この三角形内の輝度データを
図3のビデオメモリ5内の表示領域51上に書き込む操
作を行ったか否かを判別する。上記操作を全ての三角形
について行ったならば、図3の表示領域51の画像は上
記グラフィックプロセッサ6により3次元の画像VD2
として出力される。しかし、上記操作が全ての三角形に
ついて行われていなければステップSP11に戻り、さ
らに、中間点の輝度データが求められていない三角形の
3頂点の座標値及び輝度データを求めるための情報を上
記メインメモリ2内から読み出し、この三角形の中間点
の輝度データを算出する。
Next, in step SP15 of FIG. 6, for all triangles representing the target object, coordinate values and brightness data in the triangles are obtained, and the brightness data in the triangles are displayed in the video memory 5 in FIG. It is determined whether or not a writing operation has been performed on the area 51. If the above operation is performed for all triangles, the image in the display area 51 in FIG. 3 is converted into a three-dimensional image VD 2 by the graphic processor 6.
Is output as. However, if the above operation has not been performed for all the triangles, the process returns to step SP11, and further, information for obtaining the coordinate values of the three vertices of the triangles for which the brightness data of the intermediate points has not been calculated and the brightness data is provided to the main memory. Then, the brightness data at the midpoint of this triangle is calculated.

【0070】このように、3次元画像を表示する中間点
P及び中間点Qはビデオメモリ5上の画素に一致してい
るとは限らないため、上記中間点P、Qを求めるための
境界点を内挿することにより上記中間点P、Qを求めて
いる。従って、本発明の画像作成方法を用いた家庭用ゲ
ーム機においては、従来のコンピュータグラフィックに
よる3次元画像の表示よりも多少精度は劣化するが、家
庭用ゲーム機としては精度が良く、高速度な3次元画像
を簡易に表示することができる。
As described above, since the intermediate points P and Q for displaying the three-dimensional image do not always coincide with the pixels on the video memory 5, the boundary points for obtaining the intermediate points P and Q are determined. To obtain the intermediate points P and Q. Therefore, the home game machine using the image creating method of the present invention is slightly less accurate than the conventional three-dimensional image display by computer graphics, but the home game machine has good accuracy and high speed. It is possible to easily display a three-dimensional image.

【0071】上述した2つの実施例による3次元画像の
作成方法は場合に応じて使い分けることが可能である。
例えば、3次元画像である物体の形状がゲーム中で重要
な場合には第1の実施例のシェーディング方法により画
像を描写し、対象物体自体よりも対象物体の表面の模様
が重要な場合には第2の実施例のテクスチャマッピング
方法により画像を描写することが考えられる。
The three-dimensional image creating methods according to the above-described two embodiments can be used properly according to the case.
For example, when the shape of the object which is a three-dimensional image is important in the game, the image is drawn by the shading method of the first embodiment, and when the surface pattern of the target object is more important than the target object itself. It is conceivable to render an image by the texture mapping method of the second embodiment.

【0072】次に、上述した画像作成方法及び画像作成
装置を用いた本発明に係る家庭用ゲーム機について以下
に説明する。図9は本発明の家庭用ゲーム機の一実施例
の概略的な構成を示す図である。この家庭用ゲーム機に
は、外部記憶媒体であるコンパクトディスクを用いた読
み出し専用メモリであるいわゆるCD−ROM11、フ
ラッシュメモリ等の不揮発性メモリを用いたメモリカー
ド16、及びROMカートリッジ等にゲームプログラム
が記憶される。また、ゲームプログラムは外部ネットワ
ークから受信することもできる。
Next, a home-use game machine according to the present invention using the above-described image creating method and image creating apparatus will be described below. FIG. 9 is a diagram showing a schematic configuration of an embodiment of the home-use game machine of the present invention. In this home-use game machine, a game program is stored in a so-called CD-ROM 11 that is a read-only memory that uses a compact disk that is an external storage medium, a memory card 16 that uses a nonvolatile memory such as a flash memory, and a ROM cartridge. Remembered. The game program can also be received from an external network.

【0073】マイクロプロセッサ等から成るCPU1の
制御により、外部記憶インターフェイス10に接続され
た上記CD−ROM11又はメモリカード16、あるい
は通信インターフェイス12に接続された外部ネットワ
ークからゲームプログラム及び3次元画像の情報が入力
される。このゲームプログラム及び3次元画像の情報は
メインバス9を介してメインメモリ2内に記憶される。
また、入力パッドやジョイスティック等の入力デバイス
であるコントローラ14から入力される操作情報は、入
力インターフェイス13からメインバス9を介して上記
CPU1に取り出される。この取り出された操作情報に
基づいて、上記メインメモリ2に記憶されている3次元
画像の情報がグラフィックプロセッサ6で変換され、画
像データが生成される。さらに、上記グラフィックプロ
セッサ6により上記画像データを用いてビデオメモリ5
上に3次元画像が描かれる。このビデオメモリ5上に描
かれた3次元画像データはビデオ信号のスキャン時に読
み出されて、モニタ等の表示装置15上に3次元画像が
表示される。
Under the control of the CPU 1 composed of a microprocessor or the like, the information of the game program and the three-dimensional image is transmitted from the CD-ROM 11 or the memory card 16 connected to the external storage interface 10 or the external network connected to the communication interface 12. Is entered. Information on the game program and the three-dimensional image is stored in the main memory 2 via the main bus 9.
The operation information input from the controller 14, which is an input device such as an input pad or a joystick, is taken out from the input interface 13 to the CPU 1 via the main bus 9. Based on the extracted operation information, the three-dimensional image information stored in the main memory 2 is converted by the graphic processor 6 to generate image data. Further, the graphic processor 6 uses the image data to generate a video memory 5.
A three-dimensional image is drawn on the top. The three-dimensional image data drawn on the video memory 5 is read when the video signal is scanned, and the three-dimensional image is displayed on the display device 15 such as a monitor.

【0074】上述のように3次元画像を表示すると同時
に、上記CPU1によって取り出された操作情報中の上
記表示された3次元画像に対応する音声情報がオーディ
オプロセッサ7に送られる。上記オーディオプロセッサ
7は、この送られた音声情報に基づいてオーディオメモ
リ8内に記憶されている音声データを出力する。
Simultaneously with displaying the three-dimensional image as described above, the audio information corresponding to the displayed three-dimensional image in the operation information retrieved by the CPU 1 is sent to the audio processor 7. The audio processor 7 outputs the audio data stored in the audio memory 8 based on the sent audio information.

【0075】図10には、本実施例の家庭用ゲーム機に
より実際にゲームを開始するときの動作の手順を示すフ
ローチャートを示す。ここでは、上述した第2の実施例
のテクスチャマッピング方法を用いて、例えばドライブ
ゲームを行うものとする。このドライブゲームは、具体
的には、ある地形の上に造られた道路を建物等の障害物
を避けながら車を運転していくゲームである。
FIG. 10 is a flow chart showing the procedure of the operation when the game is actually started by the home-use game machine of this embodiment. Here, for example, a drive game is played using the texture mapping method of the second embodiment described above. Specifically, this drive game is a game in which a vehicle is driven on a road built on a certain terrain while avoiding obstacles such as buildings.

【0076】先ず、図10のステップSP21では上記
CD−ROM11やメモリカード16等の外部記憶媒体
を上記外部記憶インターフェイス10を介して家庭用ゲ
ーム機本体にマウントしたり、上記通信インターフェイ
ス12を介して外部ネットワークを接続したりする。次
に、ゲームプログラム、関数、ライブラリ、及び画像情
報等の必要な情報を上記CD−ROM11、メモリカー
ド16、あるいは外部ネットワークから上記メインメモ
リ2に取り出して格納、いわゆるロードする。このと
き、画像情報として、地形データ、建物データ、道路デ
ータ及びテクスチャデータがロードされる。この後、上
記テクスチャデータは上記メインメモリ2からビデオメ
モリ5内の空き領域に転送される。また、上記テクスチ
ャデータは上記メインメモリ2を介さずに、上記CD−
ROM11、メモリカード16、あるいは外部ネットワ
ークから上記ビデオメモリ5内の空き領域に直接にロー
ドされる場合もある。
First, in step SP21 of FIG. 10, an external storage medium such as the CD-ROM 11 or the memory card 16 is mounted on the main body of the home game machine via the external storage interface 10 or via the communication interface 12. Connect to an external network. Next, necessary information such as a game program, a function, a library, and image information is taken out from the CD-ROM 11, the memory card 16 or an external network and stored in the main memory 2, so-called loading. At this time, topographical data, building data, road data and texture data are loaded as image information. After that, the texture data is transferred from the main memory 2 to an empty area in the video memory 5. Further, the texture data does not pass through the main memory 2 but the CD-
In some cases, it may be directly loaded from the ROM 11, the memory card 16 or an external network to the empty area in the video memory 5.

【0077】次に、ステップSP22に進み、上記外部
記憶媒体や外部ネットワーク内には複数のゲームが存在
している可能性があるので、これら複数のゲーム中から
1つのゲームを選択し、さらに、この選択されたゲーム
の実行モードを選択する。この動作は、上記メインメモ
リ2内に格納された変数や上記CPU1内の設定された
レジスタの値によって行われる。
Next, in step SP22, there is a possibility that a plurality of games exist in the external storage medium or the external network. Therefore, one game is selected from the plurality of games, and further, The execution mode of this selected game is selected. This operation is performed by the variable stored in the main memory 2 or the value of the register set in the CPU 1.

【0078】この後、ステップSP23で、上記CPU
1の制御によりゲームプログラムが実行され、ゲームが
開始される。
Thereafter, in step SP23, the CPU
By the control of 1, the game program is executed and the game is started.

【0079】これにより、ゲームの開始状態を表す画
面、即ち初期画面がステップSP24において作成さ
れ、表示される。具体的には、図11に示す画面が表示
される。この画面は以下の手順で作成される。
As a result, a screen showing the start state of the game, that is, an initial screen is created and displayed in step SP24. Specifically, the screen shown in FIG. 11 is displayed. This screen is created by the following procedure.

【0080】画面は遠方の絵から順次作成され、表示さ
れるので、最初は一番奥の絵である空20が表示され
る。このとき、上記CPU1により上記メインメモリ2
から空20の色データが読み出され、画面の四隅の頂点
座標と空20の色データとが上記グラフィックプロセッ
サ6内のラスタプロセッサ62に出力される。このラス
タプロセッサ62は上記ビデオメモリ5上に空20の色
の微小な多角形領域、いわゆるポリゴンを表示装置15
上に描画する。
Since the screen is sequentially created and displayed from a distant picture, the sky 20 which is the innermost picture is initially displayed. At this time, the CPU 1 causes the main memory 2 to operate.
The color data of the sky 20 is read from, and the vertex coordinates of the four corners of the screen and the color data of the sky 20 are output to the raster processor 62 in the graphic processor 6. The raster processor 62 displays a minute polygonal area of the color of the sky 20, a so-called polygon, on the video memory 5 on the display device 15.
Draw on top.

【0081】次に、地形21が表示される。上記CPU
1により、地形21を構成するポリゴンの3次元の頂点
座標が上記メインメモリ2から読み出され、ジェオメト
リプロセッサ61に出力される。このジェオメトリプロ
セッサ61では入力されたポリゴンの3次元の頂点座標
の座標変換及び透視変換を行って2次元座標値を算出
し、さらに、この2次元座標値に対応するテクスチャ座
標値を求める。このテクスチャ座標値は上記ラスタプロ
セッサ62に出力される。このラスタプロセッサ62で
は上記ビデオメモリ5内に格納されているテクスチャデ
ータから上記入力されたテクスチャ座標値に従ったテク
スチャデータを読み出し、このテクスチャデータを2次
元の頂点座標で与えられたポリゴンに合わせて変形して
上記ビデオメモリ5上に書き込む。これらの処理を上記
地形21を構成する全てのポリゴンについて行うことに
より、上記地形21全体が表示装置15上に表示され
る。
Next, the terrain 21 is displayed. CPU above
1, the three-dimensional vertex coordinates of the polygons forming the terrain 21 are read from the main memory 2 and output to the geometry processor 61. The geometry processor 61 performs coordinate transformation and perspective transformation of the three-dimensional vertex coordinates of the input polygon to calculate two-dimensional coordinate values, and further obtains texture coordinate values corresponding to these two-dimensional coordinate values. This texture coordinate value is output to the raster processor 62. The raster processor 62 reads the texture data according to the input texture coordinate value from the texture data stored in the video memory 5, and matches this texture data with the polygon given by the two-dimensional vertex coordinates. It is transformed and written on the video memory 5. By performing these processes for all the polygons forming the terrain 21, the terrain 21 as a whole is displayed on the display device 15.

【0082】このように、図3、図6、図7及び図8を
用いて説明したように、ポリゴンの各頂点の座標値及び
輝度データを求めた後にテクスチャ座標値を算出し、こ
のテクスチャ座標値に対応する画素データであるテクス
チャデータを書き込むテクスチャマッピング方法を用い
ることにより、3次元画像が表示される。
As described above with reference to FIGS. 3, 6, 7 and 8, the texture coordinate value is calculated after obtaining the coordinate value and the brightness data of each vertex of the polygon, and the texture coordinate value is calculated. A three-dimensional image is displayed by using a texture mapping method that writes texture data that is pixel data corresponding to a value.

【0083】さらに、道路22及び建物23がテクスチ
ャデータを使っている場合には上記地形21の処理と同
様の処理を行うことにより、上記道路22及び建物23
が表示装置15上に表示される。また、上記道路22及
び建物23がテクスチャデータを使っていない場合に
は、上記道路22及び建物23を構成しているポリゴン
のそれぞれに与えられている色データを上記メインメモ
リ2から読み出し、上記テクスチャデータの代わりにこ
の色データを用いて上記地形21の処理と同様の処理を
行うことにより、上記道路22及び建物23が表示装置
15上に表示される。
Further, when the road 22 and the building 23 use texture data, the same processing as the processing of the terrain 21 is performed so that the road 22 and the building 23 are processed.
Is displayed on the display device 15. When the road 22 and the building 23 do not use texture data, the color data given to each of the polygons forming the road 22 and the building 23 is read from the main memory 2 and the texture is read. The road 22 and the building 23 are displayed on the display device 15 by performing the same process as the process of the terrain 21 using the color data instead of the data.

【0084】上述の処理によって画面が表示されたなら
ばステップSP25に進んで、ゲームコントローラやゲ
ームパッド等のコントローラ14に備えられたボタンや
レバー等がこのゲームの操作者によって操作されるまで
待機する。上記コントローラ14が操作されたときに
は、上記CPU1によって上記操作に応じたデータが入
力インターフェイス13を介して取り込まれ、このデー
タに従ってゲームが進行される。例えば、このゲームで
は、上記コントローラ14から運転している車のスピー
ドや方向が入力されるので、この入力データに従って表
示される地形21、道路22及び建物23の位置や方向
が変えられる。これらの変化は上記メインメモリ2に格
納された変数や上記CPU1内のレジスタの値を変更す
ることで実現される。
When the screen is displayed by the above processing, the process proceeds to step SP25, and waits until the button or lever provided on the controller 14 such as the game controller or the game pad is operated by the operator of this game. . When the controller 14 is operated, data corresponding to the operation is fetched by the CPU 1 via the input interface 13, and the game is progressed according to this data. For example, in this game, since the speed and direction of the driving vehicle are input from the controller 14, the positions and directions of the terrain 21, road 22 and building 23 displayed according to the input data can be changed. These changes are realized by changing the variables stored in the main memory 2 or the values of the registers in the CPU 1.

【0085】さらに、ステップSP26において、ゲー
ムの進行と共に、上記コントローラ14の操作により入
力されるデータに応じた変化を受けた画面を順次上述の
方法で作成し、表示する。また、オーディオプロセッサ
7はオーディオメモリ8からゲームの進行に合わせた音
声データを取り出して出力する。
Further, in step SP26, as the game progresses, screens that have undergone changes in accordance with the data input by the operation of the controller 14 are sequentially created and displayed by the above method. Further, the audio processor 7 takes out the audio data according to the progress of the game from the audio memory 8 and outputs it.

【0086】この後、ゲームの進行状態や操作者の希望
によっては、ステップSP27において、ゲームを終了
させるか否かを判定する。もし、ゲームを終了しない場
合にはステップSP25に戻って、上記コントローラ1
4から次の操作が入力されるのを待つ。また、ゲームを
終了する場合には、不揮発性のメモリ等の記憶手段にゲ
ームの進行状況を記憶した後にゲームを終了する。
Thereafter, depending on the progress of the game and the wishes of the operator, it is determined in step SP27 whether or not the game should be ended. If the game is not finished, the process returns to step SP25 and the controller 1
Wait until the next operation is input from 4. When ending the game, the game is ended after the progress of the game is stored in the storage means such as a non-volatile memory.

【0087】[0087]

【発明の効果】以上の説明からも明らかなように、本発
明に係る画像作成方法は、第1のメモリに記憶された所
望の3次元画像を表す単位となる複数の微小な多角形領
域の各頂点の座標を読み出す工程と、上記記憶された多
角形領域の各頂点の座標を変換してスクリーン上の座標
を算出し、さらに上記各頂点における色情報を求める工
程と、上記各頂点のスクリーン上の座標及び色情報を用
いて上記各頂点の間の境界点の座標及び色情報を算出
し、上記境界点の座標及び色情報を用いて上記境界点の
間の中間点の座標及び色情報を算出する工程と、第2の
メモリ内に上記算出された中間点の座標及び色情報を記
憶する工程とから成り、上記記憶された中間点の色情報
により3次元画像を表示するので、3次元画像の物体を
精確に表現することができる。
As is apparent from the above description, the image creating method according to the present invention is provided with a plurality of minute polygonal regions serving as units representing a desired three-dimensional image stored in the first memory. A step of reading the coordinates of each vertex, a step of converting the coordinates of each vertex of the stored polygonal area to calculate coordinates on the screen, and further obtaining color information at each vertex, and a screen of each vertex The coordinates and color information of the boundary points between the vertices are calculated using the above coordinates and the color information, and the coordinates and color information of the intermediate points between the boundary points are calculated using the coordinates and the color information of the boundary points. And a step of storing the coordinates and color information of the calculated intermediate point in the second memory, and a three-dimensional image is displayed by the stored color information of the intermediate point. Accurate representation of three-dimensional image objects It can be.

【0088】また、本発明に係る画像作成装置は、所望
の3次元画像を表す単位となる複数の微小な多角形領域
の各頂点の座標が記憶される第1のメモリと、上記第1
のメモリに記憶された多角形領域の各頂点の座標を変換
してスクリーン上の座標を算出し、さらに上記各頂点に
おける色情報を求めるジェオメトリプロセッサと、上記
ジェオメトリプロセッサにより算出された各頂点のスク
リーン上の座標及び色情報を用いて上記各頂点の間の境
界点の座標及び色情報を算出し、上記境界点の座標及び
色情報を用いて上記境界点の間の中間点の座標及び色情
報を算出するラスタプロセッサと、上記ラスタプロセッ
サにより算出された中間点の座標及び色情報を記憶する
第2のメモリとを有し、上記中間点の色情報を記憶する
ことにより3次元画像を表示するので、3次元画像の物
体を精確に表現することができる。
The image forming apparatus according to the present invention further comprises a first memory for storing the coordinates of the vertices of a plurality of minute polygonal areas which are units representing a desired three-dimensional image, and the first memory.
The coordinates of the vertices of the polygonal area stored in the memory are converted to calculate the coordinates on the screen, and further, a geometry processor for obtaining color information at each vertex and each vertex calculated by the geometry processor. The coordinates and color information of the boundary points between the vertices are calculated using the coordinates and the color information on the screen, and the coordinates of the intermediate points between the boundary points and the coordinates and the color information of the boundary points are calculated. A raster processor that calculates color information and a second memory that stores the coordinates and color information of the intermediate point calculated by the raster processor are provided. By storing the color information of the intermediate point, a three-dimensional image is displayed. Since it is displayed, the object of the three-dimensional image can be represented accurately.

【0089】ここで、上記第1のメモリには多角形領域
の各頂点の座標値及び色情報が記憶されているので、3
次元画像の物体を精確に表現することができる。
Here, since the coordinate value and color information of each vertex of the polygonal area are stored in the first memory, 3
It is possible to accurately represent the object of the three-dimensional image.

【0090】また、テクスチャ画像としての他の2次元
画像を変形し、上記表示された3次元画像上に貼付表示
し、このとき、上記第1のメモリには多角形領域の各頂
点の座標値及び上記他の2次元画像上の座標位置を示す
テクスチャ座標が記憶されていることにより、3次元画
像の物体を精確に表現することができる。
Further, another two-dimensional image as a texture image is transformed and pasted and displayed on the displayed three-dimensional image. At this time, the coordinate value of each vertex of the polygonal area is stored in the first memory. Since the texture coordinates indicating the coordinate position on the other two-dimensional image are stored, the object of the three-dimensional image can be represented accurately.

【0091】さらに、上記多角形領域の各頂点の内の1
つの頂点を基点としてこの頂点から水平方向にスライス
して得られた線分の両端の点を上記境界点とし、上記中
間点の色情報を内挿によって算出することにより、簡易
に3次元画像の物体を表示することができる。
Furthermore, one of the vertices of the polygon area is
By using the two vertices as base points, the points at both ends of the line segment obtained by slicing in the horizontal direction from the vertices as the boundary points, and calculating the color information of the intermediate points by interpolation, the three-dimensional image of the three-dimensional image can be easily obtained. The object can be displayed.

【0092】本発明に係る家庭用ゲーム機は、ゲームプ
ログラム及びこのゲームプログラムで使用される画像情
報が記憶される外部記憶媒体と、上記外部記憶媒体に記
憶されたゲームプログラムの画像情報中の対象物体の動
作を操作する操作手段と、上記ゲームプログラムの画像
情報を表示する表示手段と、上記画像情報中の3次元画
像の対象物体を表す単位となる複数の微小な多角形領域
の各頂点の座標が記憶される第1のメモリと、上記第1
のメモリに記憶された多角形領域の各頂点の座標を上記
操作手段からの入力に応じて変換してスクリーン上の座
標を算出し、さらに上記各頂点における色情報を求める
ジェオメトリプロセッサと、上記ジェオメトリプロセッ
サにより算出された各頂点のスクリーン上の座標及び色
情報を用いて上記各頂点の間の境界点の座標及び色情報
を算出し、上記境界点の座標及び色情報を用いて上記境
界点の間の中間点の座標及び色情報を算出するラスタプ
ロセッサと、上記ラスタプロセッサにより算出された中
間点の座標及び色情報を記憶する第2のメモリとを有
し、上記中間点の色情報を記憶することにより3次元画
像を表示するので、3次元画像の物体を精確に表現する
ことができる。
The home-use game machine according to the present invention includes an external storage medium in which a game program and image information used in the game program are stored, and a target in the image information of the game program stored in the external storage medium. Operation means for operating the motion of the object, display means for displaying the image information of the game program, and apexes of each of a plurality of minute polygonal regions serving as a unit representing the target object of the three-dimensional image in the image information. A first memory in which coordinates are stored;
A geometry processor for calculating coordinates on the screen by converting the coordinates of each vertex of the polygonal area stored in the memory in accordance with the input from the operating means, and for obtaining color information at each vertex. The coordinates and color information of the boundary points between the vertices are calculated using the on-screen coordinates and color information of the vertices calculated by the Geometry Processor, and the boundaries are calculated using the coordinates and color information of the boundary points. A raster processor for calculating coordinates and color information of an intermediate point between the points, and a second memory for storing coordinates and color information of the intermediate point calculated by the raster processor, and color information of the intermediate point. Since the three-dimensional image is displayed by storing, the object of the three-dimensional image can be represented accurately.

【0093】また、上記3次元画像の対象物体の操作に
対して、上記3次元画像の対象物体の位置及び方向を精
確に変化させることができ、上記対象物体の表現され得
る位置及び方向が限定されないので、上記対象物体に対
する操作者の視点からの画面が3次元的に連続して変化
する場合にも上記3次元的に連続した変化に精確に対応
する画面を表示することができる。
Further, the position and direction of the target object of the three-dimensional image can be changed accurately in response to the operation of the target object of the three-dimensional image, and the position and direction of the target object that can be expressed are limited. Therefore, even when the screen of the target object from the operator's viewpoint changes three-dimensionally continuously, it is possible to display the screen accurately corresponding to the three-dimensional continuous change.

【0094】さらに、3次元的な画面を表現するために
必要な画像データのデータ量は低減し、ゲームの作成時
間も減少するため、ゲームの生産性が向上し、作成され
たゲームの実行処理速度も速くなる。
Further, since the data amount of the image data necessary for expressing the three-dimensional screen is reduced and the game creation time is also reduced, the productivity of the game is improved and the execution processing of the created game is executed. The speed will also increase.

【0095】そのうえ、3次元画像の作成はビデオメモ
リへの書き込みと同時に行われるので、上記書き込まれ
た3次元画像は通常のビデオ信号のスキャン時に読み出
されるため、画像データの読み出しが簡易である。
Moreover, since the three-dimensional image is created at the same time as the writing to the video memory, the written three-dimensional image is read at the time of scanning a normal video signal, so that the reading of the image data is easy.

【0096】また、上記外部記憶媒体はCD−ROM又
はメモリカードであるので、大容量のゲームプログラム
を記憶することができ、この記憶されたゲームプログラ
ムを迅速に取り出すことができる。
Further, since the external storage medium is a CD-ROM or a memory card, a large-capacity game program can be stored, and the stored game program can be quickly taken out.

【0097】さらに、不揮発性の記憶手段を有し、上記
ゲームプログラムの終了時のゲームの進行状況を記録す
ることにより、上記ゲームプログラムを終了した直後の
状態から再びゲームを迅速に開始することができる。
Further, by having a non-volatile storage means and recording the progress of the game at the end of the game program, the game can be quickly restarted from the state immediately after the end of the game program. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像作成装置の概略的な構成を示
す図である。
FIG. 1 is a diagram showing a schematic configuration of an image creating apparatus according to the present invention.

【図2】本発明に係る画像作成方法の第1の実施例の処
理を示す図である。
FIG. 2 is a diagram showing processing of the first embodiment of the image creating method according to the present invention.

【図3】本発明に係る画像作成方法の第2の実施例の処
理を示す図である。
FIG. 3 is a diagram showing a process of a second embodiment of the image creating method according to the present invention.

【図4】本発明に係る画像作成方法の第1の実施例の処
理を示すフローチャートである。
FIG. 4 is a flowchart showing the processing of the first embodiment of the image creating method according to the present invention.

【図5】本発明に係る画像作成方法の第1の実施例によ
り求められる三角形の座標値及び描画色を示す図であ
る。
FIG. 5 is a diagram showing coordinate values and drawing color of a triangle obtained by the first embodiment of the image creating method according to the present invention.

【図6】本発明に係る画像作成方法の第2の実施例の処
理を示すフローチャートである。
FIG. 6 is a flowchart showing a process of a second embodiment of the image creating method according to the present invention.

【図7】本発明に係る画像作成方法の第2の実施例のテ
クスチャ座標を示す図である。
FIG. 7 is a diagram showing texture coordinates of a second embodiment of the image creating method according to the present invention.

【図8】本発明に係る画像作成方法の第2の実施例によ
り求められる三角形の座標値及び輝度を示す図である。
FIG. 8 is a diagram showing coordinate values and brightness of a triangle obtained by a second embodiment of the image creating method according to the present invention.

【図9】本発明に係る家庭用ゲーム機の概略的な構成を
示す図である。
FIG. 9 is a diagram showing a schematic configuration of a home-use game machine according to the present invention.

【図10】本発明に係る家庭用ゲーム機により実行され
るゲームの動作手順を示すフローチャートである。
FIG. 10 is a flowchart showing an operation procedure of a game executed by the home-use game machine according to the present invention.

【図11】図11のゲーム動作中に表示される画像の一
例を示す図である。
11 is a diagram showing an example of an image displayed during the game operation of FIG.

【図12】従来の画像作成装置の概略的な構成を示す図
である。
FIG. 12 is a diagram showing a schematic configuration of a conventional image forming apparatus.

【図13】従来の画像作成装置による画像作成方法を示
す図である。
FIG. 13 is a diagram showing an image creating method by a conventional image creating apparatus.

【符号の説明】[Explanation of symbols]

1 CPU 2 メインメモリ 3 インターフェイス 4 入力デバイス 5 ビデオメモリ 6 グラフィックプロセッサ 7 オーディオプロセッサ 8 オーディオメモリ 9 メインバス 10 外部記憶インターフェイス 11 CD−ROM 12 通信インターフェイス 13 入力インターフェイス 14 コントローラ 15 表示装置 16 メモリカード 61 ジェオメトリプロセッサ 62 ラスタプロセッサ 1 CPU 2 Main Memory 3 Interface 4 Input Device 5 Video Memory 6 Graphic Processor 7 Audio Processor 8 Audio Memory 9 Main Bus 10 External Storage Interface 11 CD-ROM 12 Communication Interface 13 Input Interface 14 Controller 15 Display Device 16 Memory Card 61 Geometry Processor 62 Raster processor

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 第1のメモリに記憶された所望の3次元
画像を表す単位となる複数の微小な多角形領域の各頂点
の座標を読み出す工程と、 上記記憶された多角形領域の各頂点の座標を変換してス
クリーン上の座標を算出し、さらに上記各頂点における
色情報を求める工程と、 上記各頂点のスクリーン上の座標及び色情報を用いて上
記各頂点の間の境界点の座標及び色情報を算出し、上記
境界点の座標及び色情報を用いて上記境界点の間の中間
点の座標及び色情報を算出する工程と、 第2のメモリ内に上記算出された中間点の座標及び色情
報を記憶する工程とから成り、 上記記憶された中間点の色情報により3次元画像を表示
することを特徴とする画像作成方法。
1. A step of reading coordinates of respective vertices of a plurality of minute polygonal regions which are units representing a desired three-dimensional image stored in a first memory, and respective vertices of the stored polygonal regions. Transforming the coordinates of the above to calculate the coordinates on the screen, and further obtaining the color information at each vertex, and the coordinates of the boundary point between each vertex using the coordinates and color information on the screen of each vertex. And calculating color information, and using the coordinates and color information of the boundary points to calculate coordinates and color information of intermediate points between the boundary points, and a step of calculating the calculated intermediate points in the second memory. And a step of storing coordinate and color information, wherein a three-dimensional image is displayed by the stored color information of the intermediate point.
【請求項2】 上記第1のメモリには多角形領域の各頂
点の座標値及び色情報が記憶されていることを特徴とす
る請求項1記載の画像作成方法。
2. The image creating method according to claim 1, wherein the first memory stores coordinate values and color information of each vertex of the polygonal area.
【請求項3】 テクスチャ画像としての他の2次元画像
を変形し、上記表示された3次元画像上に貼付表示する
ことを特徴とする請求項1記載の画像作成方法。
3. The image creating method according to claim 1, wherein another two-dimensional image serving as a texture image is transformed and pasted and displayed on the displayed three-dimensional image.
【請求項4】 上記第1のメモリには多角形領域の各頂
点の座標値及び上記他の2次元画像上の座標位置を示す
テクスチャ座標が記憶されていることを特徴とする請求
項3記載の画像作成方法。
4. The first memory stores the coordinate value of each vertex of the polygonal area and the texture coordinate indicating the coordinate position on the other two-dimensional image. Image creation method.
【請求項5】 上記多角形領域の各頂点の内の1つの頂
点を基点としてこの頂点から水平方向にスライスして得
られた線分の両端の点を上記境界点とし、上記中間点の
色情報を内挿によって算出することを特徴とする請求項
1、2又は3記載の画像作成方法。
5. The color of the intermediate point is defined by the points at both ends of a line segment obtained by slicing in the horizontal direction from one of the vertices of the polygonal area as a base point. The image creating method according to claim 1, 2 or 3, wherein the information is calculated by interpolation.
【請求項6】 3次元画像情報を用いて3次元画像を表
示する画像作成装置において、 所望の3次元画像を表す単位となる複数の微小な多角形
領域の各頂点の座標が記憶される第1のメモリと、 上記第1のメモリに記憶された多角形領域の各頂点の座
標を変換してスクリーン上の座標を算出し、さらに上記
各頂点における色情報を求めるジェオメトリプロセッサ
と、 上記ジェオメトリプロセッサにより算出された各頂点の
スクリーン上の座標及び色情報を用いて上記各頂点の間
の境界点の座標及び色情報を算出し、上記境界点の座標
及び色情報を用いて上記境界点の間の中間点の座標及び
色情報を算出するラスタプロセッサと、 上記ラスタプロセッサにより算出された中間点の座標及
び色情報を記憶する第2のメモリとを有し、 上記中間点の色情報を記憶することにより3次元画像を
表示することを特徴とする画像作成装置。
6. An image creating apparatus for displaying a three-dimensional image using three-dimensional image information, wherein coordinates of respective vertices of a plurality of minute polygonal regions which are units representing a desired three-dimensional image are stored. 1 memory, a geometry processor for converting coordinates of each vertex of the polygonal area stored in the first memory to calculate coordinates on the screen, and further obtaining color information at each vertex; The coordinates and color information of the boundary points between the vertices are calculated using the coordinates on the screen and the color information of the vertices calculated by the metric processor, and the boundary points are calculated using the coordinates and the color information of the boundary points. A raster processor for calculating coordinates and color information of an intermediate point between the two, and a second memory for storing coordinates and color information of the intermediate point calculated by the raster processor, Image creating apparatus characterized by displaying a three-dimensional image by storing the color information.
【請求項7】 上記第1のメモリには多角形領域の各頂
点の座標値及び色情報が記憶されていることを特徴とす
る請求項6記載の画像作成装置。
7. The image creating apparatus according to claim 6, wherein the first memory stores the coordinate value and color information of each vertex of the polygonal area.
【請求項8】 テクスチャ画像としての他の2次元画像
を変形し、上記表示された3次元画像上に貼付表示する
ことを特徴とする請求項6記載の画像作成装置。
8. The image creating apparatus according to claim 6, wherein another two-dimensional image as a texture image is transformed and pasted and displayed on the displayed three-dimensional image.
【請求項9】 上記第1のメモリには多角形領域の各頂
点の座標値及び上記他の2次元画像上の座標位置を示す
テクスチャ座標が記憶されていることを特徴とする請求
項8記載の画像作成装置。
9. The first memory stores the coordinate value of each vertex of the polygonal area and the texture coordinate indicating the coordinate position on the other two-dimensional image. Image creation device.
【請求項10】 上記多角形領域の各頂点の内の1つの
頂点を基点としてこの頂点から水平方向にスライスして
得られた線分の両端の点を上記境界点とし、上記中間点
の色情報を内挿によって算出することを特徴とする請求
項6、7又は8記載の画像作成装置。
10. The color of the intermediate point is defined by the points at both ends of a line segment obtained by slicing in the horizontal direction from one of the vertices of the polygonal area as a base point. 9. The image creating apparatus according to claim 6, wherein the information is calculated by interpolation.
【請求項11】 3次元画像で表示される対象物体を操
作する家庭用ゲーム機において、 ゲームプログラム及びこのゲームプログラムで使用され
る画像情報が記憶される外部記憶媒体と、 上記外部記憶媒体に記憶されたゲームプログラムの画像
情報中の対象物体の動作を操作する操作手段と、 上記ゲームプログラムの画像情報を表示する表示手段
と、 上記画像情報中の3次元画像の対象物体を表す単位とな
る複数の微小な多角形領域の各頂点の座標が記憶される
第1のメモリと、 上記第1のメモリに記憶された多角形領域の各頂点の座
標を上記操作手段からの入力に応じて変換してスクリー
ン上の座標を算出し、さらに上記各頂点における色情報
を求めるジェオメトリプロセッサと、 上記ジェオメトリプロセッサにより算出された各頂点の
スクリーン上の座標及び色情報を用いて上記各頂点の間
の境界点の座標及び色情報を算出し、上記境界点の座標
及び色情報を用いて上記境界点の間の中間点の座標及び
色情報を算出するラスタプロセッサと、 上記ラスタプロセッサにより算出された中間点の座標及
び色情報を記憶する第2のメモリとを有し、 上記中間点の色情報を記憶することにより3次元画像を
表示することを特徴とする家庭用ゲーム機。
11. In a home-use game machine for operating a target object displayed in a three-dimensional image, an external storage medium in which a game program and image information used in the game program are stored, and the external storage medium is stored. Operating means for operating the motion of the target object in the image information of the game program, display means for displaying the image information of the game program, and a plurality of units that represent the target object of the three-dimensional image in the image information. A first memory for storing the coordinates of the vertices of the minute polygonal area of, and the coordinates of the vertices of the polygonal area stored in the first memory are converted in accordance with the input from the operating means. And the coordinates on the screen are calculated, and the geometry information for calculating the color information at each vertex is calculated. The coordinates and color information of the boundary points between the vertices are calculated using the coordinates and the color information on the screen, and the coordinates and color of the intermediate points between the boundary points are calculated using the coordinates and the color information of the boundary points. A raster processor for calculating information and a second memory for storing the coordinates and color information of the intermediate point calculated by the raster processor are provided, and a three-dimensional image is displayed by storing the color information of the intermediate point. A home-use game machine characterized by:
【請求項12】 上記外部記憶媒体はCD−ROMであ
ることを特徴とする請求項11記載の家庭用ゲーム機。
12. The home-use game machine according to claim 11, wherein the external storage medium is a CD-ROM.
【請求項13】 上記外部記憶媒体はメモリカードであ
ることを特徴とする請求項11記載の家庭用ゲーム機。
13. The home-use game machine according to claim 11, wherein the external storage medium is a memory card.
【請求項14】 不揮発性の記憶手段を有し、上記ゲー
ムプログラムの終了時のゲームの進行状況を記録するこ
とを特徴とする請求項11記載の家庭用ゲーム機。
14. A home-use game machine according to claim 11, further comprising a non-volatile storage means for recording the progress of the game at the end of the game program.
JP6018228A 1993-04-15 1994-02-15 Method and device for generating picture and household game machine Pending JPH06348861A (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP6018228A JPH06348861A (en) 1993-04-15 1994-02-15 Method and device for generating picture and household game machine
CA002466377A CA2466377C (en) 1993-04-15 1994-04-11 Methods and apparatus for synthesizing a three-dimensional image signal and producing a two-dimensional visual display therefrom
CA002121005A CA2121005C (en) 1993-04-15 1994-04-11 Methods and apparatus for synthesizing a three-dimensional image signal and producing a two-dimensional visual display therefrom
TW083103170A TW244382B (en) 1993-04-15 1994-04-11
EP94302563A EP0620532B1 (en) 1993-04-15 1994-04-12 Method and apparatus for synthesizing a three-dimensional image signal and producing a two-dimensional visual display therefrom
DE69431685T DE69431685T2 (en) 1993-04-15 1994-04-12 Method and device for generating a three-dimensional image signal and its two-dimensional display
EP00200823A EP1008958B1 (en) 1993-04-15 1994-04-12 Methods and apparatus for synthesizing a three-dimensional image signal and producing a tow-dimensional visual display therefrom
DE69429205T DE69429205T2 (en) 1993-04-15 1994-04-12 Method and device for generating a three-dimensional image signal and for displaying it two-dimensionally
KR1019940007846A KR100328659B1 (en) 1993-04-15 1994-04-14 Image creating method, image creating device, and home game machine
US08/797,876 US5912671A (en) 1993-04-15 1997-02-10 Methods and apparatus for synthesizing a three-dimensional image signal and producing a two-dimensional visual display therefrom
HK00107843A HK1028664A1 (en) 1993-04-15 2000-12-06 Methods and apparatus for synthesizing a three-dimensional image signal and producing a two-dimensional visual display therefrom

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-88485 1993-04-15
JP8848593 1993-04-15
JP6018228A JPH06348861A (en) 1993-04-15 1994-02-15 Method and device for generating picture and household game machine

Publications (1)

Publication Number Publication Date
JPH06348861A true JPH06348861A (en) 1994-12-22

Family

ID=26354879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6018228A Pending JPH06348861A (en) 1993-04-15 1994-02-15 Method and device for generating picture and household game machine

Country Status (1)

Country Link
JP (1) JPH06348861A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6900806B2 (en) 1999-04-09 2005-05-31 Sony Computer Entertainment Inc. Method and apparatus for performing perspective transformation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6900806B2 (en) 1999-04-09 2005-05-31 Sony Computer Entertainment Inc. Method and apparatus for performing perspective transformation

Similar Documents

Publication Publication Date Title
KR100328659B1 (en) Image creating method, image creating device, and home game machine
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
JP3056256B2 (en) Three-dimensional simulator device and image synthesizing method
KR100411534B1 (en) Video data generation method, generation device and generation circuit, and game playback device
US6561906B2 (en) Game apparatus, method of reproducing movie images and recording medium recording program thereof
EP1350545B1 (en) Game machine and game program
US20090244064A1 (en) Program, information storage medium, and image generation system
US20040110561A1 (en) Game apparatus storing game sound control program and game sound control thereof
JP3625172B2 (en) Image creating apparatus, image creating method, computer-readable recording medium on which image creating program is recorded, and video game apparatus
JP3372234B2 (en) Reflected image display method, game apparatus, and recording medium
JP2000011204A (en) Image processing method and recording medium with image processing program recorded thereon
JPH06348860A (en) Picture synthesizing device and game device using the same
EP1362622B1 (en) Video game apparatus and control method thereof
JP2002074391A (en) Method and processor for processing three-dimensional image, readable recording medium with three-dimensional image processing program recorded thereon and video game device
JPH06348861A (en) Method and device for generating picture and household game machine
US7053906B2 (en) Texture mapping method, recording medium, program, and program executing apparatus
JP4000812B2 (en) Image generation system and image generation program
JP3737784B2 (en) 3D image processing program, 3D image processing method, and video game apparatus
JP3364456B2 (en) 3D simulator apparatus and image composition method
JPH11331700A (en) Image processing unit and image processing method
JP2001273519A (en) Game system, picture plotting method for this system, and computer-readable recording medium for storing program for game
JP3706545B2 (en) Image generation method and program used therefor
JP2003067770A (en) Image generating device and image generating program
JP3735535B2 (en) Texture mapping method, recording medium, program, and program execution device
JP3183636B2 (en) Three-dimensional game device and information storage medium