JPH10334269A - Image processing device and method, and recording medium recording image processing program - Google Patents
Image processing device and method, and recording medium recording image processing programInfo
- Publication number
- JPH10334269A JPH10334269A JP9144812A JP14481297A JPH10334269A JP H10334269 A JPH10334269 A JP H10334269A JP 9144812 A JP9144812 A JP 9144812A JP 14481297 A JP14481297 A JP 14481297A JP H10334269 A JPH10334269 A JP H10334269A
- Authority
- JP
- Japan
- Prior art keywords
- value
- polygon
- pixel
- data
- buffer memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、コンピュータによ
る画像処理装置に関し、特に複数のポリゴンを有するフ
レームの色データの生成を、より効率的に短時間で行
い、或いは少ないハードウエア構成でより効率的に短時
間で行うことができる画像処理装置、その方法及びその
画像処理プログラムを記録した記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus using a computer, and more particularly to a method for generating color data of a frame having a plurality of polygons more efficiently in a shorter time or with a less hardware configuration. The present invention relates to an image processing apparatus, a method thereof, and a recording medium on which the image processing program is recorded, which can be performed in a short time.
【0002】[0002]
【従来の技術】シミュレーション装置やゲーム装置等
で、コンピュータを利用した画像処理技術が利用され
る。通常、シミュレーションやゲームのシーケンスプロ
グラムによって生成された画像データから画面上に描画
すべきポリゴンのデータを求め、そのポリゴン内のピク
セル毎の色データを求め、その色データを画面のピクセ
ルに対応するフレームバッファメモリに格納する。そし
て、フレームバッファメモリ内の色データに従って、C
RT等の表示装置に画像が表示される。2. Description of the Related Art An image processing technique using a computer is used in a simulation device, a game device, or the like. Normally, polygon data to be drawn on the screen is obtained from image data generated by a simulation or game sequence program, color data for each pixel in the polygon is obtained, and the color data is converted to a frame corresponding to a pixel on the screen. Store in buffer memory. Then, according to the color data in the frame buffer memory, C
An image is displayed on a display device such as an RT.
【0003】上記したポリゴンデータを求める処理は、
通常、ジオミトリ処理部で行われ、ポリゴンデータから
ピクセル毎の色データを求める処理は、レンダラ処理部
で行われる。The above-described processing for obtaining polygon data includes:
Normally, the processing is performed by the geometry processing unit, and the processing of obtaining color data for each pixel from the polygon data is performed by the renderer processing unit.
【0004】ジオミトリ処理部が生成するポリゴンデー
タは、通常その頂点データで構成される。また、ポリゴ
ン内のピクセルの色データは、頂点データに含まれるパ
ラメータ値を補間演算することにより求められる。[0004] The polygon data generated by the geometry processing unit is usually composed of the vertex data. The color data of the pixels in the polygon is obtained by performing an interpolation operation on the parameter values included in the vertex data.
【0005】ところが、フレーム内には複数のポリゴン
が重なりあって存在することがあり、その場合は画面の
最も手前にあるポリゴンの部分のみが表示され、1つの
ポリゴンの陰に隠れた他のポリゴンの部分は表示されな
い。その為に、従来はフレーム内のピクセルに対応した
Z値バッファメモリを設け、フレームバッファメモリに
ピクセルの色データを書き込んだ時に、そのピクセルの
Z値をZ値バッファメモリの対応するピクセルの領域に
も書き込むことが行われる。そして、あとで処理するポ
リゴンのピクセルが既に書き込まれたピクセルより手前
側に位置するか否かの判断を、それぞれのZ値を比較す
ることにより行う。或いは、別のアルゴリズムとして、
常にフレームの最も奥にあるポリゴンから色データをフ
レームバッファに書き込むことも考えられている。However, there are cases where a plurality of polygons overlap each other in a frame. In this case, only the foremost polygon is displayed on the screen, and other polygons hidden behind one polygon are displayed. Is not displayed. Therefore, conventionally, a Z-value buffer memory corresponding to a pixel in a frame is provided, and when writing color data of a pixel in the frame buffer memory, the Z-value of the pixel is stored in a corresponding pixel area of the Z-value buffer memory. Even writing is done. Then, it is determined whether or not the pixel of the polygon to be processed later is located on the front side of the already written pixel by comparing the respective Z values. Or, as another algorithm,
It is also considered that color data is always written to the frame buffer from the polygon located at the back of the frame.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、複数の
ポリゴンが重なり合う場合に、一旦、奥にあるピクセル
の色データが演算で求められて、フレームバッファメモ
リにその色データが書き込まれた後に、それより手前側
の別のポリゴンのピルセルの色データが演算で求められ
て、フレームバッファメモリの同じアドレスにその色デ
ータが書き込まれることがある。そのため、先に行われ
た奥側にあるピクセルのレンダリング処理が全くの無駄
になってしまい、レンダリング処理の効率が悪くなると
いう問題がある。However, when a plurality of polygons overlap each other, the color data of the pixel at the back is once calculated, and after the color data is written in the frame buffer memory, The color data of the pill cell of another polygon on the front side may be obtained by calculation, and the color data may be written to the same address of the frame buffer memory. Therefore, there is a problem that the rendering processing of the pixels on the far side performed earlier is completely wasted, and the efficiency of the rendering processing is deteriorated.
【0007】また、従来の方法では、あるポリゴンのあ
るピクセルのレンダリング処理は、頂点データ内のパラ
メータの補間演算とZ値の補間演算とを同時に行ってい
た。そのため、その部分のハードウエア構成が非常に大
規模になってしまう。従って、その部分を複数にして並
列処理をしようとすると、そのハードウエアが膨大の規
模になり、現実的ではなくなる。この点もレンダリング
処理の効率化を妨げる原因の一つでもあった。Further, in the conventional method, in the rendering processing of a certain pixel of a certain polygon, the interpolation calculation of the parameter in the vertex data and the interpolation calculation of the Z value are simultaneously performed. Therefore, the hardware configuration of that part becomes very large. Therefore, if a plurality of such parts are to be processed in parallel, the hardware becomes enormous and impractical. This was one of the factors that hindered the efficiency of the rendering process.
【0008】そこで、本発明の目的は、コンピュータを
利用した画像処理をより効率に行うことができる画像処
理装置、方法、及びそのプログラムを記録した記録媒体
を提供することにある。It is an object of the present invention to provide an image processing apparatus and method capable of performing image processing using a computer more efficiently, and a recording medium storing the program.
【0009】更に、本発明の目的は、画像処理の内、ピ
クセルの色データを生成するレンダリング処理をより効
率に行うことができる画像処理装置、方法、及びそのプ
ログラムを記録した記録媒体を提供することにある。Further, an object of the present invention is to provide an image processing apparatus and method capable of more efficiently performing a rendering process for generating pixel color data in image processing, and a recording medium on which the program is recorded. It is in.
【0010】[0010]
【課題を解決するための手段】上記の目的は、本発明に
よれば、少なくともポリゴンIDとそれに属する位置座
標データ及び色データ生成用のパラメータとを有するポ
リゴンデータから、表示すべきピクセルの色データを生
成するレンダリング処理部を有する画像処理装置におい
て、該ポリゴンデータを記憶するポリゴンバッファメモ
リと、フレーム内のピクセルの色データを記憶するフレ
ームバッファメモリとを有し、前記レンダリング処理部
は、前記フレーム内に位置する複数のポリゴンに対し、
それぞれのポリゴン内のピクセルの画面内での奥行きを
示すZ値を前記位置座標データから生成し、該フレーム
内のピクセルのZ値が記憶されるZ値バッファメモリ
に、該画面上に表示されるピクセルのZ値とそれに対応
する前記ポリゴンIDとを記憶する第一の処理部と、該
フレーム内の各ピクセルに対し、該Z値バッファメモリ
に記憶されたポリゴンIDに属する前記パラメータから
色データを生成する第二の処理部とを有し、該第二の処
理部が生成した各ピクセルの該色データが前記フレーム
バッファメモリに記憶されることを特徴とする画像処理
装置を提供することにより達成される。According to the present invention, the object of the present invention is to provide a method for converting color data of a pixel to be displayed from polygon data having at least a polygon ID and position coordinate data and a parameter for generating color data. An image processing apparatus having a rendering processing unit for generating the polygon data, comprising: a polygon buffer memory for storing the polygon data; and a frame buffer memory for storing color data of pixels in a frame, wherein the rendering processing unit For multiple polygons located within
A Z value indicating the depth of the pixel in each polygon in the screen is generated from the position coordinate data, and is displayed on the screen in a Z value buffer memory in which the Z value of the pixel in the frame is stored. A first processing unit for storing a Z value of a pixel and the corresponding polygon ID, and for each pixel in the frame, color data from the parameter belonging to the polygon ID stored in the Z value buffer memory; A second processing unit for generating the image data, wherein the color data of each pixel generated by the second processing unit is stored in the frame buffer memory. Is done.
【0011】かかる構成にすることにより、フレーム内
の全てのポリゴンに対して先ずピクセルのZ値を求め、
そのZ値に従って画面上に表示すべきピクセルを判定
し、その後でフレーム内の表示されるピクセルに対して
色データの生成を行うことができる。従って、重なり合
う部分のピクセルの色データの生成を無駄に行うことが
避けられる。With this configuration, the Z value of a pixel is first determined for all polygons in a frame,
Pixels to be displayed on the screen are determined according to the Z value, and thereafter, color data can be generated for the pixels to be displayed in the frame. Therefore, it is possible to avoid unnecessary generation of the color data of the pixels in the overlapping portion.
【0012】更に、本発明では、上記の第一の処理部を
複数層設けて、複数のピクセルに対してZ値の生成を並
列に行うことを特徴とする。また、上記の第一の処理部
を複数層設けて、複数のポリゴンに対してピクセルのZ
値の生成を並列に行うことを特徴とする。Further, the present invention is characterized in that the first processing unit is provided in a plurality of layers, and Z values are generated for a plurality of pixels in parallel. Also, the first processing unit is provided in a plurality of layers, and the Z of a pixel is determined for a plurality of polygons.
It is characterized in that value generation is performed in parallel.
【0013】更に、上記の目的は、本発明によれば、少
なくともポリゴンIDとそれに属する位置座標データ及
び色データ生成用のパラメータとを有するポリゴンデー
タから、表示すべきピクセルの色データを生成するレン
ダリング処理工程を有する画像処理方法において、該レ
ンダリング処理工程は、フレーム内に位置する複数のポ
リゴンに対し、それぞれのポリゴン内のピクセルの画面
内での奥行きを示すZ値を前記位置座標データから生成
し、該フレーム内のピクセルのZ値が記憶されるZ値バ
ッファメモリに、該画面上に表示されるピクセルのZ値
とそれに対応する前記ポリゴンIDとを記憶する第一の
処理工程と、該フレーム内の各ピクセルに対し、該Z値
バッファメモリに記憶されたポリゴンIDに属する前記
パラメータから色データを生成し、当該生成した各ピク
セルの該色データをフレームバッファメモリに記憶する
第二の処理工程とを有することを特徴とする画像処理方
法を提供することにより達成される。Further, according to the present invention, there is provided a rendering method for generating color data of a pixel to be displayed from polygon data having at least a polygon ID and position coordinate data and a parameter for generating color data. In the image processing method having a processing step, the rendering processing step generates, from the position coordinate data, a Z value indicating a depth in a screen of a pixel in each polygon for a plurality of polygons positioned in the frame. A first processing step of storing a Z value of a pixel displayed on the screen and the corresponding polygon ID in a Z value buffer memory in which a Z value of a pixel in the frame is stored; For each pixel in the pixel, a color is determined from the parameter belonging to the polygon ID stored in the Z-value buffer memory. It generates over data, is achieved by providing an image processing method characterized by having a second processing step of storing the color data of each pixel thus generated in the frame buffer memory.
【0014】更に、上記の目的は、本発明によれば、少
なくとも演算処理を行う中央演算装置とフレーム内のピ
クセルの色データを記憶するフレームバッファメモリと
を有するコンピュータに、少なくともポリゴンIDとそ
れに属する位置座標データ及び色データ生成用のパラメ
ータとを有するポリゴンデータから、表示すべきピクセ
ルの色データを生成するレンダリング処理を有する画像
処理手順を実行させるためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体において、該プログラ
ムは、フレーム内に位置する複数のポリゴンに対し、そ
れぞれのポリゴン内のピクセルの画面内での奥行きを示
すZ値を前記位置座標データから生成し、該フレーム内
のピクセルのZ値が記憶されるZ値バッファメモリに、
該画面上に表示されるピクセルのZ値とそれに対応する
前記ポリゴンIDとを記憶させる第一の処理手順と、該
フレーム内の各ピクセルに対し、該Z値バッファメモリ
に記憶されたポリゴンIDに属する前記パラメータから
色データを生成し、当該生成した各ピクセルの該色デー
タを前記フレームバッファメモリに記憶させる第二の処
理手順とを、コンピュータに実行させるためのプログラ
ムを有することを特徴とする記録媒体を提供することに
より達成される。Further, according to the present invention, there is provided a computer having at least a central processing unit for performing arithmetic processing and a frame buffer memory for storing color data of pixels in a frame. A computer-readable recording medium storing a program for executing an image processing procedure including a rendering process for generating color data of a pixel to be displayed from polygon data having position coordinate data and parameters for generating color data The program generates, for the plurality of polygons located in the frame, a Z value indicating the depth of the pixels in each polygon on the screen from the position coordinate data, and calculates the Z value of the pixel in the frame. In the stored Z value buffer memory,
A first processing procedure for storing a Z value of a pixel displayed on the screen and the corresponding polygon ID, and for each pixel in the frame, a polygon ID stored in the Z value buffer memory. A second processing procedure for generating color data from the parameters belonging thereto and storing the generated color data of each pixel in the frame buffer memory, and a program for causing a computer to execute the recording. Achieved by providing a medium.
【0015】[0015]
【発明の実施の形態】以下、本発明の実施の形態につい
て図面に従って説明する。しかしながら、本発明の技術
的範囲がその実施の形態に限定されるものではない。Embodiments of the present invention will be described below with reference to the drawings. However, the technical scope of the present invention is not limited to the embodiment.
【0016】図1は、フレーム(画面)10内に一部重
なり合う2つのポリゴンID0、ID1とを表示する場
合を示す図である。この例では、ポリゴンID0は、頂
点00、01、02から構成され、ポリゴンID1は、
頂点10、11、12から構成される。そして、画面内
では、ポリゴンID1よりポリゴンID0のほうが前方
(手前)に位置している。従って、図中の斜線部分12
の領域では、2つのポリゴンが重なっている。FIG. 1 is a diagram showing a case in which two polygons ID0 and ID1 partially overlapping in a frame (screen) 10 are displayed. In this example, polygon ID0 is composed of vertices 00, 01, and 02, and polygon ID1 is
Vertices 10, 11, and 12 are formed. Then, in the screen, the polygon ID0 is located ahead (front) than the polygon ID1. Therefore, the hatched portion 12 in the figure
Area, two polygons overlap each other.
【0017】しかしながら、前述した通り、領域12で
は最も手前に位置するポリゴンID0だけが表示され、
それの後ろに位置するポリゴンID1は表示されない。
従って、もし領域12内に位置するポリゴンID1内の
ピクセルの色データが先に補間演算で求められて、フレ
ームバッファメモリ内に書き込まれた場合は、その補間
演算とメモリへの書き込みは無駄な処理となる。即ち、
その後に求められるポリゴンID0のピクセルの色デー
タが再度フレームバッファメモリ26に重ね書きされる
からである。However, as described above, in the area 12, only the foremost polygon ID0 is displayed.
The polygon ID1 located behind it is not displayed.
Therefore, if the color data of the pixel in the polygon ID 1 located in the area 12 is first obtained by the interpolation calculation and written in the frame buffer memory, the interpolation calculation and the writing to the memory are useless processing. Becomes That is,
This is because the color data of the pixel of the polygon ID0 obtained thereafter is overwritten again in the frame buffer memory 26.
【0018】コンピュータからの画像データによりジオ
ミトリ処理部が生成するポリゴンデータは、一般にはア
トランダムな順番で生成される。従って、上記した様に
ポリゴンID1のデータが先に生成されてレンダリング
処理が行われるケースは、単純に50%の確率で発生す
る。The polygon data generated by the geometry processing unit based on image data from a computer is generally generated in an at random order. Therefore, as described above, the case where the data of the polygon ID1 is generated first and the rendering process is performed occurs simply with a probability of 50%.
【0019】図2は、ジオミトリ処理部が生成するポリ
ゴンデータの構成例を示す図である。この例では、ポリ
ゴンID0は頂点00、01、02から構成され、それ
ぞれの頂点のデータには複数の頂点パラメータが含まれ
る。図2の例では、頂点パラメータは、頂点の画面上の
スクリーン座標(Sx,Sy)と画面内の奥行きを示す
Z値(デプス値)、ポリゴンのテクスチャデータの格納
アドレスであるテクスチャ座標(Tx,Ty)、法線ベ
クトル(Nx,Ny,Nz)及び透明度を表すα値(ス
カラー値)を有する。これらの頂点パラメータは各頂点
毎に属性データとして与えられる。また、ポリゴンのI
Dには、後述するメモリ201、202(図4)に各ポ
リゴンのデータが格納される場合のそのメモリの先頭ア
ドレスを使用することができる。FIG. 2 is a diagram showing an example of the configuration of polygon data generated by the geometry processing unit. In this example, polygon ID 0 is composed of vertices 00, 01, and 02, and the data of each vertex includes a plurality of vertex parameters. In the example of FIG. 2, the vertex parameters are the screen coordinates (Sx, Sy) of the vertex on the screen, the Z value (depth value) indicating the depth in the screen, and the texture coordinates (Tx, Tx, Ty), a normal vector (Nx, Ny, Nz) and an α value (scalar value) representing transparency. These vertex parameters are given as attribute data for each vertex. Also, the polygon I
For D, the start address of each memory when data of each polygon is stored in memories 201 and 202 (FIG. 4) to be described later can be used.
【0020】図3は、頂点パラメータを利用してポリゴ
ンID0内のピクセルの各パラメータを補間法により求
める一例を説明するための図である。図3(A)に示さ
れる通り、X、Y座標が定義され、頂点00から矢印で
示した走査方向にポリゴン内のピクセルGに対する補間
演算が行われる。この走査方向は、一例であり必ずしも
X軸とY軸に平行に移動する場合に限定されずに、それ
より所定角度傾いた方向に走査する場合、あるアルゴリ
ズムを持って定義される走査方向であっても良い。FIG. 3 is a diagram for explaining an example in which each parameter of a pixel in polygon ID 0 is obtained by interpolation using vertex parameters. As shown in FIG. 3A, X and Y coordinates are defined, and an interpolation operation is performed on a pixel G in the polygon from the vertex 00 in the scanning direction indicated by the arrow. This scanning direction is an example, and is not necessarily limited to the case of moving in parallel to the X axis and the Y axis, but is a scanning direction defined by an algorithm when scanning in a direction inclined at a predetermined angle from that. May be.
【0021】図3(A)に示される例では、ピクセルG
の位置は、頂点00を始点としてY軸の正の方向に移動
してその水平線に沿って左右の稜線abとacとの間を
X軸の正の方向に移動し、更にY軸の正の方向に移動し
てその水平線の左右の稜線間を移動する。そして、この
例では頂点02が終点となる。In the example shown in FIG.
Moves from the vertex 00 as a starting point in the positive direction of the Y axis, moves along the horizontal line between the left and right ridge lines ab and ac in the positive direction of the X axis, and further moves in the positive direction of the Y axis. To move between the left and right ridges of the horizontal line. Then, in this example, the vertex 02 is the end point.
【0022】図3(B)には、補間演算に使用される内
分比t0,t1,t2を示す。今仮にピクセルGに対し
するパラメータの補間演算を行うとする。パラメータの
1つであるテクスチャ座標を求める場合は、頂点00、
01、02のテクスチャ座標が(Tx0,Ty0)(Tx1,
Ty1)(Tx2,Ty2)とすると、稜線ab上の点dのテ
クスチャ座標(Txd,Tyd)は、 Txd=Tx0・t0+Tx1・(1−t0) Tyd=Ty0・t0+Ty1・(1−t0) となり、同様に稜線ac上の点eのテクスチャ座標(T
xe,Tye)は、 Txe=Tx0・t1+Tx2・(1−t1) Tye=Ty0・t1+Ty2・(1−t1) となる。従って、更に水平線de上のピクセルGのテク
スチャ座標(Txg,Tyg)は、 Txg=Txd・t2+Txe・(1−t2) Tyg=Tyd・t2+Tye・(1−t2) となる。FIG. 3B shows the internal division ratios t0, t1, and t2 used in the interpolation operation. Now, it is assumed that the interpolation calculation of the parameter for the pixel G is performed. To determine texture coordinates, which is one of the parameters, vertex 00,
The texture coordinates of 01 and 02 are (Tx0, Ty0) (Tx1,
Ty1) (Tx2, Ty2), the texture coordinates (Txd, Tyd) of the point d on the ridge line ab are as follows: Txd = Tx0.t0 + Tx1. (1-t0) Tyd = Ty0.t0 + Ty1. (1-t0) Similarly, the texture coordinates (T
xe, Tye) is as follows: Txe = Tx0 · t1 + Tx2 · (1−t1) Tye = Ty0 · t1 + Ty2 · (1−t1) Therefore, the texture coordinates (Txg, Tyg) of the pixel G on the horizontal line de are as follows: Txg = Txd.t2 + Txe. (1-t2) Tyg = Tyd.t2 + Tye. (1-t2)
【0023】他の頂点パラメータのスクリーン座標とZ
値、法線ベクトル、α値等も同様の補間演算で求められ
る。そして、ピクセルGを移動させる毎に内分比t0,
t1,t2をインクリメントする。この様に、補間法に
よりピクセルのパラメータを求める演算は、多大なるコ
ンピュータの処理時間を要する。Screen coordinates of other vertex parameters and Z
The value, the normal vector, the α value, and the like are obtained by the same interpolation calculation. Each time the pixel G is moved, the internal division ratio t0,
t1 and t2 are incremented. As described above, the calculation for obtaining the pixel parameters by the interpolation method requires a great deal of computer processing time.
【0024】[画像処理装置例]図4は、本発明に係る
実施の形態例の画像処理装置の概略的ブロック図であ
る。このブロック図には、ゲームのシーケンスプログラ
ム等を実行して画像データを生成するコンピュータを構
成するCPU20と、そのCPU20からの画像データ
に従ってポリゴンの配置変換等の演算を行い図2に示し
たポリゴンデータを生成するジオミトリ処理部22と、
そのポリゴンデータに基づいて各ピクセルの色データを
生成するレンダラ処理部24から構成される。26はそ
の色データが記憶されるフレームバッファメモリであ
り、28はその色データを表示するディスプレイ装置で
ある。[Example of Image Processing Apparatus] FIG. 4 is a schematic block diagram of an image processing apparatus according to an embodiment of the present invention. The block diagram includes a CPU 20 that constitutes a computer that generates image data by executing a game sequence program or the like, and performs polygon conversion and other operations in accordance with the image data from the CPU 20 as shown in FIG. A geometry processing unit 22 that generates
It comprises a renderer processing unit 24 that generates color data for each pixel based on the polygon data. 26 is a frame buffer memory for storing the color data, and 28 is a display device for displaying the color data.
【0025】コンピュータ内には、通常CPU20に接
続されるRAM201、ROM202、入出力装置I/
O203が設けられる。ROM202内には例えば上記
したシーケンスプログラムが格納される。In the computer, a RAM 201, a ROM 202, and an input / output device I / O which are usually connected to the CPU 20 are provided.
O203 is provided. The above-mentioned sequence program is stored in the ROM 202, for example.
【0026】ジオミトリ処理部22では、ポリゴンの位
置を変更するジオミトリ変換と、視点データに従って画
面内のポリゴンを抽出するクリッピング処理と、更に三
次元座標から画面上の2次元座標を求める透視変換とが
一般的に行われる。そして、頂点の位置データとしてそ
のスクリーン座標と画面内の奥行きを示すZ値(デプス
値)とが頂点パラメータの一つとして与えられる。The geometry processing unit 22 performs a geometry conversion for changing the position of the polygon, a clipping process for extracting a polygon in the screen according to the viewpoint data, and a perspective conversion for obtaining two-dimensional coordinates on the screen from three-dimensional coordinates. Generally done. Then, the screen coordinates and the Z value (depth value) indicating the depth in the screen are given as one of the vertex parameters as the position data of the vertex.
【0027】レンダラ処理部24は、図2のポリゴンデ
ータが格納されるポリゴンバッファメモリ241、上記
したポリゴンの稜線(エッジ)上の点d,eのZ値を内
分比t0、1により補間演算するエッジ補間器242、
水平線de内のピクセルGのZ値を内分比t2で補間演
算するラスタ補間器243、Z比較器244、Z値と内
分比、ポリゴンIDが格納されるZ値バッファメモリ2
45を有する。The renderer processing unit 24 performs an interpolation operation by interpolating the Z values of the points d and e on the ridge line (edge) of the polygon by the internal division ratios t0 and 1, respectively. Edge interpolator 242,
A raster interpolator 243 and a Z comparator 244 for interpolating the Z value of the pixel G in the horizontal line de at the internal division ratio t2, a Z value buffer memory 2 storing the Z value, the internal division ratio, and the polygon ID.
45.
【0028】このエッジ補間器242、ラスタ補間器2
43、Z値比較器244及びZ値バッファメモリ245
は、ポリゴン内の全ピクセルのZ値を求めるユニット2
5を構成する。The edge interpolator 242 and the raster interpolator 2
43, Z value comparator 244 and Z value buffer memory 245
Is a unit 2 for finding the Z values of all the pixels in the polygon
5 is constituted.
【0029】更に、レンダラ処理部24は、Z値バッフ
ァメモリ245に格納された内分比とポリゴンIDに従
ってフレーム内の各ピクセルのパラメータを求める補間
器246、その補間により求められたパラメータに基づ
いて各ピクセルの色データを求めるテクスチャ生成部2
47を有する。248は、テクスチャデータを格納した
テクスチャマップメモリである。Further, the renderer processing unit 24 calculates the parameters of each pixel in the frame according to the internal division ratio and the polygon ID stored in the Z-value buffer memory 245, based on the parameters obtained by the interpolation. Texture generation unit 2 for obtaining color data of each pixel
47. Reference numeral 248 denotes a texture map memory storing texture data.
【0030】上記したテクスチャ生成部247は、補間
演算によって求めたピクセルのテクスチャ座標(Txg,
Tyg)に従ってテクスチャマップメモリ248内のテク
スチャデータを読み出し、法線ベクトル(Nxg,Nyg,
Nzg)を利用して陰影処理(シェーディング処理)を行
い、透明度αg を利用して半透明のピクセルに対して色
を混ぜ込む( ブレンディング) 処理を行う。また、パラ
メータの補間器246は、ポリゴンバッファメモリ24
1とも接続されて、そこに記憶されているポリゴンデー
タの参照を行う。The texture generator 247 described above calculates the texture coordinates (Txg, Txg,
Tyg), texture data in the texture map memory 248 is read, and normal vectors (Nxg, Nyg,
Nzg) to perform a shading process (shading process), and use the transparency αg to perform a process of blending colors (blending) into translucent pixels. Further, the parameter interpolator 246 is provided in the polygon buffer memory 24.
1 is also connected to reference the polygon data stored therein.
【0031】さて、上記した画像処理装置の構成で特徴
的な部分の一つの例は、ピクセルのZ値の補間演算を行
うエッジ補間器242、ラスタ補間器243と、パラメ
ータの補間器246とが分離されている点である。即
ち、あるフレーム内に含まれるポリゴン全てに対して最
初にZ値を補間演算により求め、Z値バッファメモリ2
45内に画面内で最も手前に位置するピクセルの属する
ポリゴンIDとそのポリゴンにおける内分比t0,t
1,t2を格納する。その後、Z値バッファメモリ24
5内に格納されたピクセルに対してのみパラメータの補
間演算をパラメータ補間器246で行う。従って、テク
スチャ生成部247では、表示されるピクセルの色デー
タの生成演算が行われるだけであり、フレームバッファ
26内には表示されるピクセルに対する色データの書き
込みが行われるだけである。従って、図1で示した背後
に位置するポリゴンID1の領域12の色データの生成
演算とフレームバッファメモリ26への書き込みは、避
けられる。One example of a characteristic part of the configuration of the above-described image processing apparatus is that an edge interpolator 242, a raster interpolator 243, and a parameter interpolator 246 for performing an interpolation operation of the Z value of a pixel are provided. It is a point that is separated. That is, for all polygons included in a certain frame, the Z value is first obtained by interpolation, and the Z value buffer memory 2
45, the polygon ID to which the pixel located closest in the screen belongs, and the internal division ratios t0 and t of the polygon
1 and t2 are stored. After that, the Z value buffer memory 24
The parameter interpolator 246 performs a parameter interpolation operation only on the pixels stored in 5. Therefore, the texture generation unit 247 only performs the calculation of generating the color data of the displayed pixel, and only writes the color data to the displayed pixel in the frame buffer 26. Therefore, the generation calculation of the color data of the area 12 of the polygon ID1 located behind shown in FIG. 1 and the writing to the frame buffer memory 26 are avoided.
【0032】[画像処理フロー]図5は、上記の画像処
理装置による画像処理のフローチャート図である。図4
のブロック図と共に画像処理方法の一例を以下に詳述す
る。[Image Processing Flow] FIG. 5 is a flowchart of image processing by the above-described image processing apparatus. FIG.
An example of the image processing method will be described below in detail with the block diagram of FIG.
【0033】先ず、CPU20にて画像データが生成さ
れる(S1)。この画像データには、ポリゴンの移動デ
ータや視点データが含まれる。ジオミトリ処理部22で
は、上記したジオミトリ変換、クリッピング処理及び透
視変換等の処理が行われ、図2に示した様なポリゴンデ
ータが生成されてポリゴンバッファメモリ241に格納
される(S2)。ジオミトリ処理部22からポリゴンデ
ータが例えばアトランダムに次々に生成される。そし
て、1つのフレーム内の全ポリゴンデータに対してレン
ダリング処理が行われる。従って、例えばポリゴンバッ
ファメモリ241を2フレーム分設けて、一方のフレー
ム内のポリゴンに対するレンダリング処理が行われてい
る間に、次のフレーム内のポリゴンデータを他方のポリ
ゴンバッファメモリに格納することもできる。First, image data is generated by the CPU 20 (S1). The image data includes polygon movement data and viewpoint data. The geometry processing unit 22 performs the above-described processes such as the geometry conversion, the clipping process, and the perspective conversion, and generates polygon data as shown in FIG. 2 and stores it in the polygon buffer memory 241 (S2). The polygon data is generated one after another, for example, at random from the geometry processing unit 22. Then, rendering processing is performed on all the polygon data in one frame. Therefore, for example, by providing the polygon buffer memory 241 for two frames, while the rendering process is performed on the polygon in one frame, the polygon data in the next frame can be stored in the other polygon buffer memory. .
【0034】さて、ポリゴンバッファメモリ241内に
格納された或るポリゴンデータの頂点のZ値に基づい
て、そのポリゴン内のピクセルのZ値が補間演算され
る。先ず、頂点のZ値を補間して左側の稜線(エッジ)
ab上の点dのZ値を求める(S3)。この補間演算で
は内分比t0が利用される。同様に、右側の稜線(エッ
ジ)ac上の点eのz値を求める(S4)。この補間演
算では内分比t1が利用される。これらの補間演算は、
エッジ補間器242内にて行われる。その後、両側の点
d,eのZ値に基づいてラスタ補間することでピクセル
GにおけるZ値が求められる(S5)。この補間演算で
は内分比t2が利用される。On the basis of the Z value of the vertex of a certain polygon data stored in the polygon buffer memory 241, the Z value of the pixel in the polygon is interpolated. First, the Z value of the vertex is interpolated and the left edge (edge)
The Z value of point d on ab is determined (S3). In this interpolation calculation, the internal division ratio t0 is used. Similarly, the z value of the point e on the right ridge line (edge) ac is determined (S4). In this interpolation calculation, the internal division ratio t1 is used. These interpolation operations are
This is performed in the edge interpolator 242. Thereafter, the Z value of the pixel G is obtained by performing raster interpolation based on the Z values of the points d and e on both sides (S5). In this interpolation calculation, the internal division ratio t2 is used.
【0035】尚、図4、5中においてZ値の例として、
1/zが示されているが、これは表示画面に透視変換さ
れて映し出された上で補間する為には、Z値の逆数を利
用することが便利だからである。4 and 5, as an example of the Z value,
1 / z is shown because it is convenient to use the reciprocal of the Z value in order to interpolate after being perspectively transformed and displayed on the display screen.
【0036】上記のステップS3,4,5によって求め
られたピクセルGのZ値は、Z値比較器244によっ
て、既にZ値バッファメモリ245に書き込まれたZ値
と比較され、画面内の手前側のピクセルか否かの判断が
行われる(S6)。そして、処理中のピクセルのほうが
手前である場合(Z値が小さい、或いは1/z値が大き
い場合)には、その処理中のピクセルのZ値とポリゴン
ID及び内分比t0,t1,t2が重ね書きされる。従
って、Z値バッファメモリ245内には、画面内の最も
手前にあるピクセルのZ値と、対応するポリゴンIDデ
ータ、そしてそのピクセルの補間演算に使用される内分
比t0,t1,t2が格納される。The Z value of the pixel G obtained in the above steps S3, S4, S5 is compared with the Z value already written in the Z value buffer memory 245 by the Z value comparator 244, and the Z value in the near side of the screen is displayed. Is determined (S6). When the pixel being processed is closer to the front (when the Z value is small or the 1 / z value is large), the Z value of the pixel being processed, the polygon ID, and the internal division ratios t0, t1, t2 are set. Is overwritten. Therefore, in the Z value buffer memory 245, the Z value of the foremost pixel in the screen, the corresponding polygon ID data, and the internal division ratios t0, t1, and t2 used for the interpolation calculation of the pixel are stored. Is done.
【0037】図5に示した通り、ステップS5,6,7
は、図3に示した水平線deのX軸方向のサイズ分だけ
繰り返される。そして、その水平線deのラスタスキャ
ンが終了すると、その水平線deがY軸の正の方向にシ
フトされ、再度ステップS3,4,5,6,7の処理が
その新たな水平線に対して行われる。従って、ステップ
S3,4,5,6,7が図3に示したY軸方向のサイズ
分だけ繰り返される。As shown in FIG. 5, steps S5, S6, S7
Is repeated by the size of the horizontal line de shown in FIG. 3 in the X-axis direction. Then, when the raster scan of the horizontal line de ends, the horizontal line de is shifted in the positive direction of the Y axis, and the processing of steps S3, 4, 5, 6, and 7 is performed again on the new horizontal line. Therefore, steps S3, 4, 5, 6, and 7 are repeated for the size in the Y-axis direction shown in FIG.
【0038】以上の様にして、1つのポリゴン内のピク
セルについてのZ値の補間演算と、Z値比較によるバッ
ファメモリ245内への書き込みが終わると、次のポリ
ゴンに対しても同様にステップS3,4,5,6,7に
よる処理が行われる。図5に示される通り、フレーム内
の全てのポリゴンについてのZ値の補間演算が行われ、
画面内の最も手前に位置するピクセルのZ値、属するポ
リゴンIDデータとその内分比がZ値バッファメモリ2
45に格納される。As described above, when the interpolation of the Z value for the pixels in one polygon and the writing to the buffer memory 245 by the Z value comparison are completed, the process proceeds to step S3 for the next polygon. , 4, 5, 6, and 7 are performed. As shown in FIG. 5, interpolation of Z values is performed for all polygons in the frame,
The Z value of the pixel located at the foreground in the screen, the polygon ID data to which the pixel belongs, and its internal division ratio are stored in the Z value buffer memory 2.
45.
【0039】上記の演算では、画面の奥に位置するピク
セルに対してはZ値補間演算が無駄になることがある。
しかし、Z値の補間演算は比較的簡単に行うことができ
るものであり、画像処理全体の効率を下げる大きな原因
になることは少ない。しかも、そのZ値の補間演算で求
めたピクセルの内分比がバッファメモリ245内に格納
され、後のパラメータの補間演算に利用される。In the above calculation, the Z value interpolation calculation may be useless for pixels located at the back of the screen.
However, the Z-value interpolation calculation can be performed relatively easily, and rarely causes a significant decrease in the efficiency of the entire image processing. Further, the internal division ratio of the pixel obtained by the interpolation calculation of the Z value is stored in the buffer memory 245, and is used for the interpolation calculation of the subsequent parameters.
【0040】さて、表示画面内で表示されるべきピクセ
ルのポリゴンIDデータとその内分比とがZ値バッファ
メモリに格納された後、今度は、パラメータ補間器24
6とテクスチャ生成部247によりピクセルの色データ
の生成が行われる。先ず、パラメータ補間器246によ
り、Z値バッファメモリ245からあるピクセルのZ
値、内分比t0,t1,t2及びポリゴンIDデータが
読みだされる(S8)。そして、そのポリゴンIDの頂
点パラメータであるテクスチャ座標、α値、法線ベクト
ルをポリゴンバッファメモリ241から読み出す(S
9)。それらの頂点パラメータに対し内分比t0,t
1,t2を利用してピクセルのパラメータを補間演算す
る(S10)。Now, after the polygon ID data of the pixel to be displayed on the display screen and its internal division ratio are stored in the Z-value buffer memory, the parameter interpolator 24
6 and the texture generation unit 247 generate pixel color data. First, the Z value of a pixel from the Z value buffer memory 245 is
The values, internal division ratios t0, t1, t2 and polygon ID data are read (S8). Then, texture coordinates, α value, and normal vector, which are vertex parameters of the polygon ID, are read from the polygon buffer memory 241 (S
9). Internal division ratios t0, t for those vertex parameters
The pixel parameters are interpolated using 1, 1 and t2 (S10).
【0041】そして、求めたパラメータ値に基づいて、
ピクセルの色データをテクスチャ生成部247で生成す
る(S11)。具体的には、テクスチャ座標(Txg,T
yg)によりテクスチャマップ248内のテクスチャデー
タを読みだす。そして、法線ベクトル(Nxg,Nyg,N
zg)に基づいて、ピクセルの色データに対しシェーディ
ング処理の演算を行い陰影処理が施された色データを生
成する。また、α値によって半透明のピクセルであるこ
とが判明すると、そのピクセルの背面側のピクセルの色
データとの混ぜ合わせの処理(ブレンディング処理)が
行われる。Then, based on the obtained parameter values,
The color data of the pixel is generated by the texture generation unit 247 (S11). Specifically, texture coordinates (Txg, T
yg), the texture data in the texture map 248 is read. Then, the normal vectors (Nxg, Nyg, N
Based on zg), a shading process operation is performed on the color data of the pixel to generate color data subjected to shading. If it is determined from the α value that the pixel is a translucent pixel, the pixel is blended with the color data of the pixel on the back side (blending processing).
【0042】ブレンディング処理は、本発明の特徴的部
分とは直接には関係しないので詳しい説明は行わない
が、例えば、ポリゴンの属性データとして半透明のポリ
ゴンか否かのデータをコンピュータ側から供給して、半
透明のポリゴンのレンダリング処理を不透明のポリゴン
のレンダリング処理の後に行うことにより実現できる。Since the blending process is not directly related to the characteristic portion of the present invention, it will not be described in detail. For example, data on whether or not a translucent polygon is provided as attribute data of the polygon is supplied from the computer. This can be realized by rendering the translucent polygon after rendering the opaque polygon.
【0043】そして、上記の如くして求めたピクセルの
色データをフレームバッファメモリ26に書き込む(S
12)。Then, the color data of the pixel obtained as described above is written in the frame buffer memory 26 (S
12).
【0044】以上のステップS8からS12までの処理
が、バッファメモリ245、26のピクセル数分繰り返
される。ここでの処理は、表示されるべきピクセルの数
分だけしか行われないので、非常に少ない処理時間で行
うことができる。特に、テクスチャ生成部246での処
理は比較的長い処理時間を要するので、テクスチャ生成
部246での処理対象ピクセル数を少なくすることは、
全体のレンダリング処理の効率を向上させることに寄与
する。しかも、既にZ値の補間演算の際に求めたピクセ
ルの内分比を使用することができるので、その点でも処
理時間を短くすることができる。The processes from steps S8 to S12 are repeated for the number of pixels in the buffer memories 245 and 26. Since the processing here is performed only for the number of pixels to be displayed, it can be performed in a very short processing time. In particular, since the processing in the texture generation unit 246 requires a relatively long processing time, reducing the number of pixels to be processed in the texture generation unit 246 requires:
This contributes to improving the efficiency of the entire rendering process. In addition, since the internal division ratio of the pixel already obtained at the time of the Z value interpolation calculation can be used, the processing time can be shortened in that respect as well.
【0045】[汎用コンピュータによる画像処理装置
例]図4に示した画像処理装置は、ジオミトリ処理部2
2とレンダリング処理部24とを専用のハードウエアで
構成する例である。この例の場合は、実質的にパイプラ
イン処理によって画像データがポリゴンデータ、ピクセ
ルの色データと順次変換されていく。[Example of Image Processing Apparatus by General-Purpose Computer] The image processing apparatus shown in FIG.
2 and the rendering processing unit 24 are configured by dedicated hardware. In the case of this example, the image data is substantially sequentially converted into polygon data and pixel color data by pipeline processing.
【0046】しかしながら、本発明の画像処理方法で
は、汎用コンピュータを利用してソフトウエアプログラ
ムによって上記のジオミトリ処理とレンダリング処理を
実現することが可能である。その場合の画像処理プログ
ラムは、図5に示した処理フローチャートの各処理をコ
ンピュータに実現させるプログラムコードを有する。However, in the image processing method of the present invention, it is possible to realize the above-described geometry processing and rendering processing by a software program using a general-purpose computer. The image processing program in that case has a program code for causing a computer to realize each processing of the processing flowchart shown in FIG.
【0047】図6は、汎用コンピュータを利用して本発
明の画像処理方法を実現した場合の、コンピュータの構
成図である。この例では、CPU30、RAM31、プ
ログラムメモリ32、I/O装置33、ポリゴンバッフ
ァメモリ34、Z値バッファメモリ35、フレームバッ
ファメモリ36とが共通のバス38を介して接続されて
いる。そして、フレームバッファメモリ36には外部の
表示装置37が接続される。FIG. 6 is a configuration diagram of a computer when the image processing method of the present invention is realized using a general-purpose computer. In this example, a CPU 30, a RAM 31, a program memory 32, an I / O device 33, a polygon buffer memory 34, a Z value buffer memory 35, and a frame buffer memory 36 are connected via a common bus 38. An external display device 37 is connected to the frame buffer memory 36.
【0048】プログラムメモリ33は、例えばハードデ
ィスク装置等の磁気的な記録媒体や、光磁気的に書き込
みと読み出しが行われる記録媒体、CDROMや半導体
メモリ等で構成される。このプログラムメモリ33内に
は、ゲームやシミュレーション用プログラムと画像処理
用のプログラムが記録されている。RAM31は、CP
Uの各種の演算処理時に使用されるワークメモリとして
使用されたりする。従って、ポリゴンバッファメモリ3
4とZ値バッファメモリ35が、高速アクセス可能なR
AM内に形成されても良い。The program memory 33 includes, for example, a magnetic recording medium such as a hard disk device, a recording medium on which writing and reading are performed magneto-optically, a CDROM, a semiconductor memory, and the like. In the program memory 33, a game or simulation program and an image processing program are recorded. RAM 31 is a CP
It is used as a work memory used for various arithmetic processing of U. Therefore, the polygon buffer memory 3
4 and the Z-value buffer memory 35 are connected to a high-speed accessible R
It may be formed in the AM.
【0049】汎用コンピュータを利用して本発明の画像
処理プロセスを実現させる場合は、プログラムメモリ3
2内に記憶された画像処理プログラムのプログラムコー
ドにより、上記した画像処理がコンピュータで実現され
る。従って、プログラムメモリはコンピュータによって
読み取り可能な記録媒体である必要がある。When the image processing process of the present invention is realized using a general-purpose computer, the program memory 3
The above-described image processing is realized by a computer using the program code of the image processing program stored in the computer 2. Therefore, the program memory needs to be a computer-readable recording medium.
【0050】[他の実施の形態例]図7は、本発明の画
像処理装置の他の構成例を示すブロック図である。この
例は、汎用コンピュータではなく、図5に示した如きパ
イプライン方式で処理するハードウエアの構成例であ
る。[Other Embodiments] FIG. 7 is a block diagram showing another configuration example of the image processing apparatus of the present invention. This example is not a general-purpose computer but an example of a hardware configuration that performs processing by a pipeline method as shown in FIG.
【0051】この構成例では、図4で示したZ値バッフ
ァ生成のユニット25を複数ユニット構成にして、複数
のピクセルに対して並列的にZ値バッファを生成する。
具体的には、図7に示される通り、Z値バッファ生成の
ユニット25A,25B,25C,25Dを4つ並列に
設ける。従って、Z値バッファメモリ245A、245
B,245C,246Dは4つに分割される。パラメー
タ補間器245、テクスチャ生成部247等のレンダリ
ング処理部の後半の部分は、図4の場合と同様に1つだ
け設けられる。In this configuration example, the Z-value buffer generation unit 25 shown in FIG. 4 has a plurality of units, and a Z-value buffer is generated in parallel for a plurality of pixels.
Specifically, as shown in FIG. 7, four units 25A, 25B, 25C, and 25D for generating a Z-value buffer are provided in parallel. Therefore, the Z value buffer memories 245A, 245
B, 245C and 246D are divided into four. The latter half of the rendering processing unit such as the parameter interpolator 245 and the texture generation unit 247 is provided only once as in the case of FIG.
【0052】図8、9は、図7の画像処理装置による画
像処理方法を説明する為の図である。図8に示した図
は、Z値バッファメモリが4つに分割される点を説明す
る。この例では、フレーム10内のピクセルを図中1、
2、3、4で示した様に分割する。そして、番号1のピ
クセルに対してZ値バッファメモリ245Aを設ける。
同様に、番号2のピクセルに対してZ値バッファメモリ
245Bを、番号3、4のピクセルに対してZ値バッフ
ァメモリ245C、245Dをそれぞれ設ける。従っ
て、各Z値バッファメモリは、フレーム10の画像を4
分の1に間引いた画像のZ値を格納することになる。FIGS. 8 and 9 are diagrams for explaining an image processing method by the image processing apparatus of FIG. The diagram shown in FIG. 8 explains that the Z value buffer memory is divided into four. In this example, the pixels in the frame 10 are denoted by 1,
Divide as shown in 2, 3, and 4. Then, a Z-value buffer memory 245A is provided for the pixel of number 1.
Similarly, a Z value buffer memory 245B is provided for the pixel of No. 2, and Z value buffer memories 245C and 245D are provided for the pixels of No. 3 and 4, respectively. Therefore, each Z value buffer memory stores the image of frame 10 in 4
The Z value of the image thinned to one-half is stored.
【0053】或るポリゴンに対してZ値を補間演算して
Z値バッファメモリに、Z値、ポリゴンIDデータ、内
分比を格納する処理は、番号1〜4のピクセルに対して
並列に行われる。即ち、図9に示される通り、ピクセル
G1,G2,G3,G4に対してZ値の補間演算が4つ
のユニットで並列的に行われる。The process of interpolating the Z value for a certain polygon and storing the Z value, polygon ID data, and internal division ratio in the Z value buffer memory is performed in parallel with the pixels of numbers 1 to 4. Will be That is, as shown in FIG. 9, the interpolation operation of the Z value is performed in parallel on the pixels G1, G2, G3, and G4 by four units.
【0054】ピクセルG1に対しては、ユニット25A
内のエッジ補間器242Aが、内分比t01,t11を
求め稜線ab,ac上の点d1,e1に於けるZ値を補
間演算で求める。そして、ラスタ補間器243Aが、内
分比t21を求め水平線d1e1上のピクセルG1のZ
値を求める。For pixel G1, unit 25A
The edge interpolator 242A of the inside calculates the internal division ratios t01 and t11, and obtains the Z value at the points d1 and e1 on the ridge lines ab and ac by interpolation. Then, the raster interpolator 243A obtains the internal division ratio t21 and calculates the Z of the pixel G1 on the horizontal line d1e1.
Find the value.
【0055】ピクセルG2に対しては、ユニット25B
内のエッジ補間器242B(図面から隠れて表示)が、
内分比t01,t11を求め稜線ab,ac上の点d
1,e1に於けるZ値を補間演算で求める。そして、ラ
スタ補間器243Bが、内分比t22を求め水平線d1
e1上のピクセルG2のZ値を求める。従って、ピクセ
ルG1,G2に関してはエッジ補間器は同様の処理を行
っているので、それらを共通化することもできる。但
し、図8、9の例は、ピクセルの走査がY軸に平行であ
る為に、ピクセルG1,G2のエッジ補間の内分比が共
通になっただけである。従って、ピクセルG1,G2が
Y軸に対して傾いたり、別のアルゴリズムによる走査が
行われる場合は、エッジの内分比は異なる。For the pixel G2, the unit 25B
The edge interpolator 242B (shown hidden from the drawing) in
Find internal division ratios t01 and t11, and point d on ridgelines ab and ac
The Z value at 1, e1 is obtained by interpolation. Then, the raster interpolator 243B obtains the internal division ratio t22 and obtains the horizontal line d1.
Find the Z value of pixel G2 on e1. Therefore, since the edge interpolator performs the same processing for the pixels G1 and G2, they can be shared. However, in the examples of FIGS. 8 and 9, since the scanning of the pixels is parallel to the Y axis, only the internal division ratio of the edge interpolation of the pixels G1 and G2 is common. Therefore, when the pixels G1 and G2 are inclined with respect to the Y axis or when scanning is performed by another algorithm, the internal division ratio of the edge is different.
【0056】ピクセルG3,G4についても、上記と同
様にそれぞれのユニット25C,25DによりZ値の補
間演算が行われる。For the pixels G3 and G4, the interpolation of the Z value is performed by the units 25C and 25D in the same manner as described above.
【0057】上記の並列処理は、図5に示したフローチ
ャートのステップS3〜S7を並列に行うだけである。
従って、フレーム内の全てのポリゴンに対するZ値の補
間演算とZ値バッファメモリへの書き込みが終了する
と、4つのZ値バッファメモリ245A,B,C,Dに
格納されたポリゴンIDデータと内分比を利用して、各
ピクセルのパラメータの補間演算、その求められたパラ
メータを利用した色データの生成処理が行われる。パラ
メータの補間演算は、補間器246により行われ、色デ
ータの生成処理はテクスチャ生成部247にて行われ
る。その点は、図4の場合と同じである。The above-described parallel processing simply performs steps S3 to S7 of the flowchart shown in FIG. 5 in parallel.
Therefore, when the interpolation of the Z value for all the polygons in the frame and the writing to the Z value buffer memory are completed, the polygon ID data stored in the four Z value buffer memories 245A, 245C, and 245D and the internal division ratio , The interpolation calculation of the parameters of each pixel and the generation processing of the color data using the obtained parameters are performed. The parameter interpolation calculation is performed by the interpolator 246, and the color data generation processing is performed by the texture generation unit 247. This is the same as in FIG.
【0058】図10は、更に本発明の画像処理装置の他
の構成例を示すブロック図である。そして、図11はそ
の画像処理方法を説明する為の図である。この例では、
4つのZ値生成ユニット27A,27B,27C,27
Dに対して共通のエッジ補間器242が設けられてい
る。それぞれのユニットには、ラスタ補間器243A、
Z値比較器244A、Z値バッファメモリ245Aが、
それぞれ設けられている。FIG. 10 is a block diagram showing another example of the configuration of the image processing apparatus according to the present invention. FIG. 11 is a diagram for explaining the image processing method. In this example,
Four Z value generation units 27A, 27B, 27C, 27
A common edge interpolator 242 is provided for D. Each unit has a raster interpolator 243A,
The Z value comparator 244A and the Z value buffer memory 245A
Each is provided.
【0059】図11を参照することで、エッジ補間器2
42を共通にする意味が理解される。図11に示される
通り、並列に処理される4つのピクセルG1,G2,G
3,G4は同じ水平線de上に隣接している。従って、
エッジ補間器の演算も同じになる。従って、エッジ補間
器242では、内分比t0,t1を利用して稜線上の点
d,eのZ値を求める。そして、4つのユニット27
A,B,C,Dにより、内分比t21,t22,t2
3,t24を利用してそれぞれのピクセルG1,2,
3,4のZ値を求める。Referring to FIG. 11, the edge interpolator 2
It is understood that 42 is common. As shown in FIG. 11, four pixels G1, G2, G processed in parallel
3 and G4 are adjacent on the same horizontal line de. Therefore,
The operation of the edge interpolator is the same. Therefore, the edge interpolator 242 obtains the Z values of the points d and e on the ridge line using the internal division ratios t0 and t1. And four units 27
According to A, B, C, and D, the internal division ratios t21, t22, and t2
3, t24, each pixel G1, 2,
Find Z values of 3 and 4.
【0060】図10の構成にすることで、4つのユニッ
トのハードウエア構成をより少なくすることができ、4
つのユニットを重複して設けることによるコストの上昇
を最小限に抑えることができる。With the configuration shown in FIG. 10, the hardware configuration of the four units can be further reduced.
It is possible to minimize an increase in cost due to providing two units in duplicate.
【0061】図12は、更に本発明の画像処理装置の他
の構成例を示すブロック図である。この例では、複数の
ポリゴンのZ値補間演算を並列的に処理する構成であ
る。従って、Z値生成ユニット29A,B,C,Dに対
して、Z値バッファメモリ245は共通に設けられてい
る。そして、各ユニットには、それぞれエッジ補間器2
42A〜D、ラスタ補間器243A〜D、Z値比較器2
44A〜Dが設けられている。そして、4つのポリゴン
に対して、それぞれのユニット29A〜DがZ値の補間
演算を並列的に行う。Z値バッファメモリ245は、各
ユニットから共通にアクセスされるので、例えばタイム
シェアリング的にアクセス時間を割り当てる等して共通
のアクセスが行われる。FIG. 12 is a block diagram showing another example of the configuration of the image processing apparatus according to the present invention. In this example, the configuration is such that the Z-value interpolation calculation of a plurality of polygons is processed in parallel. Therefore, the Z value buffer memory 245 is provided commonly for the Z value generation units 29A, B, C, and D. Each unit has an edge interpolator 2
42A-D, raster interpolators 243A-D, Z value comparator 2
44A to 44D are provided. Then, for the four polygons, the units 29A to 29D perform the Z value interpolation calculation in parallel. Since the Z-value buffer memory 245 is commonly accessed from each unit, common access is performed by, for example, allocating an access time in a time-sharing manner.
【0062】更に、別の構成例としては、図12の如く
複数ポリゴンに対して並列処理する構成にし、各ポリゴ
ンに対するユニット内を図7や図10に示した様に複数
ピクセルの並列処理が可能な構成にすることでも良い。
従って、各ポリゴンに対するユニットを更に4個づつ設
けると、Z値バッファメモリも図7、10の様に複数に
分割して設ける必要がある。ハードウエアの規模と処理
の効率性から、ベストの組合せが選択される。Further, as another configuration example, a configuration is adopted in which a plurality of polygons are processed in parallel as shown in FIG. 12, and a plurality of pixels can be processed in parallel in the unit for each polygon as shown in FIG. 7 and FIG. The configuration may be any.
Therefore, if four units are provided for each polygon, the Z-value buffer memory also needs to be divided and provided as shown in FIGS. The best combination is selected from the hardware scale and processing efficiency.
【0063】上記の実施の形態例の説明では、ポリゴン
内のピクセルの走査をX軸とY軸に平行な方向で行った
例で説明した。しかしながら、本発明は係る走査アルゴ
リズムに限定されるものではない。例えば、X軸、Y軸
から所定角度傾斜した方向に走査することでも適用でき
る。また、角度と長さからなる複素座標に従ってピクセ
ルを走査することでも良い。更に、ポリゴンの中心を原
点にして、4象限に分割された領域の中心、さらにその
中心に対する4象限の領域の中心というアルゴリズムに
より走査されることでも適用可能である。In the above description of the embodiment, an example has been described in which pixels in a polygon are scanned in a direction parallel to the X axis and the Y axis. However, the invention is not limited to such a scanning algorithm. For example, the present invention can be applied to scanning in a direction inclined by a predetermined angle from the X axis and the Y axis. Alternatively, the pixels may be scanned in accordance with the complex coordinates including the angle and the length. Furthermore, the present invention can also be applied to a case where scanning is performed by an algorithm in which the center of the polygon is set as the origin, the center of the area divided into four quadrants, and the center of the four quadrant area with respect to the center.
【0064】さらに、上記の例ではポリゴンの位値座標
データの例として頂点のスクリーン座標(Sx,Sy)
とZ値の例で説明したが、他の例としては、ワールド座
標(x,y,z)でも良い。これは、透視変換をバッフ
ァ書込みの前で行うか後に行うかの違いだけだからであ
る。In the above example, the screen coordinates (Sx, Sy) of the vertices are used as an example of the position coordinate data of the polygon.
Although the description has been made with reference to the example of the Z-value and the Z value, another example may be the world coordinates (x, y, z). This is because the only difference is whether the perspective transformation is performed before or after writing to the buffer.
【0065】[0065]
【発明の効果】以上説明した通り、本発明によれば、複
数のポリゴン内のピクセルの色データを求めるレンダリ
ング処理をより効率的に行うことができる。即ち、レン
ダリング処理部のZ値の補間演算からZ値比較、Z値バ
ッファメモリへの格納を行う前半部分と、Z値バッファ
メモリ内のポリゴンIDデータを利用したパラメータの
補間演算と色データの生成を行う後半部分とを分離して
いる。そして、前半部分においてフレーム内の全てのポ
リゴンに対する処理を行い、画面に表示されるピクセル
を確定する。その後、それらのピクセルに対して色デー
タの生成を行う。従って、重なり合うポリゴンが存在し
た場合、色データの生成を無駄に行うことが避けられ
る。その結果、全体のレンダリング処理効率が向上す
る。しかも、Z値の補間演算自体は、色データの生成に
比較してより単純な処理であり、重なりあうポリゴンに
対してそのZ値補間演算を行っても、さほど処理効率を
低下させることにはならない。As described above, according to the present invention, the rendering processing for obtaining the color data of the pixels in a plurality of polygons can be performed more efficiently. That is, the first half of Z-value comparison and storage in the Z-value buffer memory from the Z-value interpolation calculation by the rendering processing unit, and parameter interpolation and color data generation using polygon ID data in the Z-value buffer memory. Doing the latter part is separated. Then, in the first half, processing is performed on all the polygons in the frame to determine the pixels to be displayed on the screen. Thereafter, color data is generated for those pixels. Therefore, when there are overlapping polygons, wasteful generation of color data can be avoided. As a result, the overall rendering processing efficiency is improved. Moreover, the Z-value interpolation calculation itself is a simpler process than the generation of color data. Even if the Z-value interpolation calculation is performed on overlapping polygons, it is necessary to reduce processing efficiency so much. No.
【0066】更に、前半部分のハードウエア構成を複数
設けることにより、複数のピクセルあるいは複数のポリ
ゴンのZ値生成処理を並列的に行うことが可能になる。
しかも、前半部分と後半部分とを分離しているので、前
半部分のハードウエア構成はレンリング処理部全体に比
べて小さい。従って、並列処理の為にハードウエアを重
複して設けても、それほど大規模なハードウエア構成に
はならない。Further, by providing a plurality of hardware configurations in the first half, it is possible to perform Z value generation processing for a plurality of pixels or a plurality of polygons in parallel.
In addition, since the first half and the second half are separated, the hardware configuration of the first half is smaller than that of the entire renling processing unit. Therefore, even if hardware is provided redundantly for parallel processing, the hardware configuration is not so large.
【図1】フレーム(画面)10内に一部重なり合う2つ
のポリゴンID0、ID1とを表示する場合を示す図で
ある。FIG. 1 is a diagram showing a case where two polygons ID0 and ID1 partially overlapping in a frame (screen) 10 are displayed.
【図2】ジオミトリ処理部が生成するポリゴンデータの
構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of polygon data generated by a geometry processing unit.
【図3】頂点パラメータを利用してポリゴン内のピクセ
ルの各パラメータを補間法により求める一例を説明する
ための図である。FIG. 3 is a diagram illustrating an example of obtaining each parameter of a pixel in a polygon by an interpolation method using vertex parameters.
【図4】本発明に係る実施の形態例の画像処理装置の概
略的ブロック図である。FIG. 4 is a schematic block diagram of an image processing apparatus according to an embodiment of the present invention.
【図5】画像処理装置による画像処理のフローチャート
図である。FIG. 5 is a flowchart of image processing performed by the image processing apparatus.
【図6】汎用コンピュータを利用して本発明の画像処理
方法を実現した場合の、コンピュータの構成図である。FIG. 6 is a configuration diagram of a computer when the image processing method of the present invention is realized using a general-purpose computer.
【図7】本発明の画像処理装置の他の構成例を示すブロ
ック図である。FIG. 7 is a block diagram illustrating another configuration example of the image processing apparatus of the present invention.
【図8】図7の画像処理装置による画像処理方法を説明
する為の図である。FIG. 8 is a diagram for explaining an image processing method by the image processing device in FIG. 7;
【図9】図7の画像処理装置による画像処理方法を説明
する為の図である。9 is a diagram for explaining an image processing method by the image processing device of FIG. 7;
【図10】本発明の画像処理装置の更に他の構成例を示
すブロック図である。FIG. 10 is a block diagram showing still another configuration example of the image processing apparatus of the present invention.
【図11】図10の画像処理方法を説明する為の図であ
る。FIG. 11 is a diagram for explaining the image processing method of FIG. 10;
【図12】本発明の画像処理装置の更に他の構成例を示
すブロック図である。FIG. 12 is a block diagram showing still another configuration example of the image processing apparatus of the present invention.
24 レンダリング処理部 25 第一のレンダリング処理部 246、247 第二のレンダリング処理部(パラメー
タ補間器、テクスチャ生成部) 241 ポリゴンバッファメモリ 242、243 Z値補間器 244 Z値比較器 245 Z値バッファメモリ 248 テクスチャマップ 26 フレームバッファメモリ24 rendering processing unit 25 first rendering processing unit 246, 247 second rendering processing unit (parameter interpolator, texture generation unit) 241 polygon buffer memory 242, 243 Z value interpolator 244 Z value comparator 245 Z value buffer memory 248 Texture Map 26 Frame Buffer Memory
Claims (29)
置座標データ及び色データ生成用のパラメータとを有す
るポリゴンデータから、表示すべきピクセルの色データ
を生成するレンダリング処理部を有する画像処理装置に
おいて、 該ポリゴンデータを記憶するポリゴンバッファメモリ
と、 フレーム内のピクセルの色データを記憶するフレームバ
ッファメモリとを有し、 前記レンダリング処理部は、 前記フレーム内に位置する複数のポリゴンに対し、それ
ぞれのポリゴン内のピクセルの画面内での奥行きを示す
Z値を前記位置座標データから生成し、該フレーム内の
ピクセルのZ値が記憶されるZ値バッファメモリに、該
画面上に表示されるピクセルのZ値とそれに対応する前
記ポリゴンIDとを記憶する第一の処理部と、 該フレーム内の各ピクセルに対し、該Z値バッファメモ
リに記憶されたポリゴンIDに属する前記パラメータか
ら色データを生成する第二の処理部とを有し、該第二の
処理部が生成した各ピクセルの該色データが前記フレー
ムバッファメモリに記憶されることを特徴とする画像処
理装置。1. An image processing apparatus having a rendering processing unit for generating color data of a pixel to be displayed from polygon data having at least a polygon ID and position coordinate data belonging to the polygon ID and a parameter for generating color data. A polygon buffer memory for storing data, and a frame buffer memory for storing color data of pixels in a frame, wherein the rendering processing unit performs, for a plurality of polygons located in the frame, A Z value indicating the depth of the pixel in the screen is generated from the position coordinate data, and the Z value of the pixel displayed on the screen is stored in the Z value buffer memory in which the Z value of the pixel in the frame is stored. A first processing unit for storing the polygon ID corresponding thereto; A second processing unit for generating, for each pixel, color data from the parameter belonging to the polygon ID stored in the Z-value buffer memory, wherein the color of each pixel generated by the second processing unit is provided. An image processing apparatus, wherein data is stored in the frame buffer memory.
間演算を行うZ値補間器と、 該Z値補間器が求めたZ値と該Z値バッファメモリ内の
Z値とに基づいて該画面の手前に位置するかいなかを判
断するZ値比較器とを有することを特徴とする。2. The image processing apparatus according to claim 1, wherein the first processing unit performs a Z-value interpolator that performs a Z-value interpolation operation on the pixel based on the position coordinate data. And a Z-value comparator for determining whether or not the screen is located in front of the screen based on the Z-value obtained by the device and the Z-value in the Z-value buffer memory.
ルの内分比を求め、前記Z値バッファメモリに前記Z値
と共に該内分比を記憶することを特徴とする。3. The image processing apparatus according to claim 2, wherein the Z value interpolator obtains an internal division ratio of the pixel to be used for the interpolation operation, and stores the Z value in the Z value buffer memory together with the Z value. The internal division ratio is stored.
該Z値バッファメモリ内に記憶された内分比に基づいて
該ピクセルのパラメータ値を補間演算するパラメータ補
間器を有することを特徴とする。4. The image processing apparatus according to claim 3, wherein the second processing unit determines a parameter of the pixel based on a parameter of the polygon data and an internal division ratio stored in the Z value buffer memory. It is characterized by having a parameter interpolator for performing an interpolation operation on a value.
ルのパラメータ値を補間演算するパラメータ補間器と、 該パラメータ補間器が生成した該ピクセルのパラメータ
値に基づいて前記色データを生成する色データ生成部と
を有することを特徴とする。5. The image processing apparatus according to claim 1, wherein the second processing unit performs an interpolation operation on a parameter value of the pixel based on a parameter of the polygon data, and the parameter interpolator. And a color data generation unit that generates the color data based on the parameter value of the pixel generated by the color data generation unit.
も有し、 前記第二の処理部は、該テクスチャ座標を補間して該ピ
クセルのテクスチャ座標を求め、該ポリゴンのテクスチ
ャデータを格納したテクスチャマップから当該ピクセル
のテクスチャ座標に格納されたテクスチャデータを読み
出して、前記色データを生成することを特徴とする。6. The image processing apparatus according to claim 1, wherein the parameters of the polygon include at least texture coordinates, and the second processing unit obtains the texture coordinates of the pixel by interpolating the texture coordinates. Reading the texture data stored at the texture coordinates of the pixel from the texture map storing the texture data of the polygon to generate the color data.
セルの法線ベクトルを求め、当該法線ベクトルに従って
前記求めた色データにシェーディング処理を施すことを
特徴とする。7. The image processing apparatus according to claim 6, wherein the parameters of the polygon further include a normal vector, and the second processing unit interpolates the normal vector to obtain a normal of the pixel. A vector is obtained, and shading processing is performed on the obtained color data according to the normal vector.
いて、 前記ポリゴンデータは、頂点IDとそれに属する頂点の
前記位置座標データと前記パラメータとを有する。8. The image processing apparatus according to claim 1, wherein the polygon data includes a vertex ID, the position coordinate data of a vertex belonging to the vertex ID, and the parameter.
置座標データ及び色データ生成用のパラメータとを有す
るポリゴンデータから、表示すべきピクセルの色データ
を生成するレンダリング処理部を有する画像処理装置に
おいて、 該ポリゴンデータを記憶するポリゴンバッファメモリ
と、 フレーム内のピクセルの色データを記憶するフレームバ
ッファメモリとを有し、 前記レンダリング処理部は、 前記フレーム内に位置する複数のポリゴンに対し、それ
ぞれのポリゴン内のピクセルの画面内での奥行きを示す
Z値を前記位置座標データから生成し、該フレーム内の
ピクセルのZ値が記憶されるZ値バッファメモリに、該
画面上に表示されるピクセルのZ値とそれに対応する前
記ポリゴンIDとを記憶する第一の処理部と、 該フレーム内の各ピクセルに対し、該Z値バッファメモ
リに記憶されたポリゴンIDに属する前記パラメータか
ら色データを生成する第二の処理部とを有し、該第二の
処理部が生成した各ピクセルの該色データが前記フレー
ムバッファメモリに記憶され、 前記第一の処理部が複数層設けられ、前記ピクセルのZ
値の生成が並列的に行われることを特徴とする画像処理
装置。9. An image processing apparatus having a rendering processing unit for generating color data of a pixel to be displayed from polygon data having at least a polygon ID, position coordinate data belonging to the polygon ID, and a parameter for generating color data. A polygon buffer memory for storing data, and a frame buffer memory for storing color data of pixels in a frame, wherein the rendering processing unit performs, for a plurality of polygons located in the frame, A Z value indicating the depth of the pixel in the screen is generated from the position coordinate data, and the Z value of the pixel displayed on the screen is stored in the Z value buffer memory in which the Z value of the pixel in the frame is stored. A first processing unit for storing the polygon ID corresponding thereto; A second processing unit for generating color data from the parameters belonging to the polygon ID stored in the Z-value buffer memory for each pixel, wherein the color of each pixel generated by the second processing unit is Data is stored in the frame buffer memory; the first processing unit is provided in a plurality of layers;
An image processing apparatus, wherein values are generated in parallel.
て、 前記第一の処理部は、前記位置座標データに基づいてピ
クセルのZ値を補間演算するZ値補間器と、該Z値補間
器が求めたZ値と該Z値バッファメモリ内のZ値とに基
づいて該画面の手前に位置するかいなかを判断するZ値
比較器とを有し、複数のピクセルに対して前記ピクセル
のZ値の生成が並列的に行われることを特徴とする。10. The image processing apparatus according to claim 9, wherein the first processing unit performs an interpolation calculation of a Z value of a pixel based on the position coordinate data, and the Z value interpolator. And a Z-value comparator for judging whether or not the screen is located in front of the screen based on the Z-value obtained by the above and the Z-value in the Z-value buffer memory. Characteristically, value generation is performed in parallel.
て、 前記Z値補間器が、ポリゴンのエッジ上の点のZ値を生
成するエッジ補間器と該エッジ補間器が生成したエッジ
上のZ値に従って該エッジ間のピクセルのZ値を補間演
算するラスタ補間器とを有することを特徴とする。11. The image processing apparatus according to claim 10, wherein said Z value interpolator generates an Z value of a point on an edge of the polygon and a Z value on an edge generated by said edge interpolator. A raster interpolator that performs an interpolation operation on the Z value of the pixel between the edges according to the value.
て、 前記エッジ補間器が、複数層の第一の処理部に共通に設
けられていることを特徴とする。12. The image processing apparatus according to claim 11, wherein said edge interpolator is provided commonly to a plurality of first processing units.
て、 前記第一の処理部は、前記位置座標データに基づいてピ
クセルのZ値を補間演算するZ値補間器と、該Z値補間
器が求めたZ値と該Z値バッファメモリ内のZ値とに基
づいて該画面の手前に位置するかいなかを判断するZ値
比較器とを有し、複数のポリゴンに対して当該ポリゴン
内の該ピクセルのZ値の生成が並列的に行われることを
特徴とする。13. The image processing apparatus according to claim 9, wherein the first processing unit performs an interpolation operation on a Z value of a pixel based on the position coordinate data, and the Z value interpolator. Has a Z-value comparator for determining whether or not the screen is located in front of the screen based on the Z-value obtained in the Z-value buffer memory and the Z-value in the Z-value buffer memory. The method is characterized in that the generation of the Z value of the pixel is performed in parallel.
位置座標データ及び色データ生成用のパラメータとを有
するポリゴンデータから、表示すべきピクセルの色デー
タを生成するレンダリング処理工程を有する画像処理方
法において、 該レンダリング処理工程は、 フレーム内に位置する複数のポリゴンに対し、それぞれ
のポリゴン内のピクセルの画面内での奥行きを示すZ値
を前記位置座標データから生成し、該フレーム内のピク
セルのZ値が記憶されるZ値バッファメモリに、該画面
上に表示されるピクセルのZ値とそれに対応する前記ポ
リゴンIDとを記憶する第一の処理工程と、 該フレーム内の各ピクセルに対し、該Z値バッファメモ
リに記憶されたポリゴンIDに属する前記パラメータか
ら色データを生成し、当該生成した各ピクセルの該色デ
ータをフレームバッファメモリに記憶する第二の処理工
程とを有することを特徴とする画像処理方法。14. An image processing method comprising: a rendering processing step of generating color data of a pixel to be displayed from polygon data having at least a polygon ID, position coordinate data belonging thereto, and parameters for generating color data. In the processing step, for a plurality of polygons located in the frame, a Z value indicating the depth of the pixels in each polygon in the screen is generated from the position coordinate data, and the Z value of the pixels in the frame is stored. A first processing step of storing a Z value of a pixel displayed on the screen and the corresponding polygon ID in a Z value buffer memory to be processed; and a Z value buffer for each pixel in the frame. Color data is generated from the parameters belonging to the polygon ID stored in the memory, and each of the generated An image processing method characterized by having a second processing step of storing the color data of the cell in the frame buffer memory.
て、 前記第一の処理工程は、 前記位置座標データに基づいて前記ピクセルのZ値の補
間演算を行うZ値補間工程と、 該Z値補間工程で求めたZ値と該Z値バッファメモリ内
のZ値とに基づいて該画面の手前に位置するかいなかを
判断するZ値比較工程とを有することを特徴とする。15. The image processing method according to claim 14, wherein said first processing step includes a Z-value interpolation step of performing a Z-value interpolation operation of said pixel based on said position coordinate data. A Z value comparing step of determining whether or not the screen is located in front of the screen based on the Z value obtained in the step and the Z value in the Z value buffer memory.
て、 該Z値補間工程が、該補間演算に利用するための該ピク
セルの内分比を求める工程を更に有し、 前記第一の処理工程は、更に前記Z値バッファメモリに
前記Z値と共に該内分比を記憶する工程を有することを
特徴とする。16. The image processing method according to claim 15, wherein the Z value interpolation step further includes a step of calculating an internal division ratio of the pixel to be used for the interpolation operation, wherein the first processing is performed. The step further includes a step of storing the internal division ratio together with the Z value in the Z value buffer memory.
て、 該第二の処理工程が、前記ポリゴンデータのパラメータ
と該Z値バッファメモリ内に記憶された内分比に基づい
て該ピクセルのパラメータ値を補間演算するパラメータ
補間工程を有することを特徴とする。17. The image processing method according to claim 16, wherein said second processing step comprises: setting a parameter of said pixel based on a parameter of said polygon data and an internal division ratio stored in said Z value buffer memory. It is characterized by having a parameter interpolation step of performing an interpolation operation on the value.
て、 前記第二の処理工程は、 前記ポリゴンデータのパラメータに基づいて前記ピクセ
ルのパラメータ値を補間演算するパラメータ補間工程
と、 該パラメータ補間工程で生成した該ピクセルのパラメー
タ値に基づいて前記色データを生成する色データ生成工
程とを有することを特徴とする。18. The image processing method according to claim 14, wherein the second processing step includes: a parameter interpolation step of performing an interpolation operation on a parameter value of the pixel based on a parameter of the polygon data; And a color data generating step of generating the color data based on the parameter values of the pixel generated in (1).
て、 前記ポリゴンのパラメータがテクスチャ座標を少なくと
も有し、 前記第二の処理工程は、該テクスチャ座標を補間して該
ピクセルのテクスチャ座標を求め、該ポリゴンのテクス
チャデータを格納したテクスチャマップから当該ピクセ
ルのテクスチャ座標に格納されたテクスチャデータを読
み出して、前記色データを生成する工程を有することを
特徴とする。19. The image processing method according to claim 14, wherein the parameters of the polygon include at least texture coordinates, and the second processing step determines the texture coordinates of the pixel by interpolating the texture coordinates. Reading the texture data stored at the texture coordinates of the pixel from the texture map storing the texture data of the polygon to generate the color data.
て、 前記第一の処理工程が、複数のピクセルに対して並列的
に行われることを特徴とする。20. The image processing method according to claim 14, wherein the first processing step is performed on a plurality of pixels in parallel.
て、 前記第一の処理工程が、複数のポリゴンに対して並列的
に行われることを特徴とする。21. The image processing method according to claim 14, wherein the first processing step is performed on a plurality of polygons in parallel.
とフレーム内のピクセルの色データを記憶するフレーム
バッファメモリとを有するコンピュータに、少なくとも
ポリゴンIDとそれに属する位置座標データ及び色デー
タ生成用のパラメータとを有するポリゴンデータから、
表示すべきピクセルの色データを生成するレンダリング
処理を有する画像処理手順を実行させるためのプログラ
ムを記録したコンピュータ読み取り可能な記録媒体にお
いて、 該プログラムは、フレーム内に位置する複数のポリゴン
に対し、それぞれのポリゴン内のピクセルの画面内での
奥行きを示すZ値を前記位置座標データから生成し、該
フレーム内のピクセルのZ値が記憶されるZ値バッファ
メモリに、該画面上に表示されるピクセルのZ値とそれ
に対応する前記ポリゴンIDとを記憶させる第一の処理
手順と、 該フレーム内の各ピクセルに対し、該Z値バッファメモ
リに記憶されたポリゴンIDに属する前記パラメータか
ら色データを生成し、当該生成した各ピクセルの該色デ
ータを前記フレームバッファメモリに記憶させる第二の
処理手順とを、コンピュータに実行させるためのプログ
ラムを有することを特徴とする記録媒体。22. A computer having at least a central processing unit for performing arithmetic processing and a frame buffer memory for storing color data of pixels in a frame is provided with at least a polygon ID, position coordinate data belonging thereto, and parameters for generating color data. From the polygon data with
In a computer-readable recording medium on which a program for executing an image processing procedure having a rendering process for generating color data of a pixel to be displayed is recorded, the program is provided for each of a plurality of polygons located in a frame. A Z value indicating the depth of a pixel in the polygon in the screen is generated from the position coordinate data, and a Z value buffer memory in which the Z value of the pixel in the frame is stored is stored in a Z value buffer memory. A first processing procedure for storing the Z value of the polygon and the corresponding polygon ID, and for each pixel in the frame, generating color data from the parameter belonging to the polygon ID stored in the Z value buffer memory And storing the color data of each of the generated pixels in the frame buffer memory. And management procedures, recording medium characterized by having a program for causing a computer to execute.
間演算を行うZ値補間手順と、 該Z値補間手順で求めたZ値と該Z値バッファメモリ内
のZ値とに基づいて該画面の手前に位置するかいなかを
判断するZ値比較手順とを有することを特徴とする。23. The recording medium according to claim 22, wherein the first processing procedure includes: a Z-value interpolation procedure for performing a Z-value interpolation operation of the pixel based on the position coordinate data; And a Z-value comparison procedure for determining whether or not the screen is located in front of the screen based on the Z-value obtained in (1) and the Z-value in the Z-value buffer memory.
セルの内分比を求める手順を更に有し、 前記第一の処理手順は、更に前記Z値バッファメモリに
前記Z値と共に該内分比を記憶する手順を有することを
特徴とする。24. The recording medium according to claim 23, wherein the Z-value interpolation step further includes a step of obtaining an internal division ratio of the pixel to be used for the interpolation operation, wherein the first processing step is performed. The method further comprises a step of storing the internal division ratio together with the Z value in the Z value buffer memory.
と該Z値バッファメモリ内に記憶された内分比に基づい
て該ピクセルのパラメータ値を補間演算するパラメータ
補間手順を有することを特徴とする。25. The recording medium according to claim 24, wherein the second processing procedure is performed based on a parameter value of the pixel based on a parameter of the polygon data and an internal division ratio stored in the Z value buffer memory. Is characterized by having a parameter interpolation procedure for performing an interpolation calculation of
て、 前記第二の処理手順は、 前記ポリゴンデータのパラメータに基づいて前記ピクセ
ルのパラメータ値を補間演算するパラメータ補間手順
と、 該パラメータ補間手順で生成した該ピクセルのパラメー
タ値に基づいて前記色データを生成する色データ生成手
順とを有することを特徴とする。26. The image processing method according to claim 22, wherein the second processing procedure includes: a parameter interpolation procedure for performing an interpolation operation on a parameter value of the pixel based on a parameter of the polygon data; And a color data generation procedure for generating the color data based on the parameter value of the pixel generated in (1).
も有し、 前記第二の処理手順は、該テクスチャ座標を補間して該
ピクセルのテクスチャ座標を求め、該ポリゴンのテクス
チャデータを格納したテクスチャマップから当該ピクセ
ルのテクスチャ座標に格納されたテクスチャデータを読
み出して、前記色データを生成する手順を有することを
特徴とする。27. The recording medium according to claim 22, wherein the parameters of the polygon include at least texture coordinates, and the second processing step interpolates the texture coordinates to obtain texture coordinates of the pixel. Reading the texture data stored in the texture coordinates of the pixel from the texture map storing the texture data of the polygon, and generating the color data.
に行われることを特徴とする。28. The recording medium according to claim 22, wherein said first processing procedure is performed on a plurality of pixels in parallel.
に行われることを特徴とする。29. A recording medium according to claim 22, wherein said first processing procedure is performed in parallel on a plurality of polygons.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9144812A JPH10334269A (en) | 1997-06-03 | 1997-06-03 | Image processing device and method, and recording medium recording image processing program |
US09/079,361 US6239809B1 (en) | 1997-06-03 | 1998-05-15 | Image processing device, image processing method, and storage medium for storing image processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9144812A JPH10334269A (en) | 1997-06-03 | 1997-06-03 | Image processing device and method, and recording medium recording image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10334269A true JPH10334269A (en) | 1998-12-18 |
Family
ID=15371041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9144812A Withdrawn JPH10334269A (en) | 1997-06-03 | 1997-06-03 | Image processing device and method, and recording medium recording image processing program |
Country Status (2)
Country | Link |
---|---|
US (1) | US6239809B1 (en) |
JP (1) | JPH10334269A (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7768512B1 (en) * | 1998-08-10 | 2010-08-03 | Via Technologies, Inc. | System and method for rasterizing primitives using direct interpolation |
JP2002123159A (en) * | 2000-10-16 | 2002-04-26 | Sony Corp | Holographic stereogram printing device and method |
US7236178B2 (en) * | 2001-07-19 | 2007-06-26 | Autodesk, Inc. | Dynamically adjusted brush for direct paint systems on parameterized multi-dimensional surfaces |
JP2003109032A (en) * | 2001-09-26 | 2003-04-11 | Pioneer Electronic Corp | Image producing device and computer program |
EP1306810A1 (en) * | 2001-10-25 | 2003-05-02 | STMicroelectronics Limited | Triangle identification buffer |
US7268779B2 (en) * | 2002-12-24 | 2007-09-11 | Intel Corporation | Z-buffering techniques for graphics rendering |
JP4704348B2 (en) * | 2004-09-06 | 2011-06-15 | パナソニック株式会社 | Image generating apparatus and image generating method |
US20090231330A1 (en) * | 2008-03-11 | 2009-09-17 | Disney Enterprises, Inc. | Method and system for rendering a three-dimensional scene using a dynamic graphics platform |
US9898556B2 (en) * | 2011-06-20 | 2018-02-20 | Ford Global Technology, Llc | Immersive dimensional variation |
US9898842B2 (en) * | 2015-03-02 | 2018-02-20 | Sap Se | Method and system for generating data-efficient 2D plots |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5170468A (en) * | 1987-08-18 | 1992-12-08 | Hewlett-Packard Company | Graphics system with shadow ram update to the color map |
US4885703A (en) * | 1987-11-04 | 1989-12-05 | Schlumberger Systems, Inc. | 3-D graphics display system using triangle processor pipeline |
US4945500A (en) * | 1987-11-04 | 1990-07-31 | Schlumberger Technologies, Inc. | Triangle processor for 3-D graphics display system |
US5493644A (en) * | 1991-07-11 | 1996-02-20 | Hewlett-Packard Company | Polygon span interpolator with main memory Z buffer |
US5517603A (en) * | 1991-12-20 | 1996-05-14 | Apple Computer, Inc. | Scanline rendering device for generating pixel values for displaying three-dimensional graphical images |
US5684939A (en) * | 1993-07-09 | 1997-11-04 | Silicon Graphics, Inc. | Antialiased imaging with improved pixel supersampling |
US5596686A (en) * | 1994-04-21 | 1997-01-21 | Silicon Engines, Inc. | Method and apparatus for simultaneous parallel query graphics rendering Z-coordinate buffer |
FR2735267B1 (en) * | 1995-06-08 | 1999-04-30 | Hewlett Packard Co | SYSTEM AND METHOD OF TWO-DIMENSIONAL INTERLACED WEFT-BUFFER TRIANGLE SWEEPING CONVERTER |
US5892516A (en) * | 1996-03-29 | 1999-04-06 | Alliance Semiconductor Corporation | Perspective texture mapping circuit having pixel color interpolation mode and method thereof |
-
1997
- 1997-06-03 JP JP9144812A patent/JPH10334269A/en not_active Withdrawn
-
1998
- 1998-05-15 US US09/079,361 patent/US6239809B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US6239809B1 (en) | 2001-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4974177A (en) | Mapping circuit of a CRT display device | |
JP3203160B2 (en) | Volume rendering apparatus and method | |
JP3466661B2 (en) | Image processing apparatus and method | |
JPH04287292A (en) | Method and device for rendering trimmed parametric surface | |
WO2000002165A1 (en) | Method for generating polygon data and image display using the same | |
US6271848B1 (en) | Image processing device, image processing method and storage medium for storing image processing programs | |
JPH0916806A (en) | Stereoscopic image processor | |
JPH10334269A (en) | Image processing device and method, and recording medium recording image processing program | |
JPH11161819A (en) | Image processor, its method and recording medium recording image processing program | |
JPH0927045A (en) | Image processor | |
JP2005332195A (en) | Texture unit, image drawing apparatus, and texel transfer method | |
JP3979162B2 (en) | Image processing apparatus and method | |
KR0166106B1 (en) | Apparatus and method for image processing | |
JPH01131976A (en) | Device and method for texture mapping | |
JP3747859B2 (en) | Image processing apparatus and method | |
JP3268484B2 (en) | Shading method and shading device | |
KR100392516B1 (en) | real-time rendering method for noninterpolated volume data | |
JP2000348196A (en) | Three-dimensional picture generation device and environment map generation method | |
JP2007141196A (en) | Polygon/silhouette line/anti-aliasing circuit | |
JP2535814B2 (en) | Mapping circuit of CRT display device | |
KR100283071B1 (en) | Fast Texture Mapping Method | |
JP2003263650A (en) | Image processor and image processing method | |
JPH09231408A (en) | Moving image compositing device | |
JP4408152B2 (en) | Texture mapping method and texture mapping apparatus | |
US6489967B1 (en) | Image formation apparatus and image formation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20040803 |