JP2001167289A - Device and method for processing image while including blending processing - Google Patents

Device and method for processing image while including blending processing

Info

Publication number
JP2001167289A
JP2001167289A JP35285599A JP35285599A JP2001167289A JP 2001167289 A JP2001167289 A JP 2001167289A JP 35285599 A JP35285599 A JP 35285599A JP 35285599 A JP35285599 A JP 35285599A JP 2001167289 A JP2001167289 A JP 2001167289A
Authority
JP
Japan
Prior art keywords
pixel
data
light source
color
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP35285599A
Other languages
Japanese (ja)
Other versions
JP2001167289A5 (en
JP4411713B2 (en
Inventor
Yusuke Shimizu
祐介 清水
Tadashi Oya
忠史 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP35285599A priority Critical patent/JP4411713B2/en
Publication of JP2001167289A publication Critical patent/JP2001167289A/en
Publication of JP2001167289A5 publication Critical patent/JP2001167289A5/ja
Application granted granted Critical
Publication of JP4411713B2 publication Critical patent/JP4411713B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of efficiently performing rendering processing accompanied with blend processing of a translucent polygon. SOLUTION: In rendering processing of the translucent polygon, work data Xn as the cumulative multiplied values of transparency are found successively from the polygon of the front side in a display picture, and light source calculating processing for finding color data INTn from a light source or texture processing for finding color data TXCOn while utilizing a texture color or the like is parallel performed to plural polygons. Then, color synthesizing processing of plural polygons is performed at random for finding and accumulating image data FBn from the work data Xn-1, light source image data INTn, color data TXCOn and a opacity αn.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、半透明ポリゴンを
含む複数のポリゴンに対する画像処理装置及びその方法
にかかり、特に、半透明ポリゴンに必要な透明度を利用
したブレンディング処理や重なり合う複数のポリゴンに
対する一般的なブレンディング処理を、より効率的に且
つ短時間で処理することができる画像処理装置及びその
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for a plurality of polygons including a translucent polygon, and more particularly to a blending process utilizing transparency required for a translucent polygon and a general method for a plurality of overlapping polygons. The present invention relates to an image processing apparatus and method capable of performing efficient blending processing more efficiently and in a shorter time.

【0002】[0002]

【従来の技術】ゲーム装置やシミュレーション装置にお
いて、操作入力に応じてキャラクタ等を構成する複数の
ポリゴンの位置を求め、それらのポリゴンのうち表示さ
れるポリゴンに対してレンダリング処理を行って画像デ
ータを生成し、それらを表示することが行われる。
2. Description of the Related Art In a game device or a simulation device, the positions of a plurality of polygons constituting a character or the like are determined in accordance with an operation input, and rendering processing is performed on the displayed polygons among the polygons to convert image data. Generating and displaying them is done.

【0003】半透明ポリゴンに対するレンダリング処理
は、不透明ポリゴンと異なり、その後方(奥側)に位置
する他のポリゴンとのブレンディング処理を伴うので、
表示画面内の奥側の半透明ポリゴンから順にブレンディ
ング処理を含むレンダリング処理を行うことが必要であ
る。
[0003] Unlike a non-transparent polygon, a rendering process for a translucent polygon involves a blending process with another polygon located behind (rear side).
It is necessary to perform rendering processing including blending processing in order from the translucent polygon on the back side in the display screen.

【0004】一方、不透明のポリゴンに対するレンダリ
ング処理は、表示画面内の奥行きを示すZ値を利用した
陰面消去処理を行うことで、複数のポリゴンのレンダリ
ングの順番に制約を課すことなく、重なり合う部分の処
理が行われる。また、不透明ポリゴンと半透明ポリゴン
とが混在する場合は、上記のZ値を利用した陰面消去処
理によって不透明ポリゴンを任意の順番で処理し、その
後、半透明ポリゴンを奥側から順に処理する方法が一般
的である。
On the other hand, rendering processing for opaque polygons is performed by performing hidden surface elimination processing using a Z value indicating the depth in the display screen, thereby imposing no restriction on the rendering order of a plurality of polygons, and thereby eliminating the overlapping part. Processing is performed. Further, when opaque polygons and translucent polygons are mixed, a method of processing opaque polygons in an arbitrary order by the hidden surface elimination processing using the Z value described above, and then processing the translucent polygons in order from the back side. General.

【0005】[0005]

【発明が解決しようとする課題】ところが、レンダリン
グ処理において、処理すべきポリゴン数が多くなると、
決められたフレーム間の時間内でレンダリング処理が完
了しない場合がある。その場合、画像処理の質を重視す
ると全ての半透明ポリゴンのレンダリング処理が終了す
るまで待たなければならず、表示中のキャラクタの動き
が停止することになり、ゲーム装置あるいはシュミレー
ション装置において不都合である。また、キャラクタの
動きを重視するとフレーム間の時間内で処理されないポ
リゴンが存在することになる。その場合、半透明ポリゴ
ンのレンダリング処理が、より奥側のポリゴンから処理
されるので、画像内で最も重要なキャラクタの一つであ
る手前側のポリゴンの処理が切り捨てられることにな
る。
However, when the number of polygons to be processed increases in the rendering processing,
The rendering process may not be completed within a predetermined time between frames. In that case, if emphasis is placed on the quality of the image processing, it is necessary to wait until the rendering processing of all the translucent polygons is completed, and the movement of the character being displayed is stopped, which is inconvenient in the game device or the simulation device. . If the movement of the character is emphasized, there are polygons that are not processed within the time between frames. In this case, since the rendering process of the translucent polygon is performed from the polygon on the far side, the process on the polygon on the near side, which is one of the most important characters in the image, is cut off.

【0006】更に、不透明ポリゴンと半透明ポリゴンの
レンダリング処理は、上記した通り、それぞれの効率を
重視すると、それらのポリゴンを分けて別々に処理する
必要があり、画像処理の負担を増大させる。かかる負担
の増大は、上記と同様にフレーム間の時間内での画像処
理の完了を困難にさせる。
Further, as described above, if importance is placed on the efficiency of rendering the opaque polygon and the translucent polygon, it is necessary to process the polygons separately and increase the burden of image processing. Such an increase in the load makes it difficult to complete the image processing within the time between frames as described above.

【0007】更に、半透明ポリゴンに対する不透明度を
利用したブレンディング処理に限定されず、一般的なブ
レンディング処理においても、表示画面のより奥側のポ
リゴンの色データを先に求め、その色データと次に処理
するポリゴンの色データとに対して、所定のソース混合
計数とディスティネーション混合計数とによりブレンデ
ィング処理することが提案されている。この場合も、表
示画面の奥側のポリゴンから順番に処理することが要求
され、半透明ポリゴンの場合と同様の課題を有する。
Further, the present invention is not limited to the blending process using the opacity of a semi-transparent polygon. In general blending process, the color data of the polygon on the far side of the display screen is obtained first, and the color data and the next color data are obtained. It has been proposed to perform a blending process on color data of a polygon to be processed by a predetermined source mixing count and a destination mixing count. Also in this case, it is required to perform processing in order from the polygon on the back side of the display screen, and there is the same problem as in the case of the translucent polygon.

【0008】そこで、本出願人は、上記課題を解決する
発明を提案した。例えば、特願平11-225426号、1999年
8月9日出願の「ブレンディング処理を含む画像処理装
置及びその方法」である。本件は、本願出願時点では未
公開であり、従って公知ではない。この発明では、半透
明ポリゴンのレンダリング処理を、表示画面内の手前
側、つまり視点側のポリゴンから深さ方向に順に行うこ
とを特徴とする。そのために、表示画面内の手前側から
順に並べた時のn番目のポリゴンに、色データT n と不
透明度αn とが与えられる場合、ワークデータXn とし
て、 Xn =(1−αn )・Xn-1 を求め、更に画像データDn として、 Dn =Dn-1 +Tn ・αn ・Xn-1 を求め、ワークデータXn 及び画像データDn を求める
上記の演算処理を全てのポリゴンに対して行う。そし
て、最後の画像データDn を、表示用の画像データとし
て利用する。
Accordingly, the present applicant has solved the above-mentioned problem.
The invention was proposed. For example, Japanese Patent Application No. 11-225426, 1999
“Image processing equipment including blending processing” filed on August 9
And its method ". This case has not been completed at the time of filing the application.
It is public and therefore unknown. In the present invention, the semi-transparent
Rendering of light polygons in front of the display screen
Side, that is, from the viewpoint side polygon in the depth direction.
And features. Therefore, from the near side in the display screen
The color data T is assigned to the n-th polygon when arranged in order. nAnd not
Transparency αnIs given, the work data Xnage
And Xn= (1-αn) ・ Xn-1 And further obtain image data DnAs Dn= Dn-1+ Tn・ Αn・ Xn-1 And work data XnAnd image data DnAsk for
The above processing is performed on all polygons. Soshi
And the last image data DnAs image data for display
Use.

【0009】本発明は、上記の画像処理アルゴリズムを
利用して、より高速にレンダリング処理を行うことがで
きる新規な画像処理装置及び画像処理方法を提供するも
のである。
The present invention provides a novel image processing apparatus and image processing method capable of performing a rendering process at a higher speed by using the above-described image processing algorithm.

【0010】本発明の目的は、半透明ポリゴンの画像処
理において、フレーム間の時間内により手前側のポリゴ
ンのレンダリング処理を確実に行うことができる画像処
理装置、その方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus and method capable of reliably performing rendering processing of a polygon on the front side within the time between frames in image processing of a translucent polygon.

【0011】更に、本発明の目的は、不透明ポリゴンと
半透明ポリゴンが混在したポリゴンの画像処理におい
て、両ポリゴンを区別することなくレンダリング処理す
ることができ、更に処理効率を高めた画像処理装置、そ
の方法を提供することにある。
Further, an object of the present invention is to provide an image processing apparatus which can perform rendering processing without discriminating both polygons in image processing of polygons in which opaque polygons and translucent polygons are mixed, and further improve processing efficiency. It is to provide the method.

【0012】更に、本発明の目的は、一般的なブレンデ
ィング処理において、処理効率を高めた画像処理装置、
その画像処理方法を提供することにある。
Further, an object of the present invention is to provide an image processing apparatus having improved processing efficiency in general blending processing.
An object of the present invention is to provide an image processing method.

【0013】[0013]

【課題を解決するための手段】本発明の第1の側面は、
半透明ポリゴンのレンダリング処理を、表示画面内の手
前側のポリゴンから順にワークデータXnを求めると共
に、光源からの色データINTnを求める光源計算処理や、
テクスチャカラーなどを利用して色データTXCOnを求め
るテクスチャ処理を、複数のポリゴンに対して並列に行
う。そして、上記のワークデータXn、光源色データINT
n、色データTXCOn及び不透明度αnとから、画像データ
FBnを求めて累積するカラー合成処理を、複数のポリ
ゴンに対して順不同で行うことを特徴とする。
SUMMARY OF THE INVENTION A first aspect of the present invention is as follows.
The rendering process of the translucent polygon includes light source calculation processing for obtaining work data Xn in order from the polygon on the near side in the display screen and color data INTn from the light source,
Texture processing for obtaining color data TXCOn using a texture color or the like is performed on a plurality of polygons in parallel. The work data Xn and the light source color data INT
n, color data TXCOn and opacity αn, and a color synthesis process for obtaining and accumulating image data FBn is performed for a plurality of polygons in random order.

【0014】そのために、表示画面内の手前側から順に
並べた時のn番目のポリゴンに、ピクセル色データTXCO
n と不透明度αn と光源色データINTnが与えられる場
合、ワークデータXn として、 Xn =(1−αn )・Xn-1 を全てのポリゴンに対して表示画面内の手前側から順番
に求める。更に、画像データFBn として、乗算値INTn
・TXCOn ・αn ・Xn-1を全てのポリゴンに対して求
め、累積する。即ち、 FB =Σ(INTn・TXCOn ・αn ・Xn-1 ) の演算を行う、これは、重なり合うポリゴンの各画像デ
ータFBnを加算する演算であるので、各画像データF
Bnは、深さ方向の複数のポリゴンに対して順不同で求
めることができる。そして、全て累積した画像データF
Bを、表示用の画像データとして利用する。
For this purpose, pixel color data TXCO is added to the n-th polygon when arranged in order from the near side in the display screen.
If n and opacity alpha n and the light source color data INTn is given, as work data X n, from the front side of the display screen with respect to X n = (1-α n ) · X n-1 all polygons Ask in order. Furthermore, as image data FB n, multiplication value INT n
· TXCO n · α n · X n-1 are calculated for all polygons and accumulated. That is, FB = Performing the calculation of Σ (INT n · TXCO n · α n · X n-1), which, since it is operation for adding the image data FBn of overlapping polygons, the image data F
Bn can be obtained in a random order for a plurality of polygons in the depth direction. Then, all the accumulated image data F
B is used as display image data.

【0015】上記において、ワークデータXn の初期値
0 は、例えば1が好ましい。また、画像データFBn
の初期値FB0 は、例えば0が好ましい。
In the above, the initial value X 0 of the work data X n is preferably 1, for example. Also, the image data FB n
The initial value FB 0 of, for example, 0 is preferable.

【0016】上記の画像処理では、画像データFBは、
ピクセル色データTXCOnと、不透明度αnと、光源色デー
タINTn及びワークデータXnの積算した値INTn・TXCOn
・α n ・Xn-1を加算(累積)した値(n=0〜j、j
は重なったポリゴンの枚数)である。そして、各ポリゴ
ンに対する積算値INTn・TXCOn ・αn ・Xn-1を求める
演算は、他のポリゴンに影響を受けないので、上記した
通り、順不同で行うことができる。そして、光源からポ
リゴンに与えられる影響を示す光源色データINTnの演算
は、ポリゴンの種類に応じて簡単な場合と複雑な場合と
が混在する。また、テクスチャカラー等を利用してピク
セル色データTXCOnを求める演算処理も、ポリゴンに応
じて簡単な場合と複雑な場合とが混在する。一方、透明
度の累積乗算値であるワークデータXn =(1−αn
・Xn-1 は、他のポリゴンのワークデータXn-1 の影響
を受けるので、スクリーンの手前から深さ方向に順番に
行う必要がある。但し、この演算処理自体は、単純であ
り、処理工数は少ない。
In the above image processing, the image data FB is
Pixel color data TXCOn, opacity αn, light source color data
Value INT of data INTn and work data Xnn・ TXCOn
・ Α n・ Xn-1(N = 0 to j, j)
Is the number of overlapping polygons). And each polygo
Integrated value INTn・ TXCOn・ Αn・ Xn-1Ask for
The operation is not affected by other polygons, so
As you can see, they can be performed in any order. And from the light source
Calculation of light source color data INTn showing the effect on rigone
Can be simple or complex depending on the type of polygon
Are mixed. Also, use a texture color, etc.
The calculation processing for cell color data TXCOn is also
In some cases, simple cases and complicated cases are mixed. Meanwhile, transparent
Work data X that is the cumulative multiplication value of degreesn= (1-αn)
・ Xn-1Is the work data X of another polygonn-1Impact of
In order from the front of the screen in the depth direction
There is a need to do. However, the operation itself is simple.
And the number of processing steps is small.

【0017】そこで、本発明では、演算処理工数が比較
的高い光源計算処理やテクスチャ処理を、複数のポリゴ
ンに対して並列に行い、これらの処理が終了したポリゴ
ンから順に、積算値INTn・TXCOn ・αn ・Xn-1を求め
る処理とそれらを累積加算する処理とからなるカラー合
成処理を行う。その結果、従来非常に演算負荷が重かっ
た光源計算処理やテクスチャ処理を短時間で効率的に行
うことができる。
[0017] In the present invention, the processing steps are relatively high light source calculation processing and texture processing is performed in parallel for a plurality of polygons, in order from the polygon these processing is completed, the accumulated value INT n · TXCO A color synthesizing process including a process for obtaining n · α n · X n-1 and a process for accumulating them is performed. As a result, the light source calculation processing and the texture processing, which conventionally have a very heavy calculation load, can be efficiently performed in a short time.

【0018】上記のワークデータXn は、手前側(視点
側)のn枚の半透明ポリゴンの透明度(1−α)が乗算
された値を意味する。従って、重なり合う複数のポリゴ
ンに対して、手前側のポリゴンから順番にワークデータ
を求める処理をすることで、全てのポリゴンに対するワ
ークデータXnを順番に求めることができる。それぞれ
のポリゴンのレンダリング処理では、ピクセル色データ
TXCOn を、それより手前のn−1枚のポリゴンの透明度
を乗算したワークデータ値Xn-1 と、透明度α nと、光
源色データINTn応じて、演算処理して画像データFBn
を求める。そして、それぞれのポリゴンに対して求めら
れた画像データFBnが累積(加算)されて、表示用の
画像データFBが求められる。
The above work data XnIs the near side (viewpoint
Side) multiplied by the transparency (1-α) of the n translucent polygons
Means the given value. Therefore, multiple overlapping polygons
Work data in order from the polygon on the front side
The processing for all polygons
Data XnCan be obtained in order. Respectively
Pixel rendering data
TXCOnIs the transparency of the n-1 polygons before it.
Work data value X multiplied byn-1And the transparency α nAnd the light
Source color data INTnAccording to the calculation processing, the image data FBn
Ask for. And for each polygon
The accumulated image data FBn is accumulated (added) and
Image data FB is obtained.

【0019】本発明の別の側面は、重なり合う複数のポ
リゴンに対する画像処理を行って、表示用画像データを
生成する画像処理装置において、表示画面内の手前側か
ら深さ方向に順に並べた時のn番目のポリゴンに、ピク
セル色データTXCOn と、不透明度αn または透明度(1
−αn)と、光源色データINTnが与えられ、前記画像処
理装置は、重なり合うピクセルの前記透明度(1−α
n)の乗算値Xnを、前記手前側から深さ方向の順に求め
るブレンド処理ユニットと、ピクセルの光源データに従
って、深さ方向の各ピクセルに対する光源色データINTn
を求める光源計算ユニットと、ポリゴン色データPCOLn
及びテクスチャ座標に従って、前記深さ方向の各ピクセ
ルに対するピクセル色データTXCOnを求めるテクスチャ
処理ユニットと、前記深さ方向の各ピクセルに対して、
当該ピクセルのピクセル色データTXCOnを、光源色デー
タINTn、不透明度αn、及び一つ手前側のピクセルの前
記乗算値Xn-1に応じて修正し累積するカラー合成処理
を行うカラー合成ユニットとを有し、前記光源計算ユニ
ット及びテクスチャ処理ユニットの少なくとも一方が、
対応するデータ生成処理を並列に行い、前記カラー合成
ユニットが、前記カラー合成処理を深さ方向のピクセル
について順不同で行うことを特徴とする画像処理装置で
ある。または、その画像処理方法である。
According to another aspect of the present invention, in an image processing apparatus for generating image data for display by performing image processing on a plurality of overlapping polygons, the image processing apparatus is provided with a plurality of polygons arranged in order from the near side in the display screen in the depth direction. Pixel color data TXCOn for the nth polygon And opacity α n or transparency (1
-Αn) and the light source color data INTn, and the image processing apparatus determines the transparency (1-α) of the overlapping pixel.
n) the light source color data INTn for each pixel in the depth direction according to the blend processing unit for obtaining the multiplied value Xn in the depth direction from the near side and the light source data of the pixel.
Light source calculation unit to obtain the polygon color data PCOLn
And a texture processing unit for obtaining pixel color data TXCOn for each pixel in the depth direction according to the texture coordinates, and for each pixel in the depth direction,
A color combining unit that performs a color combining process that corrects and accumulates the pixel color data TXCOn of the pixel in accordance with the light source color data INTn, the opacity αn, and the multiplied value X n−1 of the immediately preceding pixel. Having at least one of the light source calculation unit and the texture processing unit,
An image processing apparatus, wherein corresponding data generation processes are performed in parallel, and the color synthesis unit performs the color synthesis process in random order for pixels in a depth direction. Or, the image processing method.

【0020】更に、本発明の別の側面は、重なり合う複
数のポリゴンに対する画像処理を行って、表示用画像デ
ータを生成する画像処理装置において、表示画面内の手
前側から深さ方向に順に並べた時のn番目のポリゴン
に、ピクセル色データTXCOn と、光源色データINTnと、
ディスティネーション混合係数DE n 及びソース混合係数
SRn についてのデータが与えられ、前記画像処理装置
は、重なり合うピクセルの前記ソース混合係数SRnの乗
算値Xnを、前記手前側から深さ方向の順に求めるブレ
ンド処理ユニットと、ピクセルの光源データに従って、
深さ方向の各ピクセルに対する光源色データINTnを求め
る光源計算ユニットと、ポリゴン色データPCOLn及びテ
クスチャ座標に従って、前記深さ方向の各ピクセルに対
するピクセル色データTXCOnを求めるテクスチャ処理ユ
ニットと、前記深さ方向の各ピクセルに対して、当該ピ
クセルのピクセル色データTXCOnを、光源色データINT
n、ディスティネーション混合係数DEn、及び一つ手前側
のピクセルの前記乗算値Xn-1に応じて修正し累積する
カラー合成処理を行うカラー合成ユニットとを有し、前
記光源計算ユニット及びテクスチャ処理ユニットの少な
くとも一方が、対応するデータ生成処理を並列に行い、
前記カラー合成ユニットが、前記カラー合成処理を深さ
方向のピクセルについて順不同で行うことを特徴とする
画像処理装置である。また、その画像処理方法である。
Further, another aspect of the present invention is directed to overlapping overlapping
Performs image processing on a number of polygons and
In an image processing device that generates data,
N-th polygon when arranged in order from the front in the depth direction
And pixel color data TXCOn And light source color data INTn,
Destination mixing coefficient DE nAnd source mixing coefficient
SRnAnd the image processing apparatus
Is the source mixing coefficient SR of the overlapping pixelsnTo the power of
Arithmetic value XnFrom the near side in the depth direction.
Command processing unit and the light source data of the pixel,
Obtain the light source color data INTn for each pixel in the depth direction
Light source calculation unit, polygon color data PCOLn and
According to the texture coordinates, each pixel in the depth direction is
Texture processing to find the pixel color data TXCOn
For each pixel in the depth direction,
Xel pixel color data TXCOn and light source color data INT
n, destination mixing coefficient DEn, And one near side
Multiplied value X of the pixeln-1Correct and accumulate according to
A color synthesis unit for performing color synthesis processing,
Light source calculation unit and texture processing unit
At least one performs the corresponding data generation processing in parallel,
The color synthesizing unit performs the color synthesizing process in a depth
The feature is that the order of pixels in the direction is performed in any order
An image processing device. The image processing method is also described.

【0021】[0021]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面に従って説明する。しかしながら、本発明の技術
的範囲がその実施の形態に限定されるものではない。
Embodiments of the present invention will be described below with reference to the drawings. However, the technical scope of the present invention is not limited to the embodiment.

【0022】最初に、先願の特願平11-225426号で提案
した、ブレンディング処理方法について説明する。
First, a blending processing method proposed in Japanese Patent Application No. 11-225426 will be described.

【0023】図1は、半透明ポリゴンの重なり例を説明
する図である。この例では、3枚の半透明ポリゴンP
1,P2,P3と、1枚の不透明ポリゴンP4とが、表
示画面内の奥行き方向(Z値)について手前から順に重
なっている。従って、領域C4の画像データC4 は、不
透明ポリゴンP4のテクスチャデータから環境光等に応
じて形成される色データT4 そのままである。
FIG. 1 is a diagram for explaining an example of overlapping of translucent polygons. In this example, three translucent polygons P
1, P2, P3 and one opaque polygon P4 are sequentially overlapped from the near side in the depth direction (Z value) in the display screen. Therefore, the image data C 4 of the area C 4 is the color data T 4 formed according to the environment light or the like from the texture data of the opaque polygon P 4 .

【0024】本明細書において、ポリゴンの色データT
は、例えばポリゴン自体の色データ、模様を含むテクス
チャ色データ、更に、テクスチャ色データやポリゴン自
体の色データにシェーディング処理した後の色データ等
を含む。それらのいずれかの色データを代表して、ポリ
ゴンの色データTと称する。また、ブレンディング処理
などにより求められた色データは、表示に利用される画
像データCである。従って、画像データCも一種の色デ
ータである。
In the present specification, the polygon color data T
Includes, for example, the color data of the polygon itself, the texture color data including the pattern, and the color data after shading the texture color data and the color data of the polygon itself. Any one of these color data will be referred to as polygon color data T. The color data obtained by the blending process or the like is image data C used for display. Therefore, the image data C is also a kind of color data.

【0025】 即ち、C4 =T4 (1) また、領域C3は、不透明ポリゴンP4上に半透明ポリ
ゴンP3が重なっているので、その画像データは、半透
明ポリゴンP3の不透明度α3 (α3 =1で不透明、α
3 =0で透明、1>α3 >0で半透明)及び色データT
3 に従って、ポリゴンP4,P3の色データをブレンデ
ィングした色データとなる。即ち、従来の一般的なレン
ダリング方法によれば、領域C3の色データは、 C3 =α3 3 +(1−α3 )C4 (2) で求められる。
That is, C 4 = T 4 (1) In the area C 3, since the translucent polygon P 3 overlaps the opaque polygon P 4, the image data is the opacity α 33 = 1, opaque, α
3 = 0 transparent, 1> α 3 > 0 translucent) and color data T
According to 3 , the color data is obtained by blending the color data of the polygons P4 and P3. That is, according to the conventional general rendering method, color data of the area C3 is, C 3 = α 3 T 3 + (1-α 3) obtained in C 4 (2).

【0026】同様に、領域C2の画像データC2 も、半
透明ポリゴンP2の不透明度α2 及び色データT2と領
域C3の色データC3 とから、 C2 =α2 2 +(1−α2 )C3 (3) で求められ、更に、領域C1の画像データC1 も、 C1 =α1 1 +(1−α1 )C2 (4) で求められる。
Similarly, the image data C 2 of the area C 2 is also obtained from the opacity α 2 and color data T 2 of the translucent polygon P 2 and the color data C 3 of the area C 3 as C 2 = α 2 T 2 + (1 −α 2 ) C 3 (3), and the image data C 1 of the area C 1 is also obtained by C 1 = α 1 T 1 + (1−α 1 ) C 2 (4).

【0027】以上の通り、半透明ポリゴンに対するレン
ダリング処理は、画像データCnを求めるために、他の
ポリゴンとの重なり合う領域において、より奥側の画像
データCn+1 を再帰的に参照してブレンディング処理を
行う必要がある。従って、表示画面内の奥側から順にポ
リゴンのレンダリング処理を行うのが一般的である。
[0027] As described above, the rendering process for the semi-transparent polygons, in order to obtain the image data C n, in the region where the overlapping with another polygon, more image data C n + 1 on the back side with reference recursively Blending must be performed. Therefore, it is general to perform polygon rendering processing sequentially from the back side in the display screen.

【0028】そこで、先願で提案した発明は、上記した
従来の課題を解決するために、表示画面内の手前側から
順にポリゴンのレンダリング処理を行うことを特徴とす
る。この発明によれば、上記の式(2)、(3)、
(4)から、C1 について開くと、 C1 =α1 1 +(1−α1 ){α2 2 +(1−
α2 )[α3 3+(1−α3 )C4 ]} となり、更に、Tn についてまとめると、 C1 =T1 α1 +T2 α2 (1−α1 )+T3 α3 (1−α1 )(1−α2 ) +C4 (1−α1 )(1−α2 )(1−α3 ) (5) ここで、ポリゴンP4が不透明ポリゴンであり、不透明
度データα4 =1とし、更に、任意のワークデータXn
として、 Xn =(1−α1 )(1−α2 ....(1−αn ) =Xn-1 (1−αn ) (6) と定義するとする。但し、X0 =1とする。
Therefore, the invention proposed in the prior application is characterized by performing polygon rendering processing in order from the near side in the display screen in order to solve the above-mentioned conventional problems. According to the present invention, the above equations (2), (3),
From (4), when C 1 is opened, C 1 = α 1 T 1 + (1−α 1 ) {α 2 T 2 + (1−
α 2 ) [α 3 T 3 + (1−α 3 ) C 4 ]}. Further, T n can be summarized as follows: C 1 = T 1 α 1 + T 2 α 2 (1−α 1 ) + T 3 α 3 (1−α 1 ) (1−α 2 ) + C 4 (1−α 1 ) (1−α 2 ) (1−α 3 ) (5) Here, the polygon P4 is an opaque polygon, and the opacity data α 4 = 1, and any work data X n
As, and X n = (1-α 1 ) (1-α 2) .... (1-α n) = X n-1 (1-α n) defined as (6). Note that X 0 = 1.

【0029】上記式(6)を式(5)に挿入すると、 C1 =T1 α1 0 +T2 α2 1 +T3 α3 2 +C4 3 =T1 α1 0 +T2 α2 1 +T3 α3 2 +T4 α4 3 となり、各々のTn αn n-1 に着目すれば、 FBn =FBn-1 +Tn αn n-1 (7) とすることができる。但し、FB0 =0である。その結
果、n=4の場合は、FB4 =C1が成立する。
[0029] When inserting the above expression (6) into equation (5), C 1 = T 1 α 1 X 0 + T 2 α 2 X 1 + T 3 α 3 X 2 + C 4 X 3 = T 1 α 1 X 0 + T 2 α 2 X 1 + T 3 α 3 X 2 + T 4 α 4 X 3 next, focusing on each of T n α n X n-1 , FB n = FB n-1 + T n α n X n-1 ( 7) However, FB 0 = 0. As a result, when n = 4, FB 4 = C 1 holds.

【0030】即ち、従来のブレンディング処理と同じ処
理を、上記の式(6)と(7)を利用することで、表示
画面内の手前側から順にポリゴンのデータとして、色デ
ータTn とその不透明度αn を与えて、全ての重なり合
うポリゴンに対する演算処理を行うことにより、最終的
に得られる画像データFBn は、図1の領域C1の画像
データC1 と同じになる。従って、新たに定義したワー
クデータXn を利用して、画像データFBn =FBn-1
+Tn αn n-1 を求めることができる。これらの数式
のインデックスから明らかな通り、これらの演算におい
て、より奥側のポリゴンのデータを再帰的に呼び出す必
要はなくなる。
That is, the same processing as the conventional blending processing is performed by using the above equations (6) and (7), so that the color data Tn and its color data Tn are sequentially converted into polygon data from the near side in the display screen. By giving the transparency α n and performing arithmetic processing on all overlapping polygons, the finally obtained image data FB n becomes the same as the image data C 1 of the area C 1 in FIG. Thus, by utilizing the work data X n newly defined, the image data FB n = FB n-1
+ T n α n X n- 1 can be obtained. As is clear from the indices of these equations, it is not necessary to recursively call the data of the polygon on the far side in these operations.

【0031】図2は、上記の演算を利用する本発明のレ
ンダリング処理を、図1の例に適用した時の演算式を示
す図表である。図2(1)に、先願の発明の場合を、図
2(2)に従来例の場合をそれぞれ示す。
FIG. 2 is a chart showing an arithmetic expression when the rendering processing of the present invention utilizing the above-described arithmetic operation is applied to the example of FIG. FIG. 2A shows the case of the invention of the prior application, and FIG. 2B shows the case of the conventional example.

【0032】図2の図表から明らかな通り、従来例のレ
ンダリング処理によれば、半透明のポリゴンに対して、
奥側のポリゴンP4 の色データT4 と不透明度α4 と初
期値C5 を利用して、領域C4の画像データC4 が求め
られ、更に、一つ手前のポリゴンP3 の色データT3
不透明度α3 と初期値C4 を利用して、領域C3の画像
データC3 が求められる。更に、領域C2の画像データ
2 及び領域C1の画像データC1 が順に求められる。
As is clear from the table of FIG. 2, according to the conventional rendering processing, a semi-transparent polygon is
The image data C 4 of the area C 4 is obtained by using the color data T 4 of the back side polygon P 4, the opacity α 4 and the initial value C 5 , and further, the color data T 4 of the immediately preceding polygon P 3 is obtained. 3 and using the opacity alpha 3 and the initial value C 4, the image data C 3 region C3 is determined. Further, the image data C 1 of the image data C 2 and the region C1 of the region C2 are determined sequentially.

【0033】それに対して、先願の発明によれば、上記
の式(6)、(7)を利用することで、最初に最も手前
に位置するポリゴンP1の色データT1 と不透明度α1
と初期値X0 とFB0 を利用して、途中の画像データF
1 が求められ、更に、一つ奥側のポリゴンP2 の色デ
ータT2 と不透明度α2 と上記の途中の画像データFB
1 を利用して、次の途中の画像データFB2 が求められ
る。更に、同様にして次の途中の画像データFB3 、F
4 が求められる。そして、全てのポリゴンのデータに
対する処理が終了した最終画像データFB4 が、領域C
1の画像データC1 として利用される。
On the other hand, according to the invention of the prior application, the color data T 1 and the opacity α 1 of the polygon P1 located first in the foreground by using the above equations (6) and (7).
And the initial image values X 0 and FB 0 , and intermediate image data F
B 1 is obtained, and further, the color data T 2 and the opacity α 2 of the polygon P 2 on the back side, and the intermediate image data FB
1, utilizing the image data FB 2 in the following way is required. Further, similarly, the next intermediate image data FB 3 , F
B 4 is required. Then, the final image data FB 4 the processing for data of all polygons ends, the region C
It is used as one image data C1.

【0034】従って、この先願発明によれば、半透明ポ
リゴンに対するレンダリング処理は、手前側のポリゴン
に対するデータ(色データTと不透明度データα)を利
用して次々に演算処理することができる。更に、後述す
る具体例で明らかになるが、より奥側のポリゴンに対す
るレンダリング処理では、ワークデータXn-1 が小さく
なる傾向にあり、そのワークデータXn-1 を利用して求
められる途中の画像データFBn も変化が少なくなる傾
向にある。従って、ある程度ワークデータXn- 1 が小さ
くなると、あるいは0になると、それ以降の奥側のポリ
ゴンのデータに対するレンダリング処理を省略しても、
表示される画像への影響は殆どないことが理解される。
Therefore, according to the invention of the prior application, the rendering process for the translucent polygon can be performed one after another by using the data (color data T and opacity data α) for the front polygon. Further, as will be apparent from a specific example described later, in the rendering processing for the polygon on the far side, the work data X n-1 tends to be small, and the halfway obtained using the work data X n-1 They tend to also change the image data FB n decreases. Therefore, when the work data X n- 1 is reduced to some extent or becomes 0 to some extent, even if the subsequent rendering processing for the data of the back side polygon is omitted,
It is understood that there is almost no effect on the displayed image.

【0035】更に、上記のレンダリング処理の演算にお
いて、不透明ポリゴンに対しては、単に不透明度αn
1(不透明)とすれば、上記の演算をそのまま適用して
処理することができる。即ち、不透明度αn =1の場合
は、ワークデータXn =0となり、それより奥側のポリ
ゴンのレンダリング処理の結果に変化はなくなり、実質
的にそれらの奥側のポリゴンに対するレンダリングは不
要になる。従って、この先願発明のレンダリング処理を
利用することにより、半透明ポリゴンと不透明ポリゴン
とを混在させても、より手前側のポリゴンから順に、半
透明と不透明を区別なく処理することができる。
Further, in the above-described calculation of the rendering processing, if the opacity α n is simply set to 1 (opaque) for the opaque polygon, the above-described calculation can be directly applied to the processing. That is, when the opacity α n = 1, the work data X n = 0, and there is no change in the rendering result of the polygons on the back side, so that rendering on those back side polygons is substantially unnecessary. Become. Therefore, by utilizing the rendering process of the invention of the prior application, even if translucent polygons and opaque polygons are mixed, translucent and opaque can be processed in order from the polygon on the nearer side.

【0036】上記したワークデータXn は、物理的に
は、n枚のポリゴンを重ねた時の透明度(1−α)の累
積乗算された値を意味する。即ち、上記の式(6)から
明らかな通り、ワークデータXn は、各ポリゴンの透明
度(1−α)が全て乗算された値である。つまり、透明
度の高いポリゴン、例えば(1−α)が1に近いポリゴ
ンが重ねられる場合に、その奥側に位置するn枚目のポ
リゴンの色データTn を追加する場合は、それより手前
のn−1枚の重なったポリゴンの透明度(1−α)の累
積乗算値に応じて、画像データFBn-1 に影響を与え
る。そして、望ましくは、n枚目のポリゴンの不透明度
αn に応じた色データTn が、加えられる。n枚目のポ
リゴン自身が透明なポリゴン(1−αn =1)の場合
は、その色データTn は加えられるべきではないからで
ある。
The work data Xn described above physically means a value obtained by cumulatively multiplying the transparency (1-α) when n polygons are overlapped. That is, as is apparent from the above equation (6), the work data Xn is a value obtained by multiplying all the transparency (1−α) of each polygon. That is, when a polygon having high transparency, for example, a polygon in which (1-α) is close to 1, is superimposed, when adding the color data Tn of the n-th polygon located on the back side thereof, The image data FB n-1 is affected according to the cumulative multiplication value of the transparency (1-α) of the n-1 overlapping polygons. Then, desirably, color data T n according to the opacity α n of the n-th polygon is added. This is because if the nth polygon itself is a transparent polygon (1−α n = 1), the color data T n should not be added.

【0037】以上の様に、上記の式(7) FBn =FBn-1 +Tn αn n-1 によるレンダリング処理は、第1に、処理しようとする
奥側のポリゴンの色データTn を、それより手前のn−
1枚のポリゴンの透明度を累積した値Xn-1 に応じて、
手前のn−1枚のポリゴンが重ねられた画像データFB
n-1 に加える処理である。
As described above, the rendering processing by the above equation (7) FB n = FB n-1 + T n α n X n-1 firstly involves the color data T of the polygon on the back side to be processed. n is the previous n-
According to the value X n-1 that is the accumulated transparency of one polygon,
Image data FB in which n-1 polygons in the foreground are superimposed
This is processing to be added to n-1 .

【0038】第2に、上記の式(7)によるレンダリン
グ処理は、処理中のポリゴンの透明度に応じて、その色
データTn を加えることを行う。即ち、処理中のポリゴ
ンの不透明度αn に応じた色データTn の成分を、それ
より手前のn−1枚のポリゴンの透明度の累積された値
n-1 に応じて、n−1枚重なったポリゴンの画像デー
タFBn-1 に加えることを意味する。
Second, in the rendering processing by the above equation (7), the color data Tn is added according to the transparency of the polygon being processed. That is, the component of the color data T n corresponding to the opacity alpha n of the polygon being processed, it than in accordance with the accumulated value X n-1 of the transparency of the front of the n-1 single polygon, n-1 This means that it is added to the image data FB n−1 of the polygons that are overlapped.

【0039】そして、透明度の累積値Xn の初期値X0
=1の意味は、最初のポリゴンより手前には、別のポリ
ゴンが存在しないので、透明度は最大であることを意味
する。従って、最初のポリゴンの色データT1 は、その
まま画像データFB1 として利用される。但し、最初の
ポリゴン自身の不透明度α1 に応じた色データT1 の成
分が画像データFB1 として利用される。尚、画像デー
タFBn の初期値FB 0 =0の意味は、色の輝度値が0
であることを意味し、何ら色の成分がない真っ黒の状態
を意味する。画像データの初期値FB0 は、必ずしも真
っ黒である必要はない。
Then, the accumulated value of transparency XnInitial value X of0
= 1 means that before the first polygon, another
There is no gon, meaning the transparency is maximum
I do. Therefore, the color data T of the first polygon1Is that
As-is image data FB1Used as However, the first
The opacity α of the polygon itself1Color data T according to1Success
Minute is image data FB1Used as The image data
TA FBnInitial value FB of 0= 0 means that the luminance value of the color is 0
Is a black state without any color components
Means Initial value FB of image data0Is not necessarily true
It doesn't have to be black.

【0040】以上、先願で提案した画像処理方法を説明
した。この画像処理は、次の演算式に従う。
The image processing method proposed in the prior application has been described above. This image processing complies with the following arithmetic expression.

【0041】 FBn =FBn-1 +Tn αn n-1 (7) Xn =Xn-1 (1−αn ) (6) そこで、上記の(7)式を書き換えると、 FBn =Σ(Tn αn n-1 ) (8) とすることができる。これは、表示画面内の深さ方向に
おいて、各ポリゴンの不透明度αnと、ポリゴン色デー
タTnと、ワークデータXn-1との積を、それぞれ加算し
た累積値である。
FB n = FB n-1 + T n α n X n-1 (7) X n = X n-1 (1-α n ) (6) Therefore, by rewriting the above equation (7), FB n = Σ (T n α n X n-1) may be a (8). This is a cumulative value obtained by adding the products of the opacity α n of each polygon, the polygon color data T n, and the work data X n−1 in the depth direction in the display screen.

【0042】ここで、ポリゴンの色データTnは、ポリ
ゴン自体の色やテクスチャカラーに環境光等の光源の色
の影響を反映した色データである。この点をより詳細に
説明すると、次の通りである。画像データは、ポリゴン
の頂点データに対して与えられるポリゴンの自の色PCOL
(以下ポリゴン色データPCOL)と、テクスチャ色データ
TXとから得られる色データTXCO(以下ピクセル色データ
TXCO)に、光源からの色データINTの影響を加えて求め
られる。
Here, the color data Tn of the polygon is color data that reflects the influence of the color of the light source such as ambient light on the color or texture color of the polygon itself. This will be described in more detail below. The image data is the polygon's own color PCOL given to the polygon's vertex data.
(Hereinafter referred to as polygon color data PCOL) and texture color data
Color data obtained from TX and TXCO (hereinafter referred to as pixel color data
TXCO) plus the effect of the color data INT from the light source.

【0043】光源の色データについては、例えば、黄色
い光源からのディフューズド光による影響は、所定の強
度を持つ黄色の色データINTで表すことができる。或い
は、周囲の赤い壁紙からのアンビエント光による影響
は、所定の強度を持つ赤色の色データINTで表すことが
できる。そして、ポリゴンの銀色のメタル生地によるス
ペキュラー光による影響は、所定の強度を持つ銀色の色
データINTで表すこともできる。従って、それらの光源
からの色データとして、ここでは、光源色データINTと
総称する。その結果、式(7)の色データTnは、光源
の影響も加えて、 Tn=TXCOn・INTn と置き換えることができる。即ち、 Xn =Xn-1・(1−αn ) (6) FBn =FBn-1 +INTn・TXCOn ・αn n-1 (7) FBn =Σ(INTn・TXCOn ・αn n-1 ) (8) 上記の演算式から明らかな通り、画像データFBnは、
各ポリゴンについて、1つ手前のポリゴンに対する透明
度(1−αn)の積であるワークデータXn-1と、当該ポ
リゴンの不透明度αnと、光源色データINTnと、ピクセ
ル色データTXCOnとを求めて、逐次フレームバッファ内
に格納される画像データFBに加算していくことで、求
めることができる。しかも、各ポリゴンにおけるINTn
TXCOn ・α n n-1を求める演算は、ワークデータが
求まっていれば、他の重なり合うポリゴンの演算結果に
は依存しない。従って、重なり合うポリゴンに対して、
上記のポリゴン毎のINTn・TXCOn ・αn n-1を求め
る演算は、順不同で行うことができる。
For the color data of the light source, for example, yellow
The effect of diffused light from a
It can be represented by yellow color data INT with degrees. Some
Is affected by ambient light from the surrounding red wallpaper
Can be represented by red color data INT with a predetermined intensity.
it can. And the silver metal fabric of polygon
The effect of peculiar light is a silver color with a certain intensity
It can also be represented by data INT. Therefore, those light sources
Here, as the color data from
Collectively. As a result, the color data Tn of equation (7)
Tn = TXCOn・ INTn Can be replaced by That is, Xn= Xn-1・ (1-αn(6) FBn= FBn-1+ INTn・ TXCOn・ Αn Xn-1 (7) FBn= Σ (INTn・ TXCOn・ Αn Xn-1(8) As is clear from the above equation, the image data FBn is
Transparency for the previous polygon for each polygon
Work data Xn-1 which is the product of degrees (1-αn) and the
Rigon's opacity αn, light source color data INTn, pixel
Color data TXCOn in the frame buffer
By adding to the image data FB stored in the
Can be Moreover, INT in each polygonn
TXCOn・ Α n Xn-1The calculation for
If found, the result of the calculation of other overlapping polygons
Does not depend. Therefore, for overlapping polygons,
INT for each polygon aboven・ TXCOn・ Αn Xn-1Ask for
Can be performed in any order.

【0044】ゲームやシュミレーションにおいて、リア
ルタイムに画像処理を行う場合、上記の光源色データIN
Tnを求める演算処理は、場合によっては多くの光源に対
する演算処理を行う必要があり、非常に工数が高い演算
処理になる。同様に、ポリゴンの自の色であるポリゴン
色データPCOLとテクスチャ色データTXとから得られるピ
クセル色データTXCOを求めるテクスチャ処理において
も、テクスチャがないポリゴンや、複数のテクスチャデ
ータを有するポリゴンや、更に、細分値LODに対応し
て与えられる複数のテクスチャから、それらの中間の細
分値に対応するテクスチャを求めるトライリニアフィル
タ処理が必要なポリゴンなどが存在し、それらのポリゴ
ンのテクスチャ処理は、非常に工数がかかる演算処理が
必要な場合がある。
When real-time image processing is performed in a game or simulation, the light source color data IN
In the calculation processing for obtaining Tn, it is necessary to perform calculation processing for many light sources in some cases, and the calculation processing requires a very high number of steps. Similarly, in texture processing for obtaining pixel color data TXCO obtained from the polygon color data PCOL, which is the own color of the polygon, and the texture color data TX, a polygon having no texture, a polygon having a plurality of texture data, There are polygons and the like that require trilinear filter processing for obtaining a texture corresponding to an intermediate subdivision value from a plurality of textures provided corresponding to the subdivision values LOD. In some cases, an operation process that requires man-hours is required.

【0045】そこで、本発明の好ましい実施の形態例で
は、光源計算処理やテクスチャ処理を、複数のポリゴン
に対して並列に処理を行うようにする。その為に、画像
処理装置内に、光源計算回路やテクスチャ処理回路を複
数個設ける。そして、複数のポリゴンの演算処理を、空
いている処理回路に順次を分配することで処理効率を上
げる。これにより、全体の画像処理時間を短くすること
ができる。
Therefore, in a preferred embodiment of the present invention, the light source calculation processing and the texture processing are performed on a plurality of polygons in parallel. For this purpose, a plurality of light source calculation circuits and texture processing circuits are provided in the image processing apparatus. The processing efficiency of a plurality of polygons is increased by sequentially distributing the processing to the empty processing circuits. Thereby, the entire image processing time can be shortened.

【0046】[画像処理装置]図3は、本発明の実施の
形態例におけるレンダリング処理プロセッサを有するゲ
ーム装置の構成図である。レンダリング処理プロセッサ
20は、画像処理装置であり、ゲーム装置やシュミレー
ション装置内に設けられる。図3に示されたゲーム装置
には、メインCPU10と、ゲームプログラムが格納さ
れたプログラムROMと、ゲームプログラム実行時など
に利用されるワークRAM14と、レンダリング処理プ
ロセッサ20とが、内部バス16を介して接続される。
[Image Processing Apparatus] FIG. 3 is a configuration diagram of a game apparatus having a rendering processor according to an embodiment of the present invention. The rendering processor 20 is an image processing device, and is provided in a game device or a simulation device. The game device shown in FIG. 3 includes a main CPU 10, a program ROM storing a game program, a work RAM 14 used when executing the game program, and a rendering processor 20 via an internal bus 16. Connected.

【0047】メインCPU10は、図示しないオペレー
タからの操作入力に応答して、ゲームプログラムを実行
し、必要な画像処理を行う。図3の例では、オブジェク
トの移動のためのマトリクス演算や透視変換などのジオ
メトリ処理は、メインCPUで行われているものとす
る。もちろん、このジオメトリ処理は、別途設けた専用
の処理プロセッサによって行われても良い。
The main CPU 10 executes a game program and performs necessary image processing in response to an operation input from an operator (not shown). In the example of FIG. 3, it is assumed that geometry processing such as matrix calculation and perspective transformation for moving an object is performed by the main CPU. Of course, this geometry processing may be performed by a dedicated processing processor provided separately.

【0048】レンダリング処理プロセッサ20は、メイ
ンCPU10により発行されるレンダリング処理を指示
する描画コマンドを格納する描画コマンドメモリ22
と、その描画コマンドを解釈するセットアップブロック
24とを有する。セットアップブロック24は、表示画
面内にあるポリゴンデータと、光源データとを、ソータ
ーユニット26に与える。
The rendering processor 20 is a rendering command memory 22 for storing rendering commands issued by the main CPU 10 for instructing rendering.
And a setup block 24 for interpreting the drawing command. The setup block 24 gives the polygon data and the light source data in the display screen to the sorter unit 26.

【0049】ポリゴンデータは、頂点データを有し、各
頂点データは、例えば、表示画面内の二次元座標データ
(x、y)、奥行き(深さ)を示すZ値、色データPCO
L、不透明度(または透明度)αp、法線ベクトルデータ
(Nx,Ny,Nz)、テクスチャ座標(Tx,Ty)などを含む。
The polygon data has vertex data. Each vertex data includes, for example, two-dimensional coordinate data (x, y) in the display screen, a Z value indicating depth (depth), and color data PCO.
L, opacity (or transparency) αp, normal vector data (Nx, Ny, Nz), texture coordinates (Tx, Ty), and the like.

【0050】ソータユニット26は、供給されるポリゴ
ンデータの視点からの距離であるZ値(深さの値)に従
って、ポリゴンを深さ方向に並び替えて、ユニット内の
メモリに記録する。従って、ソータユニット26内に
は、フレーム内の複数のポリゴンについてのデータを一
旦保存する。そして、ソータユニット26は、表示画面
のピクセル毎に、深さ方向の順番で、ポリゴンの不透明
度データαpをブレンド処理ユニット30に供給する。
ブレンド処理ユニットでは、テクスチャの不透明度αt
を使用するポリゴンの場合は、ポリゴンの頂点データか
ら得られる不透明度αpと、テクスチャの不透明度αtと
を合成して求めたピクセル不透明度αnに従って、ワー
クデータXnを求める処理を行う。上記のテクスチャの
不透明度αtをテクスチャメモリ28から読み出すため
に、ピクセルのテクスチャ座標をソーターユニット26
から供給される必要がある。
The sorter unit 26 rearranges the polygons in the depth direction in accordance with the Z value (depth value), which is the distance from the viewpoint of the supplied polygon data, and records the polygons in a memory in the unit. Accordingly, data on a plurality of polygons in the frame is temporarily stored in the sorter unit 26. Then, the sorter unit 26 supplies the opacity data αp of the polygon to the blend processing unit 30 in the order of the depth direction for each pixel of the display screen.
In the blending unit, the texture opacity αt
In the case of a polygon using, the process of obtaining work data Xn is performed according to the pixel opacity αn obtained by combining the opacity αp obtained from the vertex data of the polygon and the opacity αt of the texture. In order to read the opacity αt of the texture from the texture memory 28, the texture coordinates of the pixel are stored in the sorter unit 26.
Need to be supplied from

【0051】また、テクスチャの不透明度αtを使用し
ないポリゴンの場合は、ポリゴンの頂点データから得ら
れる不透明度αpをピクセルの不透明度αnとして、ワー
クデータXnを求める。ワークデータを求める処理は、
具体的には、上記式(6)のXn =Xn-1 (1−αn
に従う演算を行う処理である。
In the case of a polygon that does not use the texture opacity αt, the work data Xn is obtained by using the opacity αp obtained from the vertex data of the polygon as the opacity αn of the pixel. The process for finding work data is
Specifically, X n = X n-1 (1-α n ) in the above equation (6)
This is a process for performing an operation according to.

【0052】尚、テクスチャメモリ28には、テクスチ
ャの不透明度αtと、テクスチャ色データTとが格納さ
れる。このテクスチャメモリ28には、テクスチャデー
タがプログラムROM12から直接ダウンロードされ、
保存される。また、このテクスチャメモリ28は、ワー
クRAM14内の記憶領域に設けることもできる。
The texture memory 28 stores texture opacity αt and texture color data T. In the texture memory 28, the texture data is directly downloaded from the program ROM 12,
Will be saved. Further, the texture memory 28 can be provided in a storage area in the work RAM 14.

【0053】ブレンド処理ユニット30は、上記の通
り、ピクセル毎に且つ深さ方向のワークデータXnと不
透明度αnとを生成し、ピクセルワークメモリユニット
36に供給する。ワークデータXnと不透明度αnとは、
ピクセルワークメモリユニット36内のピクセルワーク
メモリ内に記録される。
As described above, the blend processing unit 30 generates work data Xn and opacity αn for each pixel and in the depth direction and supplies them to the pixel work memory unit 36. Work data Xn and opacity αn
It is recorded in the pixel work memory in the pixel work memory unit 36.

【0054】テクスチャ処理ユニット32は、ソータユ
ニット26から、ピクセル毎に、テクスチャ座標(Tx,T
y)と、ポリゴン色データPCOLと、三次元座標(X,
Y,Z)値などを供給され、テクスチャ座標に従って、
テクスチャメモリ28からテクスチャ色データTを読み
出し、ポリゴンの地の色であるポリゴン色データPCOLと
テクスチャ色データTとを合成し、ピクセル色データTX
COnを求める処理を行う。この処理は、必ずしも表示画
面の深さ方向の順に行う必要はない。そして、このテク
スチャ処理ユニット内には、処理回路が複数設けられ、
複数のピクセルに対する処理が、順次空いている処理回
路に分配されて行われる。その結果、ピクセル色データ
TXCOnは、順不同で生成される。このピクセル色データT
XCOnもピクセルワークメモリユニット36内のメモリに
記録される。
The texture processing unit 32 outputs the texture coordinates (Tx, Tx) from the sorter unit 26 for each pixel.
y), polygon color data PCOL, and three-dimensional coordinates (X,
Y, Z) values, etc., and according to the texture coordinates,
The texture color data T is read from the texture memory 28, and the polygon color data PCOL, which is the color of the background of the polygon, and the texture color data T are combined, and the pixel color data TX
Perform processing to obtain COn. This process need not always be performed in the depth direction of the display screen. A plurality of processing circuits are provided in the texture processing unit.
Processing for a plurality of pixels is sequentially distributed to vacant processing circuits and performed. As a result, the pixel color data
TXCOn is generated in any order. This pixel color data T
XCOn is also recorded in the memory in the pixel work memory unit 36.

【0055】光源計算ユニット34は、ソータユニット
26から、光源データと共に、ピクセル毎の三次元座標
値(X,Y,Z)と法線ベクトル(Nx,Ny,Nz)を供給さ
れる。そして、光源からの色データINTnが求められる。
この処理も、表示画面の深さ方向の順に行う必要はな
い。そして、この光源計算ユニット内には、処理回路が
複数設けられ、複数のピクセルに対する処理が、順次空
いている処理回路に分配されて行われる。その結果、ピ
クセルの光源色データINTnは、順不同で生成される。こ
の光源色データINTnもピクセルワークメモリユニット3
6内のメモリに記録される。
The light source calculation unit 34 is supplied with three-dimensional coordinate values (X, Y, Z) and normal vectors (Nx, Ny, Nz) for each pixel from the sorter unit 26 together with the light source data. Then, color data INTn from the light source is obtained.
This processing does not need to be performed in the depth direction of the display screen. A plurality of processing circuits are provided in the light source calculation unit, and the processing for the plurality of pixels is sequentially distributed to the vacant processing circuits and performed. As a result, the light source color data INTn of the pixel is generated in any order. The light source color data INTn is also stored in the pixel work memory unit 3.
6 is stored in the memory.

【0056】光源色データの生成は、例えばディフーズ
光の場合は、光源の輝度ベクトルとピクセルの法線ベク
トルの内積値を、光源の色データに乗算して求められ
る。
The light source color data is generated, for example, in the case of diffused light, by multiplying the color data of the light source by the inner product of the luminance vector of the light source and the normal vector of the pixel.

【0057】ピクセルワークメモリユニット36内に、
深さ方向でn番目のピクセルについて、上記のワークデ
ータXn、不透明度αn、ピクセル色データTXCOn、及び
光源色データINTnが全て格納されると、それらのデータ
がカラー合成ユニット38に供給される。カラー合成ユ
ニット38では、それらのデータを乗算して、フレーム
バッファ40内の画像データFBに加算し、新たに求め
られた画像データFBをフレームバッファ40内に上書
きする。この画像データFBは、ピクセル色データに対
して光源処理され且つブレンド処理された色データであ
る。
In the pixel work memory unit 36,
When the work data Xn, the opacity αn, the pixel color data TXCOn, and the light source color data INTn are all stored for the n-th pixel in the depth direction, those data are supplied to the color synthesis unit 38. The color synthesizing unit 38 multiplies the data, adds the data to the image data FB in the frame buffer 40, and overwrites the newly obtained image data FB in the frame buffer 40. This image data FB is color data obtained by subjecting pixel color data to light source processing and blend processing.

【0058】全てのピクセルについて、上記のカラー合
成処理が行われると、フレームバッファ40内には、1
フレームの表示に使用される画像データFBが格納され
た状態になる。そこで、このフレームバッファ40内の
画像データFBが、表示装置44に必要な形態の画像デ
ータに変換され、表示装置44に供給される。
When the above-described color synthesizing process is performed for all the pixels, 1 is stored in the frame buffer 40.
The image data FB used for displaying the frame is stored. Then, the image data FB in the frame buffer 40 is converted into image data in a form required for the display device 44 and supplied to the display device 44.

【0059】以上が、レンダリング処理プロセッサ20
内の処理の流れである。ここでは、ブレンド処理ユニッ
ト30のみが、深さ方向の順番でピクセルのデータを受
け取り、ワークデータXnを求める処理を順次行う。ま
た、テクスチャ処理ユニット32や光源計算ユニット3
4では、それぞれの演算処理が非常に重たいので、複数
の処理回路が設けられ、並列に処理される。しかも、複
数の処理回路に対して、空いている処理回路に順次処理
が分配されることで、全体の処理スピードを上げること
ができる。但し、かかる処理をしたことにより、ピクセ
ル色データTXCOnや光源色データINTnの生成処理が、深
さ方向において前後して完了する。しかし、カラー合成
ユニット38は、かかるデータ生成の処理が完了したピ
クセルから順にカラー合成処理を行うことができるの
で、何ら支障はない。
The above is the description of the rendering processor 20.
It is a flow of processing inside. Here, only the blend processing unit 30 receives the pixel data in the order in the depth direction and sequentially performs processing for obtaining the work data Xn. The texture processing unit 32 and the light source calculation unit 3
In No. 4, since each arithmetic processing is very heavy, a plurality of processing circuits are provided and processed in parallel. In addition, the overall processing speed can be increased by sequentially distributing processing to unused processing circuits for a plurality of processing circuits. However, by performing such processing, the generation processing of the pixel color data TXCOn and the light source color data INTn is completed before and after in the depth direction. However, the color synthesizing unit 38 can perform the color synthesizing processing in order from the pixel on which the data generation processing is completed, so that there is no problem.

【0060】次に、ソーターユニット26、ブレンド処
理ユニット30、テクスチャ処理ユニット32、光源計
算ユニット34、ピクセルワークメモリユニット36及
びカラー合成ユニット38の構成を説明する。
Next, the configurations of the sorter unit 26, the blend processing unit 30, the texture processing unit 32, the light source calculation unit 34, the pixel work memory unit 36, and the color composition unit 38 will be described.

【0061】図4は、ソーターユニット26の構成図で
ある。ソータユニット26は、頂点データからなるポリ
ゴンデータPG0〜PGjを供給され、各ポリゴン内のピ
クセルデータを生成するピクセル生成部50と、ピクセ
ル生成部50が生成したピクセルデータPX0,0〜PX
i,jを、各ピクセル毎に深さ方向の順番で並び替えて、
蓄積するピクセルソータ52,54,56とを有する。
FIG. 4 is a configuration diagram of the sorter unit 26. The sorter unit 26 is supplied with polygon data PG0 to PGj composed of vertex data, and generates a pixel data in each polygon by a pixel generation unit 50, and pixel data PX0,0 to PX generated by the pixel generation unit 50.
i and j are rearranged in the depth direction for each pixel,
It has pixel sorters 52, 54 and 56 for storing.

【0062】ピクセルソータは、表示画面の画素(ピク
セル)の数だけ設けられることが望ましい。しかしなが
ら、画面の画素数は、例えば640×480等と膨大に
なるので、画面の一部分、例えば8×8=64画素分の
ピクセルソータを設けるのが、現実的である。その場合
は、i=64画素となる。或いは極端な例では、1画素
だけのピクセルソータであっても良い。
It is desirable that the number of pixel sorters be provided by the number of pixels on the display screen. However, since the number of pixels on the screen becomes enormous, for example, 640 × 480, it is practical to provide a pixel sorter for a part of the screen, for example, 8 × 8 = 64 pixels. In that case, i = 64 pixels. Alternatively, in an extreme example, a pixel sorter having only one pixel may be used.

【0063】各ピクセルデータPXm,nは、図4に示さ
れる通り、例えば座標値(X,Y,Z)値、ポリゴンの
地の色であるポリゴン色データPCOL、ポリゴンの頂点デ
ータから補間演算により求められる不透明度αp、テク
スチャ座標(Tx,Ty)、及び法線ベクトル(Nx,Ny,Nz)
を有する。頂点データからなるポリゴンデータから、か
かるピクセルデータを生成するアルゴリズムは、種々の
方法が提案されている。最も一般的には、ラスタスキャ
ン法が利用される。ラスタスキャン法によれば、ポリゴ
ン内のX軸とY軸方向に走査される各ピクセルデータ
が、ポリゴンの頂点データを補間演算することにより求
められる。また、フラクタル法を利用してピクセルデー
タを求めることもできる。フラクタル法については、本
出願人が別途出願した特開平11-144074号公報に開示さ
れている。
As shown in FIG. 4, each pixel data PXm, n is obtained by interpolation from, for example, coordinate values (X, Y, Z), polygon color data PCOL, which is the color of the background of the polygon, and vertex data of the polygon. Obtained opacity αp, texture coordinates (Tx, Ty), and normal vector (Nx, Ny, Nz)
Having. Various methods have been proposed for an algorithm for generating such pixel data from polygon data composed of vertex data. Most commonly, a raster scan method is used. According to the raster scanning method, each pixel data scanned in the X-axis and Y-axis directions in a polygon is obtained by performing an interpolation operation on the vertex data of the polygon. Also, pixel data can be obtained by using the fractal method. The fractal method is disclosed in Japanese Patent Application Laid-Open No. H11-144074 filed separately by the present applicant.

【0064】図4のソーターユニットによれば、ピクセ
ル毎のピクセルデータPXm,nが、Z値に基づいて、深
さ方向に順番に並べられる。
According to the sorter unit of FIG. 4, the pixel data PXm, n for each pixel is arranged in order in the depth direction based on the Z value.

【0065】図5は、別のソーターユニットの構成図で
ある。このソーターユニット26は、ポリゴンデータP
G0〜PGjを、Z値に従ってソートし、深さ方向に順番
に並び替えて、ポリゴンソーター58に格納する。そし
て、その並び替えられたポリゴンデータが、より手前側
から深さ方向に沿って順に、ピクセル生成部60に供給
される。ピクセル生成部60は、ポリゴンデータから、
上記したラスタスキャン法やフラクタル法によりポリゴ
ン内のピクセルデータPX0,0〜PXi,jを生成する。従
って、ピクセルデータは、より手前側から深さ方向にそ
って順番に、ブレンド処理ユニット30、テクスチャ処
理ユニット32、光源計算ユニット34に供給される。
FIG. 5 is a configuration diagram of another sorter unit. This sorter unit 26 stores the polygon data P
G0 to PGj are sorted according to the Z value, rearranged in the depth direction, and stored in the polygon sorter 58. Then, the rearranged polygon data is supplied to the pixel generation unit 60 in order from the near side in the depth direction. The pixel generation unit 60 calculates
Pixel data PX0,0 to PXi, j in the polygon are generated by the above-described raster scan method or fractal method. Accordingly, the pixel data is supplied to the blend processing unit 30, the texture processing unit 32, and the light source calculation unit 34 in order from the near side in the depth direction.

【0066】図6は、ブレンド処理ユニットの構成図で
ある。ここに示されたブレンド処理ユニット30には、
ポリゴンの頂点データから求められた不透明度(透明
度)αpと、テクスチャ座標とが、深さ方向に沿って順
番に供給される。例えば、最も手前側にソートされたピ
クセルデータPXm,0(m=0〜i)の不透明度データα
pが供給され、そのピクセルに対応するテクスチャの不
透明度データαtがテクスチャメモリ28から読み出さ
れる。透明度処理回路301は、例えば、これらの不透
明度データの積算や、その他の所定の処理により合成し
たピクセルの不透明度αnを求める。テクスチャの不透
明度データが存在しない場合は、ポリゴンの不透明度デ
ータαpが、そのまま、ピクセルの不透明度αnとな
る。
FIG. 6 is a block diagram of the blend processing unit. The blend processing unit 30 shown here includes:
The opacity (transparency) αp obtained from the vertex data of the polygon and the texture coordinates are sequentially supplied along the depth direction. For example, the opacity data α of the pixel data PXm, 0 (m = 0 to i) sorted to the front side
p is supplied, and the opacity data αt of the texture corresponding to the pixel is read from the texture memory 28. The transparency processing circuit 301 obtains, for example, the opacity αn of the pixel synthesized by integrating these opacity data and other predetermined processing. If there is no texture opacity data, the polygon opacity data αp becomes the pixel opacity αn as it is.

【0067】ブレンド処理ユニット30は、更に、乗算
器302と減算器303とXデータワークメモリ304
とを有し、Xデータワークメモリ304から1つ手前の
ピクセルのワークデータXn-1が読み出されると共に、
ピクセルワークメモリユニット36内の対応するピクセ
ルのn番目の領域に格納される。そして、読み出したワ
ークデータXn-1と不透明度αnとから、当該処理中の
n番目のピクセルのワークデータXn=Xn-1(1−α
n)が求められる。求められたワークデータXnは、ワ
ークデータメモリ304内に更新される。また、不透明
度αnは、ピクセルワークメモリユニット36内の対応
するピクセルのn番目の領域に格納される。
The blend processing unit 30 further includes a multiplier 302, a subtractor 303, and an X data work memory 304.
And the work data Xn-1 of the immediately preceding pixel is read from the X data work memory 304,
It is stored in the nth area of the corresponding pixel in the pixel work memory unit 36. Then, from the read work data Xn-1 and the opacity αn, the work data Xn = Xn-1 (1-α) of the n-th pixel being processed.
n) is required. The obtained work data Xn is updated in the work data memory 304. Also, the opacity αn is stored in the nth area of the corresponding pixel in the pixel work memory unit 36.

【0068】図17は、ブレンド処理ユニット30の変
形例を示す図である。この例は、図6のブレンド処理ユ
ニット30に比較して、ワークデータXn-1と不透明度
αnとの乗算を行う乗算器305が追加されている点で
異なる。従って、乗算器305で求められた積Xn-1・
αnが、ピクセルワークメモリユニット36内の対応す
るピクセルのn番目の領域に格納される。かかる乗算器
305を設けることにより、後述するピクセルワークメ
モリユニットとカラー合成ユニットの構成を簡略化する
ことができる。
FIG. 17 is a diagram showing a modification of the blend processing unit 30. This example is different from the blend processing unit 30 in FIG. 6 in that a multiplier 305 for multiplying the work data Xn−1 by the opacity αn is added. Therefore, the product Xn-1 ·
αn is stored in the pixel work memory unit 36 in the nth area of the corresponding pixel. By providing such a multiplier 305, the configurations of a pixel work memory unit and a color synthesizing unit described later can be simplified.

【0069】このブレンド処理ユニット30では、上記
した通り、最も手前にあるピクセルについてのワークデ
ータXnが、不透明度αnと1つ前のワークデータXn-
1とから順番に求められる。この演算処理は、乗算器と
減算器などにより行われ比較的軽い処理であるので、全
ての深さ方向のピクセルに対する演算は、比較的短時間
で完了することができる。
In the blend processing unit 30, as described above, the work data Xn for the foremost pixel is defined by the opacity αn and the previous work data Xn−
It is obtained in order from 1. Since this arithmetic processing is performed by a multiplier, a subtractor, and the like, and is relatively light processing, the arithmetic operation for all the pixels in the depth direction can be completed in a relatively short time.

【0070】ブレンド処理ユニット30は、必要であれ
ば、複数ユニット設けて、各ユニットを表示画面(スク
リーン)座標に対応付けて並列化することができる。か
かる構成の場合でも、各処理ユニットは、対応するピク
セルについて手前側から深さ方向に向かって順番にワー
クデータを求める演算を行う。
If necessary, a plurality of blend processing units 30 can be provided, and each unit can be parallelized in correspondence with display screen (screen) coordinates. Even in the case of such a configuration, each processing unit performs an operation for sequentially obtaining work data for the corresponding pixel from the near side in the depth direction.

【0071】図7は、光源計算ユニットの構成図であ
る。光源計算ユニット34は、光源計算を行う複数の光
源計算回路342,343,344を有する。図7の例
では、3つの光源計算回路が設けられ、光源計算を並列
に処理することができる。光源計算ユニット34は、更
に、ソーターユニットからのピクセルの光源データを供
給され、空き状態の光源計算回路342,343,34
4に順次光源計算処理を分配する演算指示分配回路34
1が設けられる。更に、光源計算ユニット34は、光源
計算回路が生成した光源色データINTを、生成順にピク
セルワークメモリユニット36に供給する演算結果出力
回路345が設けられる。
FIG. 7 is a configuration diagram of the light source calculation unit. The light source calculation unit 34 includes a plurality of light source calculation circuits 342, 343, and 344 that perform light source calculation. In the example of FIG. 7, three light source calculation circuits are provided, and the light source calculation can be processed in parallel. The light source calculation unit 34 is further supplied with the light source data of the pixels from the sorter unit, and outputs the light source calculation circuits 342, 343, and 34 in an empty state.
4 is a calculation instruction distribution circuit 34 for sequentially distributing the light source calculation processing.
1 is provided. Further, the light source calculation unit 34 is provided with an operation result output circuit 345 that supplies the light source color data INT generated by the light source calculation circuit to the pixel work memory unit 36 in the order of generation.

【0072】図8は、光源計算回路の動作タイミングチ
ャート図である。ここでは、6つのピクセルデータPX1
〜PX6に対する光源計算回路の動作のタイミングが示さ
れる。図8の例では、ピクセルデータPX1に対する光源
計算処理に6クロックを要するとする。同様に、ピクセ
ルデータPX2〜PX6の処理クロック数が、2,3,7,
4,2と仮定する。そして、ソーターユニット26か
ら、光源計算に必要なピクセルデータとして、光源デー
タと座標値(X,Y,Z)と法線ベクトル(Nx,Ny,Nz)
とが順番に供給されたとする。
FIG. 8 is an operation timing chart of the light source calculation circuit. Here, six pixel data PX1
The timing of the operation of the light source calculation circuit for .about.PX6 is shown. In the example of FIG. 8, it is assumed that the light source calculation processing for the pixel data PX1 requires six clocks. Similarly, the number of processing clocks of the pixel data PX2 to PX6 is 2, 3, 7,
Assume 4,2. Then, from the sorter unit 26, light source data, coordinate values (X, Y, Z) and normal vectors (Nx, Ny, Nz) are obtained as pixel data necessary for light source calculation.
Are supplied in order.

【0073】上記の場合、演算指示分配回路341は、
空き状態にある光源計算回路に順次その処理を分配す
る。図8に示される通り、最初にクロック1のサイクル
でピクセルデータPX1に対する演算処理が、計算回路1
に割り当てられる。ここでは、処理を割り当てるため
に、ピクセルデータをユニット内のバス346を経由し
て供給するので、1クロックサイクルを要するとする。
そして、ピクセルデータPX1に対する計算は、計算回路
1で6クロックサイクルを要して完了する。
In the above case, the operation instruction distribution circuit 341
The processing is sequentially distributed to the empty light source calculation circuits. As shown in FIG. 8, first, in the cycle of clock 1, the arithmetic processing on the pixel data PX1 is performed by the calculation circuit 1
Assigned to. Here, it is assumed that one clock cycle is required since the pixel data is supplied via the bus 346 in the unit in order to allocate the processing.
The calculation for the pixel data PX1 is completed in the calculation circuit 1 in six clock cycles.

【0074】次に供給されたピクセルデータPX2の処理
は、光源計算回路2に割り当てられる。バス346を利
用する割り当て処理は、ピクセルデータPX1と重なるこ
とができないので、クロック2のサイクルで割り当てが
行われ、計算回路2で2サイクルを要して計算が完了す
る。また、次のピクセルデータPX3は、光源計算回路3
に割り当てられる。そして、3クロックサイクルで処理
が完了する。
Next, the processing of the supplied pixel data PX 2 is assigned to the light source calculation circuit 2. Since the allocation process using the bus 346 cannot overlap the pixel data PX1, the allocation is performed in the cycle of the clock 2, and the calculation circuit 2 requires two cycles to complete the calculation. The next pixel data PX3 is calculated by the light source calculation circuit 3
Assigned to. Then, the process is completed in three clock cycles.

【0075】その後供給されるピクセルデータPX4の処
理は、クロック4で空き状態にある光源計算回路2にア
サインされる。そして、7クロックサイクルで処理が完
了する。同様に、ピクセルデータPX5は、クロック6で
空き状態になる光源計算回路3に供給される。ピクセル
データPX6は、クロック7で空き状態になる光源計算回
路1に供給される。
The processing of the pixel data PX4 supplied thereafter is assigned to the light source calculation circuit 2 in an empty state at the clock 4. Then, the process is completed in seven clock cycles. Similarly, the pixel data PX5 is supplied to the light source calculation circuit 3 which becomes empty at the clock 6. The pixel data PX6 is supplied to the light source calculation circuit 1 which becomes empty at the clock 7.

【0076】図8から明らかな通り、6つのピクセルデ
ータに対する光源計算は、クロック10で全ての計算が
終了する。このピクセルデータに対する光源計算をシリ
アルに実行した場合は、合計で、6+2+3+7+4+2=24ク
ロックサイクルを要する。それに比べて、2倍以上早く
処理を完了することができる。これは、複数の光源計算
回路を設け、複数のピクセルデータに対する光源計算
を、並列に且つ空き状態の計算回路に順次処理を分配し
たことで、実現できたのである。但し、それぞれのピク
セルデータに対する計算結果は、順不同で完了する。
As is clear from FIG. 8, all calculations for the light source calculation for six pixel data are completed at clock 10. When the light source calculation for this pixel data is executed serially, a total of 6 + 2 + 3 + 7 + 4 + 2 = 24 clock cycles are required. In comparison, the processing can be completed twice or more times. This has been achieved by providing a plurality of light source calculation circuits and distributing the light source calculation for the plurality of pixel data in parallel and sequentially to the empty calculation circuits. However, the calculation results for each pixel data are completed in any order.

【0077】図9は、テクスチャ処理ユニットの構成図
である。この構成は、光源計算ユニットと同等であり、
複数のテクスチャ処理回路322,323,324が設
けられ、光源計算ユニットの場合と同様に、空き状態に
ある処理回路に順次テクスチャ処理が割り当てられる。
演算指示分配回路321は、テクスチャ処理に必要なピ
クセルデータを、3つの処理回路に分配する。各テクス
チャ処理回路は、テクスチャ座標(Tx,Ty)に従ってテ
クスチャメモリ28からテクスチャ色データTを読み出
し、供給されたポリゴンの地肌のポリゴン色データPCOL
と合成して、ピクセル色データTXCOnを生成する。
FIG. 9 is a block diagram of the texture processing unit. This configuration is equivalent to the light source calculation unit,
A plurality of texture processing circuits 322, 323, and 324 are provided, and texture processing is sequentially assigned to processing circuits in an empty state, as in the case of the light source calculation unit.
The calculation instruction distribution circuit 321 distributes pixel data necessary for texture processing to three processing circuits. Each texture processing circuit reads out the texture color data T from the texture memory 28 in accordance with the texture coordinates (Tx, Ty), and supplies the background polygon color data PCOL of the supplied polygon.
To generate pixel color data TXCOn.

【0078】このテクスチャ処理は、ピクセル毎に処理
サイクルにバラツキがあるので、複数の処理回路32
2,323,324のうち空き状態にある回路が、複数
のピクセルに対するテクスチャ処理を行う。それらの動
作タイミングに関しては、光源計算において図8で説明
したアルゴリズムと同じである。従って、ピクセル色デ
ータTXCOnも、順不同で生成され、ピクセルワークメモ
リユニット36に格納される。
In this texture processing, the processing cycle varies from pixel to pixel.
Of the 2,323,324, an empty circuit performs texture processing on a plurality of pixels. The operation timing is the same as the algorithm described in FIG. 8 in the light source calculation. Therefore, the pixel color data TXCOn is also generated in any order and stored in the pixel work memory unit 36.

【0079】上記の光源計算ユニット34やテクスチャ
処理ユニット32には、共通のポリゴンに対応するピク
セルデータが連続して供給されることが望ましい。同じ
ポリゴンに対するピクセルデータであれば、共通の処理
が含まれる場合があり、それぞれのユニットの処理効率
を高めることができるからである。
It is desirable that pixel data corresponding to a common polygon be continuously supplied to the light source calculation unit 34 and the texture processing unit 32. This is because if pixel data is for the same polygon, common processing may be included, and the processing efficiency of each unit can be increased.

【0080】図10は、ピクセルワークメモリユニット
の構成図である。ピクセルワークメモリユニット36
は、ブレンド処理ユニット30から供給されるワークデ
ータXn、不透明度αn、テクスチャ処理ユニット32か
ら供給されるポリゴン内のピクセル色データTXCOn、光
源計算ユニット34から供給される光源色データINTnと
を、ピクセル毎に記録するピクセルワークメモリ362
を有する。図10には、ピクセルワークメモリ362
が、演算済みのピクセルデータEPX0,0〜EPXi,jを格納す
るマトリクス状のメモリ領域で構成されることが示され
ている。ピクセルデータEPXm,nは、図10中に示される
通り、上記のワークデータXn-1、不透明度αn、ピクセ
ル色データTXCOn、光源色データINTnと、それらのデー
タが格納されたことを示す4つのフラグF1〜F4を有
する。ピクセルデータEPXm,nの、mは表示画面上のピク
セルを区別し、nは表示画面の深さ方向のピクセルを区
別する。但し、nは必ずしも深さ方向の順番である必要
はない。
FIG. 10 is a configuration diagram of the pixel work memory unit. Pixel work memory unit 36
The work data Xn supplied from the blend processing unit 30, the opacity αn, the pixel color data TXCOn in the polygon supplied from the texture processing unit 32, and the light source color data INTn supplied from the light source calculation unit 34 Pixel work memory 362 that records each time
Having. FIG. 10 shows the pixel work memory 362
Is configured by a matrix-shaped memory area for storing the calculated pixel data EPX0,0 to EPXi, j. As shown in FIG. 10, the pixel data EPXm, n includes the work data Xn-1, the opacity αn, the pixel color data TXCOn, the light source color data INTn, and four pieces of data indicating that those data are stored. It has flags F1 to F4. In the pixel data EPXm, n, m distinguishes pixels on the display screen, and n distinguishes pixels in the depth direction of the display screen. However, n does not necessarily have to be in the order in the depth direction.

【0081】ピクセルワークメモリユニット36は、更
に、供給される演算済みのピクセルデータを、それぞれ
のメモリ領域に記録するピクセルワークメモリコントロ
ーラ361を有する。ピクセルワークメモリコントロー
ラ361は、演算済みのピクセルデータが格納される
と、格納されたデータに対応するフラグF1〜F4を、
未格納状態の0から、格納状態の1に変更する。更に、
ピクセルワークメモリコントローラ361は、それらの
4つのフラグが全て1になったピクセルデータを、順
次、カラー合成ユニット38に供給する。
The pixel work memory unit 36 further has a pixel work memory controller 361 for recording the supplied calculated pixel data in each memory area. When the calculated pixel data is stored, the pixel work memory controller 361 sets flags F1 to F4 corresponding to the stored data,
The state is changed from 0 in the unstored state to 1 in the stored state. Furthermore,
The pixel work memory controller 361 sequentially supplies the pixel data in which all of these four flags have become 1 to the color synthesizing unit 38.

【0082】ブレンド処理ユニット30は、ワークデー
タXn、不透明度αnを、手前側から深さ方向の順で求
め、ピクセルワークメモリユニット36に供給する。従
って、ピクセルデータの上記2つのデータに対応するフ
ラグF1、F2は、最も手前から深さ方向の順番に、即
ちEPXm,0、EPXm,1、EPXm,2 ...EPXm,jの順番で、格
納状態に変更される。また、ピクセル色データTXCOn及
び光源色データINTnは、それぞれテクスチャ処理ユニッ
ト32と光源計算ユニット34で求められるが、複数の
回路のうち、空き状態にある回路を順次利用して求めら
れるので、生成されるタイミングは必ずしも深さ方向の
順番にはならない。その結果、4つのデータが全てピク
セルワークメモリ362に格納されるタイミングも、ピ
クセルによって順不同となる。
The blend processing unit 30 obtains the work data Xn and the opacity αn in the depth direction from the near side and supplies them to the pixel work memory unit 36. Therefore, the flags F1 and F2 corresponding to the above two pieces of pixel data are arranged in the order of depth from the foreground, that is, EPXm, 0, EPXm, 1, EPXm, 2. . . The storage state is changed in the order of EPXm, j. In addition, the pixel color data TXCOn and the light source color data INTn are obtained by the texture processing unit 32 and the light source calculation unit 34, respectively. The timing is not always the order in the depth direction. As a result, the timing at which all the four data are stored in the pixel work memory 362 is also random, depending on the pixel.

【0083】そこで、ピクセルワークメモリコントロー
ラ361は、各ピクセルデータの4つのフラグを監視
し、すべて格納済みになったピクセルデータEPXから、
カラー合成ユニット38に供給される。
Therefore, the pixel work memory controller 361 monitors the four flags of each pixel data, and determines from the pixel data EPX that has been all stored,
It is supplied to the color synthesizing unit 38.

【0084】図11は、カラー合成ユニットの構成図で
ある。カラー合成器38は、乗算器381と加算器38
2とを有する。乗算器381は、ピクセルワークメモリ
コントローラ361から供給されるピクセルデータEPX
m,nのワークデータXn-1、不透明度αn、ピクセル色デ
ータTXCOn、光源色データINTnを乗算する。加算器38
2は、フレームバッファ40内の処理中のピクセルに対
応する画像データFBと、上記乗算結果とを加算し、新
たに生成された画像データFBを、フレームバッファ4
0の同じピクセル領域に格納する。この演算処理は、必
ずしも深さ方向に順番に行われるわけではなく、順不同
で行われる。カラー合成ユニット38は、同じピクセル
において、深さ方向の全てのピクセルデータEPXm,nにつ
いて上記演算を行うことにより、表示用画像データFB
を、フレームバッファ40内に格納することができる。
FIG. 11 is a configuration diagram of the color synthesizing unit. The color synthesizer 38 includes a multiplier 381 and an adder 38.
And 2. The multiplier 381 outputs the pixel data EPX supplied from the pixel work memory controller 361.
m, n work data Xn-1, opacity αn, pixel color data TXCOn, and light source color data INTn are multiplied. Adder 38
2 adds the image data FB corresponding to the pixel being processed in the frame buffer 40 and the result of the multiplication, and adds the newly generated image data FB to the frame buffer 4.
0 is stored in the same pixel area. This arithmetic processing is not always performed in the depth direction in an order, but is performed in any order. The color synthesizing unit 38 performs the above-described operation on all pixel data EPXm, n in the depth direction in the same pixel, thereby displaying the display image data FB.
Can be stored in the frame buffer 40.

【0085】図16に示したブレンド処理ユニットの変
形例が利用される場合は、カラー合成ユニット38の乗
算器381には、ワークデータXnと不透明度αnとの
乗算値が供給される。従って、その分、乗算器381の
構成を簡略化することができる。
When the modification of the blend processing unit shown in FIG. 16 is used, a multiplier 381 of the color synthesizing unit 38 is supplied with a product value of the work data Xn and the opacity αn. Therefore, the configuration of the multiplier 381 can be simplified accordingly.

【0086】図3に戻り、全てのピクセルに対する最終
的な画像データFBが、フレームバッファ40に格納さ
れると、その画像データFBが表示制御部42を経由し
て、表示装置44に供給され、表示される。
Returning to FIG. 3, when the final image data FB for all pixels is stored in the frame buffer 40, the image data FB is supplied to the display device 44 via the display control unit 42, Is displayed.

【0087】図12は、上記したレンダリング処理プロ
セッサの処理フローチャート図である。セットアップブ
ロック24が、描画コマンドを解読して、ポリゴンデー
タをソーターユニット26に供給する(S10)。ソー
ターユニット26は、ポリゴンをピクセルに分解して、
ピクセルソータ52,54,56に供給する(S1
2)。ピクセルソータは、視点からの距離(深さ、Z
値)に応じて、ピクセルデータを並び替える(S1
4)。その後、ソータユニット26は、手前のピクセル
から順に、ピクセルデータを、ブレンド処理ユニット3
0、テクスチャ処理ユニット32、光源計算ユニット3
4に供給する(S16)。
FIG. 12 is a processing flowchart of the above-mentioned rendering processor. The setup block 24 decodes the drawing command and supplies polygon data to the sorter unit 26 (S10). The sorter unit 26 decomposes the polygon into pixels,
It is supplied to the pixel sorters 52, 54, 56 (S1
2). The pixel sorter is used to determine the distance from the viewpoint (depth, Z
The pixel data is rearranged according to the value (S1).
4). After that, the sorter unit 26 sorts the pixel data into the blend processing unit 3
0, texture processing unit 32, light source calculation unit 3
4 (S16).

【0088】各処理ユニットでは、上記した通り、ワー
クデータXnの生成(S18)、ピクセル色データTXCO
nの生成(S20)、及び光源色データINTnの生成(S
22)を行う。ブレンド処理ユニット30は、手前のピ
クセルから順番にワークデータを求める必要があるが、
テクスチャ処理ユニット32や光源計算ユニット34
は、複数の処理回路の空き状態の回路を順次利用して、
順不同でデータを生成する。ブレンド処理ユニット30
は、手前のピクセルから順番にワークデータを求める
が、深さ方向において、不透明度αnが1である不透明
ピクセルまでワークデータを求めたら、それ以降のワー
クデータXnは0であるので、ブレンド処理は終了す
る。従って、ブレンド処理部は、必ずしも深さ方向の全
てのピクセルに対して処理を繰り返すとは限らない。
In each processing unit, as described above, the generation of the work data Xn (S18), the pixel color data TXCO
n (S20) and light source color data INTn (S20).
Perform 22). The blend processing unit 30 needs to obtain work data in order from the previous pixel,
Texture processing unit 32 and light source calculation unit 34
Is to sequentially use empty circuits of a plurality of processing circuits,
Generate data in any order. Blend processing unit 30
Obtains work data in order from the pixel in front of it. When work data is obtained in the depth direction up to an opaque pixel having an opacity αn of 1, the subsequent work data Xn is 0. finish. Therefore, the blend processing unit does not always repeat the processing for all pixels in the depth direction.

【0089】そして、各ピクセルのデータの生成が完了
すると、カラー合成ユニットは、演算済みのピクセルデ
ータから、各ピクセルの光源処理とブレンド処理された
色データINTn・TXCOn ・αn ・Xn-1を演算で求め、フ
レームバッファ内の画像データに加算して、再度格納す
る(S24)。
[0089] When the generation of the data for each pixel is completed, the color synthesis unit, the operation already pixel data, color data INT n · TXCO n · α n · X n , which is a light source processing and blending processing of each pixel -1 is calculated, added to the image data in the frame buffer, and stored again (S24).

【0090】上記の工程S16〜S24が、各ピクセル
の深さ方向の全てのピクセルデータについて終了し、且
つ全てのピクセルについて終了するまで、繰り返され
る。そして、全てのピクセルについて処理が終了する
と、フレームバッファ内に格納された画像データによ
り、表示が行われる(S26)。工程S10〜S26
が、フレーム毎に繰り返される。
The above steps S16 to S24 are repeated until all the pixel data in the depth direction of each pixel are completed and all the pixels are completed. When the processing is completed for all the pixels, display is performed using the image data stored in the frame buffer (S26). Steps S10 to S26
Is repeated for each frame.

【0091】[汎用的なブレンド処理への適用]上記の
実施の形態例では、半透明ポリゴンの色とその奥側に位
置するポリゴンの色とを不透明度αで混合ブレンディン
グ処理する場合に、手前側のポリゴンから順番に処理す
る例を説明した。しかしながら、一般的なコンピュータ
を利用したグラフィックライブラリには、例えばオープ
ンGL(Graphic Library)で規格化されているよう
に、多用なブレンディング処理ができるようになってい
る。その一般化されたブレンディング処理は、以前処理
して求めたフレームバッファ内の色データFBm-1と今
回処理中のピクセルの色データPIXmとを、それぞれソ
ース混合計数SRmとディスティネーション混合計数D
Emとでブレンディングすることにある。即ち、演算式
で表すと、今回の処理で求められてフレームバッファ内
に格納される色データFBmは、 FBm=PIXm*DEm+FBm-1*SRm (8) となる。但し、mは整数であり、小さいほど先に処理さ
れる(*は積を表す。以下同様)。
[Application to General-purpose Blending Process] In the above-described embodiment, when the color of a semi-transparent polygon and the color of a polygon located on the back side thereof are mixed and blended with an opacity α, a front-end blending process is performed. The example in which processing is performed in order from the polygon on the side has been described. However, a general computer-based graphic library can perform various blending processes as standardized by, for example, an open GL (Graphic Library). In the generalized blending process, the color data FBm-1 in the frame buffer and the color data PIXm of the pixel being processed this time, which have been obtained by the previous processing, are combined with the source mixed count SRm and the destination mixed count Dm, respectively.
Em and Blending. That is, when expressed by an arithmetic expression, the color data FBm obtained in the current processing and stored in the frame buffer is FBm = PIXm * DEm + FBm-1 * SRm (8) Here, m is an integer, and the smaller the value, the earlier the processing is performed (* indicates a product; the same applies hereinafter).

【0092】上記のブレンディング演算式において、ソ
ース混合計数SRmとディスティネーション混合計数D
Emとは、次の11種類のうちから適宜選択される。
In the above blending operation equation, the source mixing count SRm and the destination mixing count D
Em is appropriately selected from the following 11 types.

【0093】0、FBn-1、PIXn、PIXn*α、FBn-1*α、
1、1−FBn-1、1−PIXn、1−PIXn*α、1−FBn-1*
α、(FB1-n*α、1−PIXn*α)のうちいずれか小さい
方上記の式(8)から理解される通り、一般的なブレン
ディング処理は、描画前のフレームバッファの色データ
を必要とし、また演算結果も描画順序に依存している。
従って、一般的なコンピュータ・グラフィックにおいて
は、ブレンディング処理の必要なポリゴンは奥側より順
に描画するのが通例である。
0, FBn-1, PIXn, PIXn * α, FBn-1 * α,
1, 1-FBn-1, 1-PIXn, 1-PIXn * α, 1-FBn-1 *
α, (FB1-n * α, 1−PIXn * α), whichever is smaller As understood from the above equation (8), general blending processing requires color data of a frame buffer before drawing. And the calculation result also depends on the drawing order.
Therefore, in general computer graphics, polygons that require blending processing are usually drawn in order from the back side.

【0094】図13は、半透明ポリゴンの混合ブレンデ
ィング処理を示す図である。手前側の半透明ポリゴンP
Gmと、奥側のポリゴンPGm-1が一部重なっていて、
手前側の半透明ポリゴンPGmの不透明度がαの場合で
ある。この場合は、従来例で説明した通り、奥側のポリ
ゴンPGm-1の色データFBm-1が先に求められ、それに
手前側の半透明ポリゴンPGmの色データが、不透明度
αmと透明度(1−αm)によって、混合ブレンディン
グ処理される。即ち、その演算式は、図示される通り、 FBm=PIXm*αm+FBm-1*(1−αm) (9) 即ち、上記式(9)は、一般式(8)において、ディス
ティネーション混合係数DEm=αmで、ソース混合係数
SRm=(1−αm)にした場合に対応する。
FIG. 13 is a diagram showing the blending processing of translucent polygons. Translucent polygon P on the near side
Gm and the polygon PGm-1 on the back side partially overlap,
This is a case where the opacity of the front-side semi-transparent polygon PGm is α. In this case, as described in the conventional example, the color data FBm-1 of the polygon PGm-1 on the far side is obtained first, and the color data of the semi-transparent polygon PGm on the near side is calculated based on the opacity αm and the transparency (1 -Αm) to perform a blending process. That is, the arithmetic expression is as shown in the figure: FBm = PIXm * αm + FBm-1 * (1-αm) (9) That is, the above equation (9) is obtained by adding the destination mixing coefficient DEm = αm, source mixing coefficient
This corresponds to the case where SRm = (1−αm).

【0095】図14は、補助フィルタ処理の具体例を示
す図である。汎用的なグラフィックライブラリには、ブ
レンド処理として補助フィルタ処理がある。この処理
は、図13の半透明ポリゴンの混合ブレンディング処理
と異なり、奥側のポリゴンPGm-1の色データがその手
前側のポリゴンPGmの混合係数αmにかかわらず、そ
のまま減衰することなく残される処理である。
FIG. 14 is a diagram showing a specific example of the auxiliary filter processing. A general-purpose graphic library includes auxiliary filter processing as blend processing. This process is different from the translucent polygon blending process of FIG. 13 in that the color data of the back polygon PGm-1 is left without being attenuated regardless of the blend coefficient αm of the front polygon PGm. It is.

【0096】例えば、手前側のポリゴンPGmが炎に対
応するポリゴンであり、奥側のポリゴンPGm-1が所定
の不透明ポリゴンの場合を想定する。この場合は、視点
からは炎のポリゴンPGmを通して不透明ポリゴンPG
m-1を見ていることになる。その場合は、炎ポリゴンP
Gmの色は加算されるが、奥側のポリゴンPGm-1の色
データが減衰することはない。
For example, it is assumed that the polygon PGm on the near side is a polygon corresponding to a flame and the polygon PGm-1 on the far side is a predetermined opaque polygon. In this case, from the viewpoint, the opaque polygon PG passes through the flame polygon PGm.
You are looking at m-1. In that case, the flame polygon P
Although the color of Gm is added, the color data of the polygon PGm-1 on the far side is not attenuated.

【0097】その場合は、炎ポリゴンPGmの色データ
PIXmに対してディスティネーション混合係数DEm=α
m、ソース混合係数SRm=1にすることにより、上記の
一般式(8)を利用することができる。その結果、補助
フィルタ処理の演算式は、図示される通り、 FBm=PIXm*αm+FBm-1*1 (10) となる。即ち、前回の処理で求めたポリゴンPGm-1の
色データFBm-1をそのまま残し、今回処理中のポリゴ
ンPGmの色データPIXmに混合係数αm分だけ加算す
る処理である。
In that case, the color data of the flame polygon PGm
Destination mixing coefficient DEm = α for PIXm
By setting m and the source mixing coefficient SRm = 1, the above general formula (8) can be used. As a result, the arithmetic expression of the auxiliary filter processing is FBm = PIXm * αm + FBm-1 * 1 (10) as shown in the figure. That is, the color data FBm-1 of the polygon PGm-1 obtained in the previous process is left as it is, and the color data PIXm of the polygon PGm currently being processed is added by the mixing coefficient αm.

【0098】この補助フィルタ処理は、上記の炎ポリゴ
ンの例以外に、例えば赤い光源からの光がポリゴンPG
m-1に照射されている場合も、同様の処理が適用され
る。
In this auxiliary filter processing, for example, in addition to the above-described flame polygon, light from a red light source
The same processing is applied when m-1 is irradiated.

【0099】図15は、更に、カラーフィルタ処理を示
す図である。カラーフィルタ処理では、例えば、背景に
あるポリゴンPGm-1の特定の色成分だけを抽出するた
めに、手前側にそれ自身は色成分を持たないカラーフィ
ルタポリゴンPGmを配置させる。そして、このブレン
ディング処理演算では、特定の色成分だけを抽出させる
ために、背景のポリゴンPGm-1の色データFBm-1にカ
ラーフィルタポリゴンPGmの色抽出データPIXmを乗
算する。
FIG. 15 is a diagram showing the color filter processing. In the color filter processing, for example, in order to extract only a specific color component of the polygon PGm-1 in the background, a color filter polygon PGm having no color component itself is arranged on the near side. In this blending operation, the color data FBm-1 of the background polygon PGm-1 is multiplied by the color extraction data PIXm of the color filter polygon PGm in order to extract only a specific color component.

【0100】即ち、その演算式は、図示される通り、 FBm=PIXm*0+FBm-1*PIXm (11) となる。この演算式は、一般式(8)に対して、カラー
フィルタポリゴンPGmの色抽出データPIXmに対して
ディスティネーション混合係数DEm=0、前回求めた色
データFBm-1に対してソース混合係数SRm=PIXmにす
ることにより得られる。
That is, the arithmetic expression is FBm = PIXm * 0 + FBm-1 * PIXm (11) as shown. This equation is obtained by comparing the general equation (8) with the destination mixing coefficient DEm = 0 for the color extraction data PIXm of the color filter polygon PGm, and the source mixing coefficient SRm = for the previously obtained color data FBm-1. It is obtained by setting it to PIXm.

【0101】以上の通り、半透明ポリゴンの混合ブレン
ディング処理以外に、補色フィルタ処理やカラーフィル
タ処理などの様々なブレンディング処理は、一般式
(8)に、適宜選択したディスティネーション混合係数
DEmとソース混合係数SRmと適用して演算処理すること
ができる。通常のコンピュータ・グラフィック処理装置
は、上記の一般式(8)に適用できるように構成され、
その結果、ディスティネーション混合係数DEmとソース
混合係数SRmとを適宜選択して行うことにより、様々な
ブレンディング処理が可能になる。
As described above, in addition to the blending of semi-transparent polygons, various blending processes such as a complementary color filter process and a color filter process are performed by adding the appropriately selected destination mixing coefficients to the general formula (8).
The arithmetic processing can be performed by applying DEm and the source mixing coefficient SRm. A general computer graphic processing device is configured to be applicable to the general formula (8),
As a result, various blending processes can be performed by appropriately selecting the destination mixing coefficient DEm and the source mixing coefficient SRm.

【0102】そこで、上記の一般的なブレンディング処
理に対して、視点側から(手前側)ポリゴンを順番に処
理することができる方法、処理装置について、以下に説
明する。
Therefore, a method and a processing device which can sequentially process polygons from the viewpoint side (front side) in the general blending processing will be described below.

【0103】図1の場合と同様に、4枚のポリゴンが手
前側から重なっていると仮定する。その場合、一般式
(8)に対して、m=1〜4により、次の4つの演算式
が導かれる。
As in the case of FIG. 1, it is assumed that four polygons overlap from the near side. In this case, the following four arithmetic expressions are derived from the general expression (8) by m = 1 to 4.

【0104】 FB1=PIX1*DE1+FB0*SR1 (21) FB2=PIX2*DE2+FB1*SR2 (22) FB3=PIX3*DE3+FB2*SR3 (23) FB4=PIX4*DE4+FB3*SR4 (24) ここで、留意すべき点は、上記ブレンディング処理は、
奥側のポリゴンを先に処理してその色データがフレーム
バッファに記録されているので、mが大きいほど手前の
ポリゴンを意味し、mが小さいほど奥側のポリゴンを意
味することである。
FB 1 = PIX 1 * DE 1 + FB 0 * SR 1 (21) FB 2 = PIX 2 * DE 2 + FB 1 * SR 2 (22) FB 3 = PIX 3 * DE 3 + FB 2 * SR 3 (23 ) FB 4 = PIX 4 * DE 4 + FB 3 * SR 4 (24) Here, it should be noted that the blending process is
Since the back side polygon is processed first and its color data is recorded in the frame buffer, a larger m means a front side polygon, and a smaller m means a back side polygon.

【0105】そこで、上記の(21)〜(24)につい
て、式(5)(6)(7)で行ったように、最も手前の
ポリゴンの色データをFB4からD1に、最も奥側のポリ
ゴンの色データをFB1からD4にそれぞれ置き換え、半
透明ポリゴンの場合と同様に、処理中のピクセルの色デ
ータPIXをピクセル色データTXCOnと光源色データINTnの
乗算値TXCOn*INTnに置き換えると、次の通りである。
つまり、D4=FB1〜D1=FB4とし、PIX4=TXCO1*I
NT1〜PIX1=TXCO4*INT4すると、 D4=TXCO4*INT4*DE4+D5*SR4 (31) D3=TXCO3*INT3*DE3+D4*SR3 (32) D2=TXCO2*INT2*DE2+D3*SR2 (33) D1=TXCO1*INT1*DE1+D2*SR1 (34) そこで、ワークデータXn(但しX0=1)を、 Xn=SRn*Xn-1=SRn*SRn-1*SRn-2*…*SR1 (35) とすると、式(34)は、次の通り展開される。
Therefore, for the above (21) to (24), the color data of the foremost polygon is changed from FB 4 to D 1 and the farthest side is obtained, as performed by the equations (5), (6) and (7). replacing color data of polygons respectively replaced from FB 1 to D 4, as in the case of semi-transparent polygons, color data PIX of being processed pixel to the multiplier value TxCON * INTn pixel color data TxCON and the light source color data INTn Is as follows.
That is, D 4 = FB 1 to D 1 = FB 4 and PIX 4 = TXCO 1 * I
NT 1 ~PIX 1 = TXCO 4 * INT 4 Then, D 4 = TXCO 4 * INT 4 * DE 4 + D 5 * SR 4 (31) D 3 = TXCO 3 * INT 3 * DE 3 + D 4 * SR 3 (32 ) D 2 = TXCO 2 * INT 2 * DE 2 + D 3 * SR 2 (33) D 1 = TXCO 1 * INT 1 * DE 1 + D 2 * SR 1 (34) Therefore, the work data Xn (where X 0 = 1 ) Is expressed as X n = SR n * X n-1 = SR n * SR n-1 * SR n-2 *.. * SR 1 (35), the equation (34) is expanded as follows.

【0106】D1=TXCO1*INT1*DE1*X0+TXCO2*INT
2*DE2*X1+TXCO3*INT3*DE3*X2+TXCO4*INT4*D
E4*X3 であるから、各TXCOn*INTn*DEn*Xn-1に注目する
と、 Dn=Dn-1+TXCOn*INTn*DEn*Xn-1 =Σ(TXCOn*INTn*DEn*Xn-1) (36) と一般化することができる。この場合上記の置き換えに
より、nが小さいほど手前のポリゴンを意味しているの
で、より手前のポリゴンから順番にブレンディング処理
を行うことができることを意味している。即ち、より手
前に位置するポリゴンの処理結果Dn-1を利用して、次
の奥側に位置するポリゴンのデータDnを求めることが
できるのである。そして、上記の式(35)と(36)
において、SRn=(1−αn)、DEn=αnと置き換
え、更にポリゴンの色データDnをフレームバッファの
データFBnに置き換えると、半透明ポリゴンの処理で
示した式(6)(7)と同じになることが理解される。
D 1 = TXCO 1 * INT 1 * DE 1 * X 0 + TXCO 2 * INT
2 * DE 2 * X 1 + TXCO 3 * INT 3 * DE 3 * X 2 + TXCO 4 * INT 4 * D
Because it is E 4 * X 3, when attention is paid to the TXCO n * INT n * DE n * X n-1, Dn = D n-1 + TXCO n * INT n * DE n * X n-1 = Σ (TXCO n * INT n * DE n * X n-1 ) (36) In this case, as a result of the above replacement, the smaller the value of n, the closer the polygon is, so that the blending process can be performed in order from the more recent polygon. That is, using the processing result Dn-1 of the polygon located on the near side, the data Dn of the polygon located on the next deeper side can be obtained. Then, the above equations (35) and (36)
, SRn = (1−αn), DEn = αn, and the color data Dn of the polygon is further replaced by the data FBn of the frame buffer, the result becomes the same as the equations (6) and (7) shown in the processing of the translucent polygon. It will be understood that

【0107】上記の式(35)によれば、ワークデータ
Xnは、ソース混合係数SRnの累積値である。また、上
記の式(36)によれば、視点からn枚目のポリゴンを
処理した結果の色データDn(FBn)は、n枚目のポリ
ゴンの色データTXCOnを、光源色データINTn、ディステ
ィネーション混合係数DEn と、手前に位置するn−1枚
のポリゴンのソース混合係数SR1〜SRn-1の累積乗算値
(ワークデータ)Xn-1とに応じて処理し、全ての画像
データDnを加算するレンダリング処理により求められ
る。しかも、ワークデータXnが所定の最低値よりも小
さくなると、その後のポリゴンの処理を省略しても表示
される色データに大きな影響を与えないことは、半透明
ポリゴンのブレンド処理と同じである。
According to the above equation (35), the work data Xn is the accumulated value of the source mixing coefficient SRn. According to the above equation (36), the color data Dn (FBn) obtained by processing the n-th polygon from the viewpoint is the color data TXCO n of the n-th polygon and the light source color data INT n , Processing is performed in accordance with the destination mixing coefficient DE n and the cumulative multiplication value (work data) X n−1 of the source mixing coefficients SR 1 to SR n−1 of the n−1 polygons located in front of the destination mixing coefficient DE n . It is obtained by a rendering process for adding the image data Dn. In addition, if the work data Xn is smaller than the predetermined minimum value, even if the processing of the subsequent polygons is omitted, the displayed color data will not be greatly affected, as in the case of the translucent polygon blending processing.

【0108】図16は、上記の汎用レンダリング処理を
行う場合の、レンダリング処理プロセッサ内に設けられ
るブレンド処理ユニットの構成図である。上記の通り、
汎用レンダリング処理に適用する場合は、ブレンド処理
ユニット30が、ソース係数SRnを乗算したワークデー
タXnを、視点側から奥行き方向に沿って順に求める必
要がある。その場合、ソース係数SRnは、ブレンディン
グ処理の種類によって、不透明度αnを使用する場合
や、テクスチャ色データTnを使用する場合に、それぞ
れ区別して処理しなければならない。
FIG. 16 is a configuration diagram of a blend processing unit provided in the rendering processor when performing the above-described general-purpose rendering processing. As above,
When applied to general-purpose rendering processing, the blend processing unit 30 needs to sequentially obtain work data Xn multiplied by the source coefficient SRn from the viewpoint side along the depth direction. In this case, the source coefficient SRn needs to be processed differently when using the opacity αn or when using the texture color data Tn, depending on the type of blending processing.

【0109】図16に示したブレンド処理ユニット30
は、ソース、ディスティネーション係数生成回路301
と、乗算器302と、Xデータワークメモリ304を有
する。係数生成回路301は、テクスチャメモリ28
A、28Bから、テクスチャの不透明度αtとテクスチ
ャの色データTを読み出すことができる。また、係数生
成回路301に、ソーターユニットから、ピクセルの不
透明度αpとテクスチャ座標(Tx,Ty)が供給される。
The blend processing unit 30 shown in FIG.
Is a source / destination coefficient generation circuit 301
, A multiplier 302, and an X data work memory 304. The coefficient generation circuit 301 stores the texture memory 28
The texture opacity αt and the texture color data T can be read from A and 28B. Further, the opacity αp of the pixel and the texture coordinates (Tx, Ty) are supplied to the coefficient generation circuit 301 from the sorter unit.

【0110】ブレンディング処理の種類に応じて、係数
生成回路301は、ソース混合係数SRnとして、1−α
n、1、Tnをそれぞれ生成し、乗算器302に供給す
る。乗算器302は、そのソース混合係数SRnをXデー
タワークメモリ304から読み出されたワークデータX
n-1と乗算する。また、係数生成回路301は、ディス
ティネーション混合係数DEnも同時に出力し、ピクセル
ワークメモリ36に供給し、格納する。更に、Xデータ
ワークメモリ304から読み出されたワークデータXn-
1も、ピクセルワークメモリ36に供給され、格納され
る。上記の3つのブレンディング処理では、ディスティ
ネーション混合係数DEnは、不透明度αnか、0のいずれ
かである。
In accordance with the type of the blending process, the coefficient generation circuit 301 calculates 1-α
n, 1 and Tn are generated and supplied to the multiplier 302. The multiplier 302 calculates the source mixing coefficient SRn by using the work data X read from the X data work memory 304.
Multiply by n-1. The coefficient generation circuit 301 also outputs the destination mixing coefficient DEn at the same time, supplies the same to the pixel work memory 36, and stores the same. Further, the work data Xn− read from the X data work memory 304 is read.
1 is also supplied to the pixel work memory 36 and stored. In the above three blending processes, the destination mixing coefficient DEn is either the opacity αn or 0.

【0111】即ち、ブレンド処理ユニット30では、次
の様に混合係数を選択することで、上記した3つの処理
を行うことができる。
That is, the blending unit 30 can perform the above three processes by selecting a mixing coefficient as follows.

【0112】 半透明ポリゴンの混合ブレンディング処理:DEn=αn、SRn=1−αn 補助フィルタ処理 :DEn=αn、SRn=1 カラーフィルタ処理 :DEn=0 、SRn=Tn 上記の例以外にも、種々の混合係数を選択することがで
きる。例えば、0、Tn*αn、1、1−Tn、1−T
n*αn等を適宜選択することができる。但し、データ
FBn-1、即ち、後で処理して求められる色データDn+1
を含む混合係数を選択することはできない。
Mixed blending processing of translucent polygon: DEn = αn, SRn = 1−αn Auxiliary filter processing: DEn = αn, SRn = 1 Color filter processing: DEn = 0, SRn = Tn Can be selected. For example, 0, Tn * αn, 1, 1-Tn, 1-T
n * αn or the like can be appropriately selected. However, the data FBn-1, that is, the color data Dn + 1 obtained by processing later.
Cannot be selected.

【0113】図18は、ブレンド処理ユニットの変形例
を示す図である。図16に比較して、図18の変形例
は、更にディスティネーション係数DEnとXワークデー
タXn-1とを乗算する乗算器305を有する。そして、
この乗算器305の乗算値Xn-1*DEnが、ピクセルワー
クメモリユニット36に格納される。かかるブレンド処
理ユニットを利用することで、カラー合成ユニットの乗
算器381の構成を簡略化することができる。
FIG. 18 is a diagram showing a modification of the blend processing unit. Compared to FIG. 16, the modification of FIG. 18 further includes a multiplier 305 for multiplying the destination coefficient DEn by the X work data Xn-1. And
The multiplied value Xn-1 * DEn of the multiplier 305 is stored in the pixel work memory unit 36. By using such a blend processing unit, the configuration of the multiplier 381 of the color synthesis unit can be simplified.

【0114】テクスチャ処理ユニット32、光源計算ユ
ニット34の構成は、汎用ブレンディング処理の場合で
も前述と同じである。即ち、比較的大きな処理工数を必
要とするピクセル色データTXCOnの生成(テクスチャ処
理)や、光源色データを求める光源計算は、並列回路に
より順不同で求め、逐次ピクセルワークメモリユニット
36に格納する。そして、ピクセルデータの処理が完了
したピクセルから、カラー合成ユニット38により合成
処理が行われる。
The configurations of the texture processing unit 32 and the light source calculation unit 34 are the same as those described above even in the case of general-purpose blending processing. That is, the generation (texture processing) of the pixel color data TXCOn requiring a relatively large number of processing steps and the light source calculation for obtaining the light source color data are obtained in a random order by a parallel circuit, and are sequentially stored in the pixel work memory unit 36. Then, a synthesis process is performed by the color synthesis unit 38 from the pixel for which the processing of the pixel data is completed.

【0115】カラー合成ユニット38では、一つ手前の
ワークデータXn-1、ディスティネーション混合係数DE
n、ピクセルの色データTXCOn及び光源色データINTnが、
乗算器381で乗算され、フレームバッファ40内の画
像データFBに加算され、フレームバッファ40に再書
き込みされる。
In the color synthesizing unit 38, the immediately preceding work data Xn-1 and the destination mixing coefficient DE
n, pixel color data TXCOn and light source color data INTn,
The data is multiplied by the multiplier 381, added to the image data FB in the frame buffer 40, and rewritten in the frame buffer 40.

【0116】図16に示したブレンド処理ユニット30
は、カラーフィルタ処理の場合に、ソース混合係数SRn
として、テクスチャの色データTをそのまま利用した。
しかしながら、より厳密にカラーフィルタの色データを
求めるためには、テクスチャ処理ユニット32により生
成されるピクセル色データTXCOnと、光源計算ユニット
34により生成される光源色データINTnとを乗算して光
源処理する必要がある。従って、その光源処理されたピ
クセル色データをブレンド処理ユニット30に供給して
ソース混合係数として利用する必要がある。その為に、
カラーフィルタ処理において、ブレンド処理ユニット3
0によるワークデータの生成処理が、しばらく停止する
必要がある。そして、それぞれ生成されてピクセルワー
クメモリに記録されたピクセルの色データTXCOnと光源
色データINTnを、ブレンディング処理ユニット30に供
給しながら、ワークデータXnを生成する。
The blend processing unit 30 shown in FIG.
Is the source mixing coefficient SRn
The color data T of the texture was used as it is.
However, in order to more precisely obtain the color data of the color filter, the light source processing is performed by multiplying the pixel color data TXCOn generated by the texture processing unit 32 and the light source color data INTn generated by the light source calculation unit 34. There is a need. Therefore, it is necessary to supply the pixel color data subjected to the light source processing to the blend processing unit 30 and use it as a source mixing coefficient. For that,
In the color filter processing, the blend processing unit 3
It is necessary to stop the process of generating work data by 0 for a while. Then, the work data Xn is generated while the color data TXCOn and the light source color data INTn of the pixel generated and recorded in the pixel work memory are supplied to the blending processing unit 30.

【0117】上記の処理は、カラーフィルタ処理の場合
に限定されるので、全体のレンダリング処理に与える影
響は、それほど大きくない。
Since the above processing is limited to the case of the color filter processing, the influence on the whole rendering processing is not so large.

【0118】以上の実施の形態例において、レンダリン
グ処理プロセッサ20内のブレンド処理ユニット30、
テクスチャ処理ユニット32、及び光源計算ユニット3
4は、それぞれマイクロコンピュータによって実現され
ても良い。レンダリング処理プロセッサ20が、1チッ
プのプロセッサで実現される場合は、それらの処理ユニ
ットとしてマイクロコンピュータの構成を有するマクロ
回路が埋め込まれる。その場合、テクスチャ処理ユニッ
ト32、光源計算ユニット34は、複数のマイクロコン
ピュータを有し、それぞれの処理をプログラムを実行す
ることにより行う。複数ユニット設けられたマイクロコ
ンピュータは、空き状態になりしだい、テクスチャ処理
と光源計算が分配されるので、各ピクセルの処理時間が
異なっても、全体の処理時間を短くすることができる。
In the above embodiment, the blend processing unit 30 in the rendering processor 20
Texture processing unit 32 and light source calculation unit 3
4 may be each realized by a microcomputer. When the rendering processor 20 is realized by a one-chip processor, a macro circuit having a configuration of a microcomputer is embedded as the processing unit. In this case, the texture processing unit 32 and the light source calculation unit 34 have a plurality of microcomputers, and perform each process by executing a program. In the microcomputer provided with the plurality of units, the texture processing and the light source calculation are distributed as soon as the microcomputer becomes empty. Therefore, even if the processing time of each pixel is different, the entire processing time can be shortened.

【0119】以上、本発明の保護範囲は、上記の実施の
形態例に限定されるものではなく、特許請求の範囲に記
載された発明とその均等物にまで及ぶものである。
As described above, the protection scope of the present invention is not limited to the above embodiments, but extends to the inventions described in the claims and their equivalents.

【0120】[0120]

【発明の効果】以上説明した通り、本発明によれば、半
透明ポリゴンの画像処理において、表示画面の視点側の
ポリゴンから奥行き方向に沿って順に処理するアルゴリ
ズムを採用することで、奥行き方向について順不同でカ
ラー合成処理を行うことができる。その結果、より高速
に処理可能なレンダリングプロセッサを実現することが
できる。
As described above, according to the present invention, in the image processing of a semi-transparent polygon, an algorithm for sequentially processing the polygon from the viewpoint side of the display screen in the depth direction is employed, so that the depth direction can be reduced. Color synthesis processing can be performed in any order. As a result, a rendering processor capable of processing at higher speed can be realized.

【0121】また、本発明によれば、一般的なブレンデ
ィング処理を行うことができる汎用レンダリングプロセ
ッサにおいても、同様により高速に処理する構成を実現
することができる。
Further, according to the present invention, a general-purpose rendering processor capable of performing general blending processing can also realize a configuration that performs processing at a higher speed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】半透明ポリゴンの重なり例を説明する図であ
る。
FIG. 1 is a diagram illustrating an example of overlapping semi-transparent polygons.

【図2】本発明及び従来例のレンダリング処理を、図1
の例に適用した時の演算式を示す図表である。
FIG. 2 shows a rendering process according to the present invention and a conventional example.
9 is a table showing an arithmetic expression when applied to the example of FIG.

【図3】本発明の実施の形態例におけるレンダリング処
理プロセッサを有するゲーム装置の構成図である。
FIG. 3 is a configuration diagram of a game device having a rendering processor according to the embodiment of the present invention.

【図4】ソーターユニットの構成図である。FIG. 4 is a configuration diagram of a sorter unit.

【図5】別のソーターユニットの構成図である。FIG. 5 is a configuration diagram of another sorter unit.

【図6】ブレンド処理ユニットの構成図である。FIG. 6 is a configuration diagram of a blend processing unit.

【図7】光源計算ユニットの構成図である。FIG. 7 is a configuration diagram of a light source calculation unit.

【図8】光源計算回路の動作タイミングチャート図であ
る。
FIG. 8 is an operation timing chart of the light source calculation circuit.

【図9】テクスチャ処理ユニットの構成図である。FIG. 9 is a configuration diagram of a texture processing unit.

【図10】ピクセルワークメモリユニットの構成図であ
る。
FIG. 10 is a configuration diagram of a pixel work memory unit.

【図11】カラー合成ユニットの構成図である。FIG. 11 is a configuration diagram of a color synthesis unit.

【図12】レンダリングプロセッサの処理フローチャー
ト図である。
FIG. 12 is a processing flowchart of a rendering processor.

【図13】半透明ポリゴンの混合ブレンディング処理を
示す図である。
FIG. 13 is a diagram showing a blending process of translucent polygons.

【図14】補助フィルタ処理を示す図である。FIG. 14 is a diagram illustrating auxiliary filter processing.

【図15】カラーフィルタ処理を示す図である。FIG. 15 is a diagram illustrating color filter processing.

【図16】汎用レンダリング処理を行う場合のブレンド
処理ユニットの構成図である。
FIG. 16 is a configuration diagram of a blend processing unit when performing a general-purpose rendering process.

【図17】ブレンド処理ユニットの変形例の構成図であ
る。
FIG. 17 is a configuration diagram of a modified example of the blend processing unit.

【図18】汎用レンダリング処理を行う場合のブレンド
処理ユニットの変形例の構成図である。
FIG. 18 is a configuration diagram of a modified example of a blend processing unit when performing a general-purpose rendering process.

【符号の説明】[Explanation of symbols]

34 レンダラ、レンダリング処理部 342 Xバッファ、ワークデータバッファ 343 Dバッファ、画像データバッファ Tn 色データ、テクスチャデータ Dn 画像データ αn 不透明度データ P1〜P4 ポリゴン34 renderer, rendering processing unit 342 X buffer, work data buffer 343 D buffer, image data buffer T n color data, texture data D n image data α n opacity data P1 to P4 polygon

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】重なり合う複数のポリゴンに対する画像処
理を行って、表示用画像データを生成する画像処理装置
において、 表示画面内の手前側から深さ方向に順に並べた時のn番
目のポリゴンに、ピクセル色データTXCOn と、不透明度
αn または透明度(1−αn)と、光源色データINTnが
与えられ、 前記画像処理装置は、 重なり合うピクセルの前記透明度(1−αn)の乗算値
nを、前記手前側から深さ方向の順に求めるブレンド
処理ユニットと、 ピクセルの光源データに従って、深さ方向の各ピクセル
に対する光源色データINTnを求める光源計算ユニット
と、 ポリゴン色データPCOLn及びテクスチャ座標に従って、
前記深さ方向の各ピクセルに対するピクセル色データTX
COnを求めるテクスチャ処理ユニットと、 前記深さ方向の各ピクセルに対して、当該ピクセルのピ
クセル色データTXCOnを、光源色データINTn、不透明度
αn、及び一つ手前側のピクセルの前記乗算値Xn-1に応
じて修正し累積するカラー合成処理を行うカラー合成ユ
ニットとを有し、 前記光源計算ユニット及びテクスチャ処理ユニットの少
なくとも一方が、対応するデータ生成処理を並列に行
い、前記カラー合成ユニットが、前記カラー合成処理を
深さ方向のピクセルについて順不同で行うことを特徴と
する画像処理装置。
An image processing apparatus for generating image data for display by performing image processing on a plurality of overlapping polygons, wherein the n-th polygon when arranged in the depth direction from the near side in the display screen is: Pixel color data TXCOn If, opacity alpha n or transparency and (1-αn), the light source color data INTn is given, the image processing apparatus, the transparency of the overlapping pixels multiplied value X n of (1-αn), from the front side A blend processing unit that determines in the order of depth direction, a light source calculation unit that determines light source color data INTn for each pixel in the depth direction according to the light source data of the pixel, and a polygon color data PCOLn and texture coordinates,
Pixel color data TX for each pixel in the depth direction
A texture processing unit for determining COn; for each pixel in the depth direction, pixel color data TXCOn of the pixel; light source color data INTn, opacity αn, and the multiplied value X n of the immediately preceding pixel A color synthesis unit that performs a color synthesis process that corrects and accumulates according to -1.At least one of the light source calculation unit and the texture processing unit performs a corresponding data generation process in parallel, and the color synthesis unit performs An image processing apparatus for performing the color synthesizing process on pixels in a depth direction in any order.
【請求項2】請求項1において、 更に、フレーム内の複数のポリゴンデータまたはそのピ
クセルデータを、前記表示画面内の手前側から深さ方向
に順番に並び替えるソーターユニットを有し、当該ソー
ターユニットが、光源計算ユニット及びテクスチャ処理
ユニットに、前記ピクセルデータを供給し、前記ブレン
ド処理ユニットに前記ピクセルデータを手前側から深さ
方向の順に供給することを特徴とする画像処理装置。
2. A sorter unit according to claim 1, further comprising: a sorter unit for rearranging a plurality of polygon data or pixel data in the frame in order from a near side in the display screen in a depth direction. Supplies the pixel data to a light source calculation unit and a texture processing unit, and supplies the pixel data to the blend processing unit in the depth direction from the near side.
【請求項3】請求項1において、 前記カラー合成処理は、処理中のピクセルのピクセル色
データTXCOn、光源色データINTn、不透明度αn、及び一
つ手前側のピクセルの前記乗算値Xn-1との乗算値を求
め、それらを累積する処理であることを特徴とする画像
処理装置。
3. The color synthesizing process according to claim 1, wherein the color synthesis processing includes pixel color data TXCOn, light source color data INTn, opacity αn of the pixel being processed, and the multiplication value X n−1 of the immediately preceding pixel. An image processing apparatus for obtaining a multiplied value of と and accumulating them.
【請求項4】請求項3において、 前記カラー合成処理により求められた累積値が、前記表
示用画像データとして使用されることを特徴とする画像
処理装置。
4. The image processing apparatus according to claim 3, wherein a cumulative value obtained by the color synthesis processing is used as the display image data.
【請求項5】請求項1において、 更に、深さ方向のピクセルの前記乗算値Xn、ピクセル
色データTXCOn、光源色データINTn、不透明度αnのデー
タを記録するピクセルワークメモリユニットを有し、 前記カラー合成ユニットは、該ピクセルワークメモリユ
ニットに上記データが全て記録されたピクセルについ
て、前記カラー合成処理を行うことを特徴とする画像処
理装置。
5. The pixel work memory unit according to claim 1, further comprising a pixel work memory unit for recording data of the multiplied value Xn, pixel color data TXCOn, light source color data INTn, and opacity αn of a pixel in a depth direction. An image processing apparatus, wherein the color synthesizing unit performs the color synthesizing process on a pixel in which all of the data is recorded in the pixel work memory unit.
【請求項6】請求項1において、 前記ブレンド処理ユニットは、更に、前記ソーターユニ
ットから供給されるポリゴンの不透明度または透明度
と、テクスチャの不透明度または透明度から、ピクセル
の不透明度αnまたは透明度(1−αn)を生成すること
を特徴とする画像処理装置。
6. The method according to claim 1, wherein the blend processing unit further determines the opacity αn or transparency (1) of the pixel from the opacity or transparency of the polygon supplied from the sorter unit and the opacity or transparency of the texture. -Αn) is generated.
【請求項7】請求項1において、 前記テクスチャ処理ユニットは、更に、ポリゴン色デー
タPCOLnと前記テクスチャ座標に対応するテクスチャの
色データTとに従って、前記ピクセル色データTXCOnを
求める複数のテクスチャ処理回路を有し、空き状態にあ
るテクスチャ処理回路が順次前記ピクセル色データを生
成することを特徴とする画像処理装置。
7. The texture processing unit according to claim 1, further comprising a plurality of texture processing circuits for obtaining the pixel color data TXCOn according to polygon color data PCOLn and color data T of a texture corresponding to the texture coordinates. An image processing apparatus, comprising: a texture processing circuit in an empty state sequentially generating the pixel color data.
【請求項8】請求項1において、 前記光源計算ユニットは、光源色データINTnを求める複
数の光源計算回路を有し、空き状態にある光源処理回路
が順次前記光源色データを生成することを特徴とする画
像処理装置。
8. The light source calculation unit according to claim 1, wherein the light source calculation unit has a plurality of light source calculation circuits for obtaining light source color data INTn, and a light source processing circuit in an empty state sequentially generates the light source color data. Image processing apparatus.
【請求項9】重なり合う複数のポリゴンに対する画像処
理を行って、表示用画像データを生成する画像処理装置
において、 表示画面内の手前側から深さ方向に順に並べた時のn番
目のポリゴンに、ピクセル色データTXCOn と、光源色デ
ータINTnと、ディスティネーション混合係数DE n 及びソ
ース混合係数SRn についてのデータが与えられ、 前記画像処理装置は、 重なり合うピクセルの前記ソース混合係数SRnの乗算値
nを、前記手前側から深さ方向の順に求めるブレンド
処理ユニットと、 ピクセルの光源データに従って、深さ方向の各ピクセル
に対する光源色データINTnを求める光源計算ユニット
と、 ポリゴン色データPCOLn及びテクスチャ座標に従って、
前記深さ方向の各ピクセルに対するピクセル色データTX
COnを求めるテクスチャ処理ユニットと、 前記深さ方向の各ピクセルに対して、当該ピクセルのピ
クセル色データTXCOnを、光源色データINTn、ディステ
ィネーション混合係数DEn、及び一つ手前側のピクセル
の前記乗算値Xn-1に応じて修正し累積するカラー合成
処理を行うカラー合成ユニットとを有し、 前記光源計算ユニット及びテクスチャ処理ユニットの少
なくとも一方が、対応するデータ生成処理を並列に行
い、前記カラー合成ユニットが、前記カラー合成処理を
深さ方向のピクセルについて順不同で行うことを特徴と
する画像処理装置。
9. An image processing method for a plurality of overlapping polygons.
Processing device that performs image processing and generates display image data
In the display screen, the number n when arranged in order from the near side to the depth direction in the display screen
Pixel color data TXCOn in the eye polygon And the light source color
Data INTn and destination mixing coefficient DE nAnd so
Source mixing coefficient SRnGiven by the image processing apparatus, wherein the image processing device comprises:nMultiplied value of
XnFrom the near side in the depth direction.
Each pixel in the depth direction according to the processing unit and the light source data of the pixel
Light source calculation unit that calculates the light source color data INTn for
According to the polygon color data PCOLn and the texture coordinates,
Pixel color data TX for each pixel in the depth direction
A texture processing unit for obtaining COn; and for each pixel in the depth direction,
Xel color data TXCOn, light source color data INTn,
Bination mixing coefficient DEn, And the pixel on the near side
The multiplied value X ofn-1Color composition corrected and accumulated according to
A color synthesizing unit for performing processing, wherein the number of light source calculating units and
At least one performs the corresponding data generation processing in parallel.
The color synthesizing unit performs the color synthesizing process.
The feature is that the order is performed in random order for pixels in the depth direction.
Image processing device.
【請求項10】前記カラー合成処理は、処理中のピクセ
ルのピクセル色データTXCOn、光源色データINTn、ディ
スティネーション混合係数DEn、及び、一つ手前側のピ
クセルの前記乗算値Xn-1との乗算値を求め、それらを
累積する処理であり、当該累積値が前記表示用画像デー
タとして使用されることを特徴とする画像処理装置。
10. The color synthesizing process includes the pixel color data TXCOn, the light source color data INTn, the destination mixing coefficient DE n of the pixel under processing, and the multiplication value X n-1 of the immediately preceding pixel. An image processing apparatus for obtaining a multiplied value of, and accumulating the multiplied values, wherein the accumulated value is used as the display image data.
【請求項11】重なり合う複数のポリゴンに対する画像
処理を行って、表示用画像データを生成する画像処理方
法において、 表示画面内の手前側から深さ方向に順に並べた時のn番
目のポリゴンに、ピクセル色データTXCOn と、不透明度
αn または透明度(1−αn)と、光源色データINTnと
が与えられ、 前記画像処理方法は、 重なり合うピクセルの前記透明度(1−αn)の乗算値
nを、前記手前側から深さ方向の順に求めるブレンド
処理工程と、 ピクセルの光源データに従って、深さ方向の各ピクセル
に対する光源色データINTnを求める光源計算処理と、 ポリゴン色データPCOLn及びテクスチャ座標に従って、
前記深さ方向の各ピクセルに対するピクセル色データTX
COnを求めるテクスチャ処理工程と、 前記深さ方向の各ピクセルに対して、当該ピクセルのピ
クセル色データTXCOnを、光源色データINTn、不透明度
αn、及び一つ手前側のピクセルの前記乗算値Xn-1に応
じて修正し累積するカラー合成処理を行うカラー合成工
程とを有し、 前記光源計算工程及びテクスチャ処理工程の少なくとも
一方で、対応するデータ生成処理を並列に行い、前記カ
ラー合成工程で、前記カラー合成処理を深さ方向のピク
セルについて順不同で行うことを特徴とする画像処理方
法。
11. An image processing method for generating image data for display by performing image processing on a plurality of overlapping polygons, wherein an n-th polygon arranged in order from a near side in a display screen in a depth direction includes: Pixel color data TXCOn If, opacity alpha n or transparency and (1-αn), given the source color data INTn, the image processing method, a multiplication value X n of the transparency of the overlapping pixels (1-αn), the front side And a light source calculation process for obtaining light source color data INTn for each pixel in the depth direction according to the light source data of the pixel, and a polygon color data PCOLn and texture coordinates according to the pixel light source data.
Pixel color data TX for each pixel in the depth direction
A texture processing step of obtaining COn; and for each pixel in the depth direction, pixel color data TXCOn of the pixel, light source color data INTn, opacity αn, and the multiplied value X n of the immediately preceding pixel. A color synthesis step of performing a color synthesis processing that corrects and accumulates according to -1.At least one of the light source calculation step and the texture processing step, a corresponding data generation process is performed in parallel, and in the color synthesis step, An image processing method, wherein the color synthesis processing is performed in random order for pixels in a depth direction.
【請求項12】重なり合う複数のポリゴンに対する画像
処理を行って、表示用画像データを生成する画像処理方
法において、 表示画面内の手前側から深さ方向に順に並べた時のn番
目のポリゴンに、ピクセル色データTXCOn と、光源色デ
ータINTnと、ディスティネーション混合係数DE n 及びソ
ース混合係数SRn についてのデータが与えられ、 前記画像処理方法は、 重なり合うピクセルの前記ソース混合係数SRnの乗算値
nを、前記手前側から深さ方向の順に求めるブレンド
処理工程と、 ピクセルの光源データに従って、深さ方向の各ピクセル
に対する光源色データINTnを求める光源計算工程と、 ポリゴン色データPCOLn及びテクスチャ座標に従って、
前記深さ方向のピクセルに対するピクセル色データTXCO
nを求めるテクスチャ処理工程と、 前記深さ方向の各ピクセルに対して、当該ピクセルのピ
クセル色データTXCOnを、光源色データINTn、ディステ
ィネーション混合係数DEn、及び一つ手前側のピクセル
の前記乗算値Xn-1に応じて修正し累積するカラー合成
処理を行うカラー合成工程とを有し、 前記光源計算工程及びテクスチャ処理工程の少なくとも
一方で、対応するデータ生成処理を並列に行い、前記カ
ラー合成工程で、前記カラー合成処理を深さ方向のピク
セルについて順不同で行うことを特徴とする画像処理方
法。
12. An image for a plurality of overlapping polygons.
Image processing method that performs processing and generates display image data
In the method, the number n when arranged in the depth direction from the near side in the display screen
Pixel color data TXCOn in the eye polygon And the light source color
Data INTn and destination mixing coefficient DE nAnd so
Source mixing coefficient SRnAnd the image processing method comprises: providing the source mixing coefficient SR of overlapping pixelsnMultiplied value of
XnFrom the near side in the depth direction.
Each pixel in the depth direction according to the processing steps and the light source data of the pixel
A light source calculation step of obtaining light source color data INTn for the following: polygon color data PCOLn and texture coordinates
Pixel color data TXCO for the pixels in the depth direction
a texture processing step for determining n, and for each pixel in the depth direction,
Xel color data TXCOn, light source color data INTn,
Bination mixing coefficient DEn, And the pixel on the near side
The multiplied value X ofn-1Color composition corrected and accumulated according to
A color synthesizing step of performing processing, and at least the light source calculating step and the texture processing step.
On the other hand, the corresponding data generation processes are performed in parallel,
In the color synthesis process, the color synthesis processing is performed in the depth direction.
An image processing method characterized by performing cells in any order.
Law.
JP35285599A 1999-12-13 1999-12-13 Image processing apparatus and method including blending processing Expired - Fee Related JP4411713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35285599A JP4411713B2 (en) 1999-12-13 1999-12-13 Image processing apparatus and method including blending processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35285599A JP4411713B2 (en) 1999-12-13 1999-12-13 Image processing apparatus and method including blending processing

Publications (3)

Publication Number Publication Date
JP2001167289A true JP2001167289A (en) 2001-06-22
JP2001167289A5 JP2001167289A5 (en) 2007-03-29
JP4411713B2 JP4411713B2 (en) 2010-02-10

Family

ID=18426910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35285599A Expired - Fee Related JP4411713B2 (en) 1999-12-13 1999-12-13 Image processing apparatus and method including blending processing

Country Status (1)

Country Link
JP (1) JP4411713B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093043A1 (en) * 2003-04-15 2004-10-28 Fujitsu Limited Drawing device and display controller
JP2007226444A (en) * 2006-02-22 2007-09-06 Nec Electronics Corp Image composition apparatus and image composition method thereof
US10818098B2 (en) 2017-01-17 2020-10-27 Casio Computer Co., Ltd. Drawing method for assigning drawing patterns to unit drawing area forming at least part of first surface or at least part of second surface, drawing apparatus, and recording medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093043A1 (en) * 2003-04-15 2004-10-28 Fujitsu Limited Drawing device and display controller
US7554554B2 (en) 2003-04-15 2009-06-30 Fujitsu Microelectronics Limited Rendering apparatus
JP2007226444A (en) * 2006-02-22 2007-09-06 Nec Electronics Corp Image composition apparatus and image composition method thereof
US10818098B2 (en) 2017-01-17 2020-10-27 Casio Computer Co., Ltd. Drawing method for assigning drawing patterns to unit drawing area forming at least part of first surface or at least part of second surface, drawing apparatus, and recording medium

Also Published As

Publication number Publication date
JP4411713B2 (en) 2010-02-10

Similar Documents

Publication Publication Date Title
JP4399910B2 (en) Image processing apparatus and method including blending processing
US6650327B1 (en) Display system having floating point rasterization and floating point framebuffering
US4992780A (en) Method and apparatus for storing a two-dimensional image representing a three-dimensional scene
EP3693929B1 (en) Method for efficient construction of high resolution display buffers
CN100507852C (en) Optimized chaining of vertex and fragment programs
US6417858B1 (en) Processor for geometry transformations and lighting calculations
CN111161392B (en) Video generation method and device and computer system
US10074193B2 (en) Controlled dynamic detailing of images using limited storage
JPH09319891A (en) Image processor and its processing method
JP2612221B2 (en) Apparatus and method for generating graphic image
JPH10295934A (en) Video game device and changing method of texture of model
JP3231029B2 (en) Rendering method and device, game device, and computer-readable recording medium storing program for rendering three-dimensional model
JP2001167289A (en) Device and method for processing image while including blending processing
JP2001222712A (en) Image processor, convolutional integration circuit and method therefor
JPH11331700A (en) Image processing unit and image processing method
JP2003085578A (en) Game information, information storage medium and game device
US7196706B2 (en) Method and apparatus for rendering a quadrangle primitive
JP3052839B2 (en) Image processing apparatus and processing method thereof
JPH09223243A (en) Rendering method
JP4188463B2 (en) Image generating apparatus, image generating method, and storage medium
JP2010113548A (en) Graphic device
JP2023045392A (en) Image data generation apparatus, image data generation method, and image data generation program
JP2021192134A (en) Image data generation apparatus, image data generation method, image data generation program, and electronic game provision apparatus using the same
JPH06150017A (en) Three-dimensional graphic display device
JPH10222690A (en) Three-dimensional picture generating method and its device three-dimensional picture processor using the method and the device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees