JPH09153142A - Device and method for rendering - Google Patents

Device and method for rendering

Info

Publication number
JPH09153142A
JPH09153142A JP7313898A JP31389895A JPH09153142A JP H09153142 A JPH09153142 A JP H09153142A JP 7313898 A JP7313898 A JP 7313898A JP 31389895 A JP31389895 A JP 31389895A JP H09153142 A JPH09153142 A JP H09153142A
Authority
JP
Japan
Prior art keywords
information
polygon
value
color difference
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7313898A
Other languages
Japanese (ja)
Inventor
Masao Ishiguro
正雄 石黒
Keiji Kojima
啓二 小島
Kiyokazu Nishioka
清和 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7313898A priority Critical patent/JPH09153142A/en
Publication of JPH09153142A publication Critical patent/JPH09153142A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently execute rendering processing by converting each intensity of RGB given as chrominance information of the origin of a polygon to luminance information and color difference information, thereby reducing a processing amount necessary at the time of executing rendering processing for displaying the object of graphics. SOLUTION: At first, after acquiring the RGB value of the vertex of the polygon to be the object of plotting, the RGB value of the vertex is converted into a YUV value. Next based on the YUV value of the vertex of the polygon, the YUV values of all the pixcels constituting the polygon is calculated. At last, the YUV value is stored in a frame buffer 15. In this case, processing converting the RGB value into the YUV value should be executed by only the number of the vertexes of the polygon. As the number of the vertexes of the polygon is smaller than the number of the pixcels constituting the polygon and the difference becomes large along with the increase of the size of the polygon, the processing converting the RGB value into the YUV value is drastically reduced.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はコンピュータグラフ
ィックスシステムの分野におけるレンダリング処理を高
速に行なう手段に係り、各種のグラフィックス演算等を
行うのに好適なレンダリング技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-speed rendering process in the field of computer graphics systems, and more particularly to a rendering technique suitable for performing various graphics operations.

【0002】[0002]

【従来の技術】ワークステーションやPC等のカラーグラ
フィックスを表示する装置では三次元形状の表示を行う
ために、その形状をポリゴンと呼ばれる三角形や四角形
の形状を持つ面に分割して、次に、ポリゴンを構成する
すべての画素のR、G、Bの各強度の計算を行い、最後
に、算出されたRGBの強度を、画像を記憶する装置す
なわちフレームバッファに格納している。また、描画す
るオブジェクトを透明、半透明にする効果を生成するた
めに、透明度を表すA(アルファ)値も、R、G、B値
と同様に計算して、フレームバッファに格納することも
ある。
2. Description of the Related Art In a device that displays color graphics, such as a workstation or a PC, in order to display a three-dimensional shape, the shape is divided into surfaces having triangular or quadrangular shapes called polygons, and then , R, G, and B intensities of all pixels forming the polygon are calculated, and finally, the calculated RGB intensities are stored in a device for storing an image, that is, a frame buffer. Further, in order to generate an effect of making a drawn object transparent or semi-transparent, an A (alpha) value indicating transparency may be calculated in the same manner as the R, G, B values and stored in the frame buffer. .

【0003】ここで、画像を構成する画素の色を示す
R,G,B,Aの各値が8ビットで表現され、表示画面
が640×480画素で構成されていると仮定すると、
フレームバッファの容量は640×480×8×4ビッ
ト=約1ギガバイトとなり、非常に膨大な量となる。フ
レームバッファの容量が大きくなるにつれて、フレーム
バッファ用のメモリのコスト、基盤面積、消費電力の増
大という問題が生じ、また、描画性能を向上させるため
にはフレームバッファへの書き込みのさらなる高速化が
要求されてくる。
Here, assuming that each value of R, G, B, and A indicating the color of a pixel forming an image is represented by 8 bits, and the display screen is composed of 640 × 480 pixels,
The capacity of the frame buffer is 640 × 480 × 8 × 4 bits = about 1 gigabyte, which is a huge amount. As the capacity of the frame buffer increases, the cost, base area, and power consumption of the memory for the frame buffer increase, and in order to improve drawing performance, it is necessary to speed up writing to the frame buffer. Is coming.

【0004】この問題を解決するために、特開昭61−
233781号公報に記載されたものによれば、ポリゴ
ンを構成するすべての画素のR、G、Bの各強度を算出
した後に、各画素のRGB値を輝度情報と色差情報に変
換し、輝度情報と色差情報をフレームバッファに格納す
る。その際、ある1画素の色差情報を複数個の画素の色
差情報の代表としてフレームバッファに格納することに
より、フレームバッファに格納される色差情報の量を削
減して、フレームバッファ全体の容量を抑えている。よ
って、メモリのコスト、基盤面積、消費電力の増加を防
ぐことができ、また、フレームバッファへの書き込み処
理による描画性能の低下を緩和している。
To solve this problem, Japanese Patent Laid-Open No. 61-
According to the one described in Japanese Patent No. 233781, after calculating the respective intensities of R, G, and B of all the pixels constituting the polygon, the RGB value of each pixel is converted into the luminance information and the color difference information to obtain the luminance information. And the color difference information are stored in the frame buffer. At that time, by storing the color difference information of one pixel in the frame buffer as a representative of the color difference information of a plurality of pixels, the amount of color difference information stored in the frame buffer is reduced, and the capacity of the entire frame buffer is suppressed. ing. Therefore, it is possible to prevent an increase in the cost of the memory, the substrate area, and the power consumption, and to mitigate the deterioration of the drawing performance due to the writing process to the frame buffer.

【0005】色差情報を削減する手法は“人間の視覚
で、輝度を一定にした状態で色を変化させた場合の分解
能は色を一定にして輝度を変化させた場合の分解能に比
べて劣っている”という事実に基づいており、NTSC
方式のカラーテレビや、動画像圧縮技術の一つであるM
PEGなどでも使用されている。
The technique for reducing the color difference information is that "the resolution of the human visual sense when the color is changed while the luminance is constant is inferior to that when the color is constant and the luminance is changed. Is based on the fact that
System color TV and M, one of the moving image compression technologies
It is also used in PEG.

【0006】[0006]

【発明が解決しようとする課題】しかし、フレームバッ
ファの容量を削減して、フレームバッファへの書き込み
処理による描画性能の低下を抑えても、ポリゴンを構成
する画素のRGBAの各強度を計算するために実行され
るシェーディング、テクスチャマッピング、フォグなど
のレンダリング処理の計算量が膨大なので、これらのレ
ンダリング処理を効率よく実行しない限り、描画性能の
低下を免れることはできない。
However, even if the capacity of the frame buffer is reduced and the deterioration of the drawing performance due to the writing process to the frame buffer is suppressed, the intensities of RGBA of the pixels forming the polygon are calculated. Since the amount of calculation of rendering processing such as shading, texture mapping, and fog performed on the computer is enormous, it is unavoidable that the rendering performance will be degraded unless these rendering processings are executed efficiently.

【0007】レンダリング処理について簡単に説明する
と、シェーディングは滑らかな陰影付けをする処理であ
り、テクスチャマッピングは2次元パターン(テクスチ
ャ)を用意しておき、ポリゴンに貼りつけてイメージの
リアリティを向上させる手法である。また、フォグは画
面全体をかすませた状態を表現でき、霧、霞、大気汚染
などを再現できる。レンダリング処理の内容に関する詳
細は「”OpenGLProgramming Guide(日本語版)"
(アジソンウエスレイ、星雲社発行)」等に述べられて
いる。
The rendering process will be briefly described. Shading is a process for providing a smooth shading, and texture mapping prepares a two-dimensional pattern (texture) and attaches it to a polygon to improve the image reality. Is. In addition, fog can represent a state where the entire screen is blurred, and fog, haze, and air pollution can be reproduced. For more information about the rendering process, see "" Open PenGLogramming Guide (Japanese version) ".
(Addison Wesley, published by Seiunsha Co., Ltd.) "and the like.

【0008】これらのレンダリング処理を効率よく実行
するか否かが、描画性能に大きく影響を及ぼし、特に、
曲面を含むような複雑な形状を表示する場合、その形状
を数千から数十万個のポリゴンに分割してRGBの各強
度を計算することになるので、レンダリング処理の占め
る影響力は増大する。また、コンピュータ内に定義され
た仮想空間に存在する仮想物体をあたかも現実であるか
のように操作することを可能にするVR(Virtual R
eality)技術を使用する場合も、リアルタイムに近い描
画性能が要求されので、画質の劣化を抑えつつ、三次元
形状を構成するポリゴン内部の画素の色を高速に計算す
る手段が必要となってくる。
Whether or not these rendering processes are executed efficiently has a great influence on the drawing performance.
When displaying a complicated shape including a curved surface, the shape is divided into thousands to hundreds of thousands of polygons and RGB intensities are calculated, so that the influence of rendering processing increases. . In addition, a VR (Virtual R) that enables a virtual object existing in a virtual space defined in a computer to be operated as if it were real
Even when using the (eality) technology, drawing performance close to real time is required, and therefore, it is necessary to provide a means for calculating the color of the pixel inside the polygon forming the three-dimensional shape at high speed while suppressing the deterioration of image quality. .

【0009】本発明の解決しようとする課題はカラーの
グラフィックスを表示する場合において、グラフィック
スの物体形状を表示するためのレンダリング処理を実行
する際に必要な処理量を削減して、レンダリング処理を
効率よく実行することである。
The problem to be solved by the present invention is to reduce the processing amount required for executing the rendering process for displaying the object shape of the graphics in the case of displaying color graphics, thereby performing the rendering process. Is to execute efficiently.

【0010】[0010]

【課題を解決するための手段】この課題を解決する本発
明のレンダリング装置は描画する形状を構成する、ポリ
ゴンと呼ばれる多角形の、内部の画素の色情報を計算す
るグラフィックスのレンダリング装置であって、画素の
R、G、Bの各強度を輝度情報と色差情報に変換する変
換手段と、ポリゴンの各頂点の輝度情報と色差情報か
ら、ポリゴンの内部の画素の輝度情報と色差情報を計算
する演算手段と、前記輝度情報と色差情報を記憶する記
憶手段を備え、変換手段はポリゴンの頂点の色情報とし
て与えられたRGBの各強度を、輝度情報と色差情報に
変換し、演算手段は前記変換手段からポリゴンの頂点の
色情報として獲得した輝度情報と色差情報を基に、ポリ
ゴンの内部の画素の輝度情報と色差情報を計算し、前記
輝度情報と色差情報を前記記憶手段に記憶する処理を行
なうことを特徴とする。
A rendering device of the present invention which solves this problem is a graphics rendering device for calculating color information of internal pixels of a polygon called polygon, which constitutes a shape to be drawn. Then, the brightness information and the color difference information of the pixel inside the polygon are calculated from the conversion means for converting the R, G, and B intensities of the pixel into the brightness information and the color difference information, and the brightness information and the color difference information of each vertex of the polygon. And a storage unit that stores the brightness information and the color difference information. The conversion unit converts each intensity of RGB given as the color information of the vertices of the polygon into the brightness information and the color difference information. Based on the luminance information and the color difference information acquired from the converting means as the color information of the vertex of the polygon, the luminance information and the color difference information of the pixels inside the polygon are calculated, and the luminance information and the color difference information are calculated. And performing processing of storing in the storage means.

【0011】また、前記演算手段は複数個の画素に対し
て1画素の前記色差情報、前記透明度情報を前記複数個
の色差情報の代表として、ポリゴン内部の画素の色差情
報を計算し、前記記憶手段は複数個の画素に対して、1
画素の前記色差情報を前記複数個の色差情報の代表とし
て記憶するレンダリング装置が好ましい。
Further, the calculating means calculates the color difference information of the pixel inside the polygon by using the color difference information of one pixel for the plurality of pixels and the transparency information as a representative of the plurality of color difference information, and stores the color difference information. The means is one for a plurality of pixels
A rendering device that stores the color difference information of a pixel as a representative of the plurality of color difference information is preferable.

【0012】さらに、演算手段が、ポリゴンの各頂点の
透明度情報を基に、複数個の画素に対して、1画素の前
記透明度情報を前記複数個の透明度情報の代表として、
ポリゴンを構成する画素の透明度情報を計算し、前記透
明度情報を前記複数個の透明度情報の代表として前記記
憶手段に記憶する処理を行なうレンダリング装置、また
は、演算手段が、ポリゴンの各頂点の奥行き情報を基
に、複数個の画素に対して、1画素の前記奥行き情報を
前記複数個の奥行き情報の代表として、ポリゴンを構成
する画素の奥行き情報を計算し、前記奥行き情報を前記
複数個の奥行き情報の代表として前記記憶手段に記憶す
る処理を行なうレンダリング装置、または、演算手段
が、ポリゴンの各頂点のフォグ情報を基に、複数個の画
素に対して、1画素の前記フォグ情報を前記複数個のフ
ォグ情報の代表として、ポリゴンを構成する画素のフォ
グ情報を計算し、前記奥行き情報を前記複数個のフォグ
情報の代表として前記記憶手段に記憶する処理を行なう
レンダリング装置も好ましい。
Further, the computing means, based on the transparency information of each vertex of the polygon, for the plurality of pixels, the transparency information of one pixel is represented as a representative of the plurality of transparency information.
A rendering device that calculates transparency information of pixels forming a polygon and stores the transparency information in the storage means as a representative of the plurality of transparency information, or a computing means, depth information of each vertex of the polygon. Based on the above, the depth information of pixels forming a polygon is calculated by using the depth information of one pixel as a representative of the plurality of depth information for a plurality of pixels, and the depth information is calculated as the depth information of the plurality of depths. A rendering device that performs a process of storing in the storage unit as a representative of information, or a calculation unit, based on the fog information of each vertex of the polygon, the fog information of one pixel for a plurality of pixels. The fog information of pixels forming a polygon is calculated as a representative of the individual fog information, and the depth information is used as a representative of the plurality of fog information. Also preferred rendering device that performs a process of storing the 憶 means.

【0013】変換手段にはまず、表示する形状を構成す
るポリゴンの頂点のR、G、Bの各強度が与えられる。
First, the converting means is given the respective intensities of R, G, and B of the vertices of the polygons forming the shape to be displayed.

【0014】そして、変換手段は与えられたRGB値を
輝度情報と色差情報に変換して、輝度情報と色差情報を
演算手段に出力する。
Then, the converting means converts the given RGB values into luminance information and color difference information, and outputs the luminance information and color difference information to the calculating means.

【0015】演算手段はポリゴンを構成する画素の輝度
情報と色差情報を計算する。すなわち、変換手段から受
け取ったポリゴンの各頂点の輝度情報と色差情報を基
に、ポリゴン内部の各画素に対して、シェーディング、
テクスチャマッピング、フォグ等のレンダリング処理を
実行して、画素の輝度情報と色差情報を計算し、記憶手
段に輝度情報と色差情報を記憶する。
The calculating means calculates the luminance information and the color difference information of the pixels forming the polygon. That is, based on the luminance information and the color difference information of each vertex of the polygon received from the conversion means, shading,
Rendering processing such as texture mapping and fog is executed to calculate the luminance information and color difference information of pixels, and the luminance information and color difference information are stored in the storage means.

【0016】また、透明、半透明なポリゴンを描画する
ために、輝度情報と色差情報と同様に、レンダリング処
理で透明度情報を計算し、透明度情報を記憶手段に記憶
する場合や、3次元グラフィックスにおける陰面処理を
実行するために、奥行き情報を計算して、奥行き情報を
記憶手段に記憶する場合がある。また、レンダリング処
理の中で、フォグ処理を実行するために、フォグ情報を
計算することもある。
Further, in order to draw a transparent or semi-transparent polygon, transparency information is calculated by a rendering process like the brightness information and color difference information, and the transparency information is stored in a storage means, or three-dimensional graphics. In some cases, the depth information is calculated and the depth information is stored in the storage means in order to execute the hidden surface processing in. In addition, fog information may be calculated in order to execute fog processing in the rendering processing.

【0017】ここで、レンダリング処理を実行する前
に、RGB値の強度を輝度情報と色差情報に変換し、1
画素の色差情報を複数個の色差情報の代表として、レン
ダリング処理を実行することにより、1画素あたりの計
算すべき色要素の数が減少し、レンダリング処理全体の
効率を向上させることができる。また、色差情報の場合
と同様に、1画素の透明度情報、奥行き情報、フォグ情
報を、複数個の画素の透明度情報、奥行き情報、フォグ
情報の代表として、レンダリング処理を実行すれば、そ
の効果はより高まる。
Here, the intensity of the RGB value is converted into luminance information and color difference information before executing the rendering process, and 1
By executing the rendering process by using the color difference information of the pixel as a representative of the plurality of color difference information, the number of color elements to be calculated per pixel is reduced, and the efficiency of the entire rendering process can be improved. Further, as in the case of the color difference information, if the rendering processing is executed by using the transparency information, depth information, and fog information of one pixel as a representative of the transparency information, depth information, and fog information of a plurality of pixels, the effect is obtained. Higher.

【0018】また、レンダリング処理によって計算され
た各画素の輝度情報と、複数個の画素の代表となる色差
情報、透明度情報をフレームバッファに、複数個の画素
の代表となる奥行き情報をZバッファに記憶することに
より、フレームバッファおよびZバッファの容量を削減
することができる。
Further, the brightness information of each pixel calculated by the rendering process, the color difference information and the transparency information that are representative of the plurality of pixels are stored in the frame buffer, and the depth information that is the representative of the plurality of pixels is stored in the Z buffer. By storing, the capacity of the frame buffer and the Z buffer can be reduced.

【0019】さらに、レンダリング処理をYUV値を使
って実行することにより、付加的な効果として、MPE
Gデータをポリゴンに貼りつけるテクスチャマッピング
の実行が容易となる。つまり、MPEGデータはYUV
値からなる映像データを圧縮したものなので、YUV値
をRGB値に変換する特別な処理を必要とせずに、動画
像をポリゴンに貼りつけることができる。よって、MP
EGデータには主に実写の映像が圧縮されているので、
CGと実写の融合がより容易に実現できるようになる。
Furthermore, by performing the rendering process using the YUV value, the MPE has an additional effect.
It becomes easy to execute texture mapping in which G data is attached to polygons. In other words, MPEG data is YUV
Since the video data including the values is compressed, the moving image can be attached to the polygon without requiring a special process of converting the YUV value into the RGB value. Therefore, MP
Since the live-action image is mainly compressed in the EG data,
Fusion of CG and live action can be realized more easily.

【0020】[0020]

【発明の実施の形態】以下、本発明の一実施例を図面を
参照しつつ説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0021】図1は本発明の一実施例であるグラフィッ
クスのレンダリングシステムのブロック図である。
FIG. 1 is a block diagram of a graphics rendering system which is an embodiment of the present invention.

【0022】図1に示すレンダリングシステムはポリゴ
ンの頂点座標等の図形情報と、ポリゴンの頂点のR、
G、Bの強度を示す色情報とからなる図形データ12を所
有するコンピュータ11と、ポリゴンを構成する画素の色
を計算するレンダリング装置20と、YUV値をRGB値
に変換するデコーダ16と、ディジタル信号をアナログ信
号に変換するD/Aコンバータ17と、レンダリング結果
を表示するCRT18とを有して構成される。
The rendering system shown in FIG. 1 includes graphic information such as vertex coordinates of a polygon, R of the vertex of the polygon,
A computer 11 which owns graphic data 12 consisting of color information indicating the intensities of G and B, a rendering device 20 which calculates the color of the pixels forming a polygon, a decoder 16 which converts YUV values into RGB values, and a digital device. It has a D / A converter 17 for converting a signal into an analog signal and a CRT 18 for displaying a rendering result.

【0023】また、レンダリング装置20はRGB値を1
つの輝度値Yと二つの色差値U,Vに変換するエンコー
ダ13と、ポリゴンの各頂点のYUV値から、ポリゴンを
構成する画素すべてのYUV値を計算するグラフィック
スプロセッサ14と、YUV値を記憶するフレームバッフ
ァ15を備えている。
Further, the rendering device 20 sets the RGB value to 1
An encoder 13 that converts one luminance value Y and two color difference values U and V, a graphics processor 14 that calculates the YUV values of all the pixels that make up the polygon from the YUV values of the vertices of the polygon, and the YUV values are stored. The frame buffer 15 is provided.

【0024】次に、このようなシステム構成を有するレ
ンダリングシステムの動作について説明する。
Next, the operation of the rendering system having such a system configuration will be described.

【0025】まず、コンピュータ11は図形を表示するた
めに、与えられた図形データ12のRGB値をエンコーダ
13に、頂点座標を含む図形情報をグラフィックスプロセ
ッサ14に出力する。RGB値を獲得したエンコーダ13は
RGB値を一つの輝度値Yと二つの色差値U,Vに変換
し、その結果をグラフィックスプロセッサ14に出力す
る。RGB値からYUV値への変換は一般に「CCIR
推奨601」の定義に従って行われ、R、G、B、Y、
U、Vそれぞれが8ビットの256段階で表現される場
合、RGBからYUVへの変換式は以下のとおりとな
る。
First, the computer 11 encodes the RGB values of the given graphic data 12 in order to display the graphic.
The graphic information including the vertex coordinates is output to the graphics processor 14 at 13. The encoder 13 that has acquired the RGB value converts the RGB value into one luminance value Y and two color difference values U and V, and outputs the result to the graphics processor 14. Conversion from RGB values to YUV values is generally done by "CCIR
Recommended 601 ”, and R, G, B, Y,
When each of U and V is expressed in 256 steps of 8 bits, the conversion formula from RGB to YUV is as follows.

【0026】[0026]

【数1】 Y=0.299R+0.587G+0.114B U=−0.1687R−0.3313G+0.5B+128 V=0.5R−0.4187G−0.0813G+128 …(数1) 実際には処理速度を考慮して、実数型演算を用いず、各
係数を整数型に変換しておき、整数の加減乗算を実行し
て、RGB値からYUV値へ変換することが多い。
[Formula 1] Y = 0.299R + 0.587G + 0.114B U = −0.1687R−0.3313G + 0.5B + 128 V = 0.5R−0.4187G−0.0813G + 128 (Formula 1) Actually, the processing speed is considered. In many cases, the RGB values are converted into YUV values by converting each coefficient into an integer type and then performing addition / subtraction of integers without using the real number type operation.

【0027】次に、YUV値と図形情報を受け取ったグ
ラフィックスプロセッサ14はその情報を基にレンダリン
グ処理を実行して、ポリゴンを構成するすべての画素の
YUV値と座標値を計算する。レンダリング処理にはシ
ェーディング、テクスチャマッピング、アルファ・ブレ
ンディング等がある。その際、画素の色成分はRGB値
ではなく、YUV値で表現されているので、画素に施さ
れるレンダリング手法もY、U、Vのそれぞれの成分に
対して実行される。例えば、シェージング処理では、y
座標を一定の値に保って、x座標を1ずつ増加させなが
ら画素の色を決定していくが、従来、R,G,Bの各成
分に対して、
Next, the graphics processor 14, which has received the YUV value and the graphic information, executes a rendering process based on the information, and calculates the YUV value and the coordinate value of all the pixels forming the polygon. Rendering processing includes shading, texture mapping, and alpha blending. At that time, since the color components of the pixels are represented by YUV values instead of RGB values, the rendering method applied to the pixels is also executed for each of the Y, U, and V components. For example, in the shading process, y
While keeping the coordinates constant and increasing the x coordinate by 1 to determine the color of the pixel, conventionally, for each component of R, G, B,

【0028】[0028]

【数2】 R=R+dR/dx G=G+dG/dx B=B+dB/dx …(数2) を実行していた代わりに、## EQU00002 ## R = R + dR / dx G = G + dG / dx B = B + dB / dx (Equation 2) Instead of executing

【0029】[0029]

【数3】 Y=Y+dY/dx U=U+dU/dx V=V+dV/dx …(数3) を実行することになる。そして、グラフィックスプロセ
ッサ14によって計算されたYUV値は図形情報から導き
出される画素の座標(x,y)を基に決定される、フレ
ームバッファ15内の当箇所に格納される。
## EQU00003 ## Y = Y + dY / dx U = U + dU / dx V = V + dV / dx (Equation 3) is executed. Then, the YUV value calculated by the graphics processor 14 is stored in this position in the frame buffer 15, which is determined based on the pixel coordinates (x, y) derived from the graphic information.

【0030】デコーダ16はCRT18の走査と同期して、
フレームバッファ15に記憶されているYUV値をCRT
18に表示するためにRGB値に復元する。YUV値から
RGB値への変換式は数1より、数4のように導かれ
る。
The decoder 16 synchronizes with the scanning of the CRT 18,
CRT the YUV value stored in the frame buffer 15
Restore RGB values for display at 18. The conversion formula from the YUV value to the RGB value is derived from Expression 1 as Expression 4.

【0031】[0031]

【数4】 R=Y+1.402(V−128) G=Y−0.34414(U−128)−0.71414(V−128) B=Y+1.772(U−128) …(数4) この場合も数1の場合と同様に、処理速度を考慮して、
実数型演算を用いず、各係数を整数型に変換して、整数
の加減乗算を実行することが多い。
## EQU00004 ## R = Y + 1.402 (V-128) G = Y-0.34414 (U-128) -0.71414 (V-128) B = Y + 1.772 (U-128) (Equation 4) Also in this case, as in the case of the equation 1, considering the processing speed,
In many cases, each coefficient is converted into an integer type and an integer addition / subtraction multiplication is executed without using a real number type operation.

【0032】そして、数4から計算されたRGB値はD
/Aコンバータ17によってアナログ情報に変換され、C
RT18に送られる。CRT18はD/Aコンバータ17から
受け取ったアナログ情報をディスプレイ上に表示する。
The RGB value calculated from equation 4 is D
Converted to analog information by the A / A converter 17 and C
It is sent to RT18. The CRT 18 displays the analog information received from the D / A converter 17 on the display.

【0033】なお、説明するレンダリングシステムでは
ポリゴンを構成する画素の輝度情報、色差情報の計算を
グラフィックスプロセッサ14が実行しているが、コンピ
ュータ11が実行しても問題はない。
In the rendering system to be described, the graphics processor 14 calculates the brightness information and the color difference information of the pixels forming the polygon, but the computer 11 does not cause any problem.

【0034】図2は従来のグラフィックスのレンダリン
グシステムのブロック図である。
FIG. 2 is a block diagram of a conventional graphics rendering system.

【0035】図2に示すレンダリングシステムの構成要
素は、図1に示すレンダリングシステムの場合と同じで
あり、違いは、グラフィックスプロセッサ14とエンコー
ド13の位置が異なる点である。
The components of the rendering system shown in FIG. 2 are the same as those of the rendering system shown in FIG. 1, except that the positions of the graphics processor 14 and the encode 13 are different.

【0036】次に、このようなシステム構成を有するレ
ンダリングシステムの動作について説明する。
Next, the operation of the rendering system having such a system configuration will be described.

【0037】まず、コンピュータ11は、与えられた図形
データ12のRGB値と図形情報をグラフィックスプロセ
ッサ13に出力する。グラフィックスプロセッサ14aは、
受け取ったポリゴンの頂点のRGB値と図形情報を基に
レンダリング処理を実行して、ポリゴンを構成するすべ
ての画素のRGB値と座標値を計算する。
First, the computer 11 outputs the RGB values of the given graphic data 12 and the graphic information to the graphics processor 13. Graphics processor 14a
Rendering processing is executed based on the received RGB values of the vertices of the polygon and the graphic information, and the RGB values and the coordinate values of all the pixels forming the polygon are calculated.

【0038】次に、エンコーダ13は、数1を使って、ポ
リゴンを構成する画素のRGB値をYUV値に変換し、
その結果をフレームバッファ15に書き込む。デコーダ16
によって数4を使って計算されたRGB値はD/Aコン
バータ17によってアナログ情報に変換され、CRT18に
送られる。CRT18はD/Aコンバータ17から受け取っ
たアナログ情報をディスプレイ上に表示する。
Next, the encoder 13 uses Equation 1 to convert the RGB values of the pixels forming the polygon into YUV values,
The result is written in the frame buffer 15. Decoder 16
The RGB values calculated by using the equation 4 are converted into analog information by the D / A converter 17 and sent to the CRT 18. The CRT 18 displays the analog information received from the D / A converter 17 on the display.

【0039】ここで、従来の手法と、本発明との比較を
行うために、従来の手法よるレンダリング処理のフロー
チャートを図3に、図1で示されているエンコーダ及び
グラフィックスプロセッサで実行するレンダリング処理
をソフトウェアで実行した場合のプログラムのフローチ
ャートを図4に示す。
Here, in order to compare the conventional method with the present invention, a flowchart of the rendering process by the conventional method is shown in FIG. 3, and the rendering executed by the encoder and the graphics processor shown in FIG. 1 is performed. FIG. 4 shows a flowchart of the program when the processing is executed by software.

【0040】従来の手法では、図3で示されるように、
まず、描画の対象となるポリゴンの頂点のRGB値を獲
得した(ステップ30)後に、シェーディングなどのレン
ダリング処理を実行して、ポリゴン内部の画素のRGB
値を計算する(ステップ31)。次に、計算されたポリゴ
ン内部のすべての画素のRGB値をYUV値に変換する
(ステップ32)。最後に変換により導き出されたYUV
値をフレームバッファに格納する(ステップ33)。この
手法では、RGB値からYUV値への変換処理をポリゴ
ンを構成する画素の個数だけ、実行する必要がある。
In the conventional method, as shown in FIG.
First, after obtaining the RGB values of the vertices of the polygon to be drawn (step 30), rendering processing such as shading is executed to obtain the RGB values of the pixels inside the polygon.
Calculate the value (step 31). Next, the calculated RGB values of all the pixels inside the polygon are converted into YUV values (step 32). Finally YUV derived by conversion
The value is stored in the frame buffer (step 33). In this method, it is necessary to perform conversion processing from RGB values to YUV values for the number of pixels that form a polygon.

【0041】本発明によると、図4で示されるように、
まず、描画の対象となるポリゴンの頂点のRGB値を獲
得した(ステップ40)後に、頂点のRGB値をYUV値
に変換する(ステップ41)。次に、ポリゴンの頂点のY
UV値を基に、ポリゴンを構成するすべての画素のYU
V値を計算する(ステップ42)。最後にそのYUV値を
フレームバッファに格納する(ステップ43)。この場
合、RGB値をYUV値に変換する処理をポリゴンの頂
点数だけ、実行すればよい。ポリゴンの頂点数は、ポリ
ゴンを構成する画素の個数より少なく、ポリゴンのサイ
ズが大きくなればなるほど、その差は顕著になるので、
RGB値からYUV値への変換処理を大幅に減らすこと
ができる。
According to the present invention, as shown in FIG.
First, after obtaining the RGB values of the vertices of the polygon to be drawn (step 40), the RGB values of the vertices are converted into YUV values (step 41). Next, the Y of the vertex of the polygon
YU of all the pixels that make up the polygon based on the UV value
The V value is calculated (step 42). Finally, the YUV value is stored in the frame buffer (step 43). In this case, the process of converting the RGB value into the YUV value may be executed for the number of vertices of the polygon. The number of vertices of a polygon is less than the number of pixels that make up the polygon, and the larger the size of the polygon, the more significant the difference becomes.
The conversion processing from RGB values to YUV values can be greatly reduced.

【0042】また、本発明では、レンダリング処理の一
つであるテクスチャ・マッピング処理を実行した場合、
テクスチャと呼ばれる、ポリゴンに貼りつける画像デー
タがYUV値で与えられていれば、ポリゴンの画素に対
応するテクスチャのYUV値を抽出するだけでよく、R
GB値への変換処理を削除することができる。よって、
YUV値の形式で圧縮されている動画像データ、例えば
標準の動画像圧縮フォーマットとなりつつあるMPEG
のデータを動画像データとすれば、MPEGデータを伸
張するだけで、ポリゴンに動画像を貼りつけることがで
きる。つまり、動画像データが実写をとりこんで作製さ
れた動画像データを使えば、コンピュータ・グラフィッ
クス(CG)と実写との融合が容易となる。
Further, in the present invention, when the texture mapping process, which is one of the rendering processes, is executed,
If image data to be attached to a polygon, which is called a texture, is given as a YUV value, it is sufficient to extract the YUV value of the texture corresponding to the pixel of the polygon.
The conversion process to the GB value can be deleted. Therefore,
Moving image data compressed in the YUV value format, for example MPEG which is becoming a standard moving image compression format.
If the data is used as moving image data, the moving image can be attached to the polygon simply by expanding the MPEG data. That is, if the moving image data created by capturing the moving image data is used, it is easy to combine computer graphics (CG) and the actual image.

【0043】ここで、図1で示された装置で、CRTの
画面を縦及び横方向に定められた画素数毎、例えば縦、
横2画素毎に分割し、分割した矩形毎にUとV値を2×
2画素の代表値として、レンダリング処理を実行し、そ
の結果をフレームバッファに格納する場合を考える。つ
まり、図4に示されるディスプレイ・イメージに対し
て、Y値は図5で示されているように、画素p0(100)
には輝度値Y0(200)が、画素p1(101)には輝度値Y1
(201)が、画素p2(102)には輝度値Y2(202)が、画素
p3(103)には輝度値Y3(203)が対応し、1画素に1個
の輝度値が割り当てられる。それに対して、U値の場合
は、図4に示されるディスプレイ・イメージに対して、
図6に示されるように対応する。つまり、画素p0(10
0)、p1(101)、p2(102)、p3(103)には色差値U0
(300)が、画素p4(104)、p5(105)、p6(106)、p7
(107)には色差値U4(304)が対応し、4画素に1個のU
値が割り当てられる。V値についても同様に4画素に1
個のV値が割り当てられる。U、V値それぞれをフレー
ムバッファに格納する場合には、画素の座標値X、Yの
最下位ビットを0にして格納先のアドレスを求めること
により、容易に書き込みを実行することができる。
Here, in the apparatus shown in FIG. 1, the screen of the CRT is arranged in the vertical and horizontal directions for each predetermined number of pixels, for example, in the vertical direction.
It is divided into 2 horizontal pixels, and the U and V values are 2 × for each divided rectangle.
Consider a case where the rendering process is executed as a representative value of 2 pixels and the result is stored in the frame buffer. That is, with respect to the display image shown in FIG. 4, the Y value is the pixel p0 (100) as shown in FIG.
Has a luminance value Y0 (200), and the pixel p1 (101) has a luminance value Y1.
(201) corresponds to the brightness value Y2 (202) to the pixel p2 (102) and corresponds to the brightness value Y3 (203) to the pixel p3 (103), and one brightness value is assigned to each pixel. On the other hand, in the case of U value, for the display image shown in FIG.
Corresponds as shown in FIG. That is, the pixel p0 (10
0), p1 (101), p2 (102), p3 (103) have color difference value U0
(300) is the pixel p4 (104), p5 (105), p6 (106), p7
The color difference value U4 (304) corresponds to (107), one U for every 4 pixels.
Value is assigned. Similarly for V value, 1 for 4 pixels
V values are assigned. When each of the U and V values is stored in the frame buffer, writing can be easily executed by setting the least significant bit of the pixel coordinate values X and Y to 0 and determining the storage destination address.

【0044】結果として、UとVの空間解像度を1/4
に減らすことにより、フレームバッファの容量が従来の
1/2となるので、メモリのコスト、基盤面積、消費電
力の増加を抑えることができる。また、フレームバッフ
ァへ書き込むデータ量も1/2となるので、描画性能も
向上する。
As a result, the spatial resolution of U and V is reduced to 1/4.
Since the capacity of the frame buffer is reduced to 1/2 of that of the conventional one, it is possible to suppress an increase in memory cost, base area, and power consumption. Further, since the amount of data written in the frame buffer is halved, the drawing performance is also improved.

【0045】ここで、グラフィックスにおけるシェーデ
ィング処理を実行した場合を例にとり、色差値の空間解
像度を全く落とさない場合と、1/4に落とした場合と
の比較を行う。
Here, taking as an example the case where the shading process in graphics is executed, a comparison is made between the case where the spatial resolution of the color difference values is not reduced at all and the case where the spatial resolution of the color difference values is reduced to 1/4.

【0046】シェーディング処理には多くのアルゴリズ
ムが存在するが、まず、ここでは代表的なアルゴリズム
を簡単に説明する。
Although there are many algorithms for the shading process, first, a representative algorithm will be briefly described here.

【0047】図8に示すように、三角形のシェーディン
グ処理にはエッジ処理25とスパン処理26から構成されて
おり、エッジ処理25では、三角形の一辺であるA-B上の
座標(x,y,z)と色(R,G,B)または(Y,
U,V)を順次求めていき、同時に、スパン処理26で、
ライン毎に座標および色を順次計算していく。
As shown in FIG. 8, the triangle shading process is composed of an edge process 25 and a span process 26. In the edge process 25, coordinates (x, y, z) on AB, which is one side of the triangle, are used. And color (R, G, B) or (Y,
U, V) are sequentially obtained, and at the same time, the span processing 26
Coordinates and colors are calculated sequentially for each line.

【0048】次に、色差値の空間解像度を落とさない場
合と落とす場合との比較を行うために、1画素に対して
Y,U,Vをそれぞれ1個ずつ割り当てた場合の、グラ
フィックスでのシェーディング処理のフローチャートを
図9に示し、U,Vに対しては4画素に1個割り当てた
場合の、グラフィックスでのシェーディング処理を図1
0に示す。
Next, in order to make a comparison between the case where the spatial resolution of the color difference value is not reduced and the case where it is dropped, one Y, U, and V are assigned to one pixel, respectively. FIG. 9 shows a flowchart of the shading process, and FIG. 1 shows the shading process in graphics when one is assigned to four pixels for U and V.
0 is shown.

【0049】まず、図9を参照して、1画素にY、U、
V値をそれぞれ1個割り当てた場合のグラフィックスで
のシェーディング処理について説明する。
First, referring to FIG. 9, Y, U, and
A shading process in graphics when one V value is assigned to each will be described.

【0050】最初に、描画するポリゴンの頂点の座標お
よびYUV値を獲得する(ステップ50)。次に、ポリゴ
ンを構成する画素のYUV値の計算をすべて完了したか
を判断し、もし完了した場合には終了する(ステップ5
1)。そうでない場合には、エッジ処理中のx座標とY
UV値を待避しておき(ステップ52)、1ラインの計算
を終える毎に、y座標に1を、x座標およびYUV値に
増分値を加算して(ステップ56)、次のラインの処理に
移る。以上がエッジ処理である。もし、1ラインの計算
を完了していなければ(ステップ53)、計算中のYUV
値をメモリに格納して(ステップ54)、x座標に1を、
YUV値に増分値を加算する(ステップ55)処理を、1
ライン分の計算が終了するまで繰り返す。以上がスパン
処理である。
First, the coordinates of the vertices of the polygon to be drawn and the YUV value are acquired (step 50). Next, it is judged whether or not the calculation of the YUV values of the pixels forming the polygon has been completed, and if completed, the process ends (step 5).
1). Otherwise, the x coordinate and Y during edge processing
The UV value is saved (step 52), each time the calculation of one line is completed, 1 is added to the y coordinate and the increment value is added to the x coordinate and the YUV value (step 56), and the next line is processed. Move. The above is the edge processing. If the calculation of one line is not completed (step 53), the YUV being calculated
Store the value in memory (step 54) and set the x coordinate to 1
The process of adding the increment value to the YUV value (step 55) is 1
Repeat until line calculation is completed. The above is the span processing.

【0051】次に、図10を参照して、U,V値を4画
素に1個割り当てた場合のグラフィックスでのシェーデ
ィング処理について説明する。
Next, with reference to FIG. 10, a shading process in graphics when one U and V value is assigned to four pixels will be described.

【0052】4画素同時にレンダリング処理を実行する
ので、輝度値を記憶するための変数が四つ(Y0,Y1,Y2,Y
3)用意されている。また、4画素は縦2画素、横2画素
の矩形なので、スパン処理は2ライン同時に実行され
る。
Since the rendering process is executed simultaneously for four pixels, there are four variables (Y0, Y1, Y2, Y) for storing the brightness value.
3) Prepared. Further, since the 4 pixels are a rectangle of 2 pixels in the vertical direction and 2 pixels in the horizontal direction, the span processing is executed simultaneously for two lines.

【0053】まず最初に、描画するポリゴンの頂点の座
標およびYUV値を獲得する(ステップ60)。次に、ポ
リゴンを構成する画素のYUV値をすべて計算したかを
判断し、もし計算を完了した場合には終了する(ステッ
プ61)。そうでない場合には、エッジ処理で計算中のx
座標とYUV値を待避しておき(ステップ62)、2ライ
ン分の画素のYUV値の計算を終える毎に、y座標に2
を加算し、x座標およびYUV値に増分値を加算する
(ステップ66)。もし、2ライン分の画素のYUV値の
計算を完了していなければ(ステップ63)、計算中のY
UV値をメモリに格納して(ステップ64)、x座標に2
を、YUV値に増分値を加算する(ステップ65)処理
を、2ライン分の計算が終了するまで繰り返す。
First, the coordinates of the vertices of the polygon to be drawn and the YUV value are acquired (step 60). Next, it is judged whether or not all the YUV values of the pixels forming the polygon have been calculated, and if the calculation is completed, the process ends (step 61). Otherwise, x being calculated by edge processing
The coordinates and the YUV value are saved (step 62), and the y coordinate is set to 2 each time the calculation of the YUV values of the pixels for two lines is completed.
Is added, and the increment value is added to the x coordinate and the YUV value (step 66). If the calculation of the YUV value of the pixels for two lines has not been completed (step 63), the Y being calculated is being calculated.
Store UV value in memory (step 64) and set 2 to x coordinate
The process of adding the increment value to the YUV value (step 65) is repeated until the calculation for two lines is completed.

【0054】この結果、シェーディング処理の場合、1
画素毎にY,U,Vの各成分に対して、数3の計算を1
回実行する必要があったのが、U,Vの空間解像度を落
とすことにより、4画素のシェーディング処理におい
て、Yについては数3の第一式を4回、U、Vの各色成
分については数3の第二、第三式の計算を1回行えば十
分となる。よって、シェーディング処理の計算量は約1
/2に減少し、描画性能が向上する。
As a result, in the case of shading processing, 1
For each pixel of Y, U, V components
Since it was necessary to execute the number of times, by lowering the spatial resolution of U and V, in the shading process of 4 pixels, the first equation of Formula 3 was calculated four times for Y and several times for each color component of U and V. It suffices to perform the calculations of the second and third equations of 3 once. Therefore, the calculation amount of shading processing is about 1
It is reduced to / 2 and the drawing performance is improved.

【0055】図11は、本発明にかかる他の実施例の構
成図であり、本実施例の特徴は、画素の色成分に、透明
度を示すパラメータのA(アルファ)値が加わったこと
である。
FIG. 11 is a block diagram of another embodiment according to the present invention. The feature of the present embodiment is that the A (alpha) value of the parameter indicating the transparency is added to the color component of the pixel. .

【0056】本構成はポリゴンの頂点座標などの図形情
報と、RGBA値の強度を示す色情報とからなる図形デ
ータ12を所有するコンピュータ11cと、ポリゴンを構成
する画素のYUVA値を計算するレンダリング装置20
と、 YUV値をRGB値に変換するデコーダ16、D/
Aコンバータ17、CRT18を有している。
The present configuration has a computer 11c which owns graphic data 12 including graphic information such as vertex coordinates of polygons and color information indicating the intensity of RGBA values, and a rendering device which calculates the YUVA values of the pixels forming the polygon. 20
And a decoder 16 for converting YUV values into RGB values, D /
It has an A converter 17 and a CRT 18.

【0057】また、レンダリング装置20は、RGB値を
YUV値に変換するエンコーダ13、ポリゴンの各頂点の
YUVA値から、ポリゴンを構成する画素すべてのYU
VA値を計算するグラフィックスプロセッサ14c、YU
VA値を記憶するフレームバッファ15cを備えている。
Further, the rendering device 20 uses the encoder 13 for converting the RGB values into the YUV values and the YUVA value of each vertex of the polygon, and the YU of all the pixels forming the polygon.
Graphics processor 14c, YU for calculating VA value
A frame buffer 15c for storing the VA value is provided.

【0058】まず、A値を使用するレンダリング処理の
一つで、透明、半透明なポリゴンの描画を実現するアル
ファ・ブレンディングについて説明する。
First, alpha blending, which is one of the rendering processes using the A value, for realizing the drawing of transparent and semitransparent polygons will be described.

【0059】一般に、アルファ・ブレンディングで使わ
れるA(アルファ)値は、フレームバッファに記憶され
ているRGBA値と、レンダリング処理中のRGBA値
とを混合するために使用される。混合する方法は複数存
在するが、最もよく実行される式を下に示す。
Generally, the A (alpha) value used in alpha blending is used to mix the RGBA value stored in the frame buffer with the RGBA value during the rendering process. There are several ways to mix, but the most commonly performed formulas are shown below.

【0060】[0060]

【数5】 R=R*A+Rb*(1−A) G=G*A+Gb*(1−A) B=B*A+Bb*(1−A) A=A*A+Ab*(1−A) …(数5) Rb、Gb、Bb、Abはフレームバッファに記憶され
ているRGBA値、R、G、B、Aはレンダリング処理
中のRGBA値を示し、Aは0から1までの範囲の値で
ある。
## EQU00005 ## R = R * A + Rb * (1-A) G = G * A + Gb * (1-A) B = B * A + Bb * (1-A) A = A * A + Ab * (1-A) ... ( (5) Rb, Gb, Bb, Ab are RGBA values stored in the frame buffer, R, G, B, A are RGBA values during rendering processing, and A is a value in the range of 0 to 1. .

【0061】この場合、ある物体を描画し、その後にA
値が0.3であるポリゴンを描画すれば、30%のポリ
ゴンの色と、70%の物体の色が混合されて、半透明な
ポリゴンを表示することができる。
In this case, a certain object is drawn and then A
If a polygon having a value of 0.3 is drawn, 30% of the polygon color and 70% of the object color are mixed, and a semitransparent polygon can be displayed.

【0062】R、G、Bに対してではなく、変換された
Y、U、Vの各成分に対して、アルファ・ブレンディン
グを施す場合は、
When alpha blending is applied not to R, G and B but to the converted Y, U and V components,

【0063】[0063]

【数6】 Y=Y*A+Yb*(1−A) U=U*A+Ub*(1−A) V=V*A+Vb*(1−A) A=A*A+Ab*(1−A) …(数6) を実行することになる。 Yb、Ub、Vb、Abはフ
レームバッファに記憶されているYUVA値、Y、U、
V、Aはレンダリング処理中のYUVA値を示す。アル
ファ・ブレンディングの処理を実行する際には、A値も
Y、U、V値と一緒にフレームバッファに記憶する必要
がある。
(6) Y = Y * A + Yb * (1-A) U = U * A + Ub * (1-A) V = V * A + Vb * (1-A) A = A * A + Ab * (1-A) ( Equation 6) will be executed. Yb, Ub, Vb, and Ab are YUVA values stored in the frame buffer, Y, U,
V and A represent YUVA values during the rendering process. When executing the alpha blending process, it is necessary to store the A value together with the Y, U and V values in the frame buffer.

【0064】次に、上で示したシステム構成を有するレ
ンダリングシステムの動作について説明する。
Next, the operation of the rendering system having the system configuration shown above will be described.

【0065】透明、半透明な物体を描画するために、ま
ず、コンピュータ11cは、与えられた図形データ12のR
GB値をエンコーダ13に、A値と、頂点座標を含む図形
情報をグラフィックスプロセッサ14cに出力する。RG
B値を獲得したエンコーダ13はRGB値をYUV値に変
換し、その結果をグラフィックスプロセッサ14cに出力
する。YUVA値と頂点座標を受け取ったグラフィック
スプロセッサ14cは、その情報を基にポリゴンを構成す
るすべての画素のYUVA値と座標値を計算する。その
際、R、G、B、Aではなく、Y、U、V、Aの各成分
を基に、数6を使って、アルファ・ブレンディング等の
レンダリング処理を施す。グラフィックスプロセッサ14
cによって計算されたYUVA値は、画素の座標値から
決定されるフレームバッファ15c内の該当箇所に格納さ
れる。デコーダ16は、CRT18の走査と同期して、フレ
ームバッファ15cに記憶されているYUV値をCRT18
に表示するためにRGB値に復元する。そして、この値
はD/Aコンバータ17によってアナログ情報に変換さ
れ、CRT18に送られる。CRT18はD/Aコンバータ
から受け取ったアナログ情報をディスプレイ上に表示す
る。
In order to draw a transparent or semi-transparent object, the computer 11c first sets the R of the given graphic data 12.
The GB value is output to the encoder 13, and the A value and graphic information including the vertex coordinates are output to the graphics processor 14c. RG
The encoder 13 that has acquired the B value converts the RGB value into the YUV value and outputs the result to the graphics processor 14c. The graphics processor 14c having received the YUVA value and the vertex coordinates calculates the YUVA value and the coordinate value of all the pixels forming the polygon based on the information. At this time, rendering processing such as alpha blending is performed by using Equation 6 based on each component of Y, U, V, and A instead of R, G, B, and A. Graphics processor 14
The YUVA value calculated by c is stored in the corresponding location in the frame buffer 15c determined from the pixel coordinate value. The decoder 16 synchronizes the YUV value stored in the frame buffer 15c with the CRT 18 in synchronization with the scanning of the CRT 18.
Are restored to RGB values for display. Then, this value is converted into analog information by the D / A converter 17 and sent to the CRT 18. The CRT 18 displays the analog information received from the D / A converter on the display.

【0066】ここで、 U、V値を4画素に1個割り当
てた場合と同様に、A値も4画素に1個割り当てるとす
る。つまり、図8で示すように、図4のディスプレイ・
イメージに対して、画素p0(100),p1(101),p2(1
02),p3(103)には透明度A0(400)が、画素p4(10
4),p5(105),p6(106),p7(107)には透明度A4
(404)が割り当てられる。
Here, similarly to the case where one U and V value is assigned to four pixels, one A value is also assigned to four pixels. That is, as shown in FIG. 8, the display of FIG.
Pixels p0 (100), p1 (101), p2 (1
02) and p3 (103) have transparency A0 (400) and pixel p4 (10)
4), p5 (105), p6 (106), p7 (107) have transparency A4
(404) is assigned.

【0067】図13はA値を4画素に1個もたせた場合
の、グラフィックスによるアルファ・ブレンディングの
フローチャートを示しており、以下に、その流れを説明
する。
FIG. 13 shows a flow chart of alpha blending by graphics when one A value is given to four pixels, and the flow will be described below.

【0068】まず最初に、描画するポリゴンの頂点の座
標およびYUVA値を獲得する(ステップ70)。次に、
ポリゴンを構成する画素のYUV値をすべて計算したか
を判断し、もし計算を完了した場合には終了する(ステ
ップ71)。そうでない場合には、画素のx座標とYUV
A値を待避しておき(ステップ72)、2ライン分の計算
を終える毎に、y座標に2を加算し、x座標およびYU
VA値に増分値を加算する(ステップ76)。もし、2ラ
イン分の画素のYUVA値の計算を完了していなければ
(ステップ73)、数6を使ったアルファ・ブレンディン
グ等のレンダリング処理を実行して(ステップ74)、x
座標に2を、YUVA値に増分値を加算する(ステップ
75)処理を、2ライン分の計算が終了するまで繰り返
す。レンダリング処理の中には計算中のYUVA値をメ
モリに格納する処理を含む。
First, the coordinates of the vertices of the polygon to be drawn and the YUVA value are acquired (step 70). next,
It is judged whether or not all the YUV values of the pixels forming the polygon have been calculated, and if the calculation is completed, the process ends (step 71). Otherwise, the x coordinate of the pixel and YUV
The A value is saved (step 72), 2 is added to the y coordinate every time the calculation for two lines is completed, and the x coordinate and YU are added.
The increment value is added to the VA value (step 76). If the calculation of the YUVA values of the pixels for two lines has not been completed (step 73), rendering processing such as alpha blending using equation 6 is executed (step 74), x
Add 2 to coordinates and increment value to YUVA value (step
75) The process is repeated until the calculation for two lines is completed. The rendering process includes a process of storing the YUVA value being calculated in the memory.

【0069】この結果、例えば、アルファ・ブレンディ
ングを実行する場合、従来の手法では、数5の式を1画
素毎にR,G,B,Aの各成分に対して1回実行してい
たのが、本発明により、4画素に対してYについては4
回、U、V、Aの各成分については1回実行すればよい
ので、計算量が約7/16に減少する。また、メモリの
容量、フレームバッファへの転送量も7/16に減少す
る。
As a result, for example, when performing alpha blending, in the conventional method, the equation (5) was executed once for each pixel of R, G, B, A for each pixel. However, according to the present invention, four pixels have four pixels for Y.
Since it is sufficient to execute once for each of the U, V, and A components, the calculation amount is reduced to about 7/16. Also, the memory capacity and the transfer amount to the frame buffer are reduced to 7/16.

【0070】図14は本発明にかかる他の実施例のブロ
ック図であり、本実施例の特徴は、画素の輝度値、色差
値、アルファ値とは別に、3次元物体を表示する際の陰
面処理に使われる、画素の奥行きを表すパラメータのZ
値が加わったことである。
FIG. 14 is a block diagram of another embodiment according to the present invention. The feature of this embodiment is that it is a hidden surface when displaying a three-dimensional object in addition to the luminance value, color difference value and alpha value of the pixel. Z, the parameter used to process the pixel depth
The value has been added.

【0071】本構成は、ポリゴンの頂点座標などの図形
情報と、RGBA値の強度を示す色情報とからなる図形
データ12を所有するコンピュータ11dと、 ポリゴンを構
成する画素の色を計算するレンダリング装置20と、YU
V値をRGB値に変換するデコータ16、D/Aコンバー
タ17、CRT18を有している。
The present configuration has a computer 11d that owns graphic data 12 including graphic information such as vertex coordinates of polygons and color information indicating the intensity of RGBA values, and a rendering device that calculates the color of the pixels that make up the polygon. 20 and YU
It has a decoder 16, a D / A converter 17 and a CRT 18 for converting V values into RGB values.

【0072】また、レンダリング装置20は、RGB値を
YUV値に変換するエンコーダ13、ポリゴンの各頂点の
YUVA値から、ポリゴンを構成する画素すべてのYU
VA値を計算するグラフィックスプロセッサ14d、各画
素のYUVA値を記憶するフレームバッファ15d、各画
素のZ値を記憶するZバッファ19を備えている。
Further, the rendering device 20 uses the encoder 13 for converting the RGB values into the YUV values and the YUVA values of the vertices of the polygon from the YU of all the pixels constituting the polygon.
The graphics processor 14d for calculating the VA value, the frame buffer 15d for storing the YUVA value of each pixel, and the Z buffer 19 for storing the Z value of each pixel are provided.

【0073】まず、3次元グラフィックス技術の一つで
あるZバッファテストについて説明する。
First, the Z-buffer test, which is one of the three-dimensional graphics techniques, will be described.

【0074】Zバッファテストは主に陰面処理のために
使用され、各画素毎の、視点と、画素を含むオブジェク
トとの距離(Z値)を記憶するZバッファを必要とす
る。具体的な動作を説明すると、画素毎に、レンダリン
グ処理で計算されたZ値と、Zバッファに記憶されてい
る値とを比較して、レンダリング処理中のZ値がZバッ
ファに記憶されている値より小さい(Zバッファテスト
が成立する)場合には、画素のYUVA値をフレームバ
ッファに、レンダリング処理中のZ値をZバッファに書
き込む。
The Z-buffer test is mainly used for hidden surface processing, and requires a Z-buffer that stores the distance (Z value) between the viewpoint and the object including the pixel for each pixel. The specific operation will be described. For each pixel, the Z value calculated in the rendering process is compared with the value stored in the Z buffer, and the Z value during the rendering process is stored in the Z buffer. If it is smaller than the value (the Z buffer test is satisfied), the YUVA value of the pixel is written in the frame buffer, and the Z value during the rendering process is written in the Z buffer.

【0075】次に、上で示したシステム構成を有するレ
ンダリングシステムの動作について説明する。
Next, the operation of the rendering system having the system configuration shown above will be described.

【0076】まず、コンピュータ11dは、3次元図形を
表示するために、与えられた図形データ12のRGB値を
エンコーダ13に、A値と、3次元座標を含む図形情報を
グラフィックスプロセッサ14dに出力する。RGB値を
獲得したエンコーダ13はRGB値をYUV値に変換し、
その結果をグラフィックスプロセッサ14dに出力する。
YUVA値と3次元の座標値を受け取ったグラフィック
スプロセッサ14dは、その情報を基にポリゴンを構成す
るすべての画素のYUVA値と座標値を計算する。その
際、R、G、B、Aではなく、Y、U、V、Aの各成分
を基に、レンダリング手法を施す。Zバッファテストが
有効の場合、グラフィックスプロセッサ14dでレンダリ
ング処理中のZ値と、画素の座標値から決定されるZバ
ッファ19内の該当箇所に記憶されている値とを比較す
る。そして、比較演算が成立した場合にのみ、グラフィ
ックスプロセッサ14dによって計算されたYUVA値
を、画素の座標値から決定されるフレームバッファ15c
内の該当箇所に格納し、Z値をZバッファの該当箇所に
格納する。デコーダ16は、CRT18の走査と同期して、
フレームバッファ15dに記憶されているYUV値をCR
T18に表示するためにRGB値に復元する。そして、こ
の値はD/Aコンバータ17によってアナログ情報に変換
され、CRT18に送られる。CRT18はD/Aコンバー
タから受け取ったアナログ情報をディスプレイ上に表示
する。
First, the computer 11d outputs the RGB value of the given figure data 12 to the encoder 13 and the figure information including the A value and the three-dimensional coordinates to the graphics processor 14d in order to display the three-dimensional figure. To do. The encoder 13 that has acquired the RGB value converts the RGB value into the YUV value,
The result is output to the graphics processor 14d.
The graphics processor 14d which has received the YUVA value and the three-dimensional coordinate value calculates the YUVA value and the coordinate value of all the pixels forming the polygon based on the information. At that time, the rendering method is applied based on each component of Y, U, V, and A instead of R, G, B, and A. When the Z buffer test is valid, the Z value being rendered by the graphics processor 14d is compared with the value stored in the corresponding position in the Z buffer 19 determined from the coordinate value of the pixel. Then, only when the comparison operation is established, the YUVA value calculated by the graphics processor 14d is determined from the pixel coordinate value in the frame buffer 15c.
, And the Z value is stored in the corresponding portion of the Z buffer. The decoder 16 synchronizes with the scanning of the CRT 18,
CR the YUV value stored in the frame buffer 15d
Restore RGB values for display at T18. Then, this value is converted into analog information by the D / A converter 17 and sent to the CRT 18. The CRT 18 displays the analog information received from the D / A converter on the display.

【0077】ここで、 U、V、A値を4画素に1個割
り当てた場合と同様に、4画素に1個のZ値を割り当て
る。つまり、図4のディスプレイ・イメージに対して、
図15で示すように、画素p0(100),p1(101),p2
(102),p3(103)にはZ0(500)が、画素p4(104),p
5(105),p6(106),p7(107)にはZ4(504)が対応す
る。
Here, as in the case where one U, V and A value is assigned to four pixels, one Z value is assigned to four pixels. That is, with respect to the display image of FIG.
As shown in FIG. 15, pixels p0 (100), p1 (101), p2
In (102) and p3 (103), Z0 (500) corresponds to pixel p4 (104) and p
Z4 (504) corresponds to 5 (105), p6 (106), and p7 (107).

【0078】図16はZ値を4画素に1個もたせた場合
の、グラフィックスによるシェーディング、アルファ・
ブレンディング、Zバッファテストのフローチャートを
示しており、以下に、その流れを説明する。
FIG. 16 shows the shading by the graphics when the Z value is set to one for every four pixels, and the alpha.
The flowchart of the blending and Z buffer test is shown, and the flow will be described below.

【0079】最初に、描画するポリゴンの頂点の座標お
よびYUVA値を獲得する(ステップ80)。次に、ポリ
ゴンを構成する画素のYUV値をすべて計算したかを判
断し、もし計算を完了した場合には終了する(ステップ
81)。そうでない場合には、画素のx座標とz座標、Y
UVA値を待避しておき(ステップ82)、2ライン分の
画素のYUVA値の計算を終える毎に、y座標に2を加
算し、x座標、z座標およびYUVA値に増分値を加算
する(ステップ86)。もし、2ライン分の画素のYUV
A値の計算を完了していなければ(ステップ83)、アル
ファ・ブレンディング、Zバッファテスト等のレンダリ
ング処理を実行する(ステップ84)。Zバッファテスト
は、4画素に対して1度実行される。そして、x座標に
2を、z座標とYUV値にその増分値を加算する(ステ
ップ85)。ステップ84とステップ85は、2ライン分の計
算が終了するまで繰り返し実行される。
First, the coordinates of the vertices of the polygon to be drawn and the YUVA value are acquired (step 80). Next, it is judged whether or not all the YUV values of the pixels forming the polygon have been calculated, and if the calculation is completed, the process ends (step
81). Otherwise, the x and z coordinates of the pixel, Y
The UVA value is saved (step 82), every time the calculation of the YUVA value of the pixels for two lines is completed, 2 is added to the y coordinate and the increment value is added to the x coordinate, the z coordinate and the YUVA value ( Step 86). If the YUV of pixels for 2 lines
If the calculation of the A value is not completed (step 83), rendering processing such as alpha blending and Z buffer test is executed (step 84). The Z-buffer test is performed once for 4 pixels. Then, 2 is added to the x coordinate and the increment value is added to the z coordinate and the YUV value (step 85). Steps 84 and 85 are repeatedly executed until the calculation for two lines is completed.

【0080】この結果、例えば、Zバッファテストを実
行する場合、従来の手法では、レンダリング処理中のZ
値と、Zバッファに格納されている値との比較を1画素
毎に1回実行する必要があったのが、本発明により、4
画素毎に1回実行すればよいので、Zバッファテストの
計算量が約1/4に減少する。また、仮に、Z値を32
ビットで表現し、表示する画面のサイズが640×32
0画素であるとすると、従来では、Zバッファ用のメモ
リを640×320×32ビット=約800キロバイト
必要としていたのが、本発明によって、約200キロバ
イトで十分となる。さらに、Zバッファへのデータの転
送量も1/4に減少し、描画性能が向上する。
As a result, for example, when the Z buffer test is executed, the Z in the rendering process is changed by the conventional method.
According to the present invention, it is necessary to compare the value with the value stored in the Z buffer once for each pixel.
Since it needs to be executed once for each pixel, the calculation amount of the Z buffer test is reduced to about 1/4. Also, if the Z value is 32,
The size of the screen displayed in bits is 640 x 32.
Assuming that the number of pixels is 0, conventionally, 640 × 320 × 32 bits = about 800 kilobytes was required for the Z buffer memory, but according to the present invention, about 200 kilobytes is sufficient. Further, the amount of data transferred to the Z buffer is reduced to 1/4, and the drawing performance is improved.

【0081】図17は本発明によって、3次元グラフィ
ックス技術の一つであるフォグ処理を実行した場合の、
各画素に割り当てられるフォグ混合係数を示している。
FIG. 17 shows the case where fog processing, which is one of the three-dimensional graphics techniques, is executed according to the present invention.
The fog mixing coefficient assigned to each pixel is shown.

【0082】フォグ処理は、フライトシミュレータなど
の視界がはっきりしないようなシミュレーションを実現
するのに不可欠であり、表示する物体が視点から離れる
ほど、霧(フォグ)のかかる度合いが大きくなる。フォ
グの色をYf、Uf、Vf、Afとすると、フォグのか
かる度合いを示すフォグ混合係数fによって、画素の色
は次のように計算される。
The fog processing is indispensable for realizing a simulation such as a flight simulator in which the field of view is not clear. The farther the object to be displayed is from the viewpoint, the greater the degree of fog. Assuming that the fog colors are Yf, Uf, Vf, and Af, the pixel color is calculated as follows based on the fog mixing coefficient f indicating the degree of fog.

【0083】[0083]

【数7】 Y=Y*f+Yf*(1ーf) U=U*f+Uf*(1ーf) V=V*f+Vf*(1ーf) A=A*f+Af*(1ーf) …(数7) フォグ処理で、図4のディスプレイ・イメージに対し
て、図17で示すように、画素p0(100)、p1(101)、
p2(102)、p3(103)には、フォグ混合係数f0(60
0)、画素p4(104)、p5(105)、p6(106)、p7(107)
には、フォグ混合係数f4(604)が対応し、4画素に1
つのフォグ混合係数が割り当てられる。
(7) Y = Y * f + Yf * (1−f) U = U * f + Uf * (1−f) V = V * f + Vf * (1−f) A = A * f + Af * (1−f) ( (7) In fog processing, as shown in FIG. 17, pixels p0 (100), p1 (101), and
In p2 (102) and p3 (103), the fog mixing coefficient f0 (60
0), pixels p4 (104), p5 (105), p6 (106), p7 (107)
Corresponds to the fog mixing coefficient f4 (604), which corresponds to 1 for 4 pixels.
One fog mix coefficient is assigned.

【0084】図18はフォグ混合係数f値を4画素に1
個もたせた場合の、グラフィックスによるシェーディン
グ、アルファ・ブレンディング、Zバッファテスト、フ
ォグを含むレンダリング処理のフローチャートを示して
おり、以下に、その流れを説明する。
FIG. 18 shows that the fog mixing coefficient f value is 1 for every 4 pixels.
A flowchart of a rendering process including shading by graphics, alpha blending, Z buffer test, and fog in the case where individual pieces are provided is shown. The flow will be described below.

【0085】まず最初に、描画するポリゴンの頂点の座
標およびYUV値を獲得する(ステップ90)。次に、ポ
リゴンを構成する画素のYUV値をすべて計算したかを
判断し、もし計算を完了した場合には終了する(ステッ
プ91)。そうでない場合には、画素のx座標とz座標、
YUVA値、f値を待避しておき(ステップ92)、2ラ
イン分の画素のYUVA値の計算を終える毎に、y座標
に2を加算し、x座標、z座標およびYUVA値、f値
にその増分値を加算する(ステップ96)。もし、2ライ
ン分の画素のYUVA値の計算を完了していなければ
(ステップ93)、アルファ・ブレンディング、Zバッフ
ァテスト、フォグ等のレンダリング処理を実行する(ス
テップ94)。フォグ処理では、まず4画素毎にフォグ混
合係数fを計算し、そのfを基に数7を使って、YUV
A値を求める。フォグ混合係数fの計算は、4画素に対
して1度だけ実行される。そして、x座標に2を、z座
標、f値とYUV値にその増分値を加算する(ステップ
95)。ステップ94とステップ95は、2ライン分の計算が
終了するまで繰り返し実行される。
First, the coordinates of the vertices of the polygon to be drawn and the YUV value are acquired (step 90). Next, it is judged whether or not all the YUV values of the pixels forming the polygon have been calculated, and if the calculation is completed, the process ends (step 91). Otherwise, the x and z coordinates of the pixel,
The YUVA value and the f value are saved (step 92), and 2 is added to the y coordinate every time the calculation of the YUVA value of the pixels for two lines is completed, and the x coordinate, the z coordinate, the YUVA value, and the f value are added. The increment value is added (step 96). If the calculation of the YUVA values of the pixels for two lines has not been completed (step 93), rendering processing such as alpha blending, Z buffer test, fog, etc. is executed (step 94). In the fog processing, first, the fog mixing coefficient f is calculated for every four pixels, and the YUV is calculated using Equation 7 based on the f.
Obtain the A value. The fog mixing coefficient f is calculated only once for four pixels. Then, 2 is added to the x coordinate, and the increment value is added to the z coordinate, f value, and YUV value (step
95). Steps 94 and 95 are repeatedly executed until the calculation for two lines is completed.

【0086】この結果、フォグ処理を実行する場合、従
来の手法では、フォグ混合係数fを求めるために、1画
素毎に数7の計算式を実行する必要があったが、本手法
により、4画素毎に1回実行すればよいので、フォグ混
合係数を求めるための計算量が1/4に減少する。
As a result, when performing fog processing, in the conventional method, it was necessary to execute the equation (7) for each pixel in order to obtain the fog mixing coefficient f. Since it is only necessary to execute once for each pixel, the amount of calculation for obtaining the fog mixing coefficient is reduced to 1/4.

【0087】図19は本発明の他の実施例のブロック図
であり、本実施例の特徴はフレームバッファに記憶され
ているYUV値がデコーダを介さず、CRTに出力され
ている点である。
FIG. 19 is a block diagram of another embodiment of the present invention. The feature of this embodiment is that the YUV value stored in the frame buffer is output to the CRT without passing through the decoder.

【0088】本構成はポリゴンの座標などの図形情報
と、RGBA値の強度を示す色情報とからなる図形デー
タ12を所有するコンピュータ11dと、ポリゴンを構成す
る画素の色を計算するレンダリング装置20dと、D/A
コンバータ17、NTSC方式のCRT18dを有してい
る。
This configuration has a computer 11d that owns graphic data 12 including graphic information such as polygon coordinates and color information indicating the intensity of RGBA values, and a rendering device 20d that calculates the color of the pixels that form the polygon. , D / A
It has a converter 17 and an NTSC CRT 18d.

【0089】また、レンダリング装置20dは、RGB値
をYUV値に変換するエンコーダ13、ポリゴンの各頂点
のYUVA値から、ポリゴンを構成する画素すべてのY
UVA値を計算するグラフィックスプロセッサ14d、各
画素のYUVA値を記憶するフレームバッファ15d、各
画素のZ値を記憶するZバッファ19を備えている。
Further, the rendering device 20d uses the encoder 13 for converting the RGB values into YUV values and the YUVA values of the vertices of the polygon to determine the Y of all the pixels forming the polygon.
The graphics processor 14d for calculating the UVA value, the frame buffer 15d for storing the YUVA value of each pixel, and the Z buffer 19 for storing the Z value of each pixel are provided.

【0090】次に、このような装置構成を有するレンダ
リング装置の動作について説明する。
Next, the operation of the rendering device having such a device configuration will be described.

【0091】まず、コンピュータ11dは、3次元図形を
表示するために、与えられた図形データ12のRGB値を
エンコーダ13に、A値と、3次元座標を含む図形情報を
グラフィックスプロセッサ14cに出力する。RGB値を
獲得したエンコーダ13はRGB値をYUV値に変換し、
その結果をグラフィックスプロセッサ14cに出力する。
YUVA値と3次元座標を受け取ったグラフィックスプ
ロセッサ14cは、その情報を基にポリゴンを構成するす
べての画素のYUVA値と座標値を計算する。Zバッフ
ァテストが有効の場合、グラフィックスプロセッサ14c
で計算されたZ値と、画素の座標値から決定されるZバ
ッファ19内の該当箇所に格納されている値とを比較す
る。そして、比較演算が成立した場合にのみ、グラフィ
ックスプロセッサ14cによって計算されたYUVA値
を、画素の座標値から決定されるフレームバッファ15c
内の該当箇所に格納し、計算されたZ値をZバッファの
該当箇所に格納する。D/Aコンバータ16は、CRT18
の走査と同期して、フレームバッファ15cに記憶されて
いるYUV値をアナログ情報に変換してCRT18に出力
する。CRT18はD/Aコンバータから受け取ったYU
V値のアナログ情報をディスプレイ上に表示する。
First, the computer 11d outputs the RGB values of the given figure data 12 to the encoder 13 and the figure information including the A value and the three-dimensional coordinates to the graphics processor 14c in order to display the three-dimensional figure. To do. The encoder 13 that has acquired the RGB value converts the RGB value into the YUV value,
The result is output to the graphics processor 14c.
The graphics processor 14c, which has received the YUVA value and the three-dimensional coordinates, calculates the YUVA value and the coordinate value of all the pixels forming the polygon based on the information. Graphics processor 14c if Z-buffer test is enabled
The Z value calculated in step 1 is compared with the value stored in the corresponding portion of the Z buffer 19 determined from the coordinate value of the pixel. Then, only when the comparison operation is established, the YUVA value calculated by the graphics processor 14c is determined from the pixel coordinate value in the frame buffer 15c.
The calculated Z value is stored in the corresponding portion of the Z buffer. The D / A converter 16 is a CRT 18
The YUV value stored in the frame buffer 15c is converted into analog information and output to the CRT 18 in synchronism with the scanning of. CRT18 is YU received from D / A converter
The analog information of V value is displayed on the display.

【0092】NTSC方式のCRTに画像を出力する場
合、YUV値を入力すればよいので、デコーダを取り除
いて、全体のハードウェア量が減らすことができる。ま
た、フレームバッファの情報をデコーダを介さず直接C
RTに出力できるので、画面に画像を出力するまでの描
画性能が向上する。
When outputting an image to an NTSC CRT, it is sufficient to input the YUV value, so that the decoder can be removed and the total hardware amount can be reduced. In addition, the information in the frame buffer is directly transferred to C without passing through the decoder.
Since it can be output to the RT, the drawing performance until the image is output to the screen is improved.

【0093】[0093]

【発明の効果】従来のレンダリング処理と本発明による
レンダリング処理の比較すると、画素の色成分がR、
G、Bの場合には、従来、各画素に対してR、G、Bの
各成分の計算を必要としていたが、本発明によれば、
R、G、BをY、U、Vに変換することにより、1画素
毎にYの成分を、4画素毎にU、Vの各成分の計算を行
うため、計算量が約1/2に、フレームバッファの容量
も1/2に減少する。
When the conventional rendering process and the rendering process according to the present invention are compared, the color component of the pixel is R,
In the case of G and B, conventionally, it was necessary to calculate each component of R, G, and B for each pixel, but according to the present invention,
By converting R, G, and B into Y, U, and V, the Y component is calculated for each pixel, and the U and V components are calculated for every four pixels. , The capacity of the frame buffer is also reduced by half.

【0094】また、画素の色成分がR、G、B、Aの場
合には、本発明によれば、1画素毎にYの成分を、4画
素毎にU、V、Aの各成分の計算を行うため、計算量が
約7/12に、フレームバッファの容量も7/12に減
少する。
When the color components of the pixels are R, G, B and A, according to the present invention, the Y component of each pixel and the U, V and A components of every 4 pixels are selected. Since the calculation is performed, the calculation amount is reduced to about 7/12 and the capacity of the frame buffer is reduced to 7/12.

【0095】また、画素の奥行きを示すZ値を計算する
場合も、4画素毎に一つの代表値を計算することによ
り、Zバッファテストの計算量が1/4に減少し、Zバ
ッファの容量も1/4に減少する。
Also, when the Z value indicating the depth of a pixel is calculated, the calculation amount of the Z buffer test is reduced to 1/4 by calculating one representative value for every 4 pixels, and the capacity of the Z buffer is reduced. Is also reduced to 1/4.

【0096】また、フォグ混合係数を4画素に1個もつ
ことにより、フォグ混合係数を計算するための処理が約
1/4となる。
Further, by having one fog mixing coefficient for every four pixels, the processing for calculating the fog mixing coefficient becomes about 1/4.

【0097】また、グラフィックス技法の一つであるテ
クスチャ・マッピングで、YUV値からなるデータを圧
縮したMPEG等の動画像データをポリゴンに貼りつけ
る処理を、特別な変換を必要とせず、効率よく実行する
ことができる。
Further, in the texture mapping, which is one of the graphics techniques, the process of pasting moving image data such as MPEG in which the data consisting of YUV values is compressed onto polygons can be efficiently performed without requiring any special conversion. Can be executed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例であるシステムのブロック図。FIG. 1 is a block diagram of a system that is an embodiment of the present invention.

【図2】従来のシステムのブロック図。FIG. 2 is a block diagram of a conventional system.

【図3】従来のレンダリング処理の処理内容を示すフロ
ーチャート。
FIG. 3 is a flowchart showing the processing contents of conventional rendering processing.

【図4】本発明を適用したレンダリング処理の処理内容
を示すフローチャート。
FIG. 4 is a flowchart showing the processing contents of rendering processing to which the present invention is applied.

【図5】ディスプレイのイメージに対応する画素の説明
図。
FIG. 5 is an explanatory diagram of pixels corresponding to an image on a display.

【図6】各画素に割り当てられる輝度値の説明図。FIG. 6 is an explanatory diagram of a brightness value assigned to each pixel.

【図7】各画素に割り当てられる色差値の説明図。FIG. 7 is an explanatory diagram of color difference values assigned to each pixel.

【図8】三角形のシェーディング処理の説明図。FIG. 8 is an explanatory diagram of a triangle shading process.

【図9】色差値の空間解像度を落とさない実施例にかか
るレンダリング処理の処理内容を示すフローチャート。
FIG. 9 is a flowchart showing the processing contents of rendering processing according to an embodiment in which the spatial resolution of color difference values is not reduced.

【図10】色差値の空間解像度を落とした実施例にかか
るレンダリング処理の処理内容を示すフローチャート。
FIG. 10 is a flowchart showing the processing content of rendering processing according to an embodiment in which the spatial resolution of color difference values is reduced.

【図11】透明度を加えた実施例にかかるシステムのブ
ロック図。
FIG. 11 is a block diagram of a system according to an embodiment with added transparency.

【図12】各画素に割り当てられるアルファ値の説明
図。
FIG. 12 is an explanatory diagram of an alpha value assigned to each pixel.

【図13】透明度の空間解像度を落とした実施例にかか
るレンダリング処理の処理内容を示すフローチャート。
FIG. 13 is a flowchart showing the processing contents of rendering processing according to an embodiment in which the spatial resolution of transparency is lowered.

【図14】奥行き情報を加えた実施例にかかるシステム
のブロック図。
FIG. 14 is a block diagram of a system according to an embodiment including depth information.

【図15】各画素に割り当てられるZ値の説明図。FIG. 15 is an explanatory diagram of a Z value assigned to each pixel.

【図16】Z値の空間解像度を落とした実施例にかかる
レンダリング処理の処理内容を示すフローチャート。
FIG. 16 is a flowchart showing the processing contents of rendering processing according to the embodiment in which the spatial resolution of the Z value is reduced.

【図17】各画素に割り当てられるフォグ混合係数の説
明図。
FIG. 17 is an explanatory diagram of fog mixing coefficients assigned to each pixel.

【図18】フォグ混合係数の空間解像度を落とした実施
例にかかるレンダリング処理の処理内容を示すフローチ
ャート。
FIG. 18 is a flowchart showing the processing contents of rendering processing according to an embodiment in which the spatial resolution of fog mixing coefficient is reduced.

【図19】他の実施例にかかるシステムのブロック図。FIG. 19 is a block diagram of a system according to another embodiment.

【符号の説明】[Explanation of symbols]

11…コンピュータ、 12…図形データ、 13…エンコーダ、 14…グラフィックスプロセッサ、 15…フレームバッファ、 16…デコーダ、 17…D/Aコンバータ、 18…CRT、 20…レンダリング装置。 11 ... Computer, 12 ... Graphic data, 13 ... Encoder, 14 ... Graphics processor, 15 ... Frame buffer, 16 ... Decoder, 17 ... D / A converter, 18 ... CRT, 20 ... Rendering device.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】描画の対象となる物体を構成するポリゴン
と呼ばれる多角形の、内部の画素の色情報を計算するグ
ラフィックスのレンダリング装置において、 画素のR、G、Bの各強度を輝度情報と色差情報に変換
する変換手段と、前記ポリゴンの各頂点の輝度情報と色
差情報から、前記ポリゴンを構成する画素の輝度情報、
色差情報を計算する演算手段と、前記輝度情報と前記色
差情報を記憶する記憶手段を備え、 前記変換手段は、前記ポリゴンの各頂点の色情報として
与えられたR、G、Bの各強度を、輝度情報と色差情報
に変換し、前記演算手段は、前記変換手段から獲得した
ポリゴンの各頂点の輝度情報と色差情報を基に、前記ポ
リゴンを構成する画素の輝度情報と色差情報を計算し、
前記輝度情報と色差情報を前記記憶手段に格納する処理
を行なうことを特徴とするレンダリング装置。
1. A graphics rendering device for calculating color information of internal pixels of a polygon called a polygon which constitutes an object to be drawn, wherein each intensity of R, G, B of a pixel is represented by luminance information. And the conversion means for converting into color difference information, and the brightness information of the pixels forming the polygon from the brightness information and the color difference information of each vertex of the polygon,
The conversion means includes a calculation means for calculating color difference information and a storage means for storing the luminance information and the color difference information, and the conversion means calculates each intensity of R, G, B given as color information of each vertex of the polygon. , The luminance information and the color difference information are converted, and the calculating means calculates the luminance information and the color difference information of the pixels forming the polygon based on the luminance information and the color difference information of each vertex of the polygon acquired from the converting means. ,
A rendering device for performing processing of storing the luminance information and the color difference information in the storage means.
【請求項2】画素のR、G、Bの各強度を輝度情報と色差
情報に変換する変換装置と、ポリゴンと呼ばれる多角形
の各頂点の色情報から、前記ポリゴンの内部の画素の色
情報を計算する演算装置と、前記色情報を記憶する記憶
装置とを有するレンダリング装置におけるポリゴンを構
成する画素の色情報を計算するグラフィックスのレンダ
リング方法において、 前記ポリゴンの各頂点に色情報として与えられたR、
G、Bの各強度を、前記変換手段を用いて輝度情報と色
差情報に変換し、前記ポリゴンの各頂点の前記輝度情報
と色差情報を基に、ポリゴンの内部の画素の輝度情報と
色差情報を前記演算装置を用いて計算して、前記輝度情
報と色差情報を前記記憶装置に格納することを特徴とす
るグラフィックスのレンダリング方法。
2. A conversion device for converting the respective intensities of R, G, B of a pixel into luminance information and color difference information, and color information of each vertex of a polygon called a polygon, from the color information of a pixel inside the polygon. In a rendering method of graphics for calculating color information of pixels constituting a polygon in a rendering device having a calculation device for calculating the color information and a storage device for storing the color information, each vertex of the polygon is provided with the color information as color information. R,
The respective intensities of G and B are converted into luminance information and color difference information using the conversion means, and based on the luminance information and color difference information of each vertex of the polygon, the luminance information and color difference information of the pixels inside the polygon. Is calculated using the arithmetic unit, and the luminance information and the color difference information are stored in the storage device.
【請求項3】請求項1において、前記演算手段は、複数
個の画素に対して、1画素の前記色差情報を前記複数個
の色差情報の代表として、前記ポリゴンを構成する画素
の色差情報を計算し、前記記憶手段に、前記色差情報を
前記複数個の色差情報の代表として記憶するレンダリン
グ装置。
3. The color computing device according to claim 1, wherein the computing means uses the color difference information of one pixel for a plurality of pixels as a representative of the plurality of color difference information to calculate color difference information of pixels forming the polygon. A rendering device that calculates and stores the color difference information in the storage unit as a representative of the plurality of color difference information.
【請求項4】請求項1または3において、描画する画素
の透明度を示す透明度情報を計算するために、前記演算
手段は、複数個の画素に対して、1画素の透明度情報を
前記複数個の透明度情報の代表として、ポリゴンの各頂
点の透明度情報を基に、ポリゴンを構成する画素の前記
透明度情報を計算し、前記透明度情報を前記複数個の透
明度情報の代表として前記記憶手段に記憶するグラフィ
ックスのレンダリング装置。
4. The calculation means according to claim 1 or 3, wherein, in order to calculate transparency information indicating transparency of a pixel to be drawn, the calculation means outputs transparency information of one pixel to the plurality of pixels. As a representative of the transparency information, a graphic for calculating the transparency information of the pixels forming the polygon based on the transparency information of each vertex of the polygon and storing the transparency information in the storage means as a representative of the plurality of transparency information. Rendering device.
【請求項5】請求項1、3または4において、3次元グ
ラフィックスの描画のため、前記演算手段は、複数個の
画素に対して、1画素の奥行き情報を前記複数個の画素
の代表として、前記ポリゴンの各頂点の奥行き情報を基
に、前記ポリゴンを構成する画素の前記奥行き情報を計
算し、前記奥行き情報を前記複数個の奥行き情報の代表
として前記記憶手段に記憶するグラフィックスのレンダ
リング装置。
5. The drawing means for drawing three-dimensional graphics according to claim 1, 3 or 4, wherein the computing means uses depth information of one pixel as a representative of the plurality of pixels for the plurality of pixels. A graphics rendering in which the depth information of pixels forming the polygon is calculated based on the depth information of each vertex of the polygon, and the depth information is stored in the storage unit as a representative of the plurality of depth information. apparatus.
【請求項6】請求項1、3、4または5において、画面
全体に霧効果を生成するために使われる、視点と物体と
の距離から導き出される霧の度合いを表すフォグ情報を
計算するために、前記演算手段は、複数個の画素に対し
て、1画素のフォグ情報を前記複数個のフォグ情報の代
表として、前記ポリゴンの各頂点のフォグ情報を基に、
前記ポリゴンを構成する画素の前記フォグ情報を計算す
るグラフィックスのレンダリング装置。
6. The method according to claim 1, 3, 4 or 5, for calculating fog information representing a degree of fog derived from a distance between a viewpoint and an object, which is used to generate a fog effect on the entire screen. The computing means uses fog information of one pixel for a plurality of pixels as a representative of the plurality of fog information, and based on the fog information of each vertex of the polygon,
A graphics rendering device for calculating the fog information of pixels constituting the polygon.
【請求項7】請求項1、3、4、5または6に記載のレ
ンダリング装置を含み、表示する形状の幾何学情報と色
情報をもつ制御装置と、前記輝度情報と前記色差情報を
R、G、Bの各強度に変換する第2変換器と、レンダリ
ング処理結果を表示する表示装置とを備え、前記レンダ
リング装置は、制御装置から、表示する形状の幾何学情
報と色情報を獲得して、表示する形状の内部の画素の輝
度情報、色差情報、透明度情報、奥行き情報を記憶手段
に記憶し、前記第2変換器が、記憶手段に記憶されてい
る輝度情報、色差情報をR、G、Bの強度に変換して、
前記表示手段に表示する処理を行なうレンダリングシス
テム。
7. A control device comprising the rendering device according to claim 1, 3, 4, 5 or 6, and having a geometrical information and color information of a shape to be displayed, the luminance information and the color difference information being R, A second converter for converting into G and B intensities and a display device for displaying the rendering processing result are provided, and the rendering device acquires geometric information and color information of the shape to be displayed from the control device. , The luminance information, the color difference information, the transparency information, and the depth information of the pixels inside the shape to be displayed are stored in the storage means, and the second converter stores the luminance information and the color difference information stored in the storage means as R and G. , B intensity,
A rendering system for performing processing of displaying on the display means.
【請求項8】請求項1、3、4、5または6のいずれか
に記載のレンダリング装置を含み、表示する形状の幾何
学情報と色情報をもつ制御装置と、レンダリング処理結
果を表示する表示装置とを備え、前記レンダリング装置
は、制御装置から、表示する形状の幾何学情報と色情報
を獲得して、表示する形状の内部の画素の輝度情報、色
差情報、透明度情報、奥行き情報を記憶手段に記憶し、
前記表示手段が記憶手段に記憶されている輝度情報、色
差情報を基に形状を表示する処理を行なうレンダリング
システム。
8. A control device including the rendering device according to claim 1, 3, 4, 5, or 6, and a control device having geometric information and color information of a shape to be displayed, and a display for displaying a rendering processing result. The rendering device acquires geometric information and color information of a shape to be displayed from a control device, and stores brightness information, color difference information, transparency information, and depth information of pixels inside the shape to be displayed. Memorize in the means,
A rendering system in which the display unit performs a process of displaying a shape based on the luminance information and the color difference information stored in the storage unit.
JP7313898A 1995-12-01 1995-12-01 Device and method for rendering Pending JPH09153142A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7313898A JPH09153142A (en) 1995-12-01 1995-12-01 Device and method for rendering

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7313898A JPH09153142A (en) 1995-12-01 1995-12-01 Device and method for rendering

Publications (1)

Publication Number Publication Date
JPH09153142A true JPH09153142A (en) 1997-06-10

Family

ID=18046852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7313898A Pending JPH09153142A (en) 1995-12-01 1995-12-01 Device and method for rendering

Country Status (1)

Country Link
JP (1) JPH09153142A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014714A (en) * 1999-09-16 2012-01-19 Qualcomm Inc Method and device for rendering translucent 3d graphic
CN111882631A (en) * 2020-07-24 2020-11-03 上海米哈游天命科技有限公司 Model rendering method, device, equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014714A (en) * 1999-09-16 2012-01-19 Qualcomm Inc Method and device for rendering translucent 3d graphic
CN111882631A (en) * 2020-07-24 2020-11-03 上海米哈游天命科技有限公司 Model rendering method, device, equipment and storage medium
CN111882631B (en) * 2020-07-24 2024-05-03 上海米哈游天命科技有限公司 Model rendering method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
US10134175B2 (en) Gradient adjustment for texture mapping to non-orthonormal grid
US6038031A (en) 3D graphics object copying with reduced edge artifacts
EP1025558B1 (en) A method and apparatus for performing chroma key, transparency and fog operations
CN111508052B (en) Rendering method and device of three-dimensional grid body
US8144158B2 (en) Display system having floating point rasterization and floating point framebuffering
CA2301607C (en) An improved method and apparatus for per pixel mip mapping and trilinear filtering
WO1994004990A1 (en) Image synthesizer
JPH05307610A (en) Texture mapping method and its device
EP1306810A1 (en) Triangle identification buffer
US11238639B2 (en) Gradient adjustment for texture mapping to non-orthonormal grid
KR910009102B1 (en) Image synthesizing apparatus
KR20080100854A (en) Rendering processing method, rendering processing device, and computer-readable recording medium having recorded therein a rendering processing program
JP4148377B2 (en) Image generating apparatus, image generating method, image generating program recording medium, image synthesizing apparatus, image synthesizing method, and image synthesizing program recording medium
JPH09153142A (en) Device and method for rendering
JP2763481B2 (en) Image synthesizing apparatus and image synthesizing method
JP2774874B2 (en) Image synthesizing apparatus and image synthesizing method
EP0590997A2 (en) Processing image data
JP3538826B2 (en) Arithmetic circuit and arithmetic method
JPH11339069A (en) Device and method for image position
JP2898569B2 (en) Video accelerator board for computer game development
JPH06203171A (en) Device and method for forming image
JPH09160534A (en) Image control device
JPH09231381A (en) Plotting device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090726

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100726

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100726

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110726

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120726

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120726

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130726

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130726

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140726

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250