JPH05282466A - Method and device for image processing - Google Patents

Method and device for image processing

Info

Publication number
JPH05282466A
JPH05282466A JP10384592A JP10384592A JPH05282466A JP H05282466 A JPH05282466 A JP H05282466A JP 10384592 A JP10384592 A JP 10384592A JP 10384592 A JP10384592 A JP 10384592A JP H05282466 A JPH05282466 A JP H05282466A
Authority
JP
Japan
Prior art keywords
data
given
output
pixel
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10384592A
Other languages
Japanese (ja)
Inventor
Hajime Nishidai
元 西台
Tetsuto Nishiyama
哲人 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP10384592A priority Critical patent/JPH05282466A/en
Publication of JPH05282466A publication Critical patent/JPH05282466A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To perform accurate interpolation even when variation in the angle in an interpolation section is large and to display an image without irregularity by performing an interpolating process based on an angle of incidence and an angle difference. CONSTITUTION:Model data consist of pairs of coordinate data on the apexes of a polygon which approximately represents a body and data showing tangential plane normal vectors at the points; and the pairs of data are given as to all the vertexes and various constants are also given. As for each of the apexes, coordinate conversion and the calculation of the azimuth angles and a are performed, and pieces of information on a viewpoint position theta and alphalight source position for them are inputted. Then the Z depth of each pixel is found by using the depth-directional distance (Z depth) of the apex on a display screen and angle data theta and alpha on three mutually nearby apexes are used as to each pixel which can be displayed to calculate azimuth angle data thetaand alpha respectively by an interpolating method. Consequently, the accurate interpolation is performed even if the azimuth angle difference between adjacent apexes is large.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【技術分野】この発明はコンピュータ・グラフィクスの
分野における画像処理方法および装置に関する。
TECHNICAL FIELD The present invention relates to an image processing method and apparatus in the field of computer graphics.

【0002】[0002]

【背景技術とその問題点】コンピュータ・グラフィクス
において,コンピュータのメモリに記憶されている物体
を表わすモデル・データを処理することによって,線画
ではなく,陰影のある画像を描画するためのデータを
得,より現実感の高い画像を表示するための種々の方法
が提案されている。しかしながらこれらの提案されてい
る方法においてはいずれも,表示画面を構成する微小な
点(画素またはピクセル)の発光輝度(またはR,G,
Bデータ)をすべてのピクセルについて算出する必要が
あり,この計算処理のためにきわめて長い時間が浪費さ
れるという問題がある。
[Background Art and its Problems] In computer graphics, by processing model data representing an object stored in a memory of a computer, data for drawing a shaded image instead of a line drawing is obtained, Various methods have been proposed for displaying more realistic images. However, in any of these proposed methods, the emission brightness (or R, G, or R) of minute points (pixels or pixels) forming the display screen is
(B data) has to be calculated for all pixels, and there is a problem that an extremely long time is wasted due to this calculation processing.

【0003】物体モデルの表現力に優れたPhong の描画
方法を例にとってこの問題点を具体的に説明する。
This problem will be described in detail by taking a Phong drawing method, which is excellent in expressing the object model, as an example.

【0004】図1は物体モデルの一部を示している。三
次元物体の表面は,三角形の小平面の集合として,すな
わち多面体として近似的に表現される。図1には2つの
三角形小平面ABCとACDが示されている。
FIG. 1 shows a part of the object model. The surface of a three-dimensional object is approximately represented as a set of triangular facets, that is, a polyhedron. Two triangular facets ABC and ACD are shown in FIG.

【0005】このような物体のモデル・データは,多面
体の頂点A,B,C,D等の位置座標と接平面法線ベク
トルとから構成されている。各頂点A,B,C,Dの法
線ベクトルがそれぞれ↑nA ,↑nB ,↑nC ,↑nD
で表わされている(図面においてベクトルにはその符号
の上に横向きの矢印→を付して表わし,明細書において
はその符号の前に縦向きの矢印↑を付して表わす)。
The model data of such an object is composed of the position coordinates of the vertices A, B, C, D, etc. of the polyhedron and the tangential plane normal vector. Each vertex A, B, C, each normal vector of D ↑ n A, ↑ n B , ↑ n C, ↑ n D
(In the drawings, a vector is represented by a horizontal arrow → above the reference symbol in the drawing, and in the specification by a vertical arrow ↑ in front of the reference symbol).

【0006】まず,表示画面上の各ピクセルにおける接
平面法線ベクトルを,上述の頂点における接平面法線ベ
クトルを用いて補間法により求める。
First, the tangent plane normal vector at each pixel on the display screen is obtained by the interpolation method using the tangent plane normal vector at the apex.

【0007】ある走査線SLを考え,この走査線SL上
のピクセルにおける接平面法線ベクトルを求めよう。
Consider a scan line SL, and find a tangential plane normal vector at a pixel on this scan line SL.

【0008】頂点A,BおよびCにおける法線ベクトル
↑nA ,↑nB および↑nC を次のように置く。
The normal vectors ↑ n A , ↑ n B and ↑ n C at the vertices A, B and C are set as follows.

【0009】 ↑nA =(xA ,yA ,zA ) …式1 ↑nB =(xB ,yB ,zB ) …式2 ↑nC =(xC ,yC ,zC ) …式3↑ n A = (x A , y A , z A ) Equation 1 ↑ n B = (x B , y B , z B ) Equation 2 ↑ n C = (x C , y C , z C )… Equation 3

【0010】三角形ABCの線分ABおよびACと直線
SLとが交わる点をそれぞれQ,Rとする。またこれら
の点(ピクセル)Q,Rにおける法線ベクトルをそれぞ
れ↑nQ ,↑nR とする。
The points where the line segments AB and AC of the triangle ABC and the straight line SL intersect are defined as Q and R, respectively. The normal vectors at these points (pixels) Q and R are ↑ n Q and ↑ n R , respectively.

【0011】 ↑nQ =(xQ ,yQ ,zQ ) …式4 ↑nR =(xR ,yR ,zR ) …式5[0011] ↑ n Q = (x Q, y Q, z Q) ... Equation 4 ↑ n R = (x R , y R, z R) ... formula 5

【0012】直線補間法にしたがうとこれらの法線ベク
トル↑nQ ,↑nR のx,y,z成分は次式で与えられ
ることは容易に理解できよう。
It can be easily understood that the x, y and z components of these normal vectors ↑ n Q and ↑ n R are given by the following equations according to the linear interpolation method.

【0013】 xQ =xA +(AQ/AB)(xB −xA ) =[1−(AQ/AB)]xA +(AQ/AB)xB …式6 yQ =yA +(AQ/AB)(yB −yA ) =[1−(AQ/AB)]yA +(AQ/AB)yB …式7 zQ =zA +(AQ/AB)(zB −zA ) =[1−(AQ/AB)]zA +(AQ/AB)zB …式8 xR =xA +(AR/AC)(xC −xA ) =[1−(AR/AC)]xA +(AR/AC)xC …式9 yR =yA +(AR/AC)(yC −yA ) =[1−(AR/AC)]yA +(AR/AC)yC …式10 zR =zA +(AR/AC)(zC −zA ) =[1−(AR/AC)]zA +(AR/AC)zC …式11[0013] x Q = x A + (AQ / AB) (x B -x A) = [1- (AQ / AB)] x A + (AQ / AB) x B ... Equation 6 y Q = y A + (AQ / AB) (y B -y A) = [1- (AQ / AB)] y A + (AQ / AB) y B ... equation 7 z Q = z A + ( AQ / AB) (z B - z A) = [1- (AQ / AB)] z A + (AQ / AB) z B ... equation 8 x R = x A + ( AR / AC) (x C -x A) = [1- (AR / AC)] x A + ( AR / AC) x C ... equation 9 y R = y A + ( AR / AC) (y C -y A) = [1- (AR / AC)] y A + (AR / AC) y C ... equation 10 z R = z A + ( AR / AC) (z C -z A) = [1- (AR / AC)] z A + (AR / AC) z C ... equation 11

【0014】ここでABは点AとBとを結ぶ線分の長さ
を表わす。AQ,AC,ARも同じである。
Here, AB represents the length of the line segment connecting the points A and B. The same applies to AQ, AC, and AR.

【0015】このようにして,点Q,Rにおける法線ベ
クトル↑nQ ,↑nR が求められるので,同じようにし
て,点QR間の線SL上にあるピクセル(点)における
法線ベクトルを,求められた法線ベクトル↑nQ ,↑n
R を用いて補間により算出する。
Since the normal vectors ↑ n Q and ↑ n R at the points Q and R are obtained in this manner, the normal vector at the pixel (point) on the line SL between the points QR is similarly obtained. Is the calculated normal vector ↑ n Q , ↑ n
Calculate by interpolation using R.

【0016】さらに同様にして,他の走査線上のピクセ
ルの法線ベクトルを求める。小平面ACD上のピクセル
についても同様にして,さらに他のすべての小平面を表
わすピクセルについても同様にして法線ベクトルを求め
る。これにより,物体を表わす多角形のすべての点につ
いて法線ベクトルが求められる。
Further, similarly, the normal vector of the pixel on another scanning line is obtained. The normal vector is obtained in the same manner for the pixels on the small plane ACD, and for the pixels representing all the other small planes. As a result, normal vectors are obtained for all points of the polygon representing the object.

【0017】次に各ピクセルの輝度の計算に進む。Next, the brightness of each pixel is calculated.

【0018】図2に示すように,あるピクセルPの法線
ベクトルを↑nP とする。物体を照明する仮想光源から
の光がピクセルPに入射する。ピクセルPでは光の反射
と拡散が生じる。ピクセルPからの反射光または拡散光
(一般には拡散光となるであろう)をある位置から見た
(観察した)場合の物体の陰影画像が表示すべき画像で
あり,この画像を表わす輝度を計算することになる。
As shown in FIG. 2, the normal vector of a pixel P is ↑ n P. Light from a virtual light source that illuminates an object enters pixel P. Reflection and diffusion of light occur at the pixel P. The shaded image of the object when the reflected light or diffused light (which will be diffused light in general) from the pixel P is viewed (observed) from a certain position is an image to be displayed. Will be calculated.

【0019】ピクセルPからみた光源の方向を示すベク
トルを↑L,反射光の進む方向を示すベクトルを↑R,
観察する位置の方向を示すベクトルを↑Sとする。ま
た,光の入射角(反射角に等しい)をθ,正反射方向と
観察方向との角度差をαとする。
A vector indicating the direction of the light source viewed from the pixel P is ↑ L, and a vector indicating the direction of the reflected light is ↑ R,
A vector indicating the direction of the position to be observed is defined as ↑ S. The incident angle of light (equal to the reflection angle) is θ, and the angular difference between the regular reflection direction and the observation direction is α.

【0020】観察位置からみたときの点Pの輝度(観察
輝度)IP は次式で与えられる。
The brightness (observation brightness) I P of the point P when viewed from the observation position is given by the following equation.

【0021】 IP =ka a +[Il /(d+K)](kd cosθ+ks cosn α) …式12I P = k a I a + [I l / (d + K)] (k d cos θ + k s cos n α) Equation 12

【0022】ここで, Ia :周囲光輝度 Il :光源輝度 kd :拡散反射係数 ks :鏡面反射係数 ka :周囲光反射係数 d:観察距離(観察点と点Pとの間の距離) K:最短距離パラメータ n:反射方向性次数(光沢を表わす)Here, I a : ambient light luminance I l : light source luminance k d : diffuse reflection coefficient k s : specular reflection coefficient k a : ambient light reflection coefficient d: observation distance (between observation point and point P) Distance) K: Shortest distance parameter n: Order of reflection directionality (representing gloss)

【0023】式12におけるcosθ,cosαはベクト
ルを用いて次式で与えられる。
Cos θ and cos α in Expression 12 are given by the following expressions using vectors.

【0024】 cosθ=(↑n・↑L)/|↑n||↑L| …式13 cosα=(↑R・↑S)/|↑R||↑S| …式14Cos θ = (↑ n · ↑ L) / | ↑ n || ↑ L | ... Equation 13 cosα = (↑ R · ↑ S) / | ↑ R || ↑ S |

【0025】ここで中点・はベクトル内積を表わす。Here, the middle point / represents the vector inner product.

【0026】式13,式14を用いると,式12は次のように
書ける。
Using equations 13 and 14, equation 12 can be written as follows.

【0027】 IP =ka a +[Il /(d+K)][kd {(↑n・↑L)/ (|↑n||↑L|)}+ks {(↑R・↑S)n / (|↑R||↑S|)n }] …式15I P = k a I a + [I l / (d + K)] [k d {(↑ n ・ ↑ L) / (| ↑ n || ↑ L |)} + k s {(↑ R ・ ↑ S) n / (| ↑ R || ↑ S |) n }] ... Equation 15

【0028】コンピュータ・グラフィクス・システムで
はモデル・データをXYZ座標系で保持していることが
多いので,主に式15が用いられ,cosθやcosn α
の計算を避けるようにしている。
In computer graphics systems, since model data is often held in the XYZ coordinate system, equation 15 is mainly used, and cos θ and cos n α are used.
I try to avoid the calculation of.

【0029】いずれにしても,各ピクセルの輝度データ
を得るためには式12または式15の計算がピクセルごとに
必要であり,計算量が膨大であり,陰影画像データを得
るためにきわめて長い時間がかかる。
In any case, the calculation of Expression 12 or Expression 15 is required for each pixel in order to obtain the luminance data of each pixel, the amount of calculation is enormous, and it takes an extremely long time to obtain the shadow image data. Takes.

【0030】[0030]

【発明の開示】この発明は,輝度計算を高速で処理でき
るハードウェアを提供することを目的とする。
DISCLOSURE OF THE INVENTION An object of the present invention is to provide hardware capable of processing luminance calculation at high speed.

【0031】この発明はまた,良質の画像データを得る
ことを目的とする。
Another object of the present invention is to obtain high quality image data.

【0032】この発明は,物体モデルを多数の小平面か
らなる多面体で近似的に表わし,この多面体の各頂点に
おける位置座標と法線ベクトルにより構成されるモデル
・データを与え,このモデル・データを用いて表示画面
上の多数のピクセルの輝度を求め,求めた輝度にしたが
って物体の陰影画を描くための画像処理方法において,
物体を見る観察位置および物体を照明する仮想光源の位
置に関する情報を与え,これらの与えられた情報および
モデル・データを用いて,各頂点における光源からの光
の入射角θおよび正反射光の方向と観察方向との角度差
αを算出し,小平面を表わすための各ピクセルにおける
入射角および角度差を,近接する3頂点の入射角および
角度差を用いて補間法により求め,求められた各ピクセ
ルにおける入射角および角度差を用いてそのピクセルの
輝度を算出するものである。
According to the present invention, an object model is approximately represented by a polyhedron composed of a large number of small planes, model data composed of position coordinates and normal vectors at each vertex of this polyhedron is given, and this model data is given. In the image processing method for calculating the brightness of many pixels on the display screen using the calculated brightness and drawing the shadow image of the object according to the calculated brightness,
Information about the observation position to see the object and the position of the virtual light source that illuminates the object is given. Using these given information and model data, the incident angle θ of the light from the light source at each vertex and the direction of specular reflection light are given. The angle difference α between the observation direction and the observation direction is calculated, and the incident angle and the angle difference at each pixel for representing the small plane are obtained by the interpolation method using the incident angle and the angle difference at the three adjacent vertices. The brightness of the pixel is calculated using the incident angle and the angle difference in the pixel.

【0033】この発明によると,上述した従来の法線ベ
クトル補間に代えて,入射角および角度差における補間
処理を行うようにしたので,補間区間における角度変化
が大きい場合でも正確な補間を行うことができ,各ピク
セルにおける正確な入射角および角度差のデータが得ら
れる。したがって,たとえば曲率半径の小さい曲面を小
平面の集合によって表現したモデルにおいても,むらの
ない画像表示が可能となる。
According to the present invention, the interpolation processing for the incident angle and the angle difference is performed in place of the conventional normal vector interpolation described above, so that accurate interpolation can be performed even when the angle change in the interpolation section is large. Therefore, accurate incident angle and angle difference data at each pixel can be obtained. Therefore, even in a model in which a curved surface with a small radius of curvature is represented by a set of small planes, it is possible to display images evenly.

【0034】好ましくは,各ピクセルにおける入射角お
よび角度差を用いてそのピクセルの輝度を算出する処理
を専用のハードウェアによる回路を用いて行う。
Preferably, the processing for calculating the brightness of each pixel by using the incident angle and the angle difference in each pixel is performed using a dedicated hardware circuit.

【0035】この発明はそのための専用ハードウェア回
路を提供している。各ピクセルにおける入射角および角
度差から輝度を算出するためのこの発明による専用ハー
ドウェアは,与えられる観察距離データdと最短距離パ
ラメータKとを加算する第1の加算回路,第1の加算回
路の出力が入力となり,入力の逆数を表わす出力を発生
する第1のルックアップテーブル,与えられる入射角デ
ータθを入力とし,cosθを表わす出力を発生する第
2のルックアップテーブル,与えられる角度差データα
および反射方向性次数nを入力とし,cosn αを表わ
す出力を発生する第3のルックアップテーブル,与えら
れる光源輝度データIl と第1のルックアップテーブル
の出力との積を演算する第1の乗算回路,与えられる拡
散反射係数データkd と第2のルックアップテーブルの
出力との積を演算する第2の乗算回路,与えられる鏡面
反射係数データks と第3のルックアップテーブルの出
力との積を演算する第3の乗算回路,第2の乗算回路の
出力と第3の乗算回路の出力とを加算する第2の加算回
路,第1の乗算回路の出力と第2の加算回路の出力との
積を演算する第4の乗算回路,ならびに与えられる周囲
光量に関するデータka ×Ia と第4の乗算回路の出力
とを加算する第3の加算回路を備えている。
The present invention provides a dedicated hardware circuit therefor. The dedicated hardware according to the present invention for calculating the brightness from the incident angle and the angle difference in each pixel is provided with the first adder circuit and the first adder circuit for adding the given observation distance data d and the shortest distance parameter K. Output is an input, a first look-up table that generates an output that represents the reciprocal of the input, a second look-up table that receives the given incident angle data θ and that produces an output that represents cos θ, the given angle difference data α
And a third look-up table for generating an output representing cos n α by inputting the reflection direction order n, and a first look-up table for computing the product of given light source luminance data I l and the output of the first look-up table. , A second multiplication circuit for calculating the product of given diffuse reflection coefficient data k d and the output of the second look-up table, given specular reflection coefficient data k s and the output of the third look-up table And a second addition circuit for adding the output of the second multiplication circuit and the output of the third multiplication circuit, the output of the first multiplication circuit and the second addition circuit And a third adder circuit for adding the output data of the fourth multiplier circuit to the data k a × I a related to the given ambient light amount.

【0036】この発明の好ましい実施態様においては,
与えられる最短距離パラメータK,反射方向性次数n,
光源輝度Il ,拡散反射係数kd ,鏡面反射係数ks
よび周囲光量に関するデータka ×Ia をそれぞれ一時
記憶するレジスタがさらに備えられる。
In a preferred embodiment of this invention,
Given shortest distance parameter K, reflection directionality n,
A register for temporarily storing the light source luminance I l , the diffuse reflection coefficient k d , the specular reflection coefficient k s, and the data k a × I a relating to the amount of ambient light is further provided.

【0037】この専用ハードウェアは,回路全体を複数
のステージに分け,与えられるクロック信号に同期して
パイプライン処理により演算を実行する構成とすること
ができる。
This dedicated hardware can be constructed so that the entire circuit is divided into a plurality of stages and the arithmetic processing is executed by pipeline processing in synchronization with the clock signal supplied.

【0038】このように,各ピクセルにおける輝度を計
算する回路を専用ハードウェアにより構成したので,処
理速度が著しく向上する。
As described above, since the circuit for calculating the brightness in each pixel is constructed by the dedicated hardware, the processing speed is remarkably improved.

【0039】[0039]

【実施例の説明】図3は式12によって表わされるピクセ
ルごとの輝度計算を行う電気回路のハードウェア・アー
キテクチャを示している。このアーキテクチャは,クロ
ック信号により同期をとってパイプライン動作で計算処
理を進行させるように構成されており,ステージ1〜3
の3つのステージからなる。まずステージ1において計
算処理が行なわれ,その処理が終了するとその計算結果
をステージ2に移し,ステージ2における計算処理が行
われる。次にステージ2における計算処理結果がステー
ジ3に転送され,ステージ3における計算処理が実行さ
れる。ステージ3から最終結果であるピクセルPでの観
察輝度IP が得られる。
DESCRIPTION OF THE PREFERRED EMBODIMENT FIG. 3 shows the hardware architecture of an electrical circuit that performs the pixel-by-pixel intensity calculation represented by Equation 12. This architecture is configured so that calculation processing proceeds by pipeline operation in synchronization with a clock signal, and stages 1 to 3 are performed.
It consists of three stages. First, calculation processing is performed in stage 1, and when the processing is completed, the calculation result is transferred to stage 2, and calculation processing in stage 2 is performed. Next, the calculation processing result in stage 2 is transferred to stage 3, and the calculation processing in stage 3 is executed. From stage 3, the final result is the observed brightness I P at pixel P.

【0040】ステージ1には最短距離パラメータKのた
めのレジスタ18および反射方向性次数nのためのレジス
タ19が,ステージ2には光源輝度Il のためのレジスタ
27,拡散反射係数kd のためのレジスタ28および鏡面反
射係数ks のためのレジスタ29が,ステージ3には周囲
光反射係数ka と周囲光輝度Ia との積ka ×Ia のた
めのレジスタ34がそれぞれ設けられている。これらの
K,n,Il ,kd ,ks およびka ×Ia は定数であ
り,計算処理の開始の前にコンピュータのCPUからデ
ータ・バスを通して転送され,対応するレジスタ18,1
9,27,28,29および34にそれぞれあらかじめ格納され
る。
The stage 1 has a register 18 for the shortest distance parameter K and the register 19 for the reflection direction order n, and the stage 2 has a register for the light source luminance I l.
27, a register 28 for the diffuse reflection coefficient k d and a register 29 for the specular reflection coefficient k s are provided on the stage 3 with a product of the ambient light reflection coefficient k a and the ambient light brightness I a of k a × I a . Registers 34 are provided for each of them. These K, n, I l , k d , k s and k a × I a are constants and are transferred from the CPU of the computer through the data bus to the corresponding registers 18, 1 before the start of the calculation process.
Pre-stored in 9, 27, 28, 29 and 34 respectively.

【0041】ステージ1において,コンピュータのCP
Uから点Pについての観察距離d,および角度θ,αを
表わすデータが与えられる。距離データdは加算回路17
においてレジスタ18に記憶されているパラメータKと加
算され,この加算結果d+Kがルックアップテーブル
(LUT)11に与えられる。LUT11はメモリであっ
て,入力データxに対応してその逆数1/xを表わすデ
ータがあらかじめ記憶されている。入力データxによっ
てその逆数1/xを表わすデータの記憶場所をアドレス
するように構成するとよい。加算結果d+KがLUT11
に与えられると,LUT11から1/(d+K)が読出さ
れ,ラッチ回路14に一時記憶される。
In stage 1, the computer CP
Data representing the observation distance d from U to the point P and the angles θ and α are given. The distance data d is added to the adder circuit 17
In step S11, the result is added to the parameter K stored in the register 18, and the addition result d + K is given to the look-up table (LUT) 11. The LUT 11 is a memory in which data representing the reciprocal 1 / x of the input data x is stored in advance. The input data x may be configured to address the storage location of data representing the reciprocal 1 / x. Addition result d + K is LUT11
1 / (d + K) is read from the LUT 11 and temporarily stored in the latch circuit 14.

【0042】点Pに対する光源からの入射光の入射角θ
を表わすデータはルックアップテーブル(LUT)12に
与えられる。LUT12はメモリであって,入力データθ
に対応してcosθを表わすデータがあらかじめ記憶さ
れている。LUT12には入力データθを表わすデータを
アドレスとして,そのアドレスによって指定される記憶
場所にデータcosθを記憶しておくとよい。LUT12
から読出されるデータcosθはラッチ回路15に一時記
憶される。
Incident angle θ of the incident light from the light source with respect to the point P
Is supplied to a look-up table (LUT) 12. The LUT 12 is a memory, and the input data θ
The data representing cos θ is stored in advance in correspondence with. In the LUT 12, data representing the input data θ may be used as an address, and the data cos θ may be stored in a storage location designated by the address. LUT12
The data cos θ read from is temporarily stored in the latch circuit 15.

【0043】点Pについての正反射方向と観察方向との
角度差αを表わすデータはルックアップテーブル(LU
T)13に与えられる。LUT13はメモリであって,角度
差αに対応してcosn αを表わすデータが反射方向性
次数nごとにあらかじめ記憶されている。次数nを表わ
すデータはレジスタ19に記憶されている。LUT13にお
いてはこの次数nに応じてページ切替えが行われ,レジ
スタ19に記憶されている次数nに関するcosn αを表
わすデータがアクセス可能となる。LUT13においても
好ましくは,次数nによって開かれたページのデータc
osn αが角度差αを表わすデータをアドレスとしてア
クセスされる。LUT13から読出されたデータcosn
αはラッチ回路16に一時記憶される。
The data representing the angle difference α between the specular reflection direction and the observation direction for point P is a look-up table (LU
T) given to 13. The LUT 13 is a memory, and data representing cos n α corresponding to the angle difference α is stored in advance for each reflection direction order n. Data representing the order n is stored in the register 19. In the LUT 13, page switching is performed according to the order n, and the data stored in the register 19 and representing cos n α for the order n can be accessed. Also in the LUT 13, preferably, the data c of the page opened by the degree n
Os n α is accessed by using the data representing the angle difference α as an address. Data cos n read from LUT13
α is temporarily stored in the latch circuit 16.

【0044】ラッチ回路14,15および16にそれぞれ記憶
されているデータ1/(d+K),cosθおよびco
n αは次のクロック信号のタイミングでステージ2に
転送され,それぞれ乗算回路21,22および23に与えられ
る。
Data 1 / (d + K), cos θ and co stored in the latch circuits 14, 15 and 16, respectively.
s n α is transferred to the stage 2 at the timing of the next clock signal and given to the multiplication circuits 21, 22 and 23, respectively.

【0045】乗算回路21は,レジスタ27に記憶されてい
る定数Il と入力する1/(d+K)との積Il /(d
+K)を算出する。その乗算結果はラッチ回路25に一時
記憶される。
The multiplication circuit 21 multiplies the constant I l stored in the register 27 and the input 1 / (d + K) by the product I l / (d
+ K) is calculated. The multiplication result is temporarily stored in the latch circuit 25.

【0046】乗算回路22は,レジスタ28に記憶されてい
る定数kd と入力するデータcosθとの積を算出す
る。その乗算結果kd cosθはただちに加算回路24に
与えられる。同じように,乗算回路23は,レジスタ29に
記憶されている定数ks と入力するデータcosn αと
の積を算出する。この乗算結果ks cosn αはただち
に加算回路24に与えられる。
The multiplication circuit 22 calculates the product of the constant k d stored in the register 28 and the input data cos θ. The multiplication result k d cos θ is immediately given to the adder circuit 24. Similarly, the multiplication circuit 23 calculates the product of the constant k s stored in the register 29 and the input data cos n α. The multiplication result k s cos n α is immediately given to the adder circuit 24.

【0047】加算回路24は入力する乗算結果kd cos
θとks cosn αとを加算する。その加算結果はラッ
チ回路26に一時記憶される。
The adder circuit 24 inputs the multiplication result k d cos
Add θ and k s cos n α. The addition result is temporarily stored in the latch circuit 26.

【0048】このように先のデータについての乗算と加
算がステージ2で行われている間に,ステージ1では次
のピクセルについての入力データd,θ,αに基づいて
各LUT11,12,13からのデータの読出しとラッチとが
行われるのはいうまでもない。
In this way, while the multiplication and the addition for the previous data are performed in the stage 2, in the stage 1, from the LUTs 11, 12, 13 based on the input data d, θ, α for the next pixel. It goes without saying that the data reading and latching are performed.

【0049】次のクロック信号によって,ラッチ回路2
5,26にそれぞれ記憶されているデータが次段のステー
ジ3に転送される。このとき,ステージ1のラッチ回路
14〜16に一時記憶されているデータがステージ2に転送
されるのはいうまでもない。
By the next clock signal, the latch circuit 2
The data stored in 5 and 26 are transferred to the next stage, stage 3. At this time, the latch circuit of stage 1
It goes without saying that the data temporarily stored in 14 to 16 are transferred to the stage 2.

【0050】ラッチ回路25および26からそれぞれステー
ジ3に転送されたデータは乗算回路31に与えられ,式12
の右辺第2項が算出される。この演算結果は加算回路32
に入力する。加算回路32にはレジスタ34から式12の右辺
第1項が与えられているので,これらの2つの入力デー
タが加算されることにより,式12によって表わされる観
察輝度データIP が得られる。このデータIP はラッチ
回路33にラッチされる。
The data transferred from the latch circuits 25 and 26 to the stage 3 are given to the multiplication circuit 31,
The second term on the right side of is calculated. The result of this operation is the adder circuit 32.
To enter. Since the first term on the right-hand side of Expression 12 is given to the adder circuit 32 from the register 34, the observation luminance data I P represented by Expression 12 is obtained by adding these two input data. This data IP is latched by the latch circuit 33.

【0051】次のクロック信号のタイミングでラッチ回
路33の輝度データIP が出力される。このとき,ステー
ジ1の算出データはステージ2に,ステージ2のデータ
がステージ3に送られるのはいうまでもない。
The luminance data I P of the latch circuit 33 is output at the timing of the next clock signal. At this time, it goes without saying that the calculated data of stage 1 is sent to stage 2, and the data of stage 2 is sent to stage 3.

【0052】このようにして,入力データd,θ,αを
順次与えることにより,クロック周期ごとに各ピクセル
の輝度IP が順次得られ,迅速な輝度計算が実行され
る。
In this way, by sequentially inputting the input data d, θ, and α, the brightness I P of each pixel is sequentially obtained for each clock cycle, and a quick brightness calculation is executed.

【0053】上述したレジスタ18,19,27,28,29およ
び34の定数データは一つの物体モデルについてすべての
ピクセルの輝度データの算出が終了するまで固定してお
いてもよいし,適当な定数を適当なタイミングで変更し
てもよい。たとえば,反射方向性次数n,拡散反射係数
d ,鏡面反射係数ks は多面体を構成する小平面ごと
に異なる場合があるので,小平面における全ピクセルに
ついての輝度データの算出ごとにこれらの値を変更する
ようにしてもよい。
The constant data of the registers 18, 19, 27, 28, 29 and 34 described above may be fixed until the calculation of the brightness data of all pixels for one object model is completed, or an appropriate constant. May be changed at an appropriate timing. For example, the reflection direction order n, the diffuse reflection coefficient k d , and the specular reflection coefficient k s may be different for each small plane forming the polyhedron, so these values are calculated every time the luminance data is calculated for all pixels on the small plane. May be changed.

【0054】図4はコンピュータ・グラフィクス・シス
テムにおける全体的な処理手順を示している。この処理
はコンピュータのCPUによって実行される。
FIG. 4 shows the overall processing procedure in the computer graphics system. This processing is executed by the CPU of the computer.

【0055】まず物体のモデル・データが作成または入
力される(ステップ41)。モデル・データは上述のよう
に,物体を近似的に表わす多面体の頂点の座標データ
(三次元仮想空間における座標=ワールド座標)と,そ
の点における接平面法線ベクトルを表わすデータとの対
からなり,この対データが全頂点について与えられる。
また,上述した各種定数Ia ,Il ,ka ,d,K,k
d ,ks ,nが与えられる。
First, model data of an object is created or input (step 41). As described above, the model data consists of a pair of coordinate data of the vertices of a polyhedron that approximately represents an object (coordinates in three-dimensional virtual space = world coordinates) and data representing a tangential plane normal vector at that point. , This paired data is given for all vertices.
Also, the above-mentioned various constants I a , I l , k a , d, K, k
d , k s , n are given.

【0056】次に,各頂点について(ステップ44),座
標変換(ステップ42)と,方位角度θ,αの算出(ステ
ップ43)とが行われる。このために視点(観察)位置,
光源位置等の情報が入力される。
Next, for each vertex (step 44), coordinate conversion (step 42) and calculation of azimuth angles θ and α (step 43) are performed. For this purpose, the viewpoint (observation) position,
Information such as the light source position is input.

【0057】座標変換は,各頂点のワールド座標(三次
元)を表示座標(二次元)に変換するもので,この変換
のために視点位置情報が用いられる。この座標変換処理
は公知の処理であり,かつこの発明と特に関係ないので
詳述を避ける。
The coordinate transformation is to transform the world coordinates (three-dimensional) of each vertex into display coordinates (two-dimensional), and the viewpoint position information is used for this transformation. This coordinate conversion process is a known process and is not particularly related to the present invention, so a detailed description thereof will be omitted.

【0058】方位角度θとαの算出は式13および式14を
用いて行われる。
The calculation of the azimuth angles θ and α is performed using Equations 13 and 14.

【0059】法線ベクトル↑nP ,光源方向ベクトル↑
L,観察方向ベクトル↑Sおよび反射方向ベクトル↑R
を次のように置く。
Normal vector ↑ n P , light source direction vector ↑
L, observation direction vector ↑ S and reflection direction vector ↑ R
Put as follows.

【0060】 法線ベクトル: ↑nP =(nx ,ny ,nz ) 光源方向ベクトル:↑L=(Lx ,Ly ,Lz ) 観察方向ベクトル:↑S=(Sx ,Sy ,Sz ) 反射方向ベクトル:↑R=(Rx ,Ry ,Rz [0060] the normal vector: ↑ n P = (n x , n y, n z) the light source direction vector: ↑ L = (L x, L y, L z) viewing direction vector: ↑ S = (S x, S y , S z ) Reflection direction vector: ↑ R = (R x , R y , R z )

【0061】 一方, (↑n・↑L)=nx x +ny y +nz z …式16 |↑n|=(nx 2 +ny 2 +nz 2 1/2 …式17 |↑L|=(Lx 2 +Ly 2 +Lz 2 1/2 …式18 であるから,式13にこれらを代入すると, cosθ=(nx x +ny y +nz z )/ [(nx 2 +ny 2 +nz 2 )(Lx 2 +Ly 2 +Lz 2 )]1/2 …式19 θ=cos-1[(nx x +ny y +nz z )/ [(nx 2 +ny 2 +nz 2 )(Lx 2 +Ly 2 +Lz 2 )]1/2 …式20On the other hand, (↑ n · ↑ L) = n x L x + n y L y + n z L z Equation 16 | ↑ n | = (n x 2 + ny 2 + nz 2 ) 1/2 Equation 17 | ↑ L | = (L x 2 + L y 2 + L z 2 ) 1/2 Since equation 18 is substituted, cos θ = (n x L x + n y L y + n z L z ) / [(N x 2 + ny 2 + nz 2 ) (L x 2 + L y 2 + L z 2 )] 1/2 ... Formula 19 θ = cos -1 [(n x L x + ny y L y + nz z ) / [(N x 2 + ny 2 + nz 2 ) (L x 2 + L y 2 + L z 2 )] 1/2 ... Equation 20

【0062】同様にして角度差αも次式により得られ
る。
Similarly, the angle difference α is also obtained by the following equation.

【0063】 α=cos-1[(Rx x +Ry y +Rz z )/ [(Rx 2 +Ry 2 +Rz 2 )(Sx 2 +Sy 2 +Sz 2 )]1/2 …式21Α = cos −1 [(R x S x + R y S y + R z S z ) / [(R x 2 + R y 2 + R z 2 ) (S x 2 + S y 2 + S z 2 )] 1 / 2 ... Equation 21

【0064】次に,ステップ45〜48の処理が表示画面上
のすべてのピクセルについて行われる(ステップ49)。
Next, the processes of steps 45 to 48 are performed for all the pixels on the display screen (step 49).

【0065】表示画面における頂点の奥行き方向の距離
(Z深度)を用いて直線補間法により各ピクセルのZ深
度を求め(ステップ45),Z深度の浅い画像によって隠
れてしまって表示され得ない点があるかどうかがチェッ
クされる(ステップ46)。このような隠れる点について
は表示されないから輝度を算出する必要はないので,以
下のステップ47,48には進まない。
The Z depth of each pixel is obtained by the linear interpolation method using the distance (Z depth) in the depth direction of the vertices on the display screen (step 45), and hidden by the image with shallow Z depth and cannot be displayed. Is checked (step 46). Since such hidden points are not displayed, it is not necessary to calculate the luminance, and therefore the process does not proceed to steps 47 and 48 below.

【0066】表示可能な各ピクセルについて,それに近
接する3つの頂点の角度データθ,αを用いて,方位角
度データθ,αをそれぞれ補間法により算出する(ステ
ップ47)。各ピクセルのデータθ,αの補間法は図1を
用いて説明した法線ベクトルの補間法と全く同じ手法で
ある。式6においてxQ をθQ またはαQ ,xA をθA
またはαA ,xB をθB またはαB と置きかえればよ
い。また,式9において,xR をθR またはαR ,xA
をθA またはαA ,xC をθC またはαC と置きかえれ
ばよい。
For each displayable pixel, the azimuth angle data θ and α are calculated by the interpolation method using the angle data θ and α of the three vertices close to the pixel (step 47). The interpolation method of the data θ and α of each pixel is exactly the same as the interpolation method of the normal vector described with reference to FIG. In Equation 6, x Q is θ Q or α Q , x A is θ A
Alternatively, α A and x B may be replaced with θ B or α B. In equation 9, x R is θ R or α R , x A
Can be replaced with θ A or α A , and x C can be replaced with θ C or α C.

【0067】図5は2つの補間法の差を示している。FIG. 5 shows the difference between the two interpolation methods.

【0068】ベクトル↑V1と↑V2から,上述した従
来の直交座標成分を用いた補間法により作成されたベク
トルが鎖線で示す↑V4である。この補間法によるとベ
クトル↑V4がベクトル↑V1,↑V2よりも短くなっ
てベクトルの長さの保存が成立しなくなるばかりでな
く,中央付近のベクトル↑V4において角度変化が大き
くなる。このことは特にベクトル↑V1と↑V2の角度
差が大きい場合に顕著になる。
A vector created from the vectors ↑ V1 and ↑ V2 by the interpolation method using the above-described conventional orthogonal coordinate component is ↑ V4 shown by a chain line. According to this interpolation method, the vector ↑ V4 becomes shorter than the vectors ↑ V1 and ↑ V2, and not only the preservation of the vector length cannot be established, but also the angle change becomes large in the vector ↑ V4 near the center. This becomes remarkable especially when the angle difference between the vectors ↑ V1 and ↑ V2 is large.

【0069】実線で示すベクトル↑V3は,ベクトル↑
V1,↑V2から角度補間により作成したものである。
角度補間によると,作成されたベクトル↑V3の長さも
保存され,また相互の角度間隔も等しく設定できる。
The vector ↑ V3 shown by the solid line is the vector ↑ V3.
It is created by angle interpolation from V1 and ↑ V2.
According to the angle interpolation, the length of the created vector ↑ V3 is also saved, and the mutual angular intervals can be set equally.

【0070】このように,各ピクセルにおける方位角度
θ,αを補間することにより,隣接する頂点における方
位角度の差(変化)が大きい場合でも正確な補間が可能
となる。たとえば曲率半径の小さい曲面を小平面の集合
で表現したモデルでもむらの少ない画面表示が可能とな
る。
As described above, by interpolating the azimuth angles θ and α in each pixel, accurate interpolation can be performed even when the difference (change) in azimuth angles between adjacent vertices is large. For example, a model in which a curved surface with a small radius of curvature is represented by a set of small planes can be displayed on a screen with less unevenness.

【0071】このようにして,各ピクセルについて角度
θとαが求められると,図3に示すハードウェア回路に
これらのデータθ,αとともに観察距離データdを与え
ることにより,各ピクセルの輝度データIP が得られる
(ステップ48)。
In this way, when the angles θ and α are obtained for each pixel, the hardware circuit shown in FIG. 3 is provided with the observation distance data d together with these data θ and α so that the luminance data I of each pixel is obtained. P is obtained (step 48).

【0072】複数の物体モデルがある場合には,上述し
たステップ42〜49の処理が物体の数だけ繰返される(ス
テップ50)。このとき,前方にある物体によって隠され
てしまう後方の物体の部分についてはステップ46の判断
により,輝度計算が行なわれない。
When there are a plurality of object models, the above-mentioned steps 42 to 49 are repeated for each object (step 50). At this time, the brightness calculation is not performed for the portion of the rear object that is hidden by the front object, as determined in step 46.

【0073】このようにして得られたピクセルごとの輝
度データを用いて物体モデルが表示装置の表示画面に表
示される(ステップ51)。物体モデルについてのデータ
がR,G,Bの三原色について与えられていた場合に
は,三原色についての輝度データが得られ,物体はカラ
ー表示されることになる。
The object model is displayed on the display screen of the display device using the brightness data for each pixel thus obtained (step 51). If the data for the object model is given for the three primary colors R, G, B, the luminance data for the three primary colors are obtained, and the object is displayed in color.

【図面の簡単な説明】[Brief description of drawings]

【図1】Phong の方法による画像生成処理のうち,法線
ベクトルの補間の様子を示すものである。
FIG. 1 shows how normal vectors are interpolated in the image generation processing by the Phong method.

【図2】Phong の方法による画像生成処理のうち,ピク
セル輝度の算出を説明するためのベクトル図である。
FIG. 2 is a vector diagram for explaining calculation of pixel luminance in the image generation processing by the Phong method.

【図3】この発明の実施例を示し,各ピクセルにおける
入射角と角度差から輝度を算出する専用ハードウェアを
示すブロック図である。
FIG. 3 is a block diagram showing dedicated hardware for calculating luminance from an incident angle and an angular difference in each pixel according to the embodiment of the present invention.

【図4】この発明による実施例を示し,画像処理手順を
表わすフロー・チャートである。
FIG. 4 is a flow chart showing an image processing procedure according to the embodiment of the present invention.

【図5】直交座標成分による方向ベクトルの補間と角度
による方向ベクトルの補間との差を示すベクトル図であ
る。
FIG. 5 is a vector diagram showing a difference between the interpolation of the direction vector by the orthogonal coordinate component and the interpolation of the direction vector by the angle.

【符号の説明】[Explanation of symbols]

11,12,13 ルックアップテーブル 14,15,16,25,26,33 ラッチ回路 17,24,32 加算回路 21,22,23,31 乗算回路 18,19,27,28,29,34 レジスタ 11, 12, 13 Look-up table 14, 15, 16, 25, 26, 33 Latch circuit 17, 24, 32 Adder circuit 21, 22, 23, 31 Multiplier circuit 18, 19, 27, 28, 29, 34 register

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 物体モデルを多数の小平面からなる多面
体で近似的に表わし,この多面体の各頂点における位置
座標と法線ベクトルにより構成されるモデル・データを
与え,このモデル・データを用いて表示画面上の多数の
ピクセルの輝度を求め,求めた輝度にしたがって物体の
陰影画を描くための画像処理方法において,物体を見る
観察位置および物体を照明する仮想光源の位置に関する
情報を与え,これらの与えられた情報およびモデル・デ
ータを用いて,各頂点における光源からの光の入射角θ
および正反射光の方向と観察方向との角度差αを算出
し,小平面を表わすための各ピクセルにおける入射角お
よび角度差を,近接する3頂点の入射角および角度差を
用いて補間法により求め,求められた各ピクセルにおけ
る入射角および角度差を用いてそのピクセルの輝度を算
出する,画像処理方法。
1. An object model is approximately represented by a polyhedron composed of a large number of small planes, model data composed of position coordinates and normal vectors at each vertex of this polyhedron is given, and this model data is used. In the image processing method for obtaining the brightness of many pixels on the display screen and drawing the shadow image of the object according to the calculated brightness, information about the observation position to see the object and the position of the virtual light source illuminating the object is given. Incident angle θ from the light source at each vertex using the given information and model data of
And the angle difference α between the direction of the specularly reflected light and the observation direction is calculated, and the incident angle and the angle difference at each pixel for representing the facet are interpolated by using the incident angles and the angle differences of the three adjacent vertices. An image processing method in which the brightness of each pixel is calculated using the angle of incidence and the angle difference in each pixel that is calculated.
【請求項2】 各ピクセルにおける入射角および角度差
を用いてそのピクセルの輝度を算出する処理を専用のハ
ードウェアによる回路を用いて行う,請求項1に記載の
画像処理方法。
2. The image processing method according to claim 1, wherein the process of calculating the brightness of the pixel by using the incident angle and the angle difference in each pixel is performed by using a circuit with dedicated hardware.
【請求項3】 与えられる観察距離データ(d)と最短
距離パラメータ(K)とを加算する第1の加算回路(1
7),第1の加算回路の出力が入力となり,入力の逆数
を表わす出力を発生する第1のルックアップテーブル
(11),与えられる入射角データ(θ)を入力とし,c
osθを表わす出力を発生する第2のルックアップテー
ブル(12),与えられる角度差データ(α)および反射
方向性次数(n)を入力とし,cosn αを表わす出力
を発生する第3のルックアップテーブル(13),与えら
れる光源輝度データ(Il )と第1のルックアップテー
ブルの出力との積を演算する第1の乗算回路(21),与
えられる拡散反射係数データ(kd )と第2のルックア
ップテーブルの出力との積を演算する第2の乗算回路
(22),与えられる鏡面反射係数データ(ks )と第3
のルックアップテーブルの出力との積を演算する第3の
乗算回路(23),第2の乗算回路の出力と第3の乗算回
路の出力とを加算する第2の加算回路(24),第1の乗
算回路の出力と第2の加算回路の出力との積を演算する
第4の乗算回路(31),ならびに与えられる周囲光量に
関するデータ(ka ×Ia )と第4の乗算回路の出力と
を加算する第3の加算回路(32),を備えた画像処理装
置。
3. A first adder circuit (1) for adding given observation distance data (d) and shortest distance parameter (K).
7), the first look-up table (11) that receives the output of the first adder circuit as an input and generates an output that represents the reciprocal of the input, receives the incident angle data (θ) as input, and c
A second look-up table (12) for generating an output representing osθ, a third look-up table for inputting given angular difference data (α) and reflection directionality (n), and generating an output representing cos n α An up table (13), a first multiplication circuit (21) for calculating a product of given light source luminance data (I l ) and an output of the first lookup table, and given diffuse reflection coefficient data (k d ). A second multiplication circuit (22) for calculating the product of the output of the second lookup table, the given specular reflection coefficient data (k s ) and the third
A third multiplication circuit (23) for calculating the product of the output of the lookup table and the second addition circuit (24) for adding the output of the second multiplication circuit and the output of the third multiplication circuit, A fourth multiplication circuit (31) that calculates the product of the output of the first multiplication circuit and the output of the second addition circuit, and the data (k a × I a ) related to the given amount of ambient light and the fourth multiplication circuit An image processing device comprising a third addition circuit (32) for adding the output and.
【請求項4】 与えられる最短距離パラメータ(K),
反射方向性次数(n),光源輝度(Il ),拡散反射係
数(kd ),鏡面反射係数(ks )および周囲光量に関
するデータ(ka ×Ia )をそれぞれ一時記憶するレジ
スタ(18,19,27,28,29,34)をさらに備えている,
請求項3に記載の画像処理装置。
4. A given minimum distance parameter (K),
A register (18) for temporarily storing the reflection direction order (n), the light source luminance (I l ), the diffuse reflection coefficient (k d ), the specular reflection coefficient (k s ), and the data (k a × I a ) related to the ambient light amount. , 19, 27, 28, 29, 34),
The image processing apparatus according to claim 3.
【請求項5】 複数のステージに分けられ,与えられる
クロック信号に同期してパイプライン処理により演算を
実行する,請求項3または4に記載の画像処理装置。
5. The image processing apparatus according to claim 3, wherein the image processing apparatus is divided into a plurality of stages and executes an arithmetic operation by pipeline processing in synchronization with a supplied clock signal.
JP10384592A 1992-03-31 1992-03-31 Method and device for image processing Pending JPH05282466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10384592A JPH05282466A (en) 1992-03-31 1992-03-31 Method and device for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10384592A JPH05282466A (en) 1992-03-31 1992-03-31 Method and device for image processing

Publications (1)

Publication Number Publication Date
JPH05282466A true JPH05282466A (en) 1993-10-29

Family

ID=14364775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10384592A Pending JPH05282466A (en) 1992-03-31 1992-03-31 Method and device for image processing

Country Status (1)

Country Link
JP (1) JPH05282466A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160152A (en) * 1999-12-03 2001-06-12 Namco Ltd Image generation system and information storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160152A (en) * 1999-12-03 2001-06-12 Namco Ltd Image generation system and information storage medium
US7015908B2 (en) 1999-12-03 2006-03-21 Namco Ltd. Image generation system and information storage medium

Similar Documents

Publication Publication Date Title
US4709231A (en) Shading apparatus for displaying three dimensional objects
US5224208A (en) Gradient calculation for texture mapping
US8441497B1 (en) Interpolation of vertex attributes in a graphics processor
US6417858B1 (en) Processor for geometry transformations and lighting calculations
JP3885262B2 (en) Method for mixing a plurality of pixels on a texture map, and a plurality of pixel mixing circuit and image processing apparatus using the same
US10593096B2 (en) Graphics processing employing cube map texturing
JPH05307610A (en) Texture mapping method and its device
US5739820A (en) Method and apparatus for specular reflection shading of computer graphic images
JPH09231404A (en) Picture processing method for displaying object, and device therefor
JPS6380375A (en) Texture mapping device
JPH10326351A (en) Image production method and device therefor
US6175368B1 (en) Method and apparatus for object rendering including bump mapping
JPH0434159B2 (en)
JPH11161819A (en) Image processor, its method and recording medium recording image processing program
KR20040041083A (en) Rendering method
JPH05282466A (en) Method and device for image processing
JP4060375B2 (en) Spotlight characteristic forming method and image processing apparatus using the same
JPH11185054A (en) Image processor
KR100848687B1 (en) 3-dimension graphic processing apparatus and operating method thereof
KR100260040B1 (en) Method and apparatus for determining texture coordinates in computer graphics
US6429866B1 (en) Three-dimensional graphics drawing apparatus calculating tone of pixel based on tones of pixels at prescribed intervals, method thereof and medium recorded with program therefor
JPH0345427B2 (en)
KR20060082736A (en) Method and apparatus for 3 dimension rendering processing using the monochromatic lighting
JPH05298456A (en) Texture mapping system
JP2000057372A (en) Image processor, image processing method and storage medium