JPH11144082A - Image generating device - Google Patents

Image generating device

Info

Publication number
JPH11144082A
JPH11144082A JP9306875A JP30687597A JPH11144082A JP H11144082 A JPH11144082 A JP H11144082A JP 9306875 A JP9306875 A JP 9306875A JP 30687597 A JP30687597 A JP 30687597A JP H11144082 A JPH11144082 A JP H11144082A
Authority
JP
Japan
Prior art keywords
polygon
unit
image
area
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9306875A
Other languages
Japanese (ja)
Inventor
Yoshimori Nakase
義盛 中瀬
Noriyuki Sagishima
敬之 鷺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP9306875A priority Critical patent/JPH11144082A/en
Publication of JPH11144082A publication Critical patent/JPH11144082A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To delete coordinate transformation and luminance calculation by frame by saving polygon information and image by polygon unit and separating image generation into a polygon for which new luminance calculation is performed and a polygon for deforming the saved polygon image at new time. SOLUTION: A coordinate transformation part 11 performs transformation to a view point coordinate system, a three-dimensional image coordinate system by perspective transformation, and finally a screen coordinate system to calculate a polygonal region, which is saved in a polygon information saving part 12. Then, a luminance calculation part 13 calculates, for example, the luminance of each vertex of the polygon based on the distance from a light source and finds the pixels in the polygon by interpolating the luminance of three vertexes. Then, a movement quantity decision part 15 decides whether or not the movement quantity of the polygonal region is within the range of specified movement quantities. Then the movement quantities of all calculated polygons are decided at specific time to update the screen buffer 18 by luminance calculation or image deformation accompanying the update of the polygonal information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元コンピュー
タグラフィックス(3次元CG)分野において高速で高
画質の画像を生成する画像生成装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image generating apparatus for generating a high-speed and high-quality image in the field of three-dimensional computer graphics (three-dimensional CG).

【0002】[0002]

【従来の技術】近年、画像生成装置は、CPU(中央演
算処理装置)性能の向上や専用グラフィックスチップの
開発により、映画やコマーシャル産業での応用から、パ
ーソナルコンピュータやゲーム機などでの民生用として
も一般化されつつある。
2. Description of the Related Art In recent years, image generation apparatuses have been developed for use in the movie and commercial industries due to improvements in the performance of CPUs (central processing units) and development of dedicated graphics chips. It is also being generalized.

【0003】以下図面を参照しながら、上記した従来の
画像生成装置の一例について説明する。
An example of the above-described conventional image generating apparatus will be described below with reference to the drawings.

【0004】図8は、従来の画像生成装置の構成を示す
ブロック図である。図8において、81は座標変換部
で、82は輝度計算部、83は画面バッファ部である。
以上のように構成された画像生成装置について、以下そ
の動作について説明する。
FIG. 8 is a block diagram showing a configuration of a conventional image generating apparatus. In FIG. 8, 81 is a coordinate conversion unit, 82 is a luminance calculation unit, and 83 is a screen buffer unit.
The operation of the image generating apparatus configured as described above will be described below.

【0005】まず、座標変換部81は、以下の一連の座
標変換を行う。つまり、固有の物体座標系で定義された
多角形形状の集合である仮想3次元物体が世界座標系に
配置され、モデリング変換が施される。次に仮想視点が
設定されると、視点を原点とする視点座標系に視野変換
され、さらに透視変換後、視野からはみ出した部分をク
リッピングによって取り除き、画面座標系に変換され
る。輝度計算部82では、多角形の頂点での輝度値から
線形補間等により画面内の各画素の輝度を求め、テクス
チャを張り付ける際には、頂点の持つテクスチャ座標か
ら各画素のテクスチャ座標を補間し、テクスチャメモリ
からその座標のテクスチャの値を参照する。画面バッフ
ァ部83は、視点からの奥行き値によって最も視点位置
から近い多角形を各画素単位で選択しモニタ出力用のバ
ッファにその輝度値を書き込む。
First, the coordinate conversion section 81 performs a series of coordinate conversions described below. That is, a virtual three-dimensional object, which is a set of polygonal shapes defined in a unique object coordinate system, is arranged in the world coordinate system and subjected to modeling transformation. Next, when a virtual viewpoint is set, the viewpoint is converted into a viewpoint coordinate system having the viewpoint as the origin, and after the perspective transformation, a portion outside the field of view is removed by clipping and converted into a screen coordinate system. The brightness calculation unit 82 obtains the brightness of each pixel in the screen from the brightness value at the vertex of the polygon by linear interpolation or the like, and when attaching a texture, interpolates the texture coordinates of each pixel from the texture coordinates of the vertex. Then, the texture value at that coordinate is referenced from the texture memory. The screen buffer unit 83 selects a polygon closest to the viewpoint position on a pixel-by-pixel basis based on the depth value from the viewpoint, and writes the luminance value into a monitor output buffer.

【0006】[0006]

【発明が解決しようとする課題】しかしながら上記のよ
うな構成では、仮想視点や3次元多角形の移動に伴う描
画は、世界座標系から画面座標系への座標変換と、輝度
を求める画素演算とをすべての多角形について毎フレー
ム演算するので、演算コストが高いという問題点を有し
ていた。
However, in the above configuration, drawing accompanying movement of a virtual viewpoint or a three-dimensional polygon involves coordinate conversion from the world coordinate system to the screen coordinate system and pixel calculation for obtaining luminance. Is calculated every frame for all polygons, so that the calculation cost is high.

【0007】本発明は上記問題点に鑑み、中間データで
ある多角形情報と多角形画像データを利用し、動画のコ
ヒーレンシを考慮して演算コストを低減させる画像生成
装置を提供することを目的とする。
SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide an image generating apparatus which uses polygon information and polygon image data as intermediate data and reduces the operation cost in consideration of coherency of a moving image. I do.

【0008】[0008]

【課題を解決するための手段】上記問題点を解決するた
めに本発明の画像生成装置は、ある時刻における仮想空
間内の仮想視点の位置と速度ベクトルから、多角形形状
の動きベクトルと多角形領域からなる多角形情報を画面
座標系で算出する座標変換部と、多角形情報を保存する
多角形情報保存部と、多角形領域の各画素の輝度を算出
する輝度計算部と、輝度計算部によって算出された画像
を多角形毎に保管する多角形画像保存部と、多角形情報
と経過時間αから算出される多角形領域の移動量が指定
された範囲内にあるか否かの内外判定をする移動量判別
部と、移動量が指定範囲外であれば、多角形情報から更
新多角形領域と経過時間αを更新時間として多角形情報
保存部に更新させ、更新多角形領域の輝度計算結果を多
角形画像保存部に保存させる多角形情報更新部と、多角
形画像保存部の多角形画像を変形して時間α後の画像を
算出する画像変形部との構成を有する。
In order to solve the above-mentioned problems, an image generating apparatus according to the present invention uses a position and a velocity vector of a virtual viewpoint in a virtual space at a certain time to calculate a polygonal motion vector and a polygon. A coordinate conversion unit that calculates polygon information including a region in a screen coordinate system; a polygon information storage unit that stores polygon information; a brightness calculation unit that calculates the brightness of each pixel of the polygon region; and a brightness calculation unit Image storage unit that stores the image calculated for each polygon, and whether the movement amount of the polygon area calculated from the polygon information and the elapsed time α is within a specified range or not. And, if the movement amount is out of the specified range, the updated polygon region and the elapsed time α are updated from the polygon information to the polygon information storage unit as the update time, and the brightness of the updated polygon region is calculated. Store the result in the polygon image storage A polygon information updating unit to be stored, and an image deforming unit that deforms the polygon image in the polygon image storage unit to calculate an image after time α.

【0009】これにより、多角形情報と多角形単位での
画像を保存し、新時刻での画像生成を新たな輝度計算を
施す多角形と保存された多角形画像を変形する多角形と
に分離することによって、フレーム毎の座標変換と輝度
計算を削減することができる。
Thus, the polygon information and the image in units of polygons are stored, and the image generation at the new time is separated into a polygon for performing a new luminance calculation and a polygon for deforming the stored polygon image. By doing so, it is possible to reduce coordinate conversion and luminance calculation for each frame.

【0010】[0010]

【発明の実施の形態】本発明は、時刻tにおける仮想空
間内の仮想視点の位置と速度ベクトルから、多角形形状
の動きベクトルと多角形領域からなる多角形情報を画面
座標系で算出する座標変換部と、前記多角形情報を保存
する多角形情報保存部と、前記多角形領域の各画素の輝
度を算出する輝度計算部と、前記輝度計算部によって算
出された画像を多角形毎に保管する多角形画像保存部
と、時刻t+αにおいて前記多角形情報と経過時間αか
ら算出される多角形領域の移動量が指定された範囲内に
あるか否かの内外判定をする移動量判別部と、前記移動
量が指定範囲外であれば、前記多角形情報から更新多角
形領域と経過時間αを更新時間として前記多角形情報保
存部に更新させ、前記更新多角形領域の輝度計算結果を
前記多角形画像保存部に保存させる多角形情報更新部
と、前記多角形画像保存部の多角形画像を変形して時刻
t+αでの画像を算出する画像変形部と、前記画像変形
部による変形画像から画素単位での奥行き値比較による
隠面消去を行い、画面の各画素を保存する画面バッファ
部とを備える。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention relates to a coordinate system for calculating polygon information comprising a polygon-shaped motion vector and a polygon region from a position and a velocity vector of a virtual viewpoint in a virtual space at time t in a screen coordinate system. A conversion unit, a polygon information storage unit that stores the polygon information, a luminance calculation unit that calculates the luminance of each pixel in the polygon area, and an image calculated by the luminance calculation unit that is stored for each polygon. A polygon image storage unit, and a movement amount discrimination unit that determines whether or not the movement amount of the polygon area calculated from the polygon information and the elapsed time α at time t + α is within a specified range. If the movement amount is out of the specified range, the updated polygon area and the elapsed time α are updated from the polygon information as the update time in the polygon information storage unit, and the brightness calculation result of the updated polygon area is calculated. For polygon image storage And polygon information updating unit to exist, time by modifying the polygon image of the polygonal image storage unit
An image transformation unit that calculates an image at t + α, and a screen buffer unit that performs hidden surface elimination by comparing depth values on a pixel basis from the transformed image by the image transformation unit and stores each pixel of the screen.

【0011】本発明は上記した構成によって、時刻tに
おける画面座標系での多角形形状の動きベクトルと多角
形領域からなる多角形情報が多角形情報保存部に保存さ
れる。また、輝度計算部は、この多角形情報の一つであ
る多角形領域をもとにテクスチャマッピングや、照度マ
ッピング等のシェーディング処理を行って多角形内の各
画素の輝度値を算出し、多角形単位で多角形画像保存部
に保管される。この時刻tでは、輝度計算された多角形
画像は視点からの距離である奥行き値での比較による隠
面消去を施して画面バッファに蓄えられ表示される。一
方、時刻t+αでは、時刻tにおける多角形情報である動
きベクトルと多角形領域から多角形の変化度である移動
量が算出され、その移動量が指定範囲内かどうかが移動
量判別部で判定される。もし、範囲内であれば画像変形
部が、時刻tにおける多角形画像を変化後の更新多角形
領域に写像し画面バッファに書き込まれる。また、もし
範囲外であれば、この更新多角形領域と時間経過αを多
角形情報として更新し、更に更新多角形領域について輝
度計算を実行して多角形画像保存部の多角形画像をも更
新する。このとき更新された多角形画像は画像変形が行
われずに画面バッファに書き込まれる。このように、多
角形情報と多角形単位での画像を保存し、新時刻での画
像生成を新たな輝度計算を施す多角形と保存された多角
形画像を変形する多角形に分離することによって、フレ
ーム毎の座標変換と輝度計算を削減することとなる。
In the present invention, with the above-described configuration, the polygon motion information and the polygon information including the polygon area in the screen coordinate system at time t are stored in the polygon information storage unit. Further, the brightness calculation unit calculates a brightness value of each pixel in the polygon by performing shading processing such as texture mapping or illuminance mapping based on the polygon area which is one of the polygon information. Each polygon is stored in the polygon image storage unit. At this time t, the polygon image whose luminance has been calculated is subjected to hidden surface elimination by comparison with a depth value that is a distance from the viewpoint, stored in a screen buffer, and displayed. On the other hand, at time t + α, the movement amount, which is the degree of change of the polygon, is calculated from the motion vector, which is the polygon information at time t, and the polygon area, and the movement amount determination unit determines whether the movement amount is within the specified range. Is done. If it is within the range, the image deforming unit maps the polygon image at time t to the updated polygon area after the change and writes it to the screen buffer. If it is out of the range, the updated polygon area and the elapsed time α are updated as polygon information, and the brightness calculation is performed on the updated polygon area to update the polygon image in the polygon image storage unit. I do. At this time, the updated polygon image is written to the screen buffer without performing the image deformation. Thus, by storing the polygon information and the image in units of polygons, and separating the image generation at the new time into a polygon for performing a new luminance calculation and a polygon for transforming the stored polygon image. Thus, coordinate transformation and luminance calculation for each frame can be reduced.

【0012】以下、本発明の実施の形態について、図面
を参照しながら説明する。 (実施の形態1)図1は、本発明の実施の形態1による
画像生成装置の構成を示すブロック図である。図1にお
いて、11は物体座標系での多角形形状の画面座標系へ
の変換と視点等の移動による多角形の動きベクトルを算
出する座標変換部、12は画面座標系での多角形位置で
ある多角形領域と、その多角形位置の動きベクトルから
なる多角形情報を保存する多角形情報保存部、13は多
角形領域内の画素の輝度を算出する輝度計算部、14は
輝度計算で算出された多角形画像を保存する多角形画像
保存部、15は多角形情報から得られる移動前の多角形
領域から移動後の多角形領域への移動量を予め指定され
た値と比較する移動量判別部、16は再度輝度計算が必
要な多角形について移動後の多角形領域を新たな多角形
領域として更新する多角形情報更新部、17は移動後の
多角形領域に移動前の多角形画像を写像する画像変形
部、18は画面バッファ部である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. (Embodiment 1) FIG. 1 is a block diagram showing a configuration of an image generating apparatus according to Embodiment 1 of the present invention. In FIG. 1, reference numeral 11 denotes a coordinate conversion unit for converting a polygon shape in an object coordinate system into a screen coordinate system and calculating a polygon motion vector by moving a viewpoint or the like; and 12, a polygon position in the screen coordinate system. A polygon information storage unit for storing polygon information including a certain polygon region and a motion vector at the position of the polygon, a luminance calculation unit 13 for calculating the luminance of the pixels in the polygon region, and a luminance calculation unit 14 for calculating the luminance. A polygon image storage unit for storing the obtained polygon image, a movement amount for comparing a movement amount from the polygon region before movement obtained from the polygon information to the polygon region after movement with a predetermined value; A discriminating unit 16 is a polygon information updating unit that updates the polygon region after movement as a new polygon region for a polygon that requires luminance calculation again, and 17 is a polygon image before moving to the polygon region after movement. The image transformation unit that maps It is a surface buffer portion.

【0013】以上のように構成された画像生成装置につ
いて、以下、図3、図4を用いて、その動作を説明す
る。
The operation of the image generating apparatus configured as described above will be described below with reference to FIGS.

【0014】ここで、図3は3次元CGにおける座標系
を示し、図4は画面内において時刻tでの多角形と、そ
の多角形が時刻t+αでの移動を示す例である。
Here, FIG. 3 shows a coordinate system in three-dimensional CG, and FIG. 4 shows an example of a polygon at time t in the screen and movement of the polygon at time t + α.

【0015】図1の座標変換部11では、図3に示すよ
うに多角形(本例では三角形)で構成された物体を世界
座標系に配置し、時刻tでの視点座標系、透視変換によ
る3次元画面座標系、最後に画面(スクリーン)座標系
に変換して、多角形領域を算出する。更に、時刻tでの
仮想視点の速度ベクトルvから多角形の動きベクトルを
も座標変換を用いて算出し、多角形領域と動きベクトル
を多角形情報として多角形情報保存部12に保存する。
ここで、本例では仮想視点の動きのみを扱っているが、
多角形自身の動きは仮想視点の動きと相対関係にあり、
一元化することに問題はない。
In the coordinate transformation unit 11 shown in FIG. 1, an object constituted by a polygon (a triangle in this example) is arranged in the world coordinate system as shown in FIG. The polygon area is calculated by converting the image into a three-dimensional screen coordinate system and finally to a screen (screen) coordinate system. Furthermore, a polygon motion vector is also calculated from the virtual viewpoint velocity vector v at time t using coordinate transformation, and the polygon area and the motion vector are stored in the polygon information storage unit 12 as polygon information.
Here, in this example, only the movement of the virtual viewpoint is treated,
The movement of the polygon itself is relative to the movement of the virtual viewpoint,
There is no problem with unification.

【0016】図4では三角形の各頂点の位置ベクトルP
t、Qt、Rtと動きベクトルMp、Mq、Mrが示されている。
ここで、多角形領域を表現するための各頂点の位置ベク
トルと動きベクトルは奥行き方向の要素を持つ3次元ベ
クトルである。輝度計算部13は、例えば多角形の各頂
点の輝度を光源からの距離から算出し、多角形内の画素
を3頂点の輝度を補間して求める。また、テクスチャマ
ッピングを施す場合は、テクスチャデータ独自がもつ座
標系と各頂点の対応から多角形内部の画素の輝度値をテ
クスチャデータからサンプリングして算出する。このよ
うにして得られた多角形画像は多角形画像保存部14に
保存される。ここで、時刻tにおいては、多角形画像は
すべて輝度計算部13によって算出されたものであり、
画像変形部17は全ての多角形画像を各々が持つ多角形
領域に写像、つまり何ら変形を施さずに画面バッファ部
18に書き込む。
In FIG. 4, the position vector P of each vertex of the triangle is shown.
t, Qt, Rt and motion vectors Mp, Mq, Mr are shown.
Here, the position vector and the motion vector of each vertex for expressing the polygon area are three-dimensional vectors having elements in the depth direction. The brightness calculator 13 calculates, for example, the brightness of each vertex of the polygon from the distance from the light source, and obtains the pixels in the polygon by interpolating the brightness of the three vertices. When texture mapping is performed, the luminance values of the pixels inside the polygon are sampled and calculated from the texture data based on the correspondence between each vertex and the coordinate system unique to the texture data. The polygon image thus obtained is stored in the polygon image storage unit 14. Here, at time t, all the polygonal images have been calculated by the luminance calculation unit 13;
The image transforming unit 17 maps all polygonal images to the respective polygonal areas, that is, writes them in the screen buffer unit 18 without any modification.

【0017】次に、時刻t+αでの動作について説明す
る。まず、図4において、動きベクトルMp、Mq、Mr加速
度成分を持たないと仮定する。α時間経過した際、Pt、
Qt、Rtを3頂点とする三角形はPt+α=Pt+α・Mp、Qt
+α=Qt+α・Mq、Rt+α=Rt+α・Mrを頂点とする三
角形に移動する。移動量判別部15は、多角形領域の移
動量が指定された移動量の範囲内にあるかどうかを判別
する。
Next, the operation at time t + α will be described. First, in FIG. 4, it is assumed that there are no motion vectors Mp, Mq, and Mr acceleration components. α time, Pt,
A triangle with three vertices Qt and Rt is Pt + α = Pt + α · Mp, Qt
+ Α = Qt + α · Mq, Rt + α = Rt + α · Mr Move to a triangle having vertices. The movement amount determination unit 15 determines whether the movement amount of the polygonal area is within the range of the specified movement amount.

【0018】ここで、移動量判別の手法を示す一例を図
5に示し、同図を用いて説明する。図5において、51
は領域面積算出部、52は面積比較部、53は法線算出
部、54は法線比較部、55は面積比較結果と法線比較
結果の論理和を計算する論理和部である。
FIG. 5 shows an example of a method for determining the amount of movement, which will be described with reference to FIG. In FIG. 5, 51
Is a region area calculation unit, 52 is an area comparison unit, 53 is a normal line calculation unit, 54 is a normal line comparison unit, and 55 is a logical sum unit that calculates the logical sum of the area comparison result and the normal line comparison result.

【0019】Pt、Qt、Rtを3頂点とする時刻tにおける
三角形と、Pt+α、Qt+α、Rt+αを3頂点とする時刻
t+αにおける三角形の面積を領域面積算出部51で求
める。面積比較部52は、この両面積から面積の変化率
を計算し、指定量よりも小さければ論理的に正の判定結
果を出力する。また、同時に、これら三角形の法線ベク
トルを法線算出部53で求め、法線比較部54でそのベ
クトル間のなす角度を算出し、指定量よりも小さければ
論理的に正の判定結果を出力する。論理和部55は、こ
の二つの判定結果の論理和を求め、ともに正の場合のみ
指定の移動量の範囲内であると出力する。
A triangle at time t with three vertices Pt, Qt, and Rt and a time at three vertices with Pt + α, Qt + α, and Rt + α
The area of the triangle at t + α is determined by the area calculation unit 51. The area comparison unit 52 calculates the rate of change of the area from the two areas, and outputs a logically positive determination result if smaller than the specified amount. At the same time, normal vectors of these triangles are obtained by a normal calculation unit 53, and an angle between the vectors is calculated by a normal comparison unit 54. If the angle is smaller than the specified amount, a logically positive determination result is output. I do. The logical sum unit 55 calculates the logical sum of these two determination results, and outputs that the result is within the range of the designated movement amount only when both are positive.

【0020】ここで、図6は法線ベクトルの顕著な違い
を示す例である。図6の両三角形は形状も面積も等しい
が、テクスチャマッピングされた縞模様が透視変換によ
って異なっている。つまり、左の三角形のR点は他の2
頂点よりも視点位置から遠いが、右の三角形ではR点が
一番近いためである。これは、法線ベクトルのなす角を
求めることによって判断できる。
FIG. 6 is an example showing a remarkable difference between the normal vectors. Although both triangles in FIG. 6 have the same shape and the same area, the texture-mapped stripes differ by the perspective transformation. That is, the R point of the left triangle is
This is because the point R is closest to the right triangle in the right triangle, although it is farther from the viewpoint than the vertex. This can be determined by determining the angle between the normal vectors.

【0021】このようにして、移動量判別部15の結果
が指定した移動量範囲外であるとき、図4のPt+α、Qt
+α、Rt+αを更新多角形領域として、また経過時間α
も更新時間として、多角形情報更新部16は多角形情報
保存部12に書き込む。多角形情報が変更されると、そ
の多角形領域に対し輝度計算を行い多角形保存部14も
更新される。画像変形部17は時刻tの場合と同様、更
新された多角形画像に対しては変形を施さずに画面バッ
ファ部18に書き込みを行う。
As described above, when the result of the movement amount discriminating section 15 is out of the specified movement amount range, the Pt + α, Qt of FIG.
+ Α, Rt + α as updated polygon area, and elapsed time α
Also, as the update time, the polygon information updating unit 16 writes in the polygon information storage unit 12. When the polygon information is changed, the brightness is calculated for the polygon area, and the polygon storage unit 14 is also updated. As in the case of the time t, the image deforming unit 17 writes the updated polygon image in the screen buffer unit 18 without performing the deformation.

【0022】一方、移動量判別部15の結果が指定した
移動量範囲内であるとき、多角形情報は更新されず輝度
計算も実行しない。そして、画像変形部17は多角形画
像保存部14内のPt、Qt、Rtを3頂点として保存されて
いる多角形画像をPt+α、Qt+α、Rt+αの多角形領域
に変形し画面バッファ18に書き込む。
On the other hand, when the result of the movement amount discriminating section 15 is within the specified movement amount range, the polygon information is not updated and the brightness calculation is not executed. Then, the image transformation unit 17 transforms the polygon image stored as the three vertices of Pt, Qt, and Rt in the polygon image storage unit 14 into a polygon area of Pt + α, Qt + α, and Rt + α, and writes the polygon area into the screen buffer 18.

【0023】以上のように、時刻tで演算されたすべて
の多角形について、時刻t+αでは移動量判別を行い、
多角形情報の更新に伴う輝度計算もしくは画像変形によ
って画面バッファ18を更新する。ここで、画面バッフ
ァ18は、多角形情報の多角形領域、例えばPt、Qt、Rt
や、Pt+α、Qt+α、Rt+αを用いて各画素の奥行き値
を計算して隠面消去を行っている。
As described above, for all the polygons calculated at time t, the movement amount is determined at time t + α.
The screen buffer 18 is updated by brightness calculation or image deformation accompanying the update of the polygon information. Here, the screen buffer 18 stores a polygon area of the polygon information, for example, Pt, Qt, Rt.
Further, the hidden value is removed by calculating the depth value of each pixel using Pt + α, Qt + α, and Rt + α.

【0024】また、次の時刻t+βにおいては、時刻tで
の多角形画像を画像変形する場合と、輝度計算を実行す
る場合以外に、さらに時刻t+αで輝度計算後に更新さ
れた多角形画像を画像変形する場合がある。この場合、
多角形情報の更新時間αを利用する。例えば、Pt+β=
Pt+β・Mp=Pt+α+(β−α)・Mpであり、Pt+αと
αを用いることになる。
At the next time t + β, in addition to the case where the polygonal image at the time t is image-deformed and the case where the luminance calculation is performed, the polygonal image updated after the luminance calculation at the time t + α is further processed. May be deformed. in this case,
The update time α of the polygon information is used. For example, Pt + β =
Pt + β · Mp = Pt + α + (β−α) · Mp, and Pt + α and α will be used.

【0025】なお、動きベクトルMp、Mq、Mrは、本来時
間の経過とともに変化するものであり、経過時間α、β
は上記の線形近似が成り立つ十分小さな値である。即
ち、時刻tからの経過時間が大きくなった場合は、座標
変換部11によって新たに多角形情報を算出することに
なる。
The motion vectors Mp, Mq, Mr originally change over time, and the elapsed times α, β
Is a sufficiently small value that the above linear approximation holds. That is, when the elapsed time from the time t increases, the coordinate conversion unit 11 newly calculates polygon information.

【0026】以上のように本実施の形態によれば、時刻
tにおける仮想空間内の仮想視点の位置と速度ベクトル
から、多角形形状の動きベクトルと多角形領域からなる
多角形情報を画面座標系で算出する座標変換部11と、
多角形情報を保存する多角形情報保存部12と、多角形
領域の各画素の輝度を算出する輝度計算部13と、輝度
計算部13によって算出された画像を多角形毎に保管す
る多角形画像保存部14と、時刻t+αにおいて多角形
情報と経過時間αから算出される多角形領域の移動量が
指定された範囲内にあるか否かの内外判定をする移動量
判別部15と、移動量が指定範囲外であれば、多角形情
報から更新多角形領域と経過時間αを更新時間として多
角形情報保存部12に更新させ、更新多角形領域の輝度
計算結果を多角形画像保存部14に保存させる多角形情
報更新部16と、多角形画像保存部14の多角形画像を
変形して時刻t+αでの画像を算出する画像変形部17
とを設けることにより、仮想視点の移動に伴う座標変換
の削減を仮想視点の動きベクトル利用によって行い、ま
た、多角形画像を再利用して複雑な輝度計算の削減を行
い、演算時間を短縮させることができる。
As described above, according to the present embodiment, the time
a coordinate conversion unit 11 for calculating a polygonal motion vector and polygonal information comprising a polygonal area in a screen coordinate system from the position and the velocity vector of the virtual viewpoint in the virtual space at t;
A polygon information storage unit 12 for storing polygon information, a luminance calculation unit 13 for calculating the luminance of each pixel in the polygon area, and a polygon image for storing the image calculated by the luminance calculation unit 13 for each polygon A storage unit 14, a movement amount determination unit 15 that determines whether the movement amount of the polygon area calculated from the polygon information and the elapsed time α at time t + α is within a specified range, and a movement amount Is outside the specified range, the updated polygon area and the elapsed time α are updated from the polygon information to the polygon information storage unit 12 as the update time, and the brightness calculation result of the updated polygon area is stored in the polygon image storage unit 14. A polygon information updating unit 16 to be stored, and an image deforming unit 17 for deforming the polygon image in the polygon image storing unit 14 to calculate an image at time t + α
Is provided, the coordinate transformation associated with the movement of the virtual viewpoint is reduced by using the motion vector of the virtual viewpoint, and the polygon image is reused to reduce complicated luminance calculation, thereby shortening the calculation time. be able to.

【0027】(実施の形態2)以下、本発明の実施の形
態2について、図面を参照しながら説明する。
(Embodiment 2) Hereinafter, Embodiment 2 of the present invention will be described with reference to the drawings.

【0028】図2は、本実施の形態による画像生成装置
の構成を示すブロック図である。同図において、11〜
17は図1の構成と同様なものである。図1と異なるの
は凸物体分割部21と多層画面バッファ部28を設けた
点である。
FIG. 2 is a block diagram showing a configuration of the image generating apparatus according to the present embodiment. In FIG.
Reference numeral 17 is the same as the configuration in FIG. 1 in that a convex object division unit 21 and a multilayer screen buffer unit 28 are provided.

【0029】図7は、多層画面バッファ部28の内部構
成を示す図である。図7において、71は凸物体毎に層
に書き込まれる多層バッファ部、72は層間の奥行き比
較結果が書き込まれる奥行きテーブル、73は層間の奥
行き判定を行う奥行き判定部、74は奥行き比較結果の
もとに合成処理を行い出力する多層合成部である。
FIG. 7 is a diagram showing the internal configuration of the multilayer screen buffer unit 28. In FIG. 7, reference numeral 71 denotes a multilayer buffer unit that is written to a layer for each convex object, 72 denotes a depth table in which a depth comparison result between layers is written, 73 denotes a depth determination unit that performs depth determination between layers, and 74 denotes a depth comparison result. And a multi-layer combining unit that performs the combining process and outputs the result.

【0030】以上のように構成された画像合成装置につ
いて、以下その動作を説明する。凸物体分割部21は凹
凸のある物体を凸物体に再分割する。座標変換部11は
凸物体内部の多角形について画面座標系に変換する。以
下、実施の形態1と同様に多角形画像を算出し、凸物体
毎に多層画面バッファ部28内の多層バッファ部71に
一つの層に書き込まれる。多層バッファ部71に書き込
みが終了すると、奥行き判定部73は、奥行きテーブル
72を参照して書き込み画素の奥行き判定を行う。奥行
き判定は、まず多層バッファ内の画素をスキャンして、
凸物体が重なる画素とその層の番号を検出する。検出さ
れた層間の前後関係が奥行きテーブル72に記述されて
いる場合は、スキャンを継続する。もし、記述がない場
合は、どの多角形が重なっているかを検出し、多角形情
報の多角形領域、例えば、Pt、Qt、Rtや、Pt+α、Qt+
α、Rt+αを用いて検出画素の奥行き値を計算し、奥行
きテーブルに重なった層の前後関係を書き込む。そし
て、奥行きテーブル72にすべての層間の前後関係が記
述されていればスキャンを停止し、そうでない場合はス
キャンを継続する。また、最終画素のスキャンを終了し
た時点でもスキャンを停止する。
The operation of the image synthesizing apparatus configured as described above will be described below. The convex object dividing unit 21 re-divides an object having irregularities into convex objects. The coordinate conversion unit 11 converts the polygon inside the convex object into a screen coordinate system. Hereinafter, a polygon image is calculated in the same manner as in the first embodiment, and is written into one layer in the multilayer buffer unit 71 in the multilayer screen buffer unit 28 for each convex object. When the writing to the multilayer buffer unit 71 is completed, the depth determination unit 73 refers to the depth table 72 and determines the depth of the pixel to be written. To determine the depth, first scan the pixels in the multilayer buffer,
The pixel on which the convex object overlaps and the layer number are detected. If the detected context is described in the depth table 72, the scanning is continued. If there is no description, which polygon is overlapped is detected, and polygon areas of the polygon information, for example, Pt, Qt, Rt, Pt + α, Qt +
The depth value of the detection pixel is calculated using α and Rt + α, and the depth relation of the overlapping layers is written in the depth table. If the depth table 72 describes the relationship between all layers, the scanning is stopped. Otherwise, the scanning is continued. Also, the scanning is stopped at the time when the scanning of the last pixel is completed.

【0031】以上のように、多角形形状で構成される複
数の仮想3次元物体をそれぞれ凸物体に分割し保存する
凸物体分割部21と、時刻tにおける仮想空間内の仮想
視点の位置と速度ベクトルから、凸物体を構成する多角
形形状の動きベクトルと多角形領域から構成される多角
形情報を画面座標系で算出する座標変換部11と、多角
形情報を保存する多角形情報保存部12と、多角形領域
の各画素の輝度を算出する輝度計算部13と、輝度計算
部13によって算出された画像を多角形毎に保管する多
角形画像保存部14と、時刻t+αにおいて多角形情報
と経過時間αから算出される多角形領域の移動量が指定
された範囲内にあるか否かの内外判定をする移動量判別
部15と、移動量が指定範囲外であれば、多角形情報か
ら更新多角形領域と経過時間αを更新時間として多角形
情報保存部12に更新させ、更新多角形領域の輝度計算
結果を多角形画像保存部14に保存させる多角形情報更
新部16と、多角形画像保存部14の多角形画像を変形
して時刻t+αでの画像を算出する画像変形部17と、
輝度計算部13によって算出された画像を凸物体毎に一
つの層に保管し、層単位で奥行き比較を行い画像合成し
て表示出力する多層画面バッファ部28とを設けること
により、実施の形態1による効果に加えて、画素単位で
の奥行き比較をすべての画素について行う必要がなくな
る。
As described above, the convex object division unit 21 that divides a plurality of virtual three-dimensional objects each having a polygonal shape into convex objects and saves the positions and speeds of the virtual viewpoint in the virtual space at time t. A coordinate conversion unit 11 for calculating, in a screen coordinate system, polygon information composed of a polygon-shaped motion vector and a polygon area constituting a convex object from a vector, and a polygon information storage unit 12 for storing polygon information A brightness calculation unit 13 for calculating the brightness of each pixel in the polygon area, a polygon image storage unit 14 for storing the image calculated by the brightness calculation unit 13 for each polygon, and polygon information at time t + α. A movement amount determining unit 15 for determining whether the movement amount of the polygonal area calculated from the elapsed time α is within a specified range or not; Update polygon area and meridian The polygon information storage unit 12 updates the polygon information storage unit 12 with the time α as an update time, and stores the brightness calculation result of the updated polygon area in the polygon image storage unit 14. An image transformation unit 17 for transforming the rectangular image to calculate an image at time t + α,
The first embodiment is provided by storing the image calculated by the brightness calculation unit 13 in one layer for each convex object, comparing the depth of each layer, synthesizing the image, and outputting the combined image. In addition to the effect of the above, it is not necessary to perform the depth comparison in pixel units for all pixels.

【0032】[0032]

【発明の効果】以上のように本発明は、時刻tにおける
仮想空間内の仮想視点の位置と速度ベクトルから、多角
形形状の動きベクトルと多角形領域からなる多角形情報
を画面座標系で算出する座標変換部と、多角形情報を保
存する多角形情報保存部と、多角形領域の各画素の輝度
を算出する輝度計算部と、輝度計算部によって算出され
た画像を多角形毎に保管する多角形画像保存部と、時刻
t+αにおいて多角形情報と経過時間αから算出される
多角形領域の移動量が指定された範囲内にあるか否かの
内外判定をする移動量判別部と、移動量が指定範囲外で
あれば、多角形情報から更新多角形領域と経過時間αを
更新時間として多角形情報保存部に更新させ、更新多角
形領域の輝度計算結果を多角形画像保存部に保存させる
多角形情報更新部と、多角形画像保存部の多角形画像を
変形して時刻t+αでの画像を算出する画像変形部とを
設けることにより、多角形情報と多角形単位での画像を
保存し、新時刻での画像生成を新たな輝度計算を施す多
角形と保存された多角形画像を変形する多角形とに分離
し、フレーム毎の座標変換と輝度計算を削減することが
できる。
As described above, according to the present invention, from the position and the velocity vector of the virtual viewpoint in the virtual space at the time t, the polygon information composed of the polygon-shaped motion vector and the polygon area is calculated in the screen coordinate system. Coordinate conversion unit, a polygon information storage unit for storing polygon information, a brightness calculation unit for calculating the brightness of each pixel in the polygon area, and an image calculated by the brightness calculation unit is stored for each polygon. Polygon image storage and time
At t + α, a movement amount determination unit that determines whether the movement amount of the polygonal area calculated from the polygon information and the elapsed time α is within a specified range, and if the movement amount is outside the specified range. A polygon information update unit that updates the updated polygon area and the elapsed time α from the polygon information as the update time in the polygon information storage unit, and stores the brightness calculation result of the updated polygon area in the polygon image storage unit; By providing an image transformation unit that computes an image at time t + α by transforming a polygon image in the polygon image storage unit, the polygon information and the image in units of polygons are saved, and an image is generated at a new time. Can be separated into a polygon for performing a new luminance calculation and a polygon for deforming the stored polygon image, so that coordinate transformation and luminance calculation for each frame can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1による画像生成装置の構
成を示すブロック図
FIG. 1 is a block diagram illustrating a configuration of an image generation device according to a first embodiment of the present invention.

【図2】本発明の実施の形態2による画像生成装置の構
成を示すブロック図
FIG. 2 is a block diagram illustrating a configuration of an image generation device according to a second embodiment of the present invention.

【図3】画像生成での座標系に関する説明図FIG. 3 is an explanatory diagram relating to a coordinate system in image generation.

【図4】画面座標系での一多角形の時間的変化を示す説
明図
FIG. 4 is an explanatory diagram showing a temporal change of a polygon in a screen coordinate system.

【図5】本発明での移動量判別の一手法を示すブロック
FIG. 5 is a block diagram showing a method of determining a moving amount according to the present invention.

【図6】移動量判別における法線ベクトルの顕著な違い
の例を示す図
FIG. 6 is a diagram showing an example of a remarkable difference between normal vectors in moving amount discrimination.

【図7】本発明の実施の形態2例における多層画面バッ
ファ部の内部構成を示すブロック図
FIG. 7 is a block diagram illustrating an internal configuration of a multilayer screen buffer unit according to a second embodiment of the present invention.

【図8】従来の画像生成装置の概略構成を示すブロック
FIG. 8 is a block diagram showing a schematic configuration of a conventional image generating apparatus.

【符号の説明】[Explanation of symbols]

11 座標変換部 12 多角形情報保存部 13 輝度計算部 14 多角形画像保存部 15 移動量判別部 16 多角形情報更新部 17 画像変形部 18 画面バッファ部 21 凸物体分割部 28 多層画面バッファ部 DESCRIPTION OF SYMBOLS 11 Coordinate conversion part 12 Polygon information storage part 13 Brightness calculation part 14 Polygon image storage part 15 Moving amount discrimination part 16 Polygon information update part 17 Image transformation part 18 Screen buffer part 21 Convex object division part 28 Multilayer screen buffer part

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 時刻tにおける仮想空間内の仮想視点の
位置と速度ベクトルから、多角形形状の動きベクトルと
多角形領域からなる多角形情報を画面座標系で算出する
座標変換部と、 前記多角形情報を保存する多角形情報保存部と、 前記多角形領域の各画素の輝度を算出する輝度計算部
と、 前記輝度計算部によって算出された画像を多角形毎に保
管する多角形画像保存部と、 時刻t+αにおいて前記多角形情報と経過時間αから算
出される多角形領域の移動量が指定された範囲内にある
か否かの内外判定をする移動量判別部と、 前記移動量が指定範囲外であれば、前記多角形情報から
更新多角形領域と経過時間αを更新時間として前記多角
形情報保存部に更新させ、前記更新多角形領域の輝度計
算結果を前記多角形画像保存部に保存させる多角形情報
更新部と、 前記多角形画像保存部の多角形画像を変形して時刻t+
αでの画像を算出する画像変形部と、 前記画像変形部による変形画像から画素単位での奥行き
値比較による隠面消去を行い、画面の各画素を保存する
画面バッファ部とを備えた画像生成装置。
1. A coordinate conversion unit for calculating, from a position and a velocity vector of a virtual viewpoint in a virtual space at time t, polygon information including a polygon-shaped motion vector and a polygon area in a screen coordinate system, A polygon information storage unit for storing polygon information, a brightness calculation unit for calculating the brightness of each pixel in the polygon area, and a polygon image storage unit for storing an image calculated by the brightness calculation unit for each polygon At a time t + α, a movement amount discrimination unit that determines whether or not the movement amount of the polygonal area calculated from the polygon information and the elapsed time α is within a specified range; If it is out of the range, the updated polygon area and the elapsed time α are updated from the polygon information as the update time in the polygon information storage unit, and the brightness calculation result of the updated polygon area is stored in the polygon image storage unit. Polygon to save An information updating unit, the time to deform the polygonal image of the polygonal image storage unit t +
An image generation unit comprising: an image deformation unit that calculates an image at α; and a screen buffer unit that performs hidden surface removal by comparing depth values in units of pixels from the deformed image by the image deformation unit and saves each pixel of a screen. apparatus.
【請求項2】 多角形形状で構成される複数の仮想3次
元物体をそれぞれ凸物体に分割し保存する凸物体分割部
と、 時刻tにおける仮想空間内の仮想視点の位置と速度ベク
トルから、前記凸物体を構成する多角形形状の動きベク
トルと多角形領域から構成される多角形情報を画面座標
系で算出する座標変換部と、 前記多角形情報を保存する多角形情報保存部と、 前記多角形領域の各画素の輝度を算出する輝度計算部
と、 前記輝度計算部によって算出された画像を多角形毎に保
管する多角形画像保存部と、 時刻t+αにおいて前記多角形情報と経過時間αから算
出される多角形領域の移動量が指定された範囲内にある
か否かの内外判定をする移動量判別部と、 前記移動量が指定範囲外であれば、前記多角形情報から
更新多角形領域と経過時間αを更新時間として前記多角
形情報保存部に更新させ、前記更新多角形領域の輝度計
算結果を前記多角形画像保存部に保存させる多角形情報
更新部と、 前記多角形画像保存部の多角形画像を変形して時刻t+
αでの画像を算出する画像変形部と、 前記輝度計算部によって算出された画像を前記凸物体毎
に一つの層に保管し、層単位で奥行き比較を行い画像合
成して表示出力する多層画面バッファ部とを備えた画像
生成装置。
2. A method according to claim 1, wherein a plurality of virtual three-dimensional objects each having a polygonal shape are divided into convex objects, and the convex object dividing unit divides and stores the convex three-dimensional objects. A coordinate conversion unit that calculates polygon information composed of a polygon-shaped motion vector and a polygon area constituting a convex object in a screen coordinate system; a polygon information storage unit that stores the polygon information; A brightness calculation unit that calculates the brightness of each pixel in the polygonal area; a polygon image storage unit that stores the image calculated by the brightness calculation unit for each polygon; and at time t + α, the polygon information and the elapsed time α. A moving amount determining unit that determines whether or not the calculated moving amount of the polygonal area is within a specified range; and, if the moving amount is outside the specified range, updating polygons from the polygon information. Area and elapsed time α A polygon information updating unit that updates the polygon information storage unit as a new time, and stores the brightness calculation result of the updated polygon area in the polygon image storage unit, and a polygon image of the polygon image storage unit. Deformed and time t +
an image transformation unit for calculating an image with α, a multi-layer screen for storing the image calculated by the luminance calculation unit in one layer for each of the convex objects, comparing depths on a layer-by-layer basis, synthesizing and displaying and outputting the images An image generation device comprising a buffer unit.
【請求項3】 移動量判別部は、時刻tにおける多角形
領域と時刻t+αの更新多角形領域の面積を算出する領
域面積算出部と、面積比率を算出する面積比較部とを備
えたことを特徴とする請求項1または2に記載の画像生
成装置。
3. The moving amount determining unit includes a region area calculating unit that calculates the area of the polygon region at time t and the updated polygon region at time t + α, and an area comparing unit that calculates the area ratio. The image generation device according to claim 1 or 2, wherein
【請求項4】 移動量判別部は、時刻tにおける多角形
領域と時刻t+αの更新多角形領域の法線ベクトルを算
出する法線算出部と、前記法線ベクトル間のなす角を算
出する法線比較部とを備えたことを特徴とする請求項1
または2に記載の画像生成装置。
4. A moving amount determining unit for calculating a normal vector between a polygon region at a time t and an updated polygon region at a time t + α, and a method for calculating an angle between the normal vectors. 2. The apparatus according to claim 1, further comprising a line comparison unit.
Or the image generation device according to 2.
【請求項5】 移動量判別部は、時刻tにおける多角形
領域と時刻t+αの更新多角形領域の面積を算出する領
域面積算出部と、面積比率を算出する面積比較部と、時
刻tにおける前記多角形領域と時刻t+αの更新多角形領
域の法線ベクトルを算出する法線算出部と、前記法線ベ
クトル間のなす角を算出する法線比較部とを備えたこと
を特徴とする請求項1または2に記載の画像生成装置。
5. A movement amount determination unit, comprising: a region area calculation unit that calculates an area of a polygonal region at time t and an updated polygonal region at time t + α; an area comparison unit that calculates an area ratio; A normal line calculation unit that calculates a normal vector between the polygon region and the updated polygon region at time t + α, and a normal line comparison unit that calculates an angle between the normal vectors. 3. The image generation device according to 1 or 2.
【請求項6】 多層画面バッファ部は、層間の前後関係
を示す奥行きテーブルと、表示スキャン中に層間の凸物
体が重なる画素を検出し、前記奥行きテーブルに対象と
なる層間の前後関係の記載がない場合に、多角形情報か
ら層間の前後関係を判別して前記奥行きテーブルに記載
する奥行き判定部とを備えたことを特徴とする請求項2
に記載の画像生成装置。
6. The multi-layer screen buffer unit detects a depth table indicating an inter-layer relation between layers, detects a pixel on which a convex object between layers overlaps during a display scan, and describes the inter-layer relation between the target layers in the depth table. 3. A depth judging section for judging a front-back relationship between layers from polygon information and writing the depth table in the depth table when there is no polygon information.
An image generation device according to claim 1.
JP9306875A 1997-11-10 1997-11-10 Image generating device Pending JPH11144082A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9306875A JPH11144082A (en) 1997-11-10 1997-11-10 Image generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9306875A JPH11144082A (en) 1997-11-10 1997-11-10 Image generating device

Publications (1)

Publication Number Publication Date
JPH11144082A true JPH11144082A (en) 1999-05-28

Family

ID=17962305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9306875A Pending JPH11144082A (en) 1997-11-10 1997-11-10 Image generating device

Country Status (1)

Country Link
JP (1) JPH11144082A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169066A1 (en) * 2012-05-11 2013-11-14 Samsung Electronics Co., Ltd. Method for processing image and image processing apparatus thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169066A1 (en) * 2012-05-11 2013-11-14 Samsung Electronics Co., Ltd. Method for processing image and image processing apparatus thereof

Similar Documents

Publication Publication Date Title
JP4237271B2 (en) Method and apparatus for attribute interpolation in 3D graphics
US20040075654A1 (en) 3-D digital image processor and method for visibility processing for use in the same
US5734806A (en) Method and apparatus for determining graphical object visibility
US6292192B1 (en) System and method for the direct rendering of curve bounded objects
US20080198163A1 (en) Drawing Method, Image Generating Device, And Electronic Information Apparatus
JPH07152923A (en) Method and apparatus for rendering of texture-processed object
EP0837449A2 (en) Image processing system and method
JPH0771936A (en) Device and method for processing image
US5666472A (en) Image processing apparatus and method for generating polygons for use in rendering an object
EP0548629A2 (en) Solid-clip methodology and architecture for clipping solid models and displaying cross-sections using depth-buffers
JPH10334273A (en) Three-dimension image processing unit and three-dimension image processing method
US5973701A (en) Dynamic switching of texture mip-maps based on pixel depth value
US7310103B2 (en) Pipelined 2D viewport clip circuit
US6501474B1 (en) Method and system for efficient rendering of image component polygons
US6348917B1 (en) Dynamic switching of texture mip-maps based on depth
JPH11161819A (en) Image processor, its method and recording medium recording image processing program
US6501481B1 (en) Attribute interpolation in 3D graphics
US5739818A (en) Apparatus and method for performing perspectively correct interpolation in computer graphics
JPH09231385A (en) Method and device for rastering object
US5499324A (en) Graphic display apparatus with improved shading capabilities
JPH10334269A (en) Image processing device and method, and recording medium recording image processing program
JP4047421B2 (en) Efficient rendering method and apparatus using user-defined rooms and windows
US6590582B1 (en) Clipping processing method
JP3979162B2 (en) Image processing apparatus and method
US20060082578A1 (en) Image processor, image processing method, and image processing program product