JPH05298455A - Texture mapping device - Google Patents

Texture mapping device

Info

Publication number
JPH05298455A
JPH05298455A JP9627692A JP9627692A JPH05298455A JP H05298455 A JPH05298455 A JP H05298455A JP 9627692 A JP9627692 A JP 9627692A JP 9627692 A JP9627692 A JP 9627692A JP H05298455 A JPH05298455 A JP H05298455A
Authority
JP
Japan
Prior art keywords
texture
pixel
display
data
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9627692A
Other languages
Japanese (ja)
Inventor
Tooru Sakaihara
徹 酒井原
Toshiyuki Kuwana
利幸 桑名
Makoto Fujita
良 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP9627692A priority Critical patent/JPH05298455A/en
Publication of JPH05298455A publication Critical patent/JPH05298455A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To realize displaying with smooth texture by mixing texture data where weighing is added and RGB luminance owing to optical reflection, executing plotting and cumulatively adding a picture being a result. CONSTITUTION:Luminance is calculated (13b) by an optical reflection expression through the use of light source information, a reflection coefficient and a normal vector. Then, a polygon is dissolved to spans and information at the end point of a span to be plotted, that is, the coordinate of the both end points, a texture coordinate and RGB luminance owing to optical reflection are obtained from the value of a vertex. The increase portions of RGB luminance, the Z coordinate and the texture coordinate for DDA are obtained (13d). A picture element for indicating whether a texture picture element to be the object of mapping is the element of left down, left up, right down or right up is designated (13e). Moreover, weighing by a decimal part of the coordinate is added to data which is fetched by the texture coordinate and picture element designition, RGB luminance owing to optical reflection is mixed and the element on the span is plotted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は図形表示に係り、特に滑
らかな材質感を伴うリアルな表示を比較的小規模のハー
ドウェアで高速に表示するテクスチャマッピング装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a graphic display, and more particularly to a texture mapping device for displaying a realistic display with a smooth material appearance at high speed with a relatively small scale hardware.

【0002】[0002]

【従来の技術】従来のテクスチャマップ装置について論
ずる前に、まず、通常の三次元図形表示処理について説
明する。三次元図形表示においては、表示立体図形は、
通常多面体近似され、この多面体を構成する多角形が順
次表示されることによりなされる。すなわち、三次元図
形表示は多角形の表示を考えれば良いことになる。図9
に多角形の表示処理の主要な処理である塗りつぶし処理
を示す。多角形の頂点V1〜V4の情報、すなわち、頂点
の座標(Xi,Yi,Zi),RGB輝度(ri,gi,b
i)およびテクスチャマップを施す場合にはテクスチャ
座標(si,ti)(いずれもi=1〜4)をもとに、多
角形の下端から、多角形内にある水平線分(以降スパン
と呼ぶ)を順次、フレームバッファ(表示画面の画像情
報を蓄えておくバッファ)へ書き込んで行くことにより
行われる。すなわち、スパン上の各画素について、色デ
ータすなわちRGB輝度を求め、これをフレームバッフ
ァの該当箇所に順次書き込んで行く方法にて実現され
る。
2. Description of the Related Art Before discussing a conventional texture map device, first, a normal three-dimensional graphic display process will be described. In the 3D graphic display, the displayed 3D graphic is
It is usually approximated to a polyhedron, and is made by sequentially displaying the polygons forming the polyhedron. That is, for the three-dimensional graphic display, a polygonal display should be considered. Figure 9
The fill processing, which is the main processing of the polygon display processing, is shown in FIG. Information on the vertices V1 to V4 of the polygon, that is, the coordinates of the vertices (Xi, Yi, Zi), RGB brightness (ri, gi, b).
i) and a texture map, based on the texture coordinates (si, ti) (both i = 1 to 4), a horizontal line segment within the polygon (hereinafter referred to as a span) from the lower end of the polygon Are sequentially written into the frame buffer (buffer for storing image information of the display screen). That is, it is realized by a method in which color data, that is, RGB luminance, is obtained for each pixel on the span, and this is sequentially written in the corresponding portion of the frame buffer.

【0003】頂点のRGB輝度については、図10に示
した光の反射モデルにより、光源,面の向きおよび面の
反射係数から計算される。すなわち、光源からの光源光
強度Ip、周辺から様々な方向にて入射される光である
周囲光の強度Ia、単位法線ベクトルN、光源への単位
ベクトルL、視点方向への単位ベクトルV、LとVの和
を正規化したベクトルH、表示物体の周囲光反射係数K
a,拡散反射係数Kd,鏡面反射係数Ksの値から図10
の(1)で示した式で計算できる。
The RGB brightness at the apex is calculated from the light source, the direction of the surface and the reflection coefficient of the surface by the light reflection model shown in FIG. That is, the light source light intensity Ip from the light source, the ambient light intensity Ia that is light incident in various directions from the periphery, the unit normal vector N, the unit vector L to the light source, the unit vector V to the viewpoint direction, A vector H obtained by normalizing the sum of L and V, an ambient light reflection coefficient K of the display object
From the values of a, diffuse reflection coefficient Kd, and specular reflection coefficient Ks, FIG.
It can be calculated by the formula shown in (1).

【0004】なお、この式はRGBの1成分での式で、
RGB毎にこの式を計算すればよい。
This equation is for one component of RGB,
This formula may be calculated for each RGB.

【0005】(1)の第一項目は周囲光反射、第二項目
は拡散反射、第三項目は鏡面反射の成分を示している。
周囲光反射と拡散反射は物体の色に影響される反射であ
り、鏡面反射は、物体の光沢、すなわちハイライトを表
現するためのもので、物体の色にはあまり影響されず、
光源の色がそのまま出力される。すなわち、周囲光反射
係数と拡散反射係数が表示物体の色に応じて、RGB間
で値が異なるに対し、鏡面反射係数はRGB間で値があ
まり変らない。
The first item (1) shows the components of ambient light reflection, the second item the diffuse reflection, and the third item the specular reflection component.
Ambient light reflection and diffuse reflection are reflections that are affected by the color of an object, and specular reflection is for expressing the gloss, or highlight, of an object, and is not significantly affected by the color of the object.
The color of the light source is output as is. That is, while the ambient light reflection coefficient and the diffuse reflection coefficient have different values between RGB depending on the color of the display object, the values of the specular reflection coefficient do not change much between RGB.

【0006】本来は各画素毎に図10に示した(1)に
てRGB輝度を計算すべきであるが、計算に時間がかか
る問題がある。時間短縮のため、多角形の頂点の値のみ
を計算し、各画素の輝度は補間にて求めることが普通で
ある。具体的には、各スパンの両端のRGB輝度を頂点
の値から補間にて求め、スパン上の画素のRGB輝度は
両端の値から補間にて求めれば良い。
Originally, the RGB luminance should be calculated for each pixel in (1) shown in FIG. 10, but there is a problem that the calculation takes time. In order to shorten the time, it is usual to calculate only the values of the vertices of the polygon and obtain the brightness of each pixel by interpolation. Specifically, the RGB luminances at both ends of each span may be obtained by interpolation from the values of the vertices, and the RGB luminances of pixels on the span may be obtained by interpolation from the values at both ends.

【0007】以上の一般的な三次元図形表示処理の説明
に基づき、従来のテクスチャマッピング装置を特許公開
公報平3−138779号を例に用いて説明する。同公
報記載のように、光源による輝度計算等により得られた
RGB輝度とテクスチャデータを加算あるいは乗算等の
演算を施して混合し、これを表示している。すなわち、
図11に示したように、DDA群により、フレームバッ
ファへ書き込む画素に関するX,Y座標、RGB輝度、
およびテクスチャアドレスs,tが求められる。テクス
チャアドレスs,tは置換部によりアドレス範囲が有効
範囲内限定されて、これらの出力によりテクスチャバッ
ファからテクスチャデータが読みだされる。読みだされ
たテクスチャデータは演算部にてRGB輝度と混合され
て、フレームバッファに書き込まれ表示されることによ
り、テクスチャマッピングが実現されていた。
Based on the above description of the general three-dimensional graphic display processing, a conventional texture mapping device will be described by taking Japanese Patent Laid-Open Publication No. 3-138779 as an example. As described in the publication, the RGB luminance obtained by the luminance calculation by the light source and the texture data are subjected to an operation such as addition or multiplication and mixed, and the mixture is displayed. That is,
As shown in FIG. 11, by the DDA group, X and Y coordinates of pixels to be written in the frame buffer, RGB luminance,
And texture addresses s, t are determined. The address range of the texture addresses s and t is limited within the valid range by the replacement unit, and the texture data is read from the texture buffer by these outputs. The read texture data is mixed with RGB brightness in the calculation unit, written into the frame buffer and displayed, thereby realizing texture mapping.

【0008】図7にテクスチャデータの一例を示す。こ
こで、円がテクスチャデータの画素すなわち、テクスチ
ャ画素を示し、テクスチャデータには、座標s,tが与
えられ、テクスチャ画素中心が整数の座標値を示す。な
お、この例では十字状のテクスチャデータである。
FIG. 7 shows an example of texture data. Here, a circle indicates a pixel of texture data, that is, a texture pixel, coordinates s and t are given to the texture data, and the center of the texture pixel indicates an integer coordinate value. In this example, the texture data has a cross shape.

【0009】このとき、DDAにより求められる各画素
のテクスチャ座標は整数値とは限らず、小数点以下の値
を持つ。この場合、最も近い一つのテクスチャデータの
みでなく、隣あったテクスチャ画素の影響も考える必要
がある。
At this time, the texture coordinates of each pixel obtained by DDA are not limited to integer values, but have values below the decimal point. In this case, it is necessary to consider not only the closest one texture data but also the influence of the adjacent texture pixel.

【0010】図12に示したように、Y座標がYsのス
パン上の各画素、画素0から画素8に対応するテクスチ
ャ座標がある線上をP1からP8のように移動したとす
ると、最も近いテクスチャ画素のみを用いた場合、スパ
ン上画素のテクスチャデータの変化のグラフの一点鎖線
のカーブで示したとうり、スパン上のある画素から突然
別のテクスチャデータに階段状に変わり、滑らかなテク
スチャが表現できなくなる。
As shown in FIG. 12, if the pixels on the span having the Y coordinate of Ys and the texture coordinates corresponding to the pixels 0 to 8 are moved from P1 to P8 on the line, the closest texture is obtained. When only pixels are used, as indicated by the one-dot chain curve in the graph of the change in texture data of pixels on the span, one pixel on the span suddenly changes to another texture data in a stepwise manner, and a smooth texture can be expressed. Disappear.

【0011】また、この対策のため、テクスチャデータ
が破線に示したような勾配で変化すると仮定し、実線で
示した改良方式のカーブように、テクスチャ画素中心の
間を補間する方法が考えられている。この方法を実現す
るため、ハードウェアのテクスチャデータをアクセスす
る部分に、テクスチャ座標の小数部を考慮して、近傍の
テクスチャ画素の、テクスチャ座標からの近さによる加
重平均をとる機能を付加するようにしても良いが、ハー
ドウェアが複雑になり、物量が増える問題があった。
As a measure against this, it is assumed that the texture data changes with a gradient shown by a broken line, and a method of interpolating between texture pixel centers is considered as a curve of the improved method shown by a solid line. There is. In order to realize this method, the function to take a weighted average by the proximity of texture pixels of neighboring texture pixels is added to the part that accesses the hardware texture data, considering the decimal part of the texture coordinates. However, there is a problem that the hardware becomes complicated and the quantity increases.

【0012】[0012]

【発明が解決しようとする課題】前記従来技術では、テ
クスチャ座標計算に得られるテクスチャ座標の小数部を
考慮していないため、よりリアルな表示が難しかった。
あるいは、テクスチャデータのアクセス制御を行う部分
に近傍テクスチャ画素の加重平均をとる機能を付加し
て、滑らかなテクスチャマッピング表示を実現しようと
すると、ハードウェアが大規模になってしまう問題があ
った。本発明の目的は、比較的小規模なハードウェアを
用いて、滑らかなテクスチャつき表示を実現することに
ある。
In the above-mentioned prior art, since the decimal part of the texture coordinate obtained in the texture coordinate calculation is not taken into consideration, it is difficult to display more realistically.
Alternatively, if a function for calculating a weighted average of neighboring texture pixels is added to a portion for controlling access to texture data to realize a smooth texture mapping display, there is a problem that the hardware becomes large in scale. An object of the present invention is to realize a smooth textured display using a relatively small-scale hardware.

【0013】[0013]

【課題を解決するための手段】第一の手段としては、ス
パン上の各画素のテクスチャ座標の小数部の値により、
テクスチャデータに重みを加えたものと、光の反射によ
るRGB輝度を混合して、描画し、これを近接したテク
スチャ画素に対して繰返して行い、結果の画像を累積加
算する。
As a first means, the value of the decimal part of the texture coordinates of each pixel on the span
The weighted texture data and the RGB brightness due to light reflection are mixed and drawn, and this is repeated for adjacent texture pixels, and the resulting images are cumulatively added.

【0014】第二の手段としては、表示物体に与えるテ
クスチャ座標に対して、様々な方向に微小変位を与え、
従来の方法、すなわち、テクスチャ座標に最も近いテク
スチャ画素の値を用いる方法で繰返し表示処理を行い、
結果の画像に所定の重みを加えて累積加算することによ
る。これは、変位を与えることにより、最も近いテクス
チャ画素のみならず、近隣のテクスチャ画素の影響を取
り込もうとするものである。近隣のテクスチャ画素を考
慮することにより、滑らかなテクスチャマッピングを実
現する。
As a second means, minute displacements are given in various directions with respect to the texture coordinates given to the display object,
The conventional method, that is, the method of using the value of the texture pixel closest to the texture coordinate is repeatedly displayed,
By adding a predetermined weight to the resulting image and performing cumulative addition. This aims to capture the influence of not only the nearest texture pixel but also neighboring texture pixels by giving a displacement. Smooth texture mapping is realized by considering neighboring texture pixels.

【0015】[0015]

【作用】第一の手段の場合、4つの最隣接テクスチャ画
素について、テクスチャ座標からの距離に応じた重みを
加えて、光の反射によるRGB輝度と混合し、結果を累
積加算している。通常、輝度混合は加算や乗算で、線形
性が保たれるため、輝度混合後、累積加算した結果と、
テクスチャデータに重みを加えて累積加算した値と光の
反射によるRGB輝度を混合した結果が一致する。この
ため、テクスチャデータを近隣のテクスチャ画素の値か
ら補間にて求めことに対応し、滑らかなテクスチャマッ
ピングが可能となる。
In the case of the first means, the four closest texture pixels are weighted according to the distance from the texture coordinates, mixed with the RGB luminance due to the reflection of light, and the results are cumulatively added. Normally, luminance mixing is linear in addition and multiplication, so the result of cumulative addition after luminance mixing and
A value obtained by adding weights to the texture data and cumulatively added and the result of mixing the RGB luminance due to light reflection match. Therefore, smooth texture mapping can be performed by corresponding to the texture data obtained by interpolation from the values of neighboring texture pixels.

【0016】また、この方法では、従来どうり一画素毎
に、一テクスチャ画素の値を取り込み、これを光の反射
式等により得られたRGB輝度を混合すれるだけで良
く、従来のハードウェアに対してテクスチャ座標の小数
部により、テクスチャ画素に重みを加える機能と、隣接
テクスチャ画素のうちどの画素を用いるかの指定を追加
するのみで良い。
Further, in this method, the value of one texture pixel is fetched for each pixel as in the conventional method, and the RGB brightness obtained by the light reflection method or the like may be mixed. On the other hand, it is only necessary to add the function of weighting the texture pixels by the decimal part of the texture coordinates and the designation of which of the adjacent texture pixels is used.

【0017】以降、第二の手段について説明する。テク
スチャ座標への微小変位の与え方の一例を図14に示
す。ここで、ある画素のテクスチャ座標をPで示す。従
来のテクスチャ座標に最も近いテクスチャ画素の値を用
いる方法であると、テクスチャ画素(i,j)の値が用
いられることになる。ここで、テクスチャ座標をPに対
して微小変位を与える。例えば、微小変位を与えること
により、P1からP8の座標を与えることができ、P,
P5,P6およびP7の場合はテクスチャ画素(i,
j)が用いられ、P3およびP4の場合、テクスチャ画
素(i,j+1)が用いられ、P2の場合、テクスチャ
画素(i,j+1)が用いられ、P1およびP8の場
合、テクスチャ画素(i+1,j+1)が用いられる。
この例で分かるように、全部で9回の描画処理におい
て、テクスチャ座標Pに近いテクスチャ画素ほど、処理
される回数が多い。すなわち、近似的に、テクスチャ座
標からの距離に応じた回数で描画処理が行われる。この
ため、結果の輝度を累積したものは、テクスチャ座標に
近いテクスチャ画素の値がより反映されることになる。
先に述べたように、光の反射によるRGB輝度とテクス
チャデータを混合した結果を累積したものと、テクスチ
ャデータを累積したものにRGB輝度を混合したものと
は一致するため、最終結果の画像は、隣接したテクスチ
ャ画素の値を補間して得たテクスチャデータを混合した
ものに近いものとなる。このようにして、滑らかなテク
スチャマッピングが実現できる。
The second means will be described below. FIG. 14 shows an example of how to give a minute displacement to the texture coordinates. Here, the texture coordinate of a pixel is indicated by P. With the conventional method of using the value of the texture pixel closest to the texture coordinate, the value of the texture pixel (i, j) is used. Here, the texture coordinates are given a small displacement with respect to P. For example, by giving a small displacement, the coordinates of P1 to P8 can be given, and P,
In the case of P5, P6 and P7, the texture pixel (i,
j) is used, for P3 and P4, texture pixel (i, j + 1) is used, for P2 texture pixel (i, j + 1) is used, and for P1 and P8, texture pixel (i + 1, j + 1) is used. ) Is used.
As can be seen from this example, in a total of 9 rendering processes, the texture pixel closer to the texture coordinate P is processed more frequently. That is, the drawing process is performed approximately times according to the distance from the texture coordinates. For this reason, the value of the texture pixel closer to the texture coordinate is more reflected in the cumulative result luminance.
As described above, since the cumulative result of mixing the RGB luminance and the texture data due to the reflection of light is the same as the cumulative texture data of the RGB luminance, the final result image is , Is close to a mixture of texture data obtained by interpolating the values of adjacent texture pixels. In this way, smooth texture mapping can be realized.

【0018】なお、所定の重みを加えて、累積する理由
は、累積処理の結果、輝度がオーバーフローするのを防
ぎ、所望の値とするためである。
The reason why the predetermined weight is added and accumulated is to prevent the brightness from overflowing as a result of the accumulation process and to set a desired value.

【0019】また、ハードウェアとしては、作成画像の
加重累積加算機能があれば良く、従来のハードウェアで
同様の機能を既に有している場合が多く、ハードウェア
物量の増加は僅かである。
Further, as the hardware, a weighted cumulative addition function of the created image is sufficient, and the conventional hardware often already has the same function, and the increase of the hardware physical quantity is slight.

【0020】[0020]

【実施例】以下、本発明の実施例を図1から図6,図
8,図9,図13,図15を用いて説明する。図2に本
発明を実現するシステムの全体構成を示す。1はCPU
でテクスチャマップを施した三次元図形表示のために、
座標変換,クリッピング,輝度計算などの表示処理や、
レンダリングプロセッサ7やフレームバッファ8,Zバ
ッファ9,テクスチャバッファ10,DAC11の制御
などシステム全体の制御を行う。主メモリ・システムバ
ス制御2はCPU1の主メモリへのアクセスの制御およ
びシステムバス4の制御を行う。システムバス4はCP
U1および主メモリ3とグラフィックバス制御5との間
でのデータや制御信号の転送を行う。また、その他入出
力装置(図示せず)とCPU1や主メモリ3とを接続す
る。グラフィックバス制御5はCPU1および主メモリ
3間でデータや制御信号の授受を行う他、グラフィック
バス6を制御する。グラフィックバス6はグラフィック
バス制御5経由して、CPU1や主メモリ3とレンダリ
ングプロセッサ7,フレームバッファ8,Zバッファ
9,テクスチャバッファ10およびDAC11間でデー
タや制御信号を転送する。レンダリングプロセッサ7は
CPU1からの指示により、フレームバッファ8にスパ
ン等を描画する。フレームバッファ8はモニタ12に表
示する画像を記憶する。Zバッファ9は隠面消去のため
に用いられる。テクスチャバッファ10はテクスチャマ
ップするテクスチャデータを記憶する。DAC11はフ
レームバッファ8から所定の周期でフレームバッファ上
の画像情報(ディジタル情報)を読みだし、アナログ情
報に変換してモニタ12に送り、表示する。
Embodiments of the present invention will be described below with reference to FIGS. 1 to 6, FIG. 8, FIG. 9, FIG. 13 and FIG. FIG. 2 shows the overall configuration of a system that realizes the present invention. 1 is CPU
In order to display a three-dimensional figure with a texture map,
Display processing such as coordinate conversion, clipping, and brightness calculation,
It controls the entire system such as the rendering processor 7, the frame buffer 8, the Z buffer 9, the texture buffer 10, and the DAC 11. The main memory / system bus control 2 controls access to the main memory of the CPU 1 and the system bus 4. System bus 4 is CP
Data and control signals are transferred between the U1 and the main memory 3 and the graphic bus control 5. Also, other input / output devices (not shown) are connected to the CPU 1 and the main memory 3. The graphic bus control 5 sends and receives data and control signals between the CPU 1 and the main memory 3, and also controls the graphic bus 6. The graphic bus 6 transfers data and control signals between the CPU 1 and main memory 3 and the rendering processor 7, frame buffer 8, Z buffer 9, texture buffer 10 and DAC 11 via the graphic bus control 5. The rendering processor 7 draws a span or the like in the frame buffer 8 according to an instruction from the CPU 1. The frame buffer 8 stores the image displayed on the monitor 12. The Z buffer 9 is used for hidden surface removal. The texture buffer 10 stores texture data to be texture-mapped. The DAC 11 reads out image information (digital information) on the frame buffer from the frame buffer 8 at a predetermined cycle, converts it into analog information, sends it to the monitor 12, and displays it.

【0021】第一の方法による多角形のテクスチャマッ
ピング表示処理手順を図1に示す。13は同処理手順を
示すフローチャートである。この処理は大半がCPU1
にて処理されるが、ステップ13fの処理ではCPU1
がシステムバス4、グラフィックバス6を経由してレン
ダリングプロセッサ7にコマンド処理パラメータを送
り、レンダリングプロセッサにて実際の処理がなされ
る。ステップ13aでは多角形の頂点座標および頂点法
線ベクトルへの座標変換処理が行われる。ステップ13
bでは光源情報,反射係数および法線ベクトルを用い
て、光の反射式による輝度計算が行われる。
FIG. 1 shows a polygon texture mapping display processing procedure according to the first method. 13 is a flowchart showing the same processing procedure. Most of this processing is CPU1
In the process of step 13f, the CPU 1
Sends command processing parameters to the rendering processor 7 via the system bus 4 and the graphic bus 6, and the rendering processor performs actual processing. In step 13a, a coordinate conversion process is performed to convert the polygonal vertex coordinates and vertex normal vectors. Step 13
In b, the brightness is calculated by the light reflection formula using the light source information, the reflection coefficient, and the normal vector.

【0022】ステップ13cでは該多角形において表示
範囲の外に出た部分を切り取るクリッピング処理が行わ
れる。これらの処理は三次元図形表示処理では広く一般
的に行われていることである。
In step 13c, clipping processing is performed to cut out the portion of the polygon outside the display range. These processes are widely and generally performed in the three-dimensional graphic display process.

【0023】ステップ13dでは、先に述べたように多
角形をスパンに分解し、描画すべきスパンの端点の情
報、すなわち、両端点の座標、テクスチャ座標、光の反
射によるRGB輝度を頂点の値から求める。またDDA
のためのRGB輝度増分、Z座標増分およびテクスチャ
座標増分を求める。ステップ13eでは、マッピングの
対象になるテクスチャ画素が、テクスチャ座標の左下,
左上,右下あるいは右上の画素であるかを示すテクスチ
ャ画素指定を行う。ステップ13fではテクスチャ座標
およびテクスチャ画素指定により取り込まれたテクスチ
ャデータ(これは予め、テクスチャバッファに記憶され
ているとする)にテクスチャ座標の小数部による重みを
加え、光の反射によるRGB輝度を混合してスパン上の
画素を描画する。ステップ13gにて、4つの近傍テク
スチャ画素に対する処理を終了したかを判定し、未終了
ならば、ステップ13eにもどり処理を繰り返す。な
お、各回の描画画素の輝度を累積加算されるように描画
がなされる。ステップ13hにて全スパンの描画を終了
したかを判定し、終了していない場合はステップ13d
に戻り一連の処理を繰り返す。
In step 13d, as described above, the polygon is decomposed into spans, and the information of the end points of the span to be drawn, that is, the coordinates of both end points, the texture coordinates, and the RGB brightness due to the reflection of light are used as the vertex values. Ask from. Also DDA
RGB intensity increments, Z coordinate increments and texture coordinate increments for In step 13e, the texture pixel to be mapped is the lower left corner of the texture coordinates,
A texture pixel is designated to indicate whether it is the upper left, lower right, or upper right pixel. In step 13f, the texture coordinate data and the texture data fetched by designating the texture pixels (which are stored in advance in the texture buffer) are weighted by the decimal part of the texture coordinates, and the RGB brightness due to the reflection of light is mixed. Draw pixels on the span. In step 13g, it is determined whether or not the processing for the four neighboring texture pixels has been completed. If not completed, the processing returns to step 13e to repeat the processing. Note that the drawing is performed so that the brightness of the drawing pixel at each time is cumulatively added. In step 13h, it is determined whether drawing of all spans has been completed, and if not completed, step 13d.
Return to and repeat a series of processing.

【0024】以下、詳細にレンダリングプロセッサ7に
おけるスパン描画処理について説明する。
The span drawing process in the rendering processor 7 will be described in detail below.

【0025】図3にレンダリングプロセッサ7の全体ブ
ロック図を示す。グラフィックバスインタフェース71
はグラフィックバスとレンダリングプロセッサを結合す
る。シーケンサ72は、DDAで発生する画素の数の管
理などレンダリングプロセッサ7の動作を制御する。D
DA部73は該当スパン上の画素の座標値(X,Y,
Z)、輝度(R,G,B,α、すなわち、RGB輝度お
よび透明度を示すα)およびテクスチャ座標(s,t)
を計算する。輝度ブレンド部74はDDA部73からの
RGB輝度とソースバッファ75に取り込まれている該
当テクスチャデータに対して、テクスチャ座標の小数部
(sf,tf)およびテクスチャ画素指定による重みを
加えた値を混合し、この結果は該当ディスティネーショ
ンバッファ76、フレームバッファインターフェース7
7経由でフレームバッファ8の該当アドレスに書き込ま
れる。このとき、必要ならば、混合により得られた値と
フレームバッファ8の書き込み箇所の書き込み前の値と
を加算するなどの演算を施して書き込むこともできる。
ディスティネーションバッファ76は該当画素のフレー
ムバッファの書き込み前の値や、隠面消去に用いられる
Zバッファの値を保持し、また輝度ブレンド部74にて
計算された輝度を保持する。フレームバッファインタフ
ェース77は、DDA部73から出力されるテクスチャ
座標の整数部(si,ti)およびテクスチャ画素指定
をもとに、テクスチャバッファ10の該当アドレスの値
を読みだし、ソースバッファ75に取り込む。
FIG. 3 shows an overall block diagram of the rendering processor 7. Graphic bus interface 71
Connects the graphics bus to the rendering processor. The sequencer 72 controls the operation of the rendering processor 7 such as management of the number of pixels generated by DDA. D
The DA unit 73 uses the coordinate values (X, Y,
Z), luminance (R, G, B, α, that is, α indicating RGB luminance and transparency) and texture coordinates (s, t).
To calculate. The luminance blending unit 74 mixes the RGB luminance from the DDA unit 73 and the value obtained by weighting the corresponding texture data loaded in the source buffer 75 with the decimal part (sf, tf) of the texture coordinates and the texture pixel designation. However, the result is the corresponding destination buffer 76 and frame buffer interface 7.
It is written to the corresponding address of the frame buffer 8 via 7. At this time, if necessary, the value obtained by the mixing and the value before the writing at the writing position of the frame buffer 8 may be added to perform the writing.
The destination buffer 76 holds the value of the corresponding pixel before writing in the frame buffer and the value of the Z buffer used for hidden surface removal, and also holds the brightness calculated by the brightness blending unit 74. The frame buffer interface 77 reads the value of the corresponding address of the texture buffer 10 based on the integer part (si, ti) of the texture coordinates output from the DDA unit 73 and the texture pixel designation, and loads it into the source buffer 75.

【0026】また、フレームメモリインタフェース77
は、DDA部73から画素座標(X,Y)により、フレ
ームバッファ8およびZバッファ9の該当する箇所の値
を、ディスティネーションバッファ76に取り込み、ま
たデスティネーションバッファ76内の輝度あるいはZ
座標をフレームバッファ8あるいはZバッファ9の該当
箇所に書き込む。以降にレンダリンプロセッサ7の各部
を説明する。
Further, the frame memory interface 77
Uses the pixel coordinates (X, Y) from the DDA unit 73 to capture the value of the corresponding portion of the frame buffer 8 and the Z buffer 9 into the destination buffer 76, and also the brightness or Z in the destination buffer 76.
The coordinates are written in the corresponding portion of the frame buffer 8 or Z buffer 9. Hereinafter, each part of the render processor 7 will be described.

【0027】図4にDDA部73のブロック図を示す。
DDA部73は、XY用DDA731,st用DDA7
32,Z用DDA733およびRGBα用DDA734
からなり、これらはそれぞれ、発生画素座標計算のた
め、マッピングするテクスチャのテクスチャ座標発生の
ため、発生画素のZ座標発生のため、RGBα(RGB
輝度および透明度示すα値)計算のために用いられる。
このように、スパン描画に必要となる各画素に関する各
種座標および輝度情報が生成されることが分かる。
FIG. 4 shows a block diagram of the DDA section 73.
The DDA unit 73 includes an XY DDA 731 and a st DDA7.
32, Z DDA733 and RGBα DDA734
These are RGBα (RGB) for calculating the generated pixel coordinate, generating the texture coordinate of the texture to be mapped, and generating the Z coordinate of the generated pixel.
It is used for calculation of α value indicating brightness and transparency.
In this way, it can be seen that various coordinates and luminance information regarding each pixel required for span drawing are generated.

【0028】図5に輝度ブレンド部74のブロック図を
示す。輝度ブレンド部74はテクスチャ合成部741、
αブレンド部742、ラスタオペレーション部743お
よびZ比較部744からなり、テクスチャ合成部741
ではソースバッファ75からのテクスチャデータにテク
スチャ座標の小数部および近傍のテクスチャ画素のうち
用いるテクスチャ画素を指定する画素選択により算出さ
れる重みを加えたものと、DDA部73からのRGBα
輝度を所定の方法により混合し、αブレンド部742に
送る、αブレンド部742ではいわゆるαブレンドを行
う、すなわち、書き込もうとするRGBα輝度と、フレ
ームバッファに記憶されていたRGBα輝度とをα値に
より定まる割合で混合する。ラスタオペレーション部7
43はいわゆるラスターオペレーション処理および隠面
消去のためにZ比較器744の出力により、画素の書き
込みを止める処理を行う。Z比較器744はDDA部7
3からのZ座標値とZバッファに記憶されているZ座標
とを比較し、所定の条件が満足されない場合は、ラスタ
オペレーション部743に画素の書き込みの抑止を指示
する。この様にして、αブレンド処理や隠面消去処理に
加えて、テクスチャマッピングを施した画素描画処理が
実現できる。
FIG. 5 shows a block diagram of the luminance blending section 74. The luminance blending unit 74 is a texture synthesizing unit 741,
The texture blending unit 741 includes an α blend unit 742, a raster operation unit 743, and a Z comparison unit 744.
Then, the texture data from the source buffer 75 is added with a weight calculated by pixel selection that specifies a decimal part of texture coordinates and a texture pixel to be used among nearby texture pixels, and RGBα from the DDA unit 73.
The luminance is mixed by a predetermined method and sent to the α blending section 742. The α blending section 742 performs so-called α blending, that is, the RGBα luminance to be written and the RGBα luminance stored in the frame buffer according to the α value. Mix at a fixed rate. Raster operation unit 7
The so-called raster operation process 43 and the process of stopping the writing of pixels are performed by the output of the Z comparator 744 for the so-called raster operation process and hidden surface removal. The Z comparator 744 is the DDA unit 7
The Z coordinate value from 3 is compared with the Z coordinate stored in the Z buffer, and if the predetermined condition is not satisfied, the raster operation unit 743 is instructed to inhibit writing of pixels. In this way, in addition to α blending processing and hidden surface removal processing, pixel drawing processing with texture mapping can be realized.

【0029】図6にテクスチャ合成部741を示す。テ
クスチャ合成部741はテクスチャ合成処理そのものを
実行する輝度合成回路741a、セレクタ741bとテ
クスチャデータ加重回路741cからなり、セレクタ部
741bは用いるテクスチャデータの種類に応じて、同
データを選択する。すなわち、テクスチャデータとして
は、(1)明るさの情報であるItのみ、(2)Itとαt、(3)
テクスチャのRGB輝度、Rt,GtおよびBt、(4)R
t,Gt,Btおよびαtの4種類のテクスチャデータを選
択する。
FIG. 6 shows the texture synthesizer 741. The texture synthesizing unit 741 includes a luminance synthesizing circuit 741a for executing the texture synthesizing process itself, a selector 741b and a texture data weighting circuit 741c. The selector unit 741b selects the same data according to the type of texture data to be used. That is, as texture data, (1) only It, which is information on brightness, (2) It and αt, (3)
RGB brightness of texture, Rt, Gt and Bt, (4) R
Four types of texture data of t, Gt, Bt and αt are selected.

【0030】テクスチャデータ加重回路741cは、テ
クスチャ座標の小数部(sf,tf)および前記画素選
択によりテクスチャデータに重みを加える。この重みを
求めるため、予め、画素選択およびテクスチャ座標の小
数部の一連の値に対して算出しておいた加重値を記憶し
ておく加重値テーブル741dを設ける。このテーブル
を参照するだけで加重値を高速に算出することができ
る。図13にこのテクスチャデータ加重回路741cの
処理を示す。まず、前記画素選択により、画素選択毎に
設けられている加重値テーブル選択する。テクスチャ座
標s,tの算出用DDAの小数点以下から所定のビット
を切りだしたものsf’,tf’を得てマージし、この
値をインデックスとして、選択した加重値テーブルを引
き、加重値を得る。
The texture data weighting circuit 741c weights the texture data by the fractional part (sf, tf) of the texture coordinates and the pixel selection. In order to obtain this weight, a weight value table 741d for storing the weight values calculated in advance for a series of values of the pixel selection and the decimal part of the texture coordinates is provided. The weight value can be calculated at high speed simply by referring to this table. FIG. 13 shows the processing of the texture data weighting circuit 741c. First, by the pixel selection, a weight value table provided for each pixel selection is selected. Predetermined bits are cut out from the decimal point of the DDA for calculation of the texture coordinates s, t, sf ', tf' are obtained and merged, and the selected weight value table is drawn using this value as an index to obtain the weight value. ..

【0031】輝度合成回路741aでは、加算や乗算な
ど、図8の表に示した合成処理を行う。
The luminance synthesizing circuit 741a performs the synthesizing process shown in the table of FIG. 8 such as addition and multiplication.

【0032】すなわち、混合法としては、乗算と加算が
あり、それぞれのテクスチャデータの種類により、RG
B輝度およびαの出力値は図8の表のようになる。ここ
で、テクスチャデータはテクスチャデータ加重回路74
1cにより加重された値である。
That is, as the mixing method, there are multiplication and addition, and RG depends on the type of texture data.
The output values of B brightness and α are as shown in the table of FIG. Here, the texture data is the texture data weighting circuit 74.
It is a value weighted by 1c.

【0033】なお、テクスチャマップを施す必要がない
場合は勿論、輝度混合は行わず、DDA部73からの入
力情報(RGBα)がそのまま出力される。
When it is not necessary to apply the texture map, the brightness is not mixed, and the input information (RGBα) from the DDA unit 73 is output as it is.

【0034】以上の説明により、レンダリングプロセッ
サ7がテクスチャマップを施して、また施さずにスパン
を描画できることが明らかになったと思う。
From the above description, it is clear that the rendering processor 7 can draw spans with and without texture maps.

【0035】さらに、図1に示した処理フローチャート
を勘案すれば、表示画素毎に算出されるテクスチャ座標
で指定される点のテクスチャデータの値が近傍のテクス
チャ画素の値の加重平均、すなわち、補間したものとす
ることが出来ることは明らかになったと考える。
Further, considering the processing flowchart shown in FIG. 1, the value of the texture data at the point designated by the texture coordinates calculated for each display pixel is a weighted average of the values of neighboring texture pixels, that is, the interpolation. I think it became clear that I could do what I did.

【0036】例えば、つぎのような補間が可能である。
すなわち、テクスチャ座標の小数部sf,tfとし、テ
クスチャ座標に隣接したテクスチャ画素の値に関して
は、左下の画素をIlb、左上の画素をIlt、右下の画素
をIrb、右上の画素をIrtとすると、数1で表される、
通常バイリニア補間と呼ばれる補間を行うことができ
る。これはs,tの両方向に線形補間を行うものであ
り、テクスチャデータの補間においても有効であると考
えられるものである。
For example, the following interpolation is possible.
That is, the decimal parts sf and tf of the texture coordinates are used, and regarding the values of the texture pixels adjacent to the texture coordinates, the lower left pixel is Ilb, the upper left pixel is Ilt, the lower right pixel is Irb, and the upper right pixel is Irt. , Expressed by the equation 1,
Interpolation commonly called bilinear interpolation can be performed. This is for performing linear interpolation in both directions of s and t, and is considered to be effective in the interpolation of texture data.

【0037】[0037]

【数1】 I=(1−sf)(1−tf)Ilb+(1−sf)tfIlt+sf(1−tf)Irb+sftfIrt この補間を実現させるためには、加重値テーブル741
cの該当画素選択のエリアにそれぞれ、(1−sf)(1−t
f),(1−sf)tf,sf(1−tf)およびsftfに関する一連の
値を設定して、フローチャート13の処理を行なえば良
い。
## EQU00001 ## I = (1-sf) (1-tf) Ilb + (1-sf) tfIlt + sf (1-tf) Irb + sftfIrt In order to realize this interpolation, the weight value table 741
The corresponding pixel selection area of c is (1-sf) (1-t
f), (1-sf) tf, sf (1-tf), and sftf may be set to a series of values and the process of the flowchart 13 may be performed.

【0038】第二の手段による場合は、レンダリングプ
ロセッサ7が従来のもの、すなわち、テクスチャ合成部
74で、テクスチャデータ加重回路741cがなく、フ
レームバッファインタフェース77は、常にテクスチャ
座標に最も近い、テクスチャ画素をテクスチャバッファ
10から取り込むものであるとする。
In the case of the second means, the rendering processor 7 is the conventional one, that is, the texture synthesizing unit 74 does not have the texture data weighting circuit 741c, and the frame buffer interface 77 always has the texture pixel closest to the texture coordinate. Is taken from the texture buffer 10.

【0039】図15のフローチャート14に処理手順を
示す。ステップ14aは座標変換、ステップ14bは輝
度計算、ステップ14cはクリッピング処理、ステップ
14dはスパン端点情報計算で、図1に示したフローチ
ャートの処理と同一である。
The processing procedure is shown in the flowchart 14 of FIG. Step 14a is coordinate conversion, step 14b is brightness calculation, step 14c is clipping processing, and step 14d is span end point information calculation, which are the same as the processing of the flowchart shown in FIG.

【0040】ステップ14eはスパン端点のテクスチャ
座標に微小変位を加算し、ステップ14fにて、スパン
描画を行う。この時、フレームバッファ8に描画する輝
度は、テクスチャマップして得られた輝度を繰返し描画
する回数で割ったもの、すなわち、重みを加えたもの
を、フレームバッファの内容に加算するようにする。こ
の処理は、輝度ブレンド部74のαブレンド部742の
機能、すなわち、テクスチャ合成部741により得られ
たテクスチャマッピングした輝度に定数を乗じて、フレ
ームバッファ8の内容に加算してフレームバッファ8に
書き込む機能を用いることにより実現出来る。
In step 14e, a minute displacement is added to the texture coordinates of the span end point, and in step 14f, span drawing is performed. At this time, the brightness drawn in the frame buffer 8 is obtained by dividing the brightness obtained by texture mapping by the number of times of repeated drawing, that is, a weighted value is added to the contents of the frame buffer. This processing is performed by the function of the α blending unit 742 of the luminance blending unit 74, that is, by multiplying the texture-mapped luminance obtained by the texture synthesizing unit 741 by a constant, adding the result to the content of the frame buffer 8, and writing the result in the frame buffer 8. It can be realized by using the function.

【0041】ステップ14gでは、変位を与えての描画
する回数が規定の回数になったかを判定し、達していな
い場合、ステップ14eに戻り、一連の処理を繰り返
す。ステップ14hは多角形の全スパンの描画処理が終
了したかを判定し、未終了ならステップ14dに戻り一
連の処理を繰り返す。
In step 14g, it is determined whether the number of times of drawing with a given displacement has reached a prescribed number. If not, the process returns to step 14e to repeat a series of processes. In step 14h, it is determined whether or not the drawing processing of all the spans of the polygon is completed. If not completed, the processing returns to step 14d to repeat the series of processing.

【0042】以上の説明により、従来のハードウェアで
第二の手段による滑らかなテクスチャマッピングが可能
になることが明らかになった。
From the above description, it has been clarified that the conventional hardware enables smooth texture mapping by the second means.

【0043】[0043]

【発明の効果】本発明により、比較的小規模なハードウ
ェアで、表示画素のテクスチャ座標がテクスチャ画素中
心とならない場合でも近傍のテクスチャ画素の値から補
間した値でマッピングを行うことができ、滑らかなテク
スチャマッピング表示が可能となる。
As described above, according to the present invention, it is possible to perform mapping with a value obtained by interpolating from the value of a texture pixel in the vicinity even when the texture coordinate of the display pixel is not the center of the texture pixel with a relatively small-scale hardware. It is possible to display various texture mappings.

【図面の簡単な説明】[Brief description of drawings]

【図1】第一の手段による多角形のテクスチャマップ表
示処理手順を示すフローチャートである。
FIG. 1 is a flowchart showing a polygon texture map display processing procedure by a first means.

【図2】システム全体の構成図である。FIG. 2 is a configuration diagram of the entire system.

【図3】レンダリングプロセッサのブロック図である。FIG. 3 is a block diagram of a rendering processor.

【図4】DDA部のブロック図である。FIG. 4 is a block diagram of a DDA unit.

【図5】輝度ブレンド部のブロック図である。FIG. 5 is a block diagram of a luminance blending unit.

【図6】テクスチャ合成部のブロック図である。FIG. 6 is a block diagram of a texture synthesizing unit.

【図7】テクスチャデータの一例を示す図である。FIG. 7 is a diagram showing an example of texture data.

【図8】輝度混合処理内容を示す図である。FIG. 8 is a diagram showing the details of luminance mixing processing.

【図9】多角形の塗り潰し処理の説明図である。FIG. 9 is an explanatory diagram of polygon filling processing.

【図10】光の反射モデルの説明図である。FIG. 10 is an explanatory diagram of a light reflection model.

【図11】従来のテクスチャマッピング装置を示す図で
ある。
FIG. 11 is a diagram showing a conventional texture mapping device.

【図12】テクスチャデータの算出方法の説明図であ
る。
FIG. 12 is an explanatory diagram of a texture data calculation method.

【図13】テクスチャデータ加重回路での処理の説明図
である。
FIG. 13 is an explanatory diagram of processing in a texture data weighting circuit.

【図14】テクスチャ座標への微小変位の与え方の一例
を示す図である。
FIG. 14 is a diagram showing an example of how to apply a minute displacement to texture coordinates.

【図15】第二の手段による多角形のテクスチャマップ
表示処理手順を示すフローチャートである。
FIG. 15 is a flowchart showing a polygon texture map display processing procedure by the second means.

【符号の説明】[Explanation of symbols]

1…CPU、2…主メモリ・システムバス制御、3…主
メモリ、4…システムバス、5…グラフィックバス制
御、6…グラフィックバス、7…レンダリングプロセッ
サ8…フレームバッファ、9…Zバッファ、10…テク
スチャバッファ、11…DAC、12…モニタ、13…
本発明の第一の手段による処理手順を示すフローチャー
ト、14…本発明の第二の手段による処理手順を示すフ
ローチャート。
1 ... CPU, 2 ... Main memory / system bus control, 3 ... Main memory, 4 ... System bus, 5 ... Graphic bus control, 6 ... Graphic bus, 7 ... Rendering processor 8 ... Frame buffer, 9 ... Z buffer, 10 ... Texture buffer, 11 ... DAC, 12 ... Monitor, 13 ...
The flowchart which shows the processing procedure by the 1st means of this invention, 14 ... The flowchart which shows the processing procedure by the 2nd means of this invention.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】表示物体に関する、形状の幾何学的情報、
表面の模様等を指定するテクスチャデータ、表示物体の
各部とテクスチャデータとの対応関係を示すテクスチャ
座標、表示される状況を設定するために仮想的に与えら
れる、視点の情報などを基に、テクスチャデータを物体
表面にマッピングすることにより、物体表面の細部を表
現する三次元図形表示において、 表示画素におけるテクスチャ座標の指す位置の近傍のテ
クスチャ画素の値をマッピングして表示画素の輝度を
得、この値に加重を加えて累積加算し、この一連の処理
を複数の近傍テクスチャ画素に渡るように繰返し、累積
結果を表示画素の輝度として、得て、滑らかなテクスチ
ャマッピングを実現することを特徴とするテクスチャマ
ッピング装置。
1. Geometrical information of a shape relating to a display object,
Based on the texture data that specifies the surface pattern, the texture coordinates that show the correspondence between each part of the display object and the texture data, and the viewpoint information that is virtually given to set the displayed situation. By mapping the data to the object surface, in the three-dimensional graphic display that expresses the details of the object surface, the value of the texture pixel near the position indicated by the texture coordinates in the display pixel is mapped to obtain the brightness of the display pixel. A feature is that weighting is added to the values, cumulative addition is performed, and this series of processing is repeated so as to spread over a plurality of neighboring texture pixels, and the cumulative result is obtained as the brightness of the display pixel to realize smooth texture mapping. Texture mapping device.
【請求項2】前記加重は、テクスチャ座標の指す位置か
ら該テクスチャ画素の中心までの偏差の値により定める
ことを特徴とする請求項1記載のテクスチャマッピング
装置。
2. The texture mapping device according to claim 1, wherein the weight is determined by a value of a deviation from a position indicated by texture coordinates to a center of the texture pixel.
【請求項3】前記加重を前記偏差より求めるにあたり、
予め一連の偏差に対して計算された加重値を記憶するテ
ーブルを設け、このテーブルを参照することを特徴とす
る請求項2記載のテクスチャマッピング装置。
3. When obtaining the weight from the deviation,
The texture mapping device according to claim 2, further comprising a table for storing a weight value calculated for a series of deviations in advance, and referring to the table.
【請求項4】前記近傍のテクスチャ画素を得るのに、本
来のテクスチャ座標に微小な変位を加え、テクスチャ座
標の指す位置に最も近いとみなされるテクスチャ画素と
することを特徴とする請求項1記載のテクスチャマッピ
ング装置。
4. A texture pixel that is considered to be closest to a position indicated by the texture coordinate is obtained by adding a small displacement to the original texture coordinate in order to obtain the texture pixel in the vicinity. Texture mapping device.
【請求項5】表示物体に関する、形状の幾何学的情報、
表面の模様等を指定するテクスチャデータ、表示物体の
各部とテクスチャデータとの対応関係を示すテクスチャ
座標、表示される状況を設定するために仮想的に与えら
れる、視点の情報などを基に、テクスチャデータを物体
表面にマッピングすることにより、物体表面の細部を表
現する三次元図形表示において、 表示物体とテクスチャデータとの関係を示す本来のテク
スチャ座標に、微小変位を与え、表示画素にマッピング
するテクスチャの値として、該表示画素に該当するテク
スチャ座標の指す位置に最も近いとみなされるテクスチ
ャ画素の値を用いるテクスチャマッピングを施して描画
し、描画結果の画像に加重を加えて累積し、この処理を
様々な微小変位について繰返して、表示画像を得、より
滑らかなテクスチャマッピング表示を実現することを特
徴とするテクスチャマッピング方法。
5. Geometrical information about the shape of the display object,
Based on the texture data that specifies the surface pattern, the texture coordinates that show the correspondence between each part of the display object and the texture data, and the viewpoint information that is virtually given to set the displayed situation. By mapping the data to the object surface, in a three-dimensional graphic display that represents the details of the object surface, a texture that gives a small displacement to the original texture coordinates that show the relationship between the displayed object and the texture data and maps it to the display pixel. As a value of, the texture mapping is performed using the value of the texture pixel that is considered to be closest to the position indicated by the texture coordinates corresponding to the display pixel, and the image is drawn, weighted and accumulated, and this processing is performed. Repeat the display for various small displacements to obtain a display image and perform a smoother texture mapping display. A texture mapping method characterized by revealing.
【請求項6】表示物体に関する、形状の幾何学的情報、
表面の模様等を指定するテクスチャデータ、表示物体の
各部とテクスチャデータとの対応関係を示すテクスチャ
座標、表示される状況を設定するために仮想的に与えら
れる、視点の情報などを基に、テクスチャデータを物体
表面にマッピングすることにより、物体表面の細部を表
現する三次元図形表示において、 表示画素のテクスチャデータの値を、その画素のテクス
チャ座標が指す位置の近傍のテクスチャ画素から補間し
たものとするため、近傍のテクスチャ画素の値によるマ
ッピングを繰返し行ない、結果に加重を加え、累積加算
して表示画像を得ることを特徴とするテクスチャマッピ
ング装置。
6. Geometrical information about the shape of the displayed object,
Based on the texture data that specifies the surface pattern, the texture coordinates that show the correspondence between each part of the display object and the texture data, and the viewpoint information that is virtually given to set the displayed situation. By mapping the data to the object surface, in the three-dimensional graphic display that represents the details of the object surface, the value of the texture data of the display pixel is interpolated from the texture pixel near the position indicated by the texture coordinate of the pixel. Therefore, the texture mapping device is characterized in that the mapping is repeated by the values of the texture pixels in the vicinity, and the result is weighted and cumulatively added to obtain a display image.
JP9627692A 1992-04-16 1992-04-16 Texture mapping device Pending JPH05298455A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9627692A JPH05298455A (en) 1992-04-16 1992-04-16 Texture mapping device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9627692A JPH05298455A (en) 1992-04-16 1992-04-16 Texture mapping device

Publications (1)

Publication Number Publication Date
JPH05298455A true JPH05298455A (en) 1993-11-12

Family

ID=14160616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9627692A Pending JPH05298455A (en) 1992-04-16 1992-04-16 Texture mapping device

Country Status (1)

Country Link
JP (1) JPH05298455A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852446A (en) * 1995-06-30 1998-12-22 Matsushita Electric Industrial Co., Ltd. Rendering apparatus and rendering method, and mapping apparatus and mapping method
JP2000293667A (en) * 1999-04-06 2000-10-20 Dainippon Printing Co Ltd Picture synthesizing device
JP2005293616A (en) * 2005-06-06 2005-10-20 Dainippon Printing Co Ltd Image synthesis device
CN109191557A (en) * 2018-09-11 2019-01-11 中国科学院国家天文台 The image texture mapping method and device of relief map

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852446A (en) * 1995-06-30 1998-12-22 Matsushita Electric Industrial Co., Ltd. Rendering apparatus and rendering method, and mapping apparatus and mapping method
JP2000293667A (en) * 1999-04-06 2000-10-20 Dainippon Printing Co Ltd Picture synthesizing device
JP2005293616A (en) * 2005-06-06 2005-10-20 Dainippon Printing Co Ltd Image synthesis device
CN109191557A (en) * 2018-09-11 2019-01-11 中国科学院国家天文台 The image texture mapping method and device of relief map
CN109191557B (en) * 2018-09-11 2023-05-02 中国科学院国家天文台 Image texture mapping method and device for stereoscopic topographic map

Similar Documents

Publication Publication Date Title
JP3107452B2 (en) Texture mapping method and apparatus
US7348996B2 (en) Method of and system for pixel sampling
US6016151A (en) 3D triangle rendering by texture hardware and color software using simultaneous triangle-walking and interpolation for parallel operation
US5786822A (en) Method and apparatus for mapping texture on an object displayed at a varying view angle from an observer
US6469700B1 (en) Per pixel MIP mapping and trilinear filtering using scanline gradients for selecting appropriate texture maps
US6529194B1 (en) Rendering method and apparatus, game system, and computer readable program product storing program for calculating data relating to shadow of object in virtual space
WO2006095481A1 (en) Texture processing device, drawing processing device, and texture processing method
JP3704734B2 (en) Texture mapping method and apparatus
JPH10334273A (en) Three-dimension image processing unit and three-dimension image processing method
KR100277803B1 (en) 3D graphic display
US5973701A (en) Dynamic switching of texture mip-maps based on pixel depth value
US20070097145A1 (en) Method and system for supersampling rasterization of image data
KR20080100854A (en) Rendering processing method, rendering processing device, and computer-readable recording medium having recorded therein a rendering processing program
JP3035571B2 (en) Image processing device
JPH09245191A (en) Transparency transformation method, its device and image processor
JPH05298455A (en) Texture mapping device
US6259455B1 (en) Method and apparatus for applying specular highlighting with specular components included with texture maps
US6563497B1 (en) Image processing apparatus
US20030169272A1 (en) Image generation apparatus and method thereof
JP4060375B2 (en) Spotlight characteristic forming method and image processing apparatus using the same
EP0425573B1 (en) Texture mapping for computer graphics display controller system
JP3556517B2 (en) 3D image processing device
JPS60246481A (en) Graphic display device
JPH05303648A (en) Simulated visual range generating device
JPH05342368A (en) Method and device for generating three-dimensional picture