WO2002023484A1 - Procede de mappage de texture et dispositif de rendu d'image - Google Patents

Procede de mappage de texture et dispositif de rendu d'image Download PDF

Info

Publication number
WO2002023484A1
WO2002023484A1 PCT/JP2001/007936 JP0107936W WO0223484A1 WO 2002023484 A1 WO2002023484 A1 WO 2002023484A1 JP 0107936 W JP0107936 W JP 0107936W WO 0223484 A1 WO0223484 A1 WO 0223484A1
Authority
WO
WIPO (PCT)
Prior art keywords
texture
polygon
vertices
coordinates
amount
Prior art date
Application number
PCT/JP2001/007936
Other languages
English (en)
French (fr)
Inventor
Toshiyuki Takahei
Masahiko Inami
Yasuyuki Yanagida
Taro Maeda
Susumu Tachi
Original Assignee
Center For Advanced Science And Technology Incubation, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Center For Advanced Science And Technology Incubation, Ltd. filed Critical Center For Advanced Science And Technology Incubation, Ltd.
Priority to JP2002527455A priority Critical patent/JP4714919B2/ja
Priority to AU2001286216A priority patent/AU2001286216A1/en
Publication of WO2002023484A1 publication Critical patent/WO2002023484A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Definitions

  • the present invention relates to a texture mapping method and a rendering device, and more particularly, to a texture mapping method and a rendering device capable of matching display results of shading and texture mapping.
  • An object in 3DCG is generally represented by a set of polygon planes (Polygons) pasted by a number of vertices.
  • the rendering is performed based on the position of each vertex of the three-dimensional model, the connection information, and data on the material.
  • calculation processing for each pixel (pixel) on the two-dimensional image is performed.
  • the context is determined according to the distance of each drawing pixel from the viewpoint position (hidden surface processing), and the color and brightness of each vertex are interpolated to smoothly shade the Polygon color pasted at that vertex (shading ).
  • a method of expressing details in a pseudo manner by pasting a two-dimensional image etc. on the surface of the three-dimensional object obtained in this way This is called char mapping.
  • Shading is a method of shading the surface of a 3D object composed of polygons based on the light source and the shape of the object. Since it is extremely difficult to perform physically accurate shading calculations and the number of tatami mats becomes enormous, various calculation methods have been devised to reduce this. In general, the higher the quality of the image, the greater the amount of calculation.
  • Types of shading include Flat shading, Gouraud shading, and Phong shading.
  • Flat shading is a method in which a normal is drawn for each face of the polygon that makes up the surface, and the color of the face is determined from the inner product of this and the light source vector. Since the shading unit is plane-by-plane, a smooth curved surface cannot be represented, but the computational complexity is small and high-speed display is possible.
  • Gouraud shading is a method in which a normal is set for each vertex of a polygon that forms the surface, and the color at each vertex is determined from the inner product of this and the light source vector. Between the vertices, the colors of the vertices are colored by linear interpolation. Although relatively fast and smooth curved surfaces can be simulated, high-curvature curved surfaces and highlights become unnatural.
  • Phong shading creates a normal at each vertex of the polygon that composes the surface, and then linearly interpolates the normal from the normal vector at each vertex for each pixel of the result image drawn between the vertices. Based on this, the color is determined for each pixel from the inner product of the light source and the normal. High-quality results are obtained, but the computational complexity per pixel is large, so it is rarely used in current real-time 3D-CG.
  • Texture mapping is a method of improving the texture by attaching an image to the surface of a 3D object.
  • the u, v coordinate system is used for the texture image to be pasted, and the u (v) coordinate values are assigned to each vertex to determine the method of mapping (mapping method).
  • real-time 3D-CG generally generates images using a combination of Gouraud shading and texture mapping.
  • Texture mapping is applied to the object obtained in this way. Texture coordinates are defined for each vertex of the object, and are stretched and pasted by linear interpolation between them. The texture applied to the plane of the object will be perfectly represented from any point of view.
  • the above method can provide almost no problem. However, there are some problems when trying to represent a curved surface in the same way.
  • a curved surface is simulated by dividing it into a set of fine polygonal planes. At this time, many vertices and planes are required, and the computational complexity increases significantly. Here, the number of divisions of the surface is determined by the trade-off between image quality and computational complexity.However, considering the advantages of real-time 3D-CG that images can be obtained from arbitrary viewpoints, when displaying details However, it is a problem that the curved surface is inevitably roughened.
  • Gouraud shading provides a pseudo-surface representation with approximately smooth shading.
  • an unnatural shadow such as a Mach band occurs.
  • an object is projected onto a two-dimensional image, and is approximated through processes such as shading by illumination and pasting of an image pattern onto the object surface (texture mapping).
  • a result image is generated.
  • the present invention has been made to solve such a new problem, that is, the problem of the difference between the shading and the display result of texture mapping, which occurs when texture mapping to a pseudo curved surface, and the two are in agreement. It is an object of the present invention to provide a texture mapping method and a rendering device capable of causing the texture mapping.
  • a texture mapping method comprises the steps of: preparing an object composed of one or more polygons in three-dimensional coordinates;
  • a step of obtaining a texture coordinate shift amount which is an error amount generated between the surface of the polygon and the curved surface when viewed from the line of sight, based on the angle ⁇ and the lift amount d at each point on the plane;
  • a rendering device includes: a three-dimensional model storage unit that stores an object constituted by one or more polygons in three-dimensional coordinates; and a texture that stores textures associated with a plurality of vertices of the polygon.
  • a storage unit a perspective transformation unit that performs perspective transformation of the target by projecting a plurality of vertices of the polygon on screen coordinates, and a pixel on the screen coordinates corresponding to the plurality of vertices of the polygon, A drawing unit that draws based on the texture; a linear interpolation unit that obtains texture coordinates corresponding to pixels between a plurality of vertices of the polygon on the screen coordinates by performing linear interpolation between the plurality of vertices; The angle between the line-of-sight direction in the original space and the surface normal of the polygon The lift amount d at each point on the plane from the surface constituting the polygon to the predetermined curved surface is received, and based on these, it is generated between the surface of
  • a texture coordinate shift amount calculating unit for obtaining a texture coordinate shift amount which is an error amount; and a texture coordinate correcting unit for correcting the texture coordinates based on the texture coordinate shift amount, wherein the texture storage is performed based on the corrected texture coordinates.
  • a rendering device for reading out the texture data of the section and rendering based on the data.
  • FIG. 1 is a block diagram of an apparatus according to an embodiment of the present invention.
  • FIG. 2 is a flowchart of the process according to the embodiment of the present invention.
  • FIG. 3 is an operation explanatory diagram of the embodiment of the present invention.
  • FIG. 4 is an operation explanatory diagram of the embodiment of the present invention.
  • FIG. 5 is an operation explanatory diagram of the embodiment of the present invention.
  • FIG. 6 is an example of a processing result according to the embodiment of the present invention.
  • the embodiment of the present invention proposes an “intra-texture shift” method for performing correction for this problem during texture mapping.
  • the curved surface shape assumed in the final rendered image is calculated backward, and a distorted texture image is dynamically generated and pasted. This is a method of obtaining the same effect.
  • Dynamic generation of texture images has been studied in the field of image-based rendering (Oliveira, Manuel M. Relief Texture Mapping.Ph.D.Dissertation, University of North Carolina, 2000) In order to reduce the amount of calculation in real time for the purpose, various devices are required. This texture image generation processing is realized by shifting the texture image reference position of each drawing pixel during texture mapping processing, instead of actually distorting the texture image.
  • a computer has a central processing unit (including CPU and memory), an external storage device (including a hard disk, a CD-ROM drive, and a floppy disk drive), an input device (including a keyboard and a pointing device), and an output device.
  • Equipment including CRT display and liquid crystal display
  • communication equipment including modem and terminal adapter.
  • FIG. 1 is a block diagram showing a main part of an apparatus according to an embodiment of the present invention. This figure is, for example, a functional block diagram showing a main part in a computer where a program according to this apparatus / method is installed. For convenience of explanation, only necessary parts are shown, and the apparatus / method may include other parts not shown as necessary.
  • reference numeral 1 denotes a three-dimensional model storage unit that stores an object constituted by one or more polygons in three-dimensional coordinates
  • reference numeral 2 denotes a plurality of vertices of the polygon projected on screen coordinates
  • a perspective transformation unit that performs perspective transformation of the object
  • reference numeral 3 denotes a drawing unit that renders pixels on the screen coordinates corresponding to a plurality of vertices of the polygon based on a texture
  • reference numeral 4 denotes the polygon.
  • a texture storage unit that stores textures associated with a plurality of vertices of the polygon
  • reference numeral 5 denotes texture coordinates corresponding to pixels between the plurality of vertices of the polygon on the screen constellation S
  • Reference numeral 6 denotes a linear interpolation unit that is obtained by performing linear interpolation between: a predetermined angle based on an angle S between a line-of-sight direction in a three-dimensional space and a surface normal of the polygon and a surface forming the polygon in the three-dimensional space.
  • a texture coordinate shift which receives a lift amount d at each point on a plane up to a curved surface and calculates a texture coordinate shift amount which is an error amount generated between the polygon surface and the curved surface when viewed from the line of sight based on these.
  • An amount calculation unit 7 is a texture coordinate correction unit that corrects the texture coordinates based on the texture coordinate shift amount.
  • FIG. 2 is a flowchart of a process according to the embodiment of the present invention.
  • the process of drawing each pixel as a result image after completing the coordinate transformation calculation on a per-vertex basis is called "last-rise”.
  • Gouraud shading at this stage, based on the position, color, and texture coordinates where the vertices are projected on the resulting image, linear interpolation is performed between them to draw.
  • the corresponding color is obtained from the texture image based on the texture coordinates calculated by interpolation, and the color of each pixel to be drawn is determined.
  • the problem of applying a texture to a pseudo-surface is a problem because the texture coordinates are defined in units of vertices, and all points between vertices, that is, points on the surface, are calculated by linear interpolation. Therefore, the apparatus according to the embodiment of the present invention includes the texture coordinate shift amount calculator 6 and the texture coordinate corrector 7, and shifts the texture coordinates according to the pseudo curved surface. This enables smooth and natural texture expression.
  • the texture coordinate shift amount calculator 6 and the texture coordinate corrector 7 calculate the reference position of the texture coordinates at the time of rasterization.
  • rasterization drawing calculation is performed for each pixel, so if a surface calculation can be performed in pixel units, a very detailed surface display can always be performed. This is equivalent to the difference between Gouraud and Phong shading in shading.
  • the calculation amount increases by this amount, but the calculation for obtaining the texture reference coordinates on the same plane is relatively simple.
  • this method is referred to as pseudo-surface representation by texture coordinate shift. Things to keep in mind when doing this
  • e u is the projection of the line-of-sight vector e on this plane.
  • this plane is a curved surface
  • the point that should exist in A becomes the point B on the plane, so there is a difference between the plane and the curved surface when viewed from the e direction.
  • shift the texture coordinates for each pixel in the plane and assign the B texture coordinates to the C location.
  • the texture coordinate value of B is required, and for that, d tan0u, that is, the lifting amount d at each point on the plane in B is required. To find this d, the texture coordinate value of B is still necessary. Therefore, assuming that the assumed curved surface is sufficiently smooth and that the angle /? Between the normal of the plane and the line-of-sight vector is sufficiently small (tanS is small), then d (B) i? D (C) There is approximation.
  • the angle n between n and e which is required here, can be determined not for each pixel but for one plane.
  • the angle between the line-of-sight vector and the normal vector must also be determined by illumination calculation during shading, and this type of calculation can be performed at high speed on a graphic chip.
  • the lifting amount d (u, v) from the plane to the assumed curved surface is calculated. This can be done by approximation from the position of each vertex or the normal vector. However, if this calculation is performed for each pixel during rasterization, the amount of calculation will be extremely large. Here, we consider a method to eliminate this.
  • the amount of lift to be obtained is a static value that differs at each point on the texture image, but does not change with each drawing. These values may be calculated in advance and stored for each surface.
  • a texture image is prepared in which the lifting amount d (u, v) is shaded, and this is referred to in the same way as when referring to the value of each pixel of the texture image at the time of last rise.
  • multi-texture technology For example, it is a function that can be used in APIs such as DirectX.
  • the second image texture is used as a lift amount table, and a process of “shifting the texture coordinates” is performed instead of mixing, thereby obtaining “multi-text”. It can provide a mounting method that can perform real-time processing even on the current hardware technologies such as the Cuscia technology and the EMBM technology.
  • the first method is to give the texture image a value (usually representing transparency) along with the RGB value color, and use the lift amount as the ⁇ value.
  • color and transparency are expressed by giving a texture image a total of 4 channels of color information RGB and values.
  • Another method is to prepare a separate texture image with a general lift amount
  • a floating amount table can be provided in the ⁇ channel, and if transparency is required, a floating amount texture image may be separately prepared.
  • the amount of the rising surface can be used as an altitude table that indicates the height in a broad sense. This makes it possible to apply to a wide variety of applications, for example, not only for expressing smooth curved surfaces, but also for expressing arbitrary shapes such as terrain and human faces with a few polygons.
  • the reference position of the texture image is corrected at the stage of last rise.
  • Texture mapping is performed based on the corrected texture coordinates.
  • a known method can be used for the actual processing.
  • a Multimedia API proposed by Microsoft Corporation, Direct3D (trademark), a real-time 3D-CG rendering API in DirectX can be used.
  • the Direct3D (TM) 1998 Version 6 specification supports a feature called Environment-Mapped Bump-Mapping (EMBM).
  • EMBM Environment-Mapped Bump-Mapping
  • FIG. 6 shows an example of a processing result of a pseudo curved surface by texture coordinate shift according to the apparatus / method according to the embodiment of the present invention.
  • FIG. 6 (c) shows the target to be processed.
  • the target is a 32 prism in the upper half and an octagon in the lower half.
  • Fig. 6 (b) shows the result of applying normal texture mapping
  • Fig. 6 (a) shows the result of pseudo-surface processing by texture coordinate shift.
  • the distortion with the curvature of the texture is almost correctly expressed in the part near the front. It was also confirmed that this effect was realized in stereoscopic vision.
  • These displays can be processed in real time on existing graphics tools with functions such as EMBM.
  • the embodiment of the present invention it is possible to solve the problem (a new problem discovered by the inventor) that the approximate display of shading and texture pinch is different in pseudo-surface expression in real-time 3D-CG. According to the embodiment of the present invention, processing in real time is sufficiently possible.
  • means does not necessarily mean physical means, but also includes a case where the function of each means is realized by software. Further, the function of one means may be realized by two or more physical means, or the functions of two or more means may be realized by one physical means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Description

明 細 書 テクスチャマッピング方法及びレンダリング装置 技術分野
この発明はテクスチャマッピング方法及びレンダリング装置に関し、 特に、 シヱーディングとテ クスチヤマッピングの表示結果を一致させることができるテクスチャマヅピング方法及びレンダリ ング装置に関する。 背景技術
近年のコンピユー夕演算能力の急速な発展にともない、 人間の操作に応答できるだけの十分な描 画速度が必要とされる実時間 CG(Computer Graphics)の分野においても非常に高度な表現が可能 になってきた。実時間 CGでは、リアリティのある高度な表現と、それを算出するための計算量のトレ ードオフが常に問題となる。 特にバーチャルリアリティなどの応用技術分野ではこの両方に対する 要求が厳しく、 解決されるべきいくつかの問題点が残っている。
はじめに、 現在広く普及している実時間 3DCGの画像生成 (レンダリング)工程について概要をま とめる。
• 3次元空間情報にもとづく計算処理 (Transform & Lighting)
3DCG におけるオブジェクトは、 多数の頂点によって貼られる多角形平面 (Polygon)の集合によつ て表されるのが一般的である。 レンダリングは、 立体モデルの各頂点の位置 '結線情報、 材質に関 するデータなどをもとにして行う。
このデータに対して、 視界範囲内の要素のみを抽出し (力リング)、 各頂点が 2次元画像上のどの 位置に描画されるかを計算する (座標変換)。 ここで立体モデルとそれを照らす光源との位置関係か ら、 各頂点ごとの明るさを計算する (照光処理)。 ここまでが 3次元空間情報にもとづく計算処理 (Transform & Lighting)である。
• 2次元画像上の各画素 (ピクセル)ごとの計算処理 (ラス夕ライズ)
続いて、 2次元画像上の各画素 (ピクセル)ごとの計算処理 (ラスタライズ)を行う。各描画ピクセル の視点位置からの距離に応じて前後関係を判定し (陰面処理)、 各頂点ごとの色や明るさを補間して その頂点で貼られる Polygonの色を滑らかに陰影付けする(シエーディング)。こうして得られた 3次 元ォブジェクトの表面に 2次元画像などを貼り付けることで擬似的に細部を表現する方法をテクス チヤマッピングという。
現在広く普及している実時間 3D- CGの代表的な計算 ·表現技術について簡単に説明する。
( 1 ) シェーディング
多角形 (Polygon)で構成された 3次元オブジェクトの表面を、光源とオブジェクトの形状に基づい て陰影付けする方法をシヱーディングという。 物理的に正確なシェ一ディング計算を行うのは非常 に困難であり計算畳も膨大なものになるため、これを軽減すベく様々な計算方法が考案されてきた。 一般的に高品質な画質の得られるシエーディングほど計算量が多くなる。
シエーディングの種類として、 Flatシエーディング、 Gouraudシヱーディング、 Phongシエーデ ィングがある。
Flatシエーディングは、 表面を構成する多角形の各面ごとに法線をたて、 これと光源べクトルの 内積から面の色を決定する手法である。 シエーディングの単位が面ごとであるため滑らかな曲面は 表現できないが、 計算量は少なく高速に表示できる。
Gouraudシェ一ディングは、表面を構成する多角形の各頂点ごとに法線をたて、これと光源べクト ルの内積から各頂点での色を決定する手法である。 頂点間はそれそれの頂点の色を線形補間して色 付けする。 比較的高速で滑らかな曲面も擬似的に表現できるが、 曲率の高い曲面やハイライトの表 現が不自然になる。
Phong シェーディングは、 表面を構成する多角形の各頂点ごとに法線をたて、 次に頂点間の描画 される結果画像のビクセルごとに各頂点での法線べクトルから線形補間した法線をたて、 これをも とに光源と法線の内積からピクセルごとに色を決定する手法である。 高品質な結果が得られるがピ クセルごとの計算量が多いため、 現在の実時間 3D-CGで使用されることは稀である。
( 2 ) テクスチャマッピング
テクスチャマッピングとは、 3次元ォブジェクトの表面に画像を張り付けることで質感を向上さ せる手法である。 貼り付けるテクスチャ画像に u,v座標系をとり、 この u,v座標値を各頂点に割り 当てることで張りかた(マッピング方法)を決定する。
現在の実時間 3D- CGでは一般的に、 Gouraudシエーディングとテクスチャマッピングを併用する ことで画像を生成している。
上記実時間 3D- CGの表現技術を用いることにより、 定義されたォブジェクトの頂点位置はすべて 正確に 3次元空間内で計算され表示される。 例えば平面のみで構成されるオブジェクトを正確にモ デリングした場合には、 任意の視点から見た完全に正しい形状を得ることができる。
これに照光による陰影表現、 すなわちシェーディングを適用する。 得られる画像品質と演算処理 能力とのトレードオフから、 Gouraud シェーディングが現在もっとも広く利用されている。 これに よって、 正確な位置の頂点で張られる平面上に擬似的な陰影をつけることになる。
このようにして得られたオブジェクトにテクスチャマッピングを適用する。 テクスチャ座標はォ ブジェクトの頂点ごとに定義され、 その間を線形補間することで引き延ばされて張り付けられる。 オブジェクトの平面に適用されたテクスチャは、 任意の視点から見て完全に正しく表現されること になる。
平面のみで構成されるオブジェクトであれば、以上の方法でおよそ問題のない結果を得られるが、 同様にして曲面を表現しょうとした場合にはいくつかの問題が生じる。
曲面は細かい多角形の平面の集合に分割することで擬似的に表現されるが、 この際に多くの頂点 や平面が必要となり、 計算量が著しく増加する。 ここでは画像品質と計算量のトレードオフによつ て曲面の分割数が決定されるが、 任意の視点からの画像を得られるという実時間 3D- CGの利点から 考えると、 細部を表示する場合にどうしても曲面が荒くなつてしまうのは問題である。
シエーディングに関しては、 Gouraud シエーディングによっておよそ滑らかな陰影をもつ擬似曲 面表現が得られる。 しかし頂点位置でのみ色を計算し陰影の変化を線形補間で近似しているため、 マッハバンドなどの不自然な陰影が生じてしまう。
テクスチャマッピングを適用した場合、 問題はさらに顕著になる。 頂点間のテクスチャ座標が線 形補間されることにより、 テクスチャ画像中の直線部分は、 曲面上でも曲がることなく平面的に張 り付けられる。 これは Gouraud シヱ一デイングがグラデーションによって曲面上の陰影を視覚的 にごまかしているのに対し、 テクスチャ画像中には形状を知覚する手がかりが多く、 視覚的にこの ようなごまかしができないためである。
これらを原因として、 とくに以下のような場合に疑似曲面表現が破綻する。 これらはバ一チャル リアリティなどの応用的な実装を考える際に深刻な問題になってくる。
( 1 ) 動くオブジェクトの表現
動きのあるオブジェクトを表示すると、 曲面を擬似的に表現していることに起因する問題点は明 確にあらわれる。 オブジェクトが回転する際の不自然な外形の変化やテクスチャ画像の平面的な回 転は、 曲面の擬似的な表現を損なってしまう。
( 2 ) 立体視での融像
立体視を行う際、 人間は左右の目から得られた画像中から適当な対応点を抽出し、 これをもとに 自己と対応点の距離を推測している。 シヱーディングのみによる疑似曲面を提示した場合には、 グ ラデーシヨンの濃淡によって曲面上の対応点はあいまいになるので、 あまり違和感は生じない。 し かしこれにテクスチャマッピングを適用した場合には、 テクスチャ画像中のパターンはすべて明確 な対応点となり、 結果として曲面として表現したいものが平面的に融像してしまう。 これに影響さ れてシェーディングによる疑似曲面表現も損なわれてしまう。
前述のように、 実時間 3D- CGではオブジェクトを 2次元画像上に投影し、 照光による陰影付け (Shading)、オブジェクト表面への画像パターンの貼り付け(テクスチャマッピング)などの過程を経 て、 近似的に結果画像を生成する。
しカ し、 同様の手法によりオブジェクトの曲面部分を描画しょうとする場合に、 シェーディング とテクスチャマッピングの近似表示結果が食い違ってくるという問題がある。 この問題は従来議論 されていなかつたものであり、 本発明者により初めて見出されたものである。
曲面において従来のテクスチャマッピングがシエーディングによる疑似曲面表現を損なつている、 という点以外に、 「両眼立体視を行なった場合に従来のシエーディング'テクスチャ処理では曲面表 現が明瞭に破綻する。 これを現状のハードウェア技術上の処理で効果的に解決できる」 という点も 同様かそれ以上に重要である。 テクスチャがシェーディング表現を損ねる問題はこれまで 「やむを えない」 として許容もされてきたが、 今後当然普及していくであろう両眼立体視環境ではこの問題 がはるかに顕著に表れる。そのため、この解決手段を提示することは非常に意義があることである。 発明の開示
本発明は、 係る新規な問題、 すなわち、 疑似曲面へのテクスチャマッピングの際に生じるシエー デイングとテクスチャマツピングの表示結果の食 、違いという問題を解決するためになされたもの であり、 両者を一致させることができるテクスチャマッピング方法及びレンダリング装置を提供す ることを目的とする。
この発明に係るテクスチャマッピング方法は、 三次元座標においてひとつ又は複数のポリゴンに より構成される対象を用意するステップと、
前記ポリゴンの複数の頂点に対応づけられたテクスチャを用意するステップと、
前記ポリゴンの複数の頂点をそれぞれスクリーン座標上に投影することにより前記対象の透視変 換を行うステップと、
前記ポリゴンの複数の頂点に対応する前記スクリーン座標上の画素を、 前記テクスチャに基づき 描画するステップと、
前記スクリーン座標上における前記ポリゴンの複数の頂点の間の画素に対応するテクスチャ座標 を、 前記複数の頂点の間で線形補間することにより求めるステップと、 三次元空間における視線方向と前記ポリゴンの面法線とのなす角度 Θを求めるステツプと、 三次元空間における前記ポリゴンを構成する面から予め定められた曲面までの平面上の各点にお ける浮き上がり量 dを求めるステップと、
前記角度 Θおよび前記平面上の各点における浮き上がり量 dに基づき、 前記視線方向から見たと きの前記ポリゴンの面と前記曲面の間に生じる誤差量であるテクスチャ座標シフト量を求めるステ ヅプと、
前記テクスチャ座標を前記テクスチャ座標シフト量に基づき補正するステップと、
補正されたテクスチャ座標および前記テクスチヤに基づきテクスチヤマツピングを行うステップ とを備えるものである。
· この発明に係るレンダリング装置は、 三次元座標においてひとつ又は複数のポリゴンにより構成 される対象を記憶する三次元モデル記憶部と、 前記ポリゴンの複数の頂点に対応づけられたテクス チヤを記憶するテクスチャ記憶部と、 前記ポリゴンの複数の頂点をそれぞれスクリーン座標上に投 影することにより前記対象の透視変換を行う透視変換部と、 前記ポリゴンの複数の頂点に対応する 前記スクリーン座標上の画素を、 前記テクスチャに基づき描画する描画部と、 前記スクリーン座標 上における前記ポリゴンの複数の頂点の間の画素に対応するテクスチャ座標を前記複数の頂点の間 で線形補間することにより求める線形補間部と、 三次元空間における視線方向と前記ポリゴンの面 法線とのなす角度 0及び三次元空間における前記ポリゴンを構成する面から予め定められた曲面ま での平面上の各点における浮き上がり量 dを受け、 これらに基づき前記視線方向から見たときの前 記ポリゴンの面と前記曲面の間に生じる誤差量であるテクスチャ座標シフト量を求めるテクスチャ 座標シフト量計算部と、 前記テクスチャ座標を前記テクスチャ座標シフト量に基づき補正するテク スチヤ座標補正部とを備え、 補正されたテクスチャ座標に基づき前記テクスチャ記憶部のテクスチ ャデータが読み出され、 このデータに基づき描画されることを特徴とするレンダリング装置。 図面の簡単な説明
図 1は、 この発明の実施の形態に係る装置のブロック図である。
図 2は、 この発明の実施の形態に係る処理のフローチャートである。
図 3は、 この発明の実施の形態の動作説明図である。
図 4は、 この発明の実施の形態の動作説明図である。
図 5は、 この発明の実施の形態の動作説明図である。
図 6は、 この発明の実施の形態の処理結果の例である。 発明を実施するための最良の形態
前述の問題に対して、 この発明の実施の形態において、 テクスチャマッピング処理時にこの問題 のための補正を行う 「テクスチャ内シフト」手法を提案する。 すなわち空間中に曲面形状を生成す るのではなく、 最終的にレンダリングされる画像中での想定する曲面形状を逆算して、 歪めたテク スチヤ画像を動的に生成して貼り付けることで、 同等の効果を得るという手法である。
テクスチャ画像を動的に生成する方法は Image-based Renderingの分野で研究されてきている (Oliveira, Manuel M. Relief Texture Mapping. Ph.D. Dissertation, University of North Carolina, 2000 ) ifi 今回のような目的で実時間内の計算量に抑えるにはさらに様々な工夫が必要になってくる。 このテ クスチヤ画像生成処理を、 実際にテクスチャ画像を歪めるのではなく、 テクスチャマッピング処理 時に各描画ピクセルのテクスチャ画像参照位置をずらしてやることで実現する。
これは従来の Polygon細分化に対し、 前述のテクスチャマッピング処理のうち後半のものの計算 量増加だけですむという利点がある。 またラス夕ライズ時の処理であるため、 主な計算は最終的に 描画されるピクセルのみについて選択的に行われ、 視界の外や他のオブジェクトに隠された部分に ついては計算が省かれる。 さらに、 この処理は常に描画ピクセル単位で行われるため、 Polygon細 分化では粗さが見える程度まで拡大された場合にも有効である。
この発明の実施の形態に係る装置/方法について図を用いて具体的に説明する。
この装置/方法は、 コンピュータにより実現される。 周知のように、 コンピュータは、 中央処理 装置(C P U、 メモリを含む)、 外部記憶装置 (ハードディスク、 C D— R O Mドライブ、 フロッピ 一ディスクドライブを含む)、 入力装置 (キーボード、 ポインティングデバイスを含む)、 出力装置 ( C R Tディスプレイ、液晶ディスプレイを含む)、通信装置(モデム、ターミナルアダプタを含む) を備える。
図 1は、 この発明の実施の形態に係る装置の要部を示すブロック図である。 この図は、 例えば、 この装置/方法に係るプログラムがィンストールされたコンピュ一夕における主要部を示す機能ブ ロック図である。 説明の便宜上、 必要な部分のみを示しており、 この装置/方法は、 必要に応じて 図示されない他の部分を含んでもよい。
図 1において、 符号 1は三次元座標においてひとつ又は複数のポリゴンにより構成される対象を 記憶する三次元モデル記憶部、 符号 2は前記ポリゴンの複数の頂点をそれそれスクリーン座標上に 投影することにより前記対象の透視変換を行う透視変換部、 符号 3は前記ポリゴンの複数の頂点に 対応する前記スクリーン座標上の画素を、 テクスチャに基づき描画する描画部、 符号 4は前記ポリ ゴンの複数の頂点に対応づけられたテクスチャを記憶するテクスチャ記憶部、 符号 5は前記スクリ ―ン座 S上における前記ポリゴンの複数の頂点の間の画素に対応するテクスチャ座標を、 前記複数 の頂点の間で線形補間することにより求める線形補間部、 符号 6は三次元空間における視線方向と 前記ポリゴンの面法線とのなす角度 S及び三次元空間における前記ポリゴンを構成する面から予め 定められた曲面までの平面上の各点における浮き上がり量 dを受け、 これらに基づき前記視線方向 から見たときの前記ポリゴンの面と前記曲面の間に生じる誤差量であるテクスチャ座標シフト量を 求めるテクスチャ座標シフト量計算部、 符号 7は前記テクスチャ座標を前記テクスチャ座標シフト 量に基づき補正するテクスチャ座標補正部である。
図 2はこの発明の実施の形態にかかる処理のフローチャートである。
次に動作について説明する。
実時間 3D-CG技術において、 頂点単位での座標変換計算を終えた後、 結果画像として各ピクセル を描画する過程をラス夕ライズと呼ぶ。 Gouraud シェーディングでは、 この段階で頂点を結果画像 上に投影した位置や色、 テクスチャ座標を元に、 その間を線形補間して描画する。 この際、 補間計 算されたテクスチャ座標をもとにテクスチャ画像中から対応する色を取得し、 描画する各ピクセル の色を決定するのである。 疑似曲面へのテクスチャの適用が問題となるのは、 テクスチャ座標が頂 点単位で定義されており、 頂点間すなわち面上の点はすべて線形補間により計算されているためで ある。 そこで、 この発明の実施の形態の装置は、 テクスチャ座標シフト量計算部 6及びテクスチャ 座標補正部 7を備え、 擬似曲面に合わせてテクスチャ座標をシフトする。 これによりスムーズで自 然なテクスチャ表現が可能になる。
テクスチャ座標シフト量計算部 6及びテクスチャ座標補正部 7は、 ラスタライズ時にテクスチャ 座標の参照位置を計算する。 ラスタライズではピクセルごとの描画計算が行われるため、 ピクセル 単位での曲面計算が行えれば、 常に非常に詳細な曲面表示が行える。 これはシエーディングにおけ る Gouraudシエーディングと Phongシエーディングの違いに相当する。 当然この分の計算量が増加 するが、 同一平面上のテクスチャ参照座標を求める計算は比較的簡単である。 以下、 この方法をテ クスチヤ座標シフトによる疑似曲面表現と呼ぶ。 この処理を行う際に留意すべき点は
•実時間で実行可能な計算量に抑える
•可能な限りデータ量を増やさない
•可能な限り既存の技術上で実装する
ことである。
まず、 動作原理について説明する。単位ベクトル u,vで張られる uv座標系で、 図 3のようなテク スチヤ座標を頂点に持つ長方形の面を考える。 この面の法線ベクトルを n、 面を見る視線方向べク トルを eとする。 この平面は疑似曲面の一部をなし、 平面上の各点で法線方向に d(u,v)だけ平面か ら浮き上がつているとする。 これを u,n平面に投影したものが図 4である。
euはこの平面上に視線方向ベクトル eを射影したものである。 ここで、 この平面が曲面であれば Aに存在するべき点が平面上の点 Bになってしまうため、 e方向から見た場合に平面と曲面の違いが 生じる。 これを補正するには、 平面内のピクセルごとのテクスチャ座標をシフトし、 C の位置に B のテクスチャ座標を割り当てる。 すなわち Cを描画するためにテクスチャ座標値 uを計算する際、 線形補間により求められた u値から nと e„のなす角を Θとして dtan0uだけずれた値を用いればよ い。 これをテクスチャ座標値 Vの計算においても同様に行うことで、 ラスタライズで各ピクセルを 描画する際に、 曲面を想定したテクスチャマヅピンク結果を得ることができる。
ここで、 ラスタライズで Cを描画する際に Bのテクスチャ座標値が必要であり、 そのためには d tan0u、 すなわち Bでの平面上の各点における浮き上がり量 dが必要である。 この dを求めるには やはり Bのテクスチャ座標値が必要である。 そこで、 想定する曲面が十分に滑らかであり、 平面の 法線と視線べクトルのなす角/?が十分に小さい (tanSが小さい)ことを仮定し、d(B)i?d(C)であると 近似する。
ここで必要となる nと eのなす角 Θは、 ピクセルごとではなく平面 1枚につきひとつ求めてやれ ばよい。 また視線方向べクトルと法線べクトルとのなす角はシェーディングの際の照光計算でも求 める必要があり、 この種の計算はグラフィックチップ上で高速に行うことができる。
次に、 平面から想定する曲面までの浮き上がり量 d(u,v)を求める。 これは各頂点の位置や法線べ クトルなどから近似的に求める方法も可能であるが、 ラスタライズ時に各ピクセルごとにこの計算 を行うと計算量が非常に多くなつてしまう。 ここではこれを省くための方法を考える。
まず、 求めるべき浮き上がり量はテクスチャ画像上の各点において異なるが、 描画のたびに変化 しない静的な値であることに注目する。 これらの値はあらかじめ計算し、 各面ごとに保持しておけ ばよい。 ここでは浮き上がり量 d(u,v)を濃淡としたテクスチャ画像を用意し、 ラス夕ライズ時にテ クスチヤ画像の各ピクセルの値を参照するのと同様にこれを参照することにする。
例えば、 通常の色情報を含んだ画像の他に、 もう一枚濃淡で浮き上がり量を表した画像を用意す る。 3 D C Gの描画時に、 1枚のテクスチャだけでなく 2枚のテクスチャの色を混合したりしなが ら張りつける技術は、 「マルチテクスチャ技術」 として一般的である。 たとえば、 DirectXなどの A P Iにいて利用可能な機能になっている。 ここでは 2枚目の画像テクスチャを浮き上がり量テープ ルとして用い、混合の代わりに「テクスチャ座標をシフト」させる処理を行なうことで、 「マルチテ クスチヤ技術」 「E MB M技術」などの現状のハードウェア技術上でもリアルタイム処理可能な実装 方法を提供できる。
浮き上がり量をテクスチャ画像として用意するには、 いくつかの方法が考えられる。
まずひとつは、 テクスチャ画像中に RGB値の色とともに 値 (通常透明度を表す)を持たせ、 浮き 上がり量を α値とする方法である。 一般的にテクスチャ画像に色情報 R G Bと 値の計 4チャンネ ルを持たせることで、 色と透明度を表現する。
この方法ではそれぞれのテクスチャ画像に合った浮き上がり量を設定でき、 任意の曲面形状を表 現できる。しかし多数の平面にわたって 1枚のテクスチャ画像を適用するため、浮き上がり量の u,v 方向の解像度が荒くなつてしまうことが難点である。 また、 すべてのテクスチャにそれそれの浮き 上がり量デ一夕を持たせることは不必要なデータ量の増加につながる。
もう一つの方法は、 一般的な浮き上がり量のテクスチャ画像を別に用意し、 ラス夕ライズ時には
2枚のテクスチャ画像を元に計算を行う方法 (Multi- texture)である。図 5に示すように、 頂点ごと に適切なテクスチャ座標を設定してやることで、 一枚の浮き上がり量テクスチャ画像を様々な曲面 に適用できる。 この方法では、 各面ごとに浮き上がり量をスケーリングするパラメ一夕を用意する と、 一枚の浮き上がり量テクスチャ画像で任意の曲率を表現できるようになる。
ここで、透明度が不要な場合には αチャンネル内に浮き上がり量テーブルを持たせることができ、 また透明度が必要な場合には別途浮き上がり量テクスチャ画像を用意すれば良い。 また、 浮き上が り量テ一プルはもつと広義に高さを表す高度テーブルとしても利用できる。 これにより多種多様な 応用、 例えば、 滑らかな曲面の表現だけでなく、 地形や人の顏など任意の形状をわずかなポリゴン で表現するような場合などにも適用できる。
計算されたテクスチャ座標シフト量をもとに、 ラス夕ライズの段階でテクスチャ画像の参照位置 を補正する。
補正されたテクスチャ座標に基づきテクスチャマッピングを行う。 実際の処理には公知の手法を 用いることができる。 たとえば、 Microsoft社によって提唱された Multimedia API, DirectX中の 実時間 3D-CG描画用 APIである Direct3D (商標) を用いることができる。 Direct3D (商標) の 1998 年の Version6の仕様において、 Environment-Mapped Bump-Mapping(EMBM)と呼ばれる機能がサポー トされた。 これは本来、 環境マヅピングを併用したバンプマヅピングという特殊効果のために提案 された機能であるが、 これを利用することで濃淡テクスチャ画像をシフト量としたピクセル単位で のテクスチャ画像設定が可能である。 またこの機能は一部のグラフィヅクカード上でハードウェア 的に実装されており、 実時間内での処理が可能である。 この発明の実施の形態による装置/方法に係る、 テクスチャ座標シフトによる疑似曲面の処理結 果の例を図 6に示す。 図 6 ( c ) は処理対象である対象を示す。 この対象は上半分が 32角柱、 下半 分が 8角柱である。 図 6 ( b ) は通常のテクスチャマッピングを適用したもの、 図 6 ( a ) はテク スチヤ座標シフトによる疑似曲面処理を行ったものである。 図から分かるように、 正面に近い部分 ではテクスチャの曲率を持った歪みがおよそ正しく表現されている。 またこの効果は、 立体視にお いても実現されていることが確認できた。これらの表示は EMBM等の機能を持つ既存のグラフィック 力一ド上にて実時間で処理できる。
一方、 面の法線と視線方向とのなす角が大きくなる側面付近では、 円柱との表示結果に相違が見 られる。 また、 テクスチャ座標シフトによって補正できない形状のシルエットは円柱の場合と異な る。
本発明の実施の形態に係るテクスチャ座標シフトによる疑似曲面表現手法では、 1 枚の平面内に ほぼ任意の凹凸形状を表現できるので、 バンプマツピンクと併用することでオブジェクト表面に 様々なディテールを付加することができる。
本発明の実施の形態によれば、 実時間 3D-CGにおける疑似曲面表現でシエーディングとテクスチ ャマツピンクの近似表示が食い違うという問題 (発明者が発見した新規な課題) を解決することが できる。 本発明の実施の形態によれば実時間での処理が十分可能である。
本発明は、 以上の実施の形態に限定されることなく、 特許請求の範囲に記載された発明の範囲内 で、 種々の変更が可能であり、 それらも本発明の範囲内に包含されるものであることは言うまでも ない。
また、 本明細書において、 手段とは必ずしも物理的手段を意味するものではなく、 各手段の機能 が、 ソフトウェアによって実現される場合も包含する。 さらに、 一つの手段の機能が、 二つ以上の 物理的手段により実現されても、 若しくは、 二つ以上の手段の機能が、 一つの物理的手段により実 現されてもよい。

Claims

請 求 の 範 囲
1 . 三次元座標においてひとつ又は複数のポリゴンにより構成される対象を用意するステップと、 前記ポリゴンの複数の頂点に対応づけられたテクスチヤを用意するステップと、
前記ポリゴンの複数の頂点をそれぞれスクリーン座標上に投影することにより前記対象の透視変 換を行うステップと、
前記ポリゴンの複数の頂点に対応する前記スクリーン座標上の画素を、 前記テクスチャに基づき 描画するステップと、
前記スクリーン座標上における前記ポリゴンの複数の頂点の間の画素に対応するテクスチャ座標 を、 前記複数の頂点の間で線形補間することにより求めるステップと、
三次元空間における視線方向と前記ポリゴンの面法線とのなす角度 sを求めるステップと、 三次元空間における前記ポリゴンを構成する面から予め定められた曲面までの平面上の各点にお ける浮き上がり量 dを求めるステップと、
前記角度 0および前記平面上の各点における浮き上がり量 dに基づき、 前記視線方向から見たと きの前記ポリゴンの面と前記曲面の間に生じる誤差量であるテクスチャ座標シフト量を求めるステ ヅプと、
前記テクスチャ座標を前記テクスチャ座標シフト量に基づき補正するステップと、
補正されたテクスチャ座標および前記テクスチャに基づきテクスチャマッピングを行うステップ とを備えるテクスチャマツピング方法。
2 . 前記テクスチャ座標シフト量は、 式: d ' tanSにより与えられることを特徴とする請求項 1 記載のテクスチャマツピング方法。
3 . 前記テクスチャ座標シフト量は、 浮き上がり量の倍率を kとしたとき、 式: k ' d . ta Sに より与えられることを特徴とする請求項 1記載のテクスチヤマヅピング方法。
4 . 三次元空間における前記ポリゴンを構成する面から予め定められた曲面までの浮き上がり量 を前記ポリゴンそれぞれについて予め記憶する浮き上がり量テーブルを用意するステップを備える ことを特徴とする請求項 1記載のテクスチャマツピング方法。
5 . 三次元空間における前記ポリゴンを構成する面から予め定められた曲面までの浮き上がり量 を前記ポリゴンそれそれについて予め記憶する浮き上がり量テーブルを用意するステップを備え、 前記浮き上がり量テーブルは、 浮き上がり量を濃淡とするテクスチャ画像であり、 前記テクスチ ャ画像は、 色情報とともにパラメ一夕値 αを含み、 前記パラメータ値 αは前記テクスチャ画像ごと に異なる値に設定されることを特徴とする請求項 1記載のテクスチャマツピング方法。
6 . 三次元空間における前記ポリゴンを構成する面から予め定められた曲面までの浮き上がり量 を前記ポリゴンそれぞれについて予め記憶する浮き上がり量テーブルを用意するステツプを備え、 前記浮き上がり量テーブルは、 浮き上がり量を濃淡とするテクスチャ画像であり、
前記テクスチャマッピングぉよび前記浮き上がり量テーブルに基づきテクスチャマッピングを行 うことを特徴とする請求項 1記載のテクスチヤマツピング方法。
7 . 面ごとに前記浮き上がり量をスケ一リングするパラメータを用意することにより任意の曲率 を表現することを特徴とする請求項 5記載のテクスチャマッピング方法。
8 . 三次元座標においてひとつ又は複数のポリゴンにより構成される対象を記憶する三次元モデ ル記憶部と、 前記ポリゴンの複数の頂点に対応づけられたテクスチャを記憶するテクスチヤ記憶部 と、 前記ポリゴンの複数の頂点をそれそれスクリーン座標上に投影することにより前記対象の透視 変換を行う透視変換部と、 前記ポリゴンの複数の頂点に対応する前記スクリーン座標上の画素を、 前記テクスチャに基づき描画する描画部と、 前記スクリーン座標上における前記ポリゴンの複数の 頂点の間の画素に対応するテクスチャ座標を前記複数の頂点の間で線形補間することにより求める 線形補間部と、 三次元空間における視線方向と前記ポリゴンの面法線とのなす角度 S及び三次元空 間における前記ポリゴンを構成する面から予め定められた曲面までの平面上の各点における浮き上 がり量 dを受け、 これらに基づき前記視線方向から見たときの前記ポリゴンの面と前記曲面の間に 生じる誤差量であるテクスチャ座標シフト量を求めるテクスチャ座標シフト量計算部と、 前記テク スチヤ座標を前記テクスチャ座檫シフト量に基づき補正するテクスチャ座標補正部とを備え、 補正されたテクスチャ座標に基づき前記テクスチャ記憶部のテクスチャデータが読み出され、 こ のデータに基づき描画されることを特徴とするレンダリング装置。
9 . コンピュータに、 三次元座標においてひとつ又は複数のポリゴンにより構成される対象を用意するステップと、 前記ポリゴンの複数の頂点に対応づけられたテクスチャを用意するステップと、
前記ポリゴンの複数の頂点をそれぞれスクリーン座標上に投影することにより前記対象の透視変 換を行うステップと、
前記ポリゴンの複数の頂点に対応する前記スクリーン座標上の画素を、 前記テクスチャに基づき 描画するステップと、
前記スクリーン座標上における前記ポリゴンの複数の頂点の間の画素に対応するテクスチャ座標 を、 前記複数の頂点の間で線形補間することにより求めるステヅプと、
三次元空間における視線方向と前記ポリゴンの面法線とのなす角度 Sを求めるステップと、 三次元空間における前記ポリゴンを構成する面から予め定められた曲面までの平面上の各点にお ける浮き上がり量 dを求めるステップと、
前記角度 Θおよび前記平面上の各点における浮き上がり量 dに基づき、 前記視線方向から見たと きの前記ポリゴンの面と前記曲面の間に生じる誤差量であるテクスチャ座標シフト量を求めるステ ップと、
前記テクスチャ座檫を前記テクスチャ座標シフト量に基づき補正するステップと、
補正されたテクスチャ座標および前記テクスチヤに基づきテクスチャマッビングを行うステップ とを備えるテクスチャマッピング方法を実行させるためのプログラムを記憶した記録媒体。
1 0 . コンピュータに、
Ξ次元座標においてひとつ又は複数のポリゴンにより構成される対象を用意するステップと、 前記ポリゴンの複数の頂点に対応づけられたテクスチャを用意するステップと、
前記ポリゴンの複数の頂点をそれぞれスクリーン座標上に投影することにより前記対象の透視変 換を行うステップと、
前記ポリゴンの複数の頂点に対応する前記スクリーン座標上の画素を、 前記テクスチャに基づき 描画するステップと、
前記スクリーン座標上における前記ポリゴンの複数の頂点の間の画素に対応するテクスチャ座標 を、 前記複数の頂点の間で線形補間することにより求めるステヅプと、
三次元空間における視線方向と前記ポリゴンの面法線とのなす角度 0を求めるステップと、 三次元空間における前記ポリゴンを構成する面から予め定められた曲面までの平面上の各点にお ける浮き上がり量 dを求めるステップと、 前記角度 Sおよび前記平面上の各点における浮き上がり量 dに基づき、 前記視線方向から見たと きの前記ポリゴンの面と前記曲面の間に生じる誤差量であるテクスチヤ座標シフト量を求めるステ ヅプと、
前記テクスチャ座標を前記テクスチャ座標シフト量に基づき補正するステップと、
補正されたテクスチャ座標および前記テクスチヤに基づきテクスチャマヅビングを行うステップ とを備えるテクスチャマッビング方法を実行させるためのプログラム。
PCT/JP2001/007936 2000-09-13 2001-09-13 Procede de mappage de texture et dispositif de rendu d'image WO2002023484A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002527455A JP4714919B2 (ja) 2000-09-13 2001-09-13 レンダリング装置及び記録媒体並びにプログラム
AU2001286216A AU2001286216A1 (en) 2000-09-13 2001-09-13 Texture mapping method and rendering device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-278045 2000-09-13
JP2000278045 2000-09-13

Publications (1)

Publication Number Publication Date
WO2002023484A1 true WO2002023484A1 (fr) 2002-03-21

Family

ID=18763269

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/007936 WO2002023484A1 (fr) 2000-09-13 2001-09-13 Procede de mappage de texture et dispositif de rendu d'image

Country Status (3)

Country Link
JP (1) JP4714919B2 (ja)
AU (1) AU2001286216A1 (ja)
WO (1) WO2002023484A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252424A (ja) * 2005-03-14 2006-09-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2007087031A (ja) * 2005-09-21 2007-04-05 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
WO2019049289A1 (ja) * 2017-09-07 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203498A (ja) * 1998-01-16 1999-07-30 Nec Corp 法線ベクトルを用いたテクスチャ座標生成方法および装置
US6078334A (en) * 1997-04-23 2000-06-20 Sharp Kabushiki Kaisha 3-D texture mapping processor and 3-D image rendering system using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0877991B1 (en) * 1996-11-21 2003-01-08 Koninklijke Philips Electronics N.V. Method and apparatus for generating a computer graphics image
US6980218B1 (en) * 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6078334A (en) * 1997-04-23 2000-06-20 Sharp Kabushiki Kaisha 3-D texture mapping processor and 3-D image rendering system using the same
JPH11203498A (ja) * 1998-01-16 1999-07-30 Nec Corp 法線ベクトルを用いたテクスチャ座標生成方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOSHIYUKI TAKAHEI ET AL.: "Ryougan rittaishi no tame no real time, texture mapping shuhou", NIPPON VIRTUAL REALITY GAKKAI DAI 5KAI TAIKAI RONBUNSHUU, 18 September 2000 (2000-09-18), pages 189 - 192, XP002906360 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252424A (ja) * 2005-03-14 2006-09-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP4641831B2 (ja) * 2005-03-14 2011-03-02 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
JP2007087031A (ja) * 2005-09-21 2007-04-05 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP4662260B2 (ja) * 2005-09-21 2011-03-30 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
WO2019049289A1 (ja) * 2017-09-07 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US11120614B2 (en) 2017-09-07 2021-09-14 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method

Also Published As

Publication number Publication date
AU2001286216A1 (en) 2002-03-26
JPWO2002023484A1 (ja) 2004-04-08
JP4714919B2 (ja) 2011-07-06

Similar Documents

Publication Publication Date Title
Welsh Parallax mapping with offset limiting: A per-pixel approximation of uneven surfaces
CN107392988B (zh) 利用投影几何失真用于以可变采样率渲染的系统、方法和计算机程序产品
US7348989B2 (en) Preparing digital images for display utilizing view-dependent texturing
JP3294149B2 (ja) 立体テクスチャマッピング処理装置及びそれを用いた3次元画像生成装置
US6593923B1 (en) System, method and article of manufacture for shadow mapping
US8059119B2 (en) Method for detecting border tiles or border pixels of a primitive for tile-based rendering
CN108230435B (zh) 采用立方图纹理的图形处理
US6731298B1 (en) System, method and article of manufacture for z-texture mapping
KR20050030595A (ko) 화상 처리 장치 및 그 방법
US7508390B1 (en) Method and system for implementing real time soft shadows using penumbra maps and occluder maps
US20170200302A1 (en) Method and system for high-performance real-time adjustment of one or more elements in a playing video, interactive 360° content or image
US20020030681A1 (en) Method for efficiently calculating texture coordinate gradient vectors
US7158133B2 (en) System and method for shadow rendering
US20140327689A1 (en) Technique for real-time rendering of temporally interpolated two-dimensional contour lines on a graphics processing unit
US8072464B2 (en) 3-dimensional graphics processing method, medium and apparatus performing perspective correction
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
Batagelo et al. Real-time shadow generation using bsp trees and stencil buffers
US6924805B2 (en) System and method for image-based rendering with proxy surface animation
GB2302001A (en) Computer graphics system having per pixel depth cueing
KR100559127B1 (ko) 화상처리장치
JP4714919B2 (ja) レンダリング装置及び記録媒体並びにプログラム
US11989807B2 (en) Rendering scalable raster content
KR100848687B1 (ko) 3차원 그래픽 처리 장치 및 그것의 동작 방법
US6188409B1 (en) 3D graphics device
KR20020063941A (ko) 컴퓨터를 이용한 그림자를 포함한 실시간 툰 렌더링 방법

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PH PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002527455

Country of ref document: JP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

122 Ep: pct application non-entry in european phase