JP2007220049A - Image-based protruded displacement mapping method and bi-layered displacement mapping method using the same - Google Patents

Image-based protruded displacement mapping method and bi-layered displacement mapping method using the same Download PDF

Info

Publication number
JP2007220049A
JP2007220049A JP2006049287A JP2006049287A JP2007220049A JP 2007220049 A JP2007220049 A JP 2007220049A JP 2006049287 A JP2006049287 A JP 2006049287A JP 2006049287 A JP2006049287 A JP 2006049287A JP 2007220049 A JP2007220049 A JP 2007220049A
Authority
JP
Japan
Prior art keywords
displacement
intersection
polygon
excess
height value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006049287A
Other languages
Japanese (ja)
Other versions
JP4680796B2 (en
JP2007220049A5 (en
Inventor
Byoung Hyun Yoo
ヨー、ビョン−ヒョン
Soon Hung Han
ハン、スン−フン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea Advanced Institute of Science and Technology KAIST
Original Assignee
Korea Advanced Institute of Science and Technology KAIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38427705&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2007220049(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Korea Advanced Institute of Science and Technology KAIST filed Critical Korea Advanced Institute of Science and Technology KAIST
Publication of JP2007220049A publication Critical patent/JP2007220049A/en
Publication of JP2007220049A5 publication Critical patent/JP2007220049A5/ja
Application granted granted Critical
Publication of JP4680796B2 publication Critical patent/JP4680796B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of representing the details of the surface of an object, which allows an object surface to protrude from a reference surface representing an object, without modifying the reference surface or adding micro-polygons to the reference surface. <P>SOLUTION: This image-based protruded displacement mapping method includes: intersection point search steps 401, 402 of searching for an intersection point of the surface of a protruding object, defined by displacement information and an observer's sight line and displaying the shape of the protruding object on the polygonal surface; an overflow representation step 403 of adding a separate polygonal surface and representing a shape of the protruding object corresponding to overflow deviating from a boundary of the polygonal surface, on the added polygonal surface; a steeply inclined surface detection step 404 of detecting a steeply inclined surface in the shape of the protruding object; and a steeply inclined surface correction step 404 of representing an additional texture on the steeply inclined surface. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ビデオゲーム機及びコンピュータゲームのようなエンターテインメント情報機器、地形空間情報を表現する情報機器、又はコンピュータグラフィックを用いる3次元レンダリングを行う情報機器に適用される技術であって、対象物を表面から突出するように表現する突出変位マッピング方法に関するものである。また、本発明は、この映像基盤突出変位マッピング技術と一般の形状基盤変位マッピング技術とを混合的に使用する二重変位マッピング方法に関するものである。   The present invention is a technology applied to an entertainment information device such as a video game machine and a computer game, an information device expressing terrain space information, or an information device performing three-dimensional rendering using computer graphics. The present invention relates to a projecting displacement mapping method that expresses so as to project from a surface. The present invention also relates to a double displacement mapping method using a mixture of the image-based protruding displacement mapping technology and a general shape-based displacement mapping technology.

コンピュータグラフィックス分野では、Blinnが提案したバンプマッピング(非特許文献1)とCookが提案した変位マッピング(非特許文献2)の概念から客体表面の詳細を表現するための方法が提案されている。   In the computer graphics field, a method for expressing details of an object surface from the concept of bump mapping proposed by Blinn (Non-patent Document 1) and displacement mapping proposed by Cook (Non-patent Document 2) has been proposed.

従来に提案された客体表面の詳細表現方法は、形状に基づく三角網生成法と、映像に基づく変位マッピング方法とに大別される。
三角網生成法とは、多数の微細なポリゴンを生成して客体表面の詳細を表現する方法であり、この方法では、多数の微細なポリゴンを生成するため、インタラクティブプログラムに適用することが困難である。このような問題を解決するために、微細なポリゴンによる明示的なレンダリングを行って物体表面の変位を表現する方法が提案された。提案された方法としては、光線投射法と、3次元逆方向イメージワーピング法と、3次元テクスチャマッピング方法と、可視情報を予め計算する方法などがある。これらの方法のなかで、光線投射法及び逆方向イメージワーピング法では、計算量が多いため、実時間応用に適さないという問題点がある。3次元テクスチャマッピング方法では、2次元テクスチャがあるポリゴンを積層して変位マッピングをレンダリングするため、視点によって不自然な結果が得られるという問題点がある。可視情報を予め計算する方法では、5次元関数のサンプルを保存するために、多量のメモリを使用しなければならないなどという問題点がある。
Conventionally proposed object surface detailed expression methods are roughly classified into a shape-based triangular network generation method and a video-based displacement mapping method.
The triangular mesh generation method is a method of generating details of the object surface by generating a large number of fine polygons. This method generates a large number of fine polygons and is difficult to apply to interactive programs. is there. In order to solve such a problem, a method of expressing the displacement of the object surface by explicitly rendering with fine polygons has been proposed. Proposed methods include a ray projection method, a three-dimensional backward image warping method, a three-dimensional texture mapping method, and a method for calculating visible information in advance. Among these methods, the light projection method and the reverse image warping method have a problem that they are not suitable for real-time applications because of the large amount of calculation. The three-dimensional texture mapping method has a problem that an unnatural result can be obtained depending on the viewpoint because the displacement mapping is rendered by layering polygons having a two-dimensional texture. In the method of calculating the visible information in advance, there is a problem that a large amount of memory must be used to store the sample of the five-dimensional function.

映像に基づく変位マッピング方法は、微細なポリゴンを生成しないで物体の表面詳細を表現する方法であり、光線投射法(ray−tracing)を簡略化するか模写する技法を使用している。しかし、このような従来の方法は、共通的にポリゴン面上に物体表面を突出させるものでなく、物体の底面をポリゴン面の下に陷沒させる方法を使用して、物体表面の詳細形状を表現する。   The displacement mapping method based on an image is a method of expressing the surface details of an object without generating fine polygons, and uses a technique that simplifies or replicates ray-tracing. However, such a conventional method does not commonly project the object surface on the polygonal surface, but uses a method in which the bottom surface of the object is placed under the polygonal surface to reduce the detailed shape of the object surface. Express.

図1は従来の映像に基づく変位マッピング方法の概念を示す図である。図1において、符号101は実際ポリゴン面であり、102は実際ポリゴン面から物体の表面までの深みであり、103は底面から物体の表面までの高さであり、104は視点である。   FIG. 1 is a diagram showing the concept of a conventional displacement mapping method based on video. In FIG. 1, reference numeral 101 is an actual polygon surface, 102 is the depth from the actual polygon surface to the surface of the object, 103 is the height from the bottom surface to the surface of the object, and 104 is the viewpoint.

従来には、物体の変位マップからなる仮想の空間でポリゴン面が最上面に位置するため、物体の高さでなく実際には深みを表すことになる。したがって、従来の方法は、基準面であるポリゴン面から陷沒した形状を表現するのには適するが、ポリゴン面から突出した形状を表現する場合には様々な問題点がある。   Conventionally, since the polygonal surface is positioned at the uppermost surface in a virtual space composed of the displacement map of the object, it actually represents the depth, not the height of the object. Therefore, the conventional method is suitable for expressing a shape deviated from the polygon surface which is the reference surface, but has various problems when expressing a shape protruding from the polygon surface.

図2は従来の映像に基づく変位マッピング方法の問題点を説明するために示す図面であって、(a)はポリゴン面と変位マップを反映しないテクスチャをレンダリングした状態を示し、(b)と(c)はポリゴン面と変位マップを反映したテクスチャをレンダリングした状態を示し、(d)はポリゴン面と変位マップを反映したテクスチャ及びその周辺を処理した状態を示す。   FIG. 2 is a diagram for explaining a problem of the conventional image-based displacement mapping method, in which (a) shows a state in which a texture that does not reflect a polygon surface and a displacement map is rendered, and (b) and ( c) shows a state in which a texture reflecting the polygon surface and the displacement map is rendered, and (d) shows a state in which the texture reflecting the polygon surface and the displacement map and its periphery are processed.

(a)に示すように、ポリゴン面(P)と変位マップを反映しないテクスチャ(T)をレンダリングすると、物体の高さが反映されない状態になる。
従来の映像に基づく変位マッピング方法を用いて、(a)の図でテクスチャに変位マップを反映すると、(b)及び(c)のように、底面が下に陷沒し、これによりポリゴン面の境界周辺に、テクスチャの情報が漏れた領域(B)が発生することになる。物体の高さをより高く表現しようとすれば、物体の底面をポリゴン面からより深く陷沒させなければならないため、このような情報漏れ領域(B)は物体の高さが高くなるほどより広くなる((c)の情報漏れ領域が(b)の情報漏れ領域より広い)。
As shown in (a), when the texture (T) that does not reflect the polygon plane (P) and the displacement map is rendered, the height of the object is not reflected.
When the displacement map is reflected on the texture in the diagram (a) using the conventional image-based displacement mapping method, the bottom surface is turned down as shown in (b) and (c), thereby A region (B) in which texture information leaks occurs around the boundary. If the height of the object is to be expressed higher, the bottom surface of the object must be made deeper than the polygon surface, so that such an information leakage area (B) becomes wider as the height of the object increases. (The information leakage area in (c) is wider than the information leakage area in (b)).

前述した従来の映像に基づく変位マッピング方法の問題点を整理すれば次のようである。テクスチャをポリゴン面上に突出させるのでなく、ポリゴン面の下方向に陷沒させるため、その底面の陷沒によって実際の詳細の位置が変わることになる。また、底面が下に陷沒しながら人の視点から遠くなるため、底面の収縮する現象が発生する。   The problems of the above-described conventional displacement mapping method based on video can be summarized as follows. Since the texture is not projected on the polygonal surface but is made to appear downward in the polygonal surface, the actual detail position changes depending on the surface of the bottom surface. In addition, the bottom surface becomes farther away from the human viewpoint while leaning down, causing a phenomenon that the bottom surface contracts.

前述した問題点のため、従来の映像に基づく変位マッピング方法では、表面から陷沒し、図2の(d)のようにタイル形態の同一形状が反復的に配置される。そして、高さが高くない場合には、物体表面の詳細を表現することができるが、それ以外の場合には、物体表面の詳細を正確に表現することができないという問題点がある。
“Simulation of Wrinkled Surfaces”, Proceedings of International Conference on Computer Graphics and Interactive Techniques, pp.286−292,1978. “Shade Trees”, Proceedings of International Conference on Computer Graphics and Interactive Techniques, pp.223−231,1984.
Due to the above-described problems, in the conventional displacement mapping method based on an image, the same tile-shaped shape is repeatedly arranged as shown in FIG. When the height is not high, details of the object surface can be expressed, but in other cases, details of the object surface cannot be expressed accurately.
"Simulation of Wrinkled Surfaces", Proceedings of International Conference on Computer Graphics and Interactive Technologies, pp. 286-292, 1978. “Shade Trees”, Proceedings of International Conference on Computer Graphics and Interactive Technologies, pp. 223-231, 1984.

本発明は前述したような従来技術の問題点を解決するためになされたものであり、本発明の目的は、物体を表現している基準面(ポリゴン面)を変形したり、その基準面に微細ポリゴンを付け加えたりせずに、基準面から突出した部分が基準面から突出した形状となるように物体表面の詳細を表現する方法を提供することにある。   The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to deform a reference surface (polygon surface) representing an object or to change the reference surface to the reference surface. An object of the present invention is to provide a method for expressing details of an object surface so that a portion protruding from a reference surface has a shape protruding from the reference surface without adding a fine polygon.

本発明の他の目的は、基準面からテクスチャの高さを突出させる時、ポリゴン面の外に外れる超過分(overflow)を処理する方法を提供することにある。
本発明のさらに他の目的は、地形の表面の詳細を表現するための形状基盤変位マッピング方法と地形上に突出した建物の詳細を表現するための映像基盤突出変位マッピング方法とを複合的に使用する二重変位マッピング方法を提供することにある。
Another object of the present invention is to provide a method for processing an excess flow that falls outside a polygonal surface when the height of the texture is projected from the reference surface.
Still another object of the present invention is to use a shape-based displacement mapping method for expressing details of surface of terrain and a video-based protruding displacement mapping method for expressing details of buildings protruding on the terrain. It is to provide a double displacement mapping method.

前述した目的を達成するための本発明による映像基盤突出変位マッピング方法は、3次元オブジェクトとテクスチャ情報と変位情報とを利用して、ポリゴン面から突出した物体形状を表現するシステムにおける映像基盤突出変位マッピング方法において、前記変位情報によって定義される突出した物体の表面と観察者視線との交点を検索して、前記突出した物体の形状を前記ポリゴン面に表示する交点検索段階と、追加のポリゴン面を付け加え、前記ポリゴン面の境界を超える超過分に相当する前記突出した物体の形状を前記追加のポリゴン面に表示する超過分表示段階と、前記突出した物体の形状における急激な傾斜面を検出する急激傾斜面検出段階と、前記急激な傾斜面に追加テクスチャを表現する急激傾斜面補正段階とを含むことを特徴とする。   The image-based projecting displacement mapping method according to the present invention for achieving the above-mentioned object uses an image-based projecting displacement in a system that expresses an object shape projecting from a polygon surface using a three-dimensional object, texture information, and displacement information. In the mapping method, an intersection search step of searching for an intersection between the surface of the protruding object defined by the displacement information and the observer's line of sight and displaying the shape of the protruding object on the polygon surface, and an additional polygon surface In addition, an excess display step for displaying the shape of the protruding object corresponding to the excess exceeding the boundary of the polygon surface on the additional polygon surface, and a steeply inclined surface in the shape of the protruding object are detected. A steeply inclined surface detecting step and a steeply inclined surface correcting step of expressing an additional texture on the steeply inclined surface. To.

また、本発明による二重変位マッピング方法は、3次元オブジェクトとテクスチャ情報と全域変位情報と地域変位情報とを利用して物体の形状を表現するシステムにおける二重変位マッピング方法において、前記3次元オブジェクト及び全域変位情報を利用して、ポリゴンに基づいて前記物体の表面を表現する全域変位マッピング段階と、前記テクスチャ情報及び前記地域変位情報を利用して前記物体の表面の詳細形状を表現する地域変位マッピング段階と、前記全域変位マッピング及び地域変位マッピングが実行された前記物体を視点との距離順に配列するオクルージョン解決段階と、前記全域変位マッピング段階で隣接したポリゴンの間の接空間の高さ方向を同一にする接空間修正段階とを含むことを特徴とする。   Further, the double displacement mapping method according to the present invention is the double displacement mapping method in the system for representing the shape of the object using the three-dimensional object, the texture information, the global displacement information, and the regional displacement information. And a global displacement mapping stage that represents the surface of the object based on polygons using the global displacement information, and a regional displacement that represents a detailed shape of the surface of the object using the texture information and the regional displacement information. Mapping stage, occlusion resolution stage for arranging the objects subjected to the global displacement mapping and the regional displacement mapping in order of distance from the viewpoint, and the height direction of the tangent space between adjacent polygons in the global displacement mapping stage And the same tangent space correction stage.

また、本発明による超過分処理方法は、ポリゴン面に突出した物体の形状を表示するコンピュータグラフィックシステムによって、前記ポリゴン面の境界を超える超過分を処理する方法において、視線の方向によって前記超過分が発生する前記ポリゴン面の境界に隣接して前記ポリゴン面の垂直面を付け加え、前記付け加えられた垂直面に前記超過分に相当する前記突出した物体形状を表示することを特徴とする。   According to another aspect of the present invention, there is provided a method for processing an excess exceeding a boundary of a polygon surface by a computer graphic system that displays a shape of an object protruding on the polygon surface. A vertical plane of the polygon plane is added adjacent to the boundary of the generated polygon plane, and the protruding object shape corresponding to the excess is displayed on the added vertical plane.

以上のように、本発明によれば、実際にポリゴン面から突出した形状のシルエットを正確に表現することができる。従来のGPUを利用した映像基盤の変位マッピング方法が基準面から陥没した形状しか表現できなかったのとは違い、本発明によれば、実際にポリゴン面から突出した形状を表現するように変位マップを定義し、突出した形状のシルエットを表現することができる。また、ポリゴン面の形状を変形せず、単に補助的な二つの面を付け加えることにより、全体モデルの頂点の数をほとんど増加させずに突出した形状の詳細を表現することができる。   As described above, according to the present invention, it is possible to accurately represent a silhouette having a shape that actually protrudes from a polygon surface. Unlike the conventional image-based displacement mapping method using the GPU, which can only represent the shape depressed from the reference surface, according to the present invention, the displacement map is represented so as to actually represent the shape protruding from the polygon surface. Can be used to express a silhouette with a protruding shape. Further, by simply adding two auxiliary surfaces without deforming the shape of the polygon surface, the details of the protruding shape can be expressed with almost no increase in the number of vertices of the overall model.

さらに、本発明の突出変位マッピング方法によれば、ピクセル単位の計算過程で傾斜面の詳細を付け加えて、急激な傾斜を持つ突出形状の表現が可能である。急激な傾斜面の詳細は、非常に小さなタイル形態のテクスチャを利用したために、レンダリング性能に影響を及ぼさない。   Furthermore, according to the projecting displacement mapping method of the present invention, it is possible to express a projecting shape having a steep inclination by adding details of the inclined surface in the calculation process in units of pixels. The details of the steep slope do not affect the rendering performance because of the use of very small tiled textures.

また、本発明の突出変位マッピング方法は、特に高層建物などのように垂直に突出した形状にも適用が可能であり、ポリモデルに基づくグラフィックアルゴリズムと並行して使用することが可能であって、地形空間情報の表現を改善するのに活用することができる。これにより、ビデオゲーム及びコンピュータゲームなどのエンターテイメント情報器機とコンピュータグラフィックを使用する情報器機の映像表現において、物体の表面に詳細を付け加えて映像の品質を高めるのに使用することができる。   Further, the projecting displacement mapping method of the present invention can be applied to a vertically projecting shape such as a high-rise building, and can be used in parallel with a graphic algorithm based on a poly model, It can be used to improve the representation of topographic space information. Thus, in the video representation of entertainment information devices such as video games and computer games and information devices using computer graphics, it can be used to add detail to the surface of the object and improve the quality of the video.

本発明には、物体の表面に微細なポリゴンを付け加えないで、突出した形状とその形状のシルエットとを表現することができるという利点がある。   The present invention has an advantage that a protruding shape and a silhouette of the shape can be expressed without adding a fine polygon to the surface of the object.

以下、添付図面を参照しながら、本発明による映像基盤突出変位マッピング方法、及びこの方法を用いた二重変位マッピング方法を詳細に説明する。
本発明は、物体を表現している基準面(ポリゴン面)を変形したり、歪めたりすることなく、基準面から突出した形状の詳細を表現する方法を提案する。本発明においては、基準面から突出した表面の変位マップに対する定義を行い、これによりレイ−トレーサー(ray−tracer)を利用して突出を表現する。突出した物体の境界部分で起こる変位の超過を解決するために、二つの追加的な面を基準面に付け加えてシルエットを表現する。
Hereinafter, an image-based protruding displacement mapping method according to the present invention and a double displacement mapping method using the method will be described in detail with reference to the accompanying drawings.
The present invention proposes a method for expressing details of a shape protruding from a reference surface without deforming or distorting the reference surface (polygon surface) expressing the object. In the present invention, the displacement map of the surface protruding from the reference plane is defined, and thereby the protrusion is expressed using a ray-tracer. To solve the excess displacement that occurs at the boundary of the protruding object, two additional surfaces are added to the reference surface to represent the silhouette.

本発明を説明するに先立ち、本発明で使用される用語を解説する。
−レンダリング:コンピュータグラフィックス分野で一般に使用する意味としては、3次元モデルから一連のグラフィックスパイプラインを経って2次元イメージを得る過程を言う。客体、照明、質感、位置、色相などを示す多様な場面の情報から写真のような2次元イメージを得るための方法には、実時間で具現可能な方法と、長時間の計算によって停止した映像を得る方法など、多様な方法がある。3次元モデルから2次元イメージ又は動画を得る計算過程をレンダリングと言う。
Prior to describing the present invention, terms used in the present invention will be explained.
-Rendering: The meaning commonly used in the field of computer graphics refers to the process of obtaining a two-dimensional image from a three-dimensional model through a series of graphics pipelines. There are two methods for obtaining 2D images such as photographs from various scene information showing objects, lighting, texture, position, hue, etc. There are a variety of ways to get it. A calculation process for obtaining a two-dimensional image or a moving image from a three-dimensional model is called rendering.

−表面の詳細を表現:3次元物体の形状に対する情報であるジオメトリー(geometry)情報(一般的にジオメトリー情報はポリゴンモデルを意味する)からレンダリング過程によって物体を表現する時、物体の表面の質感、ジオメトリー情報には現れない細密な形状に対する質感、照明による影、突出または陥没した細密な形状などを表現することを言う。すなわち、ポリゴンが現す滑らかなモデルの表面に皮の皺や木目などのような視覚的質感と皺などの屈曲を表現することを言う。   -Representing surface details: When representing an object through a rendering process from geometry information (generally geometry information means a polygon model), which is information on the shape of the 3D object, the surface texture of the object, This refers to expressing textures of fine shapes that do not appear in geometry information, shadows due to lighting, and fine shapes that are projected or depressed. That is, it expresses a visual texture such as skin wrinkles or wood grain and bends such as wrinkles on the surface of a smooth model where polygons appear.

−表面の変位を表現:表面の詳細を表現することのうちで、特に、ポリゴンで構成された物体の表面から皺や木目などによって生ずる高低の細密な変化を表現することを意味する。例えば、動物の形状を滑らかなポリゴンでモデリングした時、これに表面の細密な高低を調節して肌の内側方向にえぐられた皺や突出した突起などの高低を表現することを意味する。   -Representing the displacement of the surface: In expressing the details of the surface, in particular, it means expressing fine changes in height, which are caused by wrinkles, wood grain, etc. from the surface of the object composed of polygons. For example, when the shape of an animal is modeled with a smooth polygon, this means expressing the heights of wrinkles and protruding protrusions that are squeezed toward the inside of the skin by adjusting the fineness of the surface.

−変位マッピング:表面の変位を表現する方法の一つで、物体の表面の法線方向の変位を記録しておいた変位マップを用いて、物体を表現しているポリゴンをレンダリングする時、変位マップに記録された各ピクセルの変位によって表面の変位を表現することを意味する。   -Displacement mapping: A method of expressing surface displacement. When rendering a polygon representing an object using a displacement map that records the displacement in the normal direction of the surface of the object, the displacement is displayed. The surface displacement is expressed by the displacement of each pixel recorded in the map.

−変位マップ:物体の表面の変位情報をラスター(raster)値として保存しておいたマッピングテーブル又はラスターデータ(raster data)を意味する。この変位マップのなかで、特に高低の情報を表現したものを高さマップという。   -Displacement map: Refers to a mapping table or raster data in which displacement information on the surface of an object is stored as a raster value. Of these displacement maps, a representation of height information is called a height map.

図3は、本発明による映像基盤突出変位マッピング方法の概念を説明するために示す図である。本発明においては、基準面であるポリゴン面から突出した形状を表現するための突出した変位の表現方法を提案する。図3において、301は基準面であるポリゴン面であり、302は基準面から物体表面までの深さであり、303は基準面から物体表面までの高さであり、304は使用者の視点である。   FIG. 3 is a view for explaining the concept of the image-based protrusion displacement mapping method according to the present invention. In the present invention, a method for expressing a protruding displacement for expressing a shape protruding from a polygon surface which is a reference surface is proposed. In FIG. 3, reference numeral 301 denotes a polygon surface which is a reference surface, 302 denotes a depth from the reference surface to the object surface, 303 denotes a height from the reference surface to the object surface, and 304 denotes a user's viewpoint. is there.

基準面であるポリゴン面の高さを0とし、最も高い位置を1と表現して、表面から突出した形状の変位マップを定義する。
図3において、レンダリングするピクセルはポリゴン面にある点A' であり、実際見せるべき点は高さによって突出した点Pである。したがって、ポリゴン面の点A’をレンダリングするためには、視線A’−B’と物体の表面が交差する点P’を捜さなければならない。視線A’−B’と物体の表面が多数回交差する場合、最も高い変位の交差点を捜してその点をP’に設定する。
A displacement map having a shape protruding from the surface is defined with 0 representing the height of the polygon surface as a reference surface and 1 representing the highest position.
In FIG. 3, the pixel to be rendered is a point A ′ on the polygon surface, and the point to be actually shown is a point P that protrudes depending on the height. Therefore, in order to render the point A ′ on the polygonal surface, a point P ′ where the line of sight A′-B ′ and the surface of the object intersect must be searched. When the line of sight A′-B ′ intersects the surface of the object many times, the intersection of the highest displacement is searched and that point is set to P ′.

すなわち、従来技術においては、基準面であるポリゴン面にある点Aで実際見せるべき点は陥没した点Pであるが、本発明においては、ポリゴン面にある点A’で実際見せるべき点は突出したP’である。   That is, in the prior art, the point that should actually be shown at the point A on the polygonal surface that is the reference surface is the depressed point P, but in the present invention, the point that should actually be shown at the point A ′ on the polygonal surface is protruding. P ′.

図4は、本発明による映像基盤突出変位マッピング方法の過程を示す図である。
この映像基盤突出変位マッピング方法は、一般的なコンピュータシステムに適用することができる。この映像基盤突出変位マッピングのためのシステム400はオブジェクトデータベース(DB)410から3次元オブジェクト情報を受け、表面テクスチャデータベース420と変位マップデータベース430とから表面テクスチャ情報と地域変位情報とをそれぞれ受ける。
FIG. 4 is a diagram illustrating a process of an image-based protrusion displacement mapping method according to the present invention.
This image-based protrusion displacement mapping method can be applied to a general computer system. The video-based projecting displacement mapping system 400 receives three-dimensional object information from an object database (DB) 410 and receives surface texture information and regional displacement information from a surface texture database 420 and a displacement map database 430, respectively.

このシステム400の映像基盤突出変位マッピング方法は、順次検索段階(401)と、バイナリー検索段階(402)と、超過分処理段階(403)と、急激な傾斜面検出及び補正段階(404)とからなる。この映像基盤突出変位マッピング方法は、変位マップと表面のテクスチャ情報とを使用して、微細なポリゴンを付け加えなくても物体表面の急激な変位及び詳細を表現することができる。   The image-based projecting displacement mapping method of the system 400 includes a sequential search stage (401), a binary search stage (402), an excess processing stage (403), and an abrupt slope detection and correction stage (404). Become. This image-based protruding displacement mapping method can express abrupt displacement and details of an object surface without adding fine polygons by using a displacement map and surface texture information.

以下では映像基盤突出変位マッピング方法の各段階について詳細に説明する。
順次検索段階(401)
この順次検索段階は変位マップによって定義された物体の表面と視線との交点の大略的な位置を捜す過程であり、これを図5に基づいて説明する。
Hereinafter, each step of the image-based protrusion displacement mapping method will be described in detail.
Sequential search stage (401)
This sequential search step is a process of searching for the approximate position of the intersection between the surface of the object and the line of sight defined by the displacement map, which will be described with reference to FIG.

図5のように、変位マップが構成する仮想ボリュームの上面と基準面との間を一定間隔で分割する。この仮想ボリュームの上面及び分割された面と、視点304及びレンダリングする点Aを繋ぐ視線とが交差する点B,1〜4に対して、上面から漸次分割された高さ値と変位マップに保存された高さ値とを比較する。分割された高さ値が変位マップに保存された高さ値より高ければ、次の点に対する検査を引き続き、分割された高さ値が変位マップに保存された高さ値より低くなれば検査を停止する。例えば、図5の場合、上面と視点の交差点である点Bの高さ値とその点Bでの変位マップに保存された高さ値を比較すると、点Bの高さ値の方が高いため、次の交差点1に対する検査が引き続き行われる。点1の高さ値がその点1での変位マップに保存された高さ値よりも高いため、次の交差点2に対する検査が引き続き行われる。このように交差点3まで検査した後、次の交差点4では、交差点4の高さ値がその点4での変位マップに保存された高さ値よりも低いため、検査を終えることになる。   As shown in FIG. 5, the upper surface and the reference surface of the virtual volume formed by the displacement map are divided at regular intervals. For the points B and 1-4 where the upper surface and the divided surface of the virtual volume intersect with the line of sight connecting the viewpoint 304 and the point A to be rendered, the height values and the displacement map gradually divided from the upper surface are stored. Compare the measured height value. If the divided height value is higher than the height value stored in the displacement map, continue the inspection for the next point, and if the divided height value is lower than the height value stored in the displacement map, Stop. For example, in the case of FIG. 5, when the height value of point B, which is the intersection of the upper surface and the viewpoint, is compared with the height value stored in the displacement map at point B, the height value of point B is higher. The inspection for the next intersection 1 is continued. Since the height value of point 1 is higher than the height value stored in the displacement map at that point 1, the inspection for the next intersection 2 continues. After the inspection up to the intersection 3 in this way, the inspection at the next intersection 4 is completed because the height value of the intersection 4 is lower than the height value stored in the displacement map at the point 4.

この順次検索段階によって、変位マップによって定義された物体の表面と視線との交点の大略的な位置が分かる。図5の場合、3と4との間にその交点が位置することが分かる。   Through this sequential search step, the approximate position of the intersection of the surface of the object and the line of sight defined by the displacement map can be found. In the case of FIG. 5, it can be seen that the intersection is located between 3 and 4.

バイナリー検索段階(402)
前記のような順次検索段階によって、変位マップによって定義された物体の表面と視線との交点の大略的な位置を得た後、図6のようなバイナリー検索段階を行って、より正確な交点の高さhの情報を得る。図6は図5の点3と4との間の形状を拡大した図であり、点3と4との間をバイナリー検索することによって正確な交点の高さhの情報を捜す。
Binary search stage (402)
After obtaining the approximate position of the intersection between the surface of the object defined by the displacement map and the line of sight by the sequential search step as described above, a binary search step as shown in FIG. 6 is performed to obtain a more accurate intersection point. Get information on height h. FIG. 6 is an enlarged view of the shape between the points 3 and 4 in FIG. 5, and the information on the accurate height h of the intersection is searched by performing a binary search between the points 3 and 4. FIG.

バイナリー検索段階で行うバイナリー検索方法は、Policarpo,Oliveira,Combaの共著論文[“Real−time Relief Mapping on Arbitrary Polygonal Surfaces”, Proceedings of Symposium on Interactive 3D Graphics, pp.155−162,2005.]に詳細に開示されている。   The binary search method performed in the binary search stage is a paper co-authored by Polarpo, Oliveira, Comba [“Real-time Relief Mapping on Arbitrary Polygonal Surfaces”, Proceedings of Symposium on Intersci- encePop. 155-162, 2005. ] In detail.

このように視線と物体の表面との交点が求められると、図4の表面テクスチャデータベース420から当該交点でのテクスチャカラー値を読み取ってポリゴン面301の該当ピクセル(点A)に表示する。   When the intersection between the line of sight and the surface of the object is obtained in this way, the texture color value at the intersection is read from the surface texture database 420 in FIG. 4 and displayed on the corresponding pixel (point A) on the polygon surface 301.

超過分処理段階(403)
図7は、本発明による映像基盤突出変位マッピング方法を適用して四角形ポリゴンを3次元レンダリングする過程を示す図である。
Excess processing stage (403)
FIG. 7 is a diagram illustrating a process of rendering a quadrilateral polygon three-dimensionally by applying the image-based protruding displacement mapping method according to the present invention.

図7の(a)は、ポリゴン面と変位マップとが反映されなかったテクスチャをレンダリングした結果を示す。本発明による順次検索段階及びバイナリー検索段階を行って、変位マップによって定義された物体の表面と視線との交点を求め、その交点に相当するテクスチャカラー値を読み取ってポリゴン面の当該ピクセルに表示する過程を繰り返すことにより、図7の(b)に示すように、ポリゴン面と変位マップが反映されたテクスチャをレンダリングした結果が得られる。   FIG. 7A shows the result of rendering a texture that does not reflect the polygon plane and the displacement map. The sequential search step and the binary search step according to the present invention are performed to obtain the intersection between the surface of the object defined by the displacement map and the line of sight, and the texture color value corresponding to the intersection is read and displayed on the pixel of the polygon surface. By repeating the process, as shown in FIG. 7B, the result of rendering the texture reflecting the polygon plane and the displacement map is obtained.

図7の(b)を図2の(b)及び(c)と比較すると、図2の(b)及び(c)のレンダリング結果では、物体の底面がポリゴン面から陷沒しながら歪むが、図7の(b)のレンダリング結果では、底面は高さが0であって変形されずポリゴン面と一致し、ポリゴン面上にボックス形態だけ突出して物体の表面がポリゴン面の上方に突出した形状になっている。   When (b) in FIG. 7 is compared with (b) and (c) in FIG. 2, in the rendering results in (b) and (c) in FIG. In the rendering result of FIG. 7B, the bottom surface has a height of 0 and is not deformed and coincides with the polygon surface. The shape is such that the object surface protrudes above the polygon surface by protruding only in the form of a box on the polygon surface. It has become.

また、図7の(c)のように、テクスチャの高さを二倍に表現しても底面はポリゴン面と一致して変形されず、ボックスの高さだけ二倍に高くなることを確認することができる。これは、図2の(c)において陷沒深さが深くなるほど底面の歪みがひどくなるものと対比し得ることである。   Further, as shown in FIG. 7C, it is confirmed that even if the texture height is doubled, the bottom surface is not deformed in conformity with the polygonal surface and is doubled by the height of the box. be able to. This can be contrasted with the case in FIG. 2C where the bottom surface distortion becomes worse as the wrinkle depth becomes deeper.

本発明の突出変位マッピングの計算はピクセル単位でなされるため、表面から突出した形状を変位マッピングで表現すれば、図8に示すように、視線EVより上方に突出した領域はポリゴン面を超えるため、表現することが不可能である。   Since the projection displacement mapping of the present invention is performed in units of pixels, if the shape protruding from the surface is expressed by displacement mapping, the region protruding above the line of sight EV exceeds the polygonal surface as shown in FIG. It is impossible to express.

例えば、図9の視線EVの上側にある突出部分のなかで、点Pが変位マッピングで表現されるためには、ポリゴン面E−Fの境界を超える点Aに表現されなければならない。しかし、実際ポリゴン面の境界外の領域ではピクセル単位の変位マッピング計算が行われない。このようなピクセルの領域超過分による問題は、映像基盤変位マッピング技術で共通的に起こる問題であり、従来の技術が突出した詳細を陷沒方式で表現した理由でもある。   For example, in order to represent the point P by the displacement mapping in the protruding portion on the upper side of the line of sight EV in FIG. 9, it must be represented at the point A exceeding the boundary of the polygonal surface EF. However, displacement mapping calculation in units of pixels is not performed in an area outside the boundary of the actual polygon surface. Such a problem due to the excess of the pixel area is a problem that commonly occurs in the video-based displacement mapping technology, and is also the reason why the outstanding details of the conventional technology are expressed by the 陷 沒 method.

したがって、このような変位によるピクセルの超過分による問題を克服することができなければ、図7の(c)に示すように、ポリゴン面の境界付近で突出した形状の外郭線を正確に表現することができなくなるという問題点が発生する。   Therefore, if the problem due to the excess of pixels due to such displacement cannot be overcome, the contour line protruding in the vicinity of the boundary of the polygon surface is accurately expressed as shown in FIG. The problem of being unable to do so occurs.

本発明においては、超過分による問題を解決するための二通りの方法を提案する。第1方法は元のポリゴン面E−Fを拡張する方法であり、第2方法は元のポリゴン面に垂直な面を付け加える方法である。   In the present invention, two methods for solving the problem due to excess are proposed. The first method is a method of expanding the original polygon surface EF, and the second method is a method of adding a surface perpendicular to the original polygon surface.

元のポリゴン面を拡張する方法
図9の点Pはポリゴン面の終点Eと視点Vを連結する線分EVより上にあるため、この点の変位マッピングは不可能である。しかし、図9のポリゴン面E−FをE−D’に拡張すれば、拡張ポリゴン面901の点Aで点Pに対するレンダリングは可能になる。
Method for Extending Original Polygon Surface Since point P in FIG. 9 is above line segment EV connecting end point E of polygon surface and viewpoint V, displacement mapping of this point is impossible. However, if the polygon surface EF in FIG. 9 is expanded to ED ′, rendering of the point P at the point A of the expanded polygon surface 901 becomes possible.

本発明においては、図9及び図10に示すように、突出した形状を表現するためにポリゴン面を拡張する。変位マップによって突出した形状を全て表現するためには、視点Vと点Dを繋ぐ線VDとポリゴン面E−Fの拡張面とが交差する交点D’までポリゴン面を拡張しなければならない。したがって、ポリゴン面E−FをD’−Fに拡張する。   In the present invention, as shown in FIGS. 9 and 10, the polygon surface is expanded in order to express the protruding shape. In order to express all the protruding shapes by the displacement map, the polygonal surface must be extended to the intersection D ′ where the line VD connecting the viewpoint V and the point D intersects with the extended surface of the polygonal surface EF. Therefore, the polygon surface EF is expanded to D′-F.

しかし、図9の点Pを見る視線VAの傾きがポリゴン面E−Fの傾きに近くなるほど点Aの位置は点Eから遠くなり、D’は無限大に近くなる。したがって、図10で表示した拡張ポリゴン面901の長さExとEyも無限大に近くなる。視点の傾きによってテクスチャの解像度が低下してイメージの品質が低下するという問題点がある。   However, the closer the inclination of the line of sight VA when viewing the point P in FIG. 9 is to the inclination of the polygon surface EF, the farther the position of the point A is, the closer to infinity, D ′. Therefore, the lengths Ex and Ey of the extended polygon surface 901 displayed in FIG. 10 are also close to infinity. There is a problem that the resolution of the texture is lowered due to the tilt of the viewpoint and the image quality is lowered.

図10のようにポリゴン面を拡張する方法には、頂点(vertex)の数を増加させないという利点があるが、拡張される大きさを視点の変化に従って計算しなければならず、視点によってイメージの品質が低下するという欠点がある。また、頂点単位の計算とピクセル単位の計算とを全て行わなければならないため、GPU(graphic process unit)上で具現するのには制約が伴う。   As shown in FIG. 10, the method of expanding the polygonal surface has an advantage of not increasing the number of vertices, but the size to be expanded must be calculated according to the change of the viewpoint. There is a disadvantage that the quality is lowered. In addition, since the calculation in units of vertices and the calculation in units of pixels must all be performed, there are restrictions on implementation on a GPU (graphic process unit).

本発明においては、このような問題点を解決するために、追加の面を生成する方法を使用する。
垂直な面を付け加える方法
図11は、図9を3次元で拡張して表現したものである。図9の点Pに対する視線はポリゴン面E−Fに垂直な面902と点Cで交差する。したがって、図9のように、ポリゴン面に垂直な垂直面902を付け加え、その垂直面902のピクセルCに点Pのテクスチャ情報をレンダリングすれば、領域超過分の問題を解決することができる。すなわち、点Cを仮想の拡張ポリゴン面901E−D' 上に存在する点Aにマッピングし、この点のテクスチャ座標を利用すれば、一枚の変位マップとテクスチャのみを用いて垂面上に存在する点Cを表現することができる。
In the present invention, a method of generating an additional surface is used to solve such a problem.
Method for Adding a Vertical Surface FIG. 11 is an expanded representation of FIG. 9 in three dimensions. The line of sight for the point P in FIG. 9 intersects the plane 902 perpendicular to the polygon plane EF at the point C. Therefore, as shown in FIG. 9, if a vertical plane 902 perpendicular to the polygon plane is added and the texture information of the point P is rendered on the pixel C of the vertical plane 902, the problem of excess area can be solved. That is, if the point C is mapped to the point A existing on the virtual extended polygon plane 901E-D 'and the texture coordinates of this point are used, it exists on the vertical surface using only one displacement map and texture. The point C to be expressed can be expressed.

図11の視線AVの成分の割合(vx,vy,vz)は接空間で視点の座標から得ることができる。垂直面902上の点Cのuv空間座標は(dx,dy)で表現される。これらの関係から三角比を利用すれば、仮想拡張面903にマッピングされた点A(x’,y’)のuv空間座標は以下の数1のように求めることができる。   The ratio (vx, vy, vz) of the component of the line of sight AV in FIG. 11 can be obtained from the coordinates of the viewpoint in the tangent space. The uv space coordinates of the point C on the vertical plane 902 are expressed by (dx, dy). If the trigonometric ratio is used from these relationships, the uv space coordinates of the point A (x ′, y ′) mapped to the virtual expansion plane 903 can be obtained as in Equation 1 below.

ここで、(vx,vy,vz)はポリゴン面301の接空間座標系の値であり、(dx,dy)は垂直面902のuv空間座標系の値であり、(x’,y’)は仮想拡張面903のuv空間座標系の値である。仮想拡張面903のuv空間はポリゴン面301の境界を基準としてワーピングされたuv空間と定義する。 Here, (vx, vy, vz) is a value in the tangent space coordinate system of the polygon surface 301, (dx, dy) is a value in the uv space coordinate system of the vertical surface 902, and (x ', y') Is a value in the uv space coordinate system of the virtual extension plane 903. The uv space of the virtual extended surface 903 is defined as the uv space warped with reference to the boundary of the polygon surface 301.

図11の垂直面902の接空間座標は、図12のように、ポリゴン面と隣接面との間の接空間座標系の関係を利用して計算することができる。図12の底面をポリゴン面とする時、そのポリゴン面に左側に垂直な面の接空間は以下の数2のように変換される。   The tangent space coordinates of the vertical surface 902 in FIG. 11 can be calculated using the relationship of the tangent space coordinate system between the polygon surface and the adjacent surface as shown in FIG. When the bottom surface of FIG. 12 is a polygon surface, the tangent space of the surface perpendicular to the left side of the polygon surface is converted as shown in the following equation (2).

ここで、normalは法線ベクトルであり、binormalは縦法線ベクトルであり、tangentは接線ベクトルである。 Here, normal is a normal vector, binoral is a vertical normal vector, and tangent is a tangent vector.

図12の接空間座標系の定義を利用すれば、他の方向に隣接した面に対しても接空間のマッピングが可能である。
本発明においては、図13のように、視点の方向によって領域超過分が発生する境界に接するように、ポリゴン面の垂直面902をそれぞれ付け加える。そして、その付け加えられた垂直面に物体の突出変位を表現することにより、ポリゴン面の領域を超える超過分に対するシルエット表現が可能になる。
If the definition of the tangent space coordinate system in FIG. 12 is used, the tangent space can be mapped to surfaces adjacent in other directions.
In the present invention, as shown in FIG. 13, a polygonal vertical surface 902 is added so as to be in contact with the boundary where the region excess occurs depending on the viewpoint direction. Then, by expressing the protruding displacement of the object on the added vertical plane, it is possible to represent the silhouette for the excess exceeding the polygon plane area.

付け加えられた垂直面のレンダリングはアルファブレンディングを使用して、物体の突出した領域のみを選択的に可視化する。本発明で提示した方法は、接空間のマッピングによって一つのテクスチャと変位マップとで表現が可能である。したがって、少ないメモリ使用量で物体のシルエットを表現することができ、正確な境界の表現が可能である。   The added vertical surface rendering uses alpha blending to selectively visualize only the protruding areas of the object. The method presented in the present invention can be expressed by one texture and displacement map by mapping the tangent space. Therefore, the silhouette of the object can be expressed with a small amount of memory usage, and an accurate boundary can be expressed.

図7の(c)のように、ポリゴン面の境界付近で突出した形状の外郭線が正確に表現されなかった状況で、超過分が発生するポリゴン面の境界にポリゴン面の垂直面一つを付け加えて超過分をレンダリングした結果を図7の(d)に示し、超過分が発生するポリゴン面の境界にポリゴン面の垂直面二つを付け加えて超過分をレンダリングした結果を図7の(e)に示す。図7の(e)から、突出変位マッピングの境界付近で完全なシルエットを表現していることが分かる。   As shown in FIG. 7C, in the situation where the outline of the shape protruding near the boundary of the polygon surface is not accurately expressed, one vertical surface of the polygon surface is added to the boundary of the polygon surface where the excess occurs. In addition, the result of rendering the excess is shown in FIG. 7D, and the result of rendering the excess by adding two vertical surfaces of the polygon surface to the boundary of the polygon surface where the excess occurs is shown in FIG. ). From FIG. 7E, it can be seen that a complete silhouette is expressed near the boundary of the projecting displacement mapping.

急激な傾斜面検出及び補正段階(404)
本発明で提示した突出形状の表現のための変位マッピング方法は、突出した形状の傾斜が急な物体、特に建物のように垂直方向に突出した物体の表現にも適用可能である。垂直に突出した物体は突出方向の傾斜が非常に急であるため、高さによってテクスチャ座標上の一点が広い領域を表現することもある。したがって、既存の方法のみでは良い映像品質を得ることができない。
Rapid slope detection and correction stage (404)
The displacement mapping method for expressing the protruding shape presented in the present invention can also be applied to the expression of an object with a steep inclination of the protruding shape, particularly an object protruding in the vertical direction like a building. Since an object protruding vertically has a very steep inclination in the protruding direction, a point on a texture coordinate may represent a wide area depending on the height. Therefore, good video quality cannot be obtained only with the existing method.

柔らかい変位マップは、変位によって変形されるテクスチャ座標の大きさが隣接したピクセルと大きな差を持たないから柔らかに表現されるに対し、垂直方向に突出した物体の垂直面は変位マップ上で一つの点又は線として表現されるため、視点によってテクスチャの歪みが非常に大きくなる。したがって、急激な傾斜の突出変位マッピングには、これを補償することができる方法が必要である。   The soft displacement map is expressed softly because the size of the texture coordinates deformed by the displacement is not significantly different from the neighboring pixels, whereas the vertical plane of the object protruding vertically is one on the displacement map. Since it is expressed as a point or a line, the distortion of the texture becomes very large depending on the viewpoint. Therefore, there is a need for a method that can compensate for the sudden displacement of the projected displacement.

急激な傾斜を持つ突出形状を誇張すれば、図14のように、垂直に突出した六面体状と仮定することができる。この垂直に突出した六面体形状を正確に表現することができるなら、いかなる急な傾斜面に対する突出も表現可能である。   If the protruding shape with a steep slope is exaggerated, it can be assumed that it is a hexahedral shape protruding vertically as shown in FIG. If this vertically projecting hexahedron shape can be accurately expressed, it is possible to express a protrusion with respect to any steeply inclined surface.

図7の(f)は、図7の(e)の結果において、ボックスの側面を追加テクスチャ情報として付け加えて表現したものである。この場合、ボックスの側面がポリゴン面に垂直であるから、テクスチャ座標上で一つのピクセルがボックス側面の最低点から最高点まで全て表現することになる。したがって、図7の(e)のように、テクスチャを側面に長く伸ばしておいた形状として表現される。図7の(a)の土台701とテクスチャ702との間の境界線が図7の(e)で突出した形状の側面全体を表現するが、ピクセル単位の順次検索及びバイナリー検索過程で微細な誤差が発生するため、実際には境界線に相当する黒色線分周辺のピクセルがボックスの側面全体に線形補間されたような効果が現れる。   FIG. 7F shows the result of adding the side surface of the box as additional texture information in the result of FIG. In this case, since the side surface of the box is perpendicular to the polygon surface, one pixel represents all of the pixel from the lowest point to the highest point on the texture coordinate. Therefore, as shown in FIG. 7 (e), it is expressed as a shape in which the texture is extended to the side. Although the boundary line between the base 701 and the texture 702 in FIG. 7A represents the entire side surface of the shape protruding in FIG. 7E, a fine error occurs in the sequential search and binary search processes in pixel units. Therefore, an effect appears in which pixels around the black line corresponding to the boundary line are linearly interpolated over the entire side of the box.

突出した形状をボックスの側面(急激な傾斜面)と上面(緩やかな傾斜面)に区分すれば、歪みがひどく発生する急な傾斜面に追加的なテクスチャ情報を適用して、ボックス側面に発生する歪みを補正することができる。   If the protruding shape is divided into the side of the box (steeply inclined surface) and the upper surface (gradually inclined surface), additional texture information is applied to the steeply inclined surface where the distortion is severely generated, and it occurs on the side of the box. Distortion can be corrected.

このため、先に突出した形状の急激な傾斜面と緩やかな傾斜面とを区分することができなければならない。
急激な傾斜面の検出は次のような方法で可能である。図14は図7で使用した変位マップの断面と類似している。緩やかな傾斜面に存在する点Pの場合、順次検索過程で1番点のuv座標上の変位マップを読んでPA1の高さ値でhA1を検出する。次の段階では、2番点の高さ値が変位マップから読んだ値より低くいため順次検索を中断することになる。以後、バイナリー検索で得られる正確な交点はPになり、この点の高さはhと決定される。この時、傾斜が緩やかな面に存在する点Pの高さhはhA1とほぼ等しい値を持つ。
For this reason, it must be possible to distinguish a sharply inclined surface and a gently inclined surface having a shape that protrudes first.
Detection of an abrupt inclined surface is possible by the following method. FIG. 14 is similar to the cross section of the displacement map used in FIG. In the case of a point P A existing on a gently inclined surface, a displacement map on the uv coordinate of the first point is read in the sequential search process, and h A1 is detected with the height value of P A1 . In the next stage, since the height value of the second point is lower than the value read from the displacement map, the search is interrupted sequentially. Thereafter, the exact intersection obtained by the binary search is P A , and the height of this point is determined as h A. At this time, the height h A of the point P A existing on the gentle slope has a value substantially equal to h A1 .

一方、急激な傾斜面に位置する点Pの場合には、次のような結果を得る。順次検索過程で、2番位置まで変位マップから読んだ値hB1は底面に位置することになる。次の段階では、3番点の高さ値が変位マップから読んだ値(hA1と同一)より小さくて順次検索を中断することになる。以後、バイナリー検索で得た交点Pの高さ値はhと決定される。この時、急激な傾斜面に位置するP点の高さhはhB1とは大きく異なる。 On the other hand, in the case of the point P B located on the steeply inclined surface, the following result is obtained. In the sequential search process, the value h B1 read from the displacement map up to the second position is located on the bottom surface. In the next stage, the height value of the third point is smaller than the value read from the displacement map (same as h A1 ), and the search is sequentially interrupted. Thereafter, the height value of the intersection point P B obtained by the binary search is determined as h B. In this case, the height h B of the P B points located abrupt inclined surface significantly different from h B1.

このように、二つの場合の違いを利用して急激な傾斜面に位置する点を区分し出すことができる。区分過程は次のようである。
1.順次検索過程で検出が終わる直前の座標で読んだ変位マップの値hn−1を保存する。
Thus, the point located on the steeply inclined surface can be classified using the difference between the two cases. The classification process is as follows.
1. The displacement map value h n−1 read at the coordinates immediately before the end of detection in the sequential search process is stored.

2.バイナリー検索結果で得た交点の高さ値hを得る。
3.二つの高さ値の差hn−1−hが限界値より大きければ、急激な傾斜を持つ面に位置する点と判断する。二つの高さ値の差が限界値より小さければ、緩やかな傾斜を持つ面に位置する点と判断する。
2. The height value h of the intersection obtained from the binary search result is obtained.
3. If the difference h n−1 −h between the two height values is larger than the limit value, it is determined that the point is located on a surface having a steep slope. If the difference between the two height values is smaller than the limit value, it is determined that the point is located on a surface having a gentle slope.

このような方法で検出した急激な傾斜面には、少ないメモリを占めるタイル形態のテクスチャを、uv座標と検出された高さ値とを利用してマッピングすることができる。この時、タイル形態のテクスチャ座標系が(x,y)2次元座標であれば、以下の数3を使用して急激な変位に対する傾斜面の詳細を付け加えることができる。   A tile-shaped texture that occupies a small amount of memory can be mapped to the steeply inclined surface detected by such a method using the uv coordinates and the detected height value. At this time, if the texture coordinate system of the tile form is an (x, y) two-dimensional coordinate, the following equation 3 can be used to add details of the inclined surface with respect to a sudden displacement.

ここで、u,vはポリゴン面に存在する各ピクセルの(u,v)座標値である。hは突出変位マッピング過程で得られた交点の高さ値である。 Here, u and v are (u, v) coordinate values of each pixel existing on the polygon surface. h is the height value of the intersection obtained in the protrusion displacement mapping process.

前記数3によって計算されたx,y値を利用してタイル形態のテクスチャからカラー情報をサンプリングして急激な傾斜面の各ピクセルのカラー値として使用する。
しかし、前記数3は急激な変位に対する追加的なテクスチャマッピングの実施例に過ぎなく、特にdは物体の形状によって適宜変形してuとvの関数として定義して使用する。最も簡単な例としては、uとvの線形結合としてd=u+vを使用することが可能である。以後、得られたx,yの値からカラー情報を求める過程は、一般的なテクスチャサンプリング過程と類似している。
Color information is sampled from the tile-shaped texture using the x and y values calculated by Equation 3, and used as the color value of each pixel on the steeply inclined surface.
However, Equation 3 is only an example of additional texture mapping for a sudden displacement, and in particular, d is appropriately defined according to the shape of the object and defined as a function of u and v. As the simplest example, d = u + v can be used as a linear combination of u and v. Hereinafter, the process of obtaining color information from the obtained x and y values is similar to a general texture sampling process.

急激な傾斜面にタイル形態のテクスチャを被せた結果が図7の(f)に示されている。
この方法は、建物のように垂直方向に突出した物体の表現などに使用可能である。
この時、急激な傾斜面と緩やかな傾斜面を決める限界値は、画面と変位マップの解像度によって適切に調節されなければならない。限界値をあまり小さく設定すると、平坦な面まで急激な傾斜面と判断して、平坦な面が傾斜面として検出されるピクセルが混じるという問題が発生する。このような問題は、変位マップの値に微細な誤差がある場合により大きくなる。この場合、限界値の調節によりエラーを除去する。
The result of covering the steeply inclined surface with the tile-shaped texture is shown in FIG.
This method can be used to express an object protruding in the vertical direction, such as a building.
At this time, the limit value that determines the steeply inclined surface and the gently inclined surface must be appropriately adjusted according to the resolution of the screen and the displacement map. If the limit value is set too small, there is a problem that pixels that are detected as an inclined surface are mixed because pixels are detected as a sharply inclined surface up to a flat surface. Such a problem becomes more serious when there is a minute error in the value of the displacement map. In this case, the error is removed by adjusting the limit value.

二重変位マッピング方法
図15は、本発明による二重変位マッピングのためのシステムを示す図である。
本発明の二重変位マッピングシステム1500は、ポリゴン基盤の全域変位マッピング手段1501と、ポリゴン表面の詳細を表現するための地域変位マッピング手段1502とからなる。全域変位マッピング手段1501には、全域変位マップDM1から全域変位情報が提供され、地域変位マッピング手段1502には、地域変位マップDM2から地域変位情報が提供される。さらに、地域変位マッピング手段1502にはテクスチャ情報(TM)が提供される。
Double Displacement Mapping Method FIG. 15 illustrates a system for double displacement mapping according to the present invention.
The double displacement mapping system 1500 of the present invention comprises a polygon-based global displacement mapping means 1501 and a regional displacement mapping means 1502 for expressing details of the polygon surface. The global displacement mapping means 1501 is provided with global displacement information from the global displacement map DM1, and the regional displacement mapping means 1502 is provided with regional displacement information from the regional displacement map DM2. Further, texture information (TM) is provided to the regional displacement mapping means 1502.

本発明の二重変位マッピングシステム1500は、レンダリングする物体の情報をコンピュータグラフィックシステムのオブジェクトデータベース1510から受け、メモリ1520から変位マッピングに使用する全域変位マップDM1及び地域変位マップDM2とテクスチャ情報TMとを受け、物体の表面をより詳細にレンダリングしてイメージ1530を実時間で生成する。   The double displacement mapping system 1500 of the present invention receives information of an object to be rendered from an object database 1510 of a computer graphic system, and receives a global displacement map DM1 and a regional displacement map DM2 and texture information TM used for displacement mapping from a memory 1520. Receiving and rendering the surface of the object in more detail to generate an image 1530 in real time.

全域変位マッピング手段1501は物体の柔らかい変位を表現するのに使用される。図15の全域変位マップDM1からポリゴン基盤の三角網生成方法を利用して物体の表面を構成する頂点の高さを調節して表面の詳細を表現する。この時、ポリゴン基盤の変位マッピングが使用され、より細密な表現のためには頂点の数を増加させることもできる。   The global displacement mapping means 1501 is used to represent the soft displacement of the object. The details of the surface are expressed by adjusting the heights of the vertices constituting the surface of the object from the global displacement map DM1 of FIG. At this time, polygon-based displacement mapping is used, and the number of vertices can be increased for more precise representation.

地域変位マッピング手段1502は、全域変位マッピング手段1501が表現することができなかった、より詳細な変位を表現するのに使用する。地域変位マッピング手段1502はポリゴン表面に陷沒又は突出した形状を表現するための変位マッピング方法であって、突出した形状に対しては本発明の図4で提案した映像基盤突出変位マッピング方法を適用して、物体表面の急激な変位及び詳細な形状を微細なポリゴンを付け加えないで表現する。   The regional displacement mapping unit 1502 is used to express a more detailed displacement that the global displacement mapping unit 1501 could not express. The local displacement mapping means 1502 is a displacement mapping method for expressing a shape that protrudes or protrudes on the polygon surface, and the image-based protruding displacement mapping method proposed in FIG. 4 of the present invention is applied to the protruding shape. Thus, the rapid displacement and detailed shape of the object surface are expressed without adding fine polygons.

本発明の地域変位マッピング手段は、突出した形状に対して突出変位マッピング方法を実行する。
ポリゴン基盤の全域変位マッピングとポリゴン表面の地域変位マッピングとを実行した後に、画面にイメージを表示する時、突出形状のオクルージョン(occlusion)解決過程(1503)及び接空間修正過程(1504)を実行する。
The regional displacement mapping means of the present invention executes the protruding displacement mapping method for the protruding shape.
When an image is displayed on the screen after executing the polygon-based global displacement mapping and the polygon surface regional displacement mapping, the occlusion solving process (1503) of the protruding shape and the tangent space correcting process (1504) are executed. .

まず、突出形状のオクルージョン解決過程(1503)を説明する。
突出形状のオクルージョン解決は、視点から遠いポリゴン面の変位マッピングが先に起こるように設定し、視点に近いポリゴン面の変位マッピングが後に起こるように設定することで実行する。これにより、視点から距離が遠いポリゴン面が視点に近いポリゴン面によって遮られるようにする。
First, the protruding occlusion solution process (1503) will be described.
The occlusion solution of the protruding shape is executed by setting the displacement mapping of the polygon surface far from the viewpoint to occur first, and setting the displacement mapping of the polygon surface close to the viewpoint to occur later. As a result, the polygonal surface that is far from the viewpoint is blocked by the polygonal surface close to the viewpoint.

次に、接空間修正過程(1504)の必要性と方法を説明する。
一枚の平担なポリゴン上で突出変位マッピングを適用すれば、変位マップが同一の法線を持つ平面に位置するため、全てのピクセルで接空間が同一である。しかし、二重変位マッピングのために、グリッド又はTIN(triangular irregular networks)形態を持つ全域変位マッピングが適用された曲面上に突出変位マッピングを適用すれば、隣接したポリゴンの間の法線方向の違いによって、突出した形状にエラーが発生することになる。このような問題点を解決するために、二重変位マッピングでは接空間を修正する。この接空間修正は、隣接したポリゴンの間の接空間の高さ方向を同一にする作業をすることで行われる。
Next, the necessity and method of the tangent space correction process (1504) will be described.
If projecting displacement mapping is applied on a single flat polygon, the displacement map is located on a plane having the same normal line, so that all pixels have the same tangent space. However, if projecting displacement mapping is applied to a curved surface to which global displacement mapping having a grid or TIN (triangular irregular networks) form is applied for double displacement mapping, the difference in normal direction between adjacent polygons As a result, an error occurs in the protruding shape. In order to solve such a problem, the tangent space is corrected in the double displacement mapping. This tangent space correction is performed by making the height direction of the tangent space between adjacent polygons the same.

前述したオクルージョン解決過程及び接空間修正過程は、前述したように、二重変位マッピング方法に含まれることもでき、図4の突出変位マッピング過程に含まれることもできる。   The occlusion solution process and the tangent space correction process described above may be included in the double displacement mapping method as described above, or may be included in the protruding displacement mapping process of FIG.

実施例
本発明は、ビデオゲーム及びコンピュータゲームを含むエンターテイメント情報器機、地形空間情報の表現を含む情報器機、及びコンピュータグラフィックレンダリングによって映像を生成する情報器機に活用可能である。
Embodiments The present invention can be applied to entertainment information devices including video games and computer games, information devices including representations of topographical space information, and information devices that generate images by computer graphic rendering.

特に、本発明を実際の地形空間情報のモデリング及び可視化に応用すれば、図16のように構成される。変位マッピングを利用した都市地形モデルの表現のためには、基礎地形が持っている比較的大きい変位と、地物によって発生する比較的小さな変位の表現が全て可能でなければならない。地理情報の特性上、基礎地形が持っている変位と、建物のような地物が持っている変位とを同時に表現した時には、正確な建物の形状を表現しにくい。建物の変位を基礎地形の変位から分離することが地理情報の需給と可視化の側面で有利である。したがって、基礎地形を利用した全域変位マッピングと建物の高さを用いた地域変位マッピングとを独立的に実行した後、二つの変位を併合する。   In particular, when the present invention is applied to modeling and visualization of actual terrain space information, the configuration is as shown in FIG. In order to express an urban terrain model using displacement mapping, it is necessary to be able to express all of the relatively large displacements of the basic terrain and the relatively small displacements generated by the features. Due to the characteristics of geographic information, when the displacement of the basic terrain and the displacement of a feature such as a building are represented at the same time, it is difficult to represent the exact shape of the building. It is advantageous in terms of supply and demand and visualization of geographic information to separate building displacement from basic topographic displacement. Therefore, after the global displacement mapping using the basic topography and the regional displacement mapping using the building height are executed independently, the two displacements are merged.

二重変位マッピングを構成する全域変位マッピングと地域変位マッピングに、それぞれの用途に合う変位マッピング方法が必要である。モデリングと可視化の側面で、2段階の変位マッピングにそれぞれ適した方法を使用することが妥当である。本発明では、地形の表現のために形状基盤全域変位マッピング方法を使用し、突出した建物の表現のために映像基盤突出変位マッピング方法を混合的に使用する。   A displacement mapping method suitable for each application is required for the global displacement mapping and the regional displacement mapping constituting the double displacement mapping. In terms of modeling and visualization, it is reasonable to use methods that are appropriate for two-stage displacement mapping. In the present invention, the shape-based global displacement mapping method is used to represent the topography, and the image-based projected displacement mapping method is used in a mixed manner to represent the protruding building.

図16のように都市仮想環境のモデリング及び表現のために、基礎地形の表現のための全域変位マッピング1501と、建物などの地物の表現のための地域変位マッピング1502とに分類して二重変位マッピングを適用することができる。建物のような人工地形地物を除いた純粋な指標の高さによって表現される基礎地形は時間の経過に鈍感に変化する一方、建物は持続的に都市の環境変化に従って比較的早く変化するため、地域変位マッピングに必要な建物変位マップ1611の更新はより頻繁になされなければならない。したがって、人工地形地物を保存する建物変位マップ1611と基礎地形を保存するデジタル地形モデル(digital terrain model)1621を分離して都市環境の変化に対応しやすくする。すなわち、数値地図1622から生成される建物変位マップ1611のみを更新することにより、簡単に都市仮想環境をアップデートすることが可能である。   As shown in FIG. 16, for the modeling and expression of the urban virtual environment, it is classified into a global displacement mapping 1501 for the representation of the basic terrain and a regional displacement mapping 1502 for the representation of the features such as buildings. Displacement mapping can be applied. The basic terrain expressed by the height of a pure index excluding artificial terrain features such as buildings changes insensitively over time, while buildings continuously change relatively quickly according to changes in the urban environment. The building displacement map 1611 required for regional displacement mapping must be updated more frequently. Therefore, the building displacement map 1611 that stores the artificial terrain features and the digital terrain model 1621 that stores the basic terrain are separated to easily cope with changes in the urban environment. That is, by updating only the building displacement map 1611 generated from the numerical map 1622, it is possible to easily update the urban virtual environment.

図16の二重変位マッピング方法は、基礎地形を全域変位マッピング1501によって地形の高さを表現し、その上に建物形状の高さを地域変位マッピング1502によって表現する方法を使用することにより、変化し易い建物と変化し難い基礎地形とを分離する。全域変位マッピング1501はデジタル地形モデル1621から基礎地形の変位を表現し、この上に、数値地図1622から生成した建物変位マップ1611と航空写真1623とを利用したテクスチャ情報1612を利用して、建物の突出した詳細を表現する地域変位マッピング1502を実行する。   The double displacement mapping method of FIG. 16 uses the method of expressing the height of the terrain by the global displacement mapping 1501 and the height of the building shape by the regional displacement mapping 1502 on the basic terrain. Separate easy-to-do buildings from difficult-to-change basic terrain. The global displacement mapping 1501 expresses the displacement of the basic terrain from the digital terrain model 1621, and on this, the texture information 1612 using the building displacement map 1611 and the aerial photograph 1623 generated from the numerical map 1622 is used. A regional displacement mapping 1502 is performed that represents the protruding details.

本発明で説明する二重変位マッピングと突出変位マッピングとを、図16のように、実際の地形空間情報の表現に応用した結果、図17のような映像が実時間で生成された。   As a result of applying the double displacement mapping and the protruding displacement mapping described in the present invention to the expression of actual topographical space information as shown in FIG. 16, an image as shown in FIG. 17 is generated in real time.

本発明は、対象物を表面から突出するように表現する突出変位マッピング方法と、この映像基盤突出変位マッピング技術と一般の形状基盤変位マッピング技術とを混合的に使用する二重変位マッピング方法に適用可能である。   The present invention is applied to a projecting displacement mapping method for expressing an object as projecting from a surface, and a double displacement mapping method using a mixture of this image-based projecting displacement mapping technology and a general shape-based displacement mapping technology. Is possible.

従来の映像に基づく変位マッピング方法の概念を示す図である。It is a figure which shows the concept of the displacement mapping method based on the conventional image | video. 従来の映像に基づく変位マッピング方法の問題点を説明するために示す図である。It is a figure shown in order to demonstrate the problem of the displacement mapping method based on the conventional image | video. 本発明による映像基盤突出変位マッピング方法の概念を説明するために示す図である。FIG. 5 is a diagram illustrating a concept of a video-based protruding displacement mapping method according to the present invention. 本発明による映像基盤突出変位マッピング方法の過程を示す図である。FIG. 5 is a diagram illustrating a process of a video base protrusion displacement mapping method according to the present invention. 順次検索段階において、変位マップによって定義された物体の表面と視線との交点の大略的な位置を捜す過程を示す図である。It is a figure which shows the process of searching for the approximate position of the intersection of the surface of the object defined by the displacement map and the line of sight in the sequential search stage. バイナリー検索段階において、物体の表面と視線との正確な交点を捜す過程を示す図である。It is a figure which shows the process of searching for the exact intersection of the surface of an object and a gaze in a binary search stage. 本発明による映像基盤突出変位マッピング方法を適用して四角形ポリゴンを3次元レンダリングする過程を示す図である。FIG. 5 is a diagram illustrating a process of rendering a quadrilateral polygon three-dimensionally by applying the image-based protruding displacement mapping method according to the present invention. 映像基盤突出変位マッピング過程で一般的に発生するピクセルの変位の超過分による問題を示す図である。FIG. 5 is a diagram illustrating a problem due to an excess of pixel displacement that is generally generated in a video base protrusion displacement mapping process. 図8の変位の超過分問題を解決する過程を簡略に示す図である。FIG. 9 is a diagram simply illustrating a process of solving the displacement excess problem of FIG. 8. 変位の超過分問題を解決するためにポリゴン面を拡張した状態を示す図である。It is a figure which shows the state which expanded the polygon surface in order to solve the excess part problem. 変位の超過分問題の解決方法を3次元空間で拡張して示す図である。It is a figure which expands and shows the solution method of the excess part problem in three-dimensional space. 接空間のマッピング関係を示す図である。It is a figure which shows the mapping relationship of a contact space. 変位の超過分問題を解決するためにポリゴン面に垂直な面を付け加えた状態を示す図である。It is a figure which shows the state which added the surface perpendicular | vertical to the polygonal surface in order to solve the excess amount problem. 急激な変位及び緩やかな変位の判断過程を示す図である。It is a figure which shows the judgment process of a sudden displacement and a gentle displacement. 本発明による二重変位マッピングを行うシステムの機能ブロック図である。1 is a functional block diagram of a system for performing double displacement mapping according to the present invention. FIG. 本発明で説明した二重変位マッピングと突出変位マッピングとを地形空間情報の表現に活用する例を示す図である。It is a figure which shows the example which utilizes the double displacement mapping and protrusion displacement mapping which were demonstrated by this invention for the expression of topographical space information. 図16の実施例から実時間で生成された映像を示す図である。It is a figure which shows the image | video produced | generated in real time from the Example of FIG.

符号の説明Explanation of symbols

304…視点、400…映像基盤突出変位マッピングのためのシステム、401…順次検索段階、402…バイナリー検索段階、403…超過分処理段階、404…急激な傾斜面検出及び補正段階、410…オブジェクトデータベース、420…表面テクスチャデータベース、430…変位マップデータベース、701…土台、702…テクスチャ、901…ポリゴン面、902…ポリゴン面に垂直な面、903…仮想拡張面、1500…二重変位マッピングのためのシステム、1501…全域変位マッピング手段、1502…地域変位マッピング手段、1510…オブジェクトデータベース、1520…メモリ、1530…イメージ、1611…建物変位マップ、1612…テクスチャ情報、1621…デジタル地形モデル、1622…数値地図、1623…航空写真 304 ... Viewpoint, 400 ... System for video-based protruding displacement mapping, 401 ... Sequential search stage, 402 ... Binary search stage, 403 ... Excess processing stage, 404 ... Abrupt slope detection and correction stage, 410 ... Object database , 420 ... surface texture database, 430 ... displacement map database, 701 ... base, 702 ... texture, 901 ... polygon surface, 902 ... surface perpendicular to the polygon surface, 903 ... virtual extension surface, 1500 ... double displacement mapping System, 1501 ... Global displacement mapping means, 1502 ... Regional displacement mapping means, 1510 ... Object database, 1520 ... Memory, 1530 ... Image, 1611 ... Building displacement map, 1612 ... Texture information, 1621 ... Digital terrain model, 1622 ... Number Map, 1623 ... aerial photographs

Claims (27)

3次元オブジェクトとテクスチャ情報と変位情報とを利用して、ポリゴン面から突出した物体形状を表現するシステムにおける映像基盤突出変位マッピング方法において、
前記変位情報によって定義される突出した物体の表面と観察者視線との交点を検索して、前記突出した物体の形状を前記ポリゴン面に表示する交点検索段階と、
追加のポリゴン面を付け加え、前記ポリゴン面の境界を超える超過分に相当する前記突出した物体の形状を前記追加のポリゴン面に表示する超過分表示段階と、
前記突出した物体の形状における急激な傾斜面を検出する急激傾斜面検出段階と、
前記急激な傾斜面に追加テクスチャを表現する急激傾斜面補正段階と、
を含むことを特徴とする、映像基盤突出変位マッピング方法。
In a video-based projecting displacement mapping method in a system that expresses an object shape projecting from a polygon surface using a 3D object, texture information, and displacement information,
Searching for the intersection of the surface of the protruding object defined by the displacement information and the observer's line of sight, and displaying the shape of the protruding object on the polygon surface; and
Adding an additional polygon surface, and displaying the shape of the protruding object corresponding to the excess exceeding the boundary of the polygon surface on the additional polygon surface; and
A steep slope detection step of detecting a steep slope in the shape of the protruding object;
A steep slope correction step for expressing an additional texture on the steep slope;
An image-based projecting displacement mapping method comprising:
前記交点検索段階は、
前記変位情報によって定義される前記物体の表面と前記視線との交点の大略的な位置を捜す順次検索段階と、
前記交点の大略的な位置から正確な交点及び前記交点の高さを捜すバイナリー検索段階と、
を含むことを特徴とする、請求項1に記載の映像基盤突出変位マッピング方法。
The intersection search step includes:
A sequential search step for searching for an approximate position of an intersection between the surface of the object defined by the displacement information and the line of sight;
A binary search step for searching for an exact intersection point and a height of the intersection point from a rough position of the intersection point;
The image-based projecting displacement mapping method according to claim 1, further comprising:
前記順次検索段階は、
前記変位情報によって構成される仮想ボリュームの上面と前記ポリゴン面との間を一定間隔で分割し、
前記仮想ボリュームの上面及び前記分割された面と、前記視線とが交差する分割交差点を捜し、
最上の分割交差点を始めとして、前記分割された面の高さ値と前記変位情報に保存された高さ値とを比較して、前記分割された面の高さ値が前記変位情報に保存された高さ値よりも高ければ、その下の分割交差点に対する検査を続け、前記分割された面の高さ値が前記変位情報に保存された高さ値よりも低くければ、検査を停止し、
検査を停止した分割交差点とその上の分割交差点との間を前記交点の大略的な位置として設定することを特徴とする、請求項2に記載の映像基盤突出変位マッピング方法。
The sequential search step includes:
Dividing the upper surface of the virtual volume constituted by the displacement information and the polygon surface at a constant interval,
Search for a divided intersection where the upper surface of the virtual volume and the divided surface and the line of sight intersect,
Starting with the uppermost divided intersection, the height value of the divided surface is compared with the height value stored in the displacement information, and the height value of the divided surface is stored in the displacement information. If the height value is higher than the height value stored in the displacement information, the inspection is continued if the height value of the divided surface is lower than the height value stored in the displacement information.
3. The image-based projecting displacement mapping method according to claim 2, wherein an approximate position of the intersection is set between the divided intersection where the inspection is stopped and the divided intersection on the intersection.
前記超過分表示段階は、
前記追加のポリゴン面として、前記ポリゴン面を同一面上で拡張し、前記拡張されたポリゴン面に前記超過分に相当する前記突出した物体の形状を表示することを特徴とする、請求項1に記載の映像基盤突出変位マッピング方法。
The excess display step includes:
The extended polygon surface is expanded on the same surface as the additional polygon surface, and the shape of the protruding object corresponding to the excess is displayed on the expanded polygon surface. The image base protrusion displacement mapping method described.
前記超過分表示段階は、
前記視線の方向によって、超過分が発生する前記ポリゴン面の境界に隣接して前記ポリゴン面の垂直面を、前記追加のポリゴン面として付け加え、前記付け加えられた垂直面に前記超過分に相当する前記突出した物体の形状を表示することを特徴とする、請求項1に記載の映像基盤突出変位マッピング方法。
The excess display step includes:
Depending on the direction of the line of sight, a polygonal surface perpendicular to the boundary of the polygonal surface where excess occurs is added as the additional polygonal surface, and the added vertical surface corresponds to the excess. The method of claim 1, wherein the shape of the protruding object is displayed.
前記超過分表示段階は、前記ポリゴン面と前記垂直面の接空間とをマッピングすることを特徴とする、請求項5に記載の映像基盤突出変位マッピング方法。   The method of claim 5, wherein the excess display step maps the tangent space between the polygon surface and the vertical surface. 前記超過分表示段階は、
前記視線と前記垂直面の交差点Cの空間座標が(dx,dy)であり、前記ポリゴン面を同一面上に拡張した仮想拡張面と前記視線との交差点Aの空間座標が(x’,y’)である時、前記点Cを以下の数式を利用して前記点Aにマッピングし、
ここで、(vx,vy,vz)は前記ポリゴン面の接空間座標系の値であり、(dx,dy)は前記垂直面のuv空間座標系の値であり、(x’,y’)は仮想拡張面の空間座標系の値であり、前記点Aのテクスチャ座標を利用して前記突出した物体の形状を表示することを特徴とする、請求項5に記載の映像基盤突出変位マッピング方法。
The excess display step includes:
The spatial coordinates of the intersection C between the line of sight and the vertical plane are (dx, dy), and the spatial coordinates of the intersection A between the virtual extension plane obtained by extending the polygon plane on the same plane and the line of sight are (x ′, y '), The point C is mapped to the point A using the following formula:
Here, (vx, vy, vz) is a value in the tangent space coordinate system of the polygon surface, (dx, dy) is a value in the uv space coordinate system of the vertical surface, and (x ′, y ′) 6. The image-based protruding displacement mapping method according to claim 5, wherein is a value of a spatial coordinate system of the virtual extension plane, and the shape of the protruding object is displayed using the texture coordinates of the point A. .
前記超過分表示段階は、前記追加のポリゴン面を表示せず、前記超過分に相当する前記突出した物体の形状のみをレンダリングすることを特徴とする、請求項1に記載の映像基盤突出変位マッピング方法。   The image-based projecting displacement mapping according to claim 1, wherein the excess display step does not display the additional polygon surface, but only renders the shape of the protruding object corresponding to the excess. Method. 前記急激傾斜面検出段階は、
前記変位情報によって構成される仮想ボリュームの上面と前記ポリゴン面との間を一定間隔で分割し、
前記仮想ボリュームの上面及び前記分割された面と、前記視線とが交差する分割交差点を捜し、
前記変位情報によって定義される前記物体の表面と前記視線との交点の高さ値を取得して、該取得された高さ値を第1高さ値として設定し、
前記交点の近接した上面に存在する分割交差点の高さ値を取得して、該取得された高さ値を第2高さ値として設定し、
前記第1高さ値と前記第2高さ値との間の差が限界値を超えた場合に、急激な傾斜面であると判断することを特徴とする、請求項1に記載の映像基盤突出変位マッピング方法。
The steeply inclined surface detecting step includes
Dividing the upper surface of the virtual volume constituted by the displacement information and the polygon surface at a constant interval,
Search for a divided intersection where the upper surface of the virtual volume and the divided surface and the line of sight intersect,
Obtaining a height value of an intersection between the surface of the object defined by the displacement information and the line of sight, and setting the obtained height value as a first height value;
Obtaining a height value of a divided intersection existing on the upper surface adjacent to the intersection, and setting the obtained height value as a second height value;
The image base according to claim 1, wherein when the difference between the first height value and the second height value exceeds a limit value, the image base is determined to be a steeply inclined surface. Projection displacement mapping method.
前記急激傾斜面補正段階は、前記急激な傾斜面にタイル形態のテクスチャを付け加えることを特徴とする、請求項1に記載の映像基盤突出変位マッピング方法。   The method of claim 1, wherein the steep slope correction step adds a tile-shaped texture to the steep slope. 前記急激傾斜面補正段階を実行した多数の物体を視点との距離の順に配列するオクルージョン解決段階をさらに含むことを特徴とする、請求項1に記載の映像基盤突出変位マッピング方法。   The method of claim 1, further comprising an occlusion solving step of arranging a number of objects that have undergone the steep slope correction step in order of distance from a viewpoint. 3次元オブジェクトとテクスチャ情報と全域変位情報と地域変位情報とを利用して物体の形状を表現するシステムにおける二重変位マッピング方法において、
前記3次元オブジェクト及び全域変位情報を利用して、ポリゴンに基づいて前記物体の表面を表現する全域変位マッピング段階と、
前記テクスチャ情報及び前記地域変位情報を利用して、前記物体の表面の詳細形状を表現する地域変位マッピング段階と、
前記全域変位マッピング及び前記地域変位マッピングが実行された前記物体を視点との距離順に配列するオクルージョン解決段階と、
前記全域変位マッピング段階で隣接したポリゴンの間の接空間の高さ方向を同一にする接空間修正段階と、
を含むことを特徴とする、二重変位マッピング方法。
In a double displacement mapping method in a system that represents a shape of an object using a three-dimensional object, texture information, global displacement information, and regional displacement information,
A global displacement mapping step of representing the surface of the object based on polygons using the 3D object and global displacement information;
A regional displacement mapping stage that represents a detailed shape of the surface of the object using the texture information and the regional displacement information;
An occlusion solving step of arranging the objects subjected to the global displacement mapping and the regional displacement mapping in order of distance from a viewpoint;
A tangent space correction step in which the height direction of the tangent space between adjacent polygons is the same in the global displacement mapping step;
A double displacement mapping method comprising:
前記地域変位マッピング段階は、
前記地域変位情報によって定義される突出した物体の表面と観察者視線との交点を検索して、前記突出した物体の形状を前記ポリゴン面に表示する交点検索段階と、
追加のポリゴン面を付け加え、前記ポリゴン面の境界を超える超過分に相当する前記突出した物体の形状を前記追加のポリゴン面に表示する超過分表示段階と、
前記突出した物体の形状における急激な傾斜面を検出する急激傾斜面検出段階と、
前記急激な傾斜面に追加テクスチャを表現する急激傾斜面補正段階と、
を含むことを特徴とする、請求項12に記載の二重変位マッピング方法。
The regional displacement mapping step includes:
Searching for an intersection between the surface of the protruding object defined by the regional displacement information and the observer's line of sight, and displaying the shape of the protruding object on the polygon surface; and
Adding an additional polygon surface, and displaying the shape of the protruding object corresponding to the excess exceeding the boundary of the polygon surface on the additional polygon surface; and
A steep slope detection step of detecting a steep slope in the shape of the protruding object;
A steep slope correction step for expressing an additional texture on the steep slope;
The double displacement mapping method according to claim 12, comprising:
前記交点検索段階は、
前記地域変位情報によって定義される前記物体の表面と前記視線との交点の大略的な位置を捜す順次検索段階と、
前記交点の大略的な位置から正確な交点及び前記交点の高さを捜すバイナリー検索段階と、
を含むことを特徴とする、請求項13に記載の二重変位マッピング方法。
The intersection search step includes:
A sequential search step for searching for an approximate position of an intersection between the surface of the object defined by the regional displacement information and the line of sight;
A binary search step for searching for an exact intersection point and a height of the intersection point from a rough position of the intersection point;
The double displacement mapping method according to claim 13, comprising:
前記順次検索段階は、
前記地域変位情報によって構成される仮想ボリュームの上面と前記ポリゴン面との間を一定間隔で分割し、
前記仮想ボリュームの上面及び前記分割された面と、前記視線とが交差する分割交差点を捜し、
最上の分割交差点を始めとして、前記分割された面の高さ値と前記変位情報に保存された高さ値とを比較して、前記分割された面の高さ値が前記変位情報に保存された高さ値よりも高ければ、その下の分割交差点に対する検査を続け、前記分割された面の高さ値が前記変位情報に保存された高さ値よりも低くければ、検査を停止し、
検査を停止した分割交差点とその上の分割交差点との間を前記交点の大略的な位置として設定することを特徴とする、請求項14に記載の二重変位マッピング方法。
The sequential search step includes:
Dividing between the upper surface of the virtual volume constituted by the regional displacement information and the polygon surface at regular intervals,
Search for a divided intersection where the upper surface of the virtual volume and the divided surface and the line of sight intersect,
Starting with the uppermost divided intersection, the height value of the divided surface is compared with the height value stored in the displacement information, and the height value of the divided surface is stored in the displacement information. If the height value is higher than the height value stored in the displacement information, the inspection is continued if the height value of the divided surface is lower than the height value stored in the displacement information.
The double displacement mapping method according to claim 14, wherein an approximate position of the intersection is set between the divided intersection where the inspection is stopped and the divided intersection on the intersection.
前記超過分表示段階は、前記追加のポリゴン面として、前記ポリゴン面を同一面上で拡張し、前記拡張されたポリゴン面に前記超過分に相当する前記突出した物体の形状を表示することを特徴とする、請求項13に記載の二重変位マッピング方法。   In the excess display step, as the additional polygon surface, the polygon surface is expanded on the same surface, and the shape of the protruding object corresponding to the excess is displayed on the expanded polygon surface. The double displacement mapping method according to claim 13. 前記超過分表示段階は、前記視線の方向によって超過分が発生する前記ポリゴン面の境界に隣接して前記ポリゴン面の垂直面を、前記追加のポリゴン面として付け加え、前記付け加えられた垂直面に前記超過分に相当する前記突出した物体の形状を表示することを特徴とする、請求項13に記載の二重変位マッピング方法。   In the excess display step, a vertical plane of the polygon surface is added as the additional polygon plane adjacent to a boundary of the polygon surface where an excess occurs depending on the direction of the line of sight, and the added vertical plane is 14. The double displacement mapping method according to claim 13, wherein the shape of the protruding object corresponding to an excess is displayed. 前記超過分表示段階は、前記ポリゴン面と前記垂直面の接空間とをマッピングすることを特徴とする、請求項17に記載の二重変位マッピング方法。   The double displacement mapping method according to claim 17, wherein the excess display step maps the tangent space between the polygon surface and the vertical surface. 前記超過分表示段階は、
前記視線と前記垂直面の交差点Cの空間座標が(dx,dy)であり、前記ポリゴン面を同一面上に拡張した仮想拡張面と前記視線との交差点Aの空間座標が(x’,y’)である時、前記点Cを以下の数式を利用して前記点Aにマッピングし、
ここで、(vx,vy,vz)は前記ポリゴン面の接空間座標系の値であり、(dx,dy)は前記垂直面のuv空間座標系の値であり、(x’,y’)は仮想拡張面の空間座標系の値であり、前記点Aのテクスチャ座標を利用して前記突出した物体の形状を表示することを特徴とする、請求項17に記載の二重変位マッピング方法。
The excess display step includes:
The spatial coordinates of the intersection C between the line of sight and the vertical plane are (dx, dy), and the spatial coordinates of the intersection A between the virtual extension plane obtained by extending the polygon plane on the same plane and the line of sight are (x ′, y '), The point C is mapped to the point A using the following formula:
Here, (vx, vy, vz) is a value in the tangent space coordinate system of the polygon surface, (dx, dy) is a value in the uv space coordinate system of the vertical surface, and (x ′, y ′) 18. The double displacement mapping method according to claim 17, wherein is a value of a spatial coordinate system of the virtual extension plane, and the shape of the protruding object is displayed using the texture coordinates of the point A.
前記超過分表示段階は、前記追加のポリゴン面を表示せず、前記超過分に相当する前記突出した物体の形状のみをレンダリングすることを特徴とする、請求項13に記載の二重変位マッピング方法。   The double displacement mapping method according to claim 13, wherein, in the excess display step, only the shape of the protruding object corresponding to the excess is rendered without displaying the additional polygon surface. . 前記急激傾斜面検出段階は、
前記地域変位情報によって構成される仮想ボリュームの上面と前記ポリゴン面との間を一定間隔で分割し、
前記仮想ボリュームの上面及び前記分割された面と、前記視線とが交差する分割交差点を捜し、
前記地域変位情報によって定義される前記物体の表面と前記視線との交点の高さ値を取得して、該取得された高さ値を第1高さ値として設定し、
前記交点の近接した上面に存在する分割交差点の高さ値を取得して、該取得された高さ値を第2高さ値として設定し、
前記第1高さ値と前記第2高さ値との間の差が限界値を超えた場合に、急激な傾斜面であると判断することを特徴とする、請求項13に記載の二重変位マッピング方法。
The steeply inclined surface detecting step includes
Dividing between the upper surface of the virtual volume constituted by the regional displacement information and the polygon surface at regular intervals,
Search for a divided intersection where the upper surface of the virtual volume and the divided surface and the line of sight intersect,
Obtaining a height value of an intersection of the surface of the object and the line of sight defined by the regional displacement information, and setting the obtained height value as a first height value;
Obtaining a height value of a divided intersection existing on the upper surface adjacent to the intersection, and setting the obtained height value as a second height value;
The double according to claim 13, wherein when the difference between the first height value and the second height value exceeds a limit value, it is determined that the surface is a steeply inclined surface. Displacement mapping method.
前記急激傾斜面補正段階は、前記急激な傾斜面にタイル形態のテクスチャを付け加えることを特徴とする、請求項13に記載の二重変位マッピング方法。   The double displacement mapping method according to claim 13, wherein the steep slope correction step adds a tile-shaped texture to the steep slope. 前記全域変位情報は基礎地形情報であり、前記地域変位情報は人工地物情報であり、前記テクスチャ情報は航空写真であることを特徴とする、請求項12に記載の二重変位マッピング方法。   The double displacement mapping method according to claim 12, wherein the global displacement information is basic terrain information, the regional displacement information is artificial feature information, and the texture information is an aerial photograph. ポリゴン面に突出した物体の形状を表示するコンピュータグラフィックシステムによって、前記ポリゴン面の境界を超える超過分を処理する方法において、
視線の方向によって前記超過分が発生する前記ポリゴン面の境界に隣接して前記ポリゴン面の垂直面を付け加え、前記付け加えられた垂直面に前記超過分に相当する前記突出した物体形状を表示することを特徴とする超過分処理方法。
In a method of processing an excess exceeding the boundary of the polygon surface by a computer graphic system that displays the shape of an object protruding on the polygon surface,
Adding a vertical surface of the polygon surface adjacent to the boundary of the polygon surface where the excess occurs depending on the direction of the line of sight, and displaying the protruding object shape corresponding to the excess on the added vertical surface An excess processing method characterized by.
前記ポリゴン面と前記垂直面の接空間とをマッピングすることを特徴とする、請求項24に記載の超過分処理方法。   The excess processing method according to claim 24, wherein the tangent space between the polygon surface and the vertical surface is mapped. 前記視線と前記垂直面の交差点Cの空間座標が(dx,dy)であり、前記ポリゴン面を同一面上に拡張した仮想拡張面と視線との交差点Aの空間座標が(x’,y’)である時、前記点Cを以下の数式を利用して前記点Aにマッピングし、
ここで、(vx,vy,vz)は前記ポリゴン面の接空間座標系の値であり、(dx,dy)は前記垂直面のuv空間座標系の値であり、(x’,y’)は仮想拡張面の空間座標系の値であり、前記点Aのテクスチャ座標を利用して前記突出した物体の形状を表示することを特徴とする、請求項24に記載の超過分処理方法。
The spatial coordinates of the intersection C between the line of sight and the vertical plane are (dx, dy), and the spatial coordinates of the intersection A between the virtual extension plane obtained by extending the polygon plane on the same plane and the line of sight are (x ′, y ′). ), The point C is mapped to the point A using the following formula:
Here, (vx, vy, vz) is a value in the tangent space coordinate system of the polygon surface, (dx, dy) is a value in the uv space coordinate system of the vertical surface, and (x ′, y ′) The excess processing method according to claim 24, wherein is a value of a spatial coordinate system of the virtual extension plane, and the shape of the protruding object is displayed using the texture coordinates of the point A.
前記付け加えられた垂直面を表示せず、前記超過分に相当する前記突出した物体形状のみをレンダリングすることを特徴とする、請求項24に記載の超過分処理方法。   25. The excess processing method according to claim 24, wherein only the protruding object shape corresponding to the excess is rendered without displaying the added vertical plane.
JP2006049287A 2006-02-20 2006-02-24 Image base protrusion displacement mapping method and double displacement mapping method using the method Active JP4680796B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060016031A KR100738500B1 (en) 2006-02-20 2006-02-20 Method for bi-layered displacement mapping and protruded displacement mapping

Publications (3)

Publication Number Publication Date
JP2007220049A true JP2007220049A (en) 2007-08-30
JP2007220049A5 JP2007220049A5 (en) 2008-01-10
JP4680796B2 JP4680796B2 (en) 2011-05-11

Family

ID=38427705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006049287A Active JP4680796B2 (en) 2006-02-20 2006-02-24 Image base protrusion displacement mapping method and double displacement mapping method using the method

Country Status (3)

Country Link
US (1) US7629972B2 (en)
JP (1) JP4680796B2 (en)
KR (1) KR100738500B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012527025A (en) * 2009-05-14 2012-11-01 アルカテル−ルーセント Method for generating a three-dimensional model of an object

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4973784B2 (en) * 2008-10-29 2012-07-11 富士通株式会社 Design support program, design support method, and design support apparatus
US8830248B1 (en) * 2009-05-29 2014-09-09 Imagemovers Digital Llc Texture synthesis for fine grained cloth simulation
US9215444B2 (en) 2010-01-11 2015-12-15 Lg Electronics Inc. Broadcasting receiver and method for displaying 3D images
KR101137924B1 (en) 2010-04-12 2012-05-09 전주대학교 산학협력단 Method for generating randomly bumpy surface for Korean traditional stone wall with boundary and recording medium for the same
KR101137923B1 (en) 2010-04-12 2012-05-09 전주대학교 산학협력단 Method for generating randomly bumpy surface for Korean traditional stone wall without boundary and recording medium for the same
CN102467756B (en) * 2010-10-29 2015-11-25 国际商业机器公司 For perspective method and the device of three-dimensional scenic
EP2648161B1 (en) 2010-12-02 2020-06-17 Digital Process Ltd. Display processing method and device
KR101214661B1 (en) 2011-04-04 2012-12-24 인하대학교 산학협력단 A method for terrain rendering using vertex cohesion map
KR101764341B1 (en) * 2012-01-03 2017-08-02 한국전자통신연구원 Method for editing terrain data created by procedural terrain method
US10140751B2 (en) 2013-08-08 2018-11-27 Imagination Technologies Limited Normal offset smoothing
CN104517312B (en) * 2013-09-26 2017-06-16 清华大学 Rotate the texture mapping method of body Model
US9626776B2 (en) * 2013-12-20 2017-04-18 Cognex Corporation Apparatus, systems, and methods for processing a height map
GB2526359B (en) * 2014-05-23 2020-07-22 Advanced Risc Mach Ltd Graphics processing systems
US9805496B2 (en) * 2014-05-27 2017-10-31 Disney Enterprises, Inc. Example based editing of virtual terrain maps
US9857252B2 (en) * 2015-11-24 2018-01-02 GM Global Technology Operations LLC Automated e-assist adjustment for an e-bike for elevation gains and loss
CN106780317B (en) * 2017-01-25 2020-08-11 北京数码视讯科技股份有限公司 Panoramic projection method and device
CN107168933B (en) * 2017-05-09 2020-05-08 北京四维空间数码科技有限公司 Spatial influence area analysis method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04222074A (en) * 1990-03-16 1992-08-12 Hewlett Packard Co <Hp> Inclination computing method for texture map
JPH10302079A (en) * 1997-04-23 1998-11-13 Sharp Corp Solid texture mapping processor and three-dimensional image generating device using the processor
JP2000011208A (en) * 1998-06-24 2000-01-14 Sfd Kk Device and method for image display
JP2000076488A (en) * 1998-08-26 2000-03-14 Mitsubishi Electric Corp Three-dimensional virtual space display device and texture object setting information generating device
JP2001229402A (en) * 2000-02-16 2001-08-24 Mitsubishi Electric Corp Device and method for three-dimensional image display and computer-readable recording medium with recorded program making computer, implement the method
JP2002140732A (en) * 2000-11-02 2002-05-17 Kddi Corp Server used for overlapping of pictures and system having the same
JP2003505773A (en) * 1999-07-20 2003-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for calculating a computer graphics image of a textured surface
JP2003331313A (en) * 2002-05-14 2003-11-21 Konami Computer Entertainment Japan Inc Image processing program
JP2005038426A (en) * 2003-07-14 2005-02-10 Samsung Electronics Co Ltd Image-base rendering and editing method and apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7196702B1 (en) * 1998-07-23 2007-03-27 Freedesign, Inc. Geometric design and modeling system using control geometry
JP3661167B2 (en) * 1999-02-19 2005-06-15 株式会社ソニー・コンピュータエンタテインメント Apparatus and method for performing refraction mapping
KR100420858B1 (en) * 2001-08-11 2004-03-02 학교법인연세대학교 apparatus and method for processing mapping in 3D rendering processor
US7408550B2 (en) * 2006-07-24 2008-08-05 Bunnell Michael T System and methods for real-time rendering of deformable geometry with global illumination

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04222074A (en) * 1990-03-16 1992-08-12 Hewlett Packard Co <Hp> Inclination computing method for texture map
JPH10302079A (en) * 1997-04-23 1998-11-13 Sharp Corp Solid texture mapping processor and three-dimensional image generating device using the processor
JP2000011208A (en) * 1998-06-24 2000-01-14 Sfd Kk Device and method for image display
JP2000076488A (en) * 1998-08-26 2000-03-14 Mitsubishi Electric Corp Three-dimensional virtual space display device and texture object setting information generating device
JP2003505773A (en) * 1999-07-20 2003-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for calculating a computer graphics image of a textured surface
JP2001229402A (en) * 2000-02-16 2001-08-24 Mitsubishi Electric Corp Device and method for three-dimensional image display and computer-readable recording medium with recorded program making computer, implement the method
JP2002140732A (en) * 2000-11-02 2002-05-17 Kddi Corp Server used for overlapping of pictures and system having the same
JP2003331313A (en) * 2002-05-14 2003-11-21 Konami Computer Entertainment Japan Inc Image processing program
JP2005038426A (en) * 2003-07-14 2005-02-10 Samsung Electronics Co Ltd Image-base rendering and editing method and apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012527025A (en) * 2009-05-14 2012-11-01 アルカテル−ルーセント Method for generating a three-dimensional model of an object

Also Published As

Publication number Publication date
JP4680796B2 (en) 2011-05-11
KR100738500B1 (en) 2007-07-12
US7629972B2 (en) 2009-12-08
US20070195083A1 (en) 2007-08-23

Similar Documents

Publication Publication Date Title
JP4680796B2 (en) Image base protrusion displacement mapping method and double displacement mapping method using the method
KR101085390B1 (en) Image presenting method and apparatus for 3D navigation, and mobile apparatus comprising the same apparatus
US7348989B2 (en) Preparing digital images for display utilizing view-dependent texturing
JP5299173B2 (en) Image processing apparatus, image processing method, and program
US7936351B2 (en) Apparatus, method, and computer readable medium thereof capable of pre-storing data for generating self-shadow of a 3D object
JP2007066064A (en) Image generating device and image generating program
JP3626144B2 (en) Method and program for generating 2D image of cartoon expression from 3D object data
CN111127623A (en) Model rendering method and device, storage medium and terminal
US20060066613A1 (en) Method and system for partitioning the surface of a three dimentional digital object model in order to map a texture
CN109461197B (en) Cloud real-time drawing optimization method based on spherical UV and re-projection
CN114494570A (en) Rendering method and device of three-dimensional model, storage medium and computer equipment
JP6852224B2 (en) Sphere light field rendering method in all viewing angles
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
CN116664752B (en) Method, system and storage medium for realizing panoramic display based on patterned illumination
JP2837584B2 (en) How to create terrain data
US20020085014A1 (en) Rendering device
KR101118597B1 (en) Method and System for Rendering Mobile Computer Graphic
JP2005346417A (en) Method for controlling display of object image by virtual three-dimensional coordinate polygon and image display device using the method
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2003099800A (en) Three-dimensional image information producing method, its device, three-dimensional image information producing program, storage medium storing it
JP2006133940A (en) Real-time image generation device using detail level
JP3067097B2 (en) 3D image data creation method
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
CN117475077A (en) Method, device and system for generating building model based on building vector data
JP5321385B2 (en) Image processing program and computer-readable recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110203

R150 Certificate of patent or registration of utility model

Ref document number: 4680796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250