JPH0757118A - Image generating device - Google Patents

Image generating device

Info

Publication number
JPH0757118A
JPH0757118A JP20139193A JP20139193A JPH0757118A JP H0757118 A JPH0757118 A JP H0757118A JP 20139193 A JP20139193 A JP 20139193A JP 20139193 A JP20139193 A JP 20139193A JP H0757118 A JPH0757118 A JP H0757118A
Authority
JP
Japan
Prior art keywords
correspondence
attribute information
information
change
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP20139193A
Other languages
Japanese (ja)
Other versions
JP2768228B2 (en
Inventor
Shigeo Nakagawa
滋雄 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP5201391A priority Critical patent/JP2768228B2/en
Publication of JPH0757118A publication Critical patent/JPH0757118A/en
Application granted granted Critical
Publication of JP2768228B2 publication Critical patent/JP2768228B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To enable an operator to correct the distortion of a generated image resulting from arrangement as the operator intends by generating the image while the operator interactively alters the correspondence relation between attribute information arranged on the surface of a body to represent the qualitativeness and the body surface. CONSTITUTION:The correspondence relation between shape information on the body stored in a body storage part 1 and the attribute information stored in an attribute storage part 2 is stored in the body storage part 1 and a correspondence relation calculation part 4 finds new correspondence relation on the basis of alteration information set by an alteration information setting part 3; and an image generation part 5 generates the image and also updates the correspondence relation stored in the body storage part 1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は3次元空間中で定義した
物体形状の表面に画像等の属性情報を配置して画像を生
成する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for generating an image by arranging attribute information such as an image on the surface of an object shape defined in a three-dimensional space.

【0002】[0002]

【従来の技術】コンピュータグラフィクスで用いられる
一般的な技法として、テクスチャマッピングという技法
がある。この技法は、模様や質感を表す画像(テクスチ
ャ画像)を物体形状の表面に配置し、その物体を表現す
る画像を生成するものである。この技法により、複雑な
模様や質感をもつ物体を表現した画像を、単純な形状を
使用して生成することができる。また、物体表面の法線
ベクトルを変動させて物体表面の微小な凸凹を表現する
マッピング法がバンプマッピング法として知られてい
る。
2. Description of the Related Art A general technique used in computer graphics is a technique called texture mapping. This technique arranges an image (texture image) representing a pattern or texture on the surface of an object shape and generates an image representing the object. With this technique, an image expressing an object having a complicated pattern or texture can be generated using a simple shape. In addition, a mapping method in which a normal vector on the surface of an object is changed to express minute irregularities on the surface of the object is known as a bump mapping method.

【0003】画像または法線情報を物体表面に対する属
性情報として定義し、定義した属性情報を物体表面に張
り付けて画像生成する技法の詳細は、例えば文献[19
89年、アラン・ワット「ファンダメンタルズ・オブ・
スリーディメンショナル・コンピューター・グラフィッ
クス」、アディスン・ウエズリィ(Alan Wat
t,FUNDAMENTALS OF THREE−D
IMENSIONALCOMPUTER GRAPHI
CS,ADDISON WESLEY,1989)、2
27−254頁]に記載がある。
Details of a technique for defining an image or normal line information as attribute information for an object surface and applying the defined attribute information to the object surface to generate an image are described in, for example, the literature [19].
1989, Alan Watt "Fundamentals of
Three Dimensional Computer Graphics ", Alan Watley
t, FUNDAMENTALS OF THREE-D
IMENSIONAL COMPUTER GRAPHI
CS, ADDISON WESLEY, 1989), 2
27-254].

【0004】また、このような平面の属性情報を3次元
に拡張する方法として、物体の表面における微小な構造
や光学的な特性を3次元的な属性情報(空間属性情報)
として定義し、定義した空間属性情報を物体の表面に張
り付けて画像生成する方法がある。この方法を用いる
と、たとえば動物の毛皮のような複雑な形状を、毛を一
本ごとに形状定義せずに、毛の構造と光学的特性を定義
した空間属性情報を基本形状に張り付けることで画像生
成できる。さらに、この方法には、空間属性情報を物体
の形状表面において変形することで、物体の形状自体を
変化させずに表面形状を変化させた画像を生成できると
いう利点がある。空間属性情報を用いた画像生成法の詳
細は[1989年、ジェイムズ・ティー・カジヤ、ティ
モシー・エル・ケイ、「コンピューターグラフィック
ス」、第23巻第3号、エイシーエムシググラフ(Ja
mes T.Kajiya,Timothy L.Ka
y,COMPUTER GRAPHICS,ACM S
IGGRAPH,VOL.23NO.3 1989)、
271−280頁]に記載がある。テクスチャマッピン
グ法で実際に属性情報を張り付けて画像生成する場合、
まず、物体形状と属性情報との張り付け時の対応関係を
定め、次に、定めた対応関係に従って、形状の表面に対
応する属性情報を配置することで画像生成する、という
手順となる。物体形状と属性情報の対応関係を定める方
法として次の方法がある。
Further, as a method for expanding such plane attribute information into three dimensions, three-dimensional attribute information (spatial attribute information) of minute structures and optical characteristics on the surface of an object is obtained.
There is a method of generating the image by attaching the defined spatial attribute information to the surface of the object. Using this method, it is possible to attach spatial attribute information that defines the structure and optical characteristics of the hair to the basic shape, without defining the shape of each hair individually, for complex shapes such as animal fur. You can generate images with. Further, this method has an advantage that by deforming the spatial attribute information on the shape surface of the object, it is possible to generate an image in which the surface shape is changed without changing the shape itself of the object. For details of the image generation method using the spatial attribute information, [1989, James T. Kaziya, Timothy El Kay, "Computer Graphics", Vol. 23, No. 3, AC M Siggraph (Ja
mes T. Kajiya, Timothy L .; Ka
y, COMPUTER GRAPHICS, ACM S
IGGRAPH, VOL. 23 NO. 3 1989),
271-280]. When actually creating an image by pasting attribute information using the texture mapping method,
First, the correspondence relationship between the object shape and the attribute information at the time of pasting is determined, and then the attribute information corresponding to the surface of the shape is arranged in accordance with the determined correspondence relationship to generate an image. There are the following methods for determining the correspondence between the object shape and the attribute information.

【0005】(1)物体形状の周囲に球または円筒等の
仮想的な面を置き、この面に対して属性情報を配置し、
続いて仮想面から物体表面へ属性情報を投影する方法 (2)物体の部分形状の表面に座標系を設定し、属性情
報における座標系と互いに対応付ける方法。
(1) A virtual surface such as a sphere or a cylinder is placed around the object shape, and attribute information is arranged on this surface.
Then, a method of projecting attribute information from the virtual surface onto the surface of the object (2) A method of setting a coordinate system on the surface of the partial shape of the object and associating it with the coordinate system in the attribute information.

【0006】[0006]

【発明が解決しようとする課題】テクスチャマッピング
法により画像を生成する場合、平面の属性情報を立体の
表面に伸縮させて張り付けるため、張り付け時に属性情
報に疎密が生じ、その結果生成画像に歪みが現れてしま
う。
When an image is generated by the texture mapping method, the attribute information of the plane is expanded and contracted and attached to the surface of the solid. Therefore, the attribute information becomes sparse and dense at the time of attachment, resulting in distortion of the generated image. Will appear.

【0007】たとえば上述(1)および(2)の方法に
より対応関係を定めるとき、(1)の場合では張り付け
る属性情報の周縁部に近付くほどに歪みが強く現れると
いう問題点がある。また、(2)の場合でも、物体形状
の凹凸が激しい箇所であるほど属性情報の張り付け時の
疎密が生じ、歪みが強く現れるという問題点がある。
For example, when the correspondence is determined by the above methods (1) and (2), in the case of (1), there is a problem that the distortion becomes stronger as it gets closer to the peripheral edge of the attribute information to be pasted. Even in the case of (2), there is a problem that the more uneven the object shape is, the more dense the attribute information becomes when the information is pasted, and the stronger the distortion appears.

【0008】このように、テクチャマッピング法では、
比較的単純な形状以外では歪みの目立たない高品質の画
像を生成することが難しいという問題点がある。
As described above, in the texture mapping method,
There is a problem that it is difficult to generate a high-quality image in which distortion is not noticeable except for a relatively simple shape.

【0009】このようなテクスチャマッピング法におけ
る歪みを低減するための一手法が、特開平2−1143
84号公報に記載されている。この手法は、形状表面に
定義した座標系の座標軸に沿った属性情報の長さが一定
となるように属性情報を配置するものである。この手法
では形状表面の曲率の低い部分では伸び縮みの少ない自
然な属性情報の配置が可能であるが、曲率の高い部分で
は不自然な歪みを生じてしまうという問題点がある。
One method for reducing the distortion in such a texture mapping method is disclosed in Japanese Unexamined Patent Publication No. 2-1143.
No. 84 publication. In this method, the attribute information is arranged so that the length of the attribute information along the coordinate axes of the coordinate system defined on the surface of the shape is constant. With this method, it is possible to arrange the natural attribute information with less expansion and contraction in the low curvature portion of the shape surface, but there is a problem that unnatural distortion occurs in the high curvature portion.

【0010】本発明の目的は、属性情報と物体形状の対
応関係を利用者が対話的に設定することにより、利用者
の意図に従った歪みの低減を行ないながら画像を生成す
る装置を提供することにある。
An object of the present invention is to provide an apparatus for generating an image while reducing distortion according to a user's intention by interactively setting a correspondence between attribute information and an object shape by the user. Especially.

【0011】[0011]

【課題を解決するための手段】本発明の画像生成装置
は、3次元空間中で定義した物体の表面の質感を表現す
るための属性情報を入力して格納する属性格納部と、前
記物体の形状を定める形状情報および前記物体の表面の
位置と前記属性情報の前記属性格納部における格納場所
との対応関係を入力して格納する物体格納部と、前記対
応関係を変更するための変更情報を設定する変更情報設
定部と、前記形状情報と前記変更情報とに基づいて前記
対応関係を変更して新しい対応関係を求めると共に前記
物体格納部に格納した前記対応関係を更新する対応関係
計算部と、前記新しい対応関係と前記形状情報とに基づ
いて前記属性情報を前記物体の表面に配置して画像を生
成する画像生成部とからなることを特徴とする。
An image generating apparatus according to the present invention includes an attribute storage unit for inputting and storing attribute information for expressing the texture of the surface of an object defined in a three-dimensional space. An object storage unit for inputting and storing shape information that defines a shape and the correspondence relationship between the position of the surface of the object and the storage location of the attribute information in the attribute storage unit; and change information for changing the correspondence relationship. A change information setting unit for setting, a correspondence relationship calculating unit for changing the correspondence relationship based on the shape information and the change information to obtain a new correspondence relationship and updating the correspondence relationship stored in the object storage unit. , An image generating unit that generates an image by arranging the attribute information on the surface of the object based on the new correspondence relationship and the shape information.

【0012】[0012]

【作用】本発明の作用を説明する。The function of the present invention will be described.

【0013】まず、物体表面の質感を表すための属性情
報を属性格納部に設定する。この属性情報とは、絵や模
様などの画像や、物体の表面の微細な凹凸をあらわす法
線ベクトル変動量の配列などであり、属性格納部には属
性情報の各要素を属性値として配列のインデックスに基
づいて格納する。
First, attribute information for expressing the texture of the surface of an object is set in the attribute storage unit. This attribute information is an image such as a picture or a pattern, or an array of the amount of normal vector variation that represents fine irregularities on the surface of an object.The attribute storage unit stores each element of the attribute information as an attribute value. Store based on index.

【0014】次に、物体形状を定める形状情報を物体格
納部に設定する。物体形状は物体表面を構成する部分形
状の集まりによって表現する。部分形状はパラメトリッ
クな関数曲面や三角形などの平面多角形である。
Next, shape information for defining the object shape is set in the object storage unit. The object shape is represented by a collection of partial shapes that form the surface of the object. The partial shape is a parametric function curved surface or a planar polygon such as a triangle.

【0015】そして、物体表面に対応する属性値の配列
のインデックスを物体形状に対する属性情報の対応関係
として設定し、物体格納部に格納する。
Then, the index of the array of attribute values corresponding to the surface of the object is set as the correspondence of the attribute information to the object shape, and stored in the object storage unit.

【0016】変更情報設定部はマウスなどの座標入力装
置で入力した座標値を変更情報として対応関係計算部に
出力する。
The change information setting unit outputs the coordinate values input by the coordinate input device such as a mouse to the correspondence calculation unit as change information.

【0017】対応関係計算部は変更情報に基づいて現在
の対応関係について変更対象となる変更領域を設定す
る。そして、同様に変更情報に基づいて変更領域内部の
部分形状について対応関係の変更量を設定する。対応関
係計算部は変更領域と変更量が指定されるたびに、物体
格納部の対応関係に変更計算を行なって新しい対応関係
を求める。そして、物体格納部の対応関係を新しい対応
関係に更新する。
The correspondence calculation unit sets a change area to be changed for the current correspondence based on the change information. Then, similarly, the change amount of the correspondence relationship is set for the partial shape inside the change region based on the change information. Every time the change area and the change amount are designated, the correspondence calculation unit performs change calculation on the correspondence in the object storage unit to obtain a new correspondence. Then, the correspondence relationship of the object storage unit is updated to the new correspondence relationship.

【0018】画像生成部は求めた新しい対応関係と形状
情報と属性情報とに基づいて、物体表面に属性情報を張
り付けた画像を生成する。
The image generation unit generates an image in which the attribute information is attached to the surface of the object based on the obtained new correspondence, the shape information and the attribute information.

【0019】このように変更情報により変更領域と変更
量とが設定される度に、新しい対応関係の計算と画像生
成とが行われ、その結果、利用者は新しく生成された画
像を評価することができる。
As described above, every time the change area and the change amount are set by the change information, a new correspondence is calculated and an image is generated, and as a result, the user evaluates the newly generated image. You can

【0020】このため、利用者は希望するように属性情
報を物体表面に配置し直すことができ、自由に歪みを修
正することができる。
Therefore, the user can rearrange the attribute information on the surface of the object as desired, and can freely correct the distortion.

【0021】[0021]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。図1は本発明の一実施例を示すブロック図
である。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of the present invention.

【0022】図1に示すように、本実施例の画像生成装
置は物体格納部1と属性格納部2と変更情報設定部3と
対応関係計算部4と画像生成部5とから成る。
As shown in FIG. 1, the image generating apparatus of this embodiment comprises an object storing section 1, an attribute storing section 2, a change information setting section 3, a correspondence calculating section 4 and an image generating section 5.

【0023】属性格納部2には属性情報104を格納す
る。属性情報104はテクスチャマッピング法で画像を
生成する場合には画像情報であり、画素ごとに与える輝
度値の配列である。図3(a)はテクスチャマッピング
の際に用いる属性情報の説明図である。また、バンプマ
ッピング法で画像を生成する場合には属性情報104は
画素ごとに与える法線ベクトルへの変動値の配列であ
る。さらに、3次元の属性情報である空間属性情報で画
像を生成する場合には、属性情報104は2次元配列の
属性情報(S,T)を高さ方向Uに積み上げた3次元配
列(S,T,U)である。図4(a)は空間属性情報
(S,T,U)の説明図である。空間属性情報(S,
T,U)の各配列要素には物体表面の微小な構造や質感
を表現するための光学的特性を属性値として与える。
The attribute storage unit 2 stores the attribute information 104. The attribute information 104 is image information when an image is generated by the texture mapping method, and is an array of brightness values given to each pixel. FIG. 3A is an explanatory diagram of attribute information used in texture mapping. Further, when an image is generated by the bump mapping method, the attribute information 104 is an array of variation values to the normal vector given to each pixel. Furthermore, when an image is generated with spatial attribute information that is three-dimensional attribute information, the attribute information 104 is a three-dimensional array (S, T) in which two-dimensional array attribute information (S, T) is stacked in the height direction U. T, U). FIG. 4A is an explanatory diagram of the spatial attribute information (S, T, U). Spatial attribute information (S,
Each of the array elements (T, U) is given an optical characteristic as an attribute value for expressing a minute structure or texture of the object surface.

【0024】図2は物体格納部1に格納する物体の形状
を示す選択図である。図2に示すように、物体の表面形
状は格子上に配列された頂点v(i,j)により定義す
る。物体格納部1には頂点の座標値の配列を形状情報1
01として格納する。なお、本実施例では格子上に配列
した四角形を部分形状として説明するが、部分形状を三
角形などの任意の平面多角形や、多角形の頂点を制御点
とするようなパラメトリックな関数曲面としても本発明
は同様に実施できる。
FIG. 2 is a selection diagram showing the shape of an object stored in the object storage unit 1. As shown in FIG. 2, the surface shape of an object is defined by vertices v (i, j) arranged on a grid. An array of vertex coordinate values is stored in the object storage unit 1 as shape information 1
Store as 01. In the present embodiment, the quadrangle arranged on the lattice is described as a partial shape, but the partial shape may be an arbitrary planar polygon such as a triangle or a parametric function curved surface having the vertices of the polygon as control points. The present invention can be similarly implemented.

【0025】図3(b)は物体形状301に属性情報3
02を張り付けた状態の説明である。テクスチャマッピ
ング法またバンプマッピング法のような2次元の属性情
報を使用する場合、対応関係102は物体表面の頂点に
対応する属性値の属性格納部2での配列インデックスで
あり、物体格納部1に格納する。
In FIG. 3B, the attribute information 3 is added to the object shape 301.
This is a description of a state in which 02 is attached. When two-dimensional attribute information such as the texture mapping method or the bump mapping method is used, the correspondence 102 is the array index in the attribute storage unit 2 of the attribute value corresponding to the vertex of the object surface, and is stored in the object storage unit 1. Store.

【0026】図4(b)は物体表面401に対して空間
属性情報402を張り付けた状態の説明図である。図4
(b)に示すように空間属性情報402は物体表面40
1に底面が接するように配置する。図7は物体形状の表
面と空間属性情報との対応関係の説明図である。図7に
示すように、物体表面901上の頂点v(i,j)には
空間属性情報902の底面の配列要素(Sfij,Tf
ij,0)および上面の配列要素(Scij,Tci
j,U)の2個の配列要素が対応する。頂点と2個の配
列要素との対応関係をそれぞれ底面対応関係および上面
対応関係と呼ぶ。これらの対応関係はそれぞれ頂点に対
応する属性値の属性格納部2での配列インデックスとし
て定義する。そして、頂点v(i,j)と上面の配列要
素(Scij,Tcij,U)との空間的な対応関係を
表すために、頂点v(i,j)を始点とする位置ベクト
ル(Xij,Yij,Zij)を定義する。定義した位
置ベクトル(Xij,Yij,Zij)の終点には上面
対応関係で対応する配列要素(Scij,Tcij,
U)が対応する。位置ベクトル(Xij,Yij,Zi
j)は物体形状を定義する座標系で定義し、頂点と上面
との空間的な位置関係を表す対応関係として空間対応関
係と呼ぶ。空間属性情報を使用する場合、物体表面の各
頂点に対応する上面対応関係と底面対応関係と空間対応
関係とを対応関係102として物体格納部1に格納す
る。
FIG. 4B is an explanatory diagram showing a state in which the space attribute information 402 is attached to the object surface 401. Figure 4
As shown in (b), the space attribute information 402 is the object surface 40.
Arrange so that the bottom is in contact with 1. FIG. 7 is an explanatory diagram of the correspondence relationship between the surface of the object shape and the spatial attribute information. As shown in FIG. 7, at the vertex v (i, j) on the object surface 901, the array element (Sfij, Tf) of the bottom of the space attribute information 902 is formed.
ij, 0) and the array element (Scij, Tci) on the upper surface.
j, U) correspond to two array elements. The correspondence between the apex and the two array elements is called the bottom correspondence and the top correspondence, respectively. These correspondences are defined as array indexes in the attribute storage unit 2 of the attribute values corresponding to the vertices. Then, in order to express the spatial correspondence between the vertex v (i, j) and the array element (Scij, Tcij, U) on the upper surface, the position vector (Xij, Yij) having the vertex v (i, j) as a starting point is represented. , Zij) is defined. The end points of the defined position vector (Xij, Yij, Zij) correspond to the array elements (Scij, Tcij,
U) corresponds. Position vector (Xij, Yij, Zi
j) is defined by a coordinate system that defines the shape of the object, and is called a spatial correspondence as a correspondence representing the spatial positional relationship between the vertex and the upper surface. When the spatial attribute information is used, the top surface correspondence, the bottom correspondence, and the space correspondence corresponding to each vertex of the object surface are stored in the object storage unit 1 as the correspondence 102.

【0027】変更情報設定部3は、マウスやタブレット
や3次元ディジタイザなどの座標入力装置またはキーボ
ードなどで装置座標系におけるポインタの座標値を入力
し、変更情報103として対応関係計算部4に出力す
る。
The change information setting unit 3 inputs the coordinate value of the pointer in the device coordinate system with a coordinate input device such as a mouse, a tablet, or a three-dimensional digitizer, or a keyboard, and outputs it as change information 103 to the correspondence calculation unit 4. .

【0028】対応関係計算部4は変更情報設定部3が出
力した変更情報103に基づいて変更領域および変更量
を求める。変更領域は物体表面で対応関係を変更する対
象となる領域であり、変更量は変更領域内部における対
応関係の変動量である。対応関係計算部4は変更領域と
変更量を求め、対応関係102を物体格納部1から読み
だして、新しい対応関係を計算する。
The correspondence calculation unit 4 obtains the change area and the change amount based on the change information 103 output by the change information setting unit 3. The change area is an area whose correspondence is to be changed on the surface of the object, and the change amount is the variation of the correspondence inside the change area. The correspondence calculating unit 4 obtains the change area and the change amount, reads the correspondence 102 from the object storage unit 1, and calculates a new correspondence.

【0029】以下では、まず画像または法線ベクトルな
どの2次元的に定義した属性情報で変更領域および変更
量を求める方法について説明し、続いて空間属性情報で
変更領域および変更量を求める方法について説明する。
In the following, first, a method for obtaining the changed area and the changed amount by the attribute information defined two-dimensionally such as an image or a normal vector will be described, and then a method for obtaining the changed area and the changed amount by the spatial attribute information. explain.

【0030】2次元の属性情報について変更領域と変更
量を求める方法として、(1)変更領域および変更量を
独立に求める方法と、(2)属性情報の移動元領域と移
動先領域とを求めて変更領域および変更量を求める方法
を説明するが、他の方法でもよい。
As a method for obtaining the change area and the change amount for the two-dimensional attribute information, (1) a method for obtaining the change area and the change amount independently, and (2) obtaining the source area and the destination area of the attribute information. Although a method of obtaining the changed area and the changed amount will be described with reference to FIG.

【0031】最初に、(1)の変更領域および変更量を
独立に求める方法について説明する。図5(a)は物体
表面に指定した変更領域の説明図である。変更領域50
2は物体表面501の頂点の集合として求める。
First, the method (1) of independently obtaining the change area and the change amount will be described. FIG. 5A is an explanatory diagram of a change area designated on the object surface. Change area 50
2 is obtained as a set of vertices of the object surface 501.

【0032】変更領域502は、たとえば変更情報設定
部3でマウス等の座標入力装置やキーボードで入力した
変更情報103に基づいて、ピックとして知られる操作
を繰り返し行なうことにより求めることができる。この
操作は、対象となる物体形状を画像表示し、画像中に利
用者が座標入力機器を操作して動かすポインタを重ね合
わせて表示し、ポインタの最も近傍に表示されている部
分形状または頂点を検索して、その結果を利用者の選択
結果の候補とするものである。この操作を物体表面50
1の頂点に対して次々に繰り返して指定した頂点または
部分形状の集合を変更領域として求める。この操作の詳
細については、文献[1990年、フォーリィ、ヴァン
ダム、ファイナー、ヒュ−ズ、「コンピューター・グラ
フィックス・プリンシプルズ・アンド・プラクティス・
セカンド・エディション」、アディスン・ウエズリィ
(Foley,van Dam,Feiner,Hug
hes,COMPUTER GRAPHICS PRI
NCIPLES AND PRACTICE SECO
ND EDITION,ADDISON WESLE
Y,1990)、328−331頁、338−339
頁]に記載がある。
The change area 502 can be obtained by repeatedly performing an operation known as a pick on the basis of the change information 103 input by the change information setting unit 3 using a coordinate input device such as a mouse or a keyboard. In this operation, the target object shape is displayed as an image, the pointer that the user operates by operating the coordinate input device is superimposed on the image, and the partial shape or vertex displayed closest to the pointer is displayed. The search is performed and the result is used as a candidate for the selection result of the user. This operation is performed on the object surface 50
A set of vertices or partial shapes repeatedly specified for one vertex is obtained as a change area. For details of this operation, refer to [1990, Foley, Van Damme, Finner, Hues, "Computer Graphics Principles and Practice.
Second Edition ", Addison Wesley (Foley, van Dam, Feiner, Hug
hes, COMPUTER GRAPHICS PRI
NCIPLES AND PRACTICE SECO
ND EDITION, ADDISON WESLE
Y, 1990), pages 328-331, 338-339.
Page].

【0033】また、変更領域502は、物体表面501
とあらかじめ設定した球や直方体または自由な形状の閉
曲面との積集合を論理演算することによっても求めるこ
とができる。この場合には二つの形状の積集合の内部に
含まれる物体表面501上の頂点または部分形状の集合
を変更領域として求める。
The change area 502 is the object surface 501.
It can also be obtained by logically operating a product set of a sphere, a rectangular parallelepiped, or a closed surface having a free shape set in advance. In this case, a set of vertices or partial shapes on the object surface 501 included in the intersection of two shapes is obtained as the change area.

【0034】こうして求めた変更領域502の内部の各
頂点には、やはり同様に変更情報設定部3で入力した変
更情報103によって任意の変更量を与えることができ
る。図5(b)で変更領域503の内部の頂点(X,
Y)における変更前の対応関係を(S,T)としたとき
に変更後の対応関係を(S′,T′)とするようなベク
トルを変更量(dS,dT)X Y =(S′−S,T′−
T)として与える。この変更量(dS,dT)X Y は、
変更領域503の内部の各頂点について任意に与えて良
く、例えば変更領域503の内部で一定としたり、変更
領域503の中心部分の頂点では大、周縁部の頂点では
小とすることができる。
An arbitrary amount of change can be given to each of the vertices inside the change area 502 thus obtained by the change information 103 similarly input by the change information setting unit 3. In FIG. 5B, the vertices (X,
When the correspondence in Y) before the change is (S, T), the vector which makes the correspondence after the change (S ', T') is the change amount (dS, dT) XY = (S'- S, T'-
T). This change amount (dS, dT) XY is
The vertices inside the change region 503 may be arbitrarily given. For example, the vertices at the center of the change region 503 may be large, and the vertices at the periphery may be small.

【0035】続いて、(2)の属性情報の移動元領域と
移動先領域とを求めて変更領域および変更量を求める方
法について説明する。図6は物体表面603の上の移動
元領域601および移動先領域602を示す説明図であ
る。移動元領域601および移動先領域602は(1)
の方法における変更領域の設定と同様の手続きで求め
る。点(X,Y)および頂点(X′,Y′)は属性情報
604の属性値(S,T)および(S′,T′)にそれ
ぞれ対応している。
Next, the method (2) of obtaining the change area and the change amount by obtaining the move source area and the move destination area of the attribute information will be described. FIG. 6 is an explanatory diagram showing a movement source region 601 and a movement destination region 602 on the object surface 603. The source area 601 and the destination area 602 are (1)
It is calculated by the same procedure as the setting of the change area in the method. The point (X, Y) and the vertex (X ′, Y ′) correspond to the attribute values (S, T) and (S ′, T ′) of the attribute information 604, respectively.

【0036】まず、移動先領域602の内部の頂点
(X′,Y′)の変更量(dS,dT)X ′ Y ′
求める方法について説明する。変更量(dS,dT)
X ′ Y ′を計算するにあたり、移動先領域602の頂
点(X′,Y′)に対応する移動元領域601の点
(X,Y)を求め、さらに点(X,Y)の対応関係
(S,T)を求める。点(X,Y)は移動元および移動
先の二つの領域の間の補間を行って求める。二つの領域
間の補間は、たとえば文献[1992年、トーマス・ダ
ブリュー・セダーバーグ、ユージン・グリーンウッド、
「コンピューターグラフィックス」、第26巻第2号、
エイシーエム・シググラフ(Thomas W.Sed
erberg,Eugene Greenwood,C
OMPUTER GRAPHICS,ACM SIGG
RAPH,VOL.26 NO.2 1992)、25
−34頁]に記載の方法により行うことができる。二つ
の領域間の補間によって求めた点(X,Y)は一般に移
動元領域601の頂点の位置とは一致しない。このた
め、点(X,Y)における対応関係(S,T)は、点
(X,Y)の近傍の移動元領域601の頂点の対応関係
を補間して求める。このようにして点(X,Y)および
対応関係(S,T)を求めた後、移動先領域602の内
部の点(X′,Y′)の変更量(dS,dT)
X ′ Y ′ は次式で計算する。
First, a method of obtaining the change amount (dS, dT) X ′ Y ′ of the vertex (X ′, Y ′) inside the movement destination area 602 will be described. Change amount (dS, dT)
In calculating X'Y ', the point (X, Y) of the source area 601 corresponding to the vertex (X', Y ') of the destination area 602 is obtained, and the correspondence relationship of the points (X, Y) ( S, T) is calculated. The point (X, Y) is obtained by performing interpolation between the two areas of the movement source and the movement destination. Interpolation between two regions is described, for example, in the literature [1992, Thomas W. Sederberg, Eugene Greenwood,
"Computer Graphics", Vol. 26, No. 2,
AMC M Siggraph (Thomas W. Sed
erberg, Eugene Greenwood, C
OMPUTER GRAPHICS, ACM SIGG
RAPH, VOL. 26 NO. 2 1992), 25
-Page 34]. The point (X, Y) obtained by interpolation between the two areas generally does not coincide with the position of the apex of the source area 601. Therefore, the correspondence relationship (S, T) at the point (X, Y) is obtained by interpolating the correspondence relationship between the vertices of the movement source region 601 near the point (X, Y). After the point (X, Y) and the correspondence (S, T) are obtained in this way, the change amount (dS, dT) of the point (X ', Y') inside the movement destination area 602 is calculated.
X'Y ' is calculated by the following formula.

【0037】 (dS,dT)X ′ Y ′ =(S−S′,T−T′) 次に、移動元領域および移動先領域の周囲の変更領域と
変更量について説明する。図8(a)は属性情報を移動
する前の状態を示す説明図である。移動元領域1001
と移動先領域1002の間の領域を中間領域1003と
する。また、移動元領域1001と中間領域1003を
取り囲む領域を周縁領域1004とする。図8(b)は
属性情報を移動して対応させた後の属性情報の状態を示
す説明図である。図8(b)に示すように、図8(a)
の移動先領域1002および中間領域1003の属性情
報は、移動元領域1001の外側の周縁領域1005に
対して、圧縮するように対応する。また、図8(a)の
周縁領域1004の属性情報は、図8(b)では移動元
領域1001と中間領域1003および周縁領域100
4の和集合となる領域に対して、拡大するように対応す
る。
(DS, dT) X'Y ' = (S-S', T-T ') Next, a change area and a change amount around the movement source area and the movement destination area will be described. FIG. 8A is an explanatory diagram showing a state before the attribute information is moved. Source area 1001
An area between the destination area 1002 and the destination area 1002 is an intermediate area 1003. A region surrounding the movement source region 1001 and the intermediate region 1003 is referred to as a peripheral region 1004. FIG. 8B is an explanatory diagram showing the state of the attribute information after the attribute information is moved and made to correspond. As shown in FIG. 8B, FIG.
The attribute information of the movement destination area 1002 and the intermediate area 1003 corresponds to the peripheral area 1005 outside the movement source area 1001 so as to be compressed. The attribute information of the peripheral area 1004 in FIG. 8A is the same as the source area 1001, the intermediate area 1003, and the peripheral area 100 in FIG. 8B.
The region corresponding to the union of 4 is expanded.

【0038】上で説明した対応付けを整理すると、移動
元領域および移動先領域の周囲の領域では、 [移動先領域1002+中間領域1003→周縁領域1
005] [周縁領域1004→周縁領域1004+移動元領域1
001+中間領域1003] の二つの対応関係の変更を行う。それぞれの場合につい
て、属性情報の移動先となる各領域の内部の対応関係
は、前述した二つの領域間の補間による対応関係の計算
方法で求める。
To summarize the above-described correspondence, in the area around the movement source area and the movement destination area, [movement destination area 1002 + intermediate area 1003 → peripheral area 1
[005] [Peripheral area 1004 → peripheral area 1004 + source area 1
001 + intermediate area 1003] is changed. In each case, the internal correspondence of each area to which the attribute information is moved is obtained by the above-described method of calculating the correspondence by interpolation between the two areas.

【0039】次に、空間属性情報の場合の変更領域と変
更量の計算について説明する。対応関係計算部4では底
面対応関係と上面対応関係および空間対応関係について
それぞれ変更領域と変更量を求める。
Next, the calculation of the change area and the change amount in the case of the spatial attribute information will be described. The correspondence calculation unit 4 obtains the change area and the change amount for the bottom correspondence, the top correspondence, and the space correspondence, respectively.

【0040】図7において、物体表面の頂点v(i,
j)に対応する空間属性情報のうち、底面対応関係(S
fij,Tfij,0)に関する変更領域と変更量の計
算は、前述した2次元の属性情報の場合と同様にして行
うことができる。また、上面対応関係(Scij,Tc
ij,U)も同様に求めることができる。
In FIG. 7, the vertex v (i,
Of the spatial attribute information corresponding to j), the bottom correspondence (S
The change area and the change amount regarding fij, Tfij, 0) can be calculated in the same manner as in the case of the two-dimensional attribute information described above. In addition, the upper surface correspondence (Scij, Tc
ij, U) can be similarly obtained.

【0041】空間対応関係(Xij,Yij,Zij)
はあらかじめ初期値を設定しておき、初期値に対して変
更を行って求めることができる。たとえば、頂点v
(i,j)の上に立つ位置ベクトル(Xij,Yij,
Zij)を画像表示して、変更情報103に基づいて移
動先のベクトル終点(X′ij,Y′ij,Z′ij)
を求める。そして、求めた移動先のベクトル終点(X′
ij,Y′ij,Z′ij)から、空間対応関係の変更
量(dXij,dYij,dZij)=(X′ij−X
ij,Y′ij−Yij,Z′ij−Zij)を計算す
る。
Spatial correspondence (Xij, Yij, Zij)
Can be obtained by setting an initial value in advance and changing the initial value. For example, vertex v
Position vector (Xij, Yij, which stands on (i, j)
Zij) is displayed as an image, and based on the change information 103, the destination vector end point (X′ij, Y′ij, Z′ij)
Ask for. Then, the calculated destination vector end point (X ′
From ij, Y'ij, Z'ij), the change amount of spatial correspondence (dXij, dYij, dZij) = (X'ij-X)
ij, Y'ij-Yij, Z'ij-Zij).

【0042】以上のようにして、変更情報103からの
変更領域および変更量を求めた後、対応関係計算部4は
物体格納部1に格納してある対応関係を読み出し、新し
い対応関係を計算する。新しい対応関係の計算は、物体
格納部1から読み出した対応関係に対して、変更領域の
内部の頂点に変更量を加算することによって行う。変更
領域で指定されていない頂点については対応関係を変更
せずそのまま用いる。
After the change area and the change amount are obtained from the change information 103 as described above, the correspondence calculation unit 4 reads the correspondence stored in the object storage unit 1 and calculates a new correspondence. . The new correspondence is calculated by adding the change amount to the vertex inside the change area with respect to the correspondence read from the object storage unit 1. For the vertices not specified in the change area, the correspondence relationship is used without change.

【0043】計算した新しい対応関係は最新対応関係1
05として物体格納部1に出力し、内部に格納してある
対応関係を更新する。また、画像生成部5に出力する。
The calculated new correspondence is the latest correspondence 1.
The result is output to the object storage unit 1 as 05, and the correspondence relationship stored inside is updated. In addition, it outputs to the image generation unit 5.

【0044】画像生成部5は最新対応関係105と形状
情報101と属性情報104に基づき、物体の表面に属
性情報を張り付けて質感を表現した画像を生成する。テ
クスチャマッピングおよびバンプマッピングの画像生成
の詳細については、文献[1990年、フォーリィ、ヴ
ァンダム、ファイナー、ヒューズ、「コンピューター・
グラフィックス・プリンシプルズ・アンド・プラクティ
ス・セカンド・エディション」、アディスン・ウエズリ
ィ(Foley,van Dam,Feiner,Hu
ghes,COMPUTER GRAPHICS PR
INCIPLES AND PRACTICE SEC
OND EDITION,ADDISON WESLE
Y,1990)、741−745頁]および文献[19
89年、アラン・ワット、「ファンダメンタルズ・オブ
・スリーディメンショナル・コンピューター・グラフィ
ックス」、アディスン・ウエズリィ(Alan Wat
t,FUNDAMENTALS OF THREE−D
IMENSIONAL COMPUTER GRAPH
ICS,ADDISON WESLEY,1989)、
227−254頁]に記載がある。また、空間属性情報
を用いた画像生成法の詳細は[1989年、ジェイムズ
・ティー・カジヤ、ティモシー・エル・ケイ、「コンピ
ュータグラフィックス」、第23巻第3号、エイシーエ
ム・シググラフ(James T.Kajiya,Ti
mothy L.Kay,COMPUTER GRAP
HICS,ACM SIGGRAPH,VOL.23
NO.3 1989)、271−280頁]に記載があ
る。
The image generator 5 generates an image representing the texture by sticking the attribute information on the surface of the object based on the latest correspondence 105, the shape information 101 and the attribute information 104. For more information on texture mapping and bump mapping image generation, see [1990, Foley, Van Damme, Finner, Hughes, "Computer
Graphics Principles and Practice Second Edition ", Addison Wesley (Foley, van Dam, Feiner, Hu
ghes, COMPUTER GRAPHICS PR
INCIPLES AND PRACTICE SEC
OND EDITION, ADDison WESLE
Y, 1990), pp. 741-745] and literature [19.
1989, Alan Watt, "Fundamentals of Three Dimensional Computer Graphics", Addon Wesley.
t, FUNDAMENTALS OF THREE-D
IMENSIONAL COMPUTER GRAPH
ICS, ADDISON WESLEY, 1989),
Pp. 227-254]. The details of the image generation method using the spatial attribute information are described in [1989, James T. Kaziya, Timothy L. Kay, "Computer Graphics", Vol. 23, No. 3, James T. Siggraph. Kajiya, Ti
mothy L. Kay, COMPUTER GRAP
HICS, ACM SIGGRAPH, VOL. 23
NO. 3 1989), pages 271-280].

【0045】[0045]

【発明の効果】以上説明したように、本発明による画像
生成装置は、物体の表面形状と属性情報との対応関係
を、利用者が設定した変更情報に基づいて対話的に変更
できるため、利用者の意図に従って属性情報を物体表面
へ配置でき、利用者の意図に従った歪みの低減を行ない
ながら画像を生成できるという効果を有する。
As described above, the image generating apparatus according to the present invention can interactively change the correspondence between the surface shape of an object and the attribute information based on the change information set by the user. This has an effect that attribute information can be arranged on the object surface according to the user's intention, and an image can be generated while reducing distortion according to the user's intention.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例のブロック図。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】本発明の実施例の形状情報の説明図。FIG. 2 is an explanatory diagram of shape information according to the embodiment of this invention.

【図3】本発明の実施例の2次元の属性情報の説明図及
び2次元の属性情報と形状の関係の説明図。
FIG. 3 is an explanatory diagram of two-dimensional attribute information according to the embodiment of the present invention and an explanatory diagram of a relationship between the two-dimensional attribute information and a shape.

【図4】本発明の実施例の空間属性情報の選択図及び空
間属性情報と形状の関係の説明図。
FIG. 4 is a selection diagram of spatial attribute information and an explanatory diagram of a relationship between spatial attribute information and a shape according to the embodiment of the present invention.

【図5】本発明の実施例の変更領域の説明図及び対応関
係の計算の説明図。
FIG. 5 is an explanatory diagram of a changed area and an explanatory diagram of calculation of a correspondence relationship according to the embodiment of this invention.

【図6】本発明の実施例の移動元領域と移動先領域の説
明図。
FIG. 6 is an explanatory diagram of a movement source area and a movement destination area according to the embodiment of this invention.

【図7】本発明の実施例の物体表面と空間属性情報の関
係の説明図。
FIG. 7 is an explanatory diagram of a relationship between an object surface and space attribute information according to the embodiment of this invention.

【図8】本発明の実施例の対応関係の変更操作の説明
図。
FIG. 8 is an explanatory diagram of a correspondence changing operation according to the embodiment of this invention.

【符号の説明】[Explanation of symbols]

1 物体格納部 2 属性格納部 3 変更情報設定部 4 対応関係計算部 5 画像生成部 101 形状情報 102 対応関係 103 変更情報 104 属性情報 105 最新対応関係 301 物体形状 302 属性情報 401 物体表面 402 空間属性情報 501 物体表面 503 変更領域 601 移動元領域 602 移動先領域 603 物体表面 604 属性情報 901 物体表面 902 空間属性情報 1001 移動元領域 1002 移動先領域 1003 中間領域 1004 周縁領域 1005 周縁領域 1 Object Storage Section 2 Attribute Storage Section 3 Change Information Setting Section 4 Correspondence Calculation Section 5 Image Generation Section 101 Shape Information 102 Correspondence Relationship 103 Change Information 104 Attribute Information 105 Latest Correspondence 301 Object Shape 302 Attribute Information 401 Object Surface 402 Spatial Attribute Information 501 Object surface 503 Change area 601 Source area 602 Destination area 603 Object surface 604 Attribute information 901 Object surface 902 Spatial attribute information 1001 Source area 1002 Destination area 1003 Intermediate area 1004 Edge area 1005 Edge area

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 3次元空間中で定義した物体の表面の質
感を表現するための属性情報を入力して格納する属性格
納部と、前記物体の形状を定める形状情報および前記物
体の表面の位置と前記属性情報の前記属性格納部におけ
る格納場所との対応関係を入力して格納する物体格納部
と、前記対応関係を変更するための変更情報を設定する
変更情報設定部と、前記形状情報と前記変更情報とに基
づいて前記対応関係を変更して新しい対応関係を求める
と共に前記物体格納部に格納した前記対応関係を更新す
る対応関係計算部と、前記新しい対応関係と前記形状情
報とに基づいて前記属性情報を前記物体の表面に配置し
て画像を生成する画像生成部とからなることを特徴とす
る画像生成装置。
1. An attribute storage unit for inputting and storing attribute information for expressing the texture of the surface of an object defined in a three-dimensional space, shape information defining the shape of the object, and the position of the surface of the object. And an object storage unit for inputting and storing a correspondence relation between the attribute information and a storage location in the attribute storage unit, a change information setting unit for setting change information for changing the correspondence relation, and the shape information. On the basis of the new correspondence and the shape information, a correspondence calculation unit that changes the correspondence based on the change information to obtain a new correspondence and updates the correspondence stored in the object storage unit. And an image generating unit that generates the image by arranging the attribute information on the surface of the object.
JP5201391A 1993-08-13 1993-08-13 Image generation device Expired - Lifetime JP2768228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5201391A JP2768228B2 (en) 1993-08-13 1993-08-13 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5201391A JP2768228B2 (en) 1993-08-13 1993-08-13 Image generation device

Publications (2)

Publication Number Publication Date
JPH0757118A true JPH0757118A (en) 1995-03-03
JP2768228B2 JP2768228B2 (en) 1998-06-25

Family

ID=16440314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5201391A Expired - Lifetime JP2768228B2 (en) 1993-08-13 1993-08-13 Image generation device

Country Status (1)

Country Link
JP (1) JP2768228B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067100A (en) * 1998-08-26 2000-03-03 Nichiha Corp House coordinate supporting system and record medium
US7002623B1 (en) 1998-09-08 2006-02-21 Olympus Optical Co., Ltd. Image processing apparatus for correcting a color and texture of an image and displaying the corrected image
JP2007500901A (en) * 2003-07-28 2007-01-18 マジック アース会社 Multiple attribute real-time simultaneous rendering method, system and program
US8022947B2 (en) 2006-09-01 2011-09-20 Landmark Graphics Corporation Systems and methods for imaging waveform volumes
US8638328B2 (en) 2007-01-05 2014-01-28 Landmark Graphics Corporation Systems and methods for visualizing multiple volumetric data sets in real time
US8669996B2 (en) 2009-07-14 2014-03-11 Sony Corporation Image processing device and image processing method
US8736600B2 (en) 2008-06-06 2014-05-27 Landmark Graphics Corporation Systems and methods for imaging a three-dimensional volume of geometrically irregular grid data representing a grid volume
US9171391B2 (en) 2007-07-27 2015-10-27 Landmark Graphics Corporation Systems and methods for imaging a volume-of-interest

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143711A (en) * 1991-11-21 1993-06-11 Hitachi Ltd Image generating method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143711A (en) * 1991-11-21 1993-06-11 Hitachi Ltd Image generating method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067100A (en) * 1998-08-26 2000-03-03 Nichiha Corp House coordinate supporting system and record medium
US7002623B1 (en) 1998-09-08 2006-02-21 Olympus Optical Co., Ltd. Image processing apparatus for correcting a color and texture of an image and displaying the corrected image
JP2007500901A (en) * 2003-07-28 2007-01-18 マジック アース会社 Multiple attribute real-time simultaneous rendering method, system and program
US7995057B2 (en) 2003-07-28 2011-08-09 Landmark Graphics Corporation System and method for real-time co-rendering of multiple attributes
US8259126B2 (en) 2003-07-28 2012-09-04 Landmark Graphics Corporation System and method for real-time co-rendering of multiple attributes
US8022947B2 (en) 2006-09-01 2011-09-20 Landmark Graphics Corporation Systems and methods for imaging waveform volumes
US8384712B2 (en) 2006-09-01 2013-02-26 Landmark Graphics Corporation Systems and methods for imaging waveform volumes
US8638328B2 (en) 2007-01-05 2014-01-28 Landmark Graphics Corporation Systems and methods for visualizing multiple volumetric data sets in real time
US9171391B2 (en) 2007-07-27 2015-10-27 Landmark Graphics Corporation Systems and methods for imaging a volume-of-interest
US8736600B2 (en) 2008-06-06 2014-05-27 Landmark Graphics Corporation Systems and methods for imaging a three-dimensional volume of geometrically irregular grid data representing a grid volume
US8669996B2 (en) 2009-07-14 2014-03-11 Sony Corporation Image processing device and image processing method

Also Published As

Publication number Publication date
JP2768228B2 (en) 1998-06-25

Similar Documents

Publication Publication Date Title
Engvall et al. Isogeometric unstructured tetrahedral and mixed-element Bernstein–Bézier discretizations
JP6463625B2 (en) Image resizing
CN110516015B (en) Method for manufacturing geographical PDF map based on map graphic data and DLG
US5459821A (en) Method and apparatus for generating a free-form surface
JP2768228B2 (en) Image generation device
JP6569389B2 (en) Polygon model structuring device and three-dimensional object shaping data reduction device
JPH0623989B2 (en) Boundary Representation Solid Modeling System
JP2837584B2 (en) How to create terrain data
JPH0973559A (en) Morphing editing device
JPH06222899A (en) Multiwindow display system
TW201537144A (en) Image display system
JP3979162B2 (en) Image processing apparatus and method
JPH07282292A (en) Texture mapping method and image processor
JP6565494B2 (en) Data reduction device for 3D object modeling
JPH10283487A (en) Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping
JP3511301B2 (en) Surface data generation method
JPH1125266A (en) Method for converting picture and device therefor
JPH0799549B2 (en) Shading display method
JP5504142B2 (en) Image processing apparatus, image processing method, and image processing program
JPH07220118A (en) Topographic display device
JPH0855147A (en) Method and device for generating design component curved surface
Charles et al. Toward an interface between triangulated surfaces and parametric representations
Deng et al. A Mesh Reconstruction Method Based on View Maps
JPH0668217A (en) Mesh preparation system for numerical analysis
JPH06187460A (en) Graphic processing method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19970812

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980310