JPH06176168A - Computer graphics preparing device - Google Patents

Computer graphics preparing device

Info

Publication number
JPH06176168A
JPH06176168A JP32766292A JP32766292A JPH06176168A JP H06176168 A JPH06176168 A JP H06176168A JP 32766292 A JP32766292 A JP 32766292A JP 32766292 A JP32766292 A JP 32766292A JP H06176168 A JPH06176168 A JP H06176168A
Authority
JP
Japan
Prior art keywords
polygon
image
texture
shape
development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32766292A
Other languages
Japanese (ja)
Inventor
Moritaka Arai
盛孝 荒井
Naoki Kawai
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP32766292A priority Critical patent/JPH06176168A/en
Publication of JPH06176168A publication Critical patent/JPH06176168A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE:To easily prepare the two-dimentional projected image of an object in which a continuous pattern is mapped on mutually adjacent surfaces at the time of CG image production. CONSTITUTION:A shape input device 10 outputs shape data expressing the shape of the object composed of plural polygons by the coordinate value of each vertex and the sequence of vertexes defining the polygons to a development elevation generator 12. The device 12 prepares a development elevation developing all the polygons composing the object shape based on the piece of data. A projected image producing device 18 executes mapping by overlapping a texture image inputted from a texture image input device 14 to the development elevation, executes texture mapping at the time of generating the projected image based on a texture coordinate value given to a vertex coordinate as the development elevation at this time and specifies the position of the shape based on input information from a shape position, light and camera information input device 16 to specify the position of the light, the position of the camera, etc., to produce the two-dimentional projected image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、コンピュータ・グラフ
ィックス制作装置、特に、物体表面の隣接する面に連続
模様がマッピングされた投影画像を制作する際に適用し
て好適な、コンピュータ・グラフィックス制作装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer graphics production apparatus, and more particularly to a computer graphics production apparatus suitable for producing a projection image in which a continuous pattern is mapped on a surface adjacent to an object surface. Regarding production equipment.

【0002】[0002]

【従来の技術】コンピュータ・グラフィックス(CG)
の画像制作、例えばCGカレンダー、CGホログラム、
CGアニメーション、CGコマーシャル、CGポスタ
ー、ハイビジョンCG静止画番組などの制作において、
物体の表面(立体形状)に、例えば壁紙や建材柄等の連
続模様を貼り付けた画像を制作する際に、その物体表面
を構成する隣接面に連続した模様(柄)を表現したい場
合がある。
2. Description of the Related Art Computer graphics (CG)
Image production, eg CG calendar, CG hologram,
In the production of CG animation, CG commercials, CG posters, high-definition CG still image programs, etc.
When creating an image in which a continuous pattern such as wallpaper or a building material pattern is pasted on the surface (three-dimensional shape) of an object, it may be desirable to express a continuous pattern (pattern) on the adjacent surfaces that make up the object surface. .

【0003】このように、CGにおいて、物体表面の隣
接面に連続した模様を表現するには、通常、該物体表面
に対応する立体形状の隣接面に対して連続的なテクスチ
ャマッピングを施す必要がある。この場合、3次元座標
(x ,y ,z )で表わされる立体形状の各頂点の座標値
を、壁紙等のテクスチャの位置を記述する2次元のテク
スチャ座標(u 、v )に対応付けることが行われる。
As described above, in order to express a continuous pattern on the adjacent surface of the object surface in CG, it is usually necessary to perform continuous texture mapping on the adjacent surface of the three-dimensional shape corresponding to the object surface. is there. In this case, the coordinate values of each vertex of the three-dimensional shape represented by the three-dimensional coordinates (x, y, z) can be associated with the two-dimensional texture coordinates (u, v) that describe the position of the texture such as wallpaper. Be seen.

【0004】従来、上記のように、xyz 座標で記述され
た物体の形状をuv平面上に展開し、その3次元形状の各
頂点の座標値を、uv座標値に対応付ける作業をオペレー
タが1点ずつ計算しながら手入力していた。
Conventionally, as described above, the operator develops the shape of an object described in xyz coordinates on the uv plane and associates the coordinate value of each vertex of the three-dimensional shape with the uv coordinate value by one point. I was manually inputting while calculating each.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
ように、3次元座標で記述された物体形状の各頂点位置
を2次元のテクスチャ座標に対応付ける作業を1点ずつ
行うことは、作業負荷が非常に大きく、特に複雑な形状
に対する連続性を考慮したマッピング計算は、極めて困
難であるという問題がある。
However, as described above, it is very difficult to associate the respective vertex positions of the object shape described by the three-dimensional coordinates with the two-dimensional texture coordinates one by one. However, there is a problem that it is extremely difficult to perform a mapping calculation that takes into account continuity for a particularly large and complicated shape.

【0006】又、物体表面にテクスチャマッピングを行
った後に、そのマッピング状態を変更する必要がある場
合には、再び同一の計算等の作業を行わなければならな
いため、簡単にマッピング状態を変更することができな
いという問題がある。
Further, if it is necessary to change the mapping state after performing texture mapping on the object surface, it is necessary to perform the same calculation and the like again, so that the mapping state can be easily changed. There is a problem that you can not.

【0007】本発明は、前記従来の問題点を解決するべ
く成されたもので、コンピュータ・グラフィックスによ
る画像制作において、隣接した面に連続模様がマッピン
グされた物体の2次元投影画像を容易に制作することが
できる、コンピュータ・グラフィックス制作装置を提供
することを課題とする。
The present invention has been made to solve the above-mentioned conventional problems, and in computer graphics image production, a two-dimensional projection image of an object in which a continuous pattern is mapped on adjacent surfaces can be easily performed. It is an object of the present invention to provide a computer graphics production device capable of producing.

【0008】[0008]

【課題を解決するための手段】本発明は、表面にテクス
チャマッピングが施された物体の2次元投影画像を制作
するコンピュータ・グラフィックス制作装置において、
物体表面の3次元形状を構成する複数のポリゴンを展開
して得られる展開図を出力する展開図出力手段と、該展
開図出力手段から入力された展開図にマッピング用のテ
クスチャ画像を重ね合せ、マッピングされた展開図を基
に投影画像を制作する画像制作手段と、を備えた構成と
することにより、前記課題を達成したものである。
The present invention provides a computer graphics production apparatus for producing a two-dimensional projection image of an object whose surface is texture-mapped.
A development view output means for outputting a development view obtained by developing a plurality of polygons forming a three-dimensional shape of the object surface, and a development texture input from the development view output means, with a texture image for mapping superimposed thereon, The above object is achieved by a configuration including an image production unit that produces a projection image based on the mapped development view.

【0009】本発明は、又、コンピュータ・グラフィッ
クス制作装置において、前記展開図出力手段が、物体表
面の3次元形状の頂点を記述する3次元座標系の位置座
標で規定されるポリゴンを、該位置座標を用いてテクス
チャマッピング用の2次元座標系に展開し、該2次元座
標系に展開された展開済ポリゴンと辺を共有する被展開
ポリゴンを選択し、該被展開ポリゴンが、展開済ポリゴ
ンと3次元座標系において共有する辺の2端点P1、P
2から展開対象頂点Pt までの距離d 1、d 2をそれぞ
れ算出し、2次元座標系において、2端点P1、P2か
らそれぞれd 1、d 2の距離に相当する位置にある2つ
の候補点Pa 、Pb の座標値を算出し、候補点Pa 、P
b のうち、共有する上記辺を基準にして、展開済ポリゴ
ンと反対側に位置する点を選択し、その点の座標値を展
開対象頂点Pt の2次元座標値とする操作を順次実行
し、3次元形状を構成するポリゴンを自動的に展開する
機能を有した構成とすることにより、同様に前記課題を
達成したものである。
According to the present invention, in the computer graphics production apparatus, the development view output means defines a polygon defined by position coordinates of a three-dimensional coordinate system that describes vertices of a three-dimensional shape of an object surface. The expanded polygon is expanded to a two-dimensional coordinate system for texture mapping using the position coordinates, and an expanded polygon sharing an edge with the expanded polygon expanded to the two-dimensional coordinate system is selected, and the expanded polygon is the expanded polygon. And two end points P1 and P of the side shared in the three-dimensional coordinate system
The distances d 1 and d 2 from 2 to the expansion target vertex Pt are calculated, and two candidate points Pa at positions corresponding to the distances d 1 and d 2 from the two end points P1 and P2 in the two-dimensional coordinate system are calculated. , Pb are calculated and the candidate points Pa, P are calculated.
Among b, a point located on the side opposite to the expanded polygon is selected with reference to the shared side, and the operation of setting the coordinate value of the point as the two-dimensional coordinate value of the expansion target vertex Pt is sequentially executed, The above-mentioned problem is similarly achieved by adopting a structure having a function of automatically expanding polygons forming a three-dimensional shape.

【0010】[0010]

【作用】本発明においては、物体の表面にテクスチャマ
ッピングが施された2次元投影画像を制作する際に、物
体形状の展開図を使用するようにしたので、該展開図に
おける物体形状の各頂点に対して、それぞれに対応する
テクスチャ座標値(u ,v )を割り当てることにより、
展開図に従った連続的なテクスチャマッピングを行うこ
とが可能となり、例えば隣接する2つの面に連続した模
様を貼り込む等の任意のテクスチャマッピングを容易に
行うことが可能となる。
In the present invention, the development view of the object shape is used when the two-dimensional projection image in which the surface of the object is texture-mapped is produced. Therefore, each vertex of the object shape in the development view is used. By assigning texture coordinate values (u, v) corresponding to
It is possible to perform continuous texture mapping according to the development view, and it is possible to easily perform arbitrary texture mapping such as pasting continuous patterns on two adjacent surfaces.

【0011】従って、上記のように展開図として頂点座
標に与えられたテクスチャ座標値を基に、投影画像生成
時にテクスチャマッピングを施すと共に、常法に従って
投影画像を制作することにより、所望の隣接面に連続し
た模様が貼付された物体の2次元投影画像を容易に制作
することが可能となる。
Therefore, based on the texture coordinate values given to the vertex coordinates as a developed view as described above, texture mapping is performed at the time of generating the projected image, and the projected image is produced in accordance with the usual method, so that the desired adjacent surface is produced. It becomes possible to easily produce a two-dimensional projection image of an object to which a continuous pattern is attached.

【0012】又、テクスャマッピングの状態を変更する
場合には、テクスチャ座標上に展開した展開図と、該展
開図に重ねたテクスチャ画像との相対的な位置関係又は
大きさ等を変更することにより、容易にマッピング状態
を変更することができる。
When the texture mapping state is changed, the relative positional relationship between the developed image developed on the texture coordinates and the texture image superimposed on the developed image or the size of the texture image is changed. This makes it possible to easily change the mapping state.

【0013】又、本発明において、3次元の物体形状を
構成する複数のポリゴンをテクスチャマッピング用のuv
座標系に自動的に展開する機能を備えている場合には、
オペレータが逐一展開図の座標計算とその計算結果の座
標入力を行う必要がなくなり、テクスチャマッピングが
施された投影画像を制作するコンピュータ・グラフィッ
クス制作作業の負荷を大幅に低減することが可能とな
る。
Further, in the present invention, a plurality of polygons forming a three-dimensional object shape are uv for texture mapping.
If you have a function that automatically expands to the coordinate system,
It is not necessary for the operator to calculate the coordinates of the development view one by one and input the coordinates of the calculation result, and it is possible to significantly reduce the load of the computer graphics production work for producing the projection image on which the texture mapping is applied. .

【0014】[0014]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0015】図1は、本発明に係る一実施例のコンピュ
ータ・グラフィックス制作装置を概念的に示したブロッ
ク図である。
FIG. 1 is a block diagram conceptually showing a computer graphics production apparatus according to an embodiment of the present invention.

【0016】本実施例のコンピュータ・グラフィックス
制作装置は、物体の形状に関するデータを入力する形状
入力装置10と、該形状入力装置10から入力された物
体形状に関するデータに基づいて、物体の3次元形状を
2次元のテクスチャ座標系に展開し、その展開図を自動
的に発生する展開図発生装置12と、マッピング用のテ
クスチャ画像を入力するテクスチャ画像入力装置14
と、物体形状の位置、ライト及びカメラ等に関する情報
を入力する形状位置・ライト・カメラ情報入力装置16
と、上記展開図発生装置12から入力される展開図とし
て頂点座標に与えられたテクスチャ座標値を基に、投影
画像生成時にテクスチャマッピングを施すと共に、上記
形状位置・ライト・カメラ情報入力装置16から入力さ
れる形状位置情報に基づいてマッピングされた立体形状
の位置を特定し、ライト情報及びカメラ情報に基づいて
マッピングされた立体形状の2次元投影画像を作成する
投影画像制作装置18とを備えている。
The computer graphics production apparatus according to the present embodiment has a shape input device 10 for inputting data relating to the shape of an object, and a three-dimensional object based on the data relating to the object shape inputted from the shape input device 10. A development view generation device 12 that develops a shape in a two-dimensional texture coordinate system and automatically generates a development view, and a texture image input device 14 that inputs a texture image for mapping.
And a shape position / light / camera information input device 16 for inputting information about the position of the object shape, the light, the camera, and the like.
Based on the texture coordinate values given to the vertex coordinates as the development view input from the development view generation device 12, texture mapping is performed when the projection image is generated, and the shape position / light / camera information input device 16 is used. A projection image production apparatus 18 for identifying the position of the three-dimensional shape mapped based on the input shape position information and creating a two-dimensional projected image of the three-dimensional shape mapped based on the light information and the camera information. There is.

【0017】本実施例のコンピュータ・グラフィックス
制作装置について詳述すると、形状入力装置10は、複
数のポリゴンで構成される物体の形状を、各頂点の座標
値と、ポリゴンを定義する頂点の並び(列)とで入力す
る機能を備えている。
The computer graphics production apparatus of this embodiment will be described in detail. The shape input apparatus 10 determines the shape of an object composed of a plurality of polygons, the coordinate value of each vertex, and the arrangement of the vertices defining the polygon. It has the function of inputting with (row).

【0018】具体的には、物体形状の各頂点は、xyz 座
標を用いて、例えばP1(x 1,y1,z 1)、P2(x
2,y 2,z 2)、・・・の如く定義し、ポリゴン
は、xyz 座標値で特定された各頂点P1、P2・・・を
用いてS1(P1,P2,P3,P4)、S2(P5,
P6,P2)・・・の如く定義する。なお、物体が後述
する立方体の場合は、全て四角形の面で構成されている
ため、ポリゴンは全て4つの頂点で定義されることにな
る。
Specifically, each vertex of the object shape uses, for example, P1 (x 1, y 1, z 1) and P 2 (x using xyz coordinates.
2, y 2, z 2), ..., and the polygon is defined as S1 (P1, P2, P3, P4), S2 using the vertices P1, P2, ... Specified by the xyz coordinate values. (P5,
P6, P2) ... If the object is a cube, which will be described later, all of the polygons are defined by four vertices because they are all formed by quadrangular surfaces.

【0019】展開図発生装置12は、形状入力装置10
より物体の形状を、該形状を記述する上記の各頂点の座
標値と頂点列とで読み込み、その情報に基づいて自動的
にその形状の展開図を発生させると共に、テクスチャ座
標値としてその形状を登録する機能を有している。
The development drawing generator 12 is a shape input device 10.
The shape of the object is read by the coordinate values of the above-mentioned vertices describing the shape and the vertex row, and a developed view of the shape is automatically generated based on the information, and the shape is used as the texture coordinate value. It has a function to register.

【0020】この装置12では、展開図が物体の形状デ
ータとして登録される。この展開図の登録に用いられる
形状データは、各頂点を定義する空間座標(x ,y ,z
)の値と、空間座標値それぞれに対応するテクスチャ
座標(u ,v )の値の組合せ、及び、ポリゴンを定義す
る頂点の並び(頂点列)と各ポリゴンの親子関係を示す
親ポリゴンIDとの組合せで構成されている。この頂点
の定義例と、ポリゴンの定義例を次に示す。
In this device 12, the developed view is registered as the shape data of the object. The shape data used to register this development view is the spatial coordinates (x, y, z) that define each vertex.
) Value and the texture coordinate (u, v) value corresponding to each spatial coordinate value, and the arrangement of vertices defining the polygon (vertex row) and the parent polygon ID indicating the parent-child relationship of each polygon. It is composed of a combination. An example of defining the vertex and an example of defining the polygon are shown below.

【0021】〔頂点定義例〕 P1(x 1,y 1,z 1)(u 1,v 1) P2(x 2,y 2,z 2)(u 2,v 2) 〔ポリゴン定義例〕 S1(P1,P2,P3,P4)(ルート) S2(P5,P6,P2)(S1)[Apex definition example] P1 (x 1, y 1, z 1) (u 1, v 1) P2 (x 2, y 2, z 2) (u 2, v 2) [Polygon definition example] S1 (P1, P2, P3, P4) (route) S2 (P5, P6, P2) (S1)

【0022】上記ポリゴン定義例では、(ルート)はポ
リゴンS1がルートポリゴンであることを示し、(S
1)は親ポリゴンIDを示している。この親ポリゴンI
Dは、ポリゴンS1が、ポリゴンS2の親ポリゴン、即
ちポリゴンS2はポリゴンS1の子ポリゴンであること
を表わしている。
In the above polygon definition example, (root) indicates that the polygon S1 is a root polygon, and (S)
1) shows the parent polygon ID. This parent polygon I
D indicates that the polygon S1 is a parent polygon of the polygon S2, that is, the polygon S2 is a child polygon of the polygon S1.

【0023】テクスチャ画像入力装置14は、物体の表
面にテクスチャマッピングを施すために用いるテクスチ
ャ画像を投影画像制作装置18へ入力する機能を有して
いる。
The texture image input device 14 has a function of inputting a texture image used for performing texture mapping on the surface of an object to the projection image production device 18.

【0024】形状位置・ライト・カメラ情報入力装置
(以下、単に情報入力装置ともいう)16は、投影画像
を制作する際に、形状入力装置10で入力した物体を配
置する配置位置、ライト位置等のライト情報及びカメラ
位置等のカメラ情報を投影画像制作装置18へ入力する
機能を有している。
The shape position / light / camera information input device (hereinafter, also simply referred to as an information input device) 16 arranges an object input by the shape input device 10 when producing a projected image, a light position, etc. Has a function of inputting the light information and camera information such as a camera position to the projection image production apparatus 18.

【0025】投影画像制作装置18は、展開図発生装置
12、テクスチャ画像入力装置14、情報入力装置16
からそれぞれデータを読み込み、そのデータに基づいて
目的の物体の2次元投影画像を制作する機能を有してい
る。
The projection image production device 18 includes a development view generation device 12, a texture image input device 14, and an information input device 16.
It has a function of reading the data from each of them and producing a two-dimensional projected image of the target object based on the data.

【0026】次に、本実施例の作用を説明する。Next, the operation of this embodiment will be described.

【0027】図2〜図4は、展開図発生装置12で展開
図を自動的に発生する方法の一例を示したフローチャー
トである。ここでは、この展開図の自動発生方法につい
て図5に示した立方体を展開する場合を例に詳細に説明
する。
2 to 4 are flow charts showing an example of a method for automatically generating a development drawing in the development drawing generating device 12. Here, the automatic generation method of this development view will be described in detail by taking the case of developing the cube shown in FIG. 5 as an example.

【0028】まず、形状入力装置10から前述した各頂
点P1、P2・・・に関する3次元座標値と、各ポリゴ
ンを定義する頂点列S1(P1、P2、P3、P4)等
のリストが展開図発生装置12に入力される(ステップ
110)。
First, the shape input device 10 develops a list of three-dimensional coordinate values for each of the vertices P1, P2, ... And a list of vertex sequences S1 (P1, P2, P3, P4) defining each polygon. It is input to the generator 12 (step 110).

【0029】展開図発生装置12では、上記入力データ
に基づいて、展開の始点となるルートポリゴン(図5で
はS1)を選択し(ステップ112)、該ルートポリゴ
ンS1を、図6に示すように、テクスチャ座標系を表現
するuv平面上に展開する(ステップ114)。このルー
トポリゴンの展開は、ポリゴン形状と大きさが保たれて
いれば、uv平面上の任意の位置及び向きに行ってよい。
In the development drawing generator 12, a root polygon (S1 in FIG. 5) to be the starting point of the development is selected based on the input data (step 112), and the root polygon S1 is set as shown in FIG. , On the uv plane representing the texture coordinate system (step 114). The development of this root polygon may be performed at any position and orientation on the uv plane as long as the polygon shape and size are maintained.

【0030】次いで、ステップ116で、展開済みの上
記ルートポリゴンと辺を共有している未展開のポリゴン
があるか否かを判断し、No の場合はステップ112に
戻って新たなルートポリゴンを選択し、Yesの場合は、
図7に示すように、次に展開する被展開ポリゴンS2を
選択する(ステップ118)。
Next, at step 116, it is judged whether or not there is an unexpanded polygon that shares an edge with the expanded root polygon, and if No, the process returns to step 112 to select a new root polygon. If yes,
As shown in FIG. 7, the expanded polygon S2 to be expanded next is selected (step 118).

【0031】選択した上記ポリゴンS2を前記図6に示
したuv平面上に展開する操作は、以下のようにして行
う。先ず、図8に示すように、展開しようとするS2の
頂点のうち、S1と共有されていない1つの頂点Pd を
選択し(ステップ120)、xyz 空間のワールド座標系
で、共有辺の両端に位置する頂点P1及びP2と、その
被展開頂点Pd の間の距離 d1 及び d2をそれぞれ算出
する(ステップ122)。
The operation of expanding the selected polygon S2 on the uv plane shown in FIG. 6 is performed as follows. First, as shown in FIG. 8, of the vertices of S2 to be expanded, one vertex Pd which is not shared with S1 is selected (step 120), and the vertices at both ends of the shared edge in the world coordinate system of xyz space are selected. Distances d1 and d2 between the located vertices P1 and P2 and the developed vertices Pd are calculated (step 122).

【0032】次いで、算出したワールド座標(xyz )系
における上記距離 d1、 d2を用いて、図9に示すよう
に、uv空間のテクスチャ座標系で、頂点P1から距離 d
1 、頂点P2から距離 d2に相当する位置(便宜上、xy
z 座標系と同一の記号で示す)にある2つの点Pa 、P
b のテクスチャ座標値を算出し(ステップ124)、こ
の2つのテクスチャ座標値Pa 、Pb のうち、共有辺に
対して親ポリゴンS1と反対側に位置する点(座標値P
b )を選択し、これを被展開頂点Pd のテクスチャ座標
値とする(ステップ126)。
Next, using the calculated distances d1 and d2 in the world coordinate (xyz) system, as shown in FIG. 9, in the texture coordinate system in the uv space, the distance d from the vertex P1.
1, the position corresponding to the distance d2 from the vertex P2 (for convenience, xy
Two points Pa, P in the same symbol as the z coordinate system)
The texture coordinate value of b is calculated (step 124), and of these two texture coordinate values Pa and Pb, the point (coordinate value P that is located on the side opposite to the parent polygon S1 with respect to the shared side).
b) is selected and used as the texture coordinate value of the developed vertex Pd (step 126).

【0033】被展開頂点Pd のテクスチャ座標値を決定
した後、ステップ128で、上記被展開ポリゴン(子ポ
リゴン)S2について、全ての頂点が展開されたか否か
を判断し、No の場合はステップ120に戻り、前記頂
点Pd の場合と同様の方法で、図8の場合であれば頂点
Pe の展開を行い、Yesの場合は、次のステップ130
で、全てのポリゴンが展開されたか否かを判断し、No
の場合はステップ116に戻って前述した操作を繰り返
し、Yesと判断された場合には、次のステップ132に
進む。
After determining the texture coordinate value of the developed vertex Pd, it is determined in step 128 whether or not all the vertices of the developed polygon (child polygon) S2 have been developed. If No, step 120 8, the vertex Pe is expanded in the case of FIG. 8 by the same method as the case of the vertex Pd, and in the case of Yes, the next step 130
Then, it is judged whether all polygons have been expanded, and No
In the case of, the process returns to step 116 and the above-mentioned operation is repeated.

【0034】ステップ132では、全てのポリゴンが展
開された展開図に対して、後に行うテクスチャマッピン
グ等の処理が容易にできるように、後処理として展開図
のuv座標値を正規化するためにスケーリングを施し、展
開図発生の全操作を完了する。なお、このスケーリング
は、最終的に得られた展開図が、例えば図10のようで
あったとすると、この展開図全体を、u 座標値、v 座標
値共に0〜1の範囲に収めるように、スケーリング及び
平行移動を施すことを意味する。
In step 132, scaling is performed as post-processing to normalize the uv coordinate values of the developed view so that processing such as texture mapping to be performed later can be easily performed on the developed view in which all the polygons are developed. Then, all the operations for generating the development view are completed. It should be noted that, in the scaling, if the developed view finally obtained is, for example, as shown in FIG. 10, the entire developed view is put in a range of 0 to 1 for both the u coordinate value and the v coordinate value. Means to perform scaling and translation.

【0035】以上の操作により、前記展開図発生装置1
2で作成された正規化された展開図に対応する展開図情
報、即ち各頂点を定義するP1(x 1,y 1,z 1)
(u 1,v 1)等の座標値とuv平面座標値との組合せ、
及び各ポリゴンを定義するS1(P1,P2,P3,P
4)等の頂点列とポリゴンの親子関係を示す親ポリゴン
ID等との組合せを、投影画像制作装置18に入力し、
その情報に基づいて前記図10に示した展開図を画面上
に表示すると共に、該展開図にテクスチャ画像入力装置
14から入力したテクスチャ画像を所望の状態に重ね合
せ、その際に展開図として頂点座標に与えられたテクス
チャ座標値を基に、投影画像生成時にテクスチャマッピ
ングを施す。
By the above operation, the development drawing generating device 1
The development view information corresponding to the normalized development view created in step 2, that is, P1 (x 1, y 1, z 1) that defines each vertex
A combination of coordinate values such as (u 1, v 1) and uv plane coordinate values,
And S1 (P1, P2, P3, P
4) The combination of the vertex array such as 4) and the parent polygon ID indicating the parent-child relationship of the polygon is input to the projection image production device 18,
Based on the information, the developed view shown in FIG. 10 is displayed on the screen, and the texture image input from the texture image input device 14 is superimposed on the developed view in a desired state. Texture mapping is performed at the time of generating a projected image based on the texture coordinate value given to the coordinate.

【0036】そして、情報入力装置16から入力される
情報に基づいて、テクスチャマッピングされた立方体形
状の画像上の位置を指定すると共に、ライト及びカメラ
の位置等をも指定して2次元投影画像を作成する。
Based on the information input from the information input device 16, the position of the texture-mapped cube shape on the image is specified, and the positions of the light and the camera are also specified to generate a two-dimensional projection image. create.

【0037】以上、詳述した如く、本実施例によれば、
展開図発生装置12で物体形状の展開図を自動的に発生
することができるので、物体形状の3次元座標値と、2
次元のテクスチャ座標値との対応付けを各点毎に手入力
で行う必要がなくなるため、例えば、辺を共有する隣接
する所望の2つの面に連続した模様がマッピングされた
物体のコンピュータ・グラフィックスによる投影画像を
極めて容易に制作することが可能となる。
As described above in detail, according to this embodiment,
Since the development drawing generator 12 can automatically generate a development drawing of the object shape, the three-dimensional coordinate values of the object shape and
Since it is not necessary to manually associate each point with the three-dimensional texture coordinate value, for example, computer graphics of an object in which a continuous pattern is mapped to two adjacent desired faces sharing an edge. It is possible to produce a projected image by using the method very easily.

【0038】又、図示はしないが、uv平面上の展開図
と、該展開図に重ね合せたテクスチャ画像との相対的な
位置や寸法の関係を変更することにより、マッピング状
態を容易に変更できるため、所望のテクスチャがマッピ
ングされた物体の投影画像を迅速に作成することができ
る。
Although not shown, the mapping state can be easily changed by changing the relative position and dimension relationship between the developed view on the uv plane and the texture image superimposed on the developed view. Therefore, it is possible to quickly create a projection image of an object on which a desired texture is mapped.

【0039】以上、本発明について具体的に説明した
が、本発明は、前記実施例に示したものに限られるもの
でなく、その要旨を逸脱しない範囲で種々変更可能であ
る。
Although the present invention has been specifically described above, the present invention is not limited to the above-described embodiments, but various modifications can be made without departing from the scope of the invention.

【0040】例えば、物体形状が立方体である場合を示
したが、これに限られるものでなく、任意形状の物体に
ついて適用可能である。従って、3次元形状を構成する
ポリゴンは、四角形に限らず、三角形であっても、又、
五角形以上であってもよいことはいうまでもない。
For example, although the case where the object shape is a cube is shown, the present invention is not limited to this, and the present invention can be applied to an object having an arbitrary shape. Therefore, the polygon forming the three-dimensional shape is not limited to a quadrangle, and may be a triangle.
Needless to say, it may be a pentagon or more.

【0041】又、本発明は、展開図を展開図発生装置1
2で自動的に発生させる場合に限られるものでなく、他
の方法で作成した展開図(情報)を用いてもよい。
Further, according to the present invention, a development drawing generating device 1
The method is not limited to the case where it is automatically generated in 2, and a developed view (information) created by another method may be used.

【0042】[0042]

【発明の効果】以上説明した通り、本発明によれば、コ
ンピュータ・グラフィックス制作において、物体表面に
テクスチャマッピングを行う場合、その物体形状の展開
図を用いるようにしたので、形状とテクスチャ画像の合
せ込みを極めて容易に行うことが可能となり、その結果
テクスチャマッピングが施された物体の2次元投影画像
を容易に制作することが可能となる。
As described above, according to the present invention, when texture mapping is performed on the surface of an object in computer graphics production, a developed view of the object shape is used. It becomes possible to perform the matching very easily, and as a result, it becomes possible to easily produce a two-dimensional projection image of the object subjected to the texture mapping.

【0043】又、物体形状の展開図を自動的に発生する
手段を用いる場合には、手入力によって複雑な展開図の
座標計算やその計算結果の座標入力を行う必要がなくな
るため、一段と容易に物体の2次元投影画像を制作する
ことが可能となり、コンピュータ・グラフィックス制作
作業の効率化を図ることが可能となる。
Further, when the means for automatically generating the development view of the object shape is used, there is no need to manually perform the coordinate calculation of the development view and the coordinate input of the calculation result, so that it is much easier. It is possible to produce a two-dimensional projected image of an object, and it is possible to improve the efficiency of computer graphics production work.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る一実施例のコンピュータ・グラフ
ィックス制作装置の概略構成を示すブロック図
FIG. 1 is a block diagram showing a schematic configuration of a computer graphics production apparatus according to an embodiment of the present invention.

【図2】実施例の作用を示すフローチャートFIG. 2 is a flowchart showing the operation of the embodiment.

【図3】実施例の作用を示す他のフローチャートFIG. 3 is another flowchart showing the operation of the embodiment.

【図4】実施例の作用を示す更に他のフローチャートFIG. 4 is still another flowchart showing the operation of the embodiment.

【図5】入力された物体形状とルートポリゴンの関係を
示す線図
FIG. 5 is a diagram showing a relationship between an input object shape and a root polygon.

【図6】uv平面上に展開されたルートポリゴンを示す線
FIG. 6 is a diagram showing a root polygon developed on the uv plane.

【図7】共有辺と被展開ポリゴンとの関係を示す線図FIG. 7 is a diagram showing a relationship between a shared edge and an expanded polygon.

【図8】被展開頂点と共有辺の端点との距離の関係を示
す線図
FIG. 8 is a diagram showing a relationship between distances between developed vertices and end points of shared sides.

【図9】テクスチャ座標系における被展開頂点の候補点
を示す線図
FIG. 9 is a diagram showing candidate points of developed vertices in a texture coordinate system.

【図10】展開が完了した展開図の一例を示す線図FIG. 10 is a diagram showing an example of a development diagram after the development is completed.

【符号の説明】[Explanation of symbols]

10…形状入力装置 12…展開図発生装置 14…テクスチャ画像入力装置 16…形状位置・ライト・カメラ情報入力装置 18…投影画像制作装置 10 ... Shape input device 12 ... Development view generation device 14 ... Texture image input device 16 ... Shape position / light / camera information input device 18 ... Projection image production device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】表面にテクスチャマッピングが施された物
体の2次元投影画像を制作するコンピュータ・グラフィ
ックス制作装置において、 物体表面の3次元形状を構成する複数のポリゴンを展開
して得られる展開図を出力する展開図出力手段と、 該展開図出力手段から入力された展開図にマッピング用
のテクスチャ画像を重ね合せ、マッピングされた展開図
を基に投影画像を制作する画像制作手段と、を備えてい
ることを特徴とするコンピュータ・グラフィックス制作
装置。
1. A development view obtained by developing a plurality of polygons forming a three-dimensional shape of an object surface in a computer graphics production apparatus for producing a two-dimensional projection image of an object whose surface is texture-mapped. A development image output means for outputting the image, and an image production means for superimposing a texture image for mapping on the development image input from the development image output means and producing a projection image based on the mapped development image. Computer graphics production equipment characterized by:
【請求項2】請求項1において、 前記展開図出力手段が、物体表面の3次元形状の頂点を
記述する3次元座標系の位置座標で規定されるポリゴン
を、該位置座標を用いてテクスチャマッピング用の2次
元座標系に展開し、 該2次元座標系に展開された展開済ポリゴンと辺を共有
する被展開ポリゴンを選択し、 該被展開ポリゴンが、展開済ポリゴンと3次元座標系に
おいて共有する辺の2端点P1、P2から展開対象頂点
Pt までの距離d 1、d 2をそれぞれ算出し、 2次元座標系において、2端点P1、P2からそれぞれ
d 1、d 2の距離に相当する位置にある2つの候補点P
a 、Pb の座標値を算出し、 候補点Pa 、Pb のうち、共有する上記辺を基準にし
て、展開済ポリゴンと反対側に位置する点を選択し、そ
の点の座標値を展開対象頂点Pt の2次元座標値とする
操作を順次実行し、3次元形状を構成するポリゴンを自
動的に展開する機能を有していることを特徴とするコン
ピュータ・グラフィックス制作装置。
2. The texture mapping according to claim 1, wherein the development drawing output means uses a polygon defined by position coordinates of a three-dimensional coordinate system that describes vertices of a three-dimensional shape of an object surface by using the position coordinates. Is expanded to a two-dimensional coordinate system for use, and an expanded polygon which shares an edge with the expanded polygon expanded to the two-dimensional coordinate system is selected, and the expanded polygon is shared with the expanded polygon in the three-dimensional coordinate system. The distances d 1 and d 2 from the two end points P1 and P2 of the side to the expansion target vertex Pt are calculated, and the two end points P1 and P2 are respectively calculated in the two-dimensional coordinate system.
Two candidate points P located at positions corresponding to the distances d 1 and d 2.
The coordinate values of a and Pb are calculated, and of the candidate points Pa and Pb, a point located on the opposite side of the developed polygon is selected based on the shared side, and the coordinate value of the selected point is used as the development target vertex. A computer graphics production apparatus characterized in that it has a function of automatically executing the operation of setting the two-dimensional coordinate value of Pt to automatically develop a polygon forming a three-dimensional shape.
JP32766292A 1992-12-08 1992-12-08 Computer graphics preparing device Pending JPH06176168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32766292A JPH06176168A (en) 1992-12-08 1992-12-08 Computer graphics preparing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32766292A JPH06176168A (en) 1992-12-08 1992-12-08 Computer graphics preparing device

Publications (1)

Publication Number Publication Date
JPH06176168A true JPH06176168A (en) 1994-06-24

Family

ID=18201570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32766292A Pending JPH06176168A (en) 1992-12-08 1992-12-08 Computer graphics preparing device

Country Status (1)

Country Link
JP (1) JPH06176168A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259861A (en) * 1999-03-09 2000-09-22 Square Co Ltd Texture mapping device and method and recording medium
US6518967B1 (en) 1999-03-31 2003-02-11 Square Co., Ltd. Game apparatus, game method, and computer-readable storage medium
JP2003091343A (en) * 2001-09-17 2003-03-28 Nippon Telegr & Teleph Corp <Ntt> Book information browsing method and device, book information browsing program and recording medium recording the program
WO2017098542A1 (en) * 2015-12-10 2017-06-15 光雄 林 Omnidirectional image generation device, omnidirectional image generation method, and omnidirectional image generation program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259861A (en) * 1999-03-09 2000-09-22 Square Co Ltd Texture mapping device and method and recording medium
US6518967B1 (en) 1999-03-31 2003-02-11 Square Co., Ltd. Game apparatus, game method, and computer-readable storage medium
JP2003091343A (en) * 2001-09-17 2003-03-28 Nippon Telegr & Teleph Corp <Ntt> Book information browsing method and device, book information browsing program and recording medium recording the program
WO2017098542A1 (en) * 2015-12-10 2017-06-15 光雄 林 Omnidirectional image generation device, omnidirectional image generation method, and omnidirectional image generation program
JPWO2017098542A1 (en) * 2015-12-10 2018-11-08 光雄 林 Omnidirectional image generation apparatus, omnidirectional image generation method, and omnidirectional image generation program

Similar Documents

Publication Publication Date Title
KR100914846B1 (en) Method and system for texturing of 3d model in 2d environment
JP5299173B2 (en) Image processing apparatus, image processing method, and program
JP3265879B2 (en) 3D orthogonal grid data generator
JP3268666B2 (en) Computer graphics production equipment
JP2832463B2 (en) 3D model reconstruction method and display method
JPH06176168A (en) Computer graphics preparing device
JP3268665B2 (en) Computer graphics production equipment
WO2004053741A1 (en) Method of calculating intersecions between triangle and line segment and progam therefor
JPH04309187A (en) Mapping method for stereoscopic model
WO2004111949A1 (en) A system and a method for drawing development figures and a computer readable medium thereof
US6184892B1 (en) Image production processing apparatus and structural data generating apparatus for generating structural data used in the image production processing apparatus
JP2002207777A (en) Method for generating neutral plane model
JPH11195139A (en) Sculptured surface generating device, method therefor and providing medium
JP2655056B2 (en) Texture data generator
Wang Robust Geometry Kernel and UI for Handling Non-orientable 2-Mainfolds
JP3261832B2 (en) Image generation device
JPH11149566A (en) Three-dimensional cg plotting device for curved surface display
JP3254276B2 (en) Pasting shape calculation device
JP2000057376A (en) Method for generating new viewpoint image
JPH0773342A (en) Image generator
JP3071495B2 (en) Object model editing device
JP2003114614A (en) Method and device for processing three-dimensional map data
JPH06231274A (en) Method and device for three-dimensional simulation
JP3005389B2 (en) Polygon 3D display system
JPH06231261A (en) Method for displaying parametric trimming curve by polygonal line approximation and graphic display system