JPH06176129A - Computer graphic generation device - Google Patents

Computer graphic generation device

Info

Publication number
JPH06176129A
JPH06176129A JP32766492A JP32766492A JPH06176129A JP H06176129 A JPH06176129 A JP H06176129A JP 32766492 A JP32766492 A JP 32766492A JP 32766492 A JP32766492 A JP 32766492A JP H06176129 A JPH06176129 A JP H06176129A
Authority
JP
Japan
Prior art keywords
texture
image
polygon
mapping
development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP32766492A
Other languages
Japanese (ja)
Other versions
JP3268666B2 (en
Inventor
Moritaka Arai
盛孝 荒井
Naoki Kawai
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP32766492A priority Critical patent/JP3268666B2/en
Publication of JPH06176129A publication Critical patent/JPH06176129A/en
Application granted granted Critical
Publication of JP3268666B2 publication Critical patent/JP3268666B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE:To easily generate the two-dimensional projection picture of an object where a continuous pattern is mapped on an adjacent surface in CG picture generation. CONSTITUTION:An object form constituted by plural polygons is inputted to a development diagram generation device 12 as form data from a form input device 10. The device generates the development diagram of the object form based on form data. A matching device 18 generates a texture picture based on data inputted from a valid range information input device 14 and a texture picture input device 16, overlaps the development diagram inputted from the development diagram generation device 12 with the texture picture, moves, rotates and scales them, and matches them into a desired state. Then, texture is mapped at the time of generating the projection picture based on a texture coordinate value given to an apex coordinate as the development diagram hat time, and a projection picture generation device 22 designates the positions of the form, a light and a camera based on input information from the information input device 20 so as to generate the two-dimensional projection picture.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、コンピュータ・グラフ
ィックス制作装置、特に、物体表面の隣接する面に連続
模様がマッピングされた投影画像を制作する際に適用し
て好適な、コンピュータ・グラフィックス制作装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer graphics production apparatus, and more particularly to a computer graphics production apparatus suitable for producing a projection image in which a continuous pattern is mapped on a surface adjacent to an object surface. Regarding production equipment.

【0002】[0002]

【従来の技術】コンピュータ・グラフィックス(CG)
の画像制作、例えばCGカレンダー、CGホログラム、
CGアニメーション、CGコマーシャル、CGポスタ
ー、ハイビジョンCG静止画番組などの制作において、
物体の表面(立体形状)に、例えば壁紙や建材柄等の連
続模様を貼り付けた画像を制作する際に、その物体表面
を構成する隣接面に連続した模様(柄)を表現したい場
合がある。
2. Description of the Related Art Computer graphics (CG)
Image production, eg CG calendar, CG hologram,
In the production of CG animation, CG commercials, CG posters, high-definition CG still image programs, etc.
When creating an image in which a continuous pattern such as wallpaper or a building material pattern is pasted on the surface (three-dimensional shape) of an object, it may be desirable to express a continuous pattern (pattern) on the adjacent surfaces that make up the object surface. .

【0003】このように、CGにおいて、物体表面の隣
接面に連続した模様を表現するには、通常、該物体表面
に対応する立体形状の隣接面に対して連続的なテクスチ
ャマッピングを施す必要がある。この場合、3次元座標
(x ,y ,z )で表わされる立体形状の各頂点の座標値
を、壁紙等のテクスチャの位置を記述する2次元のテク
スチャ座標(u 、v )に対応付ける合せ込みが行われ
る。
As described above, in order to express a continuous pattern on the adjacent surface of the object surface in CG, it is usually necessary to perform continuous texture mapping on the adjacent surface of the three-dimensional shape corresponding to the object surface. is there. In this case, the matching that associates the coordinate values of each vertex of the three-dimensional shape represented by the three-dimensional coordinates (x, y, z) with the two-dimensional texture coordinates (u, v) that describe the position of the texture such as wallpaper is performed. Done.

【0004】従来、上記のように物体表面とテクスチャ
の合せ込みを行う場合、xyz 座標で記述された物体の形
状をテクスチャ座標系のuv平面上に展開し、テクスチャ
座標上の物体表面を構成する各ポリゴンの頂点に移動、
回転、スケーリングを施すことにより、その3次元形状
の各頂点の座標値をuv座標値に対応付ける作業を、オペ
レータが1点ずつ計算しながら手入力していた。
Conventionally, when the object surface and the texture are matched as described above, the shape of the object described in xyz coordinates is developed on the uv plane of the texture coordinate system to form the object surface on the texture coordinates. Move to the vertex of each polygon,
The operator manually inputs the work of associating the coordinate values of the vertices of the three-dimensional shape with the uv coordinate values by performing rotation and scaling while calculating each point.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
ように、3次元座標で記述された物体形状の各頂点位置
を2次元のテクスチャ座標に対応付ける作業を1点ずつ
行うことは、作業負荷が非常に大きく、特に複雑な形状
に対する連続性を考慮したマッピング計算は、極めて困
難である上に、物体表面を構成するポリゴンの頂点をテ
クスチャ座標上で移動・回転・スケーリングしてテクス
チャマッピングの合せ込みや、その変更を行うことも作
業負荷が大きく、同様に極めて困難であるという問題が
ある。
However, as described above, it is very difficult to associate the respective vertex positions of the object shape described by the three-dimensional coordinates with the two-dimensional texture coordinates one by one. It is extremely difficult to perform mapping calculations that take into account the continuity of large shapes, especially for complex shapes.In addition, the vertexes of polygons that form the object surface are moved / rotated / scaled on the texture coordinates to match the texture mapping. However, there is a problem in that the work load is large and the change is extremely difficult in the same manner.

【0006】本発明は、前記従来の問題点を解決するべ
く成されたもので、コンピュータ・グラフィックスによ
る画像制作において、所望の隣接した面に連続模様がマ
ッピングされた物体等の2次元投影画像を容易に制作す
ることができる、コンピュータ・グラフィックス制作装
置を提供することを課題とする。
The present invention has been made to solve the above-mentioned conventional problems, and in computer graphics image production, a two-dimensional projection image of an object or the like in which a continuous pattern is mapped on a desired adjacent surface. An object of the present invention is to provide a computer graphics production apparatus capable of easily producing a computer graphic.

【0007】[0007]

【課題を解決するための手段】本発明は、表面にテクス
チャマッピングが施された物体の2次元投影画像を制作
するコンピュータ・グラフィックス制作装置において、
物体表面の3次元形状を構成する複数のポリゴンを展開
して得られる展開図を出力する展開図出力手段と、該展
開図出力手段から入力された展開図にマッピング用のテ
クスチャ画像を重ね合せ、展開図とテクスチャ画像との
位置合せを対話的に行う対話型合せ込み手段と、マッピ
ングされた展開図を基に投影画像を制作する画像制作手
段と、を備えた構成とすることにより、前記課題を達成
したものである。
The present invention provides a computer graphics production apparatus for producing a two-dimensional projection image of an object whose surface is texture-mapped.
A development view output means for outputting a development view obtained by developing a plurality of polygons forming a three-dimensional shape of the object surface, and a development texture input from the development view output means, with a texture image for mapping superimposed thereon, The above-mentioned problem is solved by providing an interactive registration means for interactively aligning a developed image and a texture image, and an image production means for producing a projected image based on the mapped developed image. Has been achieved.

【0008】本発明は、又、前記コンピュータ・グラフ
ィックス制作装置において、対話型合せ込み手段が、テ
クスチャ原画像から所望の大きさのテクスチャユニット
を切り出すための有効範囲データを読み込む機能と、テ
クスチャ原画像データを読み込み、該テクスチャ原画像
データから上記有効範囲データに基づいてテクスチャユ
ニットを抽出すると共に、該テクスチャユニットをディ
スプレー上に任意の倍率で縦横に任意回数リピートして
マッピング用テクスチャ画像を表示する機能と、展開図
形状データを読み込み、該展開図形状データに基づいて
ディスプレー上に複数のポリゴンからなる展開図を表示
する機能と、ディスプレー上で、マッピング用テクスチ
ャ画像に重ね合せた展開図を、対話的に移動し、回転
し、スケーリングする機能と、所望のマッピング状態に
設定された展開図に対して、テクスチャユニットのピッ
チでポリゴンをクリッピングして分割し、分割後のポリ
ゴンの頂点にテクスチャ座標を割り当ててテクスチャマ
ッピングの合せ込みを行う機能とを備えた構成とするこ
とにより、同様に前記課題を達成したものである。
According to the present invention, in the computer graphics production apparatus, the interactive fitting means has a function of reading effective range data for cutting out a texture unit of a desired size from a texture original image, and a texture original. The image data is read, a texture unit is extracted from the original texture image data based on the effective range data, and the texture unit is repeatedly displayed vertically and horizontally at an arbitrary magnification on the display to display a texture image for mapping. The function and the function to display the development view shape data and display the development view consisting of a plurality of polygons on the display based on the development view shape data, and the development view superimposed on the mapping texture image on the display, Move, rotate, and scale interactively Functions and functions to perform texture mapping matching by dividing the polygon with the pitch of the texture unit into the development view set to the desired mapping state and assigning texture coordinates to the vertices of the divided polygon. The above-described problems are similarly achieved by adopting a configuration including the above.

【0009】[0009]

【作用】本発明においては、物体の表面にテクスチャマ
ッピングが施された2次元投影画像を制作する際に、物
体形状の展開図を使用すると共に、該展開図とテクスチ
ャ画像との相対的位置や大きさを対話的変更できるよう
にしたので、該展開図における物体形状の各頂点に対し
て、それぞれに対応するテクスチャ座標値(u ,v )を
割り当てる合せ込みを行う際に、ディスプレーを見なが
らテクスチャ画像に対して展開図を移動し、回転し、ス
ケーリングする作業を直感的に行うことが可能となる。
In the present invention, when the two-dimensional projection image in which the texture mapping is applied to the surface of the object is produced, the development view of the object shape is used and the relative position between the development view and the texture image and Since the size can be changed interactively, when performing matching to assign the texture coordinate values (u, v) corresponding to each vertex of the object shape in the development view, while watching the display It is possible to intuitively perform the work of moving, rotating, and scaling the development view with respect to the texture image.

【0010】又、このような対話的な合せ込みを行うこ
とにより、マッピングに必要な物体形状の頂点のテクス
チャ座標値の算出と、展開図を構成するポリゴンがテク
スチャ画像を構成する2つ以上のテクスチャユニットに
またがっている場合にテクスチャユニットの境界でポリ
ゴンを分割する、いわゆるポリゴン分割とを自動的に行
うことが可能となる。
By performing such interactive matching, the texture coordinate values of the vertices of the object shape required for mapping are calculated, and the polygons forming the development view form two or more texture images. It is possible to automatically perform so-called polygon division in which a polygon is divided at the boundary of the texture unit when the texture unit is straddled.

【0011】その結果、展開図に対して任意状態のテク
スチャマッピングを簡単に行うことが可能となり、例え
ば隣接する2つの面に連続した模様を貼り込む等の任意
のテクスチャマッピングを容易に行うことが可能とな
り、又その変更も容易に行うことが可能となる。
As a result, it is possible to easily perform texture mapping in an arbitrary state on the developed view, and easily perform arbitrary texture mapping such as pasting a continuous pattern on two adjacent surfaces. It becomes possible and the change can be easily made.

【0012】従って、上記のように展開図に対してテク
スチャマッピングを施した後、その際に展開図として頂
点座標に与えられたテクスチャ座標値を基に、投影画像
生成時にテクスチャマッピングを施すと共に、常法に従
って投影画像を制作することにより、所望の隣接面に連
続した模様が貼付された物体の2次元投影画像を容易に
制作することが可能となる。
Therefore, after the texture mapping is performed on the developed view as described above, the texture mapping is performed at the time of generating the projected image based on the texture coordinate values given to the vertex coordinates as the developed view at the same time. By producing a projection image according to a conventional method, it is possible to easily produce a two-dimensional projection image of an object in which a continuous pattern is attached to a desired adjacent surface.

【0013】[0013]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0014】図1は、本発明に係る一実施例のコンピュ
ータ・グラフィックス制作装置を概念的に示したブロッ
ク図である。
FIG. 1 is a block diagram conceptually showing a computer graphics production apparatus of one embodiment according to the present invention.

【0015】本実施例のコンピュータ・グラフィックス
制作装置は、物体の形状に関するデータを入力する形状
入力装置10と、該形状入力装置10から入力された物
体形状に関するデータに基づいて、物体の3次元形状を
2次元のテクスチャ座標系に展開し、その展開図を自動
的に発生する展開図発生装置12と、テクスチャ原画像
からテクスチャユニットを切り出すための有効範囲デー
タが格納されている有効範囲情報入力装置14と、テク
スチャ原画像が格納されているテクスチャ画像入力装置
16と、有効範囲情報入力装置14及びテクスチャ画像
入力装置16からそれぞれ入力される有効範囲データと
テクスチャ原画像に基づいてマッピング用テクスチャ画
像を作成すると共に、該テクスチャ画像に展開図発生装
置12から入力される展開図とを対話的に合せ込む対話
型テクスチャマッピング合せ込み装置18と、物体形状
の位置、ライト及びカメラ等に関する情報を格納する形
状位置・ライト・カメラ情報入力装置20と、上記対話
型テクスチャマッピング合せ込み装置18から入力され
る展開図として頂点座標に与えられたテクスチャ座標値
を基に、投影画像生成時にテクスチャマッピングを施す
と共に、上記形状位置・ライト・カメラ情報入力装置2
0から入力される形状位置情報に基づいてマッピングさ
れた立体形状の位置を特定し、ライト情報及びカメラ情
報に基づいてマッピングされた立体形状の2次元投影画
像を作成する投影画像制作装置22とを備えている。
The computer graphics production apparatus according to the present embodiment includes a shape input device 10 for inputting data relating to the shape of an object, and a three-dimensional object based on the data relating to the object shape inputted from the shape input device 10. A development view generator 12 that develops a shape in a two-dimensional texture coordinate system and automatically generates a development view, and valid range information input that stores valid range data for cutting out a texture unit from a texture original image. The device 14, the texture image input device 16 in which the original texture image is stored, the effective range data input from the effective range information input device 14 and the texture image input device 16, and the texture image for mapping based on the original texture image. And the texture image is input from the development drawing generator 12. Interactive texture mapping matching device 18 for interactively matching the developed view, shape position / light / camera information input device 20 for storing information about the position of the object shape, light, camera, etc., and the interactive texture. Based on the texture coordinate values given to the vertex coordinates as a development view input from the mapping matching device 18, texture mapping is performed at the time of projection image generation, and the shape position / light / camera information input device 2 is also used.
A projection image production apparatus 22 that specifies the position of the three-dimensional shape mapped based on the shape position information input from 0, and creates a two-dimensional projected image of the three-dimensional shape mapped based on the light information and the camera information. I have it.

【0016】本実施例のコンピュータ・グラフィックス
制作装置について詳述すると、形状入力装置10は、複
数のポリゴンで構成される物体の形状を、各頂点の座標
値と、ポリゴンを定義する頂点の並び(列)とで入力す
る機能を備えている。
The computer graphics production apparatus of this embodiment will be described in detail. The shape input apparatus 10 determines the shape of an object composed of a plurality of polygons, the coordinate values of the respective vertices, and the arrangement of the vertices defining the polygons. It has the function of inputting with (row).

【0017】具体的には、物体形状の各頂点は、xyz 座
標を用いて、例えばP1(x 1,y1,z 1)、P2(x
2,y 2,z 2)、・・・の如く定義し、ポリゴン
は、xyz 座標値で特定された各頂点P1、P2・・・を
用いてS1(P1,P2,P3,P4)、S2(P5,
P6,P2)・・・の如く定義する。なお、物体が後述
する立方体の場合は、全て四角形の面で構成されている
ため、ポリゴンは全て4つの頂点で定義されることにな
る。これらデータを、例えばキーボードやマウス等を用
いて入力を指示する。
Specifically, each vertex of the object shape uses, for example, P1 (x 1, y 1, z 1) and P 2 (x using xyz coordinates.
2, y 2, z 2), ..., and the polygon is defined as S1 (P1, P2, P3, P4), S2 using the vertices P1, P2, ... Specified by the xyz coordinate values. (P5,
P6, P2) ... If the object is a cube, which will be described later, all of the polygons are defined by four vertices because they are all formed by quadrangular surfaces. Input of these data is instructed using, for example, a keyboard or a mouse.

【0018】展開図発生装置12は、形状入力装置10
より物体の形状を、該形状を記述する上記の各頂点の座
標値と頂点列とで読み込み、その情報に基づいて自動的
にその形状の展開図を発生させると共に、テクスチャ座
標値としてその形状を登録する機能を有している。
The development drawing generator 12 is a shape input device 10.
The shape of the object is read by the coordinate values of the above-mentioned vertices describing the shape and the vertex row, and a developed view of the shape is automatically generated based on the information, and the shape is used as the texture coordinate value. It has a function to register.

【0019】この展開図発生装置12では、展開図が物
体の形状データとして登録される。この展開図の登録に
用いられる形状データは、各頂点を定義する空間座標
(x ,y ,z )の値と、空間座標値それぞれに対応する
テクスチャ座標(u ,v )の値の組合せ、及び、ポリゴ
ンを定義する頂点の並び(頂点列)と各ポリゴンの親子
関係を示す親ポリゴンIDとの組合せで構成されてい
る。この頂点の定義例と、ポリゴンの定義例を次に示
す。
In the developed view generating device 12, the developed view is registered as the shape data of the object. The shape data used for registration of this development view is a combination of the spatial coordinate (x, y, z) values that define each vertex and the texture coordinate (u, v) values corresponding to each spatial coordinate value, and , A combination of a row of vertices defining a polygon (vertex row) and a parent polygon ID indicating a parent-child relationship of each polygon. An example of defining the vertex and an example of defining the polygon are shown below.

【0020】〔頂点定義例〕 P1(x 1,y 1,z 1)(u 1,v 1) P2(x 2,y 2,z 2)(u 2,v 2) 〔ポリゴン定義例〕 S1(P1,P2,P3,P4)(ルート) S2(P5,P6,P2)(S1)[Apex definition example] P1 (x 1, y 1, z 1) (u 1, v 1) P2 (x 2, y 2, z 2) (u 2, v 2) [Polygon definition example] S1 (P1, P2, P3, P4) (route) S2 (P5, P6, P2) (S1)

【0021】上記ポリゴン定義例では、(ルート)はポ
リゴンS1がルートポリゴンであることを示し、(S
1)は親ポリゴンIDを示している。この親ポリゴンI
Dは、ポリゴンS1が、ポリゴンS2の親ポリゴン、即
ちポリゴンS2はポリゴンS1の子ポリゴンであること
を表わしている。
In the above polygon definition example, (root) indicates that the polygon S1 is a root polygon, and (S)
1) shows the parent polygon ID. This parent polygon I
D indicates that the polygon S1 is a parent polygon of the polygon S2, that is, the polygon S2 is a child polygon of the polygon S1.

【0022】有効範囲情報入力装置14は、テクスチャ
マッピングに用いる原画像から実際にマッピングする際
に用いるテクスチャ画像を作成するための単位画像であ
るテクスチャユニットを切り出すための有効範囲データ
を対話型テクスチャマッピング合せ込み装置18に対し
て入力する機能を有している。
The effective range information input device 14 interactively performs texture mapping of effective range data for cutting out a texture unit, which is a unit image for creating a texture image used for actual mapping, from an original image used for texture mapping. It has a function of inputting to the fitting device 18.

【0023】テクスチャ画像入力装置16は、物体の表
面にテクスチャマッピングを施すために用いるテクスチ
ャ原画像を対話型テクスチャマッピッング合せ込み装置
18へ入力する機能を有している。
The texture image input device 16 has a function of inputting a texture original image used for applying texture mapping to the surface of an object to the interactive texture mapping fitting device 18.

【0024】対話型テクチャマッピング合せ込み装置1
8は、ディスプレー上で物体形状を構成するポリゴンの
各頂点と1以上のテクスチャユニットからなるテクスチ
ャ画像の合せ込みを対話的に行うもので、該テクスチャ
画像に重ねた展開図に対して、例えばポインティングデ
バイスで移動・回転・スケーリングを施すことにより、
そのテクスチャ画像に対する展開図の相対的位置や大き
さを任意に変更することにより合せ込みを行い、その合
せ込みに必要な座標計算とポリゴン分割を自動的に行う
機能を有している。
Interactive texture mapping matching device 1
Reference numeral 8 is for interactively matching each vertex of a polygon forming an object shape on a display with a texture image composed of one or more texture units. By moving, rotating and scaling with the device,
It has a function of performing matching by arbitrarily changing the relative position and size of the developed image with respect to the texture image, and automatically performing coordinate calculation and polygon division necessary for the matching.

【0025】形状位置・ライト・カメラ情報入力装置
(以下、単に情報入力装置ともいう)20は、投影画像
を制作する際に、形状入力装置10で入力した物体を配
置する配置位置、ライト位置等のライト情報及びカメラ
位置等のカメラ情報を投影画像制作装置22へ入力する
機能を有している。
The shape position / light / camera information input device (hereinafter, also simply referred to as information input device) 20 arranges an object input by the shape input device 10 when a projected image is produced, a light position, etc. It has a function of inputting the light information and the camera information such as the camera position to the projection image production apparatus 22.

【0026】投影画像制作装置22は、対話型テクスチ
ャマッピング合せ込み装置18、テクスチャ画像入力装
置16、情報入力装置20からそれぞれデータを読み込
み、そのデータに基づいて所望の模様が貼り込まれた物
体の2次元投影画像を制作する機能を有している。
The projection image production device 22 reads data from each of the interactive texture mapping matching device 18, the texture image input device 16 and the information input device 20, and based on the data, a desired pattern of an object is pasted. It has the function of creating a two-dimensional projection image.

【0027】次に、本実施例の作用を説明する。Next, the operation of this embodiment will be described.

【0028】先ず、展開図発生装置12で展開図を自動
的に発生するまでの処理を図2〜図4に示したフローチ
ャートを用いて説明する。ここでは、図5に示した立方
体を展開する場合を例に採り上げる。
First, the processing until the development drawing is automatically generated by the development drawing generation device 12 will be described with reference to the flow charts shown in FIGS. Here, the case of expanding the cube shown in FIG. 5 will be taken as an example.

【0029】まず、形状入力装置10から前述した各頂
点P1、P2・・・に関する3次元座標値と、各ポリゴ
ンを定義する頂点列S1(P1、P2、P3、P4)等
のリストが展開図発生装置12に入力される(ステップ
110)。
First, a list of the three-dimensional coordinate values for each of the vertices P1, P2, ... And the vertex row S1 (P1, P2, P3, P4) defining each polygon is developed from the shape input device 10. It is input to the generator 12 (step 110).

【0030】展開図発生装置12では、上記入力データ
に基づいて、展開の始点となるルートポリゴン(図5で
はS1)を選択し、該ルートポリゴンS1を、図6に示
すように、テクスチャ座標系uv平面上に展開する(ステ
ップ114)。このルートポリゴンの展開は、ポリゴン
の形状と大きさが保たれていれば、uv平面上の任意の位
置及び向きに行ってよい。
In the development drawing generator 12, a root polygon (S1 in FIG. 5) to be the starting point of the development is selected based on the input data, and the root polygon S1 is set in the texture coordinate system as shown in FIG. Unfold on the uv plane (step 114) The development of this root polygon may be performed at any position and orientation on the uv plane as long as the shape and size of the polygon are maintained.

【0031】次いで、ステップ116で、展開済みの上
記ルートポリゴンと辺を共有している未展開のポリゴン
があるか否かを判断し、No の場合はステップ112に
戻って新たなルートポリゴンを選択し、Yesの場合は、
図7に示すように、次に展開する被展開ポリゴンS2を
選択する(ステップ118)。
Then, in step 116, it is judged whether or not there is an unexpanded polygon that shares an edge with the expanded root polygon, and if No, the process returns to step 112 to select a new root polygon. If yes,
As shown in FIG. 7, the expanded polygon S2 to be expanded next is selected (step 118).

【0032】選択した上記ポリゴンS2を前記図6に示
したuv平面上に展開する操作は、以下のようにして行
う。先ず、図8に示すように、展開しようとするポリゴ
ンS2の1つの頂点Pd を選択し(ステップ120)、
xyz 空間のワールド座標系で、共有辺の両端に位置する
頂点P1及びP2と、その被展開頂点Pd の間の距離 d
1 及び d2をそれぞれ算出する(ステップ122)。
The operation of expanding the selected polygon S2 on the uv plane shown in FIG. 6 is performed as follows. First, as shown in FIG. 8, one vertex Pd of the polygon S2 to be developed is selected (step 120),
In the world coordinate system of the xyz space, the distance d between the vertices P1 and P2 located at both ends of the shared edge and its expanded vertex Pd
1 and d2 are calculated (step 122).

【0033】次いで、算出したワールド座標xyz 系にお
ける上記距離 d1、 d2を用いて、図9に示すように、
uv空間のテクスチャ座標系で、頂点P1から距離 d1 、
頂点P2から距離 d2に相当する位置(便宜上、xyz 座
標系と同一の記号で示す)にある2つの点Pa 、Pb の
テクスチャ座標値を算出し(ステップ124)、この2
つのテクスチャ座標値Pa 、Pb のうち、共有辺に対し
て親ポリゴンS1と反対側に位置する点(座標値Pb )
を選択し、これを被展開頂点Pd のテクスチャ座標値と
する(ステップ126)。
Next, using the calculated distances d1 and d2 in the world coordinate xyz system, as shown in FIG.
In the texture coordinate system of uv space, the distance d1 from the vertex P1,
The texture coordinate values of the two points Pa and Pb at the position corresponding to the distance d2 from the vertex P2 (for convenience, indicated by the same symbol as the xyz coordinate system) are calculated (step 124).
Of the two texture coordinate values Pa and Pb, the point located on the side opposite to the parent polygon S1 with respect to the shared edge (coordinate value Pb)
Is selected as the texture coordinate value of the developed vertex Pd (step 126).

【0034】被展開頂点Pd のテクスチャ座標値を決定
した後、ステップ128で、上記被展開ポリゴン(子ポ
リゴン)S2について、全ての頂点が展開されたか否か
を判断し、No の場合はステップ120に戻り、前記頂
点Pd の場合と同様の方法で、図8の場合であれば頂点
Pe の展開を行い、Yesの場合は、次のステップ130
で、全てのポリゴンが展開されたか否かを判断し、No
の場合はステップ116に戻って前述した操作を繰り返
し、Yesと判断された場合には、次のステップ132に
進む。
After the texture coordinate value of the developed vertex Pd is determined, it is determined in step 128 whether all the vertices of the developed polygon (child polygon) S2 have been developed. If No, step 120 8, the vertex Pe is expanded in the case of FIG. 8 by the same method as the case of the vertex Pd, and in the case of Yes, the next step 130
Then, it is judged whether all polygons have been expanded, and No
In the case of, the process returns to step 116 and the above-mentioned operation is repeated.

【0035】ステップ132では、全てのポリゴンが展
開された展開図に対して、後に行うテクスチャマッピン
グ等の処理が容易にできるように、後処理として展開図
のuv座標値を正規化するためにスケーリングを施し、展
開図発生の全操作を完了する。なお、このスケーリング
は、最終的に得られた展開図が、例えば図10のようで
あったとすると、この展開図全体を、u 座標値、v 座標
値共に0〜1の範囲に収めるように、スケーリング及び
平行移動を施すことを意味する。
At step 132, scaling is performed as post-processing to normalize the uv coordinate values of the development drawing so that processing such as texture mapping to be performed later can be easily performed on the development drawing in which all the polygons are developed. Then, all the operations for generating the development view are completed. It should be noted that, in the scaling, if the developed view finally obtained is, for example, as shown in FIG. 10, the entire developed view is put in a range of 0 to 1 for both the u coordinate value and the v coordinate value. Means to perform scaling and translation.

【0036】以上の処理により、前記展開図発生装置1
2で作成された正規化された展開図に対応する展開図情
報、即ち各頂点を定義するP1(x 1,y 1,z 1)
(u 1,v 1)等の座標値とuv平面座標値との組合せ、
及び各ポリゴンを定義するS1(P1,P2,P3,P
4)等の頂点列とポリゴンの親子関係を示す親ポリゴン
ID等との組合せを、次に実行する対話型テクスチャマ
ッピング合せ込み処理に使用する。
By the above processing, the development drawing generating device 1
The development view information corresponding to the normalized development view created in step 2, that is, P1 (x 1, y 1, z 1) that defines each vertex
A combination of coordinate values such as (u 1, v 1) and uv plane coordinate values,
And S1 (P1, P2, P3, P
The combination of the vertex array such as 4) and the parent polygon ID indicating the parent-child relationship of the polygon is used for the interactive texture mapping matching process to be executed next.

【0037】以下、対話型テクスチャマッピング合せ込
み装置18で実行する合せ込み処理を、図11、図12
に示したフローチャートを用いて詳細に説明する。ここ
では、前記図10に示した展開図に、図13に示したテ
クスチャ原画像で与えられるテクスチャをマッピングす
る場合を例に採り上げる。
Hereinafter, the matching processing executed by the interactive texture mapping matching device 18 will be described with reference to FIGS.
A detailed description will be given using the flowchart shown in FIG. Here, the case where the texture given by the texture original image shown in FIG. 13 is mapped to the developed view shown in FIG. 10 will be taken as an example.

【0038】先ず、展開図発生装置12から、自動生成
した展開図の形状を展開図情報(各頂点のxyz 座標値と
uv座標値との組合せ、及び各ポリゴンを定義する頂点列
と親子関係の組合せ)として読み込むと共に、有効範囲
情報入力装置14及びテクスチャ画像入力装置16から
それぞれ有効範囲データ(情報)及びテクスチャ原画像
に関する画像データを読み込む(ステップ210)。
First, the shape of the development view automatically generated from the development view generator 12 is used as development view information (xyz coordinate values of each vertex and
It is read as a combination with uv coordinate values and a combination of a vertex sequence defining each polygon and a parent-child relationship), and is related to effective range data (information) and a texture original image from the effective range information input device 14 and the texture image input device 16, respectively. The image data is read (step 210).

【0039】次いで、上記有効範囲情報に基づいてテク
スチャ画像の単位(テクスチャユニット)の切り出しを
行う(ステップ212)。この切り出し処理を図13に
概念的に示した。この図13では、全体が1つのテクス
チャ原画像であり、該テクスチャ原画像の内側に有効範
囲(破線で示した)で規定された、切り出す予定のテク
スチャユニット(画像)Uが示してある。
Next, the texture image unit (texture unit) is cut out based on the effective range information (step 212). This cutting process is conceptually shown in FIG. In FIG. 13, the entire texture original image is one, and the texture unit (image) U to be cut out, which is defined by the effective range (shown by the broken line), is shown inside the texture original image.

【0040】上記有効範囲は、切り出したテクスチャユ
ニットUを縦横に繰り返し表示した場合に、各テクスチ
ャユニットUの境界部で模様(柄)が連続するように設
定されている。
The above-mentioned effective range is set such that when the cut-out texture unit U is repeatedly displayed vertically and horizontally, the pattern is continuous at the boundary of each texture unit U.

【0041】次いで、ステップ214に進み、上記ステ
ップ212で切り出(抽出)したテクスチャユニットを
ディスプレー上で縦横に繰り返し表示してマッピング用
のテクスチャ画像を作成すると共に、該テクスチャ画像
に前記展開図情報に基づいて作成された展開図を重ね合
せて表示する。この状態を図14に示す。この図14で
は、テクスチャユニットUを縦方向に2つ、横方向に3
つ繰り返し表示した状態が示してある。
Next, in step 214, the texture unit cut out (extracted) in step 212 is repeatedly displayed vertically and horizontally on the display to create a texture image for mapping, and the developed image information is added to the texture image. The development view created based on is displayed in an overlapping manner. This state is shown in FIG. In FIG. 14, two texture units U are arranged in the vertical direction and three texture units are arranged in the horizontal direction.
It is shown that the display is repeated three times.

【0042】次いで、図14に示した状態から、所望の
マッピング状態を実現するために、マウスを用いてテク
スチャ画像に対する展開図の相対的な位置と大きさとを
対話的に変更する合せ込みを行う(ステップ216)。
この変更後の状態を図15に示す。この図15には、前
記図14に比べてテクスチャユニットを縦横にそれぞれ
1つずつ増やし、この状態のテクスチャ画像に対して、
展開図を相対的に移動し、回転し、拡大した状態が示し
てある。
Next, from the state shown in FIG. 14, in order to realize a desired mapping state, the mouse is used to interactively change the relative position and size of the developed image with respect to the texture image. (Step 216).
The state after this change is shown in FIG. In FIG. 15, the number of texture units is increased vertically and horizontally by 1 in comparison with FIG.
The exploded view is shown in a relatively moved, rotated and enlarged state.

【0043】上記合せ込みにより、所望のマッピング状
態が図15に示したものとして得られたなら、同図の状
態でテクスチャ画像と展開図の相対関係を固定し、テク
スチャユニットの境界に沿ってポリゴン分割を行い、且
つ各ポリゴンの頂点座標をテクスチャ座標に対応付ける
処理を行う(ステップ218)。
If the desired mapping state is obtained as shown in FIG. 15 by the above-mentioned fitting, the relative relationship between the texture image and the development view is fixed in the state shown in FIG. 15, and polygons are formed along the boundary of the texture unit. The division is performed, and the process of associating the vertex coordinates of each polygon with the texture coordinates is performed (step 218).

【0044】上記ポリゴン分割と座標の対応付けは対話
的な合せ込み処理により自動的に行われる。ポリゴン分
割された展開図を図16に概念的に示した。図中破線が
ポリゴン分割線であり、テクスチャユニットUの境界に
相当する。このようなポリゴン分割を行うことにより、
テクスチャユニットUを単位として設定されるテクスチ
ャ座標にポリゴンの頂点座標を正確に対応付けることが
容易となる。
The polygon division and the correspondence of the coordinates are automatically performed by an interactive matching process. The development view divided into polygons is conceptually shown in FIG. The broken line in the figure is a polygon dividing line, and corresponds to the boundary of the texture unit U. By performing such polygon division,
It becomes easy to accurately associate the vertex coordinates of the polygon with the texture coordinates set in units of the texture unit U.

【0045】ポリゴン分割と座標の対応付けが終了した
後、その状態のテクスチャマッピングを施した3次元形
状をディスプレー上に表示する(ステップ220)。こ
れを図17に模式的に示した。なお、この図には、隣接
面に対して連続した模様(柄)が貼り込まれている様子
を示すため、便宜上前記図15とは異なるテクスチャで
表現してある。
After the polygon division and the association of the coordinates are completed, the texture-mapped three-dimensional shape is displayed on the display (step 220). This is schematically shown in FIG. Note that, in this figure, in order to show a state where a continuous pattern (pattern) is attached to the adjacent surface, a texture different from that in FIG. 15 is used for convenience.

【0046】次いで、ステップ222で、3次元形状に
対するマッピングが所望の状態にあるか否かを判定し、
NOの場合はステップ216に戻って再度合せ込みを行
い、YESの場合はテクスチャマッピングの合せ込みを
終了する。
Next, at step 222, it is judged whether or not the mapping for the three-dimensional shape is in a desired state,
If NO, the process returns to step 216 to perform matching again, and if YES, the matching of texture mapping ends.

【0047】上記の如くして図11、図12に示したフ
ローチャートに従って所望のテクスチャマッピングの状
態が得られたならば、そのマッピングが施された3次元
形状のデータを投影画像制作装置22に入力し、前記情
報入力装置20から入力される情報に基づいて、テクス
チャマッピングされた上記3次元形状の画像上の位置を
指定すると共に、ライト及びカメラの位置等をも指定し
て2次元投影画像を作成する。
When the desired texture mapping state is obtained according to the flow charts shown in FIGS. 11 and 12, as described above, the three-dimensional shape data subjected to the mapping is input to the projection image production apparatus 22. Then, based on the information input from the information input device 20, the position on the image of the texture-mapped three-dimensional shape is specified, and the positions of the light and the camera are also specified to generate the two-dimensional projection image. create.

【0048】以上、詳述した如く、本実施例によれば、
展開図発生装置12で物体形状の展開図を自動的に発生
することができると共に、テクスチャ画像に対する展開
図の合せ込みを任意の状態で行うことができるので、物
体形状の3次元座標値を、2次元のテクスチャ座標値に
対応付ける合せ込みに必要な各点毎の座標計算、座標入
力及びポリゴン分割を手入力で行う必要がなくなるた
め、例えば、辺を共有する隣接する所望の2つの面に連
続した模様がマッピングされた物体の投影画像を極めて
容易に制作することが可能となり、コンピュータ・グラ
フィックス制作作業の効率化を図ることが可能となる。
As described above in detail, according to this embodiment,
Since the development drawing of the object shape can be automatically generated by the development drawing generation device 12 and the development drawing can be matched with the texture image in an arbitrary state, the three-dimensional coordinate value of the object shape is Since it is not necessary to manually perform coordinate calculation for each point, coordinate input, and polygon division necessary for matching to be associated with two-dimensional texture coordinate values, for example, it is possible to continuously connect two desired adjacent faces sharing a side. It is possible to very easily produce a projected image of an object on which the pattern is mapped, and it is possible to improve the efficiency of computer graphics production work.

【0049】以上、本発明について具体的に説明した
が、本発明は、前記実施例に示したものに限られるもの
でなく、その要旨を逸脱しない範囲で種々変更可能であ
る。
The present invention has been specifically described above, but the present invention is not limited to the above-mentioned embodiments, and various modifications can be made without departing from the spirit of the invention.

【0050】例えば、物体形状が立方体である場合を示
したが、これに限られるものでなく、任意形状の物体に
ついて適用可能である。従って、3次元形状を構成する
ポリゴンは、四角形に限らず、三角形であっても、又、
五角形以上であってもよいことはいうまでもない。
For example, although the case where the object shape is a cube is shown, the present invention is not limited to this, and the present invention can be applied to an object having an arbitrary shape. Therefore, the polygon forming the three-dimensional shape is not limited to a quadrangle, and may be a triangle.
Needless to say, it may be a pentagon or more.

【0051】又、本発明は、展開図を展開図発生装置1
2で自動的に発生させる場合に限られるものでなく、他
の方法で作成した展開図(情報)を用いてもよい。
Further, according to the present invention, the development drawing generating device 1
The method is not limited to the case where it is automatically generated in 2, and a developed view (information) created by another method may be used.

【0052】[0052]

【発明の効果】以上説明した通り、本発明によれば、コ
ンピュータ・グラフィックス制作において、物体表面に
テクスチャマッピングを行う場合、その物体形状の展開
図を用いると共に、テクスチャ画像に対する展開図の相
対的な位置や大きさを自由に変更できるようにしたの
で、物体表面に対するテクスチャ画像の合せ込みを極め
て容易に行うことが可能となり、その結果テクスチャマ
ッピングが施された物体の2次元投影画像を容易に制作
することが可能となる。
As described above, according to the present invention, when texture mapping is performed on the surface of an object in computer graphics production, a developed view of the object shape is used and the developed view is relative to the texture image. Since it is possible to freely change the various positions and sizes, it is possible to match the texture image to the surface of the object very easily, and as a result, it is possible to easily generate a two-dimensional projection image of the object on which texture mapping has been performed. It becomes possible to produce.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る一実施例のコンピュータ・グラフ
ィックス制作装置の概略構成を示すブロック図
FIG. 1 is a block diagram showing a schematic configuration of a computer graphics production apparatus according to an embodiment of the present invention.

【図2】展開図の自動生成を説明するフローチャートFIG. 2 is a flowchart illustrating automatic generation of a development view.

【図3】展開図の自動生成を説明する他のフローチャー
FIG. 3 is another flowchart explaining automatic generation of a development view.

【図4】展開図の自動生成を説明する更に他のフローチ
ャート
FIG. 4 is still another flowchart explaining automatic generation of a developed view.

【図5】入力された物体形状とルートポリゴンの関係を
示す線図
FIG. 5 is a diagram showing a relationship between an input object shape and a root polygon.

【図6】uv平面上に展開されたルートポリゴンを示す線
FIG. 6 is a diagram showing a root polygon developed on the uv plane.

【図7】共有辺と被展開ポリゴンとの関係を示す線図FIG. 7 is a diagram showing a relationship between a shared edge and an expanded polygon.

【図8】被展開頂点と共有辺の端点との距離の関係を示
す線図
FIG. 8 is a diagram showing a relationship between distances between developed vertices and end points of shared sides.

【図9】テクスチャ座標系における被展開頂点の候補点
を示す線図
FIG. 9 is a diagram showing candidate points of developed vertices in a texture coordinate system.

【図10】展開が完了した展開図の一例を示す線図FIG. 10 is a diagram showing an example of a development diagram after the development is completed.

【図11】対話的に行う合せ込みを説明するフローチャ
ート
FIG. 11 is a flowchart for explaining interactive matching.

【図12】対話的に行う合せ込みを説明する他のフロー
チャート
FIG. 12 is another flowchart illustrating interactive matching.

【図13】テクスチャ原画像とテクスチャユニットとの
関係を示す説明図
FIG. 13 is an explanatory diagram showing a relationship between a texture original image and a texture unit.

【図14】テクスチャ画像に展開図を重ねた状態を示す
説明図
FIG. 14 is an explanatory diagram showing a state in which a developed image is superimposed on a texture image.

【図15】合せ込み後のテクスチャ画像と展開図の関係
を示す説明図
FIG. 15 is an explanatory diagram showing a relationship between a texture image after fitting and a developed view.

【図16】自動的に行われるポリゴン分割を示す説明図FIG. 16 is an explanatory diagram showing automatic polygon division.

【図17】テクスチャマッピングされた物体を示す模式
的に示す斜視図
FIG. 17 is a perspective view schematically showing a texture-mapped object.

【符号の説明】[Explanation of symbols]

10…形状入力装置 12…展開図発生装置 14…有効範囲情報入力装置 16…テクスチャ画像入力装置 18…対話型テクスチャマッピング合せ込み装置 20…形状位置・ライト・カメラ情報入力装置 22…投影画像制作装置 10 ... Shape input device 12 ... Development view generation device 14 ... Effective range information input device 16 ... Texture image input device 18 ... Interactive texture mapping matching device 20 ... Shape position / light / camera information input device 22 ... Projection image production device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】表面にテクスチャマッピングが施された物
体の2次元投影画像を制作するコンピュータ・グラフィ
ックス制作装置において、 物体表面の3次元形状を構成する複数のポリゴンを展開
して得られる展開図を出力する展開図出力手段と、 該展開図出力手段から入力された展開図にマッピング用
のテクスチャ画像を重ね合せ、展開図とテクスチャ画像
との位置合せを対話的に行う対話型合せ込み手段と、 マッピングされた展開図を基に投影画像を制作する画像
制作手段と、を備えていることを特徴とするコンピュー
タ・グラフィックス制作装置。
1. A development view obtained by developing a plurality of polygons forming a three-dimensional shape of an object surface in a computer graphics production apparatus for producing a two-dimensional projection image of an object whose surface is texture-mapped. And an interactive matching means for superimposing a texture image for mapping on the expanded view input from the expanded view output means and interactively aligning the expanded view and the texture image. , A computer graphics production apparatus comprising: an image production means for producing a projected image based on the mapped development view.
【請求項2】請求項1において、 前記対話型合せ込み手段が、テクスチャ原画像から所望
の大きさのテクスチャユニットを切り出すための有効範
囲データを読み込む機能と、 テクスチャ原画像データを読み込み、該テクスチャ原画
像データから上記有効範囲データに基づいてテクスチャ
ユニットを抽出すると共に、該テクスチャユニットをデ
ィスプレー上に任意の倍率で縦横に任意回数リピートし
てマッピング用テクスチャ画像を表示する機能と、 展開図形状データを読み込み、該展開図形状データに基
づいてディスプレー上に複数のポリゴンからなる展開図
を表示する機能と、 ディスプレー上で、マッピング用テクスチャ画像に重ね
合せた展開図を、対話的に移動し、回転し、スケーリン
グする機能と、 所望のマッピング状態に設定された展開図に対して、テ
クスチャユニットのピッチでポリゴンをクリッピングし
て分割し、分割後のポリゴンの頂点にテクスチャ座標を
割り当ててテクスチャマッピングの合せ込みを行う機能
とを備えていることを特徴とするコンピュータ・グラフ
ィックス制作装置。
2. The function according to claim 1, wherein the interactive fitting unit reads the effective range data for cutting out a texture unit of a desired size from the texture original image, and the texture original image data A function to extract a texture unit from the original image data based on the effective range data and to display the texture image for mapping by repeating the texture unit vertically and horizontally at an arbitrary magnification on an arbitrary number of times, and development pattern data Function to display a development view consisting of multiple polygons on the display based on the development view shape data, and interactively move and rotate the development view superimposed on the mapping texture image on the display. And the ability to scale and set the desired mapping state. It is also provided with a function for clipping the polygon at the pitch of the texture unit into the expanded view and dividing the polygon, and assigning texture coordinates to the vertices of the divided polygon to perform texture mapping matching. Computer graphics production equipment.
JP32766492A 1992-12-08 1992-12-08 Computer graphics production equipment Expired - Fee Related JP3268666B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32766492A JP3268666B2 (en) 1992-12-08 1992-12-08 Computer graphics production equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32766492A JP3268666B2 (en) 1992-12-08 1992-12-08 Computer graphics production equipment

Publications (2)

Publication Number Publication Date
JPH06176129A true JPH06176129A (en) 1994-06-24
JP3268666B2 JP3268666B2 (en) 2002-03-25

Family

ID=18201593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32766492A Expired - Fee Related JP3268666B2 (en) 1992-12-08 1992-12-08 Computer graphics production equipment

Country Status (1)

Country Link
JP (1) JP3268666B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850605A (en) * 1994-08-05 1996-02-20 Toppan Printing Co Ltd Package design supporting device
JPH09147147A (en) * 1995-11-17 1997-06-06 Fujitsu Ltd Texuture editing system
JP2000020735A (en) * 1998-06-29 2000-01-21 Fujitsu Ltd Texture image generation device
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
JP2002175537A (en) * 2000-12-07 2002-06-21 Dainippon Printing Co Ltd Method and device for image generation
JP2008134788A (en) * 2006-11-28 2008-06-12 Toppan Forms Co Ltd Three-dimensional product providing system
JP2010061477A (en) * 2008-09-04 2010-03-18 Square Enix Co Ltd Three-dimensional design supporting device and program
JP2012125422A (en) * 2010-12-15 2012-07-05 Sanyo Product Co Ltd Game machine
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850605A (en) * 1994-08-05 1996-02-20 Toppan Printing Co Ltd Package design supporting device
JPH09147147A (en) * 1995-11-17 1997-06-06 Fujitsu Ltd Texuture editing system
JP2000020735A (en) * 1998-06-29 2000-01-21 Fujitsu Ltd Texture image generation device
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
JP2002175537A (en) * 2000-12-07 2002-06-21 Dainippon Printing Co Ltd Method and device for image generation
JP4514943B2 (en) * 2000-12-07 2010-07-28 大日本印刷株式会社 Image creating method and apparatus
JP2008134788A (en) * 2006-11-28 2008-06-12 Toppan Forms Co Ltd Three-dimensional product providing system
JP2010061477A (en) * 2008-09-04 2010-03-18 Square Enix Co Ltd Three-dimensional design supporting device and program
JP2012125422A (en) * 2010-12-15 2012-07-05 Sanyo Product Co Ltd Game machine
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program

Also Published As

Publication number Publication date
JP3268666B2 (en) 2002-03-25

Similar Documents

Publication Publication Date Title
Hu et al. Fast tetrahedral meshing in the wild
US6268846B1 (en) 3D graphics based on images and morphing
Wang et al. Feature based 3D garment design through 2D sketches
CN103761397B (en) Three-dimensional model slice for surface exposure additive forming and projection plane generating method
JP5299173B2 (en) Image processing apparatus, image processing method, and program
JPH0757117A (en) Forming method of index to texture map and computer control display system
JP3268666B2 (en) Computer graphics production equipment
JPH0793579A (en) Formation system of three-dimensional simulation image
Sandnes Sketching 3D immersed experiences rapidly by hand through 2D cross sections
Yeh et al. Double-sided 2.5 D graphics
Haeberling 3D map presentation–a systematic evaluation of important graphic aspects
JP2832463B2 (en) 3D model reconstruction method and display method
JP3268665B2 (en) Computer graphics production equipment
JPH06176168A (en) Computer graphics preparing device
Bærentzen Volume sculpting: intuitive, interactive 3D shape modelling
JPH04309187A (en) Mapping method for stereoscopic model
JP3679347B2 (en) Pattern change simulation system
Wang Robust Geometry Kernel and UI for Handling Non-orientable 2-Mainfolds
JP3254276B2 (en) Pasting shape calculation device
JPH05298413A (en) Graphic processor
Gonen Quad Dominant 2-Manifold Mesh Modeling
JPH06231274A (en) Method and device for three-dimensional simulation
JPH0773342A (en) Image generator
ANDRONESCU et al. Graphic aspects of 3D maps presentation
Black Digital processing of 3-D data to generate interactive real-time dynamic pictures

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090118

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees