JPH10283487A - Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping - Google Patents

Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping

Info

Publication number
JPH10283487A
JPH10283487A JP8647897A JP8647897A JPH10283487A JP H10283487 A JPH10283487 A JP H10283487A JP 8647897 A JP8647897 A JP 8647897A JP 8647897 A JP8647897 A JP 8647897A JP H10283487 A JPH10283487 A JP H10283487A
Authority
JP
Japan
Prior art keywords
texture
data
projection
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8647897A
Other languages
Japanese (ja)
Inventor
Ikuo Jinriyou
郁夫 神凉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu FIP Corp
Original Assignee
Fujitsu FIP Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu FIP Corp filed Critical Fujitsu FIP Corp
Priority to JP8647897A priority Critical patent/JPH10283487A/en
Publication of JPH10283487A publication Critical patent/JPH10283487A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To attain object display with high quality equivalent to the real thing by CG by texture mapping even when the object has a complicate shape. SOLUTION: A projected picture processing part 32 sets plural projection faces in the surrounding of an object constituted of three-dimensional picture data, and projects the visible face of the object in parallel to each projection face. A texture picture preparing part 34 generates a texture picture having the color data of an object surface from the projected picture of each projection face. A texture related information generating part 38 generates three- dimensional shape data obtained by adding related information indicating a corresponding relation with the texture picture of each projection face to three- dimensional shape data. A texture mapping processing part 48 generates two-dimensional picture data in which an object expressed with the three-dimensional shape data with the texture related information is viewed from an arbitrary direction, and reproduces the object by multiply mapping the texture picture of each projection face based on the texture related information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人や猿の化石標本
等の複雑な形状、色、模様をもつ物体をコンピュータグ
ラフィックスを利用して表示するための多重テクスチャ
マッピング装置及び方法並びに多重テクスチャマッピン
グのためのプログラムを格納した記憶媒体に関し、特
に、複数の投影面を使用したテクスチャ画像の多重マッ
ピングにより物体を正確に表示するための多重テクスチ
ャマッピング装置及び方法並びに多重テクスチャマッピ
ングのためのプログラムを格納した記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multi-texture mapping apparatus and method for displaying objects having complicated shapes, colors and patterns, such as human and monkey fossil specimens, using computer graphics, and a multi-texture. More particularly, the present invention relates to a multi-texture mapping apparatus and method for accurately displaying an object by multi-mapping of texture images using a plurality of projection planes, and a program for multi-texture mapping. It relates to the stored storage medium.

【0002】[0002]

【従来の技術】人や猿の化石標本等の自然の造型物をコ
ンピュータグラフィックスで表示する場合、立方体、円
柱等の基本的な形状の組み合わせでは表現が困難であ
り、モデラーと呼ばれるソフトウェアにより化石標本の
形状を入力することはできない。そこで非接触型の三次
元形状測定装置を使用して化石標本の三次元形状を入力
している。このように化石標本の三次元形状データが生
成できれば、コンピュータグラフィックスによる標本の
表示が形状に関しては容易にできる。
2. Description of the Related Art When displaying natural shaped objects such as fossil specimens of humans and monkeys in computer graphics, it is difficult to express them with a combination of basic shapes such as cubes and cylinders. You cannot enter the shape of the specimen. Therefore, the three-dimensional shape of the fossil specimen is input using a non-contact type three-dimensional shape measuring device. If the three-dimensional shape data of the fossil sample can be generated in this way, the display of the sample by computer graphics can be easily performed with respect to the shape.

【0003】一方、コンピュータグラフィックスにあっ
ては、化石標本の三次元形状の表示と同時に、標本表面
の色と模様を表示しなければならない。コンピュータグ
ラフィックスにおける物体表面の色や模様の表現には、
シェーディングとテクスチャマッピングがある。シェー
ディングは、物体表面の色を指定して表示するもので、
色の指定には物体を構成するポリゴンの面の色を指定す
る方法とポリゴンの頂点の色を指定する方法がある。し
かし、三次元形状測定装置で測定した化石標本等の三次
元形状データは、シェーディングにより直接色を指定し
て表示する場合、ポリゴン数が多すぎ、滑らかに変化す
る実物に近い色と模様を表現することは困難である。
On the other hand, in computer graphics, the color and pattern of the surface of a fossil specimen must be displayed simultaneously with the display of the three-dimensional shape of the fossil specimen. The expression of colors and patterns on the surface of objects in computer graphics
There are shading and texture mapping. In shading, the color of the object surface is specified and displayed.
There are a method of designating the color and a method of designating the color of the surface of the polygon constituting the object and the method of designating the color of the vertex of the polygon. However, when three-dimensional shape data such as fossil specimens measured by a three-dimensional shape measurement device are displayed by directly specifying colors by shading, the number of polygons is too large, and colors and patterns close to the real thing that changes smoothly are expressed. It is difficult to do.

【0004】テクスチャマッピングは、物体表面の色を
テクスチャ画像データとして予め取り出して例えばテク
チャ画像テーブルに記憶しておき、物体表示の際に物体
表面の該当する部分にテクスチャ画像データを投影して
表示する。テクスチャマッピングは、化石標本の色や模
様をそのまま使用することから、実物に近い表示が可能
である。
In texture mapping, the color of the object surface is previously extracted as texture image data and stored in, for example, a texture image table, and the texture image data is projected and displayed on a corresponding portion of the object surface when displaying the object. . The texture mapping uses the colors and patterns of the fossil specimens as they are, so that a display close to the real thing is possible.

【0005】図24はテクスチャマッピングの概略であ
り、物体200の矩形領域202に対応する二次元矩形
形状のテクスチャ画像テーブル204にテクスチャ画像
データを予め準備しておく。物体200をコンピュータ
グラフィッスにより表示する際に、物体表面202に対
応させてテクスチャ画像テーブル204の画像データを
投影してマッピングする。このマッピングの対応関係
は、物体座標を(X,Y,Z)、テクスチャ座標を
(S,T)とすると、 (S,T)=f(X,Y,Z) で表わされる。ここで変換関数f( )は、図24のよ
うな任意の平面の正投影以外に、円筒投影面のテクスチ
ャ画像を用いた円筒極座標の投影や、球状投影面のテク
スチャ画像を用いた極座標の投影などの座標変換係数が
ある。
FIG. 24 is a schematic diagram of texture mapping, in which texture image data is prepared in advance in a two-dimensional rectangular texture image table 204 corresponding to a rectangular area 202 of an object 200. When the object 200 is displayed by computer graphics, the image data of the texture image table 204 is projected and mapped in correspondence with the object surface 202. This mapping correspondence is represented by (S, T) = f (X, Y, Z), where the object coordinates are (X, Y, Z) and the texture coordinates are (S, T). Here, the transformation function f () may be a projection of cylindrical polar coordinates using a texture image of a cylindrical projection surface or a projection of polar coordinates using a texture image of a spherical projection surface, in addition to the orthographic projection of an arbitrary plane as shown in FIG. And other coordinate conversion coefficients.

【0006】化石標本等の物体をテクスチャマッピング
により表示するためには、まず実物からテクスチャ画像
データを事前に作成しなければならない。図25は、ド
ーナツ型の物体214のテクスチャ画像の生成であり、
円筒投影面210によりテクスチャ画像を生成する。ま
た図25は、二次元矩形投影面215を用いたテクスチ
ャ画像の生成である。
[0006] In order to display an object such as a fossil specimen by texture mapping, first, texture image data must be created in advance from a real object. FIG. 25 shows generation of a texture image of the donut-shaped object 214.
A texture image is generated by the cylindrical projection plane 210. FIG. 25 shows generation of a texture image using the two-dimensional rectangular projection surface 215.

【0007】例えば図26の二次元矩形投影面215に
よるテクスチャ画像の生成は、図27の立方体形状をも
つ物体216を例にとると、物体216の表面形状は、
三角形ポリゴン216に代表して示すように、多数の三
角形ポリゴンの集合で表現されている。そこでポリゴン
単位にテクスチャ画像テーブル204上にテクチャ画像
データを生成する。
For example, the generation of a texture image by the two-dimensional rectangular projection surface 215 in FIG. 26 takes the object 216 having a cubic shape in FIG. 27 as an example.
As represented by the triangular polygon 216, it is represented by a set of many triangular polygons. Therefore, texture image data is generated on the texture image table 204 for each polygon.

【0008】即ち、物体216の表面を構成するポリゴ
ン216の頂点P1,P2,P3を、二次元矩形平面と
なるテクスチャ画像テーブル204に投影して投影頂点
TP1,TP2,TP3をもつテクスチャポリゴン21
8を求める。通常、ポリゴン216の頂点P1,P2,
P3の座標データには、RGBの色データも付加されて
いる。
That is, the vertices P1, P2 and P3 of the polygon 216 constituting the surface of the object 216 are projected onto the texture image table 204 which is a two-dimensional rectangular plane, and the texture polygon 21 having projection vertices TP1, TP2 and TP3.
Find 8. Normally, the vertices P1, P2,
RGB color data is also added to the coordinate data of P3.

【0009】したがって、テクスチャポリゴン218の
投影頂点TP1,TP2,TP3に頂点P1,P2,P
3のRGB色データを格納することで、それぞれのテク
スチャ画素が生成される。テクスチャポリゴン218の
内部のテクスチャ画素は、投影頂点TP1,TP2,T
P3のRGB色データの補間により生成される。図28
は、図27のようにして生成された図26の二次元矩形
投影面215によるテクスチャ画像テーブル204であ
り、テクスチャ画像データ220が格納されている。
Therefore, the projection vertices TP1, TP2, TP3 of the texture polygon 218 correspond to the vertices P1, P2, P
By storing the three RGB color data, each texture pixel is generated. Texture pixels inside the texture polygon 218 are projected vertices TP1, TP2, T
It is generated by interpolating the RGB color data of P3. FIG.
27 is a texture image table 204 based on the two-dimensional rectangular projection surface 215 of FIG. 26 generated as shown in FIG. 27, and stores texture image data 220.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、このよ
うな物体表面の画像投影によりテクスチャ画像データを
生成する場合、次のような問題がある。図29は、物体
表面の異なる複数点が重なって投影された場合である。
物体表面を構成するポリコン222,226について、
その頂点224,226が投影面216に対する同じ投
影線232上にあると、投影点230には2つの頂点2
24,228が重なって投影される。このため頂点22
4,228のいずれか一方の色データを投影点230の
色データとして対応させると、他方の頂点の色データが
欠落する。
However, when texture image data is generated by projecting an image on the surface of an object, there are the following problems. FIG. 29 shows a case where a plurality of different points on the object surface are projected in an overlapping manner.
Regarding the polycons 222 and 226 constituting the object surface,
If the vertices 224 and 226 are on the same projection line 232 with respect to the projection plane 216, the projection point 230 has two vertices 2
24, 228 are projected overlapping. Therefore, the vertex 22
When any one of the color data 4, 228 is associated with the color data of the projection point 230, the color data of the other vertex is missing.

【0011】そして、色データが欠落した頂点側から見
た物体を三次元形状データからコンピュータグラフィッ
クスにより表示する場合、欠落した部分が表現できずに
表面の色や模様が抜けてしまい、見る方向によって物体
の画像が正確に再現できないという問題がある。図30
は、投影面に対し物体面のポリゴンを投影して座標変換
する際の面の歪みの問題である。物体表面を構成するポ
リゴン234の頂点236−1〜236−3を通る投影
面216に対する投影線238−1〜238−3は、ポ
リゴン234の向きにより一方向に並ぶ場合がある。こ
の場合、投影面216上の投影ポリゴン240は直線に
近づき、投影面216上ではテクスチャ画素の大半が欠
落する。このためコンピュータグラフィックスにより物
体を表示する場合、欠落した部分の色や模様が表現でき
ずに穴があき、正確に再現できない問題がある。
When an object viewed from the vertex side where the color data is missing is displayed by computer graphics from the three-dimensional shape data, the missing part cannot be expressed and the color or pattern on the surface is lost, and the viewing direction is reduced. Therefore, there is a problem that an image of an object cannot be accurately reproduced. FIG.
Is a problem of surface distortion when a polygon of an object plane is projected onto a projection plane and coordinate conversion is performed. The projection lines 238-1 to 238-3 on the projection plane 216 passing through the vertices 236-1 to 236-3 of the polygon 234 constituting the object surface may be arranged in one direction depending on the direction of the polygon 234. In this case, the projection polygon 240 on the projection plane 216 approaches a straight line, and most of the texture pixels on the projection plane 216 are missing. Therefore, when an object is displayed by computer graphics, there is a problem that a color or a pattern of a missing portion cannot be expressed and a hole is formed, so that accurate reproduction cannot be performed.

【0012】このようなテクスチャ画像データの生成時
に色データが欠落する問題は、化石標本のように非常に
複雑な形状、色及び模様をもつ物体の場合に顕著であ
り、現在のところ化石標本等をコンピュータグラフィッ
スクにより見る方向を自由に変えながら実物同等な高品
質の画像を表示するまでには至っていない。本発明は、
このような問題点に鑑みてなされたもので、化石標本の
ように非常に複雑な形状、色、模様をもつ物体であって
も、テクスチャマッピングによって実物と同等な高品質
の物体表示をコンピュータグラフィックスにより実現す
る多重テクスチャマッピング装置及び方法並びに多重テ
クスチャマッピングのためのプログラムを格納した記憶
媒体を提供することを目的とする。
Such a problem that color data is lost when generating texture image data is remarkable in the case of an object having a very complicated shape, color, and pattern such as a fossil sample. It has not been possible to display a high-quality image equivalent to the real thing while freely changing the viewing direction of the image using computer graphics. The present invention
In light of these problems, even objects with extremely complex shapes, colors, and patterns, such as fossil specimens, can display high-quality objects equivalent to the real objects by texture mapping using computer graphics. It is an object of the present invention to provide a multi-texture mapping apparatus and method realized by a computer and a storage medium storing a program for multi-texture mapping.

【0013】[0013]

【課題を解決するための手段】図1は本発明の原理説明
図である。本発明は、図1(A)のように、画像入力部
22、投影画像処理部32、テクスチャ画像作成部3
4、テクスチャ関連情報生成部38、テクスチャマッピ
ング処理部48で構成される。
FIG. 1 is a diagram illustrating the principle of the present invention. According to the present invention, as shown in FIG. 1A, an image input unit 22, a projection image processing unit 32, a texture image creation unit 3
4, a texture-related information generation unit 38 and a texture mapping processing unit 48.

【0014】画像入力部22は、実在する物体の外部か
ら視認できる表面の三次元形状データと色データを含む
三次元画像データを入力する。投影画像処理部32は、
画像入力部22から入力された三次元画像データで表現
される物体の周囲に複数の投影面を設定し、各投影面に
物体の見える面を平行投影(正投影)した二次元投影画
像データを生成する。テクスチャ画像作成部34は、各
投影面の二次元投影画像データについて物体表面の色デ
ータを格納し、投影面毎にテクスチャ画像データを生成
する。
The image input unit 22 inputs three-dimensional image data including three-dimensional shape data and color data of a surface that can be visually recognized from the outside of an actual object. The projection image processing unit 32
A plurality of projection planes are set around the object represented by the three-dimensional image data input from the image input unit 22, and two-dimensional projection image data obtained by parallel projection (orthogonal projection) of a plane where the object can be seen on each projection plane is displayed. Generate. The texture image creation unit 34 stores color data of the object surface for the two-dimensional projection image data of each projection plane, and generates texture image data for each projection plane.

【0015】テクスチャ関連情報生成部38は、画像入
力部22から取出した三次元形状データにテクスチャ画
像作成部34で作成された各投影面毎のテクスチャ画像
データとの対応関係を示す関連情報を付加したテクスチ
ャ関連情報付三次元形状データを生成する。テクスチャ
マッピング処理部48は、テクスチャ関連情報付の三次
元形状データにより表現される物体を任意の方向から見
たテクスチャ関連情報付の二次元形状データを生成し、
この二次元形状データのテクスチャ関連情報に基づいて
各投影面毎に作成されたテクスチャ画像データをマッピ
ングして二次元表示データをフレームメモリ18上に生
成し、CRT20に表示させる。
The texture-related information generating section 38 adds relevant information indicating the correspondence between the three-dimensional shape data extracted from the image input section 22 and the texture image data for each projection plane created by the texture image creating section 34. Generated three-dimensional shape data with texture related information. The texture mapping processing unit 48 generates two-dimensional shape data with texture-related information when the object represented by the three-dimensional shape data with texture-related information is viewed from any direction,
Based on the texture-related information of the two-dimensional shape data, texture image data created for each projection plane is mapped to generate two-dimensional display data on the frame memory 18 and display it on the CRT 20.

【0016】このように本発明の多重テクスチャマッピ
ング装置にあっては、物体の周囲に複数の投影面を設定
し、各投影面に物体の見える面を平行投影(正投影)し
た二次元投影画像からテクスチャ画像を生成することか
ら、化石標本等の複雑な形状をもつ物体であっても、複
数の投影面の設定によって外部から見ることのできる表
面部分、例えば外から見ることのできる穴の中に位置す
る表面部分についてもテクスチャ画像を生成できる。
As described above, in the multiple texture mapping apparatus according to the present invention, a plurality of projection planes are set around an object, and a two-dimensional projection image is obtained by parallel projection (orthogonal projection) of a plane in which the object can be seen on each projection plane. Since a texture image is generated from an object, even if the object has a complicated shape such as a fossil specimen, it can be seen from the outside by setting multiple projection planes, for example, inside a hole that can be seen from the outside The texture image can also be generated for the surface portion located at.

【0017】このため物体表面の色と模様を表現するテ
クスチャ画像に欠落部分がなく、三次元形状データで表
現される物体をどの方向から見ても欠落なしに表面の色
と模様を、複数の投影面の設定で作成した複数テーブル
のテクスチャ画像の中から多重的にマッピングして正確
に表現でき、実物とほとんど変わらない高品質の物体表
示をコンピュータグラフィックスにより得ることができ
る。
Therefore, there is no missing part in the texture image expressing the color and the pattern on the surface of the object, and the surface color and the pattern can be converted into a plurality of parts without any loss when the object represented by the three-dimensional shape data is viewed from any direction. From the texture images of the plurality of tables created by setting the projection plane, multiple textures can be mapped and accurately expressed, and a high-quality object display that is almost the same as the real object can be obtained by computer graphics.

【0018】画像入力部22としては、物体表面にレー
ザ光を照射して物体表面迄の距離を光学的に計測して物
体の表面形状及び色を測定する三次元形状測定装置を使
用する。また画像入力部22は、物体表面の三次元形状
データとして、物体表面を微小な多角形ポリゴンの集合
で表現し、多角形ポリゴンは頂点座標と各頂点の色デー
タを含む。この多角形ポリゴンは三角形ポリゴンであ
り、3つの頂点座標と各頂点のR,G,B色成分情報を
含む。
As the image input unit 22, a three-dimensional shape measuring device for irradiating a laser beam to the surface of the object and optically measuring the distance to the surface of the object to measure the surface shape and color of the object is used. The image input unit 22 expresses the object surface as a set of minute polygons as three-dimensional shape data of the object surface, and the polygons include vertex coordinates and color data of each vertex. This polygon is a triangular polygon and includes three vertex coordinates and R, G, B color component information of each vertex.

【0019】投影画像処理部32は、図1(B)のよう
に、三次元画像データにより表現される物体70の外側
に設定した所定の観察領域で観察可能な部位が全て投影
できるように、複数の投影面60を設定する。また投影
画像処理部32は、物体の外側から観察可能な部位が全
て投影できるように複数の投影面を設定することもでき
る。具体的に四面体以上の立体構成面、例えば六角柱
体、八角柱体等によって投影面を設定する。この場合、
投影画像処理部32は、投影面上の任意の点からの法線
が物体の中心を通るように投影面を物体の周囲に設定す
る。
As shown in FIG. 1B, the projection image processing section 32 projects all observable parts in a predetermined observation area set outside the object 70 represented by three-dimensional image data. A plurality of projection planes 60 are set. Further, the projection image processing unit 32 can also set a plurality of projection planes so that all the parts observable from the outside of the object can be projected. Specifically, the projection plane is set by a three-dimensional or more three-dimensional constituent surface, for example, a hexagonal prism, an octagonal prism, or the like. in this case,
The projection image processing unit 32 sets the projection plane around the object such that a normal from an arbitrary point on the projection plane passes through the center of the object.

【0020】テクスチャ画像作成部34は、図1(B)
のように、テクスチャ画素毎に、投影面の位置(S,
T)、色データ(R,G,B)、物体表面迄の距離
(d)の各々の格納領域を備えたテクスチャ画像テーブ
ル84を有し、投影面60に対する物体表面の写像の各
画素位置毎に、色データ、物体表面迄の距離の各々を生
成して格納する。
The texture image creating section 34 is shown in FIG.
, The position of the projection plane (S,
T), a color image (R, G, B), and a distance (d) to the surface of the object. A texture image table 84 having storage areas for each pixel position of the mapping of the object surface to the projection plane 60 is provided. Then, each of the color data and the distance to the object surface is generated and stored.

【0021】テクスチャ画像作成部34は、物体の多角
形ポリゴン毎に投影面に頂点座標を投影して各頂点の位
置毎に色データと物体表面迄の距離を生成して格納し、
次に各頂点で囲まれた領域に存在するテクスチャ画素の
色データを、各頂点の情報に基づく補間処理により生成
して格納する。テクスチャ画像作成部34は、テクスチ
ャ画素データが有効であることを示すフラグ情報を設
け、投影面60の写像に基づく画素位置(S,T)に色
データ(R,G,B)を格納した際に、フラグ情報をオ
ンする。このフラグ情報として、RGBデータ構造に設
けているアルファ値(α)を使用する。
The texture image creating section 34 projects vertex coordinates on a projection plane for each polygon of the object, generates and stores color data and a distance to the object surface for each vertex position,
Next, the color data of the texture pixels existing in the area surrounded by each vertex is generated and stored by the interpolation process based on the information of each vertex. The texture image creating unit 34 provides flag information indicating that the texture pixel data is valid, and stores the color data (R, G, B) at the pixel position (S, T) based on the mapping on the projection plane 60. Next, the flag information is turned on. As this flag information, an alpha value (α) provided in the RGB data structure is used.

【0022】テクスチャ画像作成部34は、テクスチャ
画像テーブル84のテクスチャ画素の位置を正規化して
テクスチャ二次元座標(S,T)として設定しており、
投影面60が設定された際に、正規化座標を投影面のサ
イズと三次元座標(S,T,PZ)に変換する。テクス
チャ関連情報生成部38は、画像入力部22の三次元画
像データから三次元形状データを取り出し、この三次元
形状データにテクスチャ画像作成部で生成したテクスチ
ャ画像データとの関連情報を付加してテクスチャ関連情
報付き三次元形状データを生成する。
The texture image creation unit 34 normalizes the positions of the texture pixels in the texture image table 84 and sets them as texture two-dimensional coordinates (S, T).
When the projection plane 60 is set, the normalized coordinates are converted into the size of the projection plane and three-dimensional coordinates (S, T, PZ). The texture-related information generation unit 38 extracts the three-dimensional shape data from the three-dimensional image data of the image input unit 22, adds the relevant information with the texture image data generated by the texture image generation unit to the three-dimensional shape data, and Generate three-dimensional shape data with related information.

【0023】即ち、テクスチャ関連情報生成部38は、
物体の三次元形状を表わす多角形ポリゴンの頂点座標
(Xi,Yi,Zi)に、対応するテクスチャ画素デー
タの位置座標(Si,Ti,PZi)を関連情報として
付加した三次元形状データを生成する。テクスチャ関連
情報生成部38は、物体の三次元形状を表わす多角形ポ
リゴンが投影される投影面を判別し、複数の投影面を判
別した場合は、最適な投影面を選択してテクスチャ画像
データとの関連情報を物体表面の多角形ポリゴンに付加
する。
That is, the texture-related information generating unit 38
Three-dimensional shape data is generated by adding the position coordinates (Si, Ti, PZi) of the corresponding texture pixel data to the vertex coordinates (Xi, Yi, Zi) of the polygon representing the three-dimensional shape of the object as related information. . The texture-related information generation unit 38 determines a projection plane on which a polygon representing the three-dimensional shape of the object is projected, and, when determining a plurality of projection planes, selects an optimal projection plane and generates texture image data and Is added to the polygon on the surface of the object.

【0024】最適な投影面の選択は、まず多角形ポリゴ
ンが他の多角形ポリゴンに隠されずに投影されているか
否か判定し、隠されずに投影されている投影面を選択す
る。即ち、テクスチャ画像データに含まれる物体表面迄
の距離と実際に演算した物体表面迄の距離とを比較し、
両者が所定の誤差範囲で一致した場合に、他の多角形ポ
リゴンにより隠されずに投影されている投影面と判断し
て選択する。
In selecting an optimum projection plane, first, it is determined whether or not a polygon polygon is projected without being hidden by another polygon polygon, and a projection plane that is projected without being hidden is selected. That is, the distance to the object surface included in the texture image data is compared with the actually calculated distance to the object surface,
When the two coincide with each other within a predetermined error range, it is determined that the projection plane is not hidden by other polygons and is projected and selected.

【0025】テクスチャ関連情報生成部38は、多角形
ポリゴンが投影される複数の投影面を判別した場合、更
に、多角形ポリゴンと投影ポリゴンの法線を比較して交
差角が最大となる投影面を最適投影面として選択する。
このような最適投影面の選択により、物体表面のポリゴ
ンに対応したテクスチャ画像が、複数の投影面のテクス
チャ画像データの中に存在していても、その中のポリゴ
ン面に対し最も平行に近く、他のポリゴンにより隠され
ていない投影ポリゴンをもつ投影面が最適投影面として
選択される。即ち、物体面を構成するポリゴンに対し最
もテクスチャ画素の情報量の多い投影面が最適投影面と
して選択される。
When the texture-related information generation unit 38 determines a plurality of projection planes on which the polygon is to be projected, the texture-related information generation unit 38 further compares the normals of the polygon and the projection polygon to obtain a projection plane having the maximum intersection angle. Is selected as the optimal projection plane.
By selecting such an optimal projection plane, even if the texture image corresponding to the polygon on the object surface exists in the texture image data of a plurality of projection planes, it is closest to the polygon plane among them, A projection plane having a projection polygon that is not hidden by other polygons is selected as the optimal projection plane. That is, the projection plane having the largest amount of information on the texture pixels with respect to the polygon constituting the object plane is selected as the optimal projection plane.

【0026】更に本発明にあっては、画像入力部22か
ら取出した三次元画像データのデータ量を低減してテク
スチャ関連情報生成部38に供給する三次元形状データ
低減処理部40が設けられる。三次元形状測定装置を用
いてデジタル化した物体の三次元画像データをコンピュ
ータグラフィックスに利用して表示する場合、数十万面
にも及ぶ微小なポリゴン集合体として三次元形状データ
が生成される。コンピュータグラフィックスにあって
は、処理の大部分が形状の座標変換に費やされる。
Further, in the present invention, there is provided a three-dimensional shape data reduction processing unit 40 for reducing the data amount of the three-dimensional image data taken out from the image input unit 22 and supplying the reduced data amount to the texture related information generation unit 38. When displaying three-dimensional image data of an object digitized using a three-dimensional shape measuring apparatus using computer graphics, the three-dimensional shape data is generated as an aggregate of minute polygons covering several hundred thousand surfaces. . In computer graphics, most of the processing is spent on coordinate transformation of shapes.

【0027】そこで本発明にあっては、三次元画像デー
タを形状とテクスチャ画像を生成するための色データに
分離し、形状については、データ量を低減してコンピュ
ータグラフィックスの処理の負担を低減する。即ち、三
次元画像データ低減処理部40は、物体の三次元形状を
表わす多角形ポリゴンを、より大きな多角形ポリゴンに
まとめて三次元形状データのデータ量を低減する。
Therefore, according to the present invention, the three-dimensional image data is separated into color data for generating a shape and a texture image, and the data amount of the shape is reduced to reduce the processing load of computer graphics. I do. That is, the three-dimensional image data reduction processing unit 40 reduces polygonal polygons representing the three-dimensional shape of the object into larger polygons to reduce the data amount of the three-dimensional shape data.

【0028】テクスチャマッピング処理部48は、二次
元画像データに関連情報として付加されたテクスチャ座
標(Si,Ti,PZi)で指定されるテクスチャ画素
データ群を読み出して二次元画像データに対しテクスチ
ャマッピングして二次元表示データを生成する。本発明
は、また次の過程を備えた多重テクスチャマッピング方
法を提供する。
The texture mapping processing section 48 reads a texture pixel data group specified by texture coordinates (Si, Ti, PZi) added as related information to the two-dimensional image data, and performs texture mapping on the two-dimensional image data. To generate two-dimensional display data. The present invention also provides a multiple texture mapping method comprising the following steps.

【0029】実在する物体の外部から視認できる表面の
三次元形状データと色データを含む三次元画像データを
入力する画像入力過程;画像入力過程から入力された三
次元画像データで表現される物体の周囲に複数の投影面
を設定し、各投影面に物体の見える面を平行投影した二
次元投影画像データを生成する投影画像処理過程;各投
影面の二次元投影画像データについて物体表面の色デー
タを格納し、投影面毎にテクスチャ画像データを生成す
るテクスチャ画像作成過程;画像入力過程から取出した
三次元形状データにテクスチャ画像作成過程で作成され
た各投影面毎のテクスチャ画像データとの対応関係を示
す関連情報を付加したテクスチャ関連情報付三次元形状
データを生成するテクスチャ関連情報生成過程;テクス
チャ関連情報付三次元形状データにより表現される物体
を任意の方向から見たテクスチャ関連情報付の二次元形
状データを生成し、二次元形状データのテクスチャ関連
情報に基づいて各投影面毎に作成されたテクスチャ画像
データをマッピングして二次元表示データを生成するテ
クスチャマッピング処理過程;この多重テクスチャマッ
ピング方法における詳細も、装置構成と基本的に同じで
ある。
An image inputting step of inputting three-dimensional image data including three-dimensional shape data and color data of a surface of an actual object that can be visually recognized from the outside; an object represented by the three-dimensional image data input from the image inputting step; A projection image processing process in which a plurality of projection planes are set around and two-dimensional projection image data is generated by projecting a plane in which an object is visible on each projection plane in parallel; color data of the object surface for the two-dimensional projection image data of each projection plane For creating a texture image data for each projection plane; the correspondence between the three-dimensional shape data extracted from the image input step and the texture image data for each projection plane created in the texture image creation step -Related information generating step of generating three-dimensional shape data with texture-related information to which related information indicating a texture is added; Generates two-dimensional shape data with texture-related information when the object represented by the original shape data is viewed from any direction, and texture image data created for each projection plane based on the texture-related information of the two-dimensional shape data In the texture mapping process for generating two-dimensional display data by mapping data; details of the multiple texture mapping method are basically the same as those of the device configuration.

【0030】更に本発明は、多重テクスチャマッピング
のためのプログラムを格納した記憶媒体を提供する。こ
の記録媒体は、実在する物体の外部から視認できる表面
の三次元形状データと色データを含む三次元画像データ
を入力する画像入力部22;画像入力部22から入力さ
れた三次元画像データで表現される物体の周囲に複数の
投影面を設定し、各投影面に物体の見える面を平行投影
した二次元投影画像データを生成する投影画像処理部3
2;各投影面の二次元投影画像データについて物体表面
の色データを格納し、投影面毎にテクスチャ画像データ
を生成するテクスチャ画像作成部34;画像入力部22
から取出した三次元形状データに前記テクスチャ画像作
成部34で作成された各投影面毎のテクスチャ画像デー
タとの対応関係を示す関連情報を付加したテクスチャ関
連情報付三次元形状データを生成するテクスチャ関連情
報生成部38;テクスチャ関連情報付三次元形状データ
により表現される物体を任意の方向から見たテクスチャ
関連情報付の二次元形状データを生成し、この二次元形
状データのテクスチャ関連情報に基づいて各投影面毎に
作成されたテクスチャ画像データをマッピングして二次
元表示データを生成するテクスチャマッピング処理部4
8;を備える。
Further, the present invention provides a storage medium storing a program for multiple texture mapping. The recording medium includes: an image input unit 22 for inputting three-dimensional image data including three-dimensional shape data and color data of a surface that can be visually recognized from the outside of an actual object; expressed by three-dimensional image data input from the image input unit 22 Projection image processing unit 3 that sets a plurality of projection planes around the object to be projected, and generates two-dimensional projection image data in which a plane where the object is visible is parallel projected on each projection plane
2: a texture image creation unit 34 that stores color data of the object surface for the two-dimensional projection image data of each projection plane and generates texture image data for each projection plane; image input unit 22
Texture-related information for generating texture-related information-added three-dimensional shape data obtained by adding related information indicating the correspondence between the three-dimensional shape data extracted from the above and the texture image data for each projection plane created by the texture image creation unit 34 Information generation unit 38; generates two-dimensional shape data with texture-related information when an object represented by the three-dimensional shape data with texture-related information is viewed from an arbitrary direction, and based on the texture-related information of the two-dimensional shape data. Texture mapping processing unit 4 that maps texture image data created for each projection plane to generate two-dimensional display data
8;

【0031】また多重テクスチャマッピングのためのプ
ログラムを格納した記憶媒体は、画像入力部22から取
出した三次元形状データのデータ量を低減してテクスチ
ャ関連情報生成部38に供給する三次元形状データ低減
処理部42を備える。この記憶媒体につき、それ以外の
点の詳細は、装置構成と基本的に同じである。
The storage medium storing a program for multiple texture mapping reduces the data amount of the three-dimensional shape data extracted from the image input unit 22 and supplies the data to the texture-related information generation unit 38. The processing unit 42 is provided. Other details of this storage medium are basically the same as the device configuration.

【0032】[0032]

【発明の実施の形態】図2は本発明による多重テクスチ
ャマッピングが適用されるコンピュータ装置のハードウ
ェア構成である。図2において、演算処理部として機能
するMPU10のバス12に対しては、ワークメモリと
して使用するRAM14が接続され、更にコンピュータ
グラフィックス(以下「CG」という)を実現するため
の専用の処理部としてグラフィックスアクセラレータ1
6が設けられる。
FIG. 2 shows a hardware configuration of a computer to which multiple texture mapping according to the present invention is applied. In FIG. 2, a RAM 14 used as a work memory is connected to a bus 12 of an MPU 10 functioning as an arithmetic processing unit, and as a dedicated processing unit for realizing computer graphics (hereinafter, referred to as “CG”). Graphics accelerator 1
6 are provided.

【0033】グラフィックスアクセラレータ16に対し
ては、表示画像データを展開するフレームメモリ18が
接続され、フレームメモリ18に展開された画像データ
はCRT表示装置20上に表示される。またバス12に
対しては、三次元形状測定装置22、磁気ディスクドラ
イブなどの外部記憶装置24、入出力操作を行うキーボ
ード26、更にはCRT上でのマウスクリックなどを行
うポインティング装置28が設けられている。
A frame memory 18 for expanding display image data is connected to the graphics accelerator 16, and the image data expanded in the frame memory 18 is displayed on a CRT display device 20. The bus 12 is provided with a three-dimensional shape measuring device 22, an external storage device 24 such as a magnetic disk drive, a keyboard 26 for performing input / output operations, and a pointing device 28 for performing mouse clicks on a CRT. ing.

【0034】三次元形状測定装置22は、化石標本など
の実在する物体を装置にセットした状態でレーザ光を物
体表面に照射しながら周囲を円筒状に走査し、このレー
ザ光の走査に同期したスキャナヘッドによる検出走査で
物体表面までの距離を光学的に測定し、測定データとし
て物体の三次元形状データと物体表面の色データを含む
三次元画像データを出力し、外部記憶装置24の三次元
画像データファイルに格納する。
The three-dimensional shape measuring device 22 scans the periphery in a cylindrical shape while irradiating the surface of the object with a laser beam in a state where an actual object such as a fossil specimen is set in the device, and synchronizes with the scanning of the laser beam. The distance to the surface of the object is optically measured by detection scanning by the scanner head, and three-dimensional image data including three-dimensional shape data of the object and color data of the object surface are output as measurement data. Store in image data file.

【0035】この三次元形状測定装置22により出力さ
れる物体の三次元形状データは、微小な三角形ポリゴン
の集合体であり、ポリゴンによる物体構成面の数は例え
ば数十万面程度のデータ量となる。またポリゴンの3つ
の頂点の座標には、頂点の色データが例えばRGBデー
タとして付加されている。図3は図2のMPU10によ
る本発明の多重テクスチャマッピングの全体的な処理の
フローチャートである。まずステップS1で、表示対象
とする物体例えば化石標本を三次元形状測定装置22に
セットし、三次元形状データ及び色データを測定して三
次元画像データを生成する。
The three-dimensional shape data of the object output from the three-dimensional shape measuring device 22 is a set of minute triangular polygons. Become. Color data of the vertices is added to the coordinates of the three vertices of the polygon, for example, as RGB data. FIG. 3 is a flowchart of the overall processing of the multiple texture mapping of the present invention by the MPU 10 of FIG. First, in step S1, an object to be displayed, for example, a fossil sample is set in the three-dimensional shape measuring device 22, and three-dimensional shape data and color data are measured to generate three-dimensional image data.

【0036】続いてステップS2に進み、ステップS1
で入力した三次元画像データで表現される物体に対し複
数の投影面を設定し、投影面ごとにテクスチャ画像デー
タを生成する。続いてステップS3に進み、ステップS
1で生成した物体の三次元形状データを対象に、ステッ
プS2で生成したテクスチャ画像との関連情報を作成
し、このテクスチャ画像関連情報を三次元形状データに
付加したテクスチャ関連情報付三次元形状データを生成
する。このようなステップS1〜S3の処理により、C
Gにより物体再現を行うための準備作業が完了する。
Subsequently, the process proceeds to step S2, where step S1
A plurality of projection planes are set for the object represented by the three-dimensional image data input in step (1), and texture image data is generated for each projection plane. Then, the process proceeds to step S3,
The three-dimensional shape data with texture-related information obtained by creating the relevant information with the texture image generated in step S2 for the three-dimensional shape data of the object generated in step 1 and adding the texture image-related information to the three-dimensional shape data Generate By the processing of steps S1 to S3, C
G completes the preparation work for reproducing the object.

【0037】続いてステップS4で、ステップS3のテ
クスチャ関連情報付の三次元形状データで表現される物
体を任意の方向から見た二次元形状データを生成し、こ
の二次元形状データに付加されているテクスチャ関連情
報に基づき、ステップS2で作成が済んだ複数の投影面
に対応したテクスチャ画像データの中から対応するテク
スチャ画像を画素単位に読み出してマッピングし、CR
Tに表示する。
Subsequently, in step S4, two-dimensional shape data obtained by viewing the object represented by the three-dimensional shape data with the texture-related information of step S3 from an arbitrary direction is generated and added to the two-dimensional shape data. Based on the relevant texture-related information, the texture image corresponding to the plurality of projection planes created in step S2 is read out and mapped in pixel units from the corresponding texture image data.
Display on T.

【0038】ここでステップS3のテクスチャ画像の関
連情報を付加する三次元形状データについては、ステッ
プS1において三次元形状測定装置で入力した三次元形
状データを直接使用せず、本発明の実施形態にあって
は、最初に入力した三次元形状データを構成するポリゴ
ンを更に大きなポリゴンにまとめることによってデータ
量を低減し、データ量を低減した三次元形状データにつ
いてテクスチャ関連情報を付加するようにしている。
Here, as for the three-dimensional shape data to which the related information of the texture image is added in step S3, the three-dimensional shape data input by the three-dimensional shape measuring device in step S1 is not directly used, but is used in the embodiment of the present invention. In this case, the polygons constituting the initially input three-dimensional shape data are combined into a larger polygon to reduce the data amount, and texture-related information is added to the reduced three-dimensional shape data. .

【0039】図4は図2のMPU10により実現される
本発明の多重テクスチャマッピングの機能ブロック図で
ある。本発明の多重テクスチャマッピングを実現するた
め、画像入力部として機能する三次元形状測定装置2
2、投影画像処理部32、テクスチャ画像生成部34、
テクスチャ関連情報作成部38、三次元画像データ低減
処理部40、二次元形状データ生成部46、テクスチャ
マッピング処理部48、テクスチャ画像テーブル50−
1〜50−n、フレームメモリ18及びCRT20が設
けられる。
FIG. 4 is a functional block diagram of the multiple texture mapping of the present invention realized by the MPU 10 of FIG. Three-dimensional shape measuring device 2 functioning as an image input unit to realize multiple texture mapping of the present invention
2, projection image processing unit 32, texture image generation unit 34,
Texture-related information creation unit 38, three-dimensional image data reduction processing unit 40, two-dimensional shape data generation unit 46, texture mapping processing unit 48, texture image table 50-
1 to 50-n, a frame memory 18 and a CRT 20 are provided.

【0040】このうち二次元形状データ生成部46、テ
クスチャマッピング処理部48、テクスチャ画像テーブ
ル50−1〜50−n、フレームメモリ18及びCRT
20の部分は、CG処理部45を構成している。画像入
力部として機能する三次元形状測定装置22は、化石標
本などの表示対象物体について、その三次元形状と表面
の色を測定し、例えば図5のような三次元画像データフ
ァイル30を出力する。この三次元画像データファイル
30は、物体表面形状の構成面となる三角形のポリゴン
の集合であり、ポリゴンデータP1i,P2i,P3
i,・・・で構成される。
The two-dimensional shape data generator 46, texture mapping processor 48, texture image tables 50-1 to 50-n, frame memory 18, and CRT
20 constitutes the CG processing unit 45. The three-dimensional shape measuring device 22 functioning as an image input unit measures a three-dimensional shape and a surface color of a display target object such as a fossil sample, and outputs a three-dimensional image data file 30 as shown in FIG. 5, for example. . This three-dimensional image data file 30 is a set of triangular polygons which are constituent surfaces of the object surface shape, and polygon data P1i, P2i, P3
i,...

【0041】ここでポリゴンデータP1i,P2i,P
3i,・・・のiは頂点の番号であり、三角形ポリゴン
であることからi=1,2,3の値をとる。ポリゴンデ
ータは例えばポリゴンデータP1iを右側に取り出して
示すように、頂点番号P11,P12,P13について
頂点座標52と色データ54を格納している。頂点座標
52は、三次元形状測定装置22の測定座標で定義され
た三次元座標におけるX,Y,Zの各座標値である。ま
た色データ54は、ポリゴンの3つの頂点P11,P1
2,P13について三次元形状測定装置22で測定され
たR成分値、G成分値及びB成分値である。
Here, the polygon data P1i, P2i, P
Are the numbers of the vertices, and take the values of i = 1, 2, 3 since they are triangular polygons. As the polygon data, for example, the vertex coordinates 52 and the color data 54 are stored for the vertex numbers P11, P12, and P13 as shown by extracting the polygon data P1i on the right side. The vertex coordinates 52 are X, Y, and Z coordinate values in the three-dimensional coordinates defined by the measurement coordinates of the three-dimensional shape measurement device 22. The color data 54 includes three vertices P11 and P1 of the polygon.
2, the R component value, the G component value, and the B component value measured by the three-dimensional shape measuring device 22 for P13.

【0042】再び図4を参照するに、投影画像処理部3
2は三次元画像データファイル30として入力された三
次元画像データを対象に、テクスチャ画像を生成するた
めの投影面の設定処理を行う。図6は本発明により設定
される投影面の一例であり、六角柱投影体56を構成す
る投影面の設定であり、六角に配置された投影面60−
1〜60−6と六角柱の底面及び上面を構成する投影面
60−7,60−8の8つの投影面を有する。このよう
な六角柱投影体56が三次元画像データで表現される物
体の周囲に設定される。
Referring again to FIG. 4, the projection image processing unit 3
Reference numeral 2 denotes a process for setting a projection plane for generating a texture image on the three-dimensional image data input as the three-dimensional image data file 30. FIG. 6 is an example of a projection plane set according to the present invention, which is a setting of a projection plane constituting the hexagonal prism projection body 56, and is a projection plane 60- arranged in a hexagon.
It has eight projection planes 1 to 60-6 and projection planes 60-7 and 60-8 constituting the bottom and top surfaces of the hexagonal prism. Such a hexagonal prism projection body 56 is set around an object represented by three-dimensional image data.

【0043】図7は本発明で用いる投影面の他の実施形
態であり、四面投影体58を用いたことを特徴とする。
四面投影体58は4つの投影面60−11〜60−14
を有する。物体の周囲を完全に包囲する投影体として
は、この四面投影体58が投影面の数が最も少ないこと
になる。図8は本発明で用いる投影面設定の他の実施形
態であり、八角柱投影体64を使用したことを特徴とす
る。この八角柱投影体64にあっては、上面及び下面は
開放しており、八角形の矩形面となる投影面60−21
〜60−28を設定している。図6の六角柱投影体56
及び図7の四面投影体58にあっては、内部に位置する
物体の周囲を完全に包囲するように投影面を複数設定し
ている。これは対象物体のテクスチャマッピングによる
表現を全方向から見た二次元画像として表現するためで
ある。これに対し図8の八角柱投影体64にあっては、
上下の面は投影面として設定しておらず、周囲の八面を
投影面60−21〜60−28として設定している。こ
のような上下に開放した周囲のみの投影面の設定につい
ては、内部に位置する物体を表示するための見る方向が
物体の周囲に限定されている場合である。もちろん、物
体を全方向から見た画像として表現したい場合には、図
8において上下に開放している面についても更に投影面
を設定して投影面を10にすればよい。
FIG. 7 shows another embodiment of the projection surface used in the present invention, which is characterized in that a tetrahedral projection body 58 is used.
The tetrahedral projection body 58 has four projection planes 60-11 to 60-14.
Having. As a projection body that completely surrounds the periphery of the object, the tetrahedral projection body 58 has the smallest number of projection planes. FIG. 8 shows another embodiment of the projection plane setting used in the present invention, wherein an octagonal prism projection body 64 is used. In the octagonal prism projection body 64, the upper surface and the lower surface are open, and a projection surface 60-21 which is an octagonal rectangular surface is provided.
~ 60-28 is set. The hexagonal prism projection body 56 of FIG.
Also, in the tetrahedral projection body 58 of FIG. 7, a plurality of projection planes are set so as to completely surround the object located inside. This is because the expression by texture mapping of the target object is expressed as a two-dimensional image viewed from all directions. On the other hand, in the octagonal prism projection body 64 of FIG.
The upper and lower surfaces are not set as projection surfaces, and eight surrounding surfaces are set as projection surfaces 60-21 to 60-28. Such setting of the projection plane only around the upper and lower sides is a case where the viewing direction for displaying the object located inside is limited to the periphery of the object. Of course, when it is desired to represent the object as an image viewed from all directions, the projection plane may be set to 10, and the projection plane may be set to 10 also for the surface that is open up and down in FIG.

【0044】図9は本発明における対象物体に対する投
影面設定の具体例である。この例にあっては、対象物体
70としてドーナツ形状をもった物体を例にとってお
り、立体感を出すために表面にピッチの異なる矩形パタ
ーンを表示している。対象物体70に対し任意の投影面
60を設定する場合、例えば投影面60の中心点76か
らの法線77が対象物体70の物体中心72を通るよう
に投影面60を設定する。
FIG. 9 shows a specific example of setting a projection plane for a target object in the present invention. In this example, an object having a donut shape is taken as an example of the target object 70, and rectangular patterns with different pitches are displayed on the surface to give a three-dimensional effect. When an arbitrary projection plane 60 is set for the target object 70, the projection plane 60 is set such that, for example, a normal 77 from a center point 76 of the projection plane 60 passes through the object center 72 of the target object 70.

【0045】このような投影面60の設定により、対象
物体70の表面の画像を投影面60に正投影(平行投
影)してテクスチャ画像を取り出す。例えば対象物体7
2の投影面60に面したポリゴン74に注目すると、こ
のポリゴン74の投影面60に投影ポリゴン76として
正投影される。ここで対象物体70の構成面となるポリ
ゴン74から投影面60の投影ポリゴン76までの距離
dが投影面60に基づくテクスチャ画像データの情報の
1つとして算出される。
By setting the projection plane 60 as described above, an image of the surface of the target object 70 is orthogonally projected (parallel projected) onto the projection plane 60 to extract a texture image. For example, target object 7
Focusing on the polygon 74 facing the second projection plane 60, the polygon 74 is orthogonally projected as a projection polygon 76 on the projection plane 60. Here, a distance d from the polygon 74, which is a constituent surface of the target object 70, to the projection polygon 76 on the projection surface 60 is calculated as one piece of information of the texture image data based on the projection surface 60.

【0046】図10は図9で対象物体70を投影面60
に投影した時の投影画像データ78の説明図である。投
影画像データ78は、図5の三次元画像データ30に対
応した投影ポリゴンデータPP1i,PP2i,PP3
i,PP4i,・・・で構成される。投影ポリゴンデー
タは最初の投影ポリゴンデータPP1iを右側に取り出
して示すように、投影された頂点番号PP11,PP1
2,PP13のそれぞれについて、投影面60上での頂
点座標のX,Y,Zの各値をもち、更に色データ82と
して投影前の図5のポリゴンデータP1iに付加されて
いる色データ54と同じR,G,B成分値をもつ色デー
タ82を格納している。
FIG. 10 shows a state in which the target object 70 is projected onto the projection plane 60 in FIG.
FIG. 7 is an explanatory diagram of projection image data 78 when projected on a. The projection image data 78 includes projection polygon data PP1i, PP2i, PP3 corresponding to the three-dimensional image data 30 in FIG.
i, PP4i,... As the projection polygon data, the first projection polygon data PP1i is extracted and shown on the right side, and the projected vertex numbers PP11, PP1 are shown.
2 and PP13, each of which has the X, Y, and Z values of the vertex coordinates on the projection plane 60, and color data 54 added to the polygon data P1i of FIG. The color data 82 having the same R, G, B component values is stored.

【0047】尚、図10の投影画像データ78は、テク
スチャ画像データを生成する際の中間的なデータ形態で
あり、最終的にはテクスチャ画像データに反映される。
図11は対象物体70の物体構成面となるポリゴンを投
影面に投影した後のテクスチャ画像データの生成処理の
説明図である。このテクスチャ画像データの生成処理
は、図4のテクスチャ画像生成部34によって行われ
る。図11において、対象物体70に対し設定した投影
面60に対しては、テクスチャ画像テーブル84が予め
準備される。
The projection image data 78 shown in FIG. 10 is an intermediate data form when generating the texture image data, and is finally reflected on the texture image data.
FIG. 11 is an explanatory diagram of a process of generating texture image data after a polygon serving as an object configuration surface of the target object 70 is projected on a projection surface. The generation processing of the texture image data is performed by the texture image generation unit 34 in FIG. In FIG. 11, a texture image table 84 is prepared in advance for the projection plane 60 set for the target object 70.

【0048】テクスチャ画像テーブル84は、図12の
ように、縦軸方向となる画素データ領域ごとに投影面の
位置85、物体色データ86及び物体表面までの距離8
8の各領域をもっている。投影面位置85は、図11の
ように、テクスチャ画像テーブル84がS,Tの二次元
矩形座標をもつことから、その座標値(S,T)の各値
が格納される。物体色データ86は、R,G,Bの成分
値に加え、α値をもっている。α値は通常の例えば8ビ
ット単位のR,G,Bデータ構造について付加されてい
ることから、このα値領域を本発明にあってはテクスチ
ャ画像のテーブル登録の有無を示すフラグ情報として使
用する。
As shown in FIG. 12, the texture image table 84 includes a projection plane position 85, object color data 86, and a distance 8 to the object surface for each pixel data area in the vertical axis direction.
8 areas. As the projection plane position 85, as shown in FIG. 11, since the texture image table 84 has two-dimensional rectangular coordinates of S and T, the respective values of the coordinate values (S, T) are stored. The object color data 86 has an α value in addition to the R, G, and B component values. Since the .alpha. value is added to an ordinary R, G, B data structure in units of, for example, 8 bits, the .alpha. value region is used as flag information indicating whether or not a texture image is registered in the table in the present invention. .

【0049】即ち、物体色データ86及び物体表面まで
の距離88が格納された投影面位置のα値を1にセット
し、それ以外の登録されていない画素については0とす
る。物体表面までの距離88については、図9のよう
に、投影面60に対する物体表面上のポリゴン74を投
影した際に算出された距離dが格納される。図13は投
影面60に対するテクスチャ画像テーブル84の全体構
造であり、三次元的なテーブル構造をもつことが分か
る。このテクスチャ画像テーブル84は、投影面60に
対する対応関係が設定される前の状態にあっては、正規
化された二次元座標(S,T)をもっており、投影面6
0が図示のように設定されると、投影面60の座標位置
(X,Y,Z)に対応した座標値(S,T,PZ)に初
期化される。
That is, the α value of the projection plane position in which the object color data 86 and the distance 88 to the object surface are stored is set to 1, and other unregistered pixels are set to 0. As the distance 88 to the object surface, as shown in FIG. 9, a distance d calculated when the polygon 74 on the object surface is projected on the projection plane 60 is stored. FIG. 13 shows the entire structure of the texture image table 84 with respect to the projection plane 60, and has a three-dimensional table structure. The texture image table 84 has the normalized two-dimensional coordinates (S, T) before the correspondence with the projection plane 60 is set, and
When 0 is set as shown in the figure, the coordinates are initialized to coordinate values (S, T, PZ) corresponding to the coordinate positions (X, Y, Z) on the projection plane 60.

【0050】再び図11を参照するに、投影面60に対
する対象物体70の表面のポリゴン74の投影ポリゴン
76は、投影頂点PP1,PP2,PP3のそれぞれが
テクスチャ画像テーブル84の対応する座標位置(S,
T)に対し、頂点テクスチャ画素90−1,90−2,
90−3として反映される。例えば投影ポリゴン76の
頂点座標が図10の頂点座標80の値であったとする
と、テクスチャ画像テーブル84に格納された場合、頂
点テクスチャ画素90−1〜90−3の座標は(Si,
Ti,PZi)となる。但しiは1,2,3の頂点番号
である。
Referring again to FIG. 11, the projection polygon 76 of the polygon 74 on the surface of the target object 70 with respect to the projection plane 60 has the projection vertices PP1, PP2, and PP3 at the corresponding coordinate positions (S ,
T), the vertex texture pixels 90-1, 90-2,
90-3. For example, assuming that the vertex coordinates of the projection polygon 76 are the values of the vertex coordinates 80 in FIG. 10, when stored in the texture image table 84, the coordinates of the vertex texture pixels 90-1 to 90-3 are (Si,
Ti, PZi). Here, i is the vertex number of 1, 2, and 3.

【0051】そして各頂点テクスチャ画素90−1〜9
0−3に対応したテクスチャ画像テーブル84の図12
における物体色データ86の領域には、投影ポリゴン7
6の各頂点PP1〜PP3の色データ、即ち物体表面を
構成するポリゴン74の頂点P1〜P3と同じ色データ
がR,G,B成分値として格納され、このテクスチャ画
素は有効になったことから、α値を0から1にセットす
る。更に物体表面までの距離d1として、それぞれのポ
リゴン頂点と投影頂点間の距離が算出されて格納され
る。
Then, each vertex texture pixel 90-1 to 90-9
FIG. 12 of the texture image table 84 corresponding to 0-3
In the area of the object color data 86 in the projection polygon 7
6, the same color data as the vertices P1 to P3 of the polygon 74 constituting the surface of the object is stored as R, G, B component values, and the texture pixel becomes effective. , Α value are set from 0 to 1. Further, the distance between each polygon vertex and the projection vertex is calculated and stored as the distance d1 to the object surface.

【0052】図11のようにテクスチャ画像テーブル8
4に投影ポリゴン76の投影頂点に基づく頂点テクスチ
ャ画素90−1〜90−3の格納が済むと、破線で囲ま
れる投影ポリゴン76に含まれる画素領域について、図
14のように補間処理により補間テクスチャ画素92を
生成する。具体的には、頂点テクスチャ画素90−1,
90−2,90−3を結んだ直線の間に位置する画素に
ついて、直線両端の頂点テクスチャ画素のR,G,B値
のそれぞれについて直線補間を行って、各画素を求め
る。続いて頂点テクスチャ画素90−1〜90−3を順
次結んだ三角形の直線上の補間画素について、例えば水
平方向に位置する両側の画素のR,G,B値から間に位
置する画素の色データを直線補間により求める。
As shown in FIG. 11, the texture image table 8
When the storage of the vertex texture pixels 90-1 to 90-3 based on the projection vertices of the projection polygon 76 in FIG. 4 is completed, the interpolation texture of the pixel region included in the projection polygon 76 surrounded by the broken line is interpolated as shown in FIG. A pixel 92 is generated. Specifically, the vertex texture pixels 90-1, 90-1
For pixels located between the straight lines connecting 90-2 and 90-3, linear interpolation is performed on each of the R, G, and B values of the vertex texture pixels at both ends of the straight line to obtain each pixel. Subsequently, with respect to interpolation pixels on a triangular straight line sequentially connecting vertex texture pixels 90-1 to 90-3, for example, color data of pixels located between the R, G, and B values of pixels on both sides located in the horizontal direction Is obtained by linear interpolation.

【0053】また物体表面までの距離88を示すd1に
ついては、物体表面に対するテクスチャ画像のマッピン
グがポリゴンを最小単位として行われることから、補間
画素についてはd1を求める必要はない。もちろん、必
要に応じて補間画素についての物体表面までの距離d1
を求めて格納するようにしてもよい。図15は対象物体
70に対し、図8に示した八角柱投影体64による投影
面60−21〜60−28を設定した場合の説明図であ
り、このように対象物体70の周囲に8つの投影面60
−21〜60−28を設定してテクスチャ画像テーブル
を作成すると、図16(A)〜(H)に示すような対象
物体70をその周囲の8方向から見て、投影により得ら
れたテクスチャ画像94−1〜94−8を作成すること
ができる。
For d1 indicating the distance 88 to the surface of the object, since the mapping of the texture image to the surface of the object is performed using a polygon as a minimum unit, it is not necessary to determine d1 for the interpolation pixel. Of course, if necessary, the distance d1 to the object surface for the interpolation pixel
May be obtained and stored. FIG. 15 is an explanatory diagram in the case where the projection planes 60-21 to 60-28 by the octagonal prism projection body 64 shown in FIG. 8 are set for the target object 70. Projection surface 60
When the texture image table is created by setting -21 to 60-28, the target object 70 as shown in FIGS. 16A to 16H is viewed from eight directions around the target object 70, and the texture image obtained by projection is obtained. 94-1 to 94-8 can be created.

【0054】即ち、図16(A)のテクスチャ画像90
−1は図15の投影面60−21の設定で作成され、以
下図16(B)〜(H)は図15で左回りの順番となる
投影面60−22〜60−28の設定で得られたもので
ある。この図16(A)〜(H)の8つのテクスチャ画
像94−1〜94−8から明らかなように、図15の対
象物体70を上下を除く周囲から見た場合に見ることの
できる物体表面の全ての模様と色が8つのテクスチャ画
像94−1〜84−8の中に生成されており、且つ物体
上のある位置の物体構成面のピクセルは、対応する投影
ピクセルのテクスチャが複数のテクスチャ画像の中に存
在する関係にある。
That is, the texture image 90 shown in FIG.
-1 is created by setting the projection plane 60-21 in FIG. 15, and FIGS. 16B to 16H are obtained by setting the projection planes 60-22 to 60-28 in the counterclockwise order in FIG. It was done. As is clear from the eight texture images 94-1 to 94-8 in FIGS. 16A to 16H, the object surface that can be seen when the target object 70 in FIG. Are generated in the eight texture images 94-1 to 84-8, and the pixel of the object constituent surface at a certain position on the object has the texture of the corresponding projected pixel having a plurality of textures. The relationship exists in the image.

【0055】この図16(A)〜(H)のような複数の
投影面の設定により作成したテクスチャ画像94−1〜
94−8が、図4のテクスチャ画像データファイル36
にテクスチャ画像テーブル単位に格納されている。図1
7は図4のテクスチャ関連情報生成部38による三次元
形状データに対するテクスチャ関連情報の生成処理の説
明図である。図4の実施形態にあっては、三次元形状測
定装置22から入力した三次元画像データファイル30
について、三次元形状データ低減処理部40により三次
元形状データを取り出し、この三次元形状データを対象
にデータ量を低減する処理を行っている。
The texture images 94-1 to 94-1 created by setting a plurality of projection planes as shown in FIGS.
94-8 is the texture image data file 36 shown in FIG.
Are stored for each texture image table. FIG.
FIG. 7 is an explanatory diagram of a process of generating texture-related information for three-dimensional shape data by the texture-related information generation unit 38 in FIG. In the embodiment shown in FIG. 4, the three-dimensional image data file 30 input from the three-dimensional shape measuring device 22 is used.
With respect to (3), the three-dimensional shape data reduction processing unit 40 extracts the three-dimensional shape data, and performs a process of reducing the data amount for the three-dimensional shape data.

【0056】即ち、三次元形状測定装置22から得られ
た三次元形状データは、例えば数十万面という多数のポ
リゴン集合体であり、このままCG処理部45による座
標計算を行った場合には処理負担が多すぎることから、
データ量を低減する。この形状データ低減処理にあって
は、三次元画像データファイル30から得られた元の三
次元形状データを構成するポリゴン集合体について、所
定数Kごとにまとめて大きな1つのポリゴンを形成する
ことで低減する。
That is, the three-dimensional shape data obtained from the three-dimensional shape measuring device 22 is a large number of polygon aggregates of, for example, hundreds of thousands of faces. Because the burden is too much,
Reduce data volume. In this shape data reduction processing, a large polygon is formed by grouping a set of polygons constituting the original three-dimensional shape data obtained from the three-dimensional image data file 30 into a predetermined number K. Reduce.

【0057】例えばK=5に設定することで大きなポリ
ゴンにまとめると、最初数十万面あったポリゴンは十数
万面と5分の1に低減できる。データ低減のためにまと
めるポリゴン数Kは、CG処理部45における座標変換
性能に応じて適宜に定めてよいが、Kをあまり大きくす
ると再構成した場合の形状が滑らかでなくなることか
ら、再構成形状の滑らかさを損なわない範囲でKの値を
設定すればよい。
For example, when K is set to 5 and the polygons are grouped into a large polygon, the polygon which was initially several hundred thousand faces can be reduced to one-hundred thousand faces and one fifth. The number K of polygons to be combined for data reduction may be appropriately determined according to the coordinate conversion performance of the CG processing unit 45. However, if K is too large, the shape of the reconstructed image will not be smooth. The value of K may be set within a range that does not impair the smoothness of.

【0058】このようにしてデータ量が低減された三次
元形状データは、三次元形状データファイル42に格納
される。テクスチャ関連情報生成部38にあっては、デ
ータ量の低減が行われた三次元形状データファイル42
の三次元形状データを対象に、図17のように、三次元
形状データで表現された物体表面を構成するポリゴン単
位にテクスチャ関連情報を生成して付加する。
The three-dimensional shape data whose data amount has been reduced in this way is stored in the three-dimensional shape data file 42. In the texture-related information generation unit 38, the three-dimensional shape data file 42 whose data amount has been reduced
17, texture-related information is generated and added in units of polygons constituting the object surface represented by the three-dimensional shape data, as shown in FIG.

【0059】図17はデータ量が低減された三次元形状
データで再構成された再現物体形状100の一部を取り
出しており、物体表面のポリゴン102に注目すると、
例えば投影面60−1,60−2,60−3のそれぞれ
に対応する投影ポリゴン104−1,104−2,10
4−3が存在している。まずポリゴン102の投影ポリ
ゴン104−1〜104−3が存在する投影面60−
1,60−2,60−3の判別は次のようにして行う。
FIG. 17 shows a part of the reproduced object shape 100 reconstructed with the three-dimensional shape data whose data amount has been reduced. Focusing on the polygon 102 on the object surface,
For example, projection polygons 104-1, 104-2, and 10 corresponding to projection planes 60-1, 60-2, and 60-3, respectively.
4-3 exists. First, a projection plane 60- on which projection polygons 104-1 to 104-3 of the polygon 102 exist.
The determination of 1, 60-2 and 60-3 is performed as follows.

【0060】まず再現物体形状100の周囲に設定され
ている投影面60−1〜60−3を含む複数の投影面の
それぞれについて、ポリゴン102の投影ポリゴンが存
在するか否か判別する。これによって図17のように、
投影ポリゴン104−1〜104−3をもつ投影面60
−1〜60−3の3つが選択される。次に投影面60−
1〜60−3の各投影ポリゴン104−1〜104−3
について、ポリゴン102の投影が再現物体形状100
における他のポリゴンに隠されずに投影されていること
を判別する。このポリゴン102が他のポリゴンに隠さ
れているか否かの判定は、ポリゴン102と各投影ポリ
ゴン104−1〜104−3の実際の距離d1,d2,
d3を求め、投影ポリゴン104−1〜104−3のそ
れぞれに対応する図13に示したテクスチャ画像テーブ
ル84の物体表面までの距離88の領域に格納されてい
るd値と比較する。
First, it is determined whether or not a projection polygon of the polygon 102 exists for each of a plurality of projection planes including the projection planes 60-1 to 60-3 set around the reproduction object shape 100. As a result, as shown in FIG.
Projection surface 60 having projection polygons 104-1 to 104-3
Three of -1 to 60-3 are selected. Next, the projection plane 60-
Projection polygons 104-1 to 104-3 of 1 to 60-3
, The projection of the polygon 102 is the reproduction object shape 100
Is projected without being hidden by the other polygons in. It is determined whether or not the polygon 102 is hidden by another polygon by determining the actual distances d1, d2 between the polygon 102 and the projection polygons 104-1 to 104-3.
d3 is obtained and compared with the d value stored in the area of the distance 88 to the object surface in the texture image table 84 shown in FIG. 13 corresponding to each of the projection polygons 104-1 to 104-3.

【0061】実際にはポリゴン102と投影ポリゴン1
04−1〜104−3における3つの対応する頂点間の
距離の判定となる。例えばポリゴン102と投影ポリゴ
ン104−1を例にとると、ポリゴン102が再現物体
形状100の他のポリゴンにより隠されていたとする
と、投影面60−1の投影ポリゴン104−1はポリゴ
ン102を隠している他のポリゴンの投影ポリゴンであ
り、対応するテクスチャ画像メモリに格納されている物
体表面までの距離を表わすdの値は実際の距離d1とは
異なっている。
Actually, the polygon 102 and the projection polygon 1
This is the determination of the distance between three corresponding vertices in 04-1 to 104-3. For example, taking the polygon 102 and the projection polygon 104-1 as an example, if the polygon 102 is hidden by another polygon of the reproduction object shape 100, the projection polygon 104-1 on the projection plane 60-1 hides the polygon 102. The value of d representing the distance to the object surface stored in the corresponding texture image memory is different from the actual distance d1.

【0062】これに対しポリゴン102を妨げる他のポ
リゴンがなければ、投影ポリゴン104−1に対応して
テクスチャ画像テーブル84に格納している物体表面ま
での距離を示すd値は実際の算出距離d1に等しい。し
たがって投影ポリゴン104−1に対応するテクスチャ
画像テーブル84の物体表面までの距離dの格納値と実
際の算出距離d1が等しければ、ポリゴン102が他の
ポリゴンにより隠されずに投影されている投影ポリゴン
104−1をもつ適切な投影面であることが判定でき
る。
On the other hand, if there is no other polygon obstructing the polygon 102, the d value indicating the distance to the object surface stored in the texture image table 84 corresponding to the projection polygon 104-1 is the actual calculated distance d1. be equivalent to. Therefore, if the stored value of the distance d to the object surface of the texture image table 84 corresponding to the projection polygon 104-1 is equal to the actual calculated distance d1, the projection polygon 104 on which the polygon 102 is projected without being hidden by other polygons It can be determined that the projection plane is an appropriate projection plane having −1.

【0063】具体的にはポリゴン102と投影ポリゴン
104−1の3つの頂点間の距離の比較となり、3つの
頂点間の実際の距離及びテクスチャ画像テーブル84に
格納された距離d値は若干の相違をもつことから、距離
の違いが予め定めた誤差範囲にある時には同一距離と見
做し、ポリゴン102が隠されずに投影されている適正
な投影面であると判断する。
More specifically, the distance between the three vertices of the polygon 102 and the projection polygon 104-1 is compared, and the actual distance between the three vertices and the distance d stored in the texture image table 84 are slightly different. Therefore, when the difference in the distance is within a predetermined error range, the distance is regarded as the same distance, and it is determined that the polygon 102 is an appropriate projection plane on which the polygon 102 is projected without being hidden.

【0064】図17にあっては、投影面60−1〜60
−3のいずれも、ポリゴン102が他のポリゴンにより
隠されずに正しく投影された投影ポリゴン104−1〜
104−3をもつ投影面であることが判定される。図1
7のようにしてポリゴン102が正しく投影された投影
面60−1〜60−3が選択できたならば、その中から
最適な1つの投影面の投影ポリゴンを選択する。この最
適な投影面の選択は、再現物体形状100のポリゴン1
02の法線ベクトル106と投影ポリゴン104−1〜
104−3が存在する投影面60−1〜60−3の法線
ベクトル108−1,108−2,108−3を用いて
行う。
In FIG. 17, the projection planes 60-1 to 60-1
-3, the projection polygons 104-1 to 104-1 which are correctly projected without the polygon 102 being hidden by other polygons.
It is determined that the projection plane has 104-3. FIG.
If the projection planes 60-1 to 60-3 on which the polygon 102 is correctly projected can be selected as shown in 7, the projection polygon of one optimal projection plane is selected from among them. The selection of this optimum projection plane is based on the polygon 1 of the reproduction object shape 100.
02 normal vector 106 and projected polygons 104-1 to 104-1
This is performed using the normal vectors 108-1, 108-2, and 108-3 of the projection planes 60-1 to 60-3 in which 104-3 exists.

【0065】この物体側のポリゴン102の法線ベクト
ル106と投影面60−1〜60−3の法線ベクトル1
08−1〜108−3の比較は、物体側の法線ベクトル
108−1〜108−3の延長線の交差角が最も大きく
なる投影面を最適投影面として選択する。図18は図1
7の物体側のポリゴン102と投影面60−2,60−
3の投影ポリゴン104−2,104−3について、そ
れぞれの法線ベクトル106,108−2,108−3
の関係を取り出している。物体側のポリゴン102の法
線ベクトル106に対する投影ポリゴン104−2の法
線ベクトル108−2の延長線の交差角はθI2となる。
また、物体側のポリゴン102の法線ベクトル106と
投影ポリゴン104−3の法線ベクトル108−3の延
長線の交差角はθI3となる。
The normal vector 106 of the object-side polygon 102 and the normal vector 1 of the projection planes 60-1 to 60-3
In comparison of 08-1 to 108-3, the projection plane in which the intersection angle of the extension of the normal vector 108-1 to 108-3 on the object side becomes the largest is selected as the optimal projection plane. FIG. 18 shows FIG.
7 and the projection planes 60-2, 60-
3 projection polygons 104-2 and 104-3, the respective normal vectors 106, 108-2 and 108-3
The relationship has been taken out. The intersection angle of the extension of the normal vector 108-2 of the projection polygon 104-2 with respect to the normal vector 106 of the object-side polygon 102 is θ I2 .
The intersection angle between the normal vector 106 of the object-side polygon 102 and the extension of the normal vector 108-3 of the projection polygon 104-3 is θ I3 .

【0066】この2つの交差角θI2とθI3の内、投影ポ
リゴン104−3側の交差角θI3の方が大きい。即ち、
物体側のベクトル102に対し投影ポリゴン104−3
の投影面の方が平行に近い関係にある。平行に近い関係
にあるということは、物体側のポリゴン102の正投影
による投影ポリゴン104−3に含まれるテクスチャ画
素データの方が平行関係が小さい投影ポリゴン104−
2に含まれるテクスチャ画素データより多いことを意味
し、平行に近い投影ポリゴン104−3の方がポリゴン
102に対応した物体表面の色データであるテクスチャ
画像のデータ量が多いことになる。
Of these two intersection angles θ I2 and θ I3 , the intersection angle θ I3 on the side of the projection polygon 104-3 is larger. That is,
For the object side vector 102, the projection polygon 104-3
Are closer to being parallel to each other. The close parallel relationship means that the texture pixel data included in the orthogonally projected projection polygon 104-3 of the object-side polygon 102 has a smaller parallel relationship with the projection polygon 104-.
This means that the projection polygon 104-3, which is close to parallel, has a larger amount of texture image data, which is the color data of the object surface corresponding to the polygon 102, than the texture pixel data included in the polygon 2.

【0067】即ち、物体側のポリゴン102に対し最も
平行に近い投影面を最適投影面として選択する。図17
の場合にあっては、図18のように物体側のポリゴン1
02の法線ベクトル106と投影面60−3の法線ベク
トル108−3の交差角が最大となることから、投影面
60−3が最適投影面として選択される。このような最
適投影面60−3の選択によって、再現物体形状100
のポリゴン102の頂点データに対し、最適投影面60
−3の投影ポリゴン104−3の投影頂点の座標データ
がテクスチャ関連情報として付加される。
That is, the projection plane closest to the object side polygon 102 is selected as the optimum projection plane. FIG.
In the case of, the polygon 1 on the object side as shown in FIG.
Since the intersection angle between the normal vector 106 of No. 02 and the normal vector 108-3 of the projection plane 60-3 is maximized, the projection plane 60-3 is selected as the optimal projection plane. By selecting such an optimal projection plane 60-3, the reproduction object shape 100
For the vertex data of the polygon 102 of the
The coordinate data of the projection vertex of the projection polygon 104-3 is added as texture-related information.

【0068】図19は図17及び図18に基づいて生成
されたテクスチャ関連情報付の三次元形状データ38で
あり、テクスチャ関連情報付ポリゴンデータP1i,P
2i,P3i,P4i,・・・で構成される。テクスチ
ャ関連情報付ポリゴンデータは、先頭のP1iについて
右側に取り出して示すように、三次元形状データにおけ
るポリゴン頂点番号P1,P2,P3に対応した頂点座
標52のX,Y,Z値に対し、テクスチャ関連情報11
0として図17のように選択された最適投影面における
投影ポリゴンの頂点座標であるS,T,PZ値が付加さ
れる。
FIG. 19 shows three-dimensional shape data 38 with texture-related information generated based on FIGS. 17 and 18. Polygon data P1i, P1 with texture-related information.
2i, P3i, P4i,... The polygon data with texture-related information is obtained by extracting the X, Y, and Z values of the vertex coordinates 52 corresponding to the polygon vertex numbers P1, P2, and P3 in the three-dimensional shape data, as shown on the right side of the leading P1i. Related information 11
As S, T, and PZ values, which are the coordinates of the vertexes of the projection polygon on the optimal projection plane selected as shown in FIG.

【0069】このようにして作成されたテクスチャ関連
情報付三次元形状データは、図4のようにテクスチャ関
連情報付三次元形状データファイル44に格納される。
テクスチャ関連情報付三次元形状データファイル44が
作成できれば、それ以降の処理はCG処理部45による
通常のテクスチャマッピングによる物体表示となる。即
ち、二次元形状データ生成部46によってテクスチャ関
連情報付三次元形状データファイル44の形状データで
表現される再現物体形状に対し、CRT20に表示しよ
うとする任意の方向から見た二次元形状データを生成す
る。もちろん、二次元形状データにはテクスチャ関連情
報が付加されている。テクスチャ関連情報付の二次元形
状データは、テクスチャマッピング処理部48に提供さ
れる。
The three-dimensional shape data with texture related information created in this way is stored in the three-dimensional shape data file with texture related information 44 as shown in FIG.
If the three-dimensional shape data file 44 with the texture-related information can be created, the subsequent processing is an object display by the normal texture mapping by the CG processing unit 45. That is, for the reproduced object shape represented by the shape data of the three-dimensional shape data file with texture-related information 44 by the two-dimensional shape data generation unit 46, the two-dimensional shape data viewed from an arbitrary direction to be displayed on the CRT 20 is obtained. Generate. Of course, texture-related information is added to the two-dimensional shape data. The two-dimensional shape data with the texture-related information is provided to the texture mapping processing unit 48.

【0070】このとき、図2に示したワークメモリとし
て機能するRAM14上には、テクスチャ画像データフ
ァイル36に格納されている既に作成された投影面の数
n分のテクスチャ画像テーブル50−1〜50−nが読
み出されて展開されている。このためテクスチャマッピ
ング処理部48は、二次元形状データのポリゴン単位に
そのテクスチャ関連情報を参照し、テクスチャ関連情報
により対応するテクスチャ画像テーブル50−1〜50
−nのいずれか1つから投影ポリゴンに対応する領域の
テクスチャ画素データ群を読み出し、テクスチャ画像テ
ーブルの二次元座標(S,T)から二次元形状データの
座標(X,Y)への座標変換によりテクスチャマッピン
グを行い、フレームメモリ18に展開する。
At this time, in the RAM 14 functioning as the work memory shown in FIG. 2, the texture image tables 50-1 to 50 corresponding to the number n of the already created projection planes stored in the texture image data file 36 are stored. −n is read and expanded. For this reason, the texture mapping processing unit 48 refers to the texture-related information for each polygon unit of the two-dimensional shape data, and uses the texture-related information to correspond to the corresponding texture image tables 50-1 to 50-50.
The texture pixel data group of the area corresponding to the projection polygon is read from any one of -n and the coordinate conversion from the two-dimensional coordinates (S, T) of the texture image table to the coordinates (X, Y) of the two-dimensional shape data Is performed, and the texture mapping is performed on the frame memory 18.

【0071】このようなテクスチャマッピングが二次元
形状データの全ポリゴンについて終了すると、フレーム
メモリ18上にテクスチャマッピングが済んだ元の物体
とほぼ同様な色及び模様をもった二次元画像データが得
られ、CRT20上に再現物体を高品質で表示すること
ができる。図20及び図21は、図4に示した三次元画
像データの入力から多重マッピングによる物体画像表示
までの一連の多重テクスチャマッピング処理のフローチ
ャートである。まずステップS1で、三次元形状測定装
置22で生成したポリゴンデータPiの集合体でなる三
次元画像データを三次元画像データファイル30から読
み込み、ステップS2で、例えば図15のように対象物
体70に対し八角柱投影体による投影面60−21〜6
0−28の設定を行う。
When such texture mapping is completed for all the polygons of the two-dimensional shape data, two-dimensional image data having substantially the same color and pattern as the original object after the texture mapping is obtained on the frame memory 18. , The reproduction object can be displayed on the CRT 20 with high quality. 20 and 21 are flowcharts of a series of multiple texture mapping processes from input of the three-dimensional image data shown in FIG. 4 to display of an object image by multiple mapping. First, in step S1, three-dimensional image data, which is an aggregate of polygon data Pi generated by the three-dimensional shape measuring device 22, is read from the three-dimensional image data file 30. In step S2, for example, as shown in FIG. On the other hand, projection surfaces 60-21 to 6 by an octagonal prism projection body
The setting of 0-28 is performed.

【0072】続いてステップS3で、投影面の数を示す
投影面カウンタJ及び対象物体のポリゴンの数を示すポ
リゴンカウンタIをそれぞれ1にセットし、投影面カウ
ンタJとポリゴンカウンタIに基づいてステップS4〜
S7で投影処理とテクスチャ画像データの生成を行う。
即ちステップS4で、現在処理中のポリゴンの頂点情報
を投影カウンタJで指定される投影面に投影して、投影
ポリゴンの頂点Piのデータを生成する。
Subsequently, in step S3, a projection plane counter J indicating the number of projection planes and a polygon counter I indicating the number of polygons of the target object are each set to 1, and a step is performed based on the projection plane counter J and the polygon counter I. S4 ~
In S7, projection processing and generation of texture image data are performed.
That is, in step S4, the vertex information of the polygon currently being processed is projected onto the projection surface specified by the projection counter J, and data of the vertex Pi of the projection polygon is generated.

【0073】続いてステップS3で、投影頂点Piから
テクスチャ頂点画素に必要なデータ即ちST座標位置、
色データを作成し、テクスチャ画像テーブルに格納す
る。続いてステップS6で、テクスチャ頂点座標Piで
囲まれた領域のテクスチャ画素即ち色データを補間によ
り生成し、テクスチャ画像テーブルに格納する。更にス
テップS7で投影面から物体面までの距離dを各頂点ご
とに算出してテクスチャ画像テーブルに格納する。
Subsequently, in step S3, data necessary for the texture vertex pixel from the projection vertex Pi, that is, the ST coordinate position,
Create color data and store it in the texture image table. Subsequently, in step S6, texture pixels, that is, color data of an area surrounded by the texture vertex coordinates Pi are generated by interpolation and stored in the texture image table. Further, in step S7, the distance d from the projection plane to the object plane is calculated for each vertex and stored in the texture image table.

【0074】続いてステップS8で最終ポリゴンか否か
チェックし、最終ポリゴンでなければステップS9でポ
リゴンカウンタIを1つインクリメントし、ステップS
4からの処理を繰り返す。最終ポリゴンであればステッ
プS10に進み、最終投影面か否かチェックし、最終投
影面でなければ、ステップS11でポリゴンカウンタI
をI=1に初期設定した後、ステップS12で投影面カ
ウンタJを1つインクリメントし、再びステップS4か
らの処理を新たな投影面について繰り返す。
Subsequently, it is checked in step S8 whether or not the polygon is the last polygon. If not, the polygon counter I is incremented by one in step S9.
The processing from step 4 is repeated. If it is the last polygon, the process proceeds to step S10, where it is checked whether it is the last projection surface. If it is not the last projection surface, the polygon counter I is determined in step S11.
Is initially set to I = 1, the projection plane counter J is incremented by one in step S12, and the processing from step S4 is repeated again for a new projection plane.

【0075】ステップS10で最終投影面であることが
判別されると、図21のステップS13以降の処理に進
む。ステップS13にあっては、テクスチャ画像テーブ
ルの作成に平行して行われている図4の三次元形状デー
タ低減処理部40で生成された三次元形状データファイ
ル42から低減済みの三次元形状データを読み込み、ス
テップS14で投影面カウンタJとポリゴンカウンタI
をそれぞれ1に初期設定した後、ステップS15〜S2
4のテクスチャ関連情報生成処理を行う。
If it is determined in step S10 that the projection plane is the final projection plane, the process proceeds to step S13 and subsequent steps in FIG. In step S13, the reduced three-dimensional shape data is obtained from the three-dimensional shape data file 42 generated by the three-dimensional shape data reduction processing unit 40 of FIG. 4 performed in parallel with the creation of the texture image table. In step S14, the projection plane counter J and polygon counter I are read.
Are initially set to 1 respectively, and then steps S15 to S2
4 is performed.

【0076】このテクスチャ関連情報生成処理は、まず
ステップS15で投影面カウンタJで指定された投影面
を読み込み、ステップS16でポリゴンカウンタIで指
定されたポリゴン構成面の投影の有無をチェックする。
投影があれば、ステップS17でポリゴン構成面が他の
ポリゴン構成面により隠されずに投影されているか否か
チェックする。
In this texture-related information generation processing, first, in step S15, the projection plane designated by the projection plane counter J is read, and in step S16, the presence or absence of projection of the polygon constituent plane designated by the polygon counter I is checked.
If there is projection, it is checked in step S17 whether or not the polygon constituent surface is projected without being hidden by other polygon constituent surfaces.

【0077】このポリゴン構成面が他のポリゴン構成面
に隠されているか否かのチェックは、物体ポリゴンと投
影ポリゴンの実際の距離を構成面の投影ポリゴンに対応
するテクスチャ画像データの格納距離dと比較し、所定
の誤差範囲で一致していれば、他の構成面により隠され
ずに投影されている適切な投影面であると判定する。続
いてステップS18で、ポリゴン物体面とポリゴン投影
面の法線ベクトルの交差間θIJを算出し、ステップS1
9で、既に算出されている他の投影面における交差角θ
IJと比較し、今回算出した値が最大か否かチェックす
る。
Whether or not this polygon constituent surface is hidden by another polygon constituent surface is determined by determining the actual distance between the object polygon and the projection polygon by the storage distance d of the texture image data corresponding to the projection polygon of the constituent surface. In comparison, if they match within a predetermined error range, it is determined that the projection plane is an appropriate projection plane that is not hidden by other constituent surfaces and is projected. Then, in step S18, the intersection θ IJ between the intersection of the normal vector of the polygon object surface and the polygon projection surface is calculated, and in step S1
9, the already calculated intersection angle θ on another projection plane
Compare with IJ and check if the value calculated this time is the maximum.

【0078】今回の方が前回までの交差角より大きけれ
ば、ステップS20で最適投影面を現在の投影面カウン
タJで指定される投影面に更新する。続いてステップS
21で最終投影面か否かチェックし、最終投影面でなけ
れば、ステップS22で投影面カウンタJを1つインク
リメントし、ステップS15からの処理を繰り返す。こ
のステップS15〜S21の処理により、現在処理中の
ポリゴンに対する最適な投影面の1つが最適投影面とし
て選択される。
If this time is larger than the previous intersection angle, the optimum projection plane is updated to the projection plane specified by the current projection plane counter J in step S20. Then step S
It is checked at 21 whether or not the projection plane is the final projection plane. If it is not the final projection plane, the projection plane counter J is incremented by one at step S22, and the processing from step S15 is repeated. Through the processing in steps S15 to S21, one of the optimal projection planes for the polygon currently being processed is selected as the optimal projection plane.

【0079】続いてステップS23で、ポリゴンPiと
選択された最適投影面のテクスチャ画像テーブル上の投
影ポリゴンとの対応関係を示す関連情報、具体的にはポ
リゴン頂点座標に対応するテクスチャ画像テーブルの投
影ポリゴンのST座標を関連情報として付加する。続い
てステップS24で最終ポリゴンか否かチェックし、最
終ポリゴンでなければ、ステップS25でポリゴンカウ
ンタIをインクリメントした後、ステップS26で投影
面カウンタJをJ=1に初期化し、次のポリゴンについ
てステップS16からのテクスチャ関連情報の生成を繰
り返す。
Subsequently, in step S23, related information indicating the correspondence between the polygon Pi and the projection polygon on the texture image table of the selected optimum projection plane, specifically, the projection of the texture image table corresponding to the polygon vertex coordinates. The ST coordinates of the polygon are added as related information. Subsequently, in step S24, it is checked whether or not the polygon is the final polygon. If the polygon is not the final polygon, the polygon counter I is incremented in step S25. Then, in step S26, the projection plane counter J is initialized to J = 1. The generation of the texture-related information from S16 is repeated.

【0080】ステップS24でテクスチャ関連情報の生
成が全ポリゴンについて終了して最終ポリゴンであるこ
とが判別されると、ステップS27に進み、そのとき設
定されているテクスチャ関連情報付の三次元形状データ
で表現された再現物体を任意の方向から見た二次元画像
データを生成する。そして画像データに付加されている
テクスチャ関連情報に基づいた複数のテクスチャ画像テ
ーブルの参照による多重マッピングにより、二次元画像
データの各ポリゴンに対しテクスチャマッピングをフレ
ームメモリ18上で行い、ステップS28で、マッピン
グが済んだ二次元データをCRT20に出力表示する。
If the generation of the texture-related information has been completed for all the polygons in step S24 and it is determined that the polygon is the final polygon, the process proceeds to step S27, where the three-dimensional shape data with the texture-related information set at that time is used. Two-dimensional image data is generated by viewing the represented reproduction object from an arbitrary direction. Then, texture mapping is performed on each polygon of the two-dimensional image data on the frame memory 18 by multiple mapping by referring to a plurality of texture image tables based on the texture-related information added to the image data. The completed two-dimensional data is output and displayed on the CRT 20.

【0081】図21のステップS1〜S24による複数
の投影面の設定によるテクスチャ画像データに基づく三
次元形状データへのテクスチャ関連情報を付加した処理
が済み、図4におけるテクスチャ関連情報付三次元形状
データファイル44が作成できれば、それ以降はCG処
理部45による再現物体を任意の方向から見た二次元画
像の多重マッピングによる通常のコンピュータグラフィ
ックスによる表示処理のみとなる。
The processing of adding the texture-related information to the three-dimensional shape data based on the texture image data by setting a plurality of projection planes in steps S1 to S24 in FIG. 21 is completed, and the three-dimensional shape data with texture-related information in FIG. If the file 44 can be created, thereafter, only display processing by ordinary computer graphics based on multiple mapping of a two-dimensional image of the reproduced object viewed from an arbitrary direction by the CG processing unit 45 will be performed.

【0082】このことから本発明の多重マッピング処理
のためのシステム構成としては、図4の三次元形状測定
装置22からテクスチャ関連情報付三次元形状データフ
ァイル44を作成するまでの処理と、それ以降のCG処
理部45による処理を物理的に切り離すことができる。
前半のテクスチャ関連情報付三次元形状データファイル
44を作成するまでの処理は、例えばソフトハウスなど
のメーカーサイドで扱い、メーカーサイドで作成できた
テクスチャ画像データファイル36及びテクスチャ関連
情報付三次元形状データファイル44をCD−ROM磁
気テープ、フロッピディスクなどの記憶媒体あるいはイ
ンターネットなどの通信回線を通じてユーザに提供する
ことで、ユーザはCG処理部45の機能を備えるだけで
本発明の多重マッピングによる画像表示が実現できる。
From this, the system configuration for the multiple mapping processing of the present invention includes the processing from creation of the three-dimensional shape data file 44 with texture-related information by the three-dimensional shape measuring device 22 in FIG. Of the CG processing unit 45 can be physically separated.
The processing up to the creation of the first half of the three-dimensional shape data file 44 with texture-related information is handled by the maker such as a soft house, and the texture image data file 36 and the three-dimensional shape data with texture-related information that can be created by the maker By providing the file 44 to the user through a storage medium such as a CD-ROM magnetic tape or a floppy disk or a communication line such as the Internet, the user can provide an image display by the multiple mapping of the present invention only by providing the function of the CG processing unit 45 realizable.

【0083】また本発明の実施形態にあっては、CG処
理部45におけるテクスチャマッピングの際の座標計算
の負荷を低減するため、データ量が低減された三次元形
状データを対象にテクスチャ関連情報生成部38でテク
スチャ関連情報付の三次元データを生成しているが、C
G処理部45として処理能力が高い強力なグラフィック
スアクセラレータを提供できる場合には、三次元形状測
定装置22から直接得られた三次元画像データファイル
30の三次元形状データを対象にテクスチャ関連情報作
成部38でテクスチャ関連情報を付加するようにしても
よい。
Further, in the embodiment of the present invention, in order to reduce the load of coordinate calculation at the time of texture mapping in the CG processing unit 45, texture-related information generation is performed on three-dimensional shape data whose data amount is reduced. The unit 38 generates three-dimensional data with texture-related information.
In the case where a powerful graphics accelerator having a high processing capability can be provided as the G processing unit 45, texture-related information generation is performed on the three-dimensional shape data of the three-dimensional image data file 30 obtained directly from the three-dimensional shape measuring device 22. The unit 38 may add texture-related information.

【0084】図22は人類の化石標本を対象に、図6に
示した六角柱投影体56となる8つの投影面60−1〜
60−8の設定により作成された8つのテクスチャ画像
の例である。もちろん、実際のテクスチャ画像は化石標
本の色を表わすフルカラー表示となっている。この図2
2の8つのテクスチャ画像を対象にデータ量が低減され
た化石標本の三次元形状データに対するテクスチャ関連
情報の生成を行い、テクスチャ関連情報付三次元形状デ
ータについて任意の方向から見た二次元標本を設定して
多重マッピングを行うと、例えば図23に示す4種類の
方向から見た化石標本のコンピュータグラフィックスに
よる画像をCRT上に表示でき、実際の化石標本とほと
んど同じ複雑な形状に色がマッピングされた高品質の画
像を再現することができる。
FIG. 22 shows eight projection planes 60-1 to 60-1 serving as the hexagonal prism projection body 56 shown in FIG. 6 for a human fossil specimen.
It is an example of eight texture images created by the setting of 60-8. Of course, the actual texture image is a full-color display representing the color of the fossil specimen. This figure 2
The texture-related information is generated for the three-dimensional shape data of the fossil sample whose data amount has been reduced with respect to the eight texture images of No. 2 and the two-dimensional sample viewed from any direction with respect to the three-dimensional shape data with texture-related information When setting and performing multiple mapping, for example, computer graphics images of a fossil specimen viewed from four different directions shown in FIG. 23 can be displayed on a CRT, and colors are mapped to almost the same complex shape as an actual fossil specimen. The reproduced high quality image can be reproduced.

【0085】実際の標本表示にあっては、例えばCRT
画面上で化石標本を水平回りに回転しながらリアルタイ
ムで多重マッピングを行いながら、高品質なコンピュー
タグラフィックスによる再現画像が得られる。特に化石
標本にあっては、表面欠落や下部の穴などの複雑な形状
があるが、本発明の多重マッピングにあっては、その周
囲から見ることのできる表面はもちろんのこと、穴の中
の見える部分についても正確にテクスチャマッピングに
よる画像表現ができ、複雑な形状であっても表面の色デ
ータを失うことなくほぼ実物と同じ物体像をコンピュー
タグラフィックスにより再現できる。
In actual sample display, for example, CRT
While performing multiple mapping in real time while rotating the fossil specimen horizontally on the screen, a reproduced image by high quality computer graphics can be obtained. Especially in the case of fossil specimens, there are complex shapes such as surface dropouts and holes at the bottom, but in the multiple mapping of the present invention, not only the surface that can be seen from the surroundings, but also Even the visible part can be accurately expressed by texture mapping, and even if it has a complicated shape, an almost same real object image can be reproduced by computer graphics without losing surface color data.

【0086】尚、上記の実施形態は形状が複雑な人や猿
の化石標本などの自然造形物を例にとっているが、例え
ばカメラやビデオなどの複雑な形状をもつ工業製品など
についても全く同様に適用でき、製品開発の途中で作ら
れたモデルあるいは完成品を三次元形状測定装置により
測定して三次元画像データとして取り込むことにより、
本発明の多重マッピングによるコンピュータグラフィッ
クスによる画像再現が自由自在にできる。
[0086] Although the above-described embodiment exemplifies a natural shaped object such as a fossil specimen of a person or a monkey having a complicated shape, the same applies to an industrial product having a complicated shape such as a camera or a video. Applicable, by measuring the model or finished product made during the product development with a 3D shape measuring device and importing it as 3D image data,
An image can be freely reproduced by computer graphics by the multiple mapping of the present invention.

【0087】また、再現する物体像の品質は、用意する
投影面の数、位置、及びテクスチャ画像テーブルの大き
さを調整することにより必要に応じて適宜の表示品質を
容易に変更することができる。更に、本発明は上記の実
施形態に限定されず、本発明の目的及び趣旨を超えない
範囲で適宜の変形が可能である。また本発明は上記の実
施形態に示された数値による限定は受けない。
The quality of the reproduced object image can be easily changed as needed by adjusting the number and position of the prepared projection planes and the size of the texture image table. . Furthermore, the present invention is not limited to the above embodiments, and appropriate modifications can be made without departing from the purpose and spirit of the present invention. The present invention is not limited by the numerical values shown in the above embodiments.

【0088】[0088]

【発明の効果】以上説明してきたように本発明によれ
ば、三次元画像データで表現される物体の周囲に複数の
投影面を設定し、各投影面に物体の見える面を投影した
二次元投影画像からテクスチャ画像を生成するため、化
石標本などの複雑な形状、色、模様をもつ物体であって
も、見る方向によって情報の欠落を起こすことなく、物
体像をどの方向から見ても表面の色データの欠落なしに
多重的にテクスチャマッピングして正確に表現でき、実
物とほとんど変わらない高品質の物体画像をコンピュー
タグラフィックスにより再現することができる。
As described above, according to the present invention, a plurality of projection planes are set around an object represented by three-dimensional image data, and a two-dimensional image obtained by projecting a plane on which the object can be seen is projected on each projection plane. Because a texture image is generated from the projected image, even if the object has a complicated shape, color, or pattern, such as a fossil specimen, the surface of the object image can be viewed from any direction without any information loss depending on the viewing direction. Can be accurately expressed by multiple texture mapping without missing color data, and a high-quality object image that is almost the same as a real object can be reproduced by computer graphics.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理説明図FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明のハードウェア構成のブロック図FIG. 2 is a block diagram of a hardware configuration according to the present invention.

【図3】本発明の全体的な処理のフローチャートFIG. 3 is a flowchart of an overall process of the present invention.

【図4】本発明の機能ブロック図FIG. 4 is a functional block diagram of the present invention.

【図5】三次元形状測定装置により入力される三次元画
像データの説明図
FIG. 5 is an explanatory diagram of three-dimensional image data input by the three-dimensional shape measuring device.

【図6】本発明により設定する六角柱体を用いた投影面
の説明図
FIG. 6 is an explanatory view of a projection plane using a hexagonal prism set according to the present invention.

【図7】本発明により設定する四面体を用いた投影面の
説明図
FIG. 7 is an explanatory diagram of a projection plane using a tetrahedron set according to the present invention.

【図8】本発明により設定する八角柱体を用いた投影面
の説明図
FIG. 8 is an explanatory view of a projection plane using an octagonal prism set according to the present invention.

【図9】本発明における物体と投影面の対応関係の説明
FIG. 9 is an explanatory diagram of a correspondence relationship between an object and a projection plane according to the present invention.

【図10】投影面の投影画像データの説明図FIG. 10 is an explanatory diagram of projection image data on a projection plane.

【図11】本発明のテクスチャ画像作成処理における物
体ポリゴン、投影ポリゴン、テクスチャ画像テーブルの
説明図
FIG. 11 is an explanatory diagram of an object polygon, a projection polygon, and a texture image table in the texture image creation processing of the present invention.

【図12】本発明のテクスチャ画像テーブルの説明図FIG. 12 is an explanatory diagram of a texture image table according to the present invention.

【図13】本発明による投影面とテクスチャ画像テーブ
ルの対応関係の説明図
FIG. 13 is an explanatory diagram of a correspondence relationship between a projection plane and a texture image table according to the present invention.

【図14】テスクチャ画像テーブルでの画素補間処理の
説明図
FIG. 14 is an explanatory diagram of pixel interpolation processing in a texture image table.

【図15】物体に対する投影面設定の具体例の説明図FIG. 15 is an explanatory diagram of a specific example of setting a projection plane for an object;

【図16】図15の投影面の設定で得られた8枚のテク
スチャ画像の説明図
FIG. 16 is an explanatory diagram of eight texture images obtained by setting the projection plane in FIG.

【図17】本発明によるテクスチャ画像の関連情報の生
成処理の説明図
FIG. 17 is an explanatory diagram of a process of generating related information of a texture image according to the present invention.

【図18】図17の物体ポリゴンと複数の投影ポリゴン
の法線交差角の説明図
18 is an explanatory diagram of a normal intersection angle between the object polygon of FIG. 17 and a plurality of projection polygons.

【図19】本発明で生成されたテクスチャ関連情報付の
三次元形状データの説明図
FIG. 19 is an explanatory diagram of three-dimensional shape data with texture-related information generated by the present invention.

【図20】本発明の多重テクスチャマッピング処理のフ
ローチャート
FIG. 20 is a flowchart of a multiple texture mapping process according to the present invention.

【図21】本発明の多重テクスチャマッピング処理のフ
ローチャート(続き)
FIG. 21 is a flowchart of a multiple texture mapping process of the present invention (continued).

【図22】人の化石標本から作成した8枚のテクスチャ
画像の説明図
FIG. 22 is an explanatory diagram of eight texture images created from a human fossil specimen.

【図23】図22のテクスチャ画像を用いてコンピュー
タグラフィックスにより再現した化石標本の説明図
FIG. 23 is an explanatory diagram of a fossil specimen reproduced by computer graphics using the texture image of FIG. 22;

【図24】テクスチャマッピングの原理説明図FIG. 24 is a diagram illustrating the principle of texture mapping.

【図25】円筒投影面を用いた従来のテクスチャ画像生
成の説明図
FIG. 25 is an explanatory diagram of conventional texture image generation using a cylindrical projection surface.

【図26】二次元矩形平面を用いた従来のテクスチャ画
像生成の説明図
FIG. 26 is an explanatory diagram of conventional texture image generation using a two-dimensional rectangular plane.

【図27】物体面を構成するポリゴンをテクスチャ画像
テーブル上に投影してテクスチャ画像を生成する処理の
説明図
FIG. 27 is an explanatory diagram of a process of generating a texture image by projecting polygons constituting an object plane onto a texture image table.

【図28】図26の二次元矩形投影面の設定で作成され
たテクスチャ画像の説明図
FIG. 28 is an explanatory diagram of a texture image created by setting the two-dimensional rectangular projection plane in FIG. 26;

【図29】従来のテクスチャ画像の作成で生ずる頂点の
重なりによる色データの欠落の説明図
FIG. 29 is an explanatory diagram of missing color data due to the overlapping of vertices that occurs when creating a conventional texture image.

【図30】従来のテクスチャ画像の作成で生ずるポリゴ
ン面の歪による色データの欠落の説明図
FIG. 30 is an explanatory diagram of missing color data due to distortion of a polygon surface caused by creation of a conventional texture image.

【符号の説明】[Explanation of symbols]

10:MPU 12:バス 14:RAM 16:グラフィックスアクセラレータ 18:フレームメモリ 20:CRT 22:三次元形状測定装置(画像入力部) 24:外部記憶装置 26:キーボード 28:ポインティング装置 30:三次元画像データファイル(3D画像データファ
イル) 32:投影画像処理部 34:テクスチャ画像作成部 36:テクスチャ画像データァイル 38:テクスチャ関連情報作成部 40:三次元画像データ低減処理部(3D画像データ低
減処理部) 42:三次元形状データファイル(3D形状データファ
イル) 44:テクスチャ関連情報付三次元形状データファイル 45:コンピュータグラフィックス処理部(CG処理
部) 46:二次元形状データ生成部 48:テクスチャマッピング処理部 50−1〜50−n:テクスチャ画像テーブル 52,86:頂点座標 54,82,86:色データ 56:6角柱投影体 58:4面投影体 60,60-1 〜60-8,60-11〜60-14,60-21 〜60-28 :投影面 64:8角柱投影体 70:対象物体 72:物体中心 74,102:ポリゴン(物体構成面) 76104−1〜104−3:投影ポリゴン 78:投影画像データ 84:テクスチャ画像テーブル 85:投影面の位置 88:物体表面までの距離 90−1〜90−3:頂点テクスチャ画素 92:補間テクスチャ画素 100:再現物体形状 101−1〜101−3:投影線 106,108−1〜108−3:法線ベクトル 110:テクスチャ関連情報
10: MPU 12: bus 14: RAM 16: graphics accelerator 18: frame memory 20: CRT 22: three-dimensional shape measuring device (image input unit) 24: external storage device 26: keyboard 28: pointing device 30: three-dimensional image Data file (3D image data file) 32: Projection image processing unit 34: Texture image creation unit 36: Texture image data file 38: Texture related information creation unit 40: Three-dimensional image data reduction processing unit (3D image data reduction processing unit) 42: 3D shape data file (3D shape data file) 44: 3D shape data file with texture related information 45: Computer graphics processing unit (CG processing unit) 46: 2D shape data generation unit 48: Texture mapping processing unit 50-1 to 50 n: texture image table 52, 86: vertex coordinates 54, 82, 86: color data 56: hexagonal prism projection 58: four-plane projection 60, 60-1 to 60-8, 60-11 to 60-14, 60 -21 to 60-28: projection plane 64: octagonal prism projection body 70: target object 72: object center 74, 102: polygon (object constituting plane) 76104-1 to 104-3: projection polygon 78: projection image data 84: Texture image table 85: Projection plane position 88: Distance to object surface 90-1 to 90-3: Vertex texture pixel 92: Interpolated texture pixel 100: Reproduced object shape 101-1 to 101-3: Projection lines 106, 108 -1 to 108-3: Normal vector 110: Texture related information

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】実在する物体の外部から視認できる表面の
3次元形状データと色データを含む三次元画像データを
入力する画像入力部と、 前記画像入力部から入力された三次元画像データで表現
される物体の周囲に複数の投影面を設定し、各投影面に
物体の見える面を平行投影した二次元投影画像データを
生成する投影画像処理部と、 前記各投影面の二次元投影画像データについて物体表面
の色データを格納し、投影面毎にテクスチャ画像データ
を生成するテクスチャ画像作成部と、 前記画像入力部から取出した三次元形状データに前記テ
クスチャ画像作成部で作成された各投影面毎のテクスチ
ャ画像データとの対応関係を示す関連情報を付加したテ
クスチャ関連情報付三次元形状データを生成するテクス
チャ関連情報生成部と、 前記テクスチャ関連情報付三次元画像データにより表現
される物体を任意の方向から見たテクスチャ関連情報付
の二次元形状データを生成し、該二次元形状データのテ
クスチャ関連情報に基づいて前記各投影面毎に作成され
たテクスチャ画像データをマッピングして二次元表示デ
ータを生成するテクスチャマッピング処理部を備えたこ
とを特徴とする多重テクスチャマッピング装置。
An image input unit for inputting three-dimensional image data including three-dimensional shape data and color data of a surface of a real object that can be visually recognized from the outside, and expressed by three-dimensional image data input from the image input unit A plurality of projection planes are set around the object to be projected, and a projection image processing unit that generates two-dimensional projection image data by parallel projecting a plane on which the object is visible on each projection plane, and two-dimensional projection image data of each projection plane A texture image creating unit that stores color data of the surface of the object and generates texture image data for each projection plane; and a three-dimensional shape data extracted from the image input unit. A texture-related information generation unit that generates three-dimensional shape data with texture-related information to which related information indicating a correspondence relationship with each texture image data is added; Generates two-dimensional shape data with texture-related information when the object represented by the three-dimensional image data with cha-related information is viewed from an arbitrary direction, and generates each of the projection planes based on the texture-related information of the two-dimensional shape data. A multi-texture mapping device, comprising: a texture mapping processing unit that maps texture image data created in the above to generate two-dimensional display data.
【請求項2】請求項1記載の多重テクスチャマッピング
装置に於いて、前記画像入力部は、物体表面にレーザ光
を照射して物体表面迄の距離を光学的に計測して物体の
表面形状及び色を測定する三次元形状測定装置であるこ
とを特徴とする多重テクスチャマッピング装置。
2. The multi-texture mapping apparatus according to claim 1, wherein the image input unit irradiates the surface of the object with a laser beam and optically measures a distance to the surface of the object to determine the surface shape and the shape of the object. A multiple texture mapping device, which is a three-dimensional shape measuring device for measuring color.
【請求項3】請求項1記載の多重テクスチャマッピング
装置に於いて、前記画像入力部は、物体表面の三次元形
状データとして、物体表面を微小な多角形ポリゴンの集
合で表現し、該多角形ポリゴンは頂点座標と各頂点の色
データを含むことを特徴とする多重テクスチャマッピン
グ装置。
3. The multi-texture mapping apparatus according to claim 1, wherein said image input unit expresses the object surface as a set of minute polygons as three-dimensional shape data of the object surface. A multiple texture mapping device, wherein the polygon includes vertex coordinates and color data of each vertex.
【請求項4】請求項3記載の多重テクスチャマッピング
装置に於いて、前記多角形ポリゴンは三角形ポリゴンで
あり、3つの頂点座標と各頂点のR,G,B色成分情報
を含むことを特徴とする多重テクスチャマッピング装
置。
4. The multiple texture mapping device according to claim 3, wherein said polygon polygon is a triangular polygon, and includes coordinates of three vertices and R, G, B color component information of each vertex. Texture mapping device.
【請求項5】請求項3記載の多重テクスチャマッピング
装置に於いて、前記投影画像処理部は、前記物体の外側
に設定した所定の観察領域で観察可能な部位が全て投影
できるように複数の投影面を設定することを特徴とする
多重テクスチャマッピング装置。
5. The multiple texture mapping device according to claim 3, wherein the projection image processing unit is configured to perform a plurality of projections so that all observable parts can be projected in a predetermined observation area set outside the object. A multiple texture mapping apparatus, characterized by setting a surface.
【請求項6】請求項5記載の多重テクスチャマッピング
装置に於いて、前記投影画像処理部は、前記物体の外側
から観察可能な部位が全て投影できるように複数の投影
面を設定することを特徴とする多重テクスチャマッピン
グ装置。
6. A multiple texture mapping apparatus according to claim 5, wherein said projection image processing section sets a plurality of projection planes so that all of the portions observable from outside the object can be projected. Multiple texture mapping device.
【請求項7】請求項5記載の多重テクスチャマッピング
装置に於いて、前記投影画像処理部は、前記投影面上の
任意の点からの法線が前記物体の中心を通るように投影
面を物体の周囲に設定することを特徴とする多重テクス
チャマッピング装置。
7. The multiple texture mapping apparatus according to claim 5, wherein the projection image processing unit sets the projection plane so that a normal from an arbitrary point on the projection plane passes through the center of the object. A multiple texture mapping device, wherein the multiple texture mapping device is set around
【請求項8】請求項1記載の多重テクスチャマッピング
装置に於いて、前記テクスチャ画像作成部は、テクスチ
ャ画素毎に、投影面の位置、色データ、物体表面迄の距
離の各々の格納領域を備えたテクスチャ画像テーブルを
有し、前記投影面に対する物体表面の写像の各画素位置
毎に、色データ、物体表面迄の距離の各々を生成して格
納したことを特徴とする多重テクスチャマッピング装
置。
8. The multiple texture mapping apparatus according to claim 1, wherein the texture image creating section has, for each texture pixel, a storage area for each of a position of a projection plane, color data, and a distance to an object surface. A texture image table, wherein color data and a distance to the object surface are generated and stored for each pixel position of the mapping of the object surface to the projection plane.
【請求項9】請求項8記載の多重テクスチャマッピング
装置に於いて、前記テクスチャ画像作成部は、前記物体
の多角形ポリゴン毎に投影面に頂点座標を投影して各頂
点の位置毎に色データを生成して格納し、次に各頂点で
囲まれた領域に存在するテクスチャ画素の色データを、
各頂点の情報に基づく補間処理により生成して格納した
ことを特徴とする多重テクスチャマッピング装置。
9. The multiple texture mapping device according to claim 8, wherein the texture image creating section projects vertex coordinates on a projection plane for each polygon of the object and outputs color data for each vertex position. Is generated and stored, and then the color data of the texture pixels existing in the area surrounded by each vertex is
A multi-texture mapping apparatus characterized by being generated and stored by interpolation processing based on information of each vertex.
【請求項10】請求項8記載の多重テクスチャマッピン
グ装置に於いて、前記テクスチャ画像作成部は、テクス
チャ画素データが有効であることを示すフラグ情報を設
け、前記投影面の写像に基づく画素位置に色データを格
納した際に前記フラグ情報をオンすることを特徴とする
多重テクスチャマッピング装置。
10. The multiple texture mapping device according to claim 8, wherein the texture image creating section provides flag information indicating that the texture pixel data is valid, and sets the flag information at a pixel position based on the projection plane mapping. A multiple texture mapping device, wherein the flag information is turned on when color data is stored.
【請求項11】請求項10記載の多重テクスチャマッピ
ング装置に於いて、前記テクスチャ画像作成部は、前記
テクスチャ画素データが有効であることを示すフラグ情
報として、RGBデータ構造に設けているアルファ値を
使用することを特徴とする多重テクスチャマッピング装
置。
11. The multiple texture mapping device according to claim 10, wherein the texture image creating section uses an alpha value provided in an RGB data structure as flag information indicating that the texture pixel data is valid. A multi-texture mapping apparatus characterized in that it is used.
【請求項12】請求項8記載の多重テクスチャマッピン
グ装置に於いて、前記テクスチャ画像作成部は、前記テ
クスチャ画像テーブルのテクスチャ画素の位置を正規化
してテクスチャ二次元座標(S,T)として設定してお
り、前記投影面が設定された際に、前記正規化座標を投
影面のサイズと物体三次元座標(S,T,PZ)に変換
することを特徴とする多重テクスチャマッピング装置。
12. The multiple texture mapping apparatus according to claim 8, wherein the texture image creating section normalizes the positions of the texture pixels in the texture image table and sets the texture pixels as texture two-dimensional coordinates (S, T). A multi-texture mapping apparatus for converting the normalized coordinates into the size of the projection plane and the three-dimensional object coordinates (S, T, PZ) when the projection plane is set.
【請求項13】請求項1記載の多重テクスチャマッピン
グ装置に於いて、前記テクスチャ関連情報生成部は、前
記画像入力部による三次元画像データから三次元形状デ
ータを取り出し、該三次元形状データに前記テクスチャ
画像作成部で生成したテクスチャ画像データとの関連情
報を付加して前記テクスチャ関連情報付三次元画像デー
タを生成することを特徴とする多重テクスチャマッピン
グ装置。
13. The multiple texture mapping device according to claim 1, wherein the texture-related information generating unit extracts three-dimensional shape data from three-dimensional image data from the image input unit, and converts the three-dimensional shape data into the three-dimensional shape data. A multi-texture mapping apparatus, characterized in that the three-dimensional image data with texture related information is generated by adding information related to the texture image data generated by the texture image generating unit.
【請求項14】請求項13記載の多重テクスチャマッピ
ング装置に於いて、前記テクスチャ関連情報生成部は、
前記物体の三次元形状を表わす多角形ポリゴンの頂点座
標(Xi,Yi,Zi)に、対応するテクスチャ画素デ
ータの位置座標(Si,Ti,PZi)を付加して前記
テクスチャ関連情報付三次元画像データを生成すること
を特徴とする多重テクスチャマッピング装置。
14. A multiple texture mapping apparatus according to claim 13, wherein said texture related information generating section comprises:
The position coordinates (Si, Ti, PZi) of the corresponding texture pixel data are added to the vertex coordinates (Xi, Yi, Zi) of the polygon representing the three-dimensional shape of the object, and the three-dimensional image with texture-related information is added. A multiple texture mapping device for generating data.
【請求項15】請求項14記載の多重テクスチャマッピ
ング装置に於いて、前記テクスチャ関連情報生成部は、
前記物体の三次元形状を表わす多角形ポリゴンが投影さ
れる投影面を判別し、複数の投影面を判別した場合は、
最適な投影面を選択して前記テクスチャ画像データとの
関連情報を前記物体表面の多角形ポリゴンに付加するこ
とを特徴とする多重テクスチャマッピング装置。
15. The multiple texture mapping device according to claim 14, wherein the texture related information generation unit comprises:
When a projection plane on which a polygon representing the three-dimensional shape of the object is projected is determined, and a plurality of projection planes are determined,
A multiple texture mapping apparatus, wherein an optimum projection plane is selected and information relating to the texture image data is added to a polygon on the surface of the object.
【請求項16】請求項15記載の多重テクスチャマッピ
ング装置に於いて、前記テクスチャ関連情報生成部は、
前記多角形ポリゴンが投影された複数の投影面を判別し
た場合、前記多角形ポリゴンが他の多角形ポリゴンに隠
されずに投影されているか否か判定し、隠されずに投影
されている投影面を選択することを特徴とする多重テク
スチャマッピング装置。
16. The multiple texture mapping apparatus according to claim 15, wherein said texture related information generating section comprises:
When determining a plurality of projection planes on which the polygon polygon is projected, it is determined whether the polygon polygon is projected without being hidden by other polygon polygons, and the projection plane that is projected without being hidden is determined. A multiple texture mapping device, characterized in that it is selected.
【請求項17】請求項16記載の多重テクスチャマッピ
ング装置に於いて、前記テクスチャ関連情報生成部は、
前記多角形ポリゴンが他の多角形ポリゴンに隠されずに
投影されているか否かを、前記テクスチャ画像データに
含まれる物体表面迄の距離と、実際に演算した物体表面
迄の距離とを比較し、両者が所定の誤差範囲で一致した
場合に、他の多角形ポリゴンにより隠されずに投影され
ている投影面として選択することを特徴とする多重テク
スチャマッピング装置。
17. The multiple texture mapping apparatus according to claim 16, wherein said texture related information generating section comprises:
Whether or not the polygon polygon is projected without being hidden by other polygons is compared with the distance to the object surface included in the texture image data and the actually calculated distance to the object surface, A multi-texture mapping apparatus characterized in that when both coincide with each other within a predetermined error range, the selected texture plane is selected as a projection plane projected without being hidden by another polygon.
【請求項18】請求項17記載の多重テクスチャマッピ
ング装置に於いて、前記テクスチャ関連情報生成部は、
前記多角形ポリゴンが投影される複数の投影面を判別し
た場合、更に、多角形ポリゴンと投影ポリゴンの法線を
比較して交差角が最大となる投影面を最適投影面として
選択することを特徴とする多重テクスチャマッピング装
置。
18. A multiple texture mapping apparatus according to claim 17, wherein said texture related information generating section comprises:
When a plurality of projection planes onto which the polygon is projected are determined, the normals of the polygon and the projection polygon are compared, and the projection plane having the maximum intersection angle is selected as the optimal projection plane. Multiple texture mapping device.
【請求項19】請求項1記載の多重テクスチャマッピン
グ装置に於いて、更に、前記画像入力部から取出した三
次元元画像データのデータ量を低減して前記テクスチャ
関連情報生成部に供給する三次元形状データ低減処理部
を設けたことを特徴とする多重テクスチャマッピング装
置。
19. The multi-texture mapping apparatus according to claim 1, further comprising: reducing a data amount of the three-dimensional original image data extracted from the image input unit and supplying the reduced data amount to the texture-related information generating unit. A multiple texture mapping device comprising a shape data reduction processing unit.
【請求項20】請求項19記載の多重テクスチャマッピ
ング装置に於いて、前記三次元形状データ低減処理部
は、前記物体の三次元形状を表わす多角形ポリゴンを、
より大きな多角形ポリゴンにまとめて前記三次元形状デ
ータのデータ量を低減することを特徴とする多重テクス
チャマッピング装置。
20. A multi-texture mapping apparatus according to claim 19, wherein said three-dimensional shape data reduction processing section converts a polygon representing a three-dimensional shape of said object into:
A multi-texture mapping apparatus, wherein the data amount of the three-dimensional shape data is reduced by combining the three-dimensional shape data into larger polygons.
【請求項21】請求項14記載の多重テクスチャマッピ
ング装置に於いて、前記テクスチャマッピング処理部
は、二次元形状データに関連情報として付加されたテク
スチャ座標(Si,Ti,PZi)で指定されるテクス
チャ画素データ群を読み出して前記二次元形状データに
対しテクスチャマッピングして二次元表示データを生成
することを特徴とする多重テクスチャマッピング装置。
21. A multi-texture mapping apparatus according to claim 14, wherein said texture mapping processing section specifies a texture specified by texture coordinates (Si, Ti, PZi) added as related information to the two-dimensional shape data. A multiple texture mapping apparatus, which reads out a pixel data group and texture-maps the two-dimensional shape data to generate two-dimensional display data.
【請求項22】実在する物体の外部から視認できる表面
の3次元形状データと色データを含む三次元画像データ
を入力する画像入力過程と、 前記画像入力過程から入力された三次元画像データで表
現される物体の周囲に複数の投影面を設定し、各投影面
に物体の見える面を平行投影した二次元投影画像データ
を生成する投影画像処理過程と、 前記各投影面の二次元投影画像データについて物体表面
の色データを格納し、投影面毎にテクスチャ画像データ
を生成するテクスチャ画像データ作成過程と、 前記画像入力過程から取出した三次元形状データに前記
テクスチャ画像データ作成過程で作成された各投影面毎
のテクスチャ画像データとの対応関係を示す関連情報を
付加したテクスチャ関連情報付三次元形状データを生成
するテクスチャ関連情報生成過程と、 前記テクスチャ関連情報付三次元形状データにより表現
される物体を任意の方向から見たテクスチャ関連情報付
の二次元形状データを生成し、該二次元形状データのテ
クスチャ関連情報に基づいて前記各投影面毎に作成され
たテクスチャ画像データをマッピングして二次元表示デ
ータを生成するテクスチャマッピング処理過程と、を備
えたことを特徴とする多重テクスチャマッピング方法。
22. An image inputting step of inputting three-dimensional image data including three-dimensional shape data and color data of a surface that can be visually recognized from the outside of a real object, and expressed by three-dimensional image data input from the image inputting step. A plurality of projection planes are set around the object to be projected, and a projection image processing step of generating two-dimensional projection image data by parallel projecting a plane on which the object is visible on each projection plane, and two-dimensional projection image data of each projection plane A texture image data creation step of storing color data of the object surface for each projection plane to generate texture image data, and a three-dimensional shape data extracted from the image input step to the texture image data creation step. A texture function for generating three-dimensional shape data with texture related information to which related information indicating a correspondence relationship with texture image data for each projection plane is added. An information generating step, and generating two-dimensional shape data with texture-related information when the object represented by the three-dimensional shape data with texture-related information is viewed from an arbitrary direction, based on the texture-related information of the two-dimensional shape data A texture mapping processing step of mapping the texture image data created for each of the projection planes to generate two-dimensional display data.
【請求項23】実在する物体の外部から視認できる表面
の三次元形状データと色データを含む三次元画像データ
を入力する画像入力過程と、 前記画像入力過程から入力された三次元画像データで表
現される物体の周囲に複数の投影面を設定し、各投影面
に物体の見える面を平行投影した二次元投影画像データ
を生成する投影画像処理過程と、 前記各投影面の二次元投影画像データについて物体表面
の色データを格納し、投影面毎にテクスチャ画像データ
を生成するテクスチャ画像作成過程と、 前記画像入力過程から取出した三次元形状データに前記
テクスチャ画像作成過程で作成された各投影面毎のテク
スチャ画像データとの対応関係を示す関連情報を付加し
たテクスチャ関連情報付三次元形状データを生成するテ
クスチャ関連情報生成過程とを備えたことを特徴とする
多重テクスチャマッピング方法。
23. An image inputting step of inputting three-dimensional image data including three-dimensional shape data and color data of a surface of a real object that can be visually recognized from the outside, and expressed by three-dimensional image data input from the image inputting step. A plurality of projection planes are set around the object to be projected, and a projection image processing step of generating two-dimensional projection image data by parallel projecting a plane on which the object is visible on each projection plane, and two-dimensional projection image data of each projection plane A texture image creating step of storing color data of the object surface for each projection plane and generating texture image data for each projection plane; and three-dimensional shape data extracted from the image input step, each projection plane created in the texture image creation step. Generation of texture-related information to generate three-dimensional shape data with texture-related information to which related information indicating a correspondence relationship with each texture image data is added. Multiple texture mapping method characterized by comprising and.
【請求項24】請求項22又は23記載の多重テクスチ
ャマッピング方法に於いて、前記画像入力過程から取出
した三次元形状データのデータ量を低減して前記テクス
チャ関連情報生成過程に供給する三次元形状データ低減
処理過程を設けたことを特徴とする多重テクスチャマッ
ピング方法。
24. The multi-texture mapping method according to claim 22, wherein the three-dimensional shape data extracted from the image input step is reduced in data amount and supplied to the texture-related information generating step. A multiple texture mapping method comprising a data reduction process.
【請求項25】実在する物体の外部から視認できる表面
の三次元形状データと色データを含む三次元画像データ
を入力する画像入力部と、 前記画像入力部から入力された三次元画像データで表現
される物体の周囲に複数の投影面を設定し、各投影面に
物体の見える面を平行投影した二次元投影画像データを
生成する投影画像処理部と、 前記各投影面の二次元投影画像データについて物体表面
の色データを格納し、投影面毎にテクスチャ画像データ
を生成するテクスチャ画像作成部と、 前記画像入力部から取出した三次元形状データに前記テ
クスチャ画像作成部で作成された各投影面毎のテクスチ
ャ画像データとの対応関係を示す関連情報を付加したテ
クスチャ関連情報付三次元形状データを生成するテクス
チャ関連情報生成部と、 前記テクスチャ関連情報付三次元形状データにより表現
される物体を任意の方向から見たテクスチャ関連情報付
の二次元形状データを生成し、該二次元形状データのテ
クスチャ関連情報に基づいて前記各投影面毎に作成され
たテクスチャ画像データをマッピングして二次元表示デ
ータを生成するテクスチャマッピング処理部と、を備え
たことを特徴とする多重テクスチャマッピングのための
プログラムを格納した記憶媒体。
25. An image input unit for inputting three-dimensional image data including three-dimensional shape data and color data of a surface that can be visually recognized from the outside of a real object, and represented by three-dimensional image data input from the image input unit. A plurality of projection planes are set around the object to be projected, and a projection image processing unit that generates two-dimensional projection image data by parallel projecting a plane on which the object is visible on each projection plane, and two-dimensional projection image data of each projection plane A texture image creating unit that stores color data of the surface of the object and generates texture image data for each projection plane; and a three-dimensional shape data extracted from the image input unit. A texture-related information generating unit that generates three-dimensional shape data with texture-related information to which related information indicating a correspondence relationship with each texture image data is added; Generates two-dimensional shape data with texture-related information when the object represented by the three-dimensional shape data with texture-related information is viewed from any direction, and for each of the projection surfaces based on the texture-related information of the two-dimensional shape data And a texture mapping processing unit for mapping the created texture image data to generate two-dimensional display data. A storage medium storing a program for multiple texture mapping.
【請求項26】実在する物体の外部から視認できる表面
の三次元形状データと色データを含む三次元画像データ
を入力する画像入力部と、 前記画像入力部から入力された三次元画像データで表現
される物体の周囲に複数の投影面を設定し、各投影面に
物体の見える面を平行投影した二次元投影画像データを
生成する投影画像処理部と、 前記各投影面の二次元投影画像データについて物体表面
の色データを格納し、投影面毎にテクスチャ画像データ
を生成するテクスチャ画像作成部と、 前記画像入力部から取出した三次元形状データに前記テ
クスチャ画像作成部で作成された各投影面毎のテクスチ
ャ画像データとの対応関係を示す関連情報を付加したテ
クスチャ関連情報付三次元形状データを生成するテクス
チャ関連情報生成部とを備えたことを特徴とする多重テ
クスチャマッピングのためのプログラムを格納した記憶
媒体。
26. An image input unit for inputting three-dimensional image data including three-dimensional shape data and color data of a surface that can be visually recognized from the outside of a real object, and expressed by three-dimensional image data input from the image input unit. A plurality of projection planes are set around the object to be projected, and a projection image processing unit that generates two-dimensional projection image data by parallel projecting a plane on which the object is visible on each projection plane, and two-dimensional projection image data of each projection plane A texture image creating unit that stores color data of the surface of the object and generates texture image data for each projection plane; and a three-dimensional shape data extracted from the image input unit. A texture-related information generating unit that generates three-dimensional shape data with texture-related information to which related information indicating a correspondence relationship with each texture image data is added. Storage medium storing a program for multiple texture mapping, wherein.
【請求項27】請求項25又は26記載の多重テクスチ
ャマッピングのためのプログラムを格納した記憶媒体に
於いて、 前記画像入力部から取出した三次元形状データのデータ
量を低減して前記テクスチャ関連情報生成部に供給する
三次元形状データ低減処理部を設けたことを特徴とする
多重テクスチャマッピングのためのプログラムを格納し
た記憶媒体。
27. A storage medium storing a program for multiple texture mapping according to claim 25 or 26, wherein the data amount of the three-dimensional shape data extracted from the image input unit is reduced to obtain the texture-related information. A storage medium storing a program for multiple texture mapping, comprising a three-dimensional shape data reduction processing unit to be supplied to a generation unit.
JP8647897A 1997-04-04 1997-04-04 Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping Pending JPH10283487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8647897A JPH10283487A (en) 1997-04-04 1997-04-04 Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8647897A JPH10283487A (en) 1997-04-04 1997-04-04 Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping

Publications (1)

Publication Number Publication Date
JPH10283487A true JPH10283487A (en) 1998-10-23

Family

ID=13888091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8647897A Pending JPH10283487A (en) 1997-04-04 1997-04-04 Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping

Country Status (1)

Country Link
JP (1) JPH10283487A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100317138B1 (en) * 1999-01-19 2001-12-22 윤덕용 Three-dimensional face synthesis method using facial texture image from several views
JP2005063041A (en) * 2003-08-08 2005-03-10 Olympus Corp Three-dimensional modeling apparatus, method, and program
US6977660B2 (en) 2001-11-29 2005-12-20 Minolta Co., Ltd. Data processing apparatus
WO2013038548A1 (en) 2011-09-15 2013-03-21 富士通株式会社 Rendering device, rendering method and rendering program
CN108876873A (en) * 2018-06-22 2018-11-23 上海闻泰电子科技有限公司 Image generating method, device, equipment and storage medium
CN111681317A (en) * 2020-03-31 2020-09-18 腾讯科技(深圳)有限公司 Data processing method and device, electronic equipment and storage medium
CN115733938A (en) * 2021-08-31 2023-03-03 北京字跳网络技术有限公司 Video processing method, device, equipment and storage medium
WO2023166794A1 (en) * 2022-03-03 2023-09-07 キヤノン株式会社 Information processing device, information processing method, image generation device, image generation method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100317138B1 (en) * 1999-01-19 2001-12-22 윤덕용 Three-dimensional face synthesis method using facial texture image from several views
US6977660B2 (en) 2001-11-29 2005-12-20 Minolta Co., Ltd. Data processing apparatus
JP2005063041A (en) * 2003-08-08 2005-03-10 Olympus Corp Three-dimensional modeling apparatus, method, and program
WO2013038548A1 (en) 2011-09-15 2013-03-21 富士通株式会社 Rendering device, rendering method and rendering program
US9595122B2 (en) 2011-09-15 2017-03-14 Fujitsu Limited Drawing apparatus and drawing method
CN108876873A (en) * 2018-06-22 2018-11-23 上海闻泰电子科技有限公司 Image generating method, device, equipment and storage medium
CN108876873B (en) * 2018-06-22 2022-07-19 上海闻泰电子科技有限公司 Image generation method, device, equipment and storage medium
CN111681317A (en) * 2020-03-31 2020-09-18 腾讯科技(深圳)有限公司 Data processing method and device, electronic equipment and storage medium
CN115733938A (en) * 2021-08-31 2023-03-03 北京字跳网络技术有限公司 Video processing method, device, equipment and storage medium
WO2023166794A1 (en) * 2022-03-03 2023-09-07 キヤノン株式会社 Information processing device, information processing method, image generation device, image generation method, and program

Similar Documents

Publication Publication Date Title
RU2215326C2 (en) Image-based hierarchic presentation of motionless and animated three-dimensional object, method and device for using this presentation to visualize the object
US5577175A (en) 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
JP2000227966A (en) 3d computer graphics processor and processing method
JP3037455B2 (en) Display device and display method
JPH0757117A (en) Forming method of index to texture map and computer control display system
JP2000163590A (en) Conversion device and method for three-dimensional model
JPH0950537A (en) Volume rendering device and its method
JPH0771936A (en) Device and method for processing image
JP3059178B2 (en) A system that uses centroid coordinates for polygon interpolation.
JP4463597B2 (en) 3D drawing model generation method and program thereof
JPH10283487A (en) Multiple texture mapping device and method therefor and storage medium storing program for multiple texture mapping
Petkov et al. Interactive visibility retargeting in vr using conformal visualization
JP2768228B2 (en) Image generation device
US11423618B2 (en) Image generation system and method
JPH03138784A (en) Reconstructing method and display method for three-dimensional model
JPS6365584A (en) Graphic processor
JP3850080B2 (en) Image generation and display device
JPS63271578A (en) Set arithmetic unit for area
JP3577202B2 (en) Video production equipment
US5821942A (en) Ray tracing through an ordered array
JP3679347B2 (en) Pattern change simulation system
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
ElHelw et al. Photorealistic rendering of large tissue deformation for surgical simulation
JP3071495B2 (en) Object model editing device
JP3278828B2 (en) Translucent stereoscopic image processing device