JP3157015B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus

Info

Publication number
JP3157015B2
JP3157015B2 JP20058691A JP20058691A JP3157015B2 JP 3157015 B2 JP3157015 B2 JP 3157015B2 JP 20058691 A JP20058691 A JP 20058691A JP 20058691 A JP20058691 A JP 20058691A JP 3157015 B2 JP3157015 B2 JP 3157015B2
Authority
JP
Japan
Prior art keywords
texture
image
subject
dimensional
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20058691A
Other languages
Japanese (ja)
Other versions
JPH0546775A (en
Inventor
俊雄 坂井
敦 川端
範人 渡辺
次男 富田
昭弘 坂元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP20058691A priority Critical patent/JP3157015B2/en
Priority to US07/926,518 priority patent/US5680525A/en
Publication of JPH0546775A publication Critical patent/JPH0546775A/en
Application granted granted Critical
Publication of JP3157015B2 publication Critical patent/JP3157015B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、3次元形状についての
画像を生成する画像生成装置に関し、特に、画像を生成
する3次元形状に模様を与えるテクスチャマッピングの
技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating apparatus for generating an image of a three-dimensional shape, and more particularly to a technique of texture mapping for giving a pattern to a three-dimensional shape for generating an image.

【0002】[0002]

【従来の技術】3次元形状についての画像を生成する場
合、3次元形状をリアルに表現するために、3次元形状
の表面に模様を付した画像を生成することがある。
2. Description of the Related Art When an image of a three-dimensional shape is generated, an image having a pattern on the surface of the three-dimensional shape may be generated in order to realistically represent the three-dimensional shape.

【0003】一般に、模様を3次元形状の表面に付する
処理は、2次元の画像として表現されている模様(以
下、「テクスチャ」という)を3次元形状の表面上にコ
−ディネ−トする、テクスチャマッピングの手法により
行なわれている。
In general, in a process of applying a pattern to a three-dimensional surface, a pattern (hereinafter referred to as "texture") represented as a two-dimensional image is coordinated on the three-dimensional surface. , Texture mapping.

【0004】このようなテクスチャマッピングの技術と
しては、加藤俊明、「CG映像制作に使用されるさまざ
まな表現手法ーーマッピングを中心にして」、ピクセ
ル、第51項から第58項、や、ランス・ウィリアム
ス、SIGGRAPH83プロシーディングス、ボリュ
ーム17、ナンバー3、1983年7月(Lance William
s,'Pyramidal Parametrics', SIGGRAPH83 Proceedings,
Vol.17, No.3, July 1983)等に記載されている技術が
知られている。
Techniques for such texture mapping include Toshiaki Kato, "Various Expression Methods Used in CG Video Production-Focusing on Mapping", Pixel, Paragraphs 51 to 58, Lance Williams, SIGGRAPH 83 Proceedings, Volume 17, Number 3, July 1983 (Lance William
s, 'Pyramidal Parametrics', SIGGRAPH83 Proceedings,
Vol. 17, No. 3, July 1983) and the like are known.

【0005】また、従来のテクスチャマッピングの技術
によれば、一旦生成した画像を、繰り返して利用するた
めに、あらかじめ、コンピュ−タグラフィックによって
作成した画像や、写真などを光学的な装置によって読み
込んだ画像を記憶し、この画像を模様として用いてい
る。また、このように、あらかじめ作成した画像を模様
に用いることにより、迅速な3次元形状の画像の生成を
可能にしている。
Further, according to the conventional texture mapping technique, in order to repeatedly use an image generated once, an image created by computer graphic or a photograph is read in advance by an optical device. An image is stored, and this image is used as a pattern. In addition, by using an image created in advance as a pattern as described above, it is possible to quickly generate an image having a three-dimensional shape.

【0006】また、3次元形状の表面に模様を与える技
術としては、ダーウィン・アール・ピーチー、SIGG
RAPH85プロシーディングス、ボリューム19、ナ
ンバー3、1985年7月(Darwyn R. Peachey, 'Soli
d Texturing of Complex Surface', SIGGRAPH85 Procee
dings, Vol.19, No.3, July, 1985)に記載の技術が知ら
れているファンクショナルマッピングの技術が知られて
いる。
Further, as a technique for giving a pattern to the surface of a three-dimensional shape, Darwin R.P.
RAPH85 Proceedings, Volume 19, Number 3, July 1985 (Darwyn R. Peachey, 'Soli
d Texturing of Complex Surface ', SIGGRAPH85 Procee
dings, Vol.19, No.3, July, 1985) is known.

【0007】[0007]

【発明が解決しようとする課題】前記従来のテクスチャ
マッピングの技術によれば、あらかじめ作成した画像を
テクスチャとして使用するので、3次元形状に与える模
様を大きくすると、表示された模様の画質が荒くなると
いった問題があった。
According to the conventional texture mapping technique, an image created in advance is used as a texture. Therefore, if the size of a pattern given to a three-dimensional shape is increased, the image quality of the displayed pattern becomes rough. There was such a problem.

【0008】すなわち、あらかじめ作成した画像の解像
度は一定であるので、模様を大きくすると、シャギ−等
が生じて画質が荒くなり、輪郭線等が滑らかでなくな
る。一方、輪郭線等を滑らかにするために、平滑フィル
タリング処理等を施せば画質がぼけることになる。
That is, since the resolution of an image created in advance is constant, if the size of the pattern is increased, shaggy or the like occurs, the image quality becomes rough, and the contour lines and the like are not smooth. On the other hand, if a smooth filtering process or the like is performed in order to smooth contour lines or the like, the image quality will be blurred.

【0009】この問題は、あらかじめ作成する画像の解
像度を、使用される可能性のある最も大きな模様に合わ
せて高くしておくことにより避けることができる。しか
し、解像度を高くすると画像データ量が増加するという
問題が生じる。
This problem can be avoided by increasing the resolution of an image created in advance in accordance with the largest pattern that may be used. However, increasing the resolution causes a problem that the amount of image data increases.

【0010】また、前記従来のテクスチャマッピングの
技術によれば、模様としてあらかじめ作成した画像デー
タを用いているが、一般に、画像はデータ量が多く、多
種類の模様を使用しようとすると、画像データの記憶に
膨大な容量が必要となるという問題が生じる。
According to the conventional texture mapping technique, image data created in advance is used as a pattern. However, in general, an image has a large amount of data. A problem arises that a huge amount of memory is required for storing the information.

【0011】なお、前記ファンクショナルマッピングの
技術によれば、文字など不規則な模様や、多種類の模様
を表現することは極めて困難である。
According to the functional mapping technique, it is extremely difficult to represent irregular patterns such as characters and various types of patterns.

【0012】そこで、本発明は、少ない量のデータに基
づいて、高画質に、多種類の模様を任意の大きさで、画
像生成対象の3次元形状に与えることのできる画像処理
方法を提供することを目的とする。
Accordingly, the present invention provides an image processing method capable of giving a high quality and various types of patterns of any size to a three-dimensional shape of an image generation target based on a small amount of data. The purpose is to:

【0013】[0013]

【課題を解決するための手段】前記目的達成のために、
本発明は、想定したカメラスクリ−ンに撮影されると想
定される、3次元の形状を有する被写体の撮影像を生成
する画像処理方法であって、想定したカメラスクリ−ン
と被写体との相対的な位置関係に応じてテクスチャの解
像度を決定し、2次元平面上のベクトル値関数として規
定されたテクスチャパタ−ンより、決定した解像度のテ
クスチャを生成し、前記カメラスクリ−ンに撮影される
と想定される、生成したテクスチャをコ−ディネ−トし
た前記被写体の撮影像を生成するすることを特徴とする
画像処理方法を提供する。
To achieve the above object,
The present invention relates to an image processing method for generating a photographed image of a subject having a three-dimensional shape which is assumed to be photographed on an assumed camera screen. The resolution of the texture is determined according to the relative positional relationship, a texture having the determined resolution is generated from the texture pattern defined as a vector value function on a two-dimensional plane, and the texture is captured by the camera screen. An image processing method for generating a photographed image of the subject obtained by coordinating the generated texture.

【0014】ここで、「コ−ディネ−ト」とは、3次元
形状の表面に2次元の画像を貼付るように付することを
いう。
Here, "coordinate" means that a two-dimensional image is attached to a three-dimensional surface.

【0015】また、特に、本発明に係る画像処理方法の
好適な一実施態様として、本発明に係る画像処理方法に
おいて、前記テクスチャの解像度の決定を、想定したカ
メラスクリ−ンと被写体との相対的な位置関係に応じ
て、想定したカメラスクリ−ン上への被写体の投影像を
求め、求めた被写体の投影像の大きさを算出し、算出し
た投影像の解像度を求め、求めた投影像の解像度と同等
の解像度をテクスチャの解像度として決定することによ
り行なう画像処理方法を提供する。
In a particularly preferred embodiment of the image processing method according to the present invention, in the image processing method according to the present invention, the resolution of the texture is determined based on the relative position between the camera screen and the subject. The projected image of the subject on the assumed camera screen is calculated according to the relative positional relationship, the size of the calculated projected image of the subject is calculated, the resolution of the calculated projected image is calculated, and the calculated projected image is calculated. And an image processing method for determining the resolution equivalent to the resolution of the texture as the resolution of the texture.

【0016】[0016]

【作用】本発明に係る画像処理方法によれば、テクスチ
ャを2次元平面上のベクトル値関数として規定されたテ
クスチャパタ−ンより生成する。ベクトル値関数は、画
素データで表現した画像データに比べ少ないデータ量で
形状を表現することができる。したがって、多種類のテ
クスチャを記憶し利用することができる。また、ベクト
ルで形状を規定しているため、形状の大きさによってシ
ャギ−が発生して画質を荒くするようなことがなく、任
意の解像度の画像に対応することができる。
According to the image processing method of the present invention, a texture is generated from a texture pattern defined as a vector value function on a two-dimensional plane. The vector value function can represent a shape with a smaller data amount than image data represented by pixel data. Therefore, various types of textures can be stored and used. Further, since the shape is defined by the vector, it is possible to cope with an image of an arbitrary resolution without shaggy due to the size of the shape and deteriorating the image quality.

【0017】また、想定したカメラスクリ−ンと被写体
との相対的な位置関係に応じてテクスチャの解像度を決
定し、2次元平面上のベクトル値関数として規定された
テクスチャパタ−ンより、決定した解像度のテクスチャ
を生成するため、高画質なテクスチャを被写体にコ−デ
ィネ−トすることができる。
Further, the resolution of the texture is determined according to the assumed relative positional relationship between the camera screen and the subject, and the resolution is determined from the texture pattern defined as a vector value function on a two-dimensional plane. Since a high-resolution texture is generated, a high-quality texture can be coordinated with a subject.

【0018】また、特に、前記テクスチャの解像度の決
定を、想定したカメラスクリ−ンと被写体との相対的な
位置関係に応じて、想定したカメラスクリ−ン上への被
写体の投影像を求め、求めた被写体の投影像の大きさを
算出し、算出した投影像の解像度を求め、求めた投影像
の解像度と同等の解像度をテクスチャの解像度として決
定するようにすれば、テクスチャの解像度を過不足なく
決定することができるので、過剰なデータの発生を防止
でき、本来不必要な処理の発生を排除することができ
る。
In particular, the resolution of the texture is determined by obtaining a projected image of the subject on the assumed camera screen in accordance with the relative positional relationship between the assumed camera screen and the subject. If the calculated size of the projected image of the subject is calculated, the resolution of the calculated projected image is determined, and the resolution equivalent to the determined resolution of the projected image is determined as the resolution of the texture, the resolution of the texture is insufficient or insufficient. Therefore, it is possible to prevent the occurrence of excessive data and to eliminate the occurrence of unnecessary processing.

【0019】[0019]

【実施例】以下、本発明の第1の実施例を説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below.

【0020】まず、本第1実施例に係る画像処理装置の
構成を図1に示す。
First, the configuration of the image processing apparatus according to the first embodiment is shown in FIG.

【0021】図示するように、本第1実施例に係る画像
処理装置は、3次元光景データベ−ス11と、3次元画
像生成装置12と、画像データベ−ス13と、ディスプ
レイ14を有している。
As shown in the figure, the image processing apparatus according to the first embodiment has a three-dimensional scene database 11, a three-dimensional image generator 12, an image database 13, and a display 14. I have.

【0022】また、3次元画像生成装置12は、3次元
光景入力装置121、3次元光景解釈装置122、3次
元画像生成処理装置123、2次元画像生成装置12
4、3次元画像出力装置125を有している。
The three-dimensional image generation device 12 includes a three-dimensional scene input device 121, a three-dimensional scene interpretation device 122, a three-dimensional image generation processing device 123, and a two-dimensional image generation device 12.
It has a four- and three-dimensional image output device 125.

【0023】3次元光景データベース11は、画像処理
装置が生成する3次元光景に関する各種パラメータを格
納するデータベースである。
The three-dimensional scene database 11 is a database for storing various parameters relating to the three-dimensional scene generated by the image processing apparatus.

【0024】まず、3次元光景デ−タベ−ス11につい
て説明する。
First, the three-dimensional scene database 11 will be described.

【0025】3次元光景デ−タベ−ス11に格納されて
いるデータのうち、1つの3次元光景を生成するデータ
を表1に示す。また、図3は、表1に示したデータが表
現する3次元光景を具体的に示したものである。
Table 1 shows data for generating one three-dimensional scene among the data stored in the three-dimensional scene database 11. FIG. 3 specifically shows a three-dimensional scene represented by the data shown in Table 1.

【0026】[0026]

【表1】 [Table 1]

【0027】表1に示すデータは、3次元光景を撮影す
るカメラを定義するコマンド、被写体の形状を定義する
コマンド、被写体の属性を定義するコマンドより成り、
これらによって、被写体と、その被写体を照射する光源
と、被写体を写すカメラを指定することにより3次元光
景を指定している。
The data shown in Table 1 includes a command for defining a camera for photographing a three-dimensional scene, a command for defining a shape of a subject, and a command for defining attributes of a subject.
Thus, a three-dimensional scene is specified by specifying a subject, a light source for irradiating the subject, and a camera for photographing the subject.

【0028】表1に示したデータが指定している被写体
111は、図3に示すように、(0、1、0)を中心と
して半径1の球であって、”あいうえお”という文字が
ならんだ模様を有している。また、光源112は(5、
5、5)という座標に存在し、光源の放射強度1、光源
の色が(1、1、1)の点光源である。カメラ113は
(0、5、0)という座標に存在し、y軸の負の方向を
向き被写体111を写している。以下、この図3に示し
た空間を世界空間と呼ぶ。
The subject 111 specified by the data shown in Table 1 is a sphere having a radius of 1 with (0, 1, 0) as the center, as shown in FIG. Has a pattern. The light source 112 is (5,
It is a point light source that exists at coordinates of (5, 5), has a radiation intensity of 1 from the light source, and the color of the light source is (1, 1, 1). The camera 113 exists at the coordinates (0, 5, 0), and faces the negative direction of the y-axis to capture the subject 111. Hereinafter, the space shown in FIG. 3 is called a world space.

【0029】画像処理装置は、このように仮想した世界
空間でカメラによって撮影した被写体の映像を生成する
のであるが、本実施例においては、かかる映像の生成処
理のために、世界空間と各々独立の空間であるカメラ空
間、被写体空間、テクスチャ空間の3つの空間を設定す
る。
The image processing apparatus generates an image of the subject photographed by the camera in the virtual world space as described above. In the present embodiment, the image processing apparatus is independent of the world space for generating the image. , A camera space, a subject space, and a texture space.

【0030】これらの空間の関係を図2に示す。FIG. 2 shows the relationship between these spaces.

【0031】図中Aで示す座標系で定義される空間がカ
メラ空間であり、図示する例では、ZA=0の平面上に
カメラのスクリ−ンを設定している。また、カメラ空間
内の各点が投影されるスクリ−ン上の点は既知であるも
のとする。
The space defined by the coordinate system indicated by A in the figure is the camera space, and in the example shown in the figure, the screen of the camera is set on the plane of ZA = 0. Also, it is assumed that the points on the screen where each point in the camera space is projected are known.

【0032】また、図中Bで示す座標計で定義される空
間が被写体空間であり、図示した例では、被写体である
球の中心と被写体空間の原点とを一致させている。
The space defined by the coordinate meter indicated by B in the figure is the subject space. In the illustrated example, the center of the sphere as the subject coincides with the origin of the subject space.

【0033】図中Cで示す座標系で定義される空間がテ
クスチャ空間であり、図示する例では、ZC=0の平面
上にテクスチャを設定している。また、マッピングの対
象となった場合に、テクスチャ空間内の各点にマッピン
グされるテクスチャ上の点は既知であるものとする。
A space defined by a coordinate system indicated by C in the figure is a texture space, and in the illustrated example, the texture is set on a plane of ZC = 0. Also, it is assumed that the points on the texture that are mapped to each point in the texture space when they are to be mapped are known.

【0034】なお、図中Wで示す座標系で定義される空
間が前記世界空間である。
The space defined by the coordinate system indicated by W in the figure is the world space.

【0035】さて、表1に示すデータは、ポストスクリ
プトと呼ばれる言語によって記述されている。ポストス
クリプトは逆ポーランド記法によって記述されている。
すなわち、コマンドを含むステ−トメントは、パラメー
タと、該パラメータを用いるコマンドの順で記述され
る。たとえば、表1に示すステ−トメント1105にお
いて、初めに記述されている”001”が青色を示すパ
ラメ−タ、”color”が表示する色をパラメ−タの
示す青色とするコマンドである。
The data shown in Table 1 is described in a language called PostScript. Postscript is written in reverse Polish notation.
That is, a statement including a command is described in the order of a parameter and a command using the parameter. For example, in the statement 1105 shown in Table 1, "001" described first is a parameter indicating blue, and "color" is a command to change the color displayed to blue indicated by the parameter.

【0036】表1に示すデータを記述されている順に説
明する。
The data shown in Table 1 will be described in the order described.

【0037】ステートメント1101のHRBegin
は画像生成開始を宣言している。ステートメント110
2の/embossは模様を生成する「手続き」の名前
である。
HRBegin of statement 1101
Declares the start of image generation. Statement 110
2 / emboss is the name of the "procedure" for generating the pattern.

【0038】/embossに続く ”{” と
”}” の間、すなわちステートメント1102から
1108の間が、被写体の模様を生成する手続である。
"/" Following / emboss
The procedure between "@", that is, between statements 1102 and 1108, is a procedure for generating the pattern of the subject.

【0039】ステートメント1103は、模様を特徴付
けるパラメータである。ステートメント1104から1
107は、模様を生成するためのステ−トメントであ
る。
The statement 1103 is a parameter characterizing the pattern. Statement 1104-1
Reference numeral 107 denotes a statement for generating a pattern.

【0040】1104は表示する文字の種類をゴシック
体にし、文字の大きさを0.02にするステ−トメント
である。ステートメント1105は表示する文字の色を
青色に定義するステ−トメントである。ステートメント
1106は表示される文字列の位置を2次元の座標系で
(0.5, 0.5)の位置に表示することを定義する
ステ−トメントである。
Reference numeral 1104 denotes a statement in which the type of character to be displayed is set to gothic and the size of the character is set to 0.02. Statement 1105 is a statement that defines the color of the character to be displayed as blue. Statement 1106 is a statement defining that the position of the character string to be displayed is displayed at the position (0.5, 0.5) in the two-dimensional coordinate system.

【0041】ステートメント1109から1115はカ
メラ113を定義するステ−トメントである。ステート
メント1109は生成される画像の解像度を定義するス
テ−トメントである。ステートメント1110はカメラ
のフレームの縦横比を定義するステ−トメントである。
ステートメント1111は被写体を写すスクリーンの大
きさを定義するステ−トメントである。ステートメント
1113は被写体を写すスクリーンへの投影方法等を定
義するステ−トメントである。ステートメント1114
とステートメント1115はカメラ配置を定義するステ
−トメントである。
Statements 1109 to 1115 are statements defining the camera 113. Statement 1109 is a statement that defines the resolution of the generated image. Statement 1110 is a statement that defines the aspect ratio of the camera frame.
Statement 1111 is a statement that defines the size of the screen that captures the subject. A statement 1113 is a statement for defining a method of projecting a subject onto a screen for capturing a subject, and the like. Statement 1114
And statement 1115 are statements defining the camera arrangement.

【0042】ステートメント1116から1122まで
のステ−トメントは、被写体を定義するステ−トメント
である。ステートメント1116は3次元光景に関する
被写体の定義の開始を宣言するステ−トメントである。
ステートメント1117は3次元光景を照明する光源を
定義するステ−トメントである。このように、光源も被
写体の定義セクション内で定義される。ステートメント
1117は、点光源112を定義するステ−トメントで
ある。ステートメント1117のパラメータは、光源の
強度、光源の色、光源の位置である。ステートメント1
118は被写体111の色を定義するステ−トメントで
ある。ステートメント1119は被写体111の模様を
前もって定義した模様/embossにすることを定義
するステ−トメントである。ステートメント1120は
被写体111の位置を定義するステ−トメントである。
ステートメント1121は被写体111を半径1の球と
することを定義するステ−トメントである。ステートメ
ント1122は3次元光景に関する被写体の定義の終了
を宣言するステ−トメントである。
The statements 1116 to 1122 are statements for defining a subject. Statement 1116 is a statement declaring the start of the definition of a subject with respect to a three-dimensional scene.
Statement 1117 is a statement that defines a light source that illuminates a three-dimensional scene. Thus, the light source is also defined in the definition section of the subject. Statement 1117 is a statement that defines point light source 112. The parameters of statement 1117 are light source intensity, light source color, and light source position. Statement 1
Reference numeral 118 denotes a statement for defining the color of the subject 111. A statement 1119 is a statement that defines the pattern of the subject 111 to be a pattern / emboss defined in advance. A statement 1120 is a statement for defining the position of the subject 111.
Statement 1121 is a statement that defines the subject 111 as a sphere having a radius of one. Statement 1122 is a statement for declaring the end of the definition of the subject regarding the three-dimensional scene.

【0043】ステートメント1123は3次元光景に関
する全てのパラメータ定義の終了を宣言するステ−トメ
ントである。
A statement 1123 is a statement for declaring the end of all parameter definitions for a three-dimensional scene.

【0044】さて、3次元画像生成装置12は、以上説
明したような3次元光景に関するデータを3次元光景デ
ータベース11より読み込み、3次元光景の画像を生成
する。そして、生成した画像をディスプレイ14に表示
する。または、生成した画像を画像データベース13に
格納する。
The three-dimensional image generating device 12 reads data on the three-dimensional scene described above from the three-dimensional scene database 11 and generates an image of the three-dimensional scene. Then, the generated image is displayed on the display 14. Alternatively, the generated image is stored in the image database 13.

【0045】以下、3次元光景生成装置の画像生成動作
について説明する。
Hereinafter, an image generating operation of the three-dimensional scene generating apparatus will be described.

【0046】3次元光景入力装置121は、3次元光景
データベース11のデータを文字列ごとに読み込み、読
み込んだ文字列を3次元光景解釈装置122に送る。
The three-dimensional scene input device 121 reads the data of the three-dimensional scene database 11 for each character string, and sends the read character string to the three-dimensional scene interpretation device 122.

【0047】ここで、3次元光景解釈装置122の構成
を図4に示す。
Here, the configuration of the three-dimensional scene interpretation device 122 is shown in FIG.

【0048】図示するように、3次元光景解釈装置12
2は、文字列判定装置1220、カメラ属性設定処理群
1221、被写体属性設定処理群1222、形状設定処
理群1223、座標変換処理群1224、モード制御処
理群1225、カメラ属性テーブル1226、被写体属
性テーブル1227、結果テーブルスタック1228、
座標変換スタック1229から構成されている。
As shown, the three-dimensional scene interpretation device 12
Reference numeral 2 denotes a character string determination device 1220, a camera attribute setting process group 1221, a subject attribute setting process group 1222, a shape setting process group 1223, a coordinate conversion process group 1224, a mode control process group 1225, a camera attribute table 1226, and a subject attribute table 1227. , Result table stack 1228,
It is composed of a coordinate conversion stack 1229.

【0049】ここで、カメラ属性設定処理群1221
は、表1に示したデータ中のステートメント1109か
ら1115に、それぞれ対応する処理の集合であり、カ
メラ属性テーブル1226に、ステ−トメント中のパラ
メ−タによって指定されたカメラ属性を設定する処理の
集合である。
Here, the camera attribute setting processing group 1221
Is a set of processes corresponding to the statements 1109 to 1115 in the data shown in Table 1, respectively. The process of setting the camera attribute specified by the parameter in the statement in the camera attribute table 1226 is shown in FIG. It is a set.

【0050】被写体属性設定処理群1222は、表1に
示したデータ中のステートメント1117から1120
に、それぞれ対応した処理の集合であり、被写体属性テ
ーブル1227に被写体属性を設定する処理の集合であ
る。
The subject attribute setting processing group 1222 includes statements 1117 to 1120 in the data shown in Table 1.
Is a set of processes corresponding to the respective processes, and is a set of processes for setting subject attributes in the subject attribute table 1227.

【0051】座標変換処理群1224は、表1に示した
データ中のステートメント1114、1115、112
0に、それぞれ対応した処理の集合であり、座標変換の
定義を座標変換スタック1229に設定する処理の集合
である。
The coordinate conversion processing group 1224 includes statements 1114, 1115, and 112 in the data shown in Table 1.
0 is a set of processes respectively corresponding to 0, and is a set of processes for setting the definition of coordinate conversion in the coordinate conversion stack 1229.

【0052】モード制御処理群1225は表1に示した
データ中のステートメント1101、1116、112
2、1123に、それぞれ対応した処理の集合であり、
現在カメラ属性を設定する処理と、被写体属性を設定す
る処理とを制御する処理である。 また、カメラ属性テ
ーブル1226は図5に示すように、解像度1226
1、ピクセルアスペクト比12262、スクリ−ンのウ
ィンドウ12263、レタリング領域12264、スク
リ−ンへの投影方法12265、カメラ空間12268
の項目より成る。
The mode control processing group 1225 includes statements 1101, 1116, and 112 in the data shown in Table 1.
2, a set of processes respectively corresponding to 1123,
This is a process for controlling the process of setting the current camera attribute and the process of setting the subject attribute. The camera attribute table 1226 has a resolution 1226 as shown in FIG.
1, pixel aspect ratio 12262, screen window 12263, lettering area 12264, projection method 12265 on screen, camera space 12268
Items.

【0053】被写体属性テーブル1227は、図6に示
すように、被写体の全属性パラメータを定義するテーブ
ルである。図6に示すように、被写体属性テーブルは色
12271、光源12272、模様を定義する手続きの
配列12273、「手続き」用パラメータ12274、
テクスチャマッピング空間12275、艶12276、
及び被写体座標12277の項目から構成されている。
As shown in FIG. 6, the subject attribute table 1227 is a table for defining all attribute parameters of the subject. As shown in FIG. 6, the subject attribute table includes a color 12271, a light source 12272, an array 12273 of procedures for defining a pattern, a “procedure” parameter 12274,
Texture mapping space 12275, gloss 12276,
And subject coordinates 12277.

【0054】文字列判定装置1220は3次元光景入力
装置121から文字列を受け取ると、受け取った文字列
がコマンドに渡すパラメータであるか、コマンドである
かを判定する。そして、受け取った文字列が、パラメー
タであれば、結果テーブルスタック1228にパラメー
タをスタックする。
Upon receiving the character string from the three-dimensional scene input device 121, the character string determination device 1220 determines whether the received character string is a parameter to be passed to the command or a command. If the received character string is a parameter, the parameter is stacked on the result table stack 1228.

【0055】一方、受け取った文字列が、コマンドなら
ば、カメラ属性設定処理群1221もしくは被写体属性
設定処理群1222もしくは形状設定処理群1223も
しくは座標変換処理群1224もしくはモード制御処理
群1225内の、受け取ったコマンドに対応する処理を
実行する。
On the other hand, if the received character string is a command, if the received character string is a command in the camera attribute setting processing group 1221, the subject attribute setting processing group 1222, the shape setting processing group 1223, the coordinate conversion processing group 1224, or the mode control processing group 1225, Execute the processing corresponding to the command.

【0056】また、文字列判定装置1221は”{”が
入力されると、それ以降 ”}”が入力されるまでの
文字列についてはコマンドであっても処理を実行せず
に、パラメ−タとして解釈結果テーブルスタック122
5にスタックする。
When "@" is input, the character string judging device 1221 does not execute processing even if the command is a command until the "@" is input. Interpreted result table stack 122
Stack on 5.

【0057】以下、表1に示すデータを受け取った3次
元光景解釈装置122の動作を説明する。
Hereinafter, the operation of the three-dimensional scene interpretation device 122 that has received the data shown in Table 1 will be described.

【0058】まず、ステ−トメント1101を受け取る
と、文字判定装置1220は、コマンドと判定し、ステ
ートメント1101に対応するモード制御処理群122
5内の処理を実行する。このステートメント1101に
対応する処理は、3次元生成処理装置を初期化し、モー
ドをカメラ属性設定モードに設定する。また、このと
き、座標変換スタック1229には、前記カメラ空間を
世界空間座標に変換する空間変換行列が格納される。本
実施例では、カメラ空間の各座標軸ZA、YA、XA
が、対応する世界空間の各座標軸座標ZW、YW、XW
に変換されるような線形のカメラ空間変換行列を格納す
る(図2参照)。
First, when the statement 1101 is received, the character determination device 1220 determines that it is a command, and the mode control processing group 122 corresponding to the statement 1101.
5 is executed. The processing corresponding to the statement 1101 initializes the three-dimensional generation processing device and sets the mode to the camera attribute setting mode. At this time, the coordinate transformation stack 1229 stores a space transformation matrix for transforming the camera space into world space coordinates. In the present embodiment, each coordinate axis ZA, YA, XA in the camera space
Are the corresponding coordinate axes ZW, YW, XW of the world space.
Is stored (see FIG. 2).

【0059】次に、文字判定装置1220は、入力され
たステ−トメント1102〜1108をパラメ−タとし
て、結果テ−ブルスタック1228に格納する。
Next, the character judgment device 1220 stores the input statements 1102 to 1108 as parameters in the result table stack 1228.

【0060】そして、ステ−トマント1109が入力さ
れると、文字判定装置1220は、前半部に記述された
パラメ−タ”640、480、1.0”を、結果テ−ブ
ルスタック1228に格納し、後半部に記述されたコマ
ンド”HRFormat”に対応したカメラ属性設定処
理群1221内の処理を起動する。HRFormat”
に対応した処理は、モ−ドがカメラ属性設定モ−ドにあ
ることを確認した後、カメラ属性テーブル1226の画
像解像度12261が、文字列判定装置1220が結果
テーブルスタック1228に格納した、ステートメント
1109中の3つのパラメータ640、480、1.0
に設定する。
When the statemant 1109 is input, the character determination device 1220 stores the parameters “640, 480, 1.0” described in the first half in the result table stack 1228. Then, the processing in the camera attribute setting processing group 1221 corresponding to the command “HRFormat” described in the latter half is started. HRFormat "
After confirming that the mode is in the camera attribute setting mode, the image resolution 12261 of the camera attribute table 1226 is changed to the statement 1109 stored in the result table stack 1228 by the character string determination device 1220. The three parameters 640, 480, 1.0
Set to.

【0061】続いて入力されるステ−トメント1110
から1113についても同様に処理し、カメラ属性テー
ブル1226のピクセルアスペクト比12262、スク
リ−ンのウィンドウ12263、レタリング領域122
64、スクリ−ンへの投影方法12265の各項目を設
定する。
A subsequently input statement 1110
To 1113, the pixel aspect ratio 12262 of the camera attribute table 1226, the screen window 12263, the lettering area 122
64, each item of the projection method 12265 on the screen is set.

【0062】続いてステ−トメント1114が入力され
ると、ステートメント1114に対応する座標変換処理
群1224内の処理を行ない、次式のような変換行列を
作成し、座標変換スタック1228に格納されているカ
メラ空間変換行列との積をとり、結果を、変換行列とし
て座標変換スタック1228に格納する。
Subsequently, when a statement 1114 is input, the processing in the coordinate conversion processing group 1224 corresponding to the statement 1114 is performed, a conversion matrix as shown in the following equation is created, and stored in the coordinate conversion stack 1228. The product is multiplied by the camera space transformation matrix, and the result is stored in the coordinate transformation stack 1228 as a transformation matrix.

【0063】[0063]

【数1】 (Equation 1)

【0064】ここで、θはステートメント1114の第
一パラメータの90.0、xは第二パラメータの1.
0、yは第三パラメータの0.0、zは第四パラメータ
の0.0である。
Here, θ is 90.0 of the first parameter of the statement 1114, and x is 1.0.0 of the second parameter.
0 and y are 0.0 of the third parameter, and z is 0.0 of the fourth parameter.

【0065】続いてステ−トメント1115が入力され
ると、ステートメント1115に対応する座標変換処理
群1224内の処理を行ない、式1において、ステート
メント1115の第1パラメータ0.0をx、第2パラ
メータ5.0をy、第3パラメータ0.0をzとした変
換行列を作成し、座標変換スタック1228内の変換行
列との積をとり、積を取った結果の変換行列を、新たな
変換行列として座標変換スタック1229に格納する。
この変換行列は、カメラ空間を、世界空間内のカメラ位
置を原点とする図2中aで示す位置の空間に変換する変
換行列である。
Subsequently, when the statement 1115 is input, the processing in the coordinate conversion processing group 1224 corresponding to the statement 1115 is performed, and in the equation 1, the first parameter 0.0 of the statement 1115 is x, the second parameter is Create a transformation matrix with 5.0 as y and the third parameter 0.0 as z, take the product with the transformation matrix in the coordinate transformation stack 1228, and use the resulting transformation matrix as a new transformation matrix. Is stored in the coordinate conversion stack 1229.
This conversion matrix is a conversion matrix for converting the camera space into a space at a position indicated by a in FIG. 2 with the camera position in the world space as the origin.

【0066】続いて、ステ−トメント1116が入力さ
れると、文字判定装置1220は、コマンド1116に
対応したモード制御処理群1225内の処理を実行し、
カメラ属性テーブル1226のカメラ空間12268
に、座標変換スタック1229に格納されている変換行
列を設定し、モ−ドを被写体設定モードに変更する。ま
た、このとき、座標変換スタック1229には、前記被
写体空間を世界空間座標に変換する被写体空間変換行列
が格納される。本実施例では、被写体空間の各座標軸Z
B、YB、XBが、対応する世界空間の各座標軸座標Z
W、YW、XWに変換されるような線形の被写体空間変
換行列を格納する(図2参照)。また、座標変換スタッ
ク1229には、前記テクチャ空間を世界空間座標に変
換するテクチャ空間変換行列も格納される。本実施例で
は、テクスチャ空間の各座標軸ZC、YC、XCが、対
応する世界空間の各座標軸座標ZW、YW、XWに変換
されるような線形のテクスチャ空間変換行列を格納する
(図2参照)。
Subsequently, when a statement 1116 is input, the character determination device 1220 executes the processing in the mode control processing group 1225 corresponding to the command 1116,
Camera space 12268 of camera attribute table 1226
Then, the conversion matrix stored in the coordinate conversion stack 1229 is set, and the mode is changed to the subject setting mode. At this time, the coordinate conversion stack 1229 stores an object space conversion matrix for converting the object space into world space coordinates. In the present embodiment, each coordinate axis Z in the subject space
B, YB, and XB are the corresponding coordinate axes Z of the world space.
A linear subject space conversion matrix that is converted into W, YW, and XW is stored (see FIG. 2). The coordinate conversion stack 1229 also stores a texture space conversion matrix for converting the texture space into world space coordinates. In the present embodiment, a linear texture space conversion matrix is stored such that each coordinate axis ZC, YC, XC in the texture space is converted into each corresponding coordinate axis coordinate ZW, YW, XW in the world space (see FIG. 2). .

【0067】次に、文字判定装置1220は、入力され
たステ−トメント1117内のパラメ−タを結果テ−ブ
ルスタック1228に格納する。そして、モ−ドが被写
体属性設定モ−ドにあることを確認した後、ステ−トメ
ント1117内のコマンドに対応した被写体属性設定処
理群1223内の処理を実行し、被写体属性テーブル1
227の光源12272に、結果テ−ブルスタックに一
旦格納したステートメント1109中のパラメータを設
定する。
Next, the character determination device 1220 stores the input parameters in the statement 1117 in the result table stack 1228. After confirming that the mode is in the subject attribute setting mode, the process in the subject attribute setting processing group 1223 corresponding to the command in the statement 1117 is executed, and the subject attribute table 1 is set.
The parameters in the statement 1109 once stored in the result table stack are set to the light source 12272 of 227.

【0068】また、同様に、ステ−トメント1118が
入力されると、文字判定装置1220は、被写体属性処
理群1222内のステートメント1118に対応した処
理を実行し、被写体属性テーブル1227の色1227
1を、結果テーブルスタック1228に一旦格納したス
テートメント1118中のパラメ−タ”1.0 1.0
1.0”を設定する。
Similarly, when a statement 1118 is input, the character determination device 1220 executes a process corresponding to the statement 1118 in the subject attribute processing group 1222, and
1 in the statement 1118 once stored in the result table stack 1228.
1.0 "is set.

【0069】次に、ステ−トメント1119が入力され
ると、文字判定装置1220は、まず、第1パラメ−タ
として、”emboss”を、第2パラメ−タとして”
Km0.5”を結果テーブルスタック1228に格納す
る。そして、次に、コマンド”HR Texture”
に対応する被写体属性処理群1222内の処理を実行す
る。すなわち、結果テーブルスタック1228に格納さ
れている第一パラメータを判定し、被写体属性テ−ブル
1227の模様定義「手続き」12274を、第1パラ
メ−タと同じ文字列”/emboss”と共に、先に結
果テ−ブルスタック1228に格納したステ−トメント
1102〜1108の配列に変更する。
Next, when the statement 1119 is input, the character judging device 1220 firstly sets "emboss" as the first parameter and "emboss" as the second parameter.
Km0.5 ”is stored in the result table stack 1228. Then, the command“ HR Texture ”is stored.
Are executed in the subject attribute processing group 1222 corresponding to. That is, the first parameter stored in the result table stack 1228 is determined, and the pattern definition “procedure” 12274 of the subject attribute table 1227 is first added together with the same character string “/ emboss” as the first parameter. The result is changed to the arrangement of the statements 1102 to 1108 stored in the table stack 1228.

【0070】結果テーブルスタック1228の第二パラ
メータはパラメータとして手続き用パラメータ1227
4に格納する。
The second parameter of the result table stack 1228 is a procedure parameter 1227 as a parameter.
4 is stored.

【0071】そして、テクスチャマッピング空間122
75に、座標変換スタック1229に格納されているテ
クスチャ空間変換行列を設定する。
Then, the texture mapping space 122
At 75, the texture space conversion matrix stored in the coordinate conversion stack 1229 is set.

【0072】続いてステ−トメント1120が入力され
ると、ステートメント1114に対応する座標変換処理
群1224内の処理を行ない、式1において、ステート
メント11205の第1パラメータ0.0をx、第2パ
ラメータ1.0をy、第3パラメータ0.0をzとした
変換行列を作成し、座標変換スタック1228内の被写
体空間変換行列との積をとり、積を取った結果の変換行
列を、被写体変換行列として座標変換スタック1229
に格納する。この、被写体変換行列は、被写体空間を世
界空間内の座標(0、1、0)原点とする図2中bで示
す位置の空間に変換する変換行列である。
Subsequently, when the statement 1120 is input, the processing in the coordinate transformation processing group 1224 corresponding to the statement 1114 is performed, and in the equation 1, the first parameter 0.0 of the statement 11205 is set to x, and the second parameter A conversion matrix in which 1.0 is y and the third parameter 0.0 is z is created, the product of the conversion matrix with the object space conversion matrix in the coordinate conversion stack 1228 is obtained, and the resulting conversion matrix is used as the object conversion matrix. Coordinate transformation stack 1229 as matrix
To be stored. This subject conversion matrix is a conversion matrix for converting the subject space into a space at a position indicated by b in FIG. 2 with the origin of coordinates (0, 1, 0) in the world space.

【0073】次に、ステートメント1121が入力され
ると、文字判定装置1220は、コマンド”HRSph
ere”に対応する形状設定処理群1223内の処理を
行ない、座標変換スタック1229に格納された被写体
変換行列を、被写体属性テ−ブル1227の被写体空間
12277に設定する。
Next, when the statement 1121 is input, the character determination device 1220 outputs the command “HRSph”.
The processing in the shape setting processing group 1223 corresponding to “ere” is performed, and the subject conversion matrix stored in the coordinate conversion stack 1229 is set in the subject space 12277 of the subject attribute table 1227.

【0074】そして、カメラ属性テーブル1226、被
写体属性テーブル1227、結果テーブルスタック12
28に格納されたステートメント1121中のパラメー
タと、球を表現する形状識別子を3次元画像生成処理装
置123に送る。
Then, the camera attribute table 1226, the subject attribute table 1227, the result table stack 12
The parameters in the statement 1121 and the shape identifier representing the sphere are sent to the three-dimensional image generation processing device 123.

【0075】次に、ステートメント1122が入力され
ると、文字列判定装置1220は、対応するモード制御
処理群1225内の処理により、モードをカメラ属性設
定モードにする。
Next, when the statement 1122 is input, the character string determination device 1220 sets the mode to the camera attribute setting mode by the processing in the corresponding mode control processing group 1225.

【0076】ステートメント1123が入力されると、
文字列判定装置1220は、対応するモード制御処理群
1225内の処理により、3次元光景解釈装置の処理を
終了させる。
When the statement 1123 is input,
The character string determination device 1220 terminates the processing of the three-dimensional scene interpretation device by the processing in the corresponding mode control processing group 1225.

【0077】次に、3次元光景解釈装置122から、カ
メラ属性テーブル1226、被写体属性テーブル122
7と結果テーブルスタック1228に格納されたパラメ
ータと球を表現する形状識別子とを受け取った3次元画
像生成処理装置123について説明する。
Next, the camera attribute table 1226 and the subject attribute table 122
7 and the three-dimensional image generation processing device 123 that has received the parameters stored in the result table stack 1228 and the shape identifier representing the sphere will be described.

【0078】3次元画像生成処理装置123は、3次元
光景解釈装置122から送られてきた形状識別子と、ス
テ−トメント1121のパラメータと、カメラ属性テー
ブル1226と被写体属性テーブル1227の内容を基
に3次元画像を3次元画像メモリ1236上に作成し、
3次元画像メモリ1236の内容を3次元画像出力装置
125に出力する装置である。
The three-dimensional image generation processing device 123 performs three-dimensional processing based on the shape identifier sent from the three-dimensional scene interpretation device 122, the parameters of the statement 1121, and the contents of the camera attribute table 1226 and the subject attribute table 1227. Create a three-dimensional image on the three-dimensional image memory 1236,
This is a device that outputs the contents of the three-dimensional image memory 1236 to the three-dimensional image output device 125.

【0079】3次元画像生成処理装置123の構成を図
7に示す。
FIG. 7 shows the configuration of the three-dimensional image generation processing unit 123.

【0080】3次元画像生成処理装置123は、投影処
理装置1231と模様設定処理装置1232と3次元サ
ンプリング処理装置1233とテクスチャマッピング処
理装置1234と模様画像メモリ1235と3次元画像
メモリ1236から構成される。
The three-dimensional image generation processing device 123 includes a projection processing device 1231, a pattern setting processing device 1232, a three-dimensional sampling processing device 1233, a texture mapping processing device 1234, a pattern image memory 1235, and a three-dimensional image memory 1236. .

【0081】3次元画像生成処理装置123において、
投影処理装置1231は、被写体のカメラスクリーン上
への投影像を求める投影処理を行なう。
In the three-dimensional image generation processing device 123,
The projection processing device 1231 performs a projection process for obtaining a projection image of a subject on a camera screen.

【0082】投影処理は、以下のように行なう。The projection process is performed as follows.

【0083】まず、投影処理装置1231は、3次元光
景解釈装置122から送られてきた形状識別子をもと
に、結果テーブルスタック1228に格納されているパ
ラメータを解釈する。
First, the projection processing device 1231 interprets the parameters stored in the result table stack 1228 based on the shape identifier sent from the three-dimensional scene interpretation device 122.

【0084】本実施例では、表1のステートメント11
21に対応して、結果テーブルスタック1228に1.
0、1.0、−1.0、360.0というパラメータが
格納されている。投影処理装置1231は、受け取った
形状識別子が球を示している場合、結果テーブルスタッ
ク1228に格納されている第1パラメータを半径、第
2パラメータを下方カット面値、第3パラメータを上方
カット面値、第4パラメータをスィープ角と解釈する。
こうして、解釈された被写体球は、被写体空間におい
て、原点を中心とする球である(図2B参照)。
In this embodiment, statement 11 in Table 1 is used.
21 in the result table stack 1228 corresponding to 1.
The parameters 0, 1.0, -1.0, 360.0 are stored. When the received shape identifier indicates a sphere, the projection processing device 1231 sets the first parameter stored in the result table stack 1228 to a radius, the second parameter to a lower cut plane value, and the third parameter to an upper cut plane value. , The fourth parameter is interpreted as a sweep angle.
The subject sphere interpreted in this way is a sphere centered on the origin in the subject space (see FIG. 2B).

【0085】そこで、この被写体空間上の球のカメラ空
間上の位置を求め、被写体のカメラスクリ−ン上への投
影像を求める。
Therefore, the position of the sphere in the object space on the camera space is obtained, and the projected image of the object on the camera screen is obtained.

【0086】すなわち、球に対し、被写体属性テーブル
1227の被写体空間12276に格納された被写体変
換行列を施し球のパラメ−タを世界空間上のパラメ−タ
に変換し、得られて世界空間上の球のパラメ−タにカメ
ラ属性テーブル1226のカメラ空間12266に格納
されたカメラ変換行列の逆行列を施してカメラ空間上の
球のパラメ−タを求める。ただし、被写体属性テーブル
1227の被写体空間12276に格納された被写体変
換行列とカメラ属性テーブル1226のカメラ空間12
266に格納されたカメラ変換行列の逆行列との積を球
に施して、直接被写体空間上のパラメ−タからカメラ空
間上のパラメ−タに変換するようにしてもよい。
That is, the object conversion matrix stored in the object space 12276 of the object attribute table 1227 is applied to the sphere to convert the parameters of the sphere into the parameters in the world space. The parameters of the sphere are obtained by applying the inverse of the camera transformation matrix stored in the camera space 12266 of the camera attribute table 1226 to the sphere parameters. However, the subject conversion matrix stored in the subject space 12276 of the subject attribute table 1227 and the camera space 12
The product of the sphere and the inverse of the camera transformation matrix stored in 266 may be applied to the sphere to directly convert the parameters in the subject space to the parameters in the camera space.

【0087】こうして球のカメラ空間上のパラメ−タが
求まれば、これをカメラ空間におけるカメラスクリ−ン
への投影を求めることにより、被写体のカメラスクリ−
ン上への投影像のパラメ−タを求めることができる。カ
メラスクリ−ンに投影された球の投影像のパラメ−タは
円のパラメ−タとなる。
When the parameters of the sphere in the camera space are obtained in this manner, the parameters are projected onto the camera screen in the camera space, thereby obtaining the camera screen of the object.
The parameters of the projected image on the screen can be obtained. The parameters of the projected image of the sphere projected on the camera screen are circular parameters.

【0088】一方、模様設定装置1232は、模様の解
像度を決定する。
On the other hand, the pattern setting device 1232 determines the resolution of the pattern.

【0089】模様の解像度の決定は、以下のように行な
う。
The resolution of the pattern is determined as follows.

【0090】まず、投影処理装置1231が求めたカメ
ラ空間におけるカメラスクリ−ン上に投影された、被写
体の投影像の領域を求める。そして、求めた領域の大き
さより、模様の解像度を決定し、被写体属性テーブル1
227に格納されている模様を生成する「手続き」の配
列12273と共に、求めた模様の解像度を2次元画像
生成装置124(図1参照)に送る。
First, the area of the projected image of the subject projected on the camera screen in the camera space determined by the projection processing device 1231 is determined. Then, the resolution of the pattern is determined based on the size of the obtained area, and the subject attribute table 1 is determined.
The obtained resolution of the pattern is transmitted to the two-dimensional image generation device 124 (see FIG. 1) together with the “procedure” array 12273 for generating the pattern stored in the 227.

【0091】模様の解像度の求め方を図8を用いて説明
する。
A method for obtaining the pattern resolution will be described with reference to FIG.

【0092】図8は、カメラスクリーンを図示したもの
である。
FIG. 8 illustrates a camera screen.

【0093】カメラ属性テ−ブル1226の解像度12
261の内容より、カメラスクリーン113の大きさは
横640縦480である。
Resolution 12 of camera attribute table 1226
According to the content of H.261, the size of the camera screen 113 is 640 (horizontal) × 480 (vertical).

【0094】スクリーンの座標系は、図8中に示すよう
に左上を原点とし、右下を(640、480)とした座
標系で定義されている。
As shown in FIG. 8, the coordinate system of the screen is defined by a coordinate system having the upper left as the origin and the lower right as (640, 480).

【0095】このとき、被写体球の投影像111Bは、
先に投影処理装置1231が求めた円のパラメ−タより
求まる。
At this time, the projected image 111B of the subject sphere is
It is obtained from the parameters of the circle previously obtained by the projection processing device 1231.

【0096】次に、球が投影された領域(図中波線で示
した領域)を含む矩形領域を求めると、対角線上の頂点
が(272、192)と(368、288)の領域にな
る。
Next, when a rectangular area including the area where the sphere is projected (the area indicated by the wavy line in the figure) is obtained, the vertices on the diagonal are the areas of (272, 192) and (368, 288).

【0097】よって、投影された球が占有する領域は縦
96×横96の領域になるので、模様設定装置1332
は求められた領域から模様の解像度を式2によって求め
る。
Therefore, the area occupied by the projected sphere is a 96 × 96 area.
Calculates the resolution of the pattern from the obtained area by Expression 2.

【0098】 Tres = region × 2 −− 式2 ここで、Tresは求められる模様の解像度であり、投
影像を含む矩形領域形状の占有領域regionの2
倍、すなわち、縦方向に192、横方向に192の解像
度となる。
Tres = region × 2−2 Expression 2 where Tres is the resolution of the pattern to be obtained, and 2 of the occupied region region of the rectangular area shape including the projected image.
That is, the resolution is 192 in the vertical direction and 192 in the horizontal direction.

【0099】ナイキストの定理より、被写体の模様は、
スクリーンの解像度によって決る空間周波数の2倍の空
間周波数持った画像(すなわち解像度をもった画像)と
すれば十分であるので、式2により模様の解像度を求め
れば、模様は鮮明で、かつ、過不足ない解像度をもった
画像を生成することができる。
According to Nyquist's theorem, the pattern of the subject is
It is sufficient if the image has a spatial frequency twice as high as the spatial frequency determined by the screen resolution (that is, an image having the resolution). Therefore, if the resolution of the pattern is obtained by Equation 2, the pattern is sharp and excessive. An image having a sufficient resolution can be generated.

【0100】模様設定処理装置1232は、こうして求
めた解像度を、被写体属性テ−ブル1227の模様の
「手続」12273と「手続」用パラメ−タと共に、2
次元画像生成装置に渡す。
The pattern setting processor 1232 compares the resolution thus obtained together with the “procedure” 12273 and “procedure” parameters of the pattern of the subject attribute table 1227 by two.
Hand over to the two-dimensional image generation device.

【0101】なお、被写体の大きさと、被写体とカメラ
スクリ−ンの距離から、単純に模様の解像度を求めるよ
うにしても、過不足ない解像度に近い値を得ることがで
きるので、さほど、高画質を要求されない場合は、被写
体の大きさと、被写体とカメラスクリ−ンの距離から、
単純に模様の解像度を求めるようにしてもよい。
Even if the resolution of the pattern is simply obtained from the size of the subject and the distance between the subject and the camera screen, a value close to the appropriate resolution can be obtained. Is not required, the size of the subject and the distance between the subject and the camera screen
The resolution of the pattern may be simply obtained.

【0102】ここで、一旦3次元画像生成処理装置12
3の説明を離れ、2次元画像生成装置124の模様生成
動作を説明する。
Here, the three-dimensional image generation processing device 12
3, the pattern generation operation of the two-dimensional image generation device 124 will be described.

【0103】まず、図9に2次元画像生成装置の構成を
示す。
First, FIG. 9 shows the configuration of a two-dimensional image generation device.

【0104】図示するように、2次元画像生成装置12
4は、データ判定装置1240と2次元属性設定処理群
1241と文字展開処理1242と画像展開処理124
3と2次元サンプリング処理装置1244と2次元図形
属性テーブル1245とワークメモリ1246とパラメ
ータスタックメモリ1247と文字フォントデータベー
ス1248と画像データベース1249から構成され
る。
As shown, the two-dimensional image generation device 12
4 is a data determination device 1240, a two-dimensional attribute setting processing group 1241, a character development processing 1242, and an image development processing 124.
It comprises a three-dimensional sampling processing device 1244, a two-dimensional graphic attribute table 1245, a work memory 1246, a parameter stack memory 1247, a character font database 1248, and an image database 1249.

【0105】2次元画像生成装置124が受け取る被写
体属性テ−ブル1227の模様「手続き」12273に
は、表1に示したデータ中のステ−トメント1103〜
1107が格納されている。そこで、2次元画像生成装
置124の、データ判定装置1240は、被写体属性テ
−ブル1227の模様「手続き」の配列12273を受
け取ると、配列内の文字列を順に読み込み、コマンドに
渡すパラメータであるか、コマンドであるかを判定し、
パラメータであれば、パラメータスタックメモリ124
7に格納する。また、被写体属性テ−ブル1227の
「手続き」用パラメ−タ12274を、2次元図形属性
テーブル1245に格納する。
The pattern “procedure” 12273 of the subject attribute table 1227 received by the two-dimensional image generation device 124 includes the statements 1103 to 1103 in the data shown in Table 1.
1107 is stored. Therefore, when the data determination device 1240 of the two-dimensional image generation device 124 receives the array 12273 of the pattern “procedure” of the subject attribute table 1227, it reads the character strings in the array in order and determines whether the parameter is a parameter to be passed to the command. , Command
If it is a parameter, the parameter stack memory 124
7 is stored. The “procedure” parameter 12274 of the subject attribute table 1227 is stored in the two-dimensional graphic attribute table 1245.

【0106】また、コマンドであれば、2次元属性設定
処理群1241または文字展開処理群1242または画
像展開処理群1243内の読み込んだコマンドに対応す
る処理を実行する。
In the case of a command, a process corresponding to the command read in the two-dimensional attribute setting processing group 1241, the character development processing group 1242, or the image development processing group 1243 is executed.

【0107】被写体属性テ−ブル1227の模様「手続
き」12273より、ステ−トメント1103が入力さ
れると、データ判定装置1240は、ステ−トメント1
103中のパラメ−タ”Km1.0”をパラメ−タスタ
ックメモリ1247に格納した後、コマンド”para
mdef”に対応する2次元属性設定処理群1241内
の処理を実行し、パラメ−タ”Km1.0”12274
を、2次元図形属性テーブル1245に格納する。
When a statement 1103 is input from the pattern “procedure” 12273 of the subject attribute table 1227, the data judging device 1240 makes the statement 1
After storing the parameter “Km1.0” in the parameter 103 in the parameter stack memory 1247, the command “para”
The processing in the two-dimensional attribute setting processing group 1241 corresponding to “mdef” is executed, and the parameter “Km1.0” 12274
Is stored in the two-dimensional graphic attribute table 1245.

【0108】ステートメント1104と1105と11
06についても、同様にして、それぞれ各ステ−トメン
ト中のパラメータである文字フォントの種類とフォント
の大きさと文字の色と文字の配置位置とを2次元図形属
性テーブル1245に設定する。
Statements 1104, 1105 and 11
Similarly, for 06, the type of character font, font size, character color, and character arrangement position, which are parameters in each statement, are set in the two-dimensional graphic attribute table 1245.

【0109】なお、表1に本実施例では、フォントの種
類をゴシック体、フォントの大きさを0.02、文字列
の開始位置を0.5,0.5としている。
In this example, Table 1 shows that the font type is Gothic, the font size is 0.02, and the starting position of the character string is 0.5 or 0.5.

【0110】次に、ステ−トメント1207が入力され
ると、ステ−トメント1207のパラメ−タ”あいうえ
お”をパラメ−タスタックメモリ1247に格納した
後、コマンド”show”に対応する文字展開処理群1
242内の処理を行なう。
Next, when the statement 1207 is input, the parameter “Aio” of the statement 1207 is stored in the parameter stack memory 1247, and then a character expansion processing group corresponding to the command “show” is performed. 1
The processing in 242 is performed.

【0111】文字展開処理群1242内の処理は、パラ
メータスタックメモリ1247にスタックされた文字列
を構成する文字コードと2次元図形属性テーブル124
5のフォントの種類とを基に、文字フォントデータベー
ス1248から文字外形線データをとり出し、文字外形
線データを模様定義空間上の文字外形線データに変換す
る処理である。
The processing in the character expansion processing group 1242 is based on the character codes constituting the character strings stacked in the parameter stack memory 1247 and the two-dimensional graphic attribute table 124.
This is a process of extracting character outline data from the character font database 1248 based on the font type 5 and converting the character outline data into character outline data in the pattern definition space.

【0112】文字外形線データは文字外形を構成する曲
線を示すベクトル値関数である。2次元上の曲線を表す
ベクトル値関数は、一般に、Pu={X(u)、Y
(u)}で表され、たとえば、半径1の円を表すベクト
ル値関数はPu={cos(u)、sin(u)}、で
ある。このようなベクトル値関数によって規定された形
状は、シャギ−の発生等を伴わずに拡大することができ
る。たとえば、原点を中心とする半径1の円を規定する
ベクトル値関数Pu={cos(u)、sin(u)}
より、半径Kの円を表すベクトル値関数Pu={Kco
s(u)、Ksin(u)}を得ることができ、このベ
クトル値関数Pu={Kcos(u)、Ksin
(u)}に従い、曲線を描けばシャギ−の発生等を伴わ
ずに、半径Kの円を得ることができる。
The character outline data is a vector value function indicating a curve constituting the character outline. A vector-valued function representing a two-dimensional curve is generally expressed as Pu = {X (u), Y
(U)}, for example, a vector value function representing a circle having a radius of 1 is Pu = {cos (u), sin (u)}. The shape defined by such a vector-valued function can be expanded without shaggy or the like. For example, a vector value function Pu = {cos (u), sin (u)} that defines a circle having a radius of 1 centered on the origin.
Thus, a vector value function Pu = PKco representing a circle having a radius K
s (u), Ksin (u)}, and this vector value function Pu = {Kcos (u), Ksin
(U) If a curve is drawn according to}, a circle having a radius K can be obtained without occurrence of shaggy.

【0113】なお、このようなベクトル値関数を用い
て、形状を規定する方法としては、ベツィエ法によるも
のや、スプライン法によるものが知られている。
As a method for defining a shape using such a vector value function, a method based on the Bezier method and a method based on the spline method are known.

【0114】模様定義空間は、原点(0.0、0.0)
と座標(1.0、1.0)を対角線の頂点とする矩形の
2次元空間である。。
The pattern definition space has an origin (0.0, 0.0)
And a coordinate (1.0, 1.0) as a diagonal vertex. .

【0115】模様定義空間上の文字外形線データへの変
換は、次のように行なう。
Conversion to character outline data in the pattern definition space is performed as follows.

【0116】すなわち、3次元画像生成処理装置123
より受け取った文字フォントデータベース1248から
取りだした文字外形線データを、模様定義空間上、各文
字フォントの大きさが0.02となり、各文字の位置が
座標(0.5、0.5)より順次フォントの大きさだけ
横にずれた位置となるように変換する。変換された模様
定義空間上の文字外形線データもベクトル値関数であ
る。変換された模様定義空間上の文字外形線データはワ
−クメモリ1246に格納される。
That is, the three-dimensional image generation processing unit 123
The character outline data extracted from the character font database 1248 received is converted into a size of 0.02 for each character font in the pattern definition space, and the position of each character is sequentially set from coordinates (0.5, 0.5). Conversion is performed so that the position is shifted horizontally by the size of the font. The converted character outline data in the converted pattern definition space is also a vector value function. The converted character outline data in the pattern definition space is stored in the work memory 1246.

【0117】模様定義空間上の文字外形線データがワ−
クメモリ1246に格納されたら、2次元サンプリング
処理装置1244が、ワークメモリ1246に格納され
ている模様定義空間上の文字外形線データをテクスチャ
空間に展開し、文字外形線に囲まれた画素を、先に2次
元図形属性テーブル1245に格納した文字の色属性で
色づけする処理を行なう。
The character outline data in the pattern definition space is
After being stored in the memory 1246, the two-dimensional sampling processor 1244 expands the character outline data in the pattern definition space stored in the work memory 1246 into the texture space, and determines the pixels surrounded by the character outline first. Then, a process of coloring with the color attribute of the character stored in the two-dimensional graphic attribute table 1245 is performed.

【0118】模様定義空間上の文字外形線データをテク
スチャ空間への展開は次のように行なう。
The expansion of the character outline data in the pattern definition space into the texture space is performed as follows.

【0119】まず、3次元画像生成処理装置123より
受け取った解像度、縦192、横182に基づいて、テ
クスチャ空間のXC−YC平面(図2参照)上に、対角
線の頂点を(0.0、0.0)と(192.0、19
2.0)とする矩形の画像領域を想定する。
First, based on the resolution, vertical 192, and horizontal 182 received from the three-dimensional image generation processing device 123, the vertices of the diagonal line are set to (0.0, 0.0) on the XC-YC plane of the texture space (see FIG. 2). 0.0) and (192.0, 19
2.0) is assumed.

【0120】そして、つぎに、模様定義空間上の文字外
形線データを、テクスチャ空間上の文字外形線データに
変換する。変換は、模様定義空間がテクスチャ空間上に
想定した矩形の画像領域とが可能な限り同じ大きさで重
なるように模様定義空間を変換する線形変換によって行
なう。本実施例の場合、この変換は単純な拡大変換とな
る。
Then, the character outline data in the pattern definition space is converted into character outline data in the texture space. The conversion is performed by a linear conversion that converts the pattern definition space so that the pattern definition space and the rectangular image area assumed on the texture space overlap as much as possible. In the case of the present embodiment, this conversion is a simple enlargement conversion.

【0121】そして、このようにして、求めたテクスチ
ャ空間上の文字外形線データに基づいて、テクスチャ空
間のXC−YC平面をワ−クメモリに設定し、XC−Y
C平面上で文字外形線で込まれた領域内の点のワ−クメ
モリ上の画素の値を、先に2次元図形属性テーブル12
45に格納した文字の色属性に従って設定するのであ
る。
The XC-YC plane of the texture space is set in the work memory based on the character outline data in the texture space thus obtained, and the XC-Y
The value of the pixel on the work memory at the point in the area defined by the character outline on the C plane is stored in the two-dimensional graphic attribute table 12 first.
The setting is made according to the color attribute of the character stored in 45.

【0122】図11は、表1によって定義された模様の
「手続き」を2次元画像生成装置によって生成した画像
である。生成された画像は縦192横192の解像度で
ある。図に示すように定義された”あいうえお”という
文字列が縦96横96の位置から横に表示されている。
FIG. 11 is an image in which the “procedure” of the pattern defined by Table 1 is generated by the two-dimensional image generating apparatus. The generated image has a resolution of 192 (vertical) × 192 (horizontal). As shown in the figure, a character string “Aioe” defined horizontally is displayed from 96 positions to 96 positions.

【0123】以上で2次元画像生成装置124の説明を
終え、3次元画像生成処理装置123の説明に戻る。
The description of the two-dimensional image generation device 124 has been completed, and the description returns to the three-dimensional image generation processing device 123.

【0124】さて、3次元画像生成処理装置123の3
次元サンプリング処理装置1233は、3次元画像メモ
リ上に、模様を付した被写体のカメラスクリ−ンへの投
影像の画像を生成する。
The three-dimensional image generation processing device 123
The dimensional sampling processing device 1233 generates an image of a projected image of the patterned subject on the camera screen on the three-dimensional image memory.

【0125】3次元サンプリング処理装置1233の処
理手順を図12に示す。
FIG. 12 shows the processing procedure of the three-dimensional sampling processor 1233.

【0126】まず、3次元サンプリング処理装置123
3は、3次元画像メモリ1236上に、カメラ空間のカ
メラスクリ−ン平面を設定する。
First, the three-dimensional sampling processor 123
3 sets a camera screen plane in the camera space on the three-dimensional image memory 1236.

【0127】次に、被写体球のカメラスクリ−ン上への
投影像の内部の点を、先に求めたカメラスクリ−ン上の
円のパラメ−タより求める。
Next, the points inside the projected image of the subject sphere on the camera screen are determined from the parameters of the previously determined circle on the camera screen.

【0128】そして、以下の処理を、求めたカメラスク
リ−ン上の投影像の内部の各点(図6中ハッチング部
分)について行なう12331。いま処理対象としてい
るカメラスクリ−ン上の投影像の内部の点を処理点とい
う。
Then, the following processing is performed for each point (hatched portion in FIG. 6) inside the obtained projected image on the camera screen 12331. A point inside the projection image on the camera screen which is to be processed now is called a processing point.

【0129】まず、処理点に投影された被写体上の点を
求める12332。この処理は、投影像を求めたときと
同様にして被写体のカメラ空間上の位置を求め、処理点
に投影される被写体上の点を求めればよい。
First, the point on the subject projected on the processing point is determined 12332. In this process, the position of the subject in the camera space may be obtained in the same manner as when the projection image is obtained, and the point on the subject projected to the processing point may be obtained.

【0130】次に、求めたカメラ空間上の被写体上の点
のテクスチャ空間上の位置を求める12333。この処
理は、カメラ属性設定テ−ブル1226のカメラ空間1
2266に設定されたカメラ変換行列の逆行列と被写体
属性テーブル1227のテクスチャマッピング空間12
274に設定されたテクスチャ空間変換行列との積を求
め、求まった行列によってカメラ空間上の被写体上の点
を変換することにより求まる。求まった位置はテクスチ
ャ空間上に存在する。
Next, the position in the texture space of the obtained point on the object in the camera space is calculated 12333. This processing is performed in the camera space 1 of the camera attribute setting table 1226.
The inverse matrix of the camera conversion matrix set in 2266 and the texture mapping space 12 in the subject attribute table 1227
The product is obtained by calculating the product of the matrix and the texture space conversion matrix set in 274, and converting the point on the subject in the camera space by the obtained matrix. The determined position exists in the texture space.

【0131】処理12334はテクスチャマッピング処
理装置1234を起動する処理である。テクスチャマッ
ピング処理装置1234を起動する際、処理12334
は処理12333によって求まった被写体上の点のテク
スチャ空間上の位置を渡す。
Processing 12334 is processing for activating the texture mapping processing device 1234. When the texture mapping processing device 1234 is started, the process 12334 is executed.
Gives the position in the texture space of the point on the subject determined in step 12333.

【0132】テクスチャマッピング処理装置1234
は、処理12334から渡された被写体上の点のテクス
チャ空間上の位置から、当該被写体上の点に付される模
様の色を求める。求めた色は、当該被写体上の点が投影
されたカメラスリ−ン上の点の色である。
Texture mapping processor 1234
Calculates the color of the pattern assigned to the point on the subject from the position in the texture space of the point on the subject passed from step 12334. The obtained color is the color of the point on the camera screen where the point on the subject is projected.

【0133】テクスチャ空間上の位置から、被写体上の
点に付される模様の色を求める処理は、以下のように行
なう。
The processing for obtaining the color of the pattern to be added to the point on the subject from the position in the texture space is performed as follows.

【0134】まず、求めた被写体上の点のテクスチャ空
間上の位置のXC座標と、YC座標を抽出する。いま抽
出したXC座標をQ、YC座標をPとする。そして、ワ
−クメモリ1246上に設定したテクスチャ空間のXC
−YC平面上の座標(XC=Q、YC=P、ZC=0)
に対応するワ−クメモリ上の画素の値を求める。そし
て、求めた画素の値を被写体上の点に付される模様の色
とする。
First, the XC coordinate and the YC coordinate of the position of the obtained point on the subject in the texture space are extracted. The extracted XC coordinates are Q, and the YC coordinates are P. The XC of the texture space set on the work memory 1246
-Coordinates on the YC plane (XC = Q, YC = P, ZC = 0)
The value of the pixel on the work memory corresponding to is obtained. Then, the obtained pixel value is set as the color of the pattern added to the point on the subject.

【0135】ところで、以上の処理では、テクスチャ空
間において、XC−YC平面上の模様の領域と、被写体
が存在するXC座標の範囲と、YC座標の範囲がずれて
いる場合、被写体上の点に模様が付されないことにな
る。そこで、このような場合、テクスチャマッピング処
理装置1234は、テクスチャ空間上で被写上の点の位
置を移動し、XC−YC平面上の模様の領域のXC座標
の範囲とYC座標の範囲が、それぞれ、被写体を存在す
るXC座標の範囲とYC座標の範囲の内に収まるように
して、被写体上の点に付される模様の色を求めるように
する。
In the above processing, if the pattern area on the XC-YC plane, the range of the XC coordinates where the subject exists, and the range of the YC coordinates are displaced in the texture space, a point on the subject is determined. No pattern will be added. Therefore, in such a case, the texture mapping processing device 1234 moves the position of the point on the subject in the texture space, and the XC coordinate range and the YC coordinate range of the pattern area on the XC-YC plane are: In each case, the color of the pattern attached to a point on the subject is determined so as to fall within the range of the XC coordinates and the range of the YC coordinates where the subject exists.

【0136】または、表1に示すデータ中に、テクスチ
ャ空間が変換される世界空間上の位置を指定するステ−
トメントを設け、前記3次元光景解釈装置122が、こ
のステ−トメントに応じて作成した変換行列を、被写体
属性テ−ブル1227のテクスチャマッピング空間に設
定するようにしてもよい。
Alternatively, in the data shown in Table 1, a stage for designating a position in the world space where the texture space is transformed is specified.
The three-dimensional scene interpretation device 122 may set a transformation matrix created in accordance with the statement in the texture mapping space of the subject attribute table 1227.

【0137】また、以上の処理では、被写体上の点のテ
クスチャ空間におけるZC方向の位置を考慮していない
ので、模様は幾分ゆがんで被写体にコ−ディネ−トされ
ることになる。このゆがみは、後処理によって補正す
る。
In the above processing, the position of the point on the subject in the ZC direction in the texture space is not taken into consideration, so that the pattern is slightly distorted and is coordinated with the subject. This distortion is corrected by post-processing.

【0138】さて、テクスチャマッピング処理装置は、
こうして求めた被写体上の点の色を処理12335に渡
す。
Now, the texture mapping processing device
The color of the point on the subject thus obtained is passed to the processing 12335.

【0139】処理12335は、テクスチャマッピング
処理装置1234から戻された色を、処理点の色とし、
3次元画像メモリ1236上のカメラスクリ−ン平面の
対応する画素の値を求めた色に設定する。
The processing 12335 uses the color returned from the texture mapping processing unit 1234 as the color of the processing point,
The value of the corresponding pixel on the camera screen plane on the three-dimensional image memory 1236 is set to the determined color.

【0140】以上の処理を、カメラスクリ−ン上の投影
像の内部の各点について終了したならば、3次元出力装
置125を起動して処理を終了する。
When the above processing has been completed for each point in the projection image on the camera screen, the three-dimensional output device 125 is activated and the processing is terminated.

【0141】3次元出力装置125は、3次元画像生成
処理装置123内の3次元画像メモリ1236に作成さ
れたカメラスクリ−ン平面の画像を外部の画像データベ
ース13やディスプレイ装置14に出力する。
The three-dimensional output unit 125 outputs the image of the camera screen plane created in the three-dimensional image memory 1236 in the three-dimensional image generation processing unit 123 to the external image database 13 and the display device 14.

【0142】以上の処理を実行することにより、3次元
光景に関する被写体の模様を表示することが可能であ
る。
By executing the above-described processing, it is possible to display the pattern of the subject regarding the three-dimensional scene.

【0143】なお、本実施例では、説明を簡単にするた
めに3次元光景の被写体として球を取り扱ったが、その
他の形状に関しても同様に取り扱うことができる。
In this embodiment, a sphere is used as a subject in a three-dimensional scene for the sake of simplicity. However, other shapes can be handled in the same manner.

【0144】また、本実施例では、パラメ−タによって
形状が規定される被写体について説明したが、3次元の
ドットデータにより直接形状が規定される被写体であっ
ても同様に処理することができる。
In the present embodiment, a subject whose shape is defined by parameters has been described. However, the same processing can be performed for a subject whose shape is directly defined by three-dimensional dot data.

【0145】また、本実施例では、処理の高速化を優先
し、被写体上の点のテクスチャ空間におけるZC方向の
位置を考慮せずに、テクスチャを被写体上にコ−ディネ
−トしたが、差ほど処理の高速性を問われない場合に
は、被写体上の点のテクスチャ空間におけるZC方向の
位置や、被写体の曲面形状を考慮したコ−ディネ−トを
行ない、模様のゆがみを軽減するのが望ましい。
In this embodiment, the processing speed is prioritized, and the texture is coordinated on the object without considering the position of the point on the object in the ZC direction in the texture space. When the processing speed is not so important, it is necessary to perform the coordination in consideration of the position of the point on the subject in the ZC direction in the texture space and the curved shape of the subject to reduce the distortion of the pattern. desirable.

【0146】以下、前記第1実施例で説明した画像処理
装置を利用した映像制作システムを第2の実施例として
説明する。
A video production system using the image processing apparatus described in the first embodiment will be described below as a second embodiment.

【0147】映像製作システムは、ユ−ザの指示に応じ
て、アニメ−ション等の映像を制作するシステムであ
る。
The video production system is a system for producing a video such as an animation in response to a user's instruction.

【0148】まず、本第2実施例に係る映像製作システ
ムの構成を図13に示す。
First, FIG. 13 shows the configuration of the video production system according to the second embodiment.

【0149】図示するように、本実施例に係る映像製作
システムは、3次元光景を作成編集する3次元光景制作
システム21と、3次元画像生成装置22と、作成され
た画像を録画編集する映像編集システム23と、マウス
25と、キーボード26と、写真などの画像を取り込む
イメージスキャナ27と、3次元光景データベース28
と文字フォントデータベース29と画像データベース3
0とディスプレイ装置31から構成される。
As shown in the figure, the image production system according to the present embodiment includes a three-dimensional scene production system 21 for creating and editing a three-dimensional scene, a three-dimensional image generation device 22, and an image for recording and editing the created image. An editing system 23, a mouse 25, a keyboard 26, an image scanner 27 for capturing images such as photographs, and a three-dimensional scene database 28.
And character font database 29 and image database 3
0 and a display device 31.

【0150】3次元光景制作システム21は、形状を作
成編集する形状編集システム211と、作成された形状
に光学的な属性や模様などの属性を定義する属性定義シ
ステム212と、被写体の模様を作成編集するペイント
システム213と、作成された形状に動作を定義する動
作定義システム214から構成されている。
The three-dimensional scene production system 21 includes a shape editing system 211 for creating and editing a shape, an attribute definition system 212 for defining attributes such as an optical attribute and a pattern in the created shape, and creating a pattern of a subject. The system includes a paint system 213 for editing and an operation definition system 214 for defining an operation in the created shape.

【0151】3次元画像生成装置22と3次元光景デー
タベース28と文字フォントデータベース29と画像デ
ータベース30とディスプレイ装置31が、前記第1実
施例に係る画像処理装置を構成する。
The three-dimensional image generating device 22, the three-dimensional scene database 28, the character font database 29, the image database 30, and the display device 31 constitute the image processing device according to the first embodiment.

【0152】映像製作システムの動作の概要を説明す
る。
An outline of the operation of the video production system will be described.

【0153】3次元光景製作システム21は、入力用画
面をディスプレイ31に表示し、被写体や被写体の動作
や被写体の模様等の入力を受付ける。
The three-dimensional scene production system 21 displays an input screen on the display 31, and accepts input of the subject, the motion of the subject, the pattern of the subject, and the like.

【0154】ユーザは、キ−ボ−ド26、マウス25、
イメ−ジスキャナ27より、被写体や被写体の動作や被
写体の模様等を入力する。
The user has a keyboard 26, a mouse 25,
From the image scanner 27, the subject, the motion of the subject, the pattern of the subject, and the like are input.

【0155】3次元光景制作システム21は入力された
内容に応じて、実施例1で表1を用いて示したデータを
作成し、3次元光景データベース28に書き込む。
The three-dimensional scene production system 21 creates the data shown in Table 1 according to the first embodiment in accordance with the input contents, and writes the data in the three-dimensional scene database 28.

【0156】3次元画像生成装置22は3次元光景デー
タベース28を読み込み、3次元光景データベースの内
容を解釈し画像を作成する。そして、3次元画像生成装
置22は作成した画像を画像データベース30に格納す
る。もしくは、作成した画像を接映像編集システム23
に送る。
The three-dimensional image generation device 22 reads the three-dimensional scene database 28 and interprets the contents of the three-dimensional scene database to create an image. Then, the three-dimensional image generation device 22 stores the created image in the image database 30. Alternatively, the created image is transferred to the close video editing system 23.
Send to

【0157】映像編集システム23は、画像データベー
ス30または直接送られてくる画像を編集し、アニメー
ションまたは最終画像を生成する。
[0157] The video editing system 23 edits the image database 30 or the image sent directly to generate an animation or a final image.

【0158】次に、3次元光景生成システムの動作の詳
細について説明する。
Next, the operation of the three-dimensional scene generation system will be described in detail.

【0159】3次元光景制作システム21は、起動され
ると、図14に示す入力用画面を表示する。
When activated, the three-dimensional scene production system 21 displays an input screen shown in FIG.

【0160】図14中、領域2111は被写体の配置を
入力するための領域である。
In FIG. 14, an area 2111 is an area for inputting an arrangement of a subject.

【0161】領域2112は、形状編集システム211
の起動指示を受付ける領域である。領域2113は被写
体の属性定義システム212の起動指示を受付ける領域
である。領域2114は動作定義システム213の起動
指示を受付ける領域である。領域2115は入力した処
理の取り消しを行なう処理の起動指示を受付ける領域で
ある。領域2116は入力作業の終了処理の起動を受付
ける領域である。これらの領域がマウス25によってピ
ックされた場合に、指定された領域に対応するシステム
が起動される。
The area 2112 is used for the shape editing system 211.
This is an area for receiving a start instruction. An area 2113 is an area for receiving a start instruction of the attribute defining system 212 for a subject. An area 2114 is an area for receiving a start instruction of the operation definition system 213. An area 2115 is an area for receiving an instruction to start processing for canceling the input processing. An area 2116 is an area for receiving the start of the input work end processing. When these areas are picked by the mouse 25, the system corresponding to the specified area is activated.

【0162】また、図14中、形状2117と2118
は入力された3次元形状である。
In FIG. 14, the shapes 2117 and 2118
Is the input three-dimensional shape.

【0163】形状編集システム211は、3次元の形状
を定義編集するシステムである。形状編集システム21
1は、被写体の形状として、2次曲面や、制御点によっ
て定義される自由曲面などを受付ける。形状編集システ
ム211の処理が終了したら、3次元光景生成システム
21の図14に示した入力用画面に戻る。
The shape editing system 211 is a system for defining and editing a three-dimensional shape. Shape editing system 21
1 accepts a secondary curved surface, a free-form surface defined by a control point, or the like as the shape of the subject. When the processing of the shape editing system 211 is completed, the screen returns to the input screen of the three-dimensional scene generation system 21 shown in FIG.

【0164】属性定義システム212は、図15に示す
入力用画面をディスプレイ31に表示し、被写体の光学
的な属性として、色、艶、模様のパラメ−タの入力を受
付けるシステムである。 図15中、領域2121と領
域2122と領域2123は色のパラメータを設定を受
付けるスライダである。領域2124は艶のパラメータ
の設定を受付けるスライダである。 ユ−ザは、スライ
ダの領域をマウス25によってピックしたまま上下する
ことによってスライダの位置を移動する。属性定義シス
テム212は、移動されたスライダの位置に応じて決る
値をパラメータとして受付ける。
The attribute definition system 212 is a system that displays the input screen shown in FIG. 15 on the display 31 and accepts input of color, gloss, and pattern parameters as optical attributes of the subject. In FIG. 15, a region 2121, a region 2122, and a region 2123 are sliders for receiving color parameter settings. An area 2124 is a slider for receiving setting of a gloss parameter. The user moves the position of the slider by moving up and down while picking the area of the slider with the mouse 25. The attribute definition system 212 receives, as a parameter, a value determined according to the position of the moved slider.

【0165】領域2125は模様を設定するペイントシ
ステム214の起動を受付ける領域である。領域212
5が、マウス25によってピックされた場合に、属性定
義システム21は、ペイントシステムに処理を渡す。ペ
イントシステム214は、後述する処理を行ない、模様
のデータを属性定義システム212に戻す。属性定義シ
ステム212は戻された模様のデータを模様属性として
受付ける。領域2126は設定した属性の取り消しを行
なう処理の起動を受付ける領域である。領域2127は
属性を定義システムを終了する処理の起動を受付ける領
域である。。属性定義システム212の処理が終了した
ら、3次元光景生成システム21の図14に示した入力
用画面に戻る。
An area 2125 is an area for receiving activation of the paint system 214 for setting a pattern. Region 212
When 5 is picked by the mouse 25, the attribute definition system 21 passes the processing to the paint system. The paint system 214 performs the processing described below, and returns the pattern data to the attribute definition system 212. The attribute definition system 212 receives the returned pattern data as a pattern attribute. An area 2126 is an area for receiving activation of processing for canceling the set attribute. An area 2127 is an area for accepting activation of processing for terminating the attribute definition system. . When the process of the attribute definition system 212 is completed, the screen returns to the input screen of the three-dimensional scene generation system 21 shown in FIG.

【0166】ペイントシステム214は、図16に示す
入力用画面をディスプレイ31に表示し、被写体の模様
とする2次元の図形や画像や文字の入力を受付けるステ
ムである。
The paint system 214 is a stem that displays the input screen shown in FIG. 16 on the display 31 and receives input of a two-dimensional figure, image, or character as a pattern of a subject.

【0167】図16中、領域2141はユ−ザが入力作
業を行なう領域である。この領域上で入力された文字や
図形や画像の移動、編集、変形などの処理が行なわれ
る。領域2142はイメージスキャナ27によって写真
などの画像を取り込む処理や、画像を画像データベース
30から取り出す処理の起動を受付ける領域である。領
域2143は文字列や文字の入力を受付ける処理の起動
を受付ける領域である。領域2144は2次元の図形を
定義する処理の起動を受付ける領域である。領域214
5は、いままでのペイントシステム214での入力の内
容を取消し、属性定義システムに戻る処理の起動を受付
ける領域である。ペイントシステム214を終了し、属
性定義システムに戻る処理の起動を受付ける領域であ
る。領域2146は全ての入力作業が終了した時に属性
定義システムに戻る処理を起動する領域である。
In FIG. 16, an area 2141 is an area where the user performs an input operation. Processing such as movement, editing, and deformation of characters, figures, and images input on this area is performed. An area 2142 is an area for accepting activation of a process of taking in an image such as a photograph by the image scanner 27 and a process of taking out an image from the image database 30. An area 2143 is an area for receiving activation of a process for receiving input of a character string or a character. An area 2144 is an area for receiving activation of processing for defining a two-dimensional graphic. Region 214
Reference numeral 5 denotes an area for accepting activation of processing for canceling the contents of the input in the paint system 214 and returning to the attribute definition system. This is an area for accepting activation of a process for terminating the paint system 214 and returning to the attribute definition system. An area 2146 is an area for starting a process of returning to the attribute definition system when all input operations have been completed.

【0168】さて、ペイントシステム214において、
入力された図形や文字や画像は生成された順に登録す
る。このとき、図形については、その図形のベクトルデ
ータと属性を直接登録する。また、文字については、そ
の文字の属性と文字のコードを登録する。画像について
は、画素情報を画像データベース27に格納し、格納し
た画像の名前と属性を登録する。ペイントシステム21
4は領域2146がピックされると登録した文字、図
形、画像のデータを属性定義システム212に返し、処
理を終了する。なお、図16中の文字2147は本ペイ
ントシステム214によって入力された文字列、図形2
148は図形である。である。文字列はキーボード26
によって入力する。図形はマウス25によって入力され
る。図形は矩形、円、自由曲線などである。
Now, in the paint system 214,
The input figures, characters, and images are registered in the order in which they were generated. At this time, for the graphic, the vector data and the attribute of the graphic are directly registered. For a character, the attribute of the character and the code of the character are registered. For the image, the pixel information is stored in the image database 27, and the name and attribute of the stored image are registered. Paint system 21
No. 4 returns the registered character, graphic, and image data to the attribute definition system 212 when the area 2146 is picked, and ends the processing. In addition, the character 2147 in FIG.
148 is a figure. It is. Character string is keyboard 26
To enter. The figure is input by the mouse 25. The figure is a rectangle, a circle, a free curve or the like.

【0169】動作定義システム213は、定義された3
次元の形状の動作を受付ける。動作は動作を定義する動
作定義データによって入力される。
The operation definition system 213 defines
Accepts dimensional shape actions. The operation is input by operation definition data that defines the operation.

【0170】このような、3次元光景制作システム21
による編集作業が終了すると、3次元光景制作システム
21は、3次元光景制作システム21は、受付けた登録
された被写体の形状と属性を解析しながら、前記第1実
施例で表1を用いて説明した3次元光景データベースの
データ形式のデータを作成し、3次元光景データベース
22に格納し処理を終了する。なお、格納する際、模様
に関するデータも前述したような「手続き」としてデー
タベースに格納される。
[0170] Such a three-dimensional scene production system 21
Is completed, the three-dimensional scene production system 21 analyzes the shape and attributes of the received registered subject while explaining the first embodiment with reference to Table 1. The data in the data format of the three-dimensional scene database is created and stored in the three-dimensional scene database 22, and the process is terminated. When storing the data, the data relating to the pattern is also stored in the database as the “procedure” as described above.

【0171】3次元画像生成装置22は、3次元光景デ
ータベース28に格納されたデータを読み込み、画像を
生成する。このとき、模様が画像の場合、3次元光景デ
ータベース28から読み込んだデータ中には画像の定義
の名前の情報しかないので、この名前を基に画像データ
ベース30を検索し、画像を取り込み、模様とする。文
字、図形については、第1実施例の画像背性装置と同様
に処理する。そして、最終的に生成した画像を画像デー
タベース30に格納、もしくは、映像編集システム23
に渡し、処理を終了する。
The three-dimensional image generation device 22 reads data stored in the three-dimensional scene database 28 and generates an image. At this time, if the pattern is an image, the data read from the three-dimensional scene database 28 contains only the information on the name of the definition of the image. Therefore, the image database 30 is searched based on this name, and the image is fetched. I do. Characters and graphics are processed in the same manner as the image spine device of the first embodiment. Then, the finally generated image is stored in the image database 30 or the image editing system 23
To end the process.

【0172】映像編集システム23は、3次元画像生成
装置22によって、作成された画像を編集し、アニメー
ションを作成するシステムである。
The video editing system 23 is a system for editing an image created by the three-dimensional image generating device 22 and creating an animation.

【0173】図17に映像編集システム23の構成を示
す。図示するように、映像編集システム23は、VTR
編集システム231と音声編集システム232とフレー
ムバッファ233とVTR234より構成される。
FIG. 17 shows the configuration of the video editing system 23. As shown, the video editing system 23 includes a VTR
It comprises an editing system 231, an audio editing system 232, a frame buffer 233, and a VTR 234.

【0174】フレームバッファ233は画像を一時的に
蓄えるメモリである。VTR234は画像を記録する装
置である。VTR編集システム231は、フレームバッ
ファ241に画像データベース30から画像をフレーム
バッファ233に取り込み、取り込んだ画像を順次、V
TR234に録画する。
The frame buffer 233 is a memory for temporarily storing images. The VTR 234 is a device that records an image. The VTR editing system 231 captures the images from the image database 30 into the frame buffer 233 and sequentially stores the captured images in the
Record on TR234.

【0175】音声編集システム232はVTR234に
記録した映像に音を加えるシステムである。音声編集シ
ステム232によって生成された音声は、VTR録画シ
ステム231の制御下でVTR234に録音される。
The audio editing system 232 is a system for adding sound to the video recorded on the VTR 234. The audio generated by the audio editing system 232 is recorded on the VTR 234 under the control of the VTR recording system 231.

【0176】[0176]

【発明の効果】以上のように、本発明によれば、少ない
量のデータに基づいて、高画質に、多種類の模様を任意
の大きさで、画像生成対象の3次元形状に与えることの
できる画像処理方法を提供することができる。
As described above, according to the present invention, it is possible to provide a high-quality and various types of patterns in an arbitrary size to a three-dimensional shape of an image generation target based on a small amount of data. It is possible to provide a possible image processing method.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係る画像処理装置の構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】本発明の一実施例において、画像生成処理のた
めに用いる空間を示す説明図である。
FIG. 2 is an explanatory diagram showing a space used for image generation processing in one embodiment of the present invention.

【図3】本発明の一実施例における生成画像の定義の方
式を示す説明図である。
FIG. 3 is an explanatory diagram showing a method of defining a generated image according to an embodiment of the present invention.

【図4】本発明の一実施例に係る3次元光景解釈装置の
構成を示すブロック図である。
FIG. 4 is a block diagram illustrating a configuration of a three-dimensional scene interpretation apparatus according to an embodiment of the present invention.

【図5】本発明の一実施例において用いるカメラ属性テ
−ブルの構成を示す説明図である。
FIG. 5 is an explanatory diagram showing a configuration of a camera attribute table used in one embodiment of the present invention.

【図6】本発明の一実施例において用い入る被写体属性
テ−ブルの構成を示す説明図である。
FIG. 6 is an explanatory diagram showing a configuration of a subject attribute table used in an embodiment of the present invention.

【図7】本発明の一実施例に係る3次元画像生成処理装
置の構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration of a three-dimensional image generation processing device according to an embodiment of the present invention.

【図8】本発明の一実施例における被写体のカメラスク
リ−ンへの投影像を示す説明図である。
FIG. 8 is an explanatory diagram showing a projected image of a subject on a camera screen in one embodiment of the present invention.

【図9】本発明の一実施例に係る2次元画像生成装置の
構成を示すブロック図である。
FIG. 9 is a block diagram illustrating a configuration of a two-dimensional image generation device according to an embodiment of the present invention.

【図10】本発明の一実施例における模様の定義空間と
模様の生成空間を示す説明図である。
FIG. 10 is an explanatory diagram showing a pattern definition space and a pattern generation space in one embodiment of the present invention.

【図11】本発明の一実施例において生成した模様を示
す説明図である。
FIG. 11 is an explanatory diagram showing a pattern generated in one embodiment of the present invention.

【図12】本発明の一実施例に係る3次元サンプリング
処理装置の処理を示すフロ−チャ−トである。
FIG. 12 is a flowchart showing processing of a three-dimensional sampling processing apparatus according to one embodiment of the present invention.

【図13】本発明の一実施例に係る映像製作システムの
構成を示すブロック図である。
FIG. 13 is a block diagram illustrating a configuration of a video production system according to an embodiment of the present invention.

【図14】本発明の一実施例に係る映像製作システムが
生成する入力用画面を示す説明図である。
FIG. 14 is an explanatory diagram showing an input screen generated by the video production system according to one embodiment of the present invention.

【図15】本発明の一実施例に係る属性定義システムが
生成する入力用画面を示す説明図である。本発明の
FIG. 15 is an explanatory diagram showing an input screen generated by the attribute definition system according to one embodiment of the present invention. Of the present invention

【図16】本発明の一実施例に係るペイントシステムが
生成する入力用画面を示す説明図である。
FIG. 16 is an explanatory diagram showing an input screen generated by the paint system according to one embodiment of the present invention.

【図17】本発明の一実施例に係る映像編集システムの
構成を示す説明図である。
FIG. 17 is an explanatory diagram showing a configuration of a video editing system according to one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 3次元光景データベ−ス 12 3次元画像生成装置 13 画像データベ−ス 14 ディスプレイ 121 3次元光景入力装置 122 3次元光景解釈装置 123 3次元画像生成処理装置 124 2次元画像生成装置 125 3次元画像出力装置 21 3次元光景制作システム 22 3次元画像生成装置 23 映像編集システム 25 マウス 26 キーボード 27 イメージスキャナ 28 3次元光景データベース 29 文字フォントデータベース 30 画像データベース 31 ディスプレイ装置 211 形状編集システム 212 属性定義システム 213 ペイントシステム 214 動作定義システム Reference Signs List 11 3D scene database 12 3D image generator 13 Image database 14 Display 121 3D scene input device 122 3D scene interpreter 123 3D image generation processor 124 2D image generator 125 3D image output Apparatus 21 Three-dimensional scene production system 22 Three-dimensional image generation device 23 Video editing system 25 Mouse 26 Keyboard 27 Image scanner 28 Three-dimensional scene database 29 Character font database 30 Image database 31 Display device 211 Shape editing system 212 Attribute definition system 213 Paint system 214 Behavior Definition System

───────────────────────────────────────────────────── フロントページの続き (72)発明者 富田 次男 茨城県日立市久慈町4026番地 株式会社 日立製作所 日立研究所内 (72)発明者 坂元 昭弘 茨城県日立市久慈町4026番地 株式会社 日立製作所 日立研究所内 (56)参考文献 特開 昭58−219664(JP,A) 特開 平3−107897(JP,A) Williams L、”Pyram idal Parametrics”、 Computer Graphics、 Vol.17、No.3(July 1983)、p1−11 (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 G06T 11/20 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Tsugio Tomita 4026 Kuji-cho, Hitachi City, Ibaraki Prefecture Within Hitachi Research Laboratory, Hitachi, Ltd. (72) Inventor Akihiro Sakamoto 4026 Kuji-machi, Hitachi City, Ibaraki Prefecture Hitachi Research, Ltd. (56) References JP-A-58-219664 (JP, A) JP-A-3-107897 (JP, A) Williams L, "Pyramidal Parametrics", Computer Graphics, Vol. 17, No. 3 (Jully 1983), p1-11 (58) Fields investigated (Int. Cl. 7 , DB name) G06T 15/00 G06T 11/20

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】想定したカメラスクリ−ンに撮影されると
想定される、3次元の形状を有する被写体の撮影像を生
成する画像処理方法であって、 想定したカメラスクリ−ンと被写体との相対的な位置関
係に応じて、前記カメラスクリ−ンに撮影されると想定
される被写体のサイズを求め、求めたサイズに従って被
写体にコーディネートするテクスチャの画像サイズを決
定し、被写体の撮影像を生成する際に、2次元平面上の
ベクトル値関数として規定されたテクスチャパタ−ンよ
り、決定した画像サイズのテクスチャを生成し、生成し
たテクスチャをコ−ディネ−トした前記被写体の、前記
カメラスクリ−ンに撮影されると想定される撮影像を生
成することを特徴とする画像処理方法。
An image processing method for generating a photographed image of a subject having a three-dimensional shape, which is assumed to be photographed on an assumed camera screen, comprising: It is assumed that images are taken on the camera screen according to the relative positional relationship.
The size of the subject to be
Determine the image size of the texture to be coordinated with the object
When a photographed image of a subject is generated, a texture having a determined image size is generated from a texture pattern defined as a vector value function on a two-dimensional plane, and the generated texture is coordinated. An image processing method for generating a photographed image of the subject, which is assumed to be photographed on the camera screen.
【請求項2】想定したカメラスクリ−ンに撮影されると
想定される、3次元の形状を有する被写体の撮影像を生
成する画像処理装置であって、 2次元のテクスチャパタ−ンを規定するベクトル値関数
を記憶するテクスチャデータ記憶手段と、被写体の3次
元の形状を規定する被写体データを記憶する被写体デー
タ記憶手段と、前記カメラスクリ−ンと前記被写体の相
対的な位置関係の指定を受付ける入力手段と、前記被写
体データ記憶手段より読みだした被写体データと前記入
力手段が受付けた前記相対的位置関係とに応じて、前記
カメラスクリ−ンに撮影されると想定される被写体のサ
イズを求め、求めたサイズに従って被写体にコーディネ
ートするテクスチャの画像サイズをを決定し、被写体の
撮影像を生成する際に、前記テクスチャデ−タ記憶手段
に記憶されている前記ベクトル値関数より、決定した
像サイズのテクスチャを生成するテクスチャ供給部と、
前記カメラスクリ−ンに撮影されると想定される、生成
したテクスチャをコ−ディネ−トした前記被写体の撮影
像を生成するテクスチャマッピング手段を有することを
特徴とする画像処理装置。
2. An image processing apparatus for generating a photographed image of a subject having a three-dimensional shape which is assumed to be photographed on an assumed camera screen, wherein a two-dimensional texture pattern is defined. Texture data storage means for storing a vector value function, subject data storage means for storing subject data for defining a three-dimensional shape of a subject, and designation of a relative positional relationship between the camera screen and the subject. input means, the object data storage means and the object data read from the response to said input means and said relative positional relationship is accepted, the
The size of the subject assumed to be photographed on the camera screen
Size, and coordinate the subject with the size determined.
Determine the image size of the texture to be
When generating the pickup image, the texture data - than the vector-valued function which is stored in the data storage means, the determined image
A texture supply unit for generating an image-size texture;
An image processing apparatus comprising: a texture mapping unit configured to generate a captured image of the subject obtained by coordinating the generated texture, which is assumed to be captured by the camera screen.
【請求項3】請求項記載の画像処理装置であって、 前記テクスチャデータ記憶手段は、複数のテクスチャパ
タ−ンをそれぞれ規定する、複数のベクトル値関数を記
憶し、前記入力手段は、テクスチャとして使用するテク
スチャパタ−ンの指定と生成するテクスチャの属性の指
定を含むテクスチャ生成手続を受付け、前記テクスチャ
供給部は、前記入力手段が受付けたテクスチャ生成手続
によって指定されたテクスチャパタ−ンを規定するベク
トル値関数を前記テクスチャデ−タ記憶手段より読み出
し、テクスチャ生成手続によって指定された属性でテク
スチャを生成することを特徴とする画像処理装置。
3. An image processing apparatus according to claim 2 , wherein said texture data storage means stores a plurality of vector value functions respectively defining a plurality of texture patterns, and said input means includes a plurality of texture functions. A texture generation procedure including a specification of a texture pattern to be used as a parameter and a specification of an attribute of a texture to be generated, wherein the texture supply unit defines the texture pattern specified by the texture generation procedure received by the input means. An image processing apparatus for reading a vector value function to be performed from the texture data storage means and generating a texture with an attribute specified by a texture generation procedure.
【請求項4】請求項記載の画像処理装置であって、 前記テクスチャデータ記憶手段の記憶する複数のテクス
チャパタ−ンは、複数の文字の文字フォントであって、
前記テクスチャ生成手続によるテクスチャとして使用す
るテクスチャパタ−ンの指定は、テクスチャとして使用
する文字フォントの文字のキャラクタコ−ドによる指定
であることを特徴とする画像処理装置。
4. The image processing apparatus according to claim 3 , wherein the plurality of texture patterns stored in the texture data storage means are character fonts of a plurality of characters,
An image processing apparatus according to claim 1, wherein the designation of the texture pattern to be used as a texture in said texture generation procedure is a designation by a character code of a character of a character font to be used as a texture.
【請求項5】請求項記載の画像処理装置と、画像編集
装置と、画像出力装置とを備え、 前記画像編集装置は、テクスチャとして使用するテクス
チャパタ−ンの指定と、生成するテクスチャの属性の指
定とを対話的に受付けるユ−ザインタフェ−ス部と、ユ
−ザインタフェ−ス部が受付けたテクスチャパタ−ンの
指定とテクスチャの属性の指定を含むテクスチャ生成手
続を作成する手続作成部とを有し、 前記画像処理装置の入力手段は、前記画像編集装置の手
続作成部が作成したテクスチャ生成手続を受付け、テク
スチャ生成手続によって指定されたテクスチャパタ−ン
を規定するベクトル値関数を前記テクスチャデ−タ記憶
手段より読み出し、テクスチャ生成手続によって指定さ
れた属性でテクスチャを生成し、 前記画像出力装置は、前記画像処理装置のテクスチャマ
ッピングが生成した前記被写体の撮影像を出力すること
を特徴とする3次元光景生成システム。
5. An image processing apparatus according to claim 3 , comprising an image editing apparatus, and an image output apparatus, wherein said image editing apparatus specifies a texture pattern to be used as a texture and an attribute of a texture to be generated. A user interface unit that interactively accepts the specification of a texture, and a procedure creation unit that creates a texture generation procedure including the specification of the texture pattern and the attribute of the texture received by the user interface unit. The input means of the image processing apparatus receives the texture generation procedure created by the procedure creation unit of the image editing apparatus, and converts the vector value function defining the texture pattern specified by the texture generation procedure into the texture data. Read out from the data storage means, and generate a texture with the attribute specified by the texture generation procedure; 3D scene generation system and outputs a pickup image of the subject texture mapping of the image processing apparatus is generated.
【請求項6】請求項記載の3次元光景生成システムで
あって、 前記画像編集装置のユ−ザインタフェ−ス部は、テクス
チャとして使用するテクスチャパタ−ンの指定と生成す
るテクスチャの属性の指定とに加え、前記カメラスクリ
−ンと前記被写体の相対的な位置関係の指定と、被写体
の3次元形状の指定を対話的に受付け、前記手続作成部
は、作成した前記テクスチャ生成手続と、ユ−ザインタ
フェ−ス部が受付けた前記カメラスクリ−ンと前記被写
体の相対的な位置関係の指定と被写体の3次元形状の指
定とを含む3次元光景生成手続を作成し、 前記画像処理装置の入力手段は、前記画像編集装置に手
続作成部が作成した3次元光景生成手続を受付け、前記
テクスチャ供給部は、前記入力手段が受付けた3次元光
景生成手続で指定された3次元形状の指定に従い前記被
写体データ記憶手段より前記被写体データを読みだし、
読みだした被写体データと、3次元光景生成手続で指定
された前記カメラスクリ−ンと前記被写体の相対的な位
置関係の指定に応じて、前記カメラスクリ−ンに撮影さ
れると想定される被写体のサイズを求め、求めたサイズ
に従って被写体にコーディネートするテクスチャの画像
サイズを決定し、被写体の撮影像を生成する際に、テク
スチャ生成手続によって指定されたテクスチャパタ−ン
を規定するベクトル値関数を前記テクスチャデ−タ記憶
手段より読み出し、テクスチャ手続命令によって指定さ
れた属性で、決定した画像サイズのテクスチャを生成す
ることを特徴とする3次元光景生成システム。
6. The three-dimensional scene generating system according to claim 5 , wherein the user interface of the image editing device specifies a texture pattern to be used as a texture and a attribute of a texture to be generated. In addition to the above, the procedure creation unit interactively receives designation of a relative positional relationship between the camera screen and the subject and designation of a three-dimensional shape of the subject. Creating a three-dimensional scene generation procedure including designation of a relative positional relationship between the camera screen and the subject accepted by the interface unit and designation of a three-dimensional shape of the subject; The means accepts a three-dimensional scene generation procedure created by a procedure creation unit in the image editing apparatus, and the texture supply unit receives the three-dimensional scene creation procedure specified by the input means. As specified in the three-dimensional shape read the object data from the object data storage means,
In accordance with the read subject data and the designation of the relative positional relationship between the camera screen and the subject specified in the three-dimensional scene generation procedure, an image is taken on the camera screen.
The size of the subject assumed to be
Texture image that coordinates with the subject according to
When determining the size and generating a photographed image of the subject, a vector value function that defines the texture pattern specified by the texture generation procedure is read from the texture data storage means and specified by the texture procedure command. A three-dimensional scene generation system, wherein a texture having a determined image size is generated by an attribute.
【請求項7】請求項記載の3次元光景生成システムで
あって、 前記テクスチャデータ記憶手段の記憶する複数のテクス
チャパタ−ンは、複数の文字の文字フォントであって、
前記画像編集装置のユ−ザインタフェ−ス部は、テクス
チャとして使用する文字フォントの指定を文字の指定に
より受付けることを特徴とする画像処理装置。
7. The three-dimensional scene generation system according to claim 5 , wherein the plurality of texture patterns stored in the texture data storage means are character fonts of a plurality of characters,
An image processing apparatus, wherein the user interface unit of the image editing apparatus accepts designation of a character font to be used as a texture by designating a character.
【請求項8】請求項記載の3次元光景生成システムで
あって、前記画像編集装置のユ−ザインタフェ−ス部の
受付けた指定に基づいた、画像の生成および画像の出力
を、リアルタイムに実行することを特徴とする3次元光
景生成システム。
8. The three-dimensional scene generation system according to claim 5 , wherein the generation of the image and the output of the image based on the specification received by the user interface unit of the image editing apparatus are executed in real time. A three-dimensional scene generation system.
JP20058691A 1991-08-08 1991-08-09 Image processing method and image processing apparatus Expired - Fee Related JP3157015B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP20058691A JP3157015B2 (en) 1991-08-09 1991-08-09 Image processing method and image processing apparatus
US07/926,518 US5680525A (en) 1991-08-08 1992-08-10 Three-dimensional graphic system with an editor for generating a textrue mapping image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20058691A JP3157015B2 (en) 1991-08-09 1991-08-09 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JPH0546775A JPH0546775A (en) 1993-02-26
JP3157015B2 true JP3157015B2 (en) 2001-04-16

Family

ID=16426812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20058691A Expired - Fee Related JP3157015B2 (en) 1991-08-08 1991-08-09 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP3157015B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5566284A (en) * 1993-12-22 1996-10-15 Matsushita Electric Industrial Co., Ltd. Apparatus and method for mip-map generation using low-pass filtering based on resolution ratio
CN102132324A (en) 2009-06-24 2011-07-20 松下电器产业株式会社 Graphics drawing device, graphics drawing method, graphics drawing program, storage medium having graphics drawing program stored, and integrated circuit

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Williams L、"Pyramidal Parametrics"、Computer Graphics、Vol.17、No.3(July 1983)、p1−11

Also Published As

Publication number Publication date
JPH0546775A (en) 1993-02-26

Similar Documents

Publication Publication Date Title
US5680525A (en) Three-dimensional graphic system with an editor for generating a textrue mapping image
EP0950988B1 (en) Three-Dimensional image generating apparatus
US5742294A (en) Method and apparatus for synthesizing images
CN107484428B (en) Method for displaying objects
US8289317B2 (en) Automatic 3D modeling
US20020118217A1 (en) Apparatus, method, program code, and storage medium for image processing
US10467793B2 (en) Computer implemented method and device
US6157387A (en) Image generating apparatus and method
US6271875B1 (en) Three-dimensional image processing apparatus and three-dimensional image processing method
KR20220143721A (en) Machine learning based on volumetric capture and mesh tracking
JPH09319896A (en) Three-dimensional image generating device
CN114913308A (en) Camera tracking method, device, equipment and storage medium
JP2002133438A (en) Three-dimensional graphic plotting device, three- dimensional graphic plotting method, and recording medium capable of reading with three-dimensional polygon data recorded computer
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
JP3157015B2 (en) Image processing method and image processing apparatus
CN112561784B (en) Image synthesis method, device, electronic equipment and storage medium
JP2002083286A (en) Method and device for generating avatar, and recording medium recorded with program therefor
Leung et al. Realistic video avatar
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2003006667A (en) Image processing method for figure made into animation
JP3850080B2 (en) Image generation and display device
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
JP2001307123A (en) Method and device for preparing portrait having expressional deformation, portrait preparation system, transmitter and receiver for the system, portrait preparation program, and recording medium recording the program
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JP4138018B2 (en) System for modeling a three-dimensional shape of an object by shading a two-dimensional image of the object and a method for realizing the same by a computer

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees