JPH0546775A - Method and device for processing image - Google Patents

Method and device for processing image

Info

Publication number
JPH0546775A
JPH0546775A JP20058691A JP20058691A JPH0546775A JP H0546775 A JPH0546775 A JP H0546775A JP 20058691 A JP20058691 A JP 20058691A JP 20058691 A JP20058691 A JP 20058691A JP H0546775 A JPH0546775 A JP H0546775A
Authority
JP
Japan
Prior art keywords
texture
image
subject
resolution
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP20058691A
Other languages
Japanese (ja)
Other versions
JP3157015B2 (en
Inventor
Toshio Sakai
俊雄 坂井
Atsushi Kawabata
敦 川端
Norito Watanabe
範人 渡辺
Tsugio Tomita
次男 富田
Akihiro Sakamoto
昭弘 坂元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP20058691A priority Critical patent/JP3157015B2/en
Priority to US07/926,518 priority patent/US5680525A/en
Publication of JPH0546775A publication Critical patent/JPH0546775A/en
Application granted granted Critical
Publication of JP3157015B2 publication Critical patent/JP3157015B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To coordinate a texture with an optimum resolution with a three- dimensional (3-D) shape by forming the texture with an optional size based upon a vector value function. CONSTITUTION:A 3-D image input means 121 reads out the specification of 3-D scene to be formed from a 3-D scene data base 11. A 3-D image forming processor 123 finds out the projection image of a subject in accordance with the specified contents of the 3-D scene interpreted by a 3-D scene interpreting device 122 and decides the resolution of the texture in accordance with the size of the projection image. A two-dimensional (2-D) image forming device 124 reads out a vector value function for regulating a texture pattern from a character font data base 15 and forms a texture with the decided resolution. The processor 123 finds out the photographed image of the subject obtained by coordinating the formed texture on the subject. A 3-D image output device 125 displays the obtained 3-D image on a display 14.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、3次元形状についての
画像を生成する画像生成装置に関し、特に、画像を生成
する3次元形状に模様を与えるテクスチャマッピングの
技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating apparatus for generating an image of a three-dimensional shape, and more particularly to a texture mapping technique for giving a pattern to the three-dimensional shape for generating an image.

【0002】[0002]

【従来の技術】3次元形状についての画像を生成する場
合、3次元形状をリアルに表現するために、3次元形状
の表面に模様を付した画像を生成することがある。
2. Description of the Related Art When an image of a three-dimensional shape is generated, an image having a pattern on the surface of the three-dimensional shape may be generated in order to realistically represent the three-dimensional shape.

【0003】一般に、模様を3次元形状の表面に付する
処理は、2次元の画像として表現されている模様(以
下、「テクスチャ」という)を3次元形状の表面上にコ
−ディネ−トする、テクスチャマッピングの手法により
行なわれている。
Generally, in the process of applying a pattern to a surface of a three-dimensional shape, a pattern expressed as a two-dimensional image (hereinafter referred to as "texture") is coded on the surface of the three-dimensional shape. , A texture mapping method is used.

【0004】このようなテクスチャマッピングの技術と
しては、加藤俊明、「CG映像制作に使用されるさまざ
まな表現手法ーーマッピングを中心にして」、ピクセ
ル、第51項から第58項、や、ランス・ウィリアム
ス、SIGGRAPH83プロシーディングス、ボリュ
ーム17、ナンバー3、1983年7月(Lance William
s,'Pyramidal Parametrics', SIGGRAPH83 Proceedings,
Vol.17, No.3, July 1983)等に記載されている技術が
知られている。
As such a texture mapping technique, Toshiaki Kato, "Various expression methods used for CG image production-focusing on mapping", Pixel, Item 51 to Item 58, and Lance Williams , SIGGRAPH83 Proceedings, Volume 17, Number 3, July 1983 (Lance William
s, 'Pyramidal Parametrics', SIGGRAPH83 Proceedings,
The technology described in Vol.17, No.3, July 1983) is known.

【0005】また、従来のテクスチャマッピングの技術
によれば、一旦生成した画像を、繰り返して利用するた
めに、あらかじめ、コンピュ−タグラフィックによって
作成した画像や、写真などを光学的な装置によって読み
込んだ画像を記憶し、この画像を模様として用いてい
る。また、このように、あらかじめ作成した画像を模様
に用いることにより、迅速な3次元形状の画像の生成を
可能にしている。
Further, according to the conventional texture mapping technique, in order to repeatedly use an image once generated, an image previously created by computer graphics, a photograph or the like is read by an optical device. An image is stored and this image is used as a pattern. Further, by using the image created in advance for the pattern in this way, it is possible to quickly generate an image of a three-dimensional shape.

【0006】また、3次元形状の表面に模様を与える技
術としては、ダーウィン・アール・ピーチー、SIGG
RAPH85プロシーディングス、ボリューム19、ナ
ンバー3、1985年7月(Darwyn R. Peachey, 'Soli
d Texturing of Complex Surface', SIGGRAPH85 Procee
dings, Vol.19, No.3, July, 1985)に記載の技術が知ら
れているファンクショナルマッピングの技術が知られて
いる。
[0006] As a technique for giving a pattern to the surface of a three-dimensional shape, Darwin Earl Peachy, SIGG
RAPH85 Proceedings, Volume 19, Number 3, July 1985 (Darwyn R. Peachey, 'Soli
d Texturing of Complex Surface ', SIGGRAPH85 Procee
dings, Vol.19, No.3, July, 1985) is known, and the technique of functional mapping is known.

【0007】[0007]

【発明が解決しようとする課題】前記従来のテクスチャ
マッピングの技術によれば、あらかじめ作成した画像を
テクスチャとして使用するので、3次元形状に与える模
様を大きくすると、表示された模様の画質が荒くなると
いった問題があった。
According to the above-mentioned conventional texture mapping technique, since an image created in advance is used as a texture, if the pattern given to the three-dimensional shape is enlarged, the image quality of the displayed pattern becomes rough. There was such a problem.

【0008】すなわち、あらかじめ作成した画像の解像
度は一定であるので、模様を大きくすると、シャギ−等
が生じて画質が荒くなり、輪郭線等が滑らかでなくな
る。一方、輪郭線等を滑らかにするために、平滑フィル
タリング処理等を施せば画質がぼけることになる。
That is, since the resolution of the image created in advance is constant, when the pattern is made large, shading and the like occur, the image quality becomes rough, and the outline and the like are not smooth. On the other hand, if smoothing filtering or the like is performed in order to smooth the contour line, the image quality will be blurred.

【0009】この問題は、あらかじめ作成する画像の解
像度を、使用される可能性のある最も大きな模様に合わ
せて高くしておくことにより避けることができる。しか
し、解像度を高くすると画像データ量が増加するという
問題が生じる。
This problem can be avoided by increasing the resolution of the image created in advance to match the largest pattern that may be used. However, when the resolution is increased, the amount of image data increases, which is a problem.

【0010】また、前記従来のテクスチャマッピングの
技術によれば、模様としてあらかじめ作成した画像デー
タを用いているが、一般に、画像はデータ量が多く、多
種類の模様を使用しようとすると、画像データの記憶に
膨大な容量が必要となるという問題が生じる。
Further, according to the conventional texture mapping technique, image data created in advance as a pattern is used. However, in general, an image has a large amount of data, and if an attempt is made to use many types of patterns, the image data The problem arises that a huge amount of memory is required for the memory.

【0011】なお、前記ファンクショナルマッピングの
技術によれば、文字など不規則な模様や、多種類の模様
を表現することは極めて困難である。
According to the above-mentioned functional mapping technique, it is extremely difficult to represent irregular patterns such as characters and various types of patterns.

【0012】そこで、本発明は、少ない量のデータに基
づいて、高画質に、多種類の模様を任意の大きさで、画
像生成対象の3次元形状に与えることのできる画像処理
方法を提供することを目的とする。
Therefore, the present invention provides an image processing method capable of providing a high-quality, multi-type pattern of any size to a three-dimensional shape of an image generation target based on a small amount of data. The purpose is to

【0013】[0013]

【課題を解決するための手段】前記目的達成のために、
本発明は、想定したカメラスクリ−ンに撮影されると想
定される、3次元の形状を有する被写体の撮影像を生成
する画像処理方法であって、想定したカメラスクリ−ン
と被写体との相対的な位置関係に応じてテクスチャの解
像度を決定し、2次元平面上のベクトル値関数として規
定されたテクスチャパタ−ンより、決定した解像度のテ
クスチャを生成し、前記カメラスクリ−ンに撮影される
と想定される、生成したテクスチャをコ−ディネ−トし
た前記被写体の撮影像を生成するすることを特徴とする
画像処理方法を提供する。
[Means for Solving the Problems] To achieve the above object,
The present invention is an image processing method for generating a photographed image of a subject having a three-dimensional shape, which is supposed to be photographed by an assumed camera screen. The resolution of the texture is determined according to the physical positional relationship, the texture having the determined resolution is generated from the texture pattern defined as a vector-valued function on the two-dimensional plane, and the texture is photographed by the camera screen. The present invention provides an image processing method, characterized in that a photographed image of the subject is generated by coordinating the generated texture.

【0014】ここで、「コ−ディネ−ト」とは、3次元
形状の表面に2次元の画像を貼付るように付することを
いう。
Here, "coordinating" means that a two-dimensional image is attached to the surface of a three-dimensional shape.

【0015】また、特に、本発明に係る画像処理方法の
好適な一実施態様として、本発明に係る画像処理方法に
おいて、前記テクスチャの解像度の決定を、想定したカ
メラスクリ−ンと被写体との相対的な位置関係に応じ
て、想定したカメラスクリ−ン上への被写体の投影像を
求め、求めた被写体の投影像の大きさを算出し、算出し
た投影像の解像度を求め、求めた投影像の解像度と同等
の解像度をテクスチャの解像度として決定することによ
り行なう画像処理方法を提供する。
Further, in particular, as a preferred embodiment of the image processing method according to the present invention, in the image processing method according to the present invention, the determination of the resolution of the texture is performed by the relative relationship between the assumed camera screen and the object. The projected image of the subject on the assumed camera screen is calculated according to the desired positional relationship, the size of the calculated projected image of the subject is calculated, the resolution of the calculated projected image is calculated, and the calculated projected image is calculated. An image processing method is performed by determining a resolution equivalent to the resolution of the texture as the texture resolution.

【0016】[0016]

【作用】本発明に係る画像処理方法によれば、テクスチ
ャを2次元平面上のベクトル値関数として規定されたテ
クスチャパタ−ンより生成する。ベクトル値関数は、画
素データで表現した画像データに比べ少ないデータ量で
形状を表現することができる。したがって、多種類のテ
クスチャを記憶し利用することができる。また、ベクト
ルで形状を規定しているため、形状の大きさによってシ
ャギ−が発生して画質を荒くするようなことがなく、任
意の解像度の画像に対応することができる。
According to the image processing method of the present invention, a texture is generated from a texture pattern defined as a vector-valued function on a two-dimensional plane. The vector-valued function can represent the shape with a smaller data amount than the image data represented by the pixel data. Therefore, many kinds of textures can be stored and used. Further, since the shape is defined by the vector, it is possible to deal with an image having an arbitrary resolution without causing shading due to the size of the shape to deteriorate the image quality.

【0017】また、想定したカメラスクリ−ンと被写体
との相対的な位置関係に応じてテクスチャの解像度を決
定し、2次元平面上のベクトル値関数として規定された
テクスチャパタ−ンより、決定した解像度のテクスチャ
を生成するため、高画質なテクスチャを被写体にコ−デ
ィネ−トすることができる。
Further, the resolution of the texture is determined according to the relative positional relationship between the assumed camera screen and the subject, and is determined from the texture pattern defined as a vector-valued function on the two-dimensional plane. Since the texture having the resolution is generated, the high quality texture can be coordinated to the subject.

【0018】また、特に、前記テクスチャの解像度の決
定を、想定したカメラスクリ−ンと被写体との相対的な
位置関係に応じて、想定したカメラスクリ−ン上への被
写体の投影像を求め、求めた被写体の投影像の大きさを
算出し、算出した投影像の解像度を求め、求めた投影像
の解像度と同等の解像度をテクスチャの解像度として決
定するようにすれば、テクスチャの解像度を過不足なく
決定することができるので、過剰なデータの発生を防止
でき、本来不必要な処理の発生を排除することができ
る。
Further, in particular, the resolution of the texture is determined by obtaining a projected image of the object on the assumed camera screen according to the relative positional relationship between the assumed camera screen and the object. If the size of the obtained projection image of the subject is calculated, the resolution of the calculated projection image is obtained, and the resolution equivalent to the resolution of the obtained projection image is determined as the texture resolution, the texture resolution will be excessive or insufficient. Since it can be determined without any processing, it is possible to prevent the occurrence of excessive data and eliminate the occurrence of processing that is originally unnecessary.

【0019】[0019]

【実施例】以下、本発明の第1の実施例を説明する。EXAMPLE A first example of the present invention will be described below.

【0020】まず、本第1実施例に係る画像処理装置の
構成を図1に示す。
First, the configuration of the image processing apparatus according to the first embodiment is shown in FIG.

【0021】図示するように、本第1実施例に係る画像
処理装置は、3次元光景データベ−ス11と、3次元画
像生成装置12と、画像データベ−ス13と、ディスプ
レイ14を有している。
As shown in the figure, the image processing apparatus according to the first embodiment has a three-dimensional scene data base 11, a three-dimensional image generation device 12, an image data base 13 and a display 14. There is.

【0022】また、3次元画像生成装置12は、3次元
光景入力装置121、3次元光景解釈装置122、3次
元画像生成処理装置123、2次元画像生成装置12
4、3次元画像出力装置125を有している。
The three-dimensional image generating device 12 is a three-dimensional scene input device 121, a three-dimensional scene interpreting device 122, a three-dimensional image generating processor 123, and a two-dimensional image generating device 12.
It has a 4- and 3-dimensional image output device 125.

【0023】3次元光景データベース11は、画像処理
装置が生成する3次元光景に関する各種パラメータを格
納するデータベースである。
The three-dimensional scene database 11 is a database that stores various parameters relating to the three-dimensional scene generated by the image processing apparatus.

【0024】まず、3次元光景デ−タベ−ス11につい
て説明する。
First, the three-dimensional scene data base 11 will be described.

【0025】3次元光景デ−タベ−ス11に格納されて
いるデータのうち、1つの3次元光景を生成するデータ
を表1に示す。また、図3は、表1に示したデータが表
現する3次元光景を具体的に示したものである。
Among the data stored in the three-dimensional scene database 11, the data for generating one three-dimensional scene is shown in Table 1. Further, FIG. 3 specifically shows a three-dimensional scene represented by the data shown in Table 1.

【0026】[0026]

【表1】 [Table 1]

【0027】表1に示すデータは、3次元光景を撮影す
るカメラを定義するコマンド、被写体の形状を定義する
コマンド、被写体の属性を定義するコマンドより成り、
これらによって、被写体と、その被写体を照射する光源
と、被写体を写すカメラを指定することにより3次元光
景を指定している。
The data shown in Table 1 comprises a command for defining a camera for photographing a three-dimensional scene, a command for defining the shape of a subject, and a command for defining attributes of the subject.
By these, the three-dimensional scene is specified by specifying the subject, the light source that illuminates the subject, and the camera that captures the subject.

【0028】表1に示したデータが指定している被写体
111は、図3に示すように、(0、1、0)を中心と
して半径1の球であって、”あいうえお”という文字が
ならんだ模様を有している。また、光源112は(5、
5、5)という座標に存在し、光源の放射強度1、光源
の色が(1、1、1)の点光源である。カメラ113は
(0、5、0)という座標に存在し、y軸の負の方向を
向き被写体111を写している。以下、この図3に示し
た空間を世界空間と呼ぶ。
As shown in FIG. 3, the object 111 designated by the data shown in Table 1 is a sphere having a radius of 1 with (0, 1, 0) as the center, and the characters "aiueo" are not arranged. It has a pattern. In addition, the light source 112 is (5,
It is a point light source that exists at coordinates 5, 5) and has a radiation intensity of 1 and a color of (1, 1, 1). The camera 113 exists at coordinates (0, 5, 0), and faces the negative direction of the y-axis, and images the subject 111. Hereinafter, the space shown in FIG. 3 is called the world space.

【0029】画像処理装置は、このように仮想した世界
空間でカメラによって撮影した被写体の映像を生成する
のであるが、本実施例においては、かかる映像の生成処
理のために、世界空間と各々独立の空間であるカメラ空
間、被写体空間、テクスチャ空間の3つの空間を設定す
る。
The image processing apparatus generates the image of the subject photographed by the camera in the virtual world space as described above. In the present embodiment, however, the image processing apparatus is independent of the world space for the generation processing of the image. The three spaces, that is, the camera space, the subject space, and the texture space are set.

【0030】これらの空間の関係を図2に示す。The relationship between these spaces is shown in FIG.

【0031】図中Aで示す座標系で定義される空間がカ
メラ空間であり、図示する例では、ZA=0の平面上に
カメラのスクリ−ンを設定している。また、カメラ空間
内の各点が投影されるスクリ−ン上の点は既知であるも
のとする。
The space defined by the coordinate system indicated by A in the figure is the camera space, and in the illustrated example, the screen of the camera is set on the plane of ZA = 0. Further, it is assumed that the points on the screen on which the respective points in the camera space are projected are known.

【0032】また、図中Bで示す座標計で定義される空
間が被写体空間であり、図示した例では、被写体である
球の中心と被写体空間の原点とを一致させている。
Further, the space defined by the coordinate meter shown by B in the figure is the subject space, and in the illustrated example, the center of the sphere which is the subject and the origin of the subject space are made coincident.

【0033】図中Cで示す座標系で定義される空間がテ
クスチャ空間であり、図示する例では、ZC=0の平面
上にテクスチャを設定している。また、マッピングの対
象となった場合に、テクスチャ空間内の各点にマッピン
グされるテクスチャ上の点は既知であるものとする。
The space defined by the coordinate system shown by C in the figure is a texture space, and in the illustrated example, the texture is set on the plane of ZC = 0. Further, it is assumed that the points on the texture that are mapped to the respective points in the texture space when they are the object of mapping are known.

【0034】なお、図中Wで示す座標系で定義される空
間が前記世界空間である。
The space defined by the coordinate system indicated by W in the figure is the world space.

【0035】さて、表1に示すデータは、ポストスクリ
プトと呼ばれる言語によって記述されている。ポストス
クリプトは逆ポーランド記法によって記述されている。
すなわち、コマンドを含むステ−トメントは、パラメー
タと、該パラメータを用いるコマンドの順で記述され
る。たとえば、表1に示すステ−トメント1105にお
いて、初めに記述されている”001”が青色を示すパ
ラメ−タ、”color”が表示する色をパラメ−タの
示す青色とするコマンドである。
The data shown in Table 1 is described in a language called Postscript. Postscript is written in reverse Polish notation.
That is, the statement including the command is described in the order of the parameter and the command using the parameter. For example, in the statement 1105 shown in Table 1, "001" described first is a parameter indicating blue, and "color" is a command for setting the color displayed by the parameter to blue indicated by the parameter.

【0036】表1に示すデータを記述されている順に説
明する。
The data shown in Table 1 will be described in the order described.

【0037】ステートメント1101のHRBegin
は画像生成開始を宣言している。ステートメント110
2の/embossは模様を生成する「手続き」の名前
である。
HRBegin of statement 1101
Declares the start of image generation. Statement 110
2 / emboss is the name of the "procedure" that creates the pattern.

【0038】/embossに続く ”{” と
”}” の間、すなわちステートメント1102から
1108の間が、被写体の模様を生成する手続である。
The procedure between "{" and "}" following / emboss, that is, between statements 1102 to 1108, is a procedure for generating a subject pattern.

【0039】ステートメント1103は、模様を特徴付
けるパラメータである。ステートメント1104から1
107は、模様を生成するためのステ−トメントであ
る。
Statement 1103 is a parameter that characterizes the pattern. Statements 1104 to 1
Reference numeral 107 is a statement for generating a pattern.

【0040】1104は表示する文字の種類をゴシック
体にし、文字の大きさを0.02にするステ−トメント
である。ステートメント1105は表示する文字の色を
青色に定義するステ−トメントである。ステートメント
1106は表示される文字列の位置を2次元の座標系で
(0.5, 0.5)の位置に表示することを定義する
ステ−トメントである。
Reference numeral 1104 denotes a statement in which the type of characters to be displayed is Gothic and the size of the characters is 0.02. Statement 1105 is a statement that defines the color of the displayed character to be blue. Statement 1106 is a statement that defines that the position of the displayed character string is displayed at the position (0.5, 0.5) in the two-dimensional coordinate system.

【0041】ステートメント1109から1115はカ
メラ113を定義するステ−トメントである。ステート
メント1109は生成される画像の解像度を定義するス
テ−トメントである。ステートメント1110はカメラ
のフレームの縦横比を定義するステ−トメントである。
ステートメント1111は被写体を写すスクリーンの大
きさを定義するステ−トメントである。ステートメント
1113は被写体を写すスクリーンへの投影方法等を定
義するステ−トメントである。ステートメント1114
とステートメント1115はカメラ配置を定義するステ
−トメントである。
Statements 1109 to 1115 are statements defining camera 113. Statement 1109 is a statement that defines the resolution of the generated image. Statement 1110 is a statement that defines the aspect ratio of the camera frame.
Statement 1111 is a statement that defines the size of the screen on which the subject is imaged. Statement 1113 is a statement that defines a method of projecting a subject onto a screen. Statement 1114
And statement 1115 are statements defining the camera placement.

【0042】ステートメント1116から1122まで
のステ−トメントは、被写体を定義するステ−トメント
である。ステートメント1116は3次元光景に関する
被写体の定義の開始を宣言するステ−トメントである。
ステートメント1117は3次元光景を照明する光源を
定義するステ−トメントである。このように、光源も被
写体の定義セクション内で定義される。ステートメント
1117は、点光源112を定義するステ−トメントで
ある。ステートメント1117のパラメータは、光源の
強度、光源の色、光源の位置である。ステートメント1
118は被写体111の色を定義するステ−トメントで
ある。ステートメント1119は被写体111の模様を
前もって定義した模様/embossにすることを定義
するステ−トメントである。ステートメント1120は
被写体111の位置を定義するステ−トメントである。
ステートメント1121は被写体111を半径1の球と
することを定義するステ−トメントである。ステートメ
ント1122は3次元光景に関する被写体の定義の終了
を宣言するステ−トメントである。
Statements 1116 to 1122 are statements defining an object. Statement 1116 is a statement that declares the beginning of a subject definition for a three-dimensional scene.
Statement 1117 is a statement that defines a light source that illuminates a three-dimensional scene. Thus, the light source is also defined within the subject definition section. Statement 1117 is a statement that defines the point light source 112. The parameters of statement 1117 are light source intensity, light source color, and light source position. Statement 1
Reference numeral 118 is a statement that defines the color of the subject 111. Statement 1119 is a statement that defines that the pattern of the subject 111 is the pattern / emboss defined in advance. Statement 1120 is a statement that defines the position of the subject 111.
Statement 1121 is a statement that defines that the subject 111 is a sphere having a radius of 1. Statement 1122 is a statement that declares the end of the subject definition for the three-dimensional scene.

【0043】ステートメント1123は3次元光景に関
する全てのパラメータ定義の終了を宣言するステ−トメ
ントである。
Statement 1123 is a statement that declares the end of all parameter definitions for the 3D scene.

【0044】さて、3次元画像生成装置12は、以上説
明したような3次元光景に関するデータを3次元光景デ
ータベース11より読み込み、3次元光景の画像を生成
する。そして、生成した画像をディスプレイ14に表示
する。または、生成した画像を画像データベース13に
格納する。
The three-dimensional image generating device 12 reads the data on the three-dimensional scene described above from the three-dimensional scene database 11 and generates an image of the three-dimensional scene. Then, the generated image is displayed on the display 14. Alternatively, the generated image is stored in the image database 13.

【0045】以下、3次元光景生成装置の画像生成動作
について説明する。
The image generating operation of the three-dimensional scene generator will be described below.

【0046】3次元光景入力装置121は、3次元光景
データベース11のデータを文字列ごとに読み込み、読
み込んだ文字列を3次元光景解釈装置122に送る。
The three-dimensional scene input device 121 reads the data in the three-dimensional scene database 11 for each character string and sends the read character string to the three-dimensional scene interpretation device 122.

【0047】ここで、3次元光景解釈装置122の構成
を図4に示す。
Here, the structure of the three-dimensional scene interpretation device 122 is shown in FIG.

【0048】図示するように、3次元光景解釈装置12
2は、文字列判定装置1220、カメラ属性設定処理群
1221、被写体属性設定処理群1222、形状設定処
理群1223、座標変換処理群1224、モード制御処
理群1225、カメラ属性テーブル1226、被写体属
性テーブル1227、結果テーブルスタック1228、
座標変換スタック1229から構成されている。
As shown, the three-dimensional scene interpretation device 12
2 is a character string determination device 1220, a camera attribute setting processing group 1221, a subject attribute setting processing group 1222, a shape setting processing group 1223, a coordinate conversion processing group 1224, a mode control processing group 1225, a camera attribute table 1226, a subject attribute table 1227. , Result table stack 1228,
It is composed of a coordinate transformation stack 1229.

【0049】ここで、カメラ属性設定処理群1221
は、表1に示したデータ中のステートメント1109か
ら1115に、それぞれ対応する処理の集合であり、カ
メラ属性テーブル1226に、ステ−トメント中のパラ
メ−タによって指定されたカメラ属性を設定する処理の
集合である。
Here, the camera attribute setting processing group 1221
Is a set of processes corresponding to the statements 1109 to 1115 in the data shown in Table 1, respectively, and is a set of processes for setting the camera attributes specified by the parameters in the statement in the camera attribute table 1226. It is a set.

【0050】被写体属性設定処理群1222は、表1に
示したデータ中のステートメント1117から1120
に、それぞれ対応した処理の集合であり、被写体属性テ
ーブル1227に被写体属性を設定する処理の集合であ
る。
The object attribute setting processing group 1222 includes statements 1117 to 1120 in the data shown in Table 1.
2 is a set of processes corresponding to the above, and is a set of processes for setting a subject attribute in the subject attribute table 1227.

【0051】座標変換処理群1224は、表1に示した
データ中のステートメント1114、1115、112
0に、それぞれ対応した処理の集合であり、座標変換の
定義を座標変換スタック1229に設定する処理の集合
である。
The coordinate conversion processing group 1224 includes statements 1114, 1115, 112 in the data shown in Table 1.
0 is a set of processes respectively corresponding to 0, and is a set of processes for setting the definition of coordinate conversion in the coordinate conversion stack 1229.

【0052】モード制御処理群1225は表1に示した
データ中のステートメント1101、1116、112
2、1123に、それぞれ対応した処理の集合であり、
現在カメラ属性を設定する処理と、被写体属性を設定す
る処理とを制御する処理である。 また、カメラ属性テ
ーブル1226は図5に示すように、解像度1226
1、ピクセルアスペクト比12262、スクリ−ンのウ
ィンドウ12263、レタリング領域12264、スク
リ−ンへの投影方法12265、カメラ空間12268
の項目より成る。
The mode control processing group 1225 includes statements 1101, 1116 and 112 in the data shown in Table 1.
2 and 1123 are a set of processes respectively corresponding to
It is a process of controlling the process of setting the current camera attribute and the process of setting the subject attribute. The camera attribute table 1226 has a resolution 1226 as shown in FIG.
1, pixel aspect ratio 12262, screen window 12263, lettering area 12264, screen projection method 12265, camera space 12268
It consists of items.

【0053】被写体属性テーブル1227は、図6に示
すように、被写体の全属性パラメータを定義するテーブ
ルである。図6に示すように、被写体属性テーブルは色
12271、光源12272、模様を定義する手続きの
配列12273、「手続き」用パラメータ12274、
テクスチャマッピング空間12275、艶12276、
及び被写体座標12277の項目から構成されている。
As shown in FIG. 6, the subject attribute table 1227 is a table defining all the attribute parameters of the subject. As shown in FIG. 6, the subject attribute table includes a color 12271, a light source 12272, an array 12273 of procedures for defining a pattern, a “procedure” parameter 12274,
Texture mapping space 12275, luster 12276,
And subject coordinates 12277.

【0054】文字列判定装置1220は3次元光景入力
装置121から文字列を受け取ると、受け取った文字列
がコマンドに渡すパラメータであるか、コマンドである
かを判定する。そして、受け取った文字列が、パラメー
タであれば、結果テーブルスタック1228にパラメー
タをスタックする。
Upon receiving the character string from the three-dimensional scene input device 121, the character string determination device 1220 determines whether the received character string is a parameter to be passed to the command or a command. Then, if the received character string is a parameter, the parameter is stacked on the result table stack 1228.

【0055】一方、受け取った文字列が、コマンドなら
ば、カメラ属性設定処理群1221もしくは被写体属性
設定処理群1222もしくは形状設定処理群1223も
しくは座標変換処理群1224もしくはモード制御処理
群1225内の、受け取ったコマンドに対応する処理を
実行する。
On the other hand, if the received character string is a command, it is received in the camera attribute setting processing group 1221, the subject attribute setting processing group 1222, the shape setting processing group 1223, the coordinate conversion processing group 1224, or the mode control processing group 1225. The process corresponding to the command is executed.

【0056】また、文字列判定装置1221は”{”が
入力されると、それ以降 ”}”が入力されるまでの
文字列についてはコマンドであっても処理を実行せず
に、パラメ−タとして解釈結果テーブルスタック122
5にスタックする。
When "{" is input, the character string determination device 1221 does not execute the process for the character string until "}" is input, and the parameter is not processed. Result table stack 122
Stack to 5.

【0057】以下、表1に示すデータを受け取った3次
元光景解釈装置122の動作を説明する。
The operation of the three-dimensional scene interpretation device 122 that receives the data shown in Table 1 will be described below.

【0058】まず、ステ−トメント1101を受け取る
と、文字判定装置1220は、コマンドと判定し、ステ
ートメント1101に対応するモード制御処理群122
5内の処理を実行する。このステートメント1101に
対応する処理は、3次元生成処理装置を初期化し、モー
ドをカメラ属性設定モードに設定する。また、このと
き、座標変換スタック1229には、前記カメラ空間を
世界空間座標に変換する空間変換行列が格納される。本
実施例では、カメラ空間の各座標軸ZA、YA、XA
が、対応する世界空間の各座標軸座標ZW、YW、XW
に変換されるような線形のカメラ空間変換行列を格納す
る(図2参照)。
First, when the statement 1101 is received, the character determination device 1220 determines that it is a command, and the mode control processing group 122 corresponding to the statement 1101.
The processing in 5 is executed. The process corresponding to this statement 1101 initializes the three-dimensional generation processing device and sets the mode to the camera attribute setting mode. At this time, the coordinate conversion stack 1229 stores a space conversion matrix for converting the camera space into world space coordinates. In this embodiment, the coordinate axes ZA, YA, XA of the camera space are
Is the corresponding coordinate axis ZW, YW, XW of the world space
The linear camera space conversion matrix that is converted into the matrix is stored (see FIG. 2).

【0059】次に、文字判定装置1220は、入力され
たステ−トメント1102〜1108をパラメ−タとし
て、結果テ−ブルスタック1228に格納する。
Next, the character determination device 1220 stores the input statements 1102 to 1108 in the result table stack 1228 as parameters.

【0060】そして、ステ−トマント1109が入力さ
れると、文字判定装置1220は、前半部に記述された
パラメ−タ”640、480、1.0”を、結果テ−ブ
ルスタック1228に格納し、後半部に記述されたコマ
ンド”HRFormat”に対応したカメラ属性設定処
理群1221内の処理を起動する。HRFormat”
に対応した処理は、モ−ドがカメラ属性設定モ−ドにあ
ることを確認した後、カメラ属性テーブル1226の画
像解像度12261が、文字列判定装置1220が結果
テーブルスタック1228に格納した、ステートメント
1109中の3つのパラメータ640、480、1.0
に設定する。
When the state cloak 1109 is input, the character determination device 1220 stores the parameters "640, 480, 1.0" described in the first half in the result table stack 1228. , Starts the process in the camera attribute setting process group 1221 corresponding to the command “HR Format” described in the latter half. HR Format "
In the processing corresponding to the statement 1109, after confirming that the mode is in the camera attribute setting mode, the image resolution 12261 of the camera attribute table 1226 is stored in the result table stack 1228 by the character string determination device 1220. Three parameters in 640, 480, 1.0
Set to.

【0061】続いて入力されるステ−トメント1110
から1113についても同様に処理し、カメラ属性テー
ブル1226のピクセルアスペクト比12262、スク
リ−ンのウィンドウ12263、レタリング領域122
64、スクリ−ンへの投影方法12265の各項目を設
定する。
Statement 1110 to be input subsequently
The same processing is performed for the items 1 to 1113, and the pixel aspect ratio 12262 of the camera attribute table 1226, the screen window 12263, the lettering area 122.
64, each item of the projection method 12265 on the screen is set.

【0062】続いてステ−トメント1114が入力され
ると、ステートメント1114に対応する座標変換処理
群1224内の処理を行ない、次式のような変換行列を
作成し、座標変換スタック1228に格納されているカ
メラ空間変換行列との積をとり、結果を、変換行列とし
て座標変換スタック1228に格納する。
Subsequently, when the statement 1114 is input, the processing in the coordinate conversion processing group 1224 corresponding to the statement 1114 is performed, the conversion matrix as shown in the following equation is created, and stored in the coordinate conversion stack 1228. The product is multiplied with the existing camera space conversion matrix and the result is stored in the coordinate conversion stack 1228 as a conversion matrix.

【0063】[0063]

【数1】 [Equation 1]

【0064】ここで、θはステートメント1114の第
一パラメータの90.0、xは第二パラメータの1.
0、yは第三パラメータの0.0、zは第四パラメータ
の0.0である。
Here, θ is the first parameter 90.0 of the statement 1114, and x is the second parameter 1.
0 and y are the third parameter 0.0 and z is the fourth parameter 0.0.

【0065】続いてステ−トメント1115が入力され
ると、ステートメント1115に対応する座標変換処理
群1224内の処理を行ない、式1において、ステート
メント1115の第1パラメータ0.0をx、第2パラ
メータ5.0をy、第3パラメータ0.0をzとした変
換行列を作成し、座標変換スタック1228内の変換行
列との積をとり、積を取った結果の変換行列を、新たな
変換行列として座標変換スタック1229に格納する。
この変換行列は、カメラ空間を、世界空間内のカメラ位
置を原点とする図2中aで示す位置の空間に変換する変
換行列である。
Subsequently, when the statement 1115 is input, the processing in the coordinate transformation processing group 1224 corresponding to the statement 1115 is performed, and in the expression 1, the first parameter 0.0 of the statement 1115 is x and the second parameter is the second parameter. A transformation matrix with 5.0 as y and the third parameter 0.0 as z is created, and the product of the transformation matrix in the coordinate transformation stack 1228 is obtained. Is stored in the coordinate conversion stack 1229 as
This conversion matrix is a conversion matrix that converts the camera space into a space at the position indicated by a in FIG. 2 with the camera position in the world space as the origin.

【0066】続いて、ステ−トメント1116が入力さ
れると、文字判定装置1220は、コマンド1116に
対応したモード制御処理群1225内の処理を実行し、
カメラ属性テーブル1226のカメラ空間12268
に、座標変換スタック1229に格納されている変換行
列を設定し、モ−ドを被写体設定モードに変更する。ま
た、このとき、座標変換スタック1229には、前記被
写体空間を世界空間座標に変換する被写体空間変換行列
が格納される。本実施例では、被写体空間の各座標軸Z
B、YB、XBが、対応する世界空間の各座標軸座標Z
W、YW、XWに変換されるような線形の被写体空間変
換行列を格納する(図2参照)。また、座標変換スタッ
ク1229には、前記テクチャ空間を世界空間座標に変
換するテクチャ空間変換行列も格納される。本実施例で
は、テクスチャ空間の各座標軸ZC、YC、XCが、対
応する世界空間の各座標軸座標ZW、YW、XWに変換
されるような線形のテクスチャ空間変換行列を格納する
(図2参照)。
Subsequently, when the statement 1116 is input, the character determination device 1220 executes the processing in the mode control processing group 1225 corresponding to the command 1116,
Camera space 12268 of camera attribute table 1226
Then, the conversion matrix stored in the coordinate conversion stack 1229 is set, and the mode is changed to the subject setting mode. At this time, the coordinate transformation stack 1229 also stores a subject space transformation matrix that transforms the subject space into world space coordinates. In the present embodiment, each coordinate axis Z in the subject space
B, YB, XB are the corresponding coordinate axes Z in the world space
A linear subject space conversion matrix that is converted into W, YW, and XW is stored (see FIG. 2). The coordinate conversion stack 1229 also stores a texture space conversion matrix for converting the texture space into world space coordinates. In this embodiment, a linear texture space conversion matrix is stored in which each coordinate axis ZC, YC, XC of the texture space is converted into each coordinate axis coordinate ZW, YW, XW of the corresponding world space (see FIG. 2). .

【0067】次に、文字判定装置1220は、入力され
たステ−トメント1117内のパラメ−タを結果テ−ブ
ルスタック1228に格納する。そして、モ−ドが被写
体属性設定モ−ドにあることを確認した後、ステ−トメ
ント1117内のコマンドに対応した被写体属性設定処
理群1223内の処理を実行し、被写体属性テーブル1
227の光源12272に、結果テ−ブルスタックに一
旦格納したステートメント1109中のパラメータを設
定する。
Next, the character determination device 1220 stores the input parameters in the statement 1117 in the result table stack 1228. Then, after confirming that the mode is in the subject attribute setting mode, the processing in the subject attribute setting processing group 1223 corresponding to the command in the statement 1117 is executed, and the subject attribute table 1
The light source 12272 of 227 is set with the parameter in the statement 1109 once stored in the result table stack.

【0068】また、同様に、ステ−トメント1118が
入力されると、文字判定装置1220は、被写体属性処
理群1222内のステートメント1118に対応した処
理を実行し、被写体属性テーブル1227の色1227
1を、結果テーブルスタック1228に一旦格納したス
テートメント1118中のパラメ−タ”1.0 1.0
1.0”を設定する。
Similarly, when the statement 1118 is input, the character determination device 1220 executes the processing corresponding to the statement 1118 in the object attribute processing group 1222, and the color 1227 of the object attribute table 1227.
1 stored in the result table stack 1228 once, the parameter "1.0 1.0" in the statement 1118
Set to 1.0 ".

【0069】次に、ステ−トメント1119が入力され
ると、文字判定装置1220は、まず、第1パラメ−タ
として、”emboss”を、第2パラメ−タとして”
Km0.5”を結果テーブルスタック1228に格納す
る。そして、次に、コマンド”HR Texture”
に対応する被写体属性処理群1222内の処理を実行す
る。すなわち、結果テーブルスタック1228に格納さ
れている第一パラメータを判定し、被写体属性テ−ブル
1227の模様定義「手続き」12274を、第1パラ
メ−タと同じ文字列”/emboss”と共に、先に結
果テ−ブルスタック1228に格納したステ−トメント
1102〜1108の配列に変更する。
Next, when the statement 1119 is input, the character determination device 1220 firstly, "emboss" as the first parameter and "as the second parameter".
Km0.5 "is stored in the result table stack 1228. Then, the command" HR Texture "is entered.
The processing in the subject attribute processing group 1222 corresponding to is executed. That is, the first parameter stored in the result table stack 1228 is determined, and the pattern definition “procedure” 12274 of the subject attribute table 1227 is first written together with the same character string “/ emboss” as the first parameter. The array of statements 1102 to 1108 stored in the result table stack 1228 is changed.

【0070】結果テーブルスタック1228の第二パラ
メータはパラメータとして手続き用パラメータ1227
4に格納する。
The second parameter of the result table stack 1228 is the procedure parameter 1227 as a parameter.
Store in 4.

【0071】そして、テクスチャマッピング空間122
75に、座標変換スタック1229に格納されているテ
クスチャ空間変換行列を設定する。
Then, the texture mapping space 122
In 75, the texture space conversion matrix stored in the coordinate conversion stack 1229 is set.

【0072】続いてステ−トメント1120が入力され
ると、ステートメント1114に対応する座標変換処理
群1224内の処理を行ない、式1において、ステート
メント11205の第1パラメータ0.0をx、第2パ
ラメータ1.0をy、第3パラメータ0.0をzとした
変換行列を作成し、座標変換スタック1228内の被写
体空間変換行列との積をとり、積を取った結果の変換行
列を、被写体変換行列として座標変換スタック1229
に格納する。この、被写体変換行列は、被写体空間を世
界空間内の座標(0、1、0)原点とする図2中bで示
す位置の空間に変換する変換行列である。
Then, when the statement 1120 is input, the processing in the coordinate conversion processing group 1224 corresponding to the statement 1114 is performed, and in the expression 1, the first parameter 0.0 of the statement 11205 is x and the second parameter is the second parameter. A conversion matrix with 1.0 as y and the third parameter 0.0 as z is created, and the product is multiplied with the subject space conversion matrix in the coordinate transformation stack 1228, and the resulting transformation matrix is subject transformation. Coordinate transformation stack 1229 as matrix
To store. The subject transformation matrix is a transformation matrix for transforming the subject space into the space at the position indicated by b in FIG. 2 with the origin of coordinates (0, 1, 0) in the world space.

【0073】次に、ステートメント1121が入力され
ると、文字判定装置1220は、コマンド”HRSph
ere”に対応する形状設定処理群1223内の処理を
行ない、座標変換スタック1229に格納された被写体
変換行列を、被写体属性テ−ブル1227の被写体空間
12277に設定する。
Next, when the statement 1121 is input, the character determination device 1220 causes the command "HRSph".
The processing in the shape setting processing group 1223 corresponding to “ere” is performed, and the subject transformation matrix stored in the coordinate transformation stack 1229 is set in the subject space 12277 of the subject attribute table 1227.

【0074】そして、カメラ属性テーブル1226、被
写体属性テーブル1227、結果テーブルスタック12
28に格納されたステートメント1121中のパラメー
タと、球を表現する形状識別子を3次元画像生成処理装
置123に送る。
Then, the camera attribute table 1226, the subject attribute table 1227, the result table stack 12
The parameters in the statement 1121 stored in 28 and the shape identifier representing the sphere are sent to the three-dimensional image generation processing device 123.

【0075】次に、ステートメント1122が入力され
ると、文字列判定装置1220は、対応するモード制御
処理群1225内の処理により、モードをカメラ属性設
定モードにする。
Next, when the statement 1122 is input, the character string determination device 1220 sets the mode to the camera attribute setting mode by the processing in the corresponding mode control processing group 1225.

【0076】ステートメント1123が入力されると、
文字列判定装置1220は、対応するモード制御処理群
1225内の処理により、3次元光景解釈装置の処理を
終了させる。
When statement 1123 is entered,
The character string determination device 1220 ends the processing of the three-dimensional scene interpretation device by the processing in the corresponding mode control processing group 1225.

【0077】次に、3次元光景解釈装置122から、カ
メラ属性テーブル1226、被写体属性テーブル122
7と結果テーブルスタック1228に格納されたパラメ
ータと球を表現する形状識別子とを受け取った3次元画
像生成処理装置123について説明する。
Next, the camera attribute table 1226 and the subject attribute table 122 from the three-dimensional scene interpreter 122.
7 and the parameters stored in the result table stack 1228 and the shape identifier representing the sphere will be described below.

【0078】3次元画像生成処理装置123は、3次元
光景解釈装置122から送られてきた形状識別子と、ス
テ−トメント1121のパラメータと、カメラ属性テー
ブル1226と被写体属性テーブル1227の内容を基
に3次元画像を3次元画像メモリ1236上に作成し、
3次元画像メモリ1236の内容を3次元画像出力装置
125に出力する装置である。
The three-dimensional image generation processing device 123 uses the shape identifier sent from the three-dimensional scene interpretation device 122, the parameters of the statement 1121, the contents of the camera attribute table 1226 and the subject attribute table 1227 to determine the 3 A three-dimensional image is created on the three-dimensional image memory 1236,
This is a device for outputting the contents of the three-dimensional image memory 1236 to the three-dimensional image output device 125.

【0079】3次元画像生成処理装置123の構成を図
7に示す。
The configuration of the three-dimensional image generation processing device 123 is shown in FIG.

【0080】3次元画像生成処理装置123は、投影処
理装置1231と模様設定処理装置1232と3次元サ
ンプリング処理装置1233とテクスチャマッピング処
理装置1234と模様画像メモリ1235と3次元画像
メモリ1236から構成される。
The three-dimensional image generation processing device 123 comprises a projection processing device 1231, a pattern setting processing device 1232, a three-dimensional sampling processing device 1233, a texture mapping processing device 1234, a pattern image memory 1235 and a three-dimensional image memory 1236. ..

【0081】3次元画像生成処理装置123において、
投影処理装置1231は、被写体のカメラスクリーン上
への投影像を求める投影処理を行なう。
In the three-dimensional image generation processing device 123,
The projection processing device 1231 performs a projection process for obtaining a projected image of a subject on a camera screen.

【0082】投影処理は、以下のように行なう。The projection process is performed as follows.

【0083】まず、投影処理装置1231は、3次元光
景解釈装置122から送られてきた形状識別子をもと
に、結果テーブルスタック1228に格納されているパ
ラメータを解釈する。
First, the projection processing device 1231 interprets the parameters stored in the result table stack 1228 based on the shape identifier sent from the three-dimensional scene interpretation device 122.

【0084】本実施例では、表1のステートメント11
21に対応して、結果テーブルスタック1228に1.
0、1.0、−1.0、360.0というパラメータが
格納されている。投影処理装置1231は、受け取った
形状識別子が球を示している場合、結果テーブルスタッ
ク1228に格納されている第1パラメータを半径、第
2パラメータを下方カット面値、第3パラメータを上方
カット面値、第4パラメータをスィープ角と解釈する。
こうして、解釈された被写体球は、被写体空間におい
て、原点を中心とする球である(図2B参照)。
In this embodiment, statement 11 in Table 1 is used.
In the result table stack 1228, 1.
The parameters 0, 1.0, -1.0, 360.0 are stored. When the received shape identifier indicates a sphere, the projection processing device 1231 uses the first parameter stored in the result table stack 1228 as the radius, the second parameter as the lower cut surface value, and the third parameter as the upper cut surface value. , The fourth parameter is interpreted as the sweep angle.
The object sphere thus interpreted is a sphere centered on the origin in the object space (see FIG. 2B).

【0085】そこで、この被写体空間上の球のカメラ空
間上の位置を求め、被写体のカメラスクリ−ン上への投
影像を求める。
Therefore, the position of the sphere in the subject space in the camera space is obtained, and the projected image of the subject on the camera screen is obtained.

【0086】すなわち、球に対し、被写体属性テーブル
1227の被写体空間12276に格納された被写体変
換行列を施し球のパラメ−タを世界空間上のパラメ−タ
に変換し、得られて世界空間上の球のパラメ−タにカメ
ラ属性テーブル1226のカメラ空間12266に格納
されたカメラ変換行列の逆行列を施してカメラ空間上の
球のパラメ−タを求める。ただし、被写体属性テーブル
1227の被写体空間12276に格納された被写体変
換行列とカメラ属性テーブル1226のカメラ空間12
266に格納されたカメラ変換行列の逆行列との積を球
に施して、直接被写体空間上のパラメ−タからカメラ空
間上のパラメ−タに変換するようにしてもよい。
That is, the object conversion matrix stored in the object space 12276 of the object attribute table 1227 is applied to the sphere to convert the parameters of the sphere into the parameters of the world space, and the obtained parameters are obtained in the world space. The parameter of the sphere in the camera space is obtained by applying the inverse matrix of the camera conversion matrix stored in the camera space 12266 of the camera attribute table 1226 to the parameter of the sphere. However, the subject conversion matrix stored in the subject space 12276 of the subject attribute table 1227 and the camera space 12 of the camera attribute table 1226.
The product of the inverse of the camera conversion matrix stored in 266 may be applied to the sphere to directly convert the parameters in the object space into the parameters in the camera space.

【0087】こうして球のカメラ空間上のパラメ−タが
求まれば、これをカメラ空間におけるカメラスクリ−ン
への投影を求めることにより、被写体のカメラスクリ−
ン上への投影像のパラメ−タを求めることができる。カ
メラスクリ−ンに投影された球の投影像のパラメ−タは
円のパラメ−タとなる。
When the parameters of the sphere on the camera space are obtained in this way, the projection of the sphere onto the camera screen in the camera space is obtained to obtain the camera screen of the subject.
The parameters of the projected image on the screen can be obtained. The parameters of the projected image of the sphere projected on the camera screen become the parameters of a circle.

【0088】一方、模様設定装置1232は、模様の解
像度を決定する。
On the other hand, the pattern setting device 1232 determines the resolution of the pattern.

【0089】模様の解像度の決定は、以下のように行な
う。
The resolution of the pattern is determined as follows.

【0090】まず、投影処理装置1231が求めたカメ
ラ空間におけるカメラスクリ−ン上に投影された、被写
体の投影像の領域を求める。そして、求めた領域の大き
さより、模様の解像度を決定し、被写体属性テーブル1
227に格納されている模様を生成する「手続き」の配
列12273と共に、求めた模様の解像度を2次元画像
生成装置124(図1参照)に送る。
First, the area of the projected image of the object projected on the camera screen in the camera space obtained by the projection processing device 1231 is obtained. Then, the resolution of the pattern is determined based on the obtained size of the area, and the subject attribute table 1
The resolution of the obtained pattern is sent to the two-dimensional image generation device 124 (see FIG. 1) together with the “procedure” array 12273 stored in 227.

【0091】模様の解像度の求め方を図8を用いて説明
する。
How to obtain the pattern resolution will be described with reference to FIG.

【0092】図8は、カメラスクリーンを図示したもの
である。
FIG. 8 shows the camera screen.

【0093】カメラ属性テ−ブル1226の解像度12
261の内容より、カメラスクリーン113の大きさは
横640縦480である。
Resolution 12 of camera attribute table 1226
From the contents of 261, the size of the camera screen 113 is 640 horizontal by 480 vertical.

【0094】スクリーンの座標系は、図8中に示すよう
に左上を原点とし、右下を(640、480)とした座
標系で定義されている。
The coordinate system of the screen is defined by a coordinate system in which the upper left is the origin and the lower right is (640, 480) as shown in FIG.

【0095】このとき、被写体球の投影像111Bは、
先に投影処理装置1231が求めた円のパラメ−タより
求まる。
At this time, the projected image 111B of the subject sphere is
It is obtained from the circular parameters previously obtained by the projection processing device 1231.

【0096】次に、球が投影された領域(図中波線で示
した領域)を含む矩形領域を求めると、対角線上の頂点
が(272、192)と(368、288)の領域にな
る。
Next, when a rectangular area including the area where the sphere is projected (the area indicated by the broken line in the figure) is obtained, the vertices on the diagonal line become the areas (272, 192) and (368, 288).

【0097】よって、投影された球が占有する領域は縦
96×横96の領域になるので、模様設定装置1332
は求められた領域から模様の解像度を式2によって求め
る。
Therefore, since the area occupied by the projected sphere is a vertical 96 × horizontal 96 area, the pattern setting device 1332
Calculates the resolution of the pattern from the calculated area by using Equation 2.

【0098】 Tres = region × 2 −− 式2 ここで、Tresは求められる模様の解像度であり、投
影像を含む矩形領域形状の占有領域regionの2
倍、すなわち、縦方向に192、横方向に192の解像
度となる。
Tres = region × 2--Equation 2 Here, Tres is the resolution of the desired pattern, which is 2 of the occupied area region of the rectangular area shape including the projected image.
That is, the resolution is doubled, that is, 192 in the vertical direction and 192 in the horizontal direction.

【0099】ナイキストの定理より、被写体の模様は、
スクリーンの解像度によって決る空間周波数の2倍の空
間周波数持った画像(すなわち解像度をもった画像)と
すれば十分であるので、式2により模様の解像度を求め
れば、模様は鮮明で、かつ、過不足ない解像度をもった
画像を生成することができる。
From Nyquist's theorem, the pattern of the subject is
An image having a spatial frequency twice as high as the spatial frequency determined by the resolution of the screen (that is, an image having a resolution) is sufficient. Therefore, if the resolution of the pattern is calculated by Equation 2, the pattern is clear and It is possible to generate an image with a sufficient resolution.

【0100】模様設定処理装置1232は、こうして求
めた解像度を、被写体属性テ−ブル1227の模様の
「手続」12273と「手続」用パラメ−タと共に、2
次元画像生成装置に渡す。
The pattern setting processing unit 1232 sets the resolution thus obtained, together with the "procedure" 12273 and the "procedure" parameter of the pattern of the subject attribute table 1227, to 2
Pass it to the three-dimensional image generation device.

【0101】なお、被写体の大きさと、被写体とカメラ
スクリ−ンの距離から、単純に模様の解像度を求めるよ
うにしても、過不足ない解像度に近い値を得ることがで
きるので、さほど、高画質を要求されない場合は、被写
体の大きさと、被写体とカメラスクリ−ンの距離から、
単純に模様の解像度を求めるようにしてもよい。
Even if the resolution of the pattern is simply obtained from the size of the subject and the distance between the subject and the camera screen, it is possible to obtain a value close to the correct or insufficient resolution. If is not required, from the size of the subject and the distance between the subject and the camera screen,
The resolution of the pattern may be simply obtained.

【0102】ここで、一旦3次元画像生成処理装置12
3の説明を離れ、2次元画像生成装置124の模様生成
動作を説明する。
Here, the three-dimensional image generation processing apparatus 12 is temporarily
Apart from the description of 3, the pattern generation operation of the two-dimensional image generation device 124 will be described.

【0103】まず、図9に2次元画像生成装置の構成を
示す。
First, FIG. 9 shows the configuration of the two-dimensional image generation apparatus.

【0104】図示するように、2次元画像生成装置12
4は、データ判定装置1240と2次元属性設定処理群
1241と文字展開処理1242と画像展開処理124
3と2次元サンプリング処理装置1244と2次元図形
属性テーブル1245とワークメモリ1246とパラメ
ータスタックメモリ1247と文字フォントデータベー
ス1248と画像データベース1249から構成され
る。
As shown, the two-dimensional image generation device 12
4 is a data determination device 1240, a two-dimensional attribute setting processing group 1241, a character expansion processing 1242, and an image expansion processing 124.
It comprises a three-dimensional and two-dimensional sampling processor 1244, a two-dimensional graphic attribute table 1245, a work memory 1246, a parameter stack memory 1247, a character font database 1248 and an image database 1249.

【0105】2次元画像生成装置124が受け取る被写
体属性テ−ブル1227の模様「手続き」12273に
は、表1に示したデータ中のステ−トメント1103〜
1107が格納されている。そこで、2次元画像生成装
置124の、データ判定装置1240は、被写体属性テ
−ブル1227の模様「手続き」の配列12273を受
け取ると、配列内の文字列を順に読み込み、コマンドに
渡すパラメータであるか、コマンドであるかを判定し、
パラメータであれば、パラメータスタックメモリ124
7に格納する。また、被写体属性テ−ブル1227の
「手続き」用パラメ−タ12274を、2次元図形属性
テーブル1245に格納する。
The pattern "procedure" 12273 of the subject attribute table 1227 received by the two-dimensional image generating apparatus 124 includes the statements 1103 to 1103 in the data shown in Table 1.
1107 is stored. Therefore, when the data determination device 1240 of the two-dimensional image generation device 124 receives the array 12273 of the pattern “procedure” of the subject attribute table 1227, is it a parameter to be read in order and passed to the command? , It is a command,
If it is a parameter, the parameter stack memory 124
Store in 7. Also, the “procedure” parameter 12274 of the subject attribute table 1227 is stored in the two-dimensional figure attribute table 1245.

【0106】また、コマンドであれば、2次元属性設定
処理群1241または文字展開処理群1242または画
像展開処理群1243内の読み込んだコマンドに対応す
る処理を実行する。
If it is a command, the processing corresponding to the command read in the two-dimensional attribute setting processing group 1241, the character development processing group 1242, or the image development processing group 1243 is executed.

【0107】被写体属性テ−ブル1227の模様「手続
き」12273より、ステ−トメント1103が入力さ
れると、データ判定装置1240は、ステ−トメント1
103中のパラメ−タ”Km1.0”をパラメ−タスタ
ックメモリ1247に格納した後、コマンド”para
mdef”に対応する2次元属性設定処理群1241内
の処理を実行し、パラメ−タ”Km1.0”12274
を、2次元図形属性テーブル1245に格納する。
When the statement 1103 is input from the pattern "Procedure" 12273 of the object attribute table 1227, the data judgment device 1240 causes the statement 1
After storing the parameter "Km1.0" in 103 in the parameter stack memory 1247, the command "para"
The processing in the two-dimensional attribute setting processing group 1241 corresponding to "mdef" is executed, and the parameter "Km1.0" 12274 is executed.
Is stored in the two-dimensional graphic attribute table 1245.

【0108】ステートメント1104と1105と11
06についても、同様にして、それぞれ各ステ−トメン
ト中のパラメータである文字フォントの種類とフォント
の大きさと文字の色と文字の配置位置とを2次元図形属
性テーブル1245に設定する。
Statements 1104, 1105 and 11
Similarly, for 06, the character font type, font size, character color, and character layout position, which are parameters in each statement, are set in the two-dimensional graphic attribute table 1245.

【0109】なお、表1に本実施例では、フォントの種
類をゴシック体、フォントの大きさを0.02、文字列
の開始位置を0.5,0.5としている。
In Table 1, in this embodiment, the font type is Gothic, the font size is 0.02, and the character string start positions are 0.5 and 0.5.

【0110】次に、ステ−トメント1207が入力され
ると、ステ−トメント1207のパラメ−タ”あいうえ
お”をパラメ−タスタックメモリ1247に格納した
後、コマンド”show”に対応する文字展開処理群1
242内の処理を行なう。
Next, when the statement 1207 is input, the parameter "aiueo" of the statement 1207 is stored in the parameter stack memory 1247, and then the character expansion processing group corresponding to the command "show". 1
The processing in 242 is performed.

【0111】文字展開処理群1242内の処理は、パラ
メータスタックメモリ1247にスタックされた文字列
を構成する文字コードと2次元図形属性テーブル124
5のフォントの種類とを基に、文字フォントデータベー
ス1248から文字外形線データをとり出し、文字外形
線データを模様定義空間上の文字外形線データに変換す
る処理である。
The processing in the character expansion processing group 1242 is performed by the character code and the two-dimensional figure attribute table 124 which form the character string stacked in the parameter stack memory 1247.
This is a process for extracting the character outline data from the character font database 1248 based on the font type of No. 5, and converting the character outline data into the character outline data in the pattern definition space.

【0112】文字外形線データは文字外形を構成する曲
線を示すベクトル値関数である。2次元上の曲線を表す
ベクトル値関数は、一般に、Pu={X(u)、Y
(u)}で表され、たとえば、半径1の円を表すベクト
ル値関数はPu={cos(u)、sin(u)}、で
ある。このようなベクトル値関数によって規定された形
状は、シャギ−の発生等を伴わずに拡大することができ
る。たとえば、原点を中心とする半径1の円を規定する
ベクトル値関数Pu={cos(u)、sin(u)}
より、半径Kの円を表すベクトル値関数Pu={Kco
s(u)、Ksin(u)}を得ることができ、このベ
クトル値関数Pu={Kcos(u)、Ksin
(u)}に従い、曲線を描けばシャギ−の発生等を伴わ
ずに、半径Kの円を得ることができる。
The character outline data is a vector-valued function indicating a curve forming the character outline. A vector-valued function representing a two-dimensional curve is generally Pu = {X (u), Y
(U)}, for example, a vector-valued function representing a circle with a radius of 1 is Pu = {cos (u), sin (u)}. The shape defined by such a vector-valued function can be enlarged without the occurrence of shading. For example, a vector-valued function Pu = {cos (u), sin (u)} that defines a circle centered at the origin and having a radius of 1
From the vector-valued function Pu = {Kco
s (u), Ksin (u)} can be obtained, and this vector value function Pu = {Kcos (u), Ksin
According to (u)}, if a curve is drawn, a circle with a radius K can be obtained without causing shading.

【0113】なお、このようなベクトル値関数を用い
て、形状を規定する方法としては、ベツィエ法によるも
のや、スプライン法によるものが知られている。
As a method for defining the shape by using such a vector value function, the Bezier method and the spline method are known.

【0114】模様定義空間は、原点(0.0、0.0)
と座標(1.0、1.0)を対角線の頂点とする矩形の
2次元空間である。。
The pattern definition space is the origin (0.0, 0.0)
And a coordinate (1.0, 1.0) is a rectangular two-dimensional space having diagonal vertices. ..

【0115】模様定義空間上の文字外形線データへの変
換は、次のように行なう。
Conversion to character outline data on the pattern definition space is performed as follows.

【0116】すなわち、3次元画像生成処理装置123
より受け取った文字フォントデータベース1248から
取りだした文字外形線データを、模様定義空間上、各文
字フォントの大きさが0.02となり、各文字の位置が
座標(0.5、0.5)より順次フォントの大きさだけ
横にずれた位置となるように変換する。変換された模様
定義空間上の文字外形線データもベクトル値関数であ
る。変換された模様定義空間上の文字外形線データはワ
−クメモリ1246に格納される。
That is, the three-dimensional image generation processing device 123
The character outline data retrieved from the character font database 1248 received from the character font database 1248 has a size of each character font of 0.02 in the pattern definition space, and the position of each character is sequentially from the coordinates (0.5, 0.5). Convert so that the position is laterally offset by the size of the font. The converted character outline data on the pattern definition space is also a vector value function. The converted character outline data on the pattern definition space is stored in the work memory 1246.

【0117】模様定義空間上の文字外形線データがワ−
クメモリ1246に格納されたら、2次元サンプリング
処理装置1244が、ワークメモリ1246に格納され
ている模様定義空間上の文字外形線データをテクスチャ
空間に展開し、文字外形線に囲まれた画素を、先に2次
元図形属性テーブル1245に格納した文字の色属性で
色づけする処理を行なう。
Character outline data in the pattern definition space is
Once stored in the memory 1246, the two-dimensional sampling processor 1244 expands the character outline data on the pattern definition space stored in the work memory 1246 into the texture space, and the pixels surrounded by the character outline are Then, a process of coloring with the color attribute of the character stored in the two-dimensional figure attribute table 1245 is performed.

【0118】模様定義空間上の文字外形線データをテク
スチャ空間への展開は次のように行なう。
The character outline data on the pattern definition space is expanded to the texture space as follows.

【0119】まず、3次元画像生成処理装置123より
受け取った解像度、縦192、横182に基づいて、テ
クスチャ空間のXC−YC平面(図2参照)上に、対角
線の頂点を(0.0、0.0)と(192.0、19
2.0)とする矩形の画像領域を想定する。
First, based on the resolution, vertical 192, and horizontal 182 received from the three-dimensional image generation processing device 123, the diagonal vertices are represented by (0.0, 0.0) on the XC-YC plane (see FIG. 2) of the texture space. 0.0) and (192.0, 19
2.0), assuming a rectangular image area.

【0120】そして、つぎに、模様定義空間上の文字外
形線データを、テクスチャ空間上の文字外形線データに
変換する。変換は、模様定義空間がテクスチャ空間上に
想定した矩形の画像領域とが可能な限り同じ大きさで重
なるように模様定義空間を変換する線形変換によって行
なう。本実施例の場合、この変換は単純な拡大変換とな
る。
Then, the character outline data in the pattern definition space is converted into the character outline data in the texture space. The conversion is performed by a linear conversion for converting the pattern definition space so that the pattern definition space overlaps the assumed rectangular image area on the texture space with the same size as much as possible. In the case of the present embodiment, this conversion is a simple expansion conversion.

【0121】そして、このようにして、求めたテクスチ
ャ空間上の文字外形線データに基づいて、テクスチャ空
間のXC−YC平面をワ−クメモリに設定し、XC−Y
C平面上で文字外形線で込まれた領域内の点のワ−クメ
モリ上の画素の値を、先に2次元図形属性テーブル12
45に格納した文字の色属性に従って設定するのであ
る。
In this way, the XC-YC plane of the texture space is set in the work memory based on the character outline data in the texture space thus obtained, and XC-Y
The values of the pixels in the work memory of the points in the area enclosed by the character outline on the C plane are first calculated in the two-dimensional figure attribute table 12
It is set according to the color attribute of the character stored in 45.

【0122】図11は、表1によって定義された模様の
「手続き」を2次元画像生成装置によって生成した画像
である。生成された画像は縦192横192の解像度で
ある。図に示すように定義された”あいうえお”という
文字列が縦96横96の位置から横に表示されている。
FIG. 11 is an image in which the “procedure” of the pattern defined in Table 1 is generated by the two-dimensional image generation device. The generated image has a resolution of 192 vertical and 192 horizontal. The character string "aiueo" defined as shown in the figure is displayed horizontally from the position of 96 vertical 96 horizontal.

【0123】以上で2次元画像生成装置124の説明を
終え、3次元画像生成処理装置123の説明に戻る。
The description of the two-dimensional image generation device 124 is completed above, and the description of the three-dimensional image generation processing device 123 is returned to.

【0124】さて、3次元画像生成処理装置123の3
次元サンプリング処理装置1233は、3次元画像メモ
リ上に、模様を付した被写体のカメラスクリ−ンへの投
影像の画像を生成する。
Now, the three-dimensional image generation processing device 123
The three-dimensional sampling processing unit 1233 generates an image of a projected image of a subject with a pattern on the camera screen on the three-dimensional image memory.

【0125】3次元サンプリング処理装置1233の処
理手順を図12に示す。
The processing procedure of the three-dimensional sampling processor 1233 is shown in FIG.

【0126】まず、3次元サンプリング処理装置123
3は、3次元画像メモリ1236上に、カメラ空間のカ
メラスクリ−ン平面を設定する。
First, the three-dimensional sampling processor 123
3 sets the camera screen plane of the camera space on the three-dimensional image memory 1236.

【0127】次に、被写体球のカメラスクリ−ン上への
投影像の内部の点を、先に求めたカメラスクリ−ン上の
円のパラメ−タより求める。
Next, the point inside the projected image of the object sphere on the camera screen is obtained from the previously determined circle parameters on the camera screen.

【0128】そして、以下の処理を、求めたカメラスク
リ−ン上の投影像の内部の各点(図6中ハッチング部
分)について行なう12331。いま処理対象としてい
るカメラスクリ−ン上の投影像の内部の点を処理点とい
う。
Then, the following processing is performed 12331 for each point (hatched portion in FIG. 6) inside the obtained projected image on the camera screen. The points inside the projected image on the camera screen that is the target of processing are called processing points.

【0129】まず、処理点に投影された被写体上の点を
求める12332。この処理は、投影像を求めたときと
同様にして被写体のカメラ空間上の位置を求め、処理点
に投影される被写体上の点を求めればよい。
First, the point on the object projected on the processing point is determined 12332. In this processing, the position of the subject in the camera space may be obtained in the same manner as when the projection image is obtained, and the point on the subject projected on the processing point may be obtained.

【0130】次に、求めたカメラ空間上の被写体上の点
のテクスチャ空間上の位置を求める12333。この処
理は、カメラ属性設定テ−ブル1226のカメラ空間1
2266に設定されたカメラ変換行列の逆行列と被写体
属性テーブル1227のテクスチャマッピング空間12
274に設定されたテクスチャ空間変換行列との積を求
め、求まった行列によってカメラ空間上の被写体上の点
を変換することにより求まる。求まった位置はテクスチ
ャ空間上に存在する。
Next, the position of the point on the object thus obtained in the camera space on the texture space is obtained 12333. This processing is performed in the camera space 1 of the camera attribute setting table 1226.
The inverse matrix of the camera conversion matrix set to 2266 and the texture mapping space 12 of the subject attribute table 1227.
It is obtained by finding the product of the texture space transformation matrix set in 274 and transforming the points on the object in the camera space by the obtained matrix. The obtained position exists in the texture space.

【0131】処理12334はテクスチャマッピング処
理装置1234を起動する処理である。テクスチャマッ
ピング処理装置1234を起動する際、処理12334
は処理12333によって求まった被写体上の点のテク
スチャ空間上の位置を渡す。
Process 12334 is a process for activating the texture mapping processing device 1234. When the texture mapping processing device 1234 is activated, the processing 12334 is executed.
Passes the position on the texture space of the point on the subject obtained by processing 12333.

【0132】テクスチャマッピング処理装置1234
は、処理12334から渡された被写体上の点のテクス
チャ空間上の位置から、当該被写体上の点に付される模
様の色を求める。求めた色は、当該被写体上の点が投影
されたカメラスリ−ン上の点の色である。
Texture mapping processor 1234
Calculates the color of the pattern attached to the point on the subject from the position on the texture space of the point on the subject passed from the process 12334. The obtained color is the color of the point on the camera screen on which the point on the subject is projected.

【0133】テクスチャ空間上の位置から、被写体上の
点に付される模様の色を求める処理は、以下のように行
なう。
The process of obtaining the color of the pattern attached to the point on the subject from the position in the texture space is performed as follows.

【0134】まず、求めた被写体上の点のテクスチャ空
間上の位置のXC座標と、YC座標を抽出する。いま抽
出したXC座標をQ、YC座標をPとする。そして、ワ
−クメモリ1246上に設定したテクスチャ空間のXC
−YC平面上の座標(XC=Q、YC=P、ZC=0)
に対応するワ−クメモリ上の画素の値を求める。そし
て、求めた画素の値を被写体上の点に付される模様の色
とする。
First, the XC coordinate and the YC coordinate of the position of the obtained point on the object in the texture space are extracted. It is assumed that the XC coordinate just extracted is Q and the YC coordinate is P. Then, the XC of the texture space set on the work memory 1246
-Coordinates on YC plane (XC = Q, YC = P, ZC = 0)
The value of the pixel on the work memory corresponding to is calculated. Then, the obtained pixel value is set as the color of the pattern attached to the point on the subject.

【0135】ところで、以上の処理では、テクスチャ空
間において、XC−YC平面上の模様の領域と、被写体
が存在するXC座標の範囲と、YC座標の範囲がずれて
いる場合、被写体上の点に模様が付されないことにな
る。そこで、このような場合、テクスチャマッピング処
理装置1234は、テクスチャ空間上で被写上の点の位
置を移動し、XC−YC平面上の模様の領域のXC座標
の範囲とYC座標の範囲が、それぞれ、被写体を存在す
るXC座標の範囲とYC座標の範囲の内に収まるように
して、被写体上の点に付される模様の色を求めるように
する。
By the way, in the above processing, in the texture space, when the pattern area on the XC-YC plane is different from the XC coordinate range in which the subject exists and the YC coordinate range, the points on the subject are determined. The pattern will not be attached. Therefore, in such a case, the texture mapping processing device 1234 moves the position of the point on the subject in the texture space, and the XC coordinate range and the YC coordinate range of the pattern area on the XC-YC plane are The color of the pattern attached to the point on the subject is obtained by keeping the subject within the range of the XC coordinates and the range of the YC coordinates.

【0136】または、表1に示すデータ中に、テクスチ
ャ空間が変換される世界空間上の位置を指定するステ−
トメントを設け、前記3次元光景解釈装置122が、こ
のステ−トメントに応じて作成した変換行列を、被写体
属性テ−ブル1227のテクスチャマッピング空間に設
定するようにしてもよい。
Alternatively, in the data shown in Table 1, a step for designating the position in the world space where the texture space is converted is specified.
The three-dimensional scene interpreting device 122 may set the conversion matrix created according to this statement in the texture mapping space of the subject attribute table 1227.

【0137】また、以上の処理では、被写体上の点のテ
クスチャ空間におけるZC方向の位置を考慮していない
ので、模様は幾分ゆがんで被写体にコ−ディネ−トされ
ることになる。このゆがみは、後処理によって補正す
る。
Further, in the above processing, since the position of the point on the subject in the ZC direction in the texture space is not taken into consideration, the pattern will be somewhat distorted and will be coordinated to the subject. This distortion is corrected by post processing.

【0138】さて、テクスチャマッピング処理装置は、
こうして求めた被写体上の点の色を処理12335に渡
す。
Now, the texture mapping processing device is
The color of the point on the subject thus obtained is passed to the processing 12335.

【0139】処理12335は、テクスチャマッピング
処理装置1234から戻された色を、処理点の色とし、
3次元画像メモリ1236上のカメラスクリ−ン平面の
対応する画素の値を求めた色に設定する。
The processing 12335 sets the color returned from the texture mapping processing device 1234 as the color of the processing point,
The value of the corresponding pixel on the camera screen plane on the three-dimensional image memory 1236 is set to the obtained color.

【0140】以上の処理を、カメラスクリ−ン上の投影
像の内部の各点について終了したならば、3次元出力装
置125を起動して処理を終了する。
When the above processing is completed for each point inside the projected image on the camera screen, the three-dimensional output device 125 is activated and the processing is completed.

【0141】3次元出力装置125は、3次元画像生成
処理装置123内の3次元画像メモリ1236に作成さ
れたカメラスクリ−ン平面の画像を外部の画像データベ
ース13やディスプレイ装置14に出力する。
The three-dimensional output device 125 outputs the image of the camera screen plane created in the three-dimensional image memory 1236 in the three-dimensional image generation processing device 123 to the external image database 13 and the display device 14.

【0142】以上の処理を実行することにより、3次元
光景に関する被写体の模様を表示することが可能であ
る。
By executing the above processing, it is possible to display the pattern of the subject relating to the three-dimensional scene.

【0143】なお、本実施例では、説明を簡単にするた
めに3次元光景の被写体として球を取り扱ったが、その
他の形状に関しても同様に取り扱うことができる。
In the present embodiment, the sphere is handled as the subject of the three-dimensional scene in order to simplify the description, but other shapes can be handled in the same manner.

【0144】また、本実施例では、パラメ−タによって
形状が規定される被写体について説明したが、3次元の
ドットデータにより直接形状が規定される被写体であっ
ても同様に処理することができる。
Further, in the present embodiment, the subject whose shape is defined by the parameters has been described, but a subject whose shape is directly defined by three-dimensional dot data can be similarly processed.

【0145】また、本実施例では、処理の高速化を優先
し、被写体上の点のテクスチャ空間におけるZC方向の
位置を考慮せずに、テクスチャを被写体上にコ−ディネ
−トしたが、差ほど処理の高速性を問われない場合に
は、被写体上の点のテクスチャ空間におけるZC方向の
位置や、被写体の曲面形状を考慮したコ−ディネ−トを
行ない、模様のゆがみを軽減するのが望ましい。
Further, in the present embodiment, the texture is coded on the object without giving consideration to the position of the point on the object in the ZC direction in the texture space, giving priority to the speeding up of the processing. When the processing speed is not so high, it is necessary to reduce the distortion of the pattern by coordinating the position of the point on the object in the ZC direction in the texture space and the curved surface shape of the object. desirable.

【0146】以下、前記第1実施例で説明した画像処理
装置を利用した映像制作システムを第2の実施例として
説明する。
A video production system using the image processing apparatus described in the first embodiment will be described below as the second embodiment.

【0147】映像製作システムは、ユ−ザの指示に応じ
て、アニメ−ション等の映像を制作するシステムであ
る。
The image production system is a system for producing an image such as an animation in accordance with a user's instruction.

【0148】まず、本第2実施例に係る映像製作システ
ムの構成を図13に示す。
First, FIG. 13 shows the configuration of a video production system according to the second embodiment.

【0149】図示するように、本実施例に係る映像製作
システムは、3次元光景を作成編集する3次元光景制作
システム21と、3次元画像生成装置22と、作成され
た画像を録画編集する映像編集システム23と、マウス
25と、キーボード26と、写真などの画像を取り込む
イメージスキャナ27と、3次元光景データベース28
と文字フォントデータベース29と画像データベース3
0とディスプレイ装置31から構成される。
As shown in the drawing, the video production system according to the present embodiment is a three-dimensional scene production system 21 for creating and editing a three-dimensional scene, a three-dimensional image generating device 22, and a video for recording and editing the created image. An editing system 23, a mouse 25, a keyboard 26, an image scanner 27 for capturing images such as photographs, and a three-dimensional scene database 28.
And character font database 29 and image database 3
0 and a display device 31.

【0150】3次元光景制作システム21は、形状を作
成編集する形状編集システム211と、作成された形状
に光学的な属性や模様などの属性を定義する属性定義シ
ステム212と、被写体の模様を作成編集するペイント
システム213と、作成された形状に動作を定義する動
作定義システム214から構成されている。
The three-dimensional scene production system 21 includes a shape editing system 211 that creates and edits a shape, an attribute definition system 212 that defines attributes such as optical attributes and patterns in the created shape, and a pattern of a subject. It is composed of a paint system 213 for editing and a motion definition system 214 for defining motion in the created shape.

【0151】3次元画像生成装置22と3次元光景デー
タベース28と文字フォントデータベース29と画像デ
ータベース30とディスプレイ装置31が、前記第1実
施例に係る画像処理装置を構成する。
The three-dimensional image generation device 22, the three-dimensional scene database 28, the character font database 29, the image database 30, and the display device 31 constitute the image processing device according to the first embodiment.

【0152】映像製作システムの動作の概要を説明す
る。
The outline of the operation of the video production system will be described.

【0153】3次元光景製作システム21は、入力用画
面をディスプレイ31に表示し、被写体や被写体の動作
や被写体の模様等の入力を受付ける。
The three-dimensional scene production system 21 displays an input screen on the display 31 and receives an input of a subject, a motion of the subject, a pattern of the subject, and the like.

【0154】ユーザは、キ−ボ−ド26、マウス25、
イメ−ジスキャナ27より、被写体や被写体の動作や被
写体の模様等を入力する。
The user has the keyboard 26, mouse 25,
From the image scanner 27, a subject, a motion of the subject, a pattern of the subject, etc. are input.

【0155】3次元光景制作システム21は入力された
内容に応じて、実施例1で表1を用いて示したデータを
作成し、3次元光景データベース28に書き込む。
The three-dimensional scene production system 21 creates the data shown in Table 1 in the first embodiment according to the input contents and writes it in the three-dimensional scene database 28.

【0156】3次元画像生成装置22は3次元光景デー
タベース28を読み込み、3次元光景データベースの内
容を解釈し画像を作成する。そして、3次元画像生成装
置22は作成した画像を画像データベース30に格納す
る。もしくは、作成した画像を接映像編集システム23
に送る。
The three-dimensional image generator 22 reads the three-dimensional scene database 28 and interprets the contents of the three-dimensional scene database to create an image. Then, the three-dimensional image generation device 22 stores the created image in the image database 30. Alternatively, the created image may be used as a contact image editing system 23.
Send to.

【0157】映像編集システム23は、画像データベー
ス30または直接送られてくる画像を編集し、アニメー
ションまたは最終画像を生成する。
The video editing system 23 edits the image database 30 or an image sent directly to generate an animation or a final image.

【0158】次に、3次元光景生成システムの動作の詳
細について説明する。
Next, details of the operation of the three-dimensional scene generation system will be described.

【0159】3次元光景制作システム21は、起動され
ると、図14に示す入力用画面を表示する。
When the three-dimensional scene production system 21 is activated, it displays the input screen shown in FIG.

【0160】図14中、領域2111は被写体の配置を
入力するための領域である。
In FIG. 14, an area 2111 is an area for inputting the arrangement of the subject.

【0161】領域2112は、形状編集システム211
の起動指示を受付ける領域である。領域2113は被写
体の属性定義システム212の起動指示を受付ける領域
である。領域2114は動作定義システム213の起動
指示を受付ける領域である。領域2115は入力した処
理の取り消しを行なう処理の起動指示を受付ける領域で
ある。領域2116は入力作業の終了処理の起動を受付
ける領域である。これらの領域がマウス25によってピ
ックされた場合に、指定された領域に対応するシステム
が起動される。
The area 2112 is for the shape editing system 211.
This is an area for receiving the start instruction of. A region 2113 is a region for receiving a start instruction of the subject attribute definition system 212. An area 2114 is an area for receiving a start instruction of the action definition system 213. Area 2115 is an area for accepting a process activation instruction for canceling the input process. A region 2116 is a region for accepting the activation of the input work end processing. When these areas are picked by the mouse 25, the system corresponding to the specified area is activated.

【0162】また、図14中、形状2117と2118
は入力された3次元形状である。
Further, in FIG. 14, the shapes 2117 and 2118 are shown.
Is the input three-dimensional shape.

【0163】形状編集システム211は、3次元の形状
を定義編集するシステムである。形状編集システム21
1は、被写体の形状として、2次曲面や、制御点によっ
て定義される自由曲面などを受付ける。形状編集システ
ム211の処理が終了したら、3次元光景生成システム
21の図14に示した入力用画面に戻る。
The shape editing system 211 is a system for defining and editing a three-dimensional shape. Shape editing system 21
1 receives a quadric surface, a free-form surface defined by control points, etc. as the shape of the subject. When the processing of the shape editing system 211 ends, the screen for input of the three-dimensional scene generation system 21 shown in FIG. 14 is returned to.

【0164】属性定義システム212は、図15に示す
入力用画面をディスプレイ31に表示し、被写体の光学
的な属性として、色、艶、模様のパラメ−タの入力を受
付けるシステムである。 図15中、領域2121と領
域2122と領域2123は色のパラメータを設定を受
付けるスライダである。領域2124は艶のパラメータ
の設定を受付けるスライダである。 ユ−ザは、スライ
ダの領域をマウス25によってピックしたまま上下する
ことによってスライダの位置を移動する。属性定義シス
テム212は、移動されたスライダの位置に応じて決る
値をパラメータとして受付ける。
The attribute definition system 212 is a system which displays the input screen shown in FIG. 15 on the display 31 and accepts input of color, gloss, and pattern parameters as optical attributes of the subject. In FIG. 15, areas 2121, 2122, and 2123 are sliders that receive setting of color parameters. A region 2124 is a slider that receives setting of gloss parameters. The user moves the position of the slider by moving up and down while picking up the area of the slider with the mouse 25. The attribute definition system 212 accepts as a parameter a value determined according to the position of the moved slider.

【0165】領域2125は模様を設定するペイントシ
ステム214の起動を受付ける領域である。領域212
5が、マウス25によってピックされた場合に、属性定
義システム21は、ペイントシステムに処理を渡す。ペ
イントシステム214は、後述する処理を行ない、模様
のデータを属性定義システム212に戻す。属性定義シ
ステム212は戻された模様のデータを模様属性として
受付ける。領域2126は設定した属性の取り消しを行
なう処理の起動を受付ける領域である。領域2127は
属性を定義システムを終了する処理の起動を受付ける領
域である。。属性定義システム212の処理が終了した
ら、3次元光景生成システム21の図14に示した入力
用画面に戻る。
A region 2125 is a region for accepting activation of the paint system 214 for setting a pattern. Area 212
When 5 is picked by the mouse 25, the attribute definition system 21 passes the processing to the paint system. The paint system 214 performs the processing described later and returns the pattern data to the attribute definition system 212. The attribute definition system 212 receives the returned pattern data as a pattern attribute. Area 2126 is an area for accepting activation of a process for canceling the set attribute. Area 2127 is an area for accepting activation of a process for ending the attribute definition system. .. When the processing of the attribute definition system 212 is completed, the screen for input of the three-dimensional scene generation system 21 shown in FIG. 14 is returned to.

【0166】ペイントシステム214は、図16に示す
入力用画面をディスプレイ31に表示し、被写体の模様
とする2次元の図形や画像や文字の入力を受付けるステ
ムである。
The paint system 214 is a stem which displays the input screen shown in FIG. 16 on the display 31 and accepts the input of two-dimensional figures, images and characters as the pattern of the subject.

【0167】図16中、領域2141はユ−ザが入力作
業を行なう領域である。この領域上で入力された文字や
図形や画像の移動、編集、変形などの処理が行なわれ
る。領域2142はイメージスキャナ27によって写真
などの画像を取り込む処理や、画像を画像データベース
30から取り出す処理の起動を受付ける領域である。領
域2143は文字列や文字の入力を受付ける処理の起動
を受付ける領域である。領域2144は2次元の図形を
定義する処理の起動を受付ける領域である。領域214
5は、いままでのペイントシステム214での入力の内
容を取消し、属性定義システムに戻る処理の起動を受付
ける領域である。ペイントシステム214を終了し、属
性定義システムに戻る処理の起動を受付ける領域であ
る。領域2146は全ての入力作業が終了した時に属性
定義システムに戻る処理を起動する領域である。
In FIG. 16, an area 2141 is an area where the user performs input work. Processing such as moving, editing, and transforming characters, figures, and images input in this area is performed. An area 2142 is an area for accepting activation of a process of capturing an image such as a photograph by the image scanner 27 or a process of extracting an image from the image database 30. Area 2143 is an area for accepting activation of a process for accepting input of a character string or a character. A region 2144 is a region for accepting activation of processing for defining a two-dimensional figure. Area 214
Reference numeral 5 is an area for accepting the activation of the process of canceling the input contents of the paint system 214 and returning to the attribute definition system. This is an area for accepting the activation of the process for ending the paint system 214 and returning to the attribute definition system. An area 2146 is an area for activating a process of returning to the attribute definition system when all input work is completed.

【0168】さて、ペイントシステム214において、
入力された図形や文字や画像は生成された順に登録す
る。このとき、図形については、その図形のベクトルデ
ータと属性を直接登録する。また、文字については、そ
の文字の属性と文字のコードを登録する。画像について
は、画素情報を画像データベース27に格納し、格納し
た画像の名前と属性を登録する。ペイントシステム21
4は領域2146がピックされると登録した文字、図
形、画像のデータを属性定義システム212に返し、処
理を終了する。なお、図16中の文字2147は本ペイ
ントシステム214によって入力された文字列、図形2
148は図形である。である。文字列はキーボード26
によって入力する。図形はマウス25によって入力され
る。図形は矩形、円、自由曲線などである。
Now, in the paint system 214,
The input figures, characters, and images are registered in the order in which they were created. At this time, for the graphic, the vector data and the attribute of the graphic are directly registered. For a character, the attribute of the character and the code of the character are registered. For an image, pixel information is stored in the image database 27, and the name and attribute of the stored image are registered. Paint system 21
In No. 4, when the area 2146 is picked, the data of the registered character, figure, and image is returned to the attribute definition system 212, and the processing is ended. Characters 2147 in FIG. 16 are character strings and figures 2 input by the paint system 214.
148 is a figure. Is. The character string is the keyboard 26
By typing. The figure is input by the mouse 25. The figure is a rectangle, a circle, a free-form curve, or the like.

【0169】動作定義システム213は、定義された3
次元の形状の動作を受付ける。動作は動作を定義する動
作定義データによって入力される。
The behavior definition system 213 has the defined 3
Accepts dimensional shape motions. The motion is input by the motion definition data that defines the motion.

【0170】このような、3次元光景制作システム21
による編集作業が終了すると、3次元光景制作システム
21は、3次元光景制作システム21は、受付けた登録
された被写体の形状と属性を解析しながら、前記第1実
施例で表1を用いて説明した3次元光景データベースの
データ形式のデータを作成し、3次元光景データベース
22に格納し処理を終了する。なお、格納する際、模様
に関するデータも前述したような「手続き」としてデー
タベースに格納される。
Such a three-dimensional scene production system 21
When the editing work by the 3D scene production system 21 is completed, the 3D scene production system 21 analyzes the shape and attributes of the received registered subject, and the description is given in Table 1 in the first embodiment. The data in the data format of the above-mentioned three-dimensional scene database is created, stored in the three-dimensional scene database 22, and the process ends. When storing, the data regarding the pattern is also stored in the database as the “procedure” as described above.

【0171】3次元画像生成装置22は、3次元光景デ
ータベース28に格納されたデータを読み込み、画像を
生成する。このとき、模様が画像の場合、3次元光景デ
ータベース28から読み込んだデータ中には画像の定義
の名前の情報しかないので、この名前を基に画像データ
ベース30を検索し、画像を取り込み、模様とする。文
字、図形については、第1実施例の画像背性装置と同様
に処理する。そして、最終的に生成した画像を画像デー
タベース30に格納、もしくは、映像編集システム23
に渡し、処理を終了する。
The three-dimensional image generation device 22 reads the data stored in the three-dimensional scene database 28 and generates an image. At this time, when the pattern is an image, the data read from the three-dimensional scene database 28 only contains information on the image definition name. Therefore, the image database 30 is searched based on this name, the image is imported, and To do. Characters and figures are processed in the same manner as in the image spine device of the first embodiment. The finally generated image is stored in the image database 30 or the video editing system 23
To end the process.

【0172】映像編集システム23は、3次元画像生成
装置22によって、作成された画像を編集し、アニメー
ションを作成するシステムである。
The video editing system 23 is a system for editing an image created by the three-dimensional image creating device 22 to create an animation.

【0173】図17に映像編集システム23の構成を示
す。図示するように、映像編集システム23は、VTR
編集システム231と音声編集システム232とフレー
ムバッファ233とVTR234より構成される。
FIG. 17 shows the configuration of the video editing system 23. As shown, the video editing system 23 is a VTR.
The editing system 231, the audio editing system 232, the frame buffer 233, and the VTR 234 are included.

【0174】フレームバッファ233は画像を一時的に
蓄えるメモリである。VTR234は画像を記録する装
置である。VTR編集システム231は、フレームバッ
ファ241に画像データベース30から画像をフレーム
バッファ233に取り込み、取り込んだ画像を順次、V
TR234に録画する。
The frame buffer 233 is a memory for temporarily storing an image. The VTR 234 is a device that records an image. The VTR editing system 231 captures images from the image database 30 into the frame buffer 233 in the frame buffer 241, and sequentially captures the captured images in the V
Record to TR234.

【0175】音声編集システム232はVTR234に
記録した映像に音を加えるシステムである。音声編集シ
ステム232によって生成された音声は、VTR録画シ
ステム231の制御下でVTR234に録音される。
The audio editing system 232 is a system for adding sound to the video recorded in the VTR 234. The audio generated by the audio editing system 232 is recorded on the VTR 234 under the control of the VTR recording system 231.

【0176】[0176]

【発明の効果】以上のように、本発明によれば、少ない
量のデータに基づいて、高画質に、多種類の模様を任意
の大きさで、画像生成対象の3次元形状に与えることの
できる画像処理方法を提供することができる。
As described above, according to the present invention, it is possible to provide a high quality image and various types of patterns of arbitrary sizes to a three-dimensional shape of an image generation object based on a small amount of data. It is possible to provide a possible image processing method.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る画像処理装置の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】本発明の一実施例において、画像生成処理のた
めに用いる空間を示す説明図である。
FIG. 2 is an explanatory diagram showing a space used for image generation processing in an embodiment of the present invention.

【図3】本発明の一実施例における生成画像の定義の方
式を示す説明図である。
FIG. 3 is an explanatory diagram showing a method of defining a generated image according to an embodiment of the present invention.

【図4】本発明の一実施例に係る3次元光景解釈装置の
構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a three-dimensional scene interpretation device according to an embodiment of the present invention.

【図5】本発明の一実施例において用いるカメラ属性テ
−ブルの構成を示す説明図である。
FIG. 5 is an explanatory diagram showing a configuration of a camera attribute table used in an embodiment of the present invention.

【図6】本発明の一実施例において用い入る被写体属性
テ−ブルの構成を示す説明図である。
FIG. 6 is an explanatory diagram showing a structure of a subject attribute table used in an embodiment of the present invention.

【図7】本発明の一実施例に係る3次元画像生成処理装
置の構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a three-dimensional image generation processing device according to an embodiment of the present invention.

【図8】本発明の一実施例における被写体のカメラスク
リ−ンへの投影像を示す説明図である。
FIG. 8 is an explanatory diagram showing a projected image of a subject on a camera screen according to an embodiment of the present invention.

【図9】本発明の一実施例に係る2次元画像生成装置の
構成を示すブロック図である。
FIG. 9 is a block diagram showing a configuration of a two-dimensional image generation device according to an embodiment of the present invention.

【図10】本発明の一実施例における模様の定義空間と
模様の生成空間を示す説明図である。
FIG. 10 is an explanatory diagram showing a pattern definition space and a pattern generation space according to an embodiment of the present invention.

【図11】本発明の一実施例において生成した模様を示
す説明図である。
FIG. 11 is an explanatory diagram showing a pattern generated in one example of the present invention.

【図12】本発明の一実施例に係る3次元サンプリング
処理装置の処理を示すフロ−チャ−トである。
FIG. 12 is a flowchart showing the processing of the three-dimensional sampling processing apparatus according to the embodiment of the present invention.

【図13】本発明の一実施例に係る映像製作システムの
構成を示すブロック図である。
FIG. 13 is a block diagram showing a configuration of a video production system according to an embodiment of the present invention.

【図14】本発明の一実施例に係る映像製作システムが
生成する入力用画面を示す説明図である。
FIG. 14 is an explanatory diagram showing an input screen generated by the video production system according to the embodiment of the present invention.

【図15】本発明の一実施例に係る属性定義システムが
生成する入力用画面を示す説明図である。本発明の
FIG. 15 is an explanatory diagram showing an input screen generated by the attribute definition system according to the embodiment of the present invention. Of the present invention

【図16】本発明の一実施例に係るペイントシステムが
生成する入力用画面を示す説明図である。
FIG. 16 is an explanatory diagram showing an input screen generated by the paint system according to the embodiment of the present invention.

【図17】本発明の一実施例に係る映像編集システムの
構成を示す説明図である。
FIG. 17 is an explanatory diagram showing a configuration of a video editing system according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 3次元光景データベ−ス 12 3次元画像生成装置 13 画像データベ−ス 14 ディスプレイ 121 3次元光景入力装置 122 3次元光景解釈装置 123 3次元画像生成処理装置 124 2次元画像生成装置 125 3次元画像出力装置 21 3次元光景制作システム 22 3次元画像生成装置 23 映像編集システム 25 マウス 26 キーボード 27 イメージスキャナ 28 3次元光景データベース 29 文字フォントデータベース 30 画像データベース 31 ディスプレイ装置 211 形状編集システム 212 属性定義システム 213 ペイントシステム 214 動作定義システム 11 three-dimensional scene data base 12 three-dimensional image generation device 13 image data base 14 display 121 three-dimensional scene input device 122 three-dimensional scene interpretation device 123 three-dimensional image generation processing device 124 two-dimensional image generation device 125 three-dimensional image output Device 21 3D scene production system 22 3D image generation device 23 Video editing system 25 Mouse 26 Keyboard 27 Image scanner 28 3D scene database 29 Character font database 30 Image database 31 Display device 211 Shape editing system 212 Attribute definition system 213 Paint system 214 Behavior Definition System

───────────────────────────────────────────────────── フロントページの続き (72)発明者 富田 次男 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 坂元 昭弘 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Tsugio Tomita 4026 Kuji Town, Hitachi City, Ibaraki Prefecture Hitate Works, Ltd., Hitachi Research Laboratory (72) Inventor Akihiro Sakamoto 4026 Kuji Town, Hitachi City, Ibaraki Prefecture Nitate Works Co., Ltd. Hitachi Research Laboratory

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】想定したカメラスクリ−ンに撮影されると
想定される、3次元の形状を有する被写体の撮影像を生
成する画像処理方法であって、 想定したカメラスクリ−ンと被写体との相対的な位置関
係に応じてテクスチャの解像度を決定し、2次元平面上
のベクトル値関数として規定されたテクスチャパタ−ン
より、決定した解像度のテクスチャを生成し、生成した
テクスチャをコ−ディネ−トした前記被写体の、前記カ
メラスクリ−ンに撮影されると想定される撮影像を生成
することを特徴とする画像処理方法。
1. An image processing method for generating a photographed image of a subject having a three-dimensional shape, which is supposed to be photographed by an assumed camera screen, comprising: The texture resolution is determined according to the relative positional relationship, the texture having the determined resolution is generated from the texture pattern defined as a vector-valued function on a two-dimensional plane, and the generated texture is coded. An image processing method for generating a captured image of the captured subject, which is assumed to be captured by the camera screen.
【請求項2】請求項1記載の画像処理方法であって、前
記テクスチャの解像度の決定を、想定したカメラスクリ
−ンと被写体との相対的な位置関係に応じて、想定した
カメラスクリ−ン上への被写体の投影像を求め、求めた
被写体の投影像の大きさを算出し、算出した投影像の解
像度を求め、求めた投影像の解像度と同等の解像度をテ
クスチャの解像度として決定することにより行なうこと
を特徴とする画像処理方法。
2. The image processing method according to claim 1, wherein the resolution of the texture is determined according to the relative positional relationship between the assumed camera screen and the subject. Obtaining the projected image of the subject on the top, calculating the size of the obtained projected image of the subject, obtaining the resolution of the calculated projected image, and determining the resolution equivalent to the obtained projected image resolution as the texture resolution. An image processing method comprising:
【請求項3】想定したカメラスクリ−ンに撮影されると
想定される、3次元の形状を有する被写体の撮影像を生
成する画像処理装置であって、 2次元のテクスチャパタ−ンを規定するベクトル値関数
を記憶するテクスチャデータ記憶手段と、被写体の3次
元の形状を規定する被写体データを記憶する被写体デー
タ記憶手段と、前記カメラスクリ−ンと前記被写体の相
対的な位置関係の指定を受付ける入力手段と、前記被写
体データ記憶手段より読みだした被写体データと前記入
力手段が受付けた前記相対的位置関係とに応じてテクス
チャの解像度を決定し、前記テクスチャデ−タ記憶手段
に記憶されている前記ベクトル値関数より、決定した解
像度のテクスチャを生成するテクスチャ供給部と、前記
カメラスクリ−ンに撮影されると想定される、生成した
テクスチャをコ−ディネ−トした前記被写体の撮影像を
生成するテクスチャマッピング手段を有することを特徴
とする画像処理装置。
3. An image processing apparatus for generating a photographed image of a subject having a three-dimensional shape, which is supposed to be photographed by an assumed camera screen, and defines a two-dimensional texture pattern. Texture data storage means for storing a vector value function, subject data storage means for storing subject data defining a three-dimensional shape of the subject, and designation of a relative positional relationship between the camera screen and the subject are accepted. The resolution of the texture is determined according to the input means, the subject data read from the subject data storage means, and the relative positional relationship received by the input means, and stored in the texture data storage means. It is assumed that an image is captured by the texture supply unit that generates a texture of the determined resolution from the vector value function, and the camera screen. An image processing apparatus comprising: a texture mapping unit that generates a captured image of the subject by coordinating the generated texture.
【請求項4】請求項3記載の画像処理装置であって、 前記テクスチャ供給部は、前記被写体データ記憶手段に
記憶されてる被写体データと前記入力手段が受付けた前
記相対的位置関係とに応じて、前記カメラスクリ−ン上
への前記被写体の投影像を求める投影像算出手段と、投
影像算出手段が求めた投影像の大きさを算出して投影像
の解像度を求める投影像解像度算出手段と、前記投影像
解像度算出手段が求めた投影像の解像度に応じて、前記
テクスチャデ−タ記憶手段に記憶されている前記ベクト
ル値関数より、前記投影像解像度算出手段が求めた投影
像の解像度と同等の解像度のテクスチャを生成するテク
スチャ生成手段とを有することを特徴とする画像処理装
置。
4. The image processing apparatus according to claim 3, wherein the texture supply unit is responsive to the subject data stored in the subject data storage unit and the relative positional relationship received by the input unit. Projection image calculation means for obtaining a projection image of the subject on the camera screen, and projection image resolution calculation means for calculating the size of the projection image obtained by the projection image calculation means to obtain the resolution of the projection image. A resolution of the projection image calculated by the projection image resolution calculation means from the vector value function stored in the texture data storage means according to the resolution of the projection image calculated by the projection image resolution calculation means. An image processing apparatus comprising: a texture generation unit that generates a texture having an equivalent resolution.
【請求項5】請求項3もしくは4記載の画像処理装置で
あって、 前記テクスチャデータ記憶手段は、複数のテクスチャパ
タ−ンをそれぞれ規定する、複数のベクトル値関数を記
憶し、前記入力手段は、テクスチャとして使用するテク
スチャパタ−ンの指定と生成するテクスチャの属性の指
定を含むテクスチャ生成手続を受付け、前記テクスチャ
供給部は、前記入力手段が受付けたテクスチャ生成手続
によって指定されたテクスチャパタ−ンを規定するベク
トル値関数を前記テクスチャデ−タ記憶手段より読み出
し、テクスチャ生成手続によって指定された属性でテク
スチャを生成することを特徴とする画像処理装置。
5. The image processing apparatus according to claim 3 or 4, wherein the texture data storage means stores a plurality of vector value functions that respectively define a plurality of texture patterns, and the input means A texture generation procedure including specification of a texture pattern used as a texture and specification of an attribute of a texture to be generated, and the texture supply unit receives the texture pattern specified by the texture generation procedure received by the input means. An image processing apparatus which reads a vector-valued function defining the above from the texture data storage means and generates a texture with an attribute designated by a texture generation procedure.
【請求項6】請求項5記載の画像処理装置であって、 前記テクスチャデータ記憶手段の記憶する複数のテクス
チャパタ−ンは、複数の文字の文字フォントであって、
前記テクスチャ生成手続によるテクスチャとして使用す
るテクスチャパタ−ンの指定は、テクスチャとして使用
する文字フォントの文字のキャラクタコ−ドによる指定
であることを特徴とする画像処理装置。
6. The image processing apparatus according to claim 5, wherein the plurality of texture patterns stored in the texture data storage means are character fonts of a plurality of characters,
An image processing apparatus characterized in that the designation of a texture pattern used as a texture in the texture generation procedure is designated by a character code of a character font used as a texture.
【請求項7】請求項5記載の画像処理装置と、画像編集
装置と、画像出力装置とを備え、 前記画像編集装置は、テクスチャとして使用するテクス
チャパタ−ンの指定と、生成するテクスチャの属性の指
定とを対話的に受付けるユ−ザインタフェ−ス部と、ユ
−ザインタフェ−ス部が受付けたテクスチャパタ−ンの
指定とテクスチャの属性の指定を含むテクスチャ生成手
続を作成する手続作成部とを有し、 前記画像処理装置の入力手段は、前記画像編集装置の手
続作成部が作成したテクスチャ生成手続を受付け、テク
スチャ生成手続によって指定されたテクスチャパタ−ン
を規定するベクトル値関数を前記テクスチャデ−タ記憶
手段より読み出し、テクスチャ生成手続によって指定さ
れた属性でテクスチャを生成し、 前記画像出力装置は、前記画像処理装置のテクスチャマ
ッピングが生成した前記被写体の撮影像を出力すること
を特徴とする3次元光景生成システム。
7. An image processing device according to claim 5, an image editing device, and an image output device, wherein the image editing device specifies a texture pattern to be used as a texture and attributes of a texture to be generated. And a procedure creating section for creating a texture generation procedure including specification of texture patterns and specification of texture attributes received by the user interface section. The input means of the image processing apparatus receives the texture generation procedure created by the procedure creation unit of the image editing apparatus, and the vector value function that defines the texture pattern designated by the texture generation procedure is used as the texture Read out from the data storage means and generate a texture with the attribute specified by the texture generation procedure, 3D scene generation system and outputs a pickup image of the subject texture mapping of the image processing apparatus is generated.
【請求項8】請求項7記載の3次元光景生成システムで
あって、 前記画像編集装置のユ−ザインタフェ−ス部は、テクス
チャとして使用するテクスチャパタ−ンの指定と生成す
るテクスチャの属性の指定とに加え、前記カメラスクリ
−ンと前記被写体の相対的な位置関係の指定と、被写体
の3次元形状の指定を対話的に受付け、前記手続作成部
は、作成した前記テクスチャ生成手続と、ユ−ザインタ
フェ−ス部が受付けた前記カメラスクリ−ンと前記被写
体の相対的な位置関係の指定と被写体の3次元形状の指
定とを含む3次元光景生成手続を作成し、 前記画像処理装置の入力手段は、前記画像編集装置に手
続作成部が作成した3次元光景生成手続を受付け、前記
テクスチャ供給部は前記入力手段が受付けた3次元光景
生成手続で指定された3次元形状の指定に従い前記被写
体データ記憶手段より前記被写体データを読みだし、読
みだした被写体データと、3次元光景生成手続で指定さ
れた前記カメラスクリ−ンと前記被写体の相対的な位置
関係の指定に応じて、テクスチャの解像度を決定し、テ
クスチャ生成手続によって指定されたテクスチャパタ−
ンを規定するベクトル値関数を前記テクスチャデ−タ記
憶手段より読み出し、テクスチャ手続命令によって指定
された属性で、決定した解像度のテクスチャを生成する
ことを特徴とする3次元光景生成システム。
8. The three-dimensional scene generation system according to claim 7, wherein the user interface section of the image editing apparatus specifies a texture pattern to be used as a texture and an attribute of a generated texture. In addition to the above, the procedure creation unit interactively accepts the designation of the relative positional relationship between the camera screen and the subject and the designation of the three-dimensional shape of the subject. Creating a three-dimensional scene generation procedure including designation of the relative positional relationship between the camera screen and the subject received by the interface unit and designation of the three-dimensional shape of the subject, and inputting into the image processing apparatus. The means receives the three-dimensional scene generating procedure created by the procedure creating unit in the image editing apparatus, and the texture supplying unit is designated by the three-dimensional scene creating procedure received by the input unit. The subject data is read from the subject data storage means according to the designation of the three-dimensional shape, and the read subject data and the relative positional relationship between the camera screen designated in the three-dimensional scene generation procedure and the subject are displayed. The texture resolution is determined according to the specification, and the texture pattern specified by the texture generation procedure.
A three-dimensional scene generation system characterized in that a vector-valued function for defining a texture is read from the texture data storage means and a texture having a determined resolution is generated with an attribute designated by a texture procedure command.
【請求項9】請求項7記載の3次元光景生成システムで
あって、 前記テクスチャデータ記憶手段の記憶する複数のテクス
チャパタ−ンは、複数の文字の文字フォントであって、
前記画像編集装置のユ−ザインタフェ−ス部は、テクス
チャとして使用する文字フォントの指定を文字の指定に
より受付けることを特徴とする画像処理装置。
9. The three-dimensional scene generation system according to claim 7, wherein the plurality of texture patterns stored in the texture data storage means are character fonts of a plurality of characters,
The image processing apparatus, wherein the user interface unit of the image editing apparatus receives designation of a character font used as a texture by designating a character.
【請求項10】請求項7記載の3次元光景生成システム
であって、前記画像編集装置のユ−ザインタフェ−ス部
の受付けた指定に基づいた、画像の生成および画像の出
力を、リアルタイムに実行することを特徴とする3次元
光景生成システム。
10. The three-dimensional scene generation system according to claim 7, wherein the image generation and the image output are executed in real time based on the designation received by the user interface section of the image editing apparatus. A three-dimensional scene generation system characterized by:
JP20058691A 1991-08-08 1991-08-09 Image processing method and image processing apparatus Expired - Fee Related JP3157015B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP20058691A JP3157015B2 (en) 1991-08-09 1991-08-09 Image processing method and image processing apparatus
US07/926,518 US5680525A (en) 1991-08-08 1992-08-10 Three-dimensional graphic system with an editor for generating a textrue mapping image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20058691A JP3157015B2 (en) 1991-08-09 1991-08-09 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JPH0546775A true JPH0546775A (en) 1993-02-26
JP3157015B2 JP3157015B2 (en) 2001-04-16

Family

ID=16426812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20058691A Expired - Fee Related JP3157015B2 (en) 1991-08-08 1991-08-09 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP3157015B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5566284A (en) * 1993-12-22 1996-10-15 Matsushita Electric Industrial Co., Ltd. Apparatus and method for mip-map generation using low-pass filtering based on resolution ratio
US8537173B2 (en) 2009-06-24 2013-09-17 Panasonic Corporation Graphics rendering apparatus, graphics rendering method, Recording medium having recorded therein graphics rendering program, and integrated circuit for rendering a high-quality image using a scaling coefficient

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5566284A (en) * 1993-12-22 1996-10-15 Matsushita Electric Industrial Co., Ltd. Apparatus and method for mip-map generation using low-pass filtering based on resolution ratio
US8537173B2 (en) 2009-06-24 2013-09-17 Panasonic Corporation Graphics rendering apparatus, graphics rendering method, Recording medium having recorded therein graphics rendering program, and integrated circuit for rendering a high-quality image using a scaling coefficient

Also Published As

Publication number Publication date
JP3157015B2 (en) 2001-04-16

Similar Documents

Publication Publication Date Title
US5680525A (en) Three-dimensional graphic system with an editor for generating a textrue mapping image
US6999069B1 (en) Method and apparatus for synthesizing images
EP0950988B1 (en) Three-Dimensional image generating apparatus
CN107484428B (en) Method for displaying objects
US6396491B2 (en) Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
US7903111B2 (en) Depth image-based modeling method and apparatus
JP5299173B2 (en) Image processing apparatus, image processing method, and program
US10467793B2 (en) Computer implemented method and device
US20040175041A1 (en) Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery
KR19980702692A (en) Computer Graphics System for Forming and Enhancing Texture Maps
WO2002013144A1 (en) 3d facial modeling system and modeling method
JP2003256865A (en) Method and program for generating two-dimensional image with cartoon-like expression from stereoscopic object data
JP3157015B2 (en) Image processing method and image processing apparatus
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
CN112561784B (en) Image synthesis method, device, electronic equipment and storage medium
JP3850080B2 (en) Image generation and display device
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2002525764A (en) Graphics and image processing system
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
JP2001209816A (en) Graphic preparing method
JP2001307123A (en) Method and device for preparing portrait having expressional deformation, portrait preparation system, transmitter and receiver for the system, portrait preparation program, and recording medium recording the program
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JP2000057376A (en) Method for generating new viewpoint image
JP3345808B2 (en) Method and apparatus for displaying a three-dimensional shape model
JP2003077011A (en) Display method and device for three-dimensional shape model

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees