JPH09204541A - Image synthesizing device and its method - Google Patents

Image synthesizing device and its method

Info

Publication number
JPH09204541A
JPH09204541A JP1204196A JP1204196A JPH09204541A JP H09204541 A JPH09204541 A JP H09204541A JP 1204196 A JP1204196 A JP 1204196A JP 1204196 A JP1204196 A JP 1204196A JP H09204541 A JPH09204541 A JP H09204541A
Authority
JP
Japan
Prior art keywords
information
texture
resolution
model
texture information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1204196A
Other languages
Japanese (ja)
Inventor
Hiroshi Ishii
浩史 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1204196A priority Critical patent/JPH09204541A/en
Publication of JPH09204541A publication Critical patent/JPH09204541A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To eliminate the need for synthesizing previously a large image and also to reduce the necessary computational complexity by selecting the texture information that previously undergone the low pass processing when the texture aliasing is caused. SOLUTION: A texture information memory part 3 stores the texture data on the surface of an object set at a position corresponding to the range data and also the texture data obtained by applying the low pass processing to the texture data on the object surface and reducing every side don to 1/2. A texture selection part 5 selects the reduced texture data when the radius of a circle is far from a projection surface and the circle radius is smaller than 0.5 pixels on a projection surface when the position of a model is far from the projection surface and a ball distant from a center position by a unit vector is projecting on the projection surface. On the other hand, the part 5 select the non-reduced texture data when the circle radius is larger than 0.5 pixels on the projection surface.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像を合成する装
置に関するものであり、例えば、物体の3次元的な構造
にもとづいて2次元画像を合成する画像合成装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for synthesizing images, for example, an image synthesizing device for synthesizing a two-dimensional image based on a three-dimensional structure of an object.

【0002】[0002]

【従来の技術】コンピュータを用いて物体の3次元的な
構造から2次元画像を合成するいわゆる3次元コンピュ
ータグラフィクス(CG)の技術は、CAD/CAMな
どにおけるデータの可視化のための非常に重要な技術で
ある。従来、3次元CGの技術において、一つの物体の
3次元的なモデル情報は、その種類によって2次画像合
成に必要な計算量が異なり、一般的に画質の高い2次元
画像の合成に必要な計算量が多くなる傾向にある。
2. Description of the Related Art A so-called three-dimensional computer graphics (CG) technique for synthesizing a two-dimensional image from a three-dimensional structure of an object using a computer is very important for data visualization in CAD / CAM and the like. It is a technology. Conventionally, in the technique of three-dimensional CG, the amount of calculation required for synthesizing a secondary image differs depending on the type of three-dimensional model information of one object, and is generally required for synthesizing a high-quality two-dimensional image. The amount of calculation tends to increase.

【0003】具体的には、CGの画質を左右するものに
エリアシングというものがある。これは投影する画面上
の1画素中に、3次元モデルおよびそのテクスチャ情報
の変化が大きくなる場合、実際のモデルがなめらかな物
体でも合成画像において不連続が発生し、画質が劣化す
るものである。
Specifically, there is aliasing that affects the image quality of CG. This is because when the change in the three-dimensional model and its texture information is large in one pixel on the projected screen, discontinuity occurs in the synthetic image even if the actual model is smooth and the image quality deteriorates. .

【0004】これを改善する手法として、アンチエリア
シングという手法が有名である。これは、投影画面上の
画素を予め大きく設定し、例えば、512×512画素
のCGを合成する場合に、1024×1024または、
2048×2048画素のCGを合成し、これをローパ
ス処理を行ないながら縮小することによって512×5
12画素のCGを得るものである。
As a method for improving this, a method called anti-aliasing is famous. This is because when the pixels on the projection screen are set large in advance and, for example, CG of 512 × 512 pixels is combined, 1024 × 1024 or
512 × 5 by combining CG of 2048 × 2048 pixels and reducing this while performing low-pass processing
A CG of 12 pixels is obtained.

【0005】こうした場合、最初大きく設定した画面上
の1画素中の、3次元モデルおよびそのテクスチャ情報
の変化がそれに反比例して小さくなり、なめらかさが持
続され、ローパス処理を行ないながら縮小したばあい、
ここでは実画像と同じようなぼけた画像が得られるの
で、現実感の高い高画質な画像が得られる。
In such a case, the change in the three-dimensional model and its texture information in one pixel on the screen which is initially set large becomes small in inverse proportion to it, and the smoothness is maintained. ,
Since a blurred image similar to an actual image is obtained here, a high quality image with a high sense of reality can be obtained.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、この手
法は、予め数倍の面積の画像を合成するために、それに
必要な計算処理量が多く、大規模な計算機や処理時間を
必要とするという問題があった。
However, this method requires a large amount of calculation processing and a large-scale computer and processing time in order to synthesize images of several times the area in advance. was there.

【0007】そこで、本発明は、このような課題を考慮
して、予め大きな画像を合成する必要がないので、必要
とする計算量が少なくてすむ画像合成装置を提供するこ
とを目的とする。
In view of the above problems, it is an object of the present invention to provide an image synthesizing apparatus that requires a small amount of calculation because it is not necessary to synthesize a large image in advance.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するため
の請求項1記載の本発明は、物体の3次元構造を表すモ
デルに関する情報であるモデル情報を記憶するモデル情
報記憶手段と、前記物体の表面の全部又は一部に対し
て、解像度の異なる複数のテクスチャ情報を記憶するテ
クスチャ情報記憶手段と、少なくとも前記モデル情報に
基づいて、前記モデルに対して所定の位置にある2次元
の投影面上に前記物体の表面が投影された2次元画像を
生成するためのポリゴン情報を生成するポリゴン生成手
段と、前記テクスチャ情報記憶手段から何れか1つの解
像度のテクスチャ情報を選択するテクスチャ選択手段
と、前記ポリゴン情報と前記テクスチャ選択手段により
選択されたテクスチャ情報とに基づいて、前記2次元画
像を生成する画像合成手段とを備えたことを特徴とする
画像合成装置である。
According to a first aspect of the present invention for solving the above-mentioned problems, model information storage means for storing model information which is information about a model representing a three-dimensional structure of an object, and the object Texture information storage means for storing a plurality of texture information having different resolutions for all or part of the surface of the object, and a two-dimensional projection surface located at a predetermined position with respect to the model based on at least the model information. Polygon generating means for generating polygon information for generating a two-dimensional image on which the surface of the object is projected; texture selecting means for selecting texture information of any one resolution from the texture information storing means; Image composition for generating the two-dimensional image based on the polygon information and the texture information selected by the texture selecting means. An image synthesizing apparatus characterized by comprising a stage.

【0009】なお、前記画像合成装置は、少なくとも前
記所定の位置に関する情報を受け付けて、少なくとも前
記投影面の位置に基づいて決定される前記物体の表面に
対するレンダリング情報を生成するレンダリング情報生
成手段を更に備え、前記モデルに対する前記投影面の所
定の位置は、前記レンダリング情報生成手段により受け
付けられた前記所定の位置に関する情報に基づいて決定
され、前記ポリゴン生成手段は、前記モデル情報と前記
レンダリング情報とに基づいて、前記ポリゴン情報を生
成するとしてもよい。
The image synthesizing apparatus further includes rendering information generating means for receiving information on at least the predetermined position and generating rendering information for the surface of the object determined based on at least the position of the projection plane. The predetermined position of the projection plane with respect to the model is determined based on the information regarding the predetermined position accepted by the rendering information generating means, and the polygon generating means includes the model information and the rendering information. Based on this, the polygon information may be generated.

【0010】また、前記テクスチャ情報記憶手段は、前
記物体の表面の全部又は一部に対して、第1の解像度の
テクスチャ情報と第2の解像度のテクスチャ情報とを記
憶し、前記第1の解像度は前記第2の解像度よりも高
く、前記テクスチャ選択手段は、前記モデル情報に基づ
いて所定の3次元単位モデルの位置を決定し、その位置
にその3次元単位モデルを配置し、前記レンダリング情
報に基づいてその3次元単位モデルを前記投影面に投影
し、その投影面に投影された3次元単位モデルの全部又
は一部の大きさが、所定の値よりも大きければ前記第1
の解像度のテクスチャ情報を選択し、そうでなければ前
記第2の解像度のテクスチャ情報を選択するとしてもよ
い。
The texture information storage means stores the texture information of the first resolution and the texture information of the second resolution for all or a part of the surface of the object, and the texture information storage means stores the texture information of the first resolution and the texture information of the second resolution. Is higher than the second resolution, the texture selecting means determines the position of a predetermined three-dimensional unit model based on the model information, arranges the three-dimensional unit model at that position, and the rendering information Based on that, the three-dimensional unit model is projected on the projection surface, and if the size of all or part of the three-dimensional unit model projected on the projection surface is larger than a predetermined value, then the first
The texture information of the resolution may be selected, and otherwise, the texture information of the second resolution may be selected.

【0011】更に、前記テクスチャ情報記憶手段は、前
記物体の表面の全部又は一部に対して、第1の解像度の
テクスチャ情報と第2の解像度のテクスチャ情報とを記
憶し、前記第1の解像度は前記第2の解像度よりも高
く、前記テクスチャ選択手段は、前記投影面上における
所定の単位ベクトルを前記ポリゴン情報により形成され
るポリゴン面上に逆投影し、その逆投影された単位ベク
トルを更に前記テクスチャ情報と共に割り付けられてい
る位置情報により形成されるテクスチャ面に投影し、そ
のテクスチャ面に投影された単位ベクトルに関する大き
さが、所定の値よりも大きければ前記第2の解像度のテ
クスチャ情報を選択し、そうでなければ前記第1の解像
度のテクスチャ情報を選択するとしてもよい。
Further, the texture information storage means stores texture information of a first resolution and texture information of a second resolution for all or a part of the surface of the object, and the texture information storage means stores the texture information of the first resolution. Is higher than the second resolution, and the texture selecting means back-projects a predetermined unit vector on the projection plane onto a polygon plane formed by the polygon information, and further back-projects the unit vector. If the size of the unit vector projected on the texture surface formed by the position information allocated together with the texture information is larger than a predetermined value, the texture information of the second resolution is set. Otherwise, the texture information of the first resolution may be selected.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】本発明の第1の実施の形態である画像合成
装置とその方法について、その装置の構成図である図1
を参照しながら説明する。図1において、1はモデル情
報記憶部、2はレンダリング情報生成部、3はテクスチ
ャ情報記憶部、4は画像合成部、5はテクスチャ選択
部、6はポリゴン生成部である。
FIG. 1 is a block diagram of the image synthesizing apparatus and method according to the first embodiment of the present invention.
This will be described with reference to FIG. In FIG. 1, 1 is a model information storage unit, 2 is a rendering information generation unit, 3 is a texture information storage unit, 4 is an image composition unit, 5 is a texture selection unit, and 6 is a polygon generation unit.

【0014】次に、本実施の形態の動作について説明す
る。
Next, the operation of this embodiment will be described.

【0015】図2は、モデル情報記憶部1とテクスチャ
情報記憶部3の各々で記憶されているデータに関する例
を示す図である。図1におけるモデル情報記憶部1は、
図2(a)に示すように、レンジデータ11を格納して
いる。レンジデータ11は、図2(d)に示すように、
物体10のモデル情報であって、円柱座標系13のX−
Φでとった半径rのデータである。図1におけるテクス
チャ情報記憶部3は、図2(b)に示すように、レンジ
データ11に対応する位置の物体10の表面のテクスチ
ャデータ12と、図2(c)に示すように、テクスチャ
データ12をローパス処理して、各辺を1/2に縮小し
た縮小テクスチャデータ12’とを格納している。
FIG. 2 is a diagram showing an example of data stored in each of the model information storage unit 1 and the texture information storage unit 3. The model information storage unit 1 in FIG.
As shown in FIG. 2A, the range data 11 is stored. The range data 11 is, as shown in FIG.
Model information of the object 10, which is X- of the cylindrical coordinate system 13.
It is the data of the radius r taken by Φ. The texture information storage unit 3 in FIG. 1 stores the texture data 12 of the surface of the object 10 at the position corresponding to the range data 11 as shown in FIG. 2B and the texture data 12 as shown in FIG. 2C. 12 is low-pass processed, and reduced texture data 12 ′ in which each side is reduced to ½ is stored.

【0016】図3は、本実施の形態におけるレンダリン
グ情報生成部2、合成画像部4、テクスチャ選択部5と
ポリゴンデータ生成部6の各々に関するデータの例を示
す図である。図1のレンダリング情報生成部2は、物体
10のモデル情報であるレンジデータ11以外の情報、
例えば物体10の投影面15からの位置、方向、または
周囲の照明情報等を生成する。このときのモデル10a
の中心位置OとXYZ軸と投影面15の3次元位置との
関係を図3(b)と(c)に示す。
FIG. 3 is a diagram showing an example of data regarding each of the rendering information generation unit 2, the composite image unit 4, the texture selection unit 5, and the polygon data generation unit 6 in the present embodiment. The rendering information generation unit 2 of FIG. 1 uses information other than the range data 11, which is model information of the object 10,
For example, the position, direction, or surrounding illumination information of the object 10 from the projection surface 15 is generated. Model 10a at this time
3B and 3C show the relationship between the center position O, the XYZ axes, and the three-dimensional position of the projection surface 15.

【0017】このときテクスチャ選択部5は、モデル1
0aの位置が投影面15から遠く、中心位置Oから単位
ベクトルの球16を投影面15に投影した時の円17の
半径rが、投影面15上の0.5画素以下の場合、縮小
テクスチャデータ12’を選択する。テクスチャ選択部
5は、投影面15上の半径rが0.5画素より大きい場
合、テクスチャデータ12を選択する。ここで、この単
位ベクトルは、テクスチャデータ12上における略1画
素単位ベクトルに対応する。
At this time, the texture selection unit 5 uses the model 1
If the position 0a is far from the projection surface 15 and the radius r of the circle 17 when the unit vector sphere 16 is projected from the center position O onto the projection surface 15 is 0.5 pixels or less on the projection surface 15, the reduced texture Select the data 12 '. The texture selection unit 5 selects the texture data 12 when the radius r on the projection surface 15 is larger than 0.5 pixel. Here, this unit vector corresponds to a substantially 1-pixel unit vector on the texture data 12.

【0018】ポリゴンデータ生成部6は、図3(a)に
示すように、モデル情報であるレンジデータ11から、
X−Φ上に示す各頂点によって構成されるポリゴン14
のデータを生成する。
As shown in FIG. 3 (a), the polygon data generator 6 converts the range data 11 which is model information into
Polygon 14 composed of each vertex shown on X-Φ
To generate the data.

【0019】ここで、モデル情報であるレンジデータ1
1から得る情報は、 ポリゴンP:各頂点{p0、p1、p2} 頂点pn (n= 0,1,2) :{三次元座標 (X、Y、Z)} :{テクスチャ情報12上での座標 (u、v) } である。この時、図3(c)に示す三次元座標 (X、
Y、Z)の情報から、投影面15上のXY座標(x、
y)が算出される。
Here, range data 1 which is model information
Information obtained from 1 is: polygon P: each vertex {p0, p1, p2} vertex pn (n = 0, 1, 2): {three-dimensional coordinate (X, Y, Z)}: {on texture information 12 The coordinates are (u, v)}. At this time, the three-dimensional coordinates (X,
From the Y, Z) information, the XY coordinates (x,
y) is calculated.

【0020】画像合成部4は、このポリゴン14のデー
タとテクスチャデータ12若しくは縮小テクスチャデー
タ12’を基に、テクスチャマッピングを行ない、図3
(e)に示すような合成画像18を合成する。
The image synthesizing section 4 carries out texture mapping based on the data of the polygon 14 and the texture data 12 or the reduced texture data 12 ', and FIG.
The composite image 18 as shown in (e) is composed.

【0021】これにより、投影面15上においてモデル
10aが小さく投影される場合、投影面15上において
水平方向および垂直方向の単位ベクトル、ix、iyの
変化に対して、テクスチャデータ12面上で2画素以上
の大きさの変化が生じる場合は、縮小テクスチャデータ
12’が選択され、この面上での変化は半分となるの
で、なめらかな合成画像15の合成が可能となり、高画
質な画像が得られる。
As a result, when the model 10a is projected small on the projection surface 15, 2 on the texture data 12 surface with respect to changes in the horizontal and vertical unit vectors ix and iy on the projection surface 15. When a change in size of pixels or more occurs, the reduced texture data 12 ′ is selected, and the change on this surface is halved. Therefore, a smooth composite image 15 can be composed, and a high quality image can be obtained. To be

【0022】本発明の第2の実施の形態である画像合成
装置とその方法について、その装置の構成図である図4
を参照しながら説明する。図4において、1はモデル情
報記憶部、2はレンダリング情報生成部、3はテクスチ
ャ情報記憶部、4は画像合成部、5はテクスチャ選択
部、6はポリゴン生成部である。
FIG. 4 is a block diagram of the image synthesizing apparatus and method according to the second embodiment of the present invention.
This will be described with reference to FIG. In FIG. 4, 1 is a model information storage unit, 2 is a rendering information generation unit, 3 is a texture information storage unit, 4 is an image composition unit, 5 is a texture selection unit, and 6 is a polygon generation unit.

【0023】次に、本実施の形態の動作について説明す
る。
Next, the operation of this embodiment will be described.

【0024】第1の実施の形態と同様に、図4のモデル
情報記憶部1は、図2(a)に示すように、レンジデー
タ11を格納している。レンジデータ11は、図2
(d)に示すように、物体10のモデル情報であって、
円柱座標系13のX−Φでとった半径rのデータであ
る。図4のテクスチャ情報記憶部3も、図2(b)に示
すように、レンジデータ11に対応する位置の物体10
の表面のテクスチャデータ12と、図2(c)に示すよ
うに、テクスチャデータ12をローパス処理して、各辺
を1/2に縮小した縮小テクスチャデータ12’とを格
納している。
Similar to the first embodiment, the model information storage unit 1 of FIG. 4 stores range data 11 as shown in FIG. 2 (a). The range data 11 is shown in FIG.
As shown in (d), the model information of the object 10
It is the data of the radius r taken in X-Φ of the cylindrical coordinate system 13. As shown in FIG. 2B, the texture information storage unit 3 of FIG. 4 also has the object 10 at the position corresponding to the range data 11.
2 and the reduced texture data 12 ′ in which each side is reduced to ½ is stored as shown in FIG. 2C.

【0025】図4におけるレンダリング情報生成部2
は、物体10のモデル情報であるレンジデータ11以外
の情報、例えば物体10の投影面15からの位置、方
向、または周囲の照明情報等を生成する。
The rendering information generator 2 in FIG.
Generates information other than the range data 11, which is model information of the object 10, such as the position and direction of the object 10 from the projection surface 15, or surrounding illumination information.

【0026】図5は、本実施の形態における合成画像部
4、テクスチャ選択部5とポリゴンデータ生成部6の各
々に関するデータの例を示す図である。図4におけるポ
リゴンデータ生成部6は、図5(a)に示すように、モ
デル情報であるレンジデータ11から、X−Φ上に示す
各頂点によって構成されるポリゴン14のデータを生成
する。
FIG. 5 is a diagram showing an example of data regarding each of the composite image section 4, the texture selecting section 5 and the polygon data generating section 6 in the present embodiment. As shown in FIG. 5A, the polygon data generation unit 6 in FIG. 4 generates the data of the polygon 14 formed by the vertices on X-Φ from the range data 11 that is the model information.

【0027】ここで、モデル情報であるレンジデータ1
1から得る情報は、 ポリゴンP:各頂点{p0、p1、p2} 頂点pn (n= 0,1,2) :{三次元座標 (X、Y、Z)} :{テクスチャ情報12上での座標 (u、v) } である。この時、図5(c)に示す三次元座標の情報か
ら、投影面15上のXY座標(x、y)が算出される。
この時のモデル10aを構成するポリゴン片19のデー
タと投影面15の3次元位置の関係を図5(b)と
(c)に示す。
Here, range data 1 which is model information
Information obtained from 1 is: polygon P: each vertex {p0, p1, p2} vertex pn (n = 0, 1, 2): {three-dimensional coordinate (X, Y, Z)}: {on texture information 12 The coordinates are (u, v)}. At this time, the XY coordinates (x, y) on the projection surface 15 are calculated from the information of the three-dimensional coordinates shown in FIG.
The relationship between the data of the polygon pieces 19 forming the model 10a and the three-dimensional position of the projection surface 15 at this time is shown in FIGS.

【0028】この時、図4におけるテクスチャ選択部5
は、図5(d)に示す投影面15上のXY座標(x、
y)における水平方向と垂直方向の1画素単位ベクトル
ixとiyの各々を、ポリゴン面上に逆投影したベクト
ルix’とiy’を求める。更に、テクスチャ選択部5
は、図5(e)に示すように、ベクトルix’とiy’
の各々をテクスチャデータ12の面上に投影したベクト
ルix”とiy”を求める。そして、テクスチャ選択部
5は、これらベクトルの大きさである|ix”|と|i
y”|のいずれかが、テクスチャデータ12の面上の
1.5画素以上の大きさの場合、縮小テクスチャデータ
12’を選択し、それ以外の場合はテクスチャデータ1
2を選択する。
At this time, the texture selection unit 5 in FIG.
Are XY coordinates (x, x on the projection plane 15 shown in FIG.
Vectors ix 'and iy' are obtained by back-projecting the horizontal and vertical one-pixel unit vectors ix and iy in y) onto the polygon surface. Furthermore, the texture selection unit 5
Is the vector ix 'and iy' as shown in FIG.
Vectors ix "and iy" are obtained by projecting each of these on the surface of the texture data 12. Then, the texture selection unit 5 uses | ix ″ | and | i which are the magnitudes of these vectors.
If any of y ″ | has a size of 1.5 pixels or more on the surface of the texture data 12, the reduced texture data 12 ′ is selected; otherwise, the texture data 1
Select 2.

【0029】このポリゴンをテクスチャマッピングする
場合は、単位ベクトルix、iyからベクトルix”、
iy”の関係は変わらないので、この選択は保持され
る。
When texture mapping this polygon, the unit vectors ix and iy to the vector ix ″,
Since the relationship of iy "does not change, this selection is retained.

【0030】図4の画像合成部4は、このポリゴンデー
タとテクスチャデータを基に、テクスチャマッピングを
行ない、図5(f)に示すような合成画像18を合成す
る。
The image synthesizing unit 4 in FIG. 4 performs texture mapping based on the polygon data and texture data to synthesize a synthetic image 18 as shown in FIG. 5 (f).

【0031】これにより、投影面15上の水平方向と垂
直方向の単位ベクトルix、iyの変化に対して、テク
スチャデータ12の面上で1.5画素以上の大きさの変
化が生じる場合は、縮小テクスチャデータ12’が選択
され、この面上での変化は半分となるので、なめらかな
合成画像18の合成が可能となり、高画質な画像が得ら
れる。
As a result, when the unit vectors ix and iy in the horizontal direction and the vertical direction on the projection plane 15 change by a size of 1.5 pixels or more on the surface of the texture data 12, Since the reduced texture data 12 'is selected and the change on this surface is halved, the smooth composite image 18 can be composited and a high quality image can be obtained.

【0032】なお、上記の実施の形態では、縮小テクス
チャデータ12’を用いたが、その代わりに、ローパス
処理によって解像度を半分にした、テクスチャデータ1
2と同じ大きさのテクスチャデータを用いても良い。
In the above embodiment, the reduced texture data 12 'is used, but instead, the texture data 1 whose resolution is halved by low-pass processing is used.
Texture data of the same size as 2 may be used.

【0033】また、上記の実施の形態では、2つの解像
度をもった2階層のテクスチャデータを用いる構成とし
たが、3階層以上のテクスチャデータを用いる構成にし
ても良い。
In the above embodiment, the texture data of two layers having two resolutions is used, but the texture data of three layers or more may be used.

【0034】更に、上記の実施の形態では、画像合成装
置の構成要素の各々は、図1又は図4に示されたブロッ
ク図に基づいて、ハード的に構成されるとしたが、必ず
しもこれらに限らず、本発明の画像合成装置の構成要素
の幾つかについては、上記実施の形態で説明した動作に
関する処理を実行するプログラムとそれが起動されてい
るコンピュータとによって、ソフト的に構成されるとし
てもよい。そして、そのコンピュータは、少なくとも、
ローディングされた際の前記プログラムによる演算処理
及び制御等を行うCPU、それと内部バスを介して接続
されている、そのプログラムの記憶及び作業領域等に使
用されるメモリ、そしてデータを読み書きすることがで
きる補助記憶装置を備えている。
Further, in the above embodiment, each of the constituent elements of the image synthesizing apparatus is hardware-configured based on the block diagram shown in FIG. 1 or FIG. Without being limited thereto, some of the components of the image synthesizing apparatus of the present invention may be configured as software by a program that executes the process related to the operation described in the above embodiments and a computer on which the program is activated. Good. And at least that computer
A CPU that performs arithmetic processing and control by the program when loaded, a memory that is connected to the CPU through the internal bus and that is used for storage of the program and a work area, and data can be read and written. It is equipped with an auxiliary storage device.

【0035】[0035]

【発明の効果】以上のことから明らかなように、本発明
によれば、テクスチャマッピングによる画像合成におい
て、投影する画面上の1画素中に、テクスチャ情報の変
化が大きくなる場合に生じるテクスチャのエリアシング
に対して、これが生じる場合に予めローパス処理された
テクスチャ情報を選択することによって実際のモデルが
なめらかな物体に対して合成画像においても連続な画像
が得られ画質が劣化しないという効果がある。
As is apparent from the above, according to the present invention, in the image synthesis by texture mapping, the area of the texture generated when the change of the texture information becomes large in one pixel on the screen to be projected. For this, by selecting the texture information that has been low-pass processed in advance when this occurs, there is an effect that a continuous image is obtained even in a synthetic image for an object whose actual model is smooth and the image quality is not deteriorated.

【0036】また、従来のアンチエリアシングの手法と
異なり予め大きな画像を合成する必要がないので、必要
とする計算量が少ない。
Further, unlike the conventional anti-aliasing method, since it is not necessary to synthesize a large image in advance, the amount of calculation required is small.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明第1の実施の形態に係る画像合成装置の
ブロック図である。
FIG. 1 is a block diagram of an image composition device according to a first embodiment of the present invention.

【図2】モデル情報記憶部1とテクスチャ情報記憶部3
の各々で記憶されているデータに関する例を示す図であ
る。
FIG. 2 is a model information storage unit 1 and a texture information storage unit 3
FIG. 6 is a diagram showing an example regarding data stored in each of FIG.

【図3】第1の実施の形態におけるレンダリング情報生
成部2、合成画像部4、テクスチャ選択部5とポリゴン
データ生成部6の各々に関するデータの例を示す図であ
る。
FIG. 3 is a diagram showing an example of data regarding each of a rendering information generation unit 2, a composite image unit 4, a texture selection unit 5, and a polygon data generation unit 6 in the first embodiment.

【図4】本発明第2の実施の形態に係る画像処理装置の
ブロック図である。
FIG. 4 is a block diagram of an image processing apparatus according to a second embodiment of the present invention.

【図5】第2の本実施の形態における合成画像部4、テ
クスチャ選択部5とポリゴンデータ生成部6の各々に関
するデータの例を示す図である。
FIG. 5 is a diagram showing an example of data regarding each of a composite image unit 4, a texture selection unit 5, and a polygon data generation unit 6 in the second embodiment.

【符号の説明】[Explanation of symbols]

1…モデル情報記憶部 2…レンダリング情報生成部 3…テクスチャ情報記憶部 4…画像合成部 5…テクスチャ選択部 6…ポリゴン生成部 10…物体 10a…モデル 11…レンジデータ 12…テクスチャデータ 12’…縮小テクスチャデータ 13…座標系 14…ポリゴン 15…投影面 16…球 17…円 18…合成画像 19…ポリゴン片 DESCRIPTION OF SYMBOLS 1 ... Model information storage unit 2 ... Rendering information generation unit 3 ... Texture information storage unit 4 ... Image synthesis unit 5 ... Texture selection unit 6 ... Polygon generation unit 10 ... Object 10a ... Model 11 ... Range data 12 ... Texture data 12 '... Reduced texture data 13 ... Coordinate system 14 ... Polygon 15 ... Projection surface 16 ... Sphere 17 ... Circle 18 ... Synthetic image 19 ... Polygon piece

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 物体の3次元構造を表すモデルに関する
情報であるモデル情報を記憶するモデル情報記憶手段
と、 前記物体の表面の全部又は一部に対して、解像度の異な
る複数のテクスチャ情報を記憶するテクスチャ情報記憶
手段と、 少なくとも前記モデル情報に基づいて、前記モデルに対
して所定の位置にある2次元の投影面上に前記物体の表
面が投影された2次元画像を生成するためのポリゴン情
報を生成するポリゴン生成手段と、 前記テクスチャ情報記憶手段から何れか1つの解像度の
テクスチャ情報を選択するテクスチャ選択手段と、 前記ポリゴン情報と前記テクスチャ選択手段により選択
されたテクスチャ情報とに基づいて、前記2次元画像を
生成する画像合成手段とを備えたことを特徴とする画像
合成装置。
1. A model information storage unit for storing model information, which is information about a model representing a three-dimensional structure of an object, and a plurality of texture information having different resolutions for all or part of the surface of the object. And a polygon information for generating a two-dimensional image in which the surface of the object is projected on a two-dimensional projection plane at a predetermined position with respect to the model, based on at least the model information. Based on the polygon information and the texture information selected by the texture selecting means, the polygon generating means for generating the texture information, the texture selecting means for selecting texture information of any one resolution from the texture information storing means, An image synthesizing device, comprising: an image synthesizing means for generating a two-dimensional image.
【請求項2】 前記画像合成装置は、少なくとも前記所
定の位置に関する情報を受け付けて、少なくとも前記投
影面の位置に基づいて決定される前記物体の表面に対す
るレンダリング情報を生成するレンダリング情報生成手
段を更に備え、 前記モデルに対する前記投影面の所定の位置は、前記レ
ンダリング情報生成手段により受け付けられた前記所定
の位置に関する情報に基づいて決定され、 前記ポリゴン生成手段は、前記モデル情報と前記レンダ
リング情報とに基づいて、前記ポリゴン情報を生成する
ことを特徴とする請求項1記載の画像合成装置。
2. The image synthesizing apparatus further includes rendering information generating means for receiving information on at least the predetermined position and generating rendering information for the surface of the object determined based on at least the position of the projection plane. And a predetermined position of the projection plane with respect to the model is determined based on information about the predetermined position accepted by the rendering information generating unit, and the polygon generating unit includes the model information and the rendering information. The image synthesizing apparatus according to claim 1, wherein the polygon information is generated based on the polygon information.
【請求項3】 前記テクスチャ情報記憶手段は、前記物
体の表面の全部又は一部に対して、第1の解像度のテク
スチャ情報と第2の解像度のテクスチャ情報とを記憶
し、 前記第1の解像度は前記第2の解像度よりも高く、 前記テクスチャ選択手段は、前記モデル情報に基づいて
所定の3次元単位モデルの位置を決定し、その位置にそ
の3次元単位モデルを配置し、前記レンダリング情報に
基づいてその3次元単位モデルを前記投影面に投影し、
その投影面に投影された3次元単位モデルの全部又は一
部の大きさが、所定の値よりも大きければ前記第1の解
像度のテクスチャ情報を選択し、そうでなければ前記第
2の解像度のテクスチャ情報を選択することを特徴とす
る請求項1又は2記載の画像合成装置。
3. The texture information storage means stores texture information of a first resolution and texture information of a second resolution for all or part of the surface of the object, and the first resolution. Is higher than the second resolution, and the texture selecting unit determines the position of a predetermined three-dimensional unit model based on the model information, arranges the three-dimensional unit model at that position, and sets the rendering information in the rendering information. Projecting the three-dimensional unit model on the projection plane based on
If the size of all or part of the three-dimensional unit model projected on the projection surface is larger than a predetermined value, the texture information of the first resolution is selected; otherwise, the texture information of the second resolution is selected. The image synthesizing apparatus according to claim 1, wherein texture information is selected.
【請求項4】 前記テクスチャ情報記憶手段は、前記物
体の表面の全部又は一部に対して、第1の解像度のテク
スチャ情報と第2の解像度のテクスチャ情報とを記憶
し、 前記第1の解像度は前記第2の解像度よりも高く、 前記テクスチャ選択手段は、前記投影面上における所定
の単位ベクトルを前記ポリゴン情報により形成されるポ
リゴン面上に逆投影し、その逆投影された単位ベクトル
を更に前記テクスチャ情報と共に割り付けられている位
置情報により形成されるテクスチャ面に投影し、そのテ
クスチャ面に投影された単位ベクトルに関する大きさ
が、所定の値よりも大きければ前記第2の解像度のテク
スチャ情報を選択し、そうでなければ前記第1の解像度
のテクスチャ情報を選択することを特徴とする請求項1
又は2記載の画像合成装置。
4. The texture information storage means stores texture information of a first resolution and texture information of a second resolution for all or part of the surface of the object, and the first resolution. Is higher than the second resolution, and the texture selecting means back-projects a predetermined unit vector on the projection plane onto the polygon plane formed by the polygon information, and further back-projects the unit vector. If the size of the unit vector projected on the texture surface formed by the position information allocated together with the texture information is larger than a predetermined value, the texture information of the second resolution is set. 2. The texture information of the first resolution is selected otherwise, the texture information of the first resolution is selected.
Alternatively, the image synthesizing apparatus according to item 2.
【請求項5】 物体の3次元構造を表すモデルに関する
情報であるモデル情報を記憶し、 前記物体の表面の全部又は一部に対して、解像度の異な
る複数のテクスチャ情報を記憶し、 少なくとも前記モデル情報に基づいて、前記モデルに対
して所定の位置にある2次元の投影面上に前記物体の表
面が投影された2次元画像を生成するためのポリゴン情
報を生成し、 前記テクスチャ情報記憶手段から何れか1つの解像度の
テクスチャ情報を選択し、 前記ポリゴン情報と前記テクスチャ選択手段により選択
されたテクスチャ情報とに基づいて、前記2次元画像を
生成することを特徴とする画像合成方法。
5. Model information, which is information about a model representing a three-dimensional structure of an object, is stored, and a plurality of texture information having different resolutions is stored for all or part of the surface of the object, at least the model. Polygon information for generating a two-dimensional image in which the surface of the object is projected on a two-dimensional projection surface at a predetermined position with respect to the model is generated based on the information, An image synthesizing method characterized by selecting texture information of any one resolution and generating the two-dimensional image based on the polygon information and the texture information selected by the texture selecting means.
【請求項6】 少なくとも前記所定の位置に関する情報
を受け付け、 前記モデルに対する前記投影面の所定の位置は、受け付
けられた前記所定の位置に関する情報に基づいて決定さ
れ、 少なくとも前記投影面の位置に基づいて決定される前記
物体の表面に対するレンダリング情報を生成し、 前記モデル情報と前記レンダリング情報とに基づいて、
前記ポリゴン情報を生成することを特徴とする請求項5
記載の画像合成方法。
6. At least information about the predetermined position is received, and a predetermined position of the projection surface with respect to the model is determined based on the received information about the predetermined position, and based on at least the position of the projection surface. Generate rendering information for the surface of the object determined by, based on the model information and the rendering information,
6. The polygon information is generated, and the polygon information is generated.
The image synthesizing method as described above.
【請求項7】 前記解像度の異なる複数のテクスチャ情
報とは、第1の解像度のテクスチャ情報と第2の解像度
のテクスチャ情報であり、 前記第1の解像度は前記第2の解像度よりも高く、 前記テクスチャ情報の選択は、前記モデル情報に基づい
て所定の3次元単位モデルの位置を決定し、その位置に
その3次元単位モデルを配置し、前記レンダリング情報
に基づいてその3次元単位モデルを前記投影面に投影
し、その投影面に投影された3次元単位モデルの全部又
は一部の大きさが、所定の値よりも大きければ前記第1
の解像度のテクスチャ情報を選択し、そうでなければ前
記第2の解像度のテクスチャ情報を選択することにより
行われることを特徴とする請求項1又は2記載の画像合
成方法。
7. The plurality of pieces of texture information having different resolutions are texture information of a first resolution and texture information of a second resolution, the first resolution being higher than the second resolution, The texture information is selected by determining the position of a predetermined three-dimensional unit model based on the model information, arranging the three-dimensional unit model at that position, and projecting the three-dimensional unit model based on the rendering information. If the size of all or part of the three-dimensional unit model projected on the plane is larger than a predetermined value, then the first
3. The image synthesizing method according to claim 1, wherein the image synthesizing method is performed by selecting the texture information of the resolution of 1), and selecting the texture information of the second resolution otherwise.
【請求項8】 前記解像度の異なる複数のテクスチャ情
報とは、第1の解像度のテクスチャ情報と第2の解像度
のテクスチャ情報であり、 前記第1の解像度は前記第2の解像度よりも高く、 前記テクスチャ情報の選択は、前記投影面上における所
定の単位ベクトルを前記ポリゴン情報により形成される
ポリゴン面上に逆投影し、その逆投影された単位ベクト
ルを更に前記テクスチャ情報と共に割り付けられている
位置情報により形成されるテクスチャ面に投影し、その
テクスチャ面に投影された単位ベクトルに関する大きさ
が、所定の値よりも大きければ前記第2の解像度のテク
スチャ情報を選択し、そうでなければ前記第1の解像度
のテクスチャ情報を選択することにより行われることを
特徴とする請求項1又は2記載の画像合成方法。
8. The plurality of pieces of texture information having different resolutions are texture information of a first resolution and texture information of a second resolution, and the first resolution is higher than the second resolution, The texture information is selected by back-projecting a predetermined unit vector on the projection plane onto the polygon plane formed by the polygon information, and the back-projected unit vector is further assigned to the position information assigned together with the texture information. If the magnitude of the unit vector projected onto the texture surface formed by the above is larger than a predetermined value, the texture information of the second resolution is selected; otherwise, the first texture information is selected. 3. The image synthesizing method according to claim 1, wherein the image synthesizing method is performed by selecting texture information of the resolution.
JP1204196A 1996-01-26 1996-01-26 Image synthesizing device and its method Pending JPH09204541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1204196A JPH09204541A (en) 1996-01-26 1996-01-26 Image synthesizing device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1204196A JPH09204541A (en) 1996-01-26 1996-01-26 Image synthesizing device and its method

Publications (1)

Publication Number Publication Date
JPH09204541A true JPH09204541A (en) 1997-08-05

Family

ID=11794522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1204196A Pending JPH09204541A (en) 1996-01-26 1996-01-26 Image synthesizing device and its method

Country Status (1)

Country Link
JP (1) JPH09204541A (en)

Similar Documents

Publication Publication Date Title
US7420559B2 (en) Video rendering apparatus and method and program
US7742060B2 (en) Sampling methods suited for graphics hardware acceleration
US7471301B2 (en) Method and system enabling real time mixing of synthetic images and video images by a user
US6654020B2 (en) Method of rendering motion blur image and apparatus therefor
JP3466661B2 (en) Image processing apparatus and method
JP3514947B2 (en) Three-dimensional image processing apparatus and three-dimensional image processing method
JP2004522224A (en) Synthetic rendering of 3D graphical objects
US6515658B1 (en) 3D shape generation apparatus
JP4122573B2 (en) Image processing method and recording medium recording image processing program
JP2006244426A (en) Texture processing device, picture drawing processing device, and texture processing method
US5920320A (en) Three-dimensional shape data transforming apparatus
JPS6380375A (en) Texture mapping device
JP4282587B2 (en) Texture mapping device
US6476819B1 (en) Apparatus and method for assigning shrinkage factor during texture mapping operations
EP3573018B1 (en) Image generation device, and image display control device
KR20080100854A (en) Rendering processing method, rendering processing device, and computer-readable recording medium having recorded therein a rendering processing program
JP3035571B2 (en) Image processing device
US6373494B1 (en) Signal processing apparatus and image processing apparatus
JPH01131976A (en) Device and method for texture mapping
KR0166106B1 (en) Apparatus and method for image processing
US20030231180A1 (en) Image processing apparatus and method of same
US6900803B2 (en) Method for rasterizing graphics for optimal tiling performance
JPH09204541A (en) Image synthesizing device and its method
JPH09138859A (en) Picture synthesis device
JP4308367B2 (en) 3D image generation apparatus and environment map generation method