JP2000293667A - Picture synthesizing device - Google Patents

Picture synthesizing device

Info

Publication number
JP2000293667A
JP2000293667A JP11099372A JP9937299A JP2000293667A JP 2000293667 A JP2000293667 A JP 2000293667A JP 11099372 A JP11099372 A JP 11099372A JP 9937299 A JP9937299 A JP 9937299A JP 2000293667 A JP2000293667 A JP 2000293667A
Authority
JP
Japan
Prior art keywords
image
texture
coordinate
area
coordinate values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11099372A
Other languages
Japanese (ja)
Other versions
JP3967036B2 (en
Inventor
Kiyoshi Iwasaki
清 岩崎
Sannashi Miyama
三奈子 宮間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP9937299A priority Critical patent/JP3967036B2/en
Publication of JP2000293667A publication Critical patent/JP2000293667A/en
Application granted granted Critical
Publication of JP3967036B2 publication Critical patent/JP3967036B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To allow a user to easily prepare a synthetic picture without any feeling of incongruity without any special experience or intuition in synthesizing a textures picture with a original picture. SOLUTION: A picture synthesizing device which synthesizes a textures picture with part of an original picture is provided with a picture inputting device 10 which inputs the original picture and the texture picture, an instruction inputting device 12 which designates a synthetic region with which the texture picture is synthesized in the original picture, and designates the parameters for operating the projective normal transformation of the coordinate values of the synthetic region into the coordinate values on the texture picture, and a picture synthesizing device 14 which generates mask data indicating the synthetic region, and operates the projective normal transformation to the coordinates in the synthetic region on the basis of the designated parameters for calculating relative coordinate values, and calculates the texture coordinate values on the texture picture from the relative coordinate values, and synthesizes the texture picture in the synthetic region on the basis of the texture coordinate values.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、原画像の中の所望
の領域に、他のテクスチャ画像を合成して合成画像を作
成する際に適用して好適な画像合成装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image synthesizing apparatus which is suitable for synthesizing another texture image with a desired area in an original image to create a synthetic image.

【0002】[0002]

【従来の技術】建物の外装材や内装材、キッチン・収納
の扉などの商品のカタログでは、実際の施工例は一部の
商品についてのみ掲載し、他の商品については色・素材
の見本のみを掲載することが多く、顧客は実際の施工例
と見本を眺め、所望の見本を施工例に適用した場合の外
観を想像し、商品を選択しなければならなかった。
2. Description of the Related Art In the catalog of products such as building exterior and interior materials, kitchen and storage doors, actual construction examples are listed only for some products, and for other products, only color and material samples are used. In many cases, the customer has to look at actual construction examples and samples, imagine the appearance when a desired sample is applied to the construction examples, and select a product.

【0003】[0003]

【本発明が解決しようとする課題】このように、前記カ
タログでは、各商品について実際の施工例があるわけで
はないため、顧客が商品を選択するためにイメージを掴
むことが難しいという問題がある。すべての商品に対し
て実際に施工例を作成してカタログを作成すれば前記問
題は解決するが、そのためにはコストが高すぎて非現実
的である。
As described above, since there is no actual construction example for each product in the catalog, there is a problem that it is difficult for a customer to grasp an image in order to select a product. . The above problem can be solved by actually creating a construction example for all products and creating a catalog, but for that purpose, the cost is too high and impractical.

【0004】他の解決方法として、実際の施工例の画像
に他の商品見本画像を合成するという方法もあるが、違
和感の無い合成画像を得るためには、熟練したオペレー
タが経験と勘を使って試行錯誤しながら合成する必要が
あり、この作業を多くの商品見本に対して行うには困難
が伴う上に、コストが高くなってしまう。
[0004] As another solution, there is a method of combining another product sample image with an image of an actual construction example. However, in order to obtain a combined image without a sense of incongruity, a skilled operator uses experience and intuition. It is necessary to perform synthesis by trial and error, and it is difficult to perform this operation on many product samples, and the cost increases.

【0005】本発明は、前記従来の問題点を解決するべ
くなされたもので、任意の商品の施工例等の原画像に対
して商品見本画像等のテクスチャ画像を合成する場合
に、特別な経験や勘がなくとも、違和感の無い合成画像
を容易に作成することができる画像合成装置を提供する
ことを課題とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problems, and has a special experience in synthesizing a texture image such as a sample product image with an original image such as a construction example of an arbitrary product. An object of the present invention is to provide an image synthesizing apparatus that can easily create a synthetic image without a sense of incongruity without any intuition.

【0006】[0006]

【課題を解決するための手段】本発明は、原画像の一部
にテクスチャ画像を合成する画像合成装置において、原
画像を入力する手段と、該原画像に合成するテクスチャ
画像を入力する手段と、同原画像の中でテクスチャ画像
を合成する合成領域を指定する手段と、該合成領域の座
標値をテクスチャ画像上の座標値に座標変換するための
パラメータを指定する手段と、該パラメータに基づき前
記合成領域内の座標に対して座標変換を行い相対座標値
を計算する手段と、該相対座標値より前記テクスチャ画
像上のテクスチャ座標値を計算する手段と、該テクスチ
ャ座標値を基に前記合成領域内にテクスチャ画像を合成
する合成手段と、を備えた構成とすることにより、前記
課題を解決したものである。
According to the present invention, there is provided an image synthesizing apparatus for synthesizing a texture image with a part of an original image, a means for inputting the original image, and a means for inputting the texture image to be synthesized with the original image. Means for designating a synthesis area in which the texture image is synthesized in the original image; means for specifying parameters for performing coordinate conversion of the coordinate values of the synthesis area into coordinate values on the texture image; Means for performing coordinate transformation on the coordinates in the synthesis area to calculate relative coordinate values, means for calculating texture coordinate values on the texture image from the relative coordinate values, and the synthesis based on the texture coordinate values This problem has been solved by providing a configuration including a synthesizing unit that synthesizes a texture image in an area.

【0007】本発明においては、原画像上で指定した合
成領域の座標値をテクスチャ画像上の座標値に座標変換
するためのパラメータを指定し、該パラメータに基づき
前記合成領域内の座標に対して座標変換を行い相対座標
値を計算し、該相対座標値より前記テクスチャ画像上の
テクスチャ座標値を計算し、該テクスチャ座標値を基に
前記合成領域内にテクスチャ画像を合成するようにした
ので、これら3つの座標系の対応関係を利用することに
より、任意の大きさのテクスチャ画像を前記合成領域に
合成し、違和感のない合成画像を作成することが可能と
なる。
In the present invention, a parameter for converting the coordinate value of the synthesis area specified on the original image into the coordinate value on the texture image is specified, and the coordinates in the synthesis area are determined based on the parameter. Since coordinate conversion is performed to calculate relative coordinate values, texture coordinate values on the texture image are calculated from the relative coordinate values, and a texture image is synthesized in the synthesis area based on the texture coordinate values. By utilizing the correspondence between these three coordinate systems, a texture image of an arbitrary size can be synthesized with the synthesis area, and a synthesized image without a sense of incongruity can be created.

【0008】[0008]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態について詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0009】図1は、本発明に係る一実施形態の画像合
成システム(画像合成装置)の概略構成を示すブロック
図である。本実施形態の画像合成システムは、画像入力
装置10、指示入力装置12、画像合成装置14、表示
装置16及び画像出力装置18を備えている。
FIG. 1 is a block diagram showing a schematic configuration of an image synthesizing system (image synthesizing apparatus) according to an embodiment of the present invention. The image composition system according to the present embodiment includes an image input device 10, an instruction input device 12, an image composition device 14, a display device 16, and an image output device 18.

【0010】上記画像入力装置10は、原画像やこれに
合成するテクスチャ画像等を入力するイメージスキャナ
やこれら画像データが格納され、読み出すことができる
ハードディスク等の記憶装置で構成されている。又、前
記指示入力装置12は、キーボードやマウス等からな
り、原画像の中でテクスチャ画像を合成する合成領域を
指定したり、合成領域の座標値をテクスチャ画像上の座
標値に座標変換するためのパラメータを指定することが
できるようになっている。
The image input device 10 includes an image scanner for inputting an original image and a texture image to be synthesized with the original image, and a storage device such as a hard disk capable of storing and reading these image data. The instruction input device 12 includes a keyboard, a mouse, and the like. The instruction input device 12 is used to specify a synthesis area for synthesizing the texture image in the original image, or to convert the coordinate value of the synthesis area into a coordinate value on the texture image. Parameter can be specified.

【0011】又、前記画像合成装置14はコンピュータ
で構成され、該装置14には、指定されたパラメータに
基づき合成領域内の座標に対して座標変換を行い相対座
標値を計算する手段と、該相対座標値よりテクスチャ画
像上のテクスチャ座標値を計算する手段と、該テクスチ
ャ座標値を基に合成領域内にテクスチャ画像を合成する
手段とが、ソフトウェアにより実現されている。又、前
記表示装置16はCRTや液晶等のディスプレイからな
り、原画像、テクスチャ画像、合成画像等を表示し、
又、前記出力装置18はプリンタ等からなり、合成画像
等を出力することができるようになっている。
The image synthesizing device 14 is constituted by a computer. The image synthesizing device 14 includes means for performing coordinate conversion on coordinates in a synthesizing area based on designated parameters and calculating relative coordinate values. Means for calculating a texture coordinate value on the texture image from the relative coordinate value and means for synthesizing the texture image in the synthesis area based on the texture coordinate value are realized by software. The display device 16 is composed of a display such as a CRT or a liquid crystal, and displays an original image, a texture image, a composite image, and the like.
The output device 18 is composed of a printer or the like, and can output a composite image or the like.

【0012】本実施形態について更に詳述すると、前記
画像合成装置14には、同じくソフトウェアにより、原
画像の各画素の輝度情報のみからなる原画像輝度データ
を生成する手段と、合成されたテクスチャ画像の輝度を
この原画像輝度データ及び明暗の差を制御するためのパ
ラメータに基づき変更する輝度変更手段等が実現されて
いる。又、同様に、前記合成領域には、遮景領域を考慮
して作成されたマスクデータが適用されると共に、前記
座標変換に使用するパラメータには、実際の3次元空間
では長方形となる前記原画像上の四角形の領域を規定す
るための4頂点座標が含まれ、前記相対座標値を計算す
る手段が、前記マスクデータを考慮して前記パラメータ
に基づいて座標変換を行うことができるようになってい
る。
More specifically, the image synthesizing apparatus 14 includes means for generating original image luminance data consisting only of luminance information of each pixel of the original image by software; A luminance changing means for changing the luminance of the original image based on the original image luminance data and a parameter for controlling the difference between light and dark is realized. Similarly, mask data created in consideration of the obstruction view area is applied to the synthesis area, and the parameters used for the coordinate transformation include the rectangular shape in an actual three-dimensional space. Four-vertex coordinates for defining a rectangular area on the image are included, and the means for calculating the relative coordinate values can perform coordinate conversion based on the parameters in consideration of the mask data. ing.

【0013】又、同様に、前記座標変換に使用するパラ
メータには、実際の3次元空間上では長方形となる前記
原画像上の合成領域を表わす四角形の該3次元空間での
実際の大きさ(Sx、Sy)が含まれ、前記合成手段が、
前記長方形の実際の大きさ(Sx、Sy)と前記テクスチ
ャ画像の実際の大きさ(Strx、Stry)との相対比に応
じた回数、該テクスチャ画像を繰り返して前記合成領域
に合成することができるようになっている。更に、前記
テクスチャ画像が複数用意されており、前記テクスチャ
座標値を計算する手段は、他の新しいテクスチャ画像が
選択されたときに、すでに得られている相対座標値に基
づいてそのテクスチャ座標値を計算することができるよ
うになっている。
Similarly, the parameters used for the coordinate transformation include the actual size in the three-dimensional space of the square representing the synthesis area on the original image which is rectangular in the actual three-dimensional space. Sx, Sy), wherein the synthesizing means comprises:
The texture image can be repeatedly synthesized in the synthesis area a number of times according to the relative ratio between the actual size of the rectangle (Sx, Sy) and the actual size of the texture image (Strx, Stry). It has become. Further, a plurality of the texture images are prepared, and the means for calculating the texture coordinate values includes, when another new texture image is selected, the texture coordinate values based on the relative coordinate values already obtained. It can be calculated.

【0014】次に、本実施形態の作用を、図2に示した
フローチャートを用いて説明する。
Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG.

【0015】まず、画像入力装置で原画像(図3)とテ
クスチャ画像(図4)を入力する(ステップ1、2)。
なお、この図3において、後方の物体(立方体)の前の
面に付した2点鎖線は、手前の立方体により生じている
陰影が識別し難いため、その境界を示したものである。
First, an original image (FIG. 3) and a texture image (FIG. 4) are input by an image input device (steps 1 and 2).
In FIG. 3, the two-dot chain line attached to the front surface of the rear object (cube) indicates the boundary of the shadow generated by the front cube, because it is difficult to identify the shadow.

【0016】次に、テクスチャ画像を合成する領域を表
すマスクデータを作成する(ステップ3)。このマスク
データは、原画像中で、テクスチャを合成する有効領域
を表すもので、異なるテクスチャを合成する領域ごと、
またはパース(Perspect:遠近感)のかかり方が違う、
即ち原画像について実際の三次元空間を考えた時に同一
平面とならない領域ごとに異なる識別番号を設定して作
成する。
Next, mask data representing an area where a texture image is to be synthesized is created (step 3). This mask data represents an effective area for synthesizing a texture in the original image.
Or Perspect is different.
That is, the original image is created by setting a different identification number for each area that does not become the same plane when considering the actual three-dimensional space.

【0017】このマスクデータの一例としては、原画像
と縦横の大きさが同じ座標値の配列データを用意し、テ
クスチャの合成を行わない画素に対しては0の値を設定
し、テクスチャの合成を行う画素には前述の識別番号を
設定する。ここでは、このマスクデータ作成手順の一例
として、原画像を元にして図5、図6のように合成領域
のみを任意の色(ここでは白)に加工した画像を用意
し、この2枚の画像から図7のようなマスクデータを作
成した。ここでは、便宜上合成が行われない領域を白色
とし、行われる有効領域毎に違う色(黒とグレー)で示
した。又、本実施形態では、前記図3の原画像におい
て、手前にある立方体により視野が遮られる遮景領域が
存在する後方の立方体の場合には、図7に黒で有効領域
を示したように、この遮光領域を除いた範囲のマスクデ
ータを作成する。
As an example of the mask data, array data having the same coordinate values in the vertical and horizontal directions as the original image is prepared, and a value of 0 is set for pixels for which texture synthesis is not performed. The above-mentioned identification number is set to the pixel for performing the above. Here, as an example of this mask data creation procedure, as shown in FIGS. 5 and 6, an image in which only the synthesis area is processed into an arbitrary color (here, white) based on the original image is prepared. Mask data as shown in FIG. 7 was created from the image. Here, for the sake of convenience, the area in which synthesis is not performed is shown as white, and different colors (black and gray) are shown for each effective area in which synthesis is performed. Further, in the present embodiment, in the original image of FIG. 3 described above, in the case of a rear cube in which there is an obstruction area in which the visual field is obstructed by the cube in front, as shown in FIG. Then, the mask data in the range excluding the light-shielded area is created.

【0018】次に、テクスチャ画像を合成する原画像上
の合成領域の座標値を、テクスチャ画像上の座標値に射
影的正規化変換するためのパラメータを指定(入力)す
る(ステップ4)。この操作は、実際の三次元空間上で
同一平面上にある長方形の各頂点P1〜P4の原画像上で
の合成領域の座標値と、その実際の三次元実空間上での
長方形のx方向、y方向の大きさSx、Syを、指示入力
装置12により指定することにより行う。この場合、長
方形の実際の大きさが既知又は推定できる場合はその値
を指定すればよいが、長方形の大きさが既知でなく、
又、原画像中の大きさが既知のもの等から推定すること
もできない場合には、指定した頂点P1〜P4で囲まれた
領域に、テクスチャ画像が縦方向にいくつ、横方向にい
くつ並ぶといった相対値を使用してもなんら問題なく、
その場合には、後述するテクスチャ画像の実際の大きさ
Strx、Stryの指定時にはそれぞれ1を指定すればよ
い。
Next, a parameter for projectively normalizing conversion of the coordinate value of the synthesized area on the original image into which the texture image is synthesized to the coordinate value on the texture image is designated (step 4). In this operation, the coordinates of the vertices P1 to P4 of the rectangle on the same plane in the actual three-dimensional space and the x-direction of the rectangle in the actual three-dimensional real space are calculated. , Y-direction sizes Sx and Sy are designated by the instruction input device 12. In this case, if the actual size of the rectangle is known or can be estimated, the value may be specified, but the size of the rectangle is not known,
If the size in the original image cannot be estimated from a known size or the like, how many texture images are arranged in the vertical and horizontal directions in the area surrounded by the designated vertices P1 to P4. There is no problem using relative values,
In this case, it is only necessary to specify 1 when specifying the actual sizes Strx and Stry of the texture image described later.

【0019】ここで、この指定する4頂点の座標(パラ
メータ)について補足すると、これらの座標値は合成を
行う合成領域自体や、前記図7に示したようなマスク領
域(マスクデータで規定される有効領域)に対して指定
できることは言うまでもないが、マスク領域と直接は関
係なく、実際の三次元空間上で同一平面となる原画像上
の領域であれば、即ちパースのかかり方が同一であれば
マスク領域外で指定しても問題なく、更には、原画像の
領域外で指定してもなんら問題はない。
Here, the coordinates (parameters) of the designated four vertices will be supplemented. These coordinate values are determined by the synthesis area itself for synthesis or the mask area (defined by the mask data) as shown in FIG. It is needless to say that it can be specified for the effective area, but it is not directly related to the mask area and it is an area on the original image that is on the same plane in the actual three-dimensional space, that is, if the perspective is the same. For example, there is no problem even if it is specified outside the mask area, and even if it is specified outside the area of the original image.

【0020】パラメータ指定の具体例として、図5に示
した合成領域に対応するマスク領域に対して座標値を指
定する場合の例を図8に示す。この図では、実際の3次
元空間では長方形である原画像上の四角形の頂点にP1
〜P4の座標(x1,y1)〜(x4,y4)を指定し、この
四角形の実際の三次元空間上でのx、yそれぞれの方向
の大きさSx、Syを指定している。P2に関しては、手
前の物体によって隠れており、この付近(遮景領域)は
前記図7に示したマスクデータでは有効領域外である
が、パラメータ指定は前述した通りマスク領域と直接は
関係ないので、実際の三次元空間上で長方形になるであ
ろう領域上の点であれば問題なく利用できる。なお、合
成の対象となる全てのマスク領域に対して前記パラメー
タを指定する必要があるが、実際の三次元空間上で同一
平面となる、即ち原画像上ではパースのかかり方が同じ
領域であれば同一のパラメータを適用できる。
FIG. 8 shows an example of specifying a coordinate value for a mask area corresponding to the composite area shown in FIG. 5 as a specific example of parameter specification. In this figure, the vertices of the square on the original image, which is rectangular in the actual three-dimensional space, are P1
The coordinates (x1, y1) to (x4, y4) of .about.P4 are specified, and the sizes Sx and Sy of the quadrangle in the respective x and y directions on the actual three-dimensional space are specified. Regarding P2, it is hidden by the object in front, and the vicinity (obstruction area) is outside the effective area in the mask data shown in FIG. 7, but the parameter designation is not directly related to the mask area as described above. Any point on an area that will become a rectangle in the actual three-dimensional space can be used without any problem. It is necessary to specify the parameters for all the mask areas to be combined. However, if the parameters are on the same plane in the actual three-dimensional space, that is, if the original image has the same perspective, The same parameters can be applied.

【0021】次いで、以下に詳述する各種演算処理を前
記画像合成装置14で行う。まず、前記パラメータに基
づいて合成領域内の座標に対して射影的正規化変換(こ
の座標変換については、例えば「計算機幾何と地理情報
処理」 bit別冊 共立出版(1986)に詳説されてい
る)を行う。具体的には、以下に示す(1)、(2)式
で規定されるc、dを含む(3)、(4)式により、後
述するテクスチャ合成を行う領域に含まれる全ての画素
に対して射影的正規化変換を行い、相対座標値α、βを
計算する(ステップ5)。なお、ここでは、相対座標値
は、x、y方向の実際の大きさSx、Syからなる長方形
座標に正規化された値で与えられる。
Next, various kinds of arithmetic processing described in detail below are performed by the image synthesizing device 14. First, a projective normalization transformation is performed on the coordinates in the synthesis area based on the parameters (this coordinate transformation is described in detail, for example, in “Computer Geometry and Geographic Information Processing” bit separate volume Kyoritsu Shuppan (1986)). Do. More specifically, according to equations (3) and (4) including c and d defined by the following equations (1) and (2), all pixels included in a region where texture synthesis described later is performed Then, projective normalization conversion is performed to calculate relative coordinate values α and β (step 5). Here, the relative coordinate value is given by a value normalized to a rectangular coordinate composed of the actual sizes Sx and Sy in the x and y directions.

【0022】[0022]

【数1】 (Equation 1)

【0023】このステップ5の相対座標値の計算では、
前記頂点座標(x1、y1)〜(x4、y4)及び実際の大
きさSx、Syのパラメータを用いて上記(1)〜(4)
式により座標変換する際、前記マスクデータ(マスク領
域)を考慮して処理を行う。これにより、遮景領域があ
る場合には、その範囲について座標変換の計算処理を行
う必要がなくなるため、計算量の削減を図ることが可能
となり、処理の迅速化を図ることが可能となる。
In the calculation of the relative coordinate value in step 5,
Using the above-mentioned vertex coordinates (x1, y1) to (x4, y4) and the parameters of the actual sizes Sx and Sy, the above (1) to (4)
At the time of coordinate conversion by the formula, processing is performed in consideration of the mask data (mask area). This eliminates the need to perform the coordinate conversion calculation process on the range of the obstruction view area, if any, so that the amount of calculation can be reduced and the processing can be speeded up.

【0024】次に、指示入力装置12により、既に入力
されているものの中から合成するテクスチャ画像を選択
(指定)し(ステップ6)、そのテクスチャ画像を合成
する合成領域(1領域でも複数領域でもかまわない)を
指定する(ステップ7)。この時、合成されるテクスチ
ャ画像が縮小されて合成される場合は、あらかじめテク
スチャ画像にローパスフィルタ処理等を行い、モアレの
発生を抑える必要がある。
Next, a texture image to be synthesized is selected (designated) from those already input by the instruction input device 12 (step 6), and a synthesis area (one area or a plurality of areas) for synthesizing the texture image is selected. Is acceptable) (step 7). At this time, if the texture image to be synthesized is reduced and synthesized, it is necessary to perform low-pass filtering or the like on the texture image in advance to suppress the occurrence of moire.

【0025】次に、合成するテクスチャ画像の実際の大
きさを指定する(前述したように、長方形の大きさをテ
クスチャ画像がいくつ並ぶという相対値で指定した場合
は1を指定する)。そして、合成を行う合成領域内の座
標値に対して前記射影的正規化変換を行って算出した相
対座標値(α,β)を、テクスチャ画像の実際の大きさ
およびテクスチャ画像の画素単位での大きさより、実際
に合成を行うテクスチャ画像上での座標値(xt,yt
に、以下の式により変換するテクスチャ座標変換を行う
(ステップ8)。その際、xt、ytが0未満(後述する
図11に示すような相対座標系でα、βが負の場合)ま
たはStpx、Stpy以上となる時は、Stpx、Stpyで割っ
た余りを計算し、余りの画素数でテクスチャ画像上の座
標値を設定する。
Next, the actual size of the texture image to be synthesized is specified (as described above, 1 is specified when the size of the rectangle is specified by the relative value of how many texture images are arranged). Then, the relative coordinate values (α, β) calculated by performing the above-described projective normalization transformation on the coordinate values in the synthesis area to be synthesized are used as the actual size of the texture image and the pixel unit of the texture image. Coordinate values (x t , y t ) on the texture image to be actually synthesized from the size
Then, texture coordinate conversion is performed by the following equation (step 8). At this time, when x t and y t are less than 0 (when α and β are negative in a relative coordinate system as shown in FIG. 11 to be described later) or are greater than Stpx and Stpy, the remainder obtained by dividing by Stpx and Stpy is used. Calculate and set the coordinate value on the texture image with the number of surplus pixels.

【0026】[0026]

【数2】 (Equation 2)

【0027】次に、上記ステップ8で変換した座標のテ
クスチャ画像を構成する各画素の画素値を、合成を行う
画素(マスク領域内の合成領域の対応する画素)の画素
値と置換する事により、選択した前記合成領域にテクス
チャ画像の合成を行う(ステップ9)。その際、実際の
3次元空間では長方形となる前記原画像上の合成領域を
表わす四角形の該3次元空間上での実際の大きさ(S
x、Sy)と前記テクスチャ画像の実際の大きさ(Str
x、Stry)とにより求められる相対比として与えられる
回数、該テクスチャ画像を繰り返して前記合成領域に合
成する。この繰り返し合成の詳細については、便宜上後
述する。
Next, the pixel value of each pixel constituting the texture image of the coordinates converted in step 8 is replaced with the pixel value of the pixel to be synthesized (the pixel corresponding to the synthesized area in the mask area). Then, a texture image is synthesized with the selected synthesis area (step 9). At this time, the actual size (S in the three-dimensional space of the square representing the synthesis area on the original image which is rectangular in the actual three-dimensional space
x, Sy) and the actual size of the texture image (Str
x, Stry), and the texture image is repeatedly synthesized in the synthesis area the number of times given as a relative ratio obtained by the above-described method. The details of this repetitive synthesis will be described later for convenience.

【0028】次に、合成されたテクスチャ画像の輝度を
原画像の輝度データに基づいて変更する(ステップ1
0)。具体的には、上記ステップ9の合成処理によりテ
クスチャ画像が合成された領域の各画素に対して、下記
(7)式により輝度の変更を行う。これにより、原画像
の合成領域内の明暗の差を大きくまたは小さくしたり、
原画像と合成されたテクスチャ画像の平均輝度の差を大
きくしたり小さくしたり調整し、より自然な合成画像が
得られるようにできる。ここで各パラメータを変更する
ことにより、原画像の合成領域上の材質と反射率等の極
端に違うテクスチャ画像を合成したい場合でも、違和感
のない自然な合成画像を得ることができる。他に合成す
るテクスチャ画像がある場合には、上述したステップ6
〜10の処理を繰り返す(ステップ11)。
Next, the luminance of the synthesized texture image is changed based on the luminance data of the original image (step 1).
0). Specifically, the luminance of each pixel in the area where the texture image has been synthesized by the synthesis processing in step 9 is changed by the following equation (7). This makes it possible to increase or decrease the difference in lightness and darkness in the combined area of the original
By adjusting the difference between the average luminance of the original image and the average luminance of the synthesized texture image to be larger or smaller, it is possible to obtain a more natural synthesized image. Here, by changing each parameter, even when it is desired to synthesize a texture image having an extremely different material and reflectance on the synthesis area of the original image, a natural synthesized image without a sense of incongruity can be obtained. If there is another texture image to be synthesized, step 6
Steps 10 to 10 are repeated (step 11).

【0029】図9には、実際に前記図3の原画像に図7
のマスクデータを設定し、その2つの領域に図4のテク
スチャ画像を合成することにより作成した合成画像を示
した。この図9では、階調差が明確でないために分り難
いが、前記図3と同様に2点鎖線で境界を示した陰影
が、この合成画像に反映されている。
FIG. 9 actually shows the original image of FIG.
FIG. 4 shows a composite image created by setting the mask data of FIG. 4 and combining the texture image of FIG. In FIG. 9, it is difficult to understand because the gradation difference is not clear, but a shadow indicated by a two-dot chain line as in FIG. 3 is reflected in the composite image.

【0030】[0030]

【数3】 (Equation 3)

【0031】次に、便宜上ここで、前述したようにテク
スチャ画像上での座標値を計算するに当り、いったん相
対座標値α、βを計算しておき、その後xt、ytを計算
した理由を図を用いて詳細に説明する。
Next, for the sake of convenience, in calculating the coordinate values on the texture image as described above, the relative coordinate values α and β are calculated once, and then the reason for calculating x t and y t is as follows. Will be described in detail with reference to the drawings.

【0032】いま、図10に示した合成領域の実際の大
きさが、例えばm単位で幅5、高さ3であったとする
と、α、βに変換された後の座標は図11のようになる
(ここまでの計算はテクスチャの画素単位での大きさ、
実際の大きさに無関係に計算できる)。ここで、この領
域に図12に模式的に示すテクスチャ画像(画素単位で
の大きさ:100×100、実際の大きさ:1×1)に
対してテクスチャ画像上での座標値への変換を行った結
果を、該テクスチャ画像を繰り返して合成した結果とし
て図14に示す。また、図13に模式的に示すテクスチ
ャ画像(画素単位での大きさ:150×150、実際の
大きさ:2×2)に対してテクスチャ画像上での座標値
への変換を行った結果を、同じく繰り返して合成した結
果として図15に示す。
Now, assuming that the actual size of the composite area shown in FIG. 10 is, for example, a width of 5 and a height of 3 in m units, the coordinates after being converted into α and β are as shown in FIG. (The calculation up to this point is the size of the texture in pixel units,
Can be calculated regardless of the actual size). Here, in this area, the texture image (the size in pixel unit: 100 × 100, the actual size: 1 × 1) schematically shown in FIG. 12 is converted into the coordinate value on the texture image. FIG. 14 shows the result obtained as a result of repeatedly synthesizing the texture image. The result of converting the texture image (size in pixel unit: 150 × 150, actual size: 2 × 2) schematically shown in FIG. 13 into coordinate values on the texture image is shown in FIG. FIG. 15 shows the result of repeated synthesis.

【0033】この例からも明らかなように、P1〜P4の
領域の実際の大きさ、テクスチャ画像の画素単位での大
きさと実際の大きさを指定することにより、実際に即し
た大きさで合成することが可能である。また、いったん
α、βを計算しておくことにより、このα、βはテクス
チャ画像の大きさと無関係に計算できるので、画素単位
で実際の大きさの異なるテクスチャ画像を合成する場合
でも、α、βの値は再利用できるため、計算量を減らす
ことが可能である。
As is apparent from this example, by specifying the actual size of the areas P1 to P4, the size of the texture image in pixel units, and the actual size, the image is synthesized with an actual size. It is possible to Further, once α and β are calculated, α and β can be calculated independently of the size of the texture image. Therefore, even when texture images having different actual sizes are synthesized in pixel units, α and β are calculated. Can be reused, so that the amount of calculation can be reduced.

【0034】以上、本発明について具体的に説明した
が、本発明は、前記実施形態に示したものに限られるも
のでなく、その要旨を逸脱しない範囲で種々変更可能で
ある。
Although the present invention has been specifically described above, the present invention is not limited to the above-described embodiment, and can be variously modified without departing from the gist thereof.

【0035】例えば、前記実施形態では座標変換として
射影的正規化変換を採用したが、これに限定されず、原
画像上の合成領域を実際の3次元空間で長方形(正方形
を含む)に正規化する座標変換であれば制限されない。
又、画像合成装置の具体的構成は前記図1に示したもの
に限定されない。
For example, in the above-described embodiment, the projective normalization transformation is adopted as the coordinate transformation. However, the present invention is not limited to this. There is no limitation as long as the coordinate transformation is performed.
Further, the specific configuration of the image synthesizing device is not limited to that shown in FIG.

【0036】[0036]

【発明の効果】以上説明した通り、本発明によれば、任
意の商品の施工例等の原画像に対して商品見本画像等の
テクスチャ画像を合成する場合に、特別な経験や勘がな
くとも、違和感の無い合成画像を容易に作成することが
できる。
As described above, according to the present invention, when combining a texture image such as a product sample image with an original image such as an example of construction of an arbitrary product, even if there is no special experience or intuition. Thus, it is possible to easily create a composite image without a sense of discomfort.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施形態の画像合成装置の概略
構成を示すブロック図
FIG. 1 is a block diagram showing a schematic configuration of an image synthesizing apparatus according to an embodiment of the present invention;

【図2】同実施形態の作用を示すフローチャートFIG. 2 is a flowchart showing the operation of the embodiment;

【図3】原画像の一例を示す説明図FIG. 3 is an explanatory diagram showing an example of an original image.

【図4】テクスチャ画像の一例を示す説明図FIG. 4 is an explanatory diagram showing an example of a texture image.

【図5】マスクデータの作成手順を示す説明図FIG. 5 is an explanatory diagram showing a procedure for creating mask data.

【図6】マスクデータの作成手順を示す他の説明図FIG. 6 is another explanatory diagram showing a procedure for creating mask data.

【図7】作成されたマスクデータの一例を示す説明図FIG. 7 is an explanatory diagram showing an example of created mask data.

【図8】パラメータの指定の仕方を示す説明図FIG. 8 is an explanatory diagram showing how to specify parameters.

【図9】合成画像の一例を示す説明図FIG. 9 is an explanatory diagram illustrating an example of a composite image.

【図10】パラメータ設定された合成領域の一例を示す
線図
FIG. 10 is a diagram showing an example of a composite area in which parameters are set.

【図11】上記合成領域を相対座標に変換した状態を示
す線図
FIG. 11 is a diagram showing a state where the synthesis area is converted into relative coordinates.

【図12】テクスチャ画像の一例を模式的に示す線図FIG. 12 is a diagram schematically illustrating an example of a texture image;

【図13】テクスチャ画像の他の一例を模式的に示す線
FIG. 13 is a diagram schematically showing another example of the texture image.

【図14】図12のテクスチャ画像を合成した画像を示
す線図
FIG. 14 is a diagram showing an image obtained by synthesizing the texture image of FIG. 12;

【図15】図13のテクスチャ画像を合成した画像を示
す線図
FIG. 15 is a diagram showing an image obtained by synthesizing the texture image of FIG. 13;

【符号の説明】[Explanation of symbols]

10…画像入力装置 12…指示入力装置 14…画像合成装置 16…表示装置 18…画像出力装置 REFERENCE SIGNS LIST 10 image input device 12 instruction input device 14 image synthesis device 16 display device 18 image output device

フロントページの続き Fターム(参考) 5B057 AA01 CA08 CA12 CA16 CB08 CB13 CB16 CC03 CD14 CE08 CE11 5B080 AA15 BA07 FA08 GA22 Continuation of the front page F term (reference) 5B057 AA01 CA08 CA12 CA16 CB08 CB13 CB16 CC03 CD14 CE08 CE11 5B080 AA15 BA07 FA08 GA22

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】原画像の一部にテクスチャ画像を合成する
画像合成装置において、 原画像を入力する手段と、 該原画像に合成するテクスチャ画像を入力する手段と、 同原画像の中でテクスチャ画像を合成する合成領域を指
定する手段と、 該合成領域の座標値をテクスチャ画像上の座標値に座標
変換するためのパラメータを指定する手段と、 該パラメータに基づき前記合成領域内の座標に対して座
標変換を行い相対座標値を計算する手段と、 該相対座標値より前記テクスチャ画像上のテクスチャ座
標値を計算する手段と、 該テクスチャ座標値を基に前記合成領域内にテクスチャ
画像を合成する合成手段と、を備えていることを特徴と
する画像合成装置。
An image synthesizing apparatus for synthesizing a texture image with a part of an original image, means for inputting an original image, means for inputting a texture image to be synthesized with the original image, Means for specifying a synthesis area for synthesizing an image; means for specifying a parameter for performing coordinate conversion of the coordinate value of the synthesis area into a coordinate value on the texture image; Means for performing coordinate transformation to calculate relative coordinate values, means for calculating texture coordinate values on the texture image from the relative coordinate values, and synthesizing a texture image in the synthesis area based on the texture coordinate values. An image synthesizing apparatus, comprising: synthesizing means.
【請求項2】請求項1において、 前記原画像の各画素の輝度情報のみからなる原画像輝度
データを生成する手段と、合成されたテクスチャ画像の
輝度を原画像輝度データ及び明暗の差を制御するための
パラメータに基づき変更する輝度変更手段とが兼備され
ていることを特徴とする画像合成装置。
2. A means for generating original image luminance data consisting only of luminance information of each pixel of the original image, and controlling a difference between the luminance of the synthesized texture image and the luminance data of the original image. An image synthesizing apparatus characterized in that the image synthesizing apparatus is provided with a luminance changing unit that changes based on a parameter for performing the operation.
【請求項3】請求項1において、 前記合成領域には、遮景領域を考慮して作成されたマス
クデータが適用されると共に、 前記座標変換に使用するパラメータには、実際の3次元
空間では長方形となる前記原画像上の四角形の領域を規
定するための4頂点座標が含まれ、 前記相対座標値を計算する手段が、前記マスクデータを
考慮して前記パラメータに基づいて座標変換を行うこと
を特徴とする画像合成装置。
3. The method according to claim 1, wherein mask data created in consideration of the obstruction view area is applied to the synthesis area, and parameters used for the coordinate transformation include an actual three-dimensional space. Four-vertex coordinates for defining a rectangular area on the original image to be a rectangle are included, and the means for calculating the relative coordinate values performs coordinate conversion based on the parameters in consideration of the mask data. An image synthesizing apparatus characterized by the above-mentioned.
【請求項4】請求項1において、 前記座標変換に使用するパラメータには、実際の3次元
空間上では長方形となる前記原画像上の合成領域を表わ
す四角形の該3次元空間での実際の大きさ(Sx、Sy)
が含まれ、 前記合成手段が、前記長方形の実際の大きさ(Sx、S
y)と前記テクスチャ画像の実際の大きさ(Strx、Str
y)との相対比に応じた回数、該テクスチャ画像を繰り
返して前記合成領域に合成することを特徴とする画像合
成装置。
4. A method according to claim 1, wherein the parameters used for the coordinate transformation include a rectangle representing a synthesis area on the original image which is rectangular in an actual three-dimensional space, and an actual size in the three-dimensional space. Sa (Sx, Sy)
The combining means determines that the actual size of the rectangle (Sx, Sx
y) and the actual size of the texture image (Strx, Str)
an image synthesizing apparatus, wherein the texture image is repeatedly synthesized in the synthesis area a number of times corresponding to a relative ratio to y.
【請求項5】請求項1において、 前記テクスチャ画像が複数用意されており、 前記テクスチャ座標値を計算する手段が、実際の3次元
空間上では同一平面上となる合成領域に対して他の新し
いテクスチャ画像が選択されたときに、すでに得られて
いる相対座標値に基づいてそのテクスチャ座標値を計算
することを特徴とする画像合成装置。
5. The apparatus according to claim 1, wherein a plurality of the texture images are prepared, and the means for calculating the texture coordinate value is a new one for a combined area that is on the same plane in an actual three-dimensional space. An image synthesizing apparatus characterized in that when a texture image is selected, the texture coordinate value is calculated based on the relative coordinate values already obtained.
【請求項6】請求項1から請求項5のいずれかにおい
て、 前記座標変換に使用するパラメータが、射影的正規化変
換を行うためのパラメータであり、 前記相対座標値を計算する手段による座標変換が、射影
的正規化変換であることを特徴とする画像合成装置。
6. The coordinate transformation according to claim 1, wherein the parameter used for the coordinate transformation is a parameter for performing a projective normalization transformation, and the coordinate transformation by means for calculating the relative coordinate value. Is a projective normalization transformation.
JP9937299A 1999-04-06 1999-04-06 Image synthesizer Expired - Fee Related JP3967036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9937299A JP3967036B2 (en) 1999-04-06 1999-04-06 Image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9937299A JP3967036B2 (en) 1999-04-06 1999-04-06 Image synthesizer

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005166194A Division JP2005293616A (en) 2005-06-06 2005-06-06 Image synthesis device

Publications (2)

Publication Number Publication Date
JP2000293667A true JP2000293667A (en) 2000-10-20
JP3967036B2 JP3967036B2 (en) 2007-08-29

Family

ID=14245719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9937299A Expired - Fee Related JP3967036B2 (en) 1999-04-06 1999-04-06 Image synthesizer

Country Status (1)

Country Link
JP (1) JP3967036B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362184A (en) * 2003-06-04 2004-12-24 Geo Technical Laboratory Co Ltd Generation of image data for displaying outer appearance of feature
JP2010279038A (en) * 2009-06-01 2010-12-09 Xerox Corp Method and system for electronic image real-time personalization
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298455A (en) * 1992-04-16 1993-11-12 Hitachi Ltd Texture mapping device
JPH06274649A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH09106411A (en) * 1995-10-12 1997-04-22 Sekisui House Ltd Method for switch-displaying surface material of building by means of computer graphic picture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298455A (en) * 1992-04-16 1993-11-12 Hitachi Ltd Texture mapping device
JPH06274649A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH09106411A (en) * 1995-10-12 1997-04-22 Sekisui House Ltd Method for switch-displaying surface material of building by means of computer graphic picture

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362184A (en) * 2003-06-04 2004-12-24 Geo Technical Laboratory Co Ltd Generation of image data for displaying outer appearance of feature
JP2010279038A (en) * 2009-06-01 2010-12-09 Xerox Corp Method and system for electronic image real-time personalization
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program

Also Published As

Publication number Publication date
JP3967036B2 (en) 2007-08-29

Similar Documents

Publication Publication Date Title
EP0423930B1 (en) Electronic graphic system using low resolution control image
US5412402A (en) Electronic graphic systems
JP5299173B2 (en) Image processing apparatus, image processing method, and program
CA2301607C (en) An improved method and apparatus for per pixel mip mapping and trilinear filtering
EP1635297A1 (en) 3-dimensional graphics data display device
US8698830B2 (en) Image processing apparatus and method for texture-mapping an image onto a computer graphics image
JPH0285970A (en) Picture forming device and system of continuous tone to which smooth shadow is formed
US5412767A (en) Image processing system utilizing brush profile
JPH10507858A (en) Method and apparatus for automatically and quickly drawing on a photographic real surface on a three-dimensional wireframe
JP3967036B2 (en) Image synthesizer
EP0814429A2 (en) An image processing system
JP2005293616A (en) Image synthesis device
JP2911464B2 (en) Image processing method
US5151686A (en) Electronic brush generation
JP3501479B2 (en) Image processing device
JP2973432B2 (en) Image processing method and apparatus
JP2004164151A (en) Method for preparing/providing collected image material data and device for preparing the same
US5557713A (en) Improvements in or relating to electronic graphic systems
JPH06203119A (en) Color image processor
JP2701056B2 (en) Secondary representation method for three-dimensional objects
US6400369B1 (en) Information processing method and apparatus for generating texture-data for computer graphics
US6137496A (en) Electronic graphic system
JP4372924B2 (en) Moving image material generation method and apparatus
JPH08287225A (en) Image simulation device
JP3453410B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050606

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050706

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050706

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050711

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070530

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110608

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110608

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120608

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120608

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130608

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140608

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees