JP2005293616A - Image synthesizer - Google Patents
Image synthesizer Download PDFInfo
- Publication number
- JP2005293616A JP2005293616A JP2005166194A JP2005166194A JP2005293616A JP 2005293616 A JP2005293616 A JP 2005293616A JP 2005166194 A JP2005166194 A JP 2005166194A JP 2005166194 A JP2005166194 A JP 2005166194A JP 2005293616 A JP2005293616 A JP 2005293616A
- Authority
- JP
- Japan
- Prior art keywords
- image
- texture
- coordinate value
- original image
- texture image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Generation (AREA)
- Image Processing (AREA)
Abstract
【課題】 原画像に対してテクスチャ画像を合成する場合に、特別な経験や勘がなくとも、違和感の無い合成画像を容易に作成できるようにする。
【解決手段】 原画像の一部にテクスチャ画像を合成する画像合成装置において、原画像及びテクスチャ画像を入力する画像入力装置10と、前記原画像の中でテクスチャ画像を合成する合成領域を指定したり、該合成領域の座標値をテクスチャ画像上の座標値に射影的正規化変換するためのパラメータを指定したりする指示入力装置12と、該合成領域を表すマスクデータを生成したり、指定されたパラメータに基づき前記合成領域内の座標に対し射影的正規化変換を行い相対座標値を計算したり、該相対座標値より前記テクスチャ画像上のテクスチャ座標値を計算するしたり、該テクスチャ座標値により前記合成領域内にテクスチャ画像を合成したりする画像合成装置14と、を備えている。
【選択図】 図1
PROBLEM TO BE SOLVED: To easily create a composite image without a sense of incongruity without special experience or intuition when a texture image is synthesized with an original image.
In an image composition device for compositing a texture image to a part of an original image, an image input device 10 for inputting the original image and the texture image, and a composition region for compositing the texture image in the original image are designated. An instruction input device 12 for designating a parameter for projectively normalizing the coordinate value of the composite area to a coordinate value on the texture image, and generating mask data representing the composite area Projective normalization conversion is performed on the coordinates in the composite region based on the determined parameters to calculate a relative coordinate value, a texture coordinate value on the texture image is calculated from the relative coordinate value, and the texture coordinate value And an image synthesis device 14 for synthesizing a texture image in the synthesis area.
[Selection] Figure 1
Description
本発明は、原画像の中の所望の領域に、他のテクスチャ画像を合成して合成画像を作成する際に適用して好適な画像合成装置に関する。 The present invention relates to an image synthesizing apparatus that is suitable for application when a synthesized image is created by synthesizing another texture image with a desired region in an original image.
建物の外装材や内装材、キッチン・収納の扉などの商品のカタログでは、実際の施工例は一部の商品についてのみ掲載し、他の商品については色・素材の見本のみを掲載することが多く、顧客は実際の施工例と見本を眺め、所望の見本を施工例に適用した場合の外観を想像し、商品を選択しなければならなかった。 In the catalog of products such as building exterior materials and interior materials, kitchen / storage doors, etc., actual construction examples may be listed only for some products, and only other color / material samples may be listed for other products. Many customers had to look at actual construction examples and samples, imagine the appearance of applying the desired samples to the construction examples, and select products.
このように、前記カタログでは、各商品について実際の施工例があるわけではないため、顧客が商品を選択するためにイメージを掴むことが難しいという問題がある。すべての商品に対して実際に施工例を作成してカタログを作成すれば前記問題は解決するが、そのためにはコストが高すぎて非現実的である。 Thus, in the catalog, since there is no actual construction example for each product, there is a problem that it is difficult for a customer to grasp an image in order to select a product. The above problem can be solved by actually creating construction examples and catalogs for all products, but this is too expensive and unrealistic.
他の解決方法として、実際の施工例の画像に他の商品見本画像を合成するという方法もあるが、違和感の無い合成画像を得るためには、熟練したオペレータが経験と勘を使って試行錯誤しながら合成する必要があり、この作業を多くの商品見本に対して行うには困難が伴う上に、コストが高くなってしまう。 As another solution, there is a method of synthesizing other product sample images with images of actual construction examples, but in order to obtain a composite image without any sense of incongruity, a skilled operator uses trial and error using experience and intuition. However, it is difficult to perform this operation for many sample products, and the cost is increased.
本発明は、前記従来の問題点を解決するべくなされたもので、任意の商品の施工例等の原画像に対して商品見本画像等のテクスチャ画像を合成する場合に、特別な経験や勘がなくとも、違和感の無い合成画像を容易に作成することができる画像合成装置を提供することを課題とする。 The present invention has been made to solve the above-mentioned conventional problems, and has special experience and intuition when a texture image such as a product sample image is synthesized with an original image such as a construction example of an arbitrary product. It is an object of the present invention to provide an image composition device that can easily create a composite image without any sense of incongruity.
本発明は、原画像の一部にテクスチャ画像を合成する画像合成装置において、原画像を入力する手段と、該原画像に合成するテクスチャ画像を入力する手段と、同原画像の中でテクスチャ画像を合成する合成領域を指定する手段と、該合成領域の座標値をテクスチャ画像上の座標値に座標変換するためのパラメータを指定する手段と、該パラメータに基づき前記合成領域内の座標に対して座標変換を行い相対座標値を計算する手段と、該相対座標値より前記テクスチャ画像上のテクスチャ座標値を計算する手段と、該テクスチャ座標値を基に前記合成領域内にテクスチャ画像を合成する合成手段と、を備えた構成とすることにより、前記課題を解決したものである。 The present invention relates to an image synthesizing apparatus for synthesizing a texture image with a part of an original image, means for inputting an original image, means for inputting a texture image to be synthesized with the original image, and a texture image among the original images Means for designating a synthesis region for synthesizing the image, means for designating a parameter for coordinate conversion of the coordinate value of the synthesis region to a coordinate value on the texture image, and the coordinates in the synthesis region based on the parameter Means for calculating a relative coordinate value by performing coordinate transformation, means for calculating a texture coordinate value on the texture image from the relative coordinate value, and synthesis for synthesizing a texture image in the synthesis area based on the texture coordinate value The above-mentioned problem is solved by adopting a configuration including means.
本発明においては、原画像上で指定した合成領域の座標値をテクスチャ画像上の座標値に座標変換するためのパラメータを指定し、該パラメータに基づき前記合成領域内の座標に対して座標変換を行い相対座標値を計算し、該相対座標値より前記テクスチャ画像上のテクスチャ座標値を計算し、該テクスチャ座標値を基に前記合成領域内にテクスチャ画像を合成するようにしたので、これら3つの座標系の対応関係を利用することにより、任意の大きさのテクスチャ画像を前記合成領域に合成し、違和感のない合成画像を作成することが可能となる。 In the present invention, a parameter for coordinate conversion of the coordinate value of the synthesis area designated on the original image to the coordinate value on the texture image is designated, and coordinate transformation is performed on the coordinates in the synthesis area based on the parameter. The relative coordinate value is calculated, the texture coordinate value on the texture image is calculated from the relative coordinate value, and the texture image is synthesized in the synthesis area based on the texture coordinate value. By using the correspondence relationship of the coordinate system, it is possible to synthesize a texture image of an arbitrary size in the synthesis area and create a synthesized image without a sense of incongruity.
本発明によれば、任意の商品の施工例等の原画像に対して商品見本画像等のテクスチャ画像を合成する場合に、特別な経験や勘がなくとも、違和感の無い合成画像を容易に作成することができる。 According to the present invention, when a texture image such as a product sample image is synthesized with an original image such as a construction example of an arbitrary product, a composite image without a sense of incongruity can be easily created without special experience or intuition. can do.
以下、図面を参照して、本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明に係る一実施形態の画像合成システム(画像合成装置)の概略構成を示すブロック図である。本実施形態の画像合成システムは、画像入力装置10、指示入力装置12、画像合成装置14、表示装置16及び画像出力装置18を備えている。
FIG. 1 is a block diagram showing a schematic configuration of an image composition system (image composition apparatus) according to an embodiment of the present invention. The image composition system of this embodiment includes an
上記画像入力装置10は、原画像やこれに合成するテクスチャ画像等を入力するイメージスキャナやこれら画像データが格納され、読み出すことができるハードディスク等の記憶装置で構成されている。又、前記指示入力装置12は、キーボードやマウス等からなり、原画像の中でテクスチャ画像を合成する合成領域を指定したり、合成領域の座標値をテクスチャ画像上の座標値に座標変換するためのパラメータを指定することができるようになっている。
The
又、前記画像合成装置14はコンピュータで構成され、該装置14には、指定されたパラメータに基づき合成領域内の座標に対して座標変換を行い相対座標値を計算する手段と、該相対座標値よりテクスチャ画像上のテクスチャ座標値を計算する手段と、該テクスチャ座標値を基に合成領域内にテクスチャ画像を合成する手段とが、ソフトウェアにより実現されている。又、前記表示装置16はCRTや液晶等のディスプレイからなり、原画像、テクスチャ画像、合成画像等を表示し、又、前記出力装置18はプリンタ等からなり、合成画像等を出力することができるようになっている。
The image synthesizing
本実施形態について更に詳述すると、前記画像合成装置14には、同じくソフトウェアにより、原画像の各画素の輝度情報のみからなる原画像輝度データを生成する手段と、合成されたテクスチャ画像の輝度をこの原画像輝度データ及び明暗の差を制御するためのパラメータに基づき変更する輝度変更手段等が実現されている。又、同様に、前記合成領域には、遮景領域を考慮して作成されたマスクデータが適用されると共に、前記座標変換に使用するパラメータには、実際の3次元空間では長方形となる前記原画像上の四角形の領域を規定するための4頂点座標が含まれ、前記相対座標値を計算する手段が、前記マスクデータを考慮して前記パラメータに基づいて座標変換を行うことができるようになっている。
More specifically, the
又、同様に、前記座標変換に使用するパラメータには、実際の3次元空間上では長方形となる前記原画像上の合成領域を表わす四角形の該3次元空間での実際の大きさ(Sx、Sy)が含まれ、前記合成手段が、前記長方形の実際の大きさ(Sx、Sy)と前記テクスチャ画像の実際の大きさ(Strx、Stry)との相対比に応じた回数、該テクスチャ画像を繰り返して前記合成領域に合成することができるようになっている。更に、前記テクスチャ画像が複数用意されており、前記テクスチャ座標値を計算する手段は、他の新しいテクスチャ画像が選択されたときに、すでに得られている相対座標値に基づいてそのテクスチャ座標値を計算することができるようになっている。 Similarly, the parameters used for the coordinate conversion include the actual size (Sx, Sy) of the quadrilateral representing the composite area on the original image that is rectangular in the actual three-dimensional space. ), And the synthesis unit repeats the texture image a number of times according to the relative ratio between the actual size (Sx, Sy) of the rectangle and the actual size (Strx, Stry) of the texture image. And can be synthesized in the synthesis region. Further, a plurality of the texture images are prepared, and the means for calculating the texture coordinate value is obtained by selecting the texture coordinate value based on the relative coordinate value already obtained when another new texture image is selected. It can be calculated.
次に、本実施形態の作用を、図2に示したフローチャートを用いて説明する。 Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG.
まず、画像入力装置で原画像(図3)とテクスチャ画像(図4)を入力する(ステップ1、2)。なお、この図3において、後方の物体(立方体)の前の面に付した2点鎖線は、手前の立方体により生じている陰影が識別し難いため、その境界を示したものである。
First, an original image (FIG. 3) and a texture image (FIG. 4) are input by an image input device (
次に、テクスチャ画像を合成する領域を表すマスクデータを作成する(ステップ3)。このマスクデータは、原画像中で、テクスチャを合成する有効領域を表すもので、異なるテクスチャを合成する領域ごと、またはパース(Perspect:遠近感)のかかり方が違う、即ち原画像について実際の三次元空間を考えた時に同一平面とならない領域ごとに異なる識別番号を設定して作成する。 Next, mask data representing a region where the texture image is synthesized is created (step 3). This mask data represents the effective area in which the texture is synthesized in the original image. Each area where different textures are synthesized, or how the perspective is applied, that is, the actual tertiary of the original image. A different identification number is set for each region that is not on the same plane when the original space is considered.
このマスクデータの一例としては、原画像と縦横の大きさが同じ座標値の配列データを用意し、テクスチャの合成を行わない画素に対しては0の値を設定し、テクスチャの合成を行う画素には前述の識別番号を設定する。ここでは、このマスクデータ作成手順の一例として、原画像を元にして図5、図6のように合成領域のみを任意の色(ここでは白)に加工した画像を用意し、この2枚の画像から図7のようなマスクデータを作成した。ここでは、便宜上合成が行われない領域を白色とし、行われる有効領域毎に違う色(黒とグレー)で示した。又、本実施形態では、前記図3の原画像において、手前にある立方体により視野が遮られる遮景領域が存在する後方の立方体の場合には、図7に黒で有効領域を示したように、この遮光領域を除いた範囲のマスクデータを作成する。 As an example of this mask data, array data having the same coordinate values as the original image in the vertical and horizontal dimensions is prepared, and a value of 0 is set for pixels that are not subjected to texture synthesis, and pixels for which texture synthesis is performed. Is set with the aforementioned identification number. Here, as an example of the mask data creation procedure, an image in which only the composite area is processed into an arbitrary color (here, white) as shown in FIGS. 5 and 6 based on the original image is prepared. Mask data as shown in FIG. 7 was created from the image. Here, for the sake of convenience, an area where synthesis is not performed is shown in white, and a different color (black and gray) is shown for each effective area. Further, in the present embodiment, in the original image of FIG. 3, in the case of a rear cube in which a scene is blocked by the cube in front, the effective area is shown in black in FIG. Then, mask data in a range excluding the light shielding area is created.
次に、テクスチャ画像を合成する原画像上の合成領域の座標値を、テクスチャ画像上の座標値に射影的正規化変換するためのパラメータを指定(入力)する(ステップ4)。この操作は、実際の三次元空間上で同一平面上にある長方形の各頂点P1〜P4の原画像上での合成領域の座標値と、その実際の三次元実空間上での長方形のx方向、y方向の大きさSx、Syを、指示入力装置12により指定することにより行う。この場合、長方形の実際の大きさが既知又は推定できる場合はその値を指定すればよいが、長方形の大きさが既知でなく、又、原画像中の大きさが既知のもの等から推定することもできない場合には、指定した頂点P1〜P4で囲まれた領域に、テクスチャ画像が縦方向にいくつ、横方向にいくつ並ぶといった相対値を使用してもなんら問題なく、その場合には、後述するテクスチャ画像の実際の大きさStrx、Stryの指定時にはそれぞれ1を指定すればよい。
Next, a parameter for projectively normalizing the coordinate value of the synthesis area on the original image to synthesize the texture image to the coordinate value on the texture image is designated (input) (step 4). In this operation, the coordinate value of the composite area on the original image of each of the vertices P1 to P4 of the rectangle on the same plane in the actual three-dimensional space and the x direction of the rectangle in the actual three-dimensional real space , Y direction sizes Sx and Sy are designated by the
ここで、この指定する4頂点の座標(パラメータ)について補足すると、これらの座標値は合成を行う合成領域自体や、前記図7に示したようなマスク領域(マスクデータで規定される有効領域)に対して指定できることは言うまでもないが、マスク領域と直接は関係なく、実際の三次元空間上で同一平面となる原画像上の領域であれば、即ちパースのかかり方が同一であればマスク領域外で指定しても問題なく、更には、原画像の領域外で指定してもなんら問題はない。 Here, supplementing the coordinates (parameters) of the four vertices to be designated, these coordinate values are obtained by combining the composition area itself to be synthesized or the mask area (effective area defined by the mask data) as shown in FIG. Needless to say, the mask area is not directly related to the mask area, and if it is an area on the original image that is the same plane in the actual three-dimensional space, that is, if the method of parsing is the same, the mask area There is no problem if it is specified outside, and there is no problem if it is specified outside the area of the original image.
パラメータ指定の具体例として、図5に示した合成領域に対応するマスク領域に対して座標値を指定する場合の例を図8に示す。この図では、実際の3次元空間では長方形である原画像上の四角形の頂点にP1〜P4の座標(x1,y1)〜(x4,y4)を指定し、この四角形の実際の三次元空間上でのx、yそれぞれの方向の大きさSx、Syを指定している。P2に関しては、手前の物体によって隠れており、この付近(遮景領域)は前記図7に示したマスクデータでは有効領域外であるが、パラメータ指定は前述した通りマスク領域と直接は関係ないので、実際の三次元空間上で長方形になるであろう領域上の点であれば問題なく利用できる。なお、合成の対象となる全てのマスク領域に対して前記パラメータを指定する必要があるが、実際の三次元空間上で同一平面となる、即ち原画像上ではパースのかかり方が同じ領域であれば同一のパラメータを適用できる。 As a specific example of parameter specification, FIG. 8 shows an example in which coordinate values are specified for a mask area corresponding to the composite area shown in FIG. In this figure, coordinates (x1, y1) to (x4, y4) of P1 to P4 are designated at the vertices of a rectangle on the original image which is a rectangle in an actual three-dimensional space, and the actual three-dimensional space of this rectangle is displayed. The sizes Sx and Sy in the x and y directions are specified. As for P2, it is hidden by an object in front, and this vicinity (blocking area) is outside the effective area in the mask data shown in FIG. 7, but parameter designation is not directly related to the mask area as described above. Any point on an area that will be rectangular in an actual three-dimensional space can be used without any problem. It is necessary to specify the above parameters for all mask areas to be combined. However, if the parameters are the same plane in the actual three-dimensional space, that is, the areas on which the perspective is applied are the same on the original image. The same parameters can be applied.
次いで、以下に詳述する各種演算処理を前記画像合成装置14で行う。まず、前記パラメータに基づいて合成領域内の座標に対して射影的正規化変換(この座標変換については、例えば「計算機幾何と地理情報処理」 bit別冊 共立出版(1986)に詳説されている)を行う。具体的には、以下に示す(1)、(2)式で規定されるc、dを含む(3)、(4)式により、後述するテクスチャ合成を行う領域に含まれる全ての画素に対して射影的正規化変換を行い、相対座標値α、βを計算する(ステップ5)。なお、ここでは、相対座標値は、x、y方向の実際の大きさSx、Syからなる長方形座標に正規化された値で与えられる。
Next, various arithmetic processes described in detail below are performed by the
このステップ5の相対座標値の計算では、前記頂点座標(x1、y1)〜(x4、y4)及び実際の大きさSx、Syのパラメータを用いて上記(1)〜(4)式により座標変換する際、前記マスクデータ(マスク領域)を考慮して処理を行う。これにより、遮景領域がある場合には、その範囲について座標変換の計算処理を行う必要がなくなるため、計算量の削減を図ることが可能となり、処理の迅速化を図ることが可能となる。
In the calculation of the relative coordinate values in
次に、指示入力装置12により、既に入力されているものの中から合成するテクスチャ画像を選択(指定)し(ステップ6)、そのテクスチャ画像を合成する合成領域(1領域でも複数領域でもかまわない)を指定する(ステップ7)。この時、合成されるテクスチャ画像が縮小されて合成される場合は、あらかじめテクスチャ画像にローパスフィルタ処理等を行い、モアレの発生を抑える必要がある。 Next, a texture image to be synthesized is selected (designated) from those already input by the instruction input device 12 (step 6), and a synthesis area (one area or a plurality of areas may be synthesized) to synthesize the texture image. Is designated (step 7). At this time, when the texture image to be synthesized is reduced and synthesized, it is necessary to perform low-pass filter processing or the like on the texture image in advance to suppress the occurrence of moire.
次に、合成するテクスチャ画像の実際の大きさを指定する(前述したように、長方形の大きさをテクスチャ画像がいくつ並ぶという相対値で指定した場合は1を指定する)。そして、合成を行う合成領域内の座標値に対して前記射影的正規化変換を行って算出した相対座標値(α,β)を、テクスチャ画像の実際の大きさおよびテクスチャ画像の画素単位での大きさより、実際に合成を行うテクスチャ画像上での座標値(xt,yt)に、以下の式により変換するテクスチャ座標変換を行う(ステップ8)。その際、xt、ytが0未満(後述する図11に示すような相対座標系でα、βが負の場合)またはStpx、Stpy以上となる時は、Stpx、Stpyで割った余りを計算し、余りの画素数でテクスチャ画像上の座標値を設定する。 Next, the actual size of the texture image to be synthesized is designated (as described above, 1 is designated when the size of the rectangle is designated by a relative value indicating how many texture images are arranged). Then, the relative coordinate values (α, β) calculated by performing the projective normalization conversion on the coordinate values in the synthesis area to be synthesized are expressed in terms of the actual size of the texture image and the pixel unit of the texture image. Based on the size, texture coordinate conversion is performed by converting the coordinate value (xt, yt) on the texture image to be actually synthesized according to the following equation (step 8). At that time, when xt and yt are less than 0 (when α and β are negative in the relative coordinate system as shown in FIG. 11 described later) or greater than Stpx and Stpy, the remainder obtained by dividing by Stpx and Stpy is calculated. The coordinate value on the texture image is set with the number of remaining pixels.
次に、上記ステップ8で変換した座標のテクスチャ画像を構成する各画素の画素値を、合成を行う画素(マスク領域内の合成領域の対応する画素)の画素値と置換する事により、選択した前記合成領域にテクスチャ画像の合成を行う(ステップ9)。その際、実際の3次元空間では長方形となる前記原画像上の合成領域を表わす四角形の該3次元空間上での実際の大きさ(Sx、Sy)と前記テクスチャ画像の実際の大きさ(Strx、Stry)とにより求められる相対比として与えられる回数、該テクスチャ画像を繰り返して前記合成領域に合成する。この繰り返し合成の詳細については、便宜上後述する。 Next, the pixel value of each pixel constituting the texture image of the coordinate converted in step 8 is selected by replacing the pixel value of the pixel to be synthesized (the corresponding pixel in the synthesis area in the mask area). A texture image is synthesized in the synthesis area (step 9). At that time, the actual size (Sx, Sy) of the quadrilateral representing the composite area on the original image which is a rectangle in the actual three-dimensional space and the actual size of the texture image (Strx). , Stry) and the texture image is repeated and synthesized in the synthesis area for the number of times given as the relative ratio obtained by Details of this repeated synthesis will be described later for convenience.
次に、合成されたテクスチャ画像の輝度を原画像の輝度データに基づいて変更する(ステップ10)。具体的には、上記ステップ9の合成処理によりテクスチャ画像が合成された領域の各画素に対して、下記(7)式により輝度の変更を行う。これにより、原画像の合成領域内の明暗の差を大きくまたは小さくしたり、原画像と合成されたテクスチャ画像の平均輝度の差を大きくしたり小さくしたり調整し、より自然な合成画像が得られるようにできる。ここで各パラメータを変更することにより、原画像の合成領域上の材質と反射率等の極端に違うテクスチャ画像を合成したい場合でも、違和感のない自然な合成画像を得ることができる。他に合成するテクスチャ画像がある場合には、上述したステップ6〜10の処理を繰り返す(ステップ11)。
Next, the brightness of the synthesized texture image is changed based on the brightness data of the original image (step 10). Specifically, the luminance is changed by the following equation (7) for each pixel in the region where the texture image is synthesized by the synthesis process in
図9には、実際に前記図3の原画像に図7のマスクデータを設定し、その2つの領域に図4のテクスチャ画像を合成することにより作成した合成画像を示した。この図9では、階調差が明確でないために分り難いが、前記図3と同様に2点鎖線で境界を示した陰影が、この合成画像に反映されている。 FIG. 9 shows a composite image created by actually setting the mask data of FIG. 7 on the original image of FIG. 3 and synthesizing the texture image of FIG. 4 in the two areas. In FIG. 9, it is difficult to understand because the gradation difference is not clear, but the shadow indicating the boundary with a two-dot chain line is reflected in the composite image as in FIG. 3.
次に、便宜上ここで、前述したようにテクスチャ画像上での座標値を計算するに当り、いったん相対座標値α、βを計算しておき、その後xt、ytを計算した理由を図を用いて詳細に説明する。 Next, for convenience, in calculating the coordinate values on the texture image as described above, the relative coordinate values α and β are calculated once, and then the reason why xt and yt are calculated is described with reference to the drawings. This will be described in detail.
いま、図10に示した合成領域の実際の大きさが、例えばm単位で幅5、高さ3であったとすると、α、βに変換された後の座標は図11のようになる(ここまでの計算はテクスチャの画素単位での大きさ、実際の大きさに無関係に計算できる)。ここで、この領域に図12に模式的に示すテクスチャ画像(画素単位での大きさ:100×100、実際の大きさ:1×1)に対してテクスチャ画像上での座標値への変換を行った結果を、該テクスチャ画像を繰り返して合成した結果として図14に示す。また、図13に模式的に示すテクスチャ画像(画素単位での大きさ:150×150、実際の大きさ:2×2)に対してテクスチャ画像上での座標値への変換を行った結果を、同じく繰り返して合成した結果として図15に示す。
Now, if the actual size of the composite area shown in FIG. 10 is, for example, m in
この例からも明らかなように、P1〜P4の領域の実際の大きさ、テクスチャ画像の画素単位での大きさと実際の大きさを指定することにより、実際に即した大きさで合成することが可能である。また、いったんα、βを計算しておくことにより、このα、βはテクスチャ画像の大きさと無関係に計算できるので、画素単位で実際の大きさの異なるテクスチャ画像を合成する場合でも、α、βの値は再利用できるため、計算量を減らすことが可能である。 As is clear from this example, the actual size of the P1 to P4 region, the size of the texture image in pixel units, and the actual size can be specified, so that the actual size can be synthesized. Is possible. In addition, once α and β are calculated, α and β can be calculated regardless of the size of the texture image. Therefore, even when a texture image having a different actual size is synthesized in units of pixels, α, β Since the value of can be reused, the amount of calculation can be reduced.
以上、本発明について具体的に説明したが、本発明は、前記実施形態に示したものに限られるものでなく、その要旨を逸脱しない範囲で種々変更可能である。 Although the present invention has been specifically described above, the present invention is not limited to that shown in the above embodiment, and various modifications can be made without departing from the scope of the invention.
例えば、前記実施形態では座標変換として射影的正規化変換を採用したが、これに限定されず、原画像上の合成領域を実際の3次元空間で長方形(正方形を含む)に正規化する座標変換であれば制限されない。又、画像合成装置の具体的構成は前記図1に示したものに限定されない。
For example, the projective normalization conversion is adopted as the coordinate conversion in the embodiment, but the present invention is not limited to this, and the coordinate conversion that normalizes the synthesis area on the original image into a rectangle (including a square) in the actual three-dimensional space. If it is, it will not be restricted. Further, the specific configuration of the image composition apparatus is not limited to that shown in FIG.
10…画像入力装置
12…指示入力装置
14…画像合成装置
16…表示装置
18…画像出力装置
DESCRIPTION OF
Claims (2)
原画像を入力する手段と、
該原画像に合成するテクスチャ画像を入力する手段と、
同原画像の中でテクスチャ画像を合成する合成領域を指定する手段と、
該合成領域の座標値をテクスチャ画像上の座標値に座標変換するためのパラメータを指定する手段と、
該パラメータに基づき前記合成領域内の座標に対して座標変換を行い相対座標値を計算する手段と、
該相対座標値より前記テクスチャ画像上のテクスチャ座標値を計算する手段と、
該テクスチャ座標値を基に前記合成領域内にテクスチャ画像を合成する合成手段と、を備えていることを特徴とする画像合成装置。 In an image synthesizer that synthesizes a texture image with a part of an original image,
Means for inputting the original image;
Means for inputting a texture image to be combined with the original image;
Means for designating a synthesis region for synthesizing a texture image in the original image;
Means for designating a parameter for coordinate conversion of the coordinate value of the synthesis area into a coordinate value on the texture image;
Means for performing coordinate transformation on the coordinates in the composite region based on the parameters and calculating relative coordinate values;
Means for calculating a texture coordinate value on the texture image from the relative coordinate value;
An image synthesizing apparatus comprising: a synthesizing unit that synthesizes a texture image in the synthesis region based on the texture coordinate value.
前記原画像の各画素の輝度情報のみからなる原画像輝度データを生成する手段と、合成されたテクスチャ画像の輝度を原画像輝度データ及び明暗の差を制御するためのパラメータに基づき変更する輝度変更手段とが兼備されていることを特徴とする画像合成装置。
In claim 1,
Means for generating original image luminance data consisting only of luminance information of each pixel of the original image, and luminance change for changing the luminance of the synthesized texture image based on the original image luminance data and a parameter for controlling the difference between light and dark And an image synthesizing apparatus.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005166194A JP2005293616A (en) | 2005-06-06 | 2005-06-06 | Image synthesizer |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005166194A JP2005293616A (en) | 2005-06-06 | 2005-06-06 | Image synthesizer |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP9937299A Division JP3967036B2 (en) | 1999-04-06 | 1999-04-06 | Image synthesizer |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005293616A true JP2005293616A (en) | 2005-10-20 |
Family
ID=35326400
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005166194A Pending JP2005293616A (en) | 2005-06-06 | 2005-06-06 | Image synthesizer |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005293616A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008052397A (en) * | 2006-08-23 | 2008-03-06 | Dainippon Printing Co Ltd | Image composition apparatus, program, and recording medium |
| CN106780701A (en) * | 2016-11-23 | 2017-05-31 | 深圳大学 | The synthesis control method of non-homogeneous texture image, device, storage medium and equipment |
| CN117793442A (en) * | 2023-12-29 | 2024-03-29 | 深圳市木愚科技有限公司 | Image video masking method, device, equipment and medium based on point set |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05298455A (en) * | 1992-04-16 | 1993-11-12 | Hitachi Ltd | Texture mapping device |
| JPH06274649A (en) * | 1993-03-23 | 1994-09-30 | Dainippon Printing Co Ltd | Image synthesizer |
| JPH06274650A (en) * | 1993-03-23 | 1994-09-30 | Dainippon Printing Co Ltd | Image synthesizer |
| JPH08287225A (en) * | 1995-04-17 | 1996-11-01 | Toppan Printing Co Ltd | Image simulation equipment |
-
2005
- 2005-06-06 JP JP2005166194A patent/JP2005293616A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05298455A (en) * | 1992-04-16 | 1993-11-12 | Hitachi Ltd | Texture mapping device |
| JPH06274649A (en) * | 1993-03-23 | 1994-09-30 | Dainippon Printing Co Ltd | Image synthesizer |
| JPH06274650A (en) * | 1993-03-23 | 1994-09-30 | Dainippon Printing Co Ltd | Image synthesizer |
| JPH08287225A (en) * | 1995-04-17 | 1996-11-01 | Toppan Printing Co Ltd | Image simulation equipment |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008052397A (en) * | 2006-08-23 | 2008-03-06 | Dainippon Printing Co Ltd | Image composition apparatus, program, and recording medium |
| CN106780701A (en) * | 2016-11-23 | 2017-05-31 | 深圳大学 | The synthesis control method of non-homogeneous texture image, device, storage medium and equipment |
| CN106780701B (en) * | 2016-11-23 | 2020-03-13 | 深圳大学 | Non-uniform texture image synthesis control method, device, storage medium and equipment |
| CN117793442A (en) * | 2023-12-29 | 2024-03-29 | 深圳市木愚科技有限公司 | Image video masking method, device, equipment and medium based on point set |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6025847A (en) | Three dimensional modeling system with visual feedback | |
| US5412402A (en) | Electronic graphic systems | |
| US20070253640A1 (en) | Image manipulation method and apparatus | |
| CA2301607C (en) | An improved method and apparatus for per pixel mip mapping and trilinear filtering | |
| JP2002507799A (en) | Probabilistic level of computer animation | |
| EP1635297B1 (en) | 3-dimensional graphics data display device | |
| JP2011048586A (en) | Image processing apparatus, image processing method and program | |
| JPH0285970A (en) | Picture forming device and system of continuous tone to which smooth shadow is formed | |
| JP2004005452A (en) | Image processor, image processing method, semiconductor device, computer program and record medium | |
| US8698830B2 (en) | Image processing apparatus and method for texture-mapping an image onto a computer graphics image | |
| JPH10507858A (en) | Method and apparatus for automatically and quickly drawing on a photographic real surface on a three-dimensional wireframe | |
| JP3967036B2 (en) | Image synthesizer | |
| JP2005293616A (en) | Image synthesizer | |
| CN120765821A (en) | A physical field simulation cloud map display method based on ThreeJS framework | |
| JP2003504697A (en) | Anti-aliasing of subsampled texture edges | |
| JPH0721407A (en) | Image display method | |
| JPH11331700A (en) | Image processing apparatus and image processing method | |
| JP3501479B2 (en) | Image processing device | |
| US6894696B2 (en) | Method and apparatus for providing refractive transparency in selected areas of video displays | |
| JP5524146B2 (en) | Perspective diagram creation system, perspective diagram creation program, and perspective diagram creation method | |
| JPH0345427B2 (en) | ||
| JP4372924B2 (en) | Moving image material generation method and apparatus | |
| US7454320B1 (en) | System and method for calculating partial differential equations in a hardware graphics pipeline | |
| JPH05342368A (en) | Method and device for generating three-dimensional picture | |
| WO1998046011A1 (en) | Special effect apparatus and special effect method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080310 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080318 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080708 |
