JPH06274650A - Image synthesizer - Google Patents

Image synthesizer

Info

Publication number
JPH06274650A
JPH06274650A JP6234393A JP6234393A JPH06274650A JP H06274650 A JPH06274650 A JP H06274650A JP 6234393 A JP6234393 A JP 6234393A JP 6234393 A JP6234393 A JP 6234393A JP H06274650 A JPH06274650 A JP H06274650A
Authority
JP
Japan
Prior art keywords
image
area
texture
perspective
texture image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6234393A
Other languages
Japanese (ja)
Other versions
JP3517256B2 (en
Inventor
Moritaka Arai
盛孝 荒井
Naoki Kawai
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP06234393A priority Critical patent/JP3517256B2/en
Publication of JPH06274650A publication Critical patent/JPH06274650A/en
Application granted granted Critical
Publication of JP3517256B2 publication Critical patent/JP3517256B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To prepare a synthetic image with the natural feeling of depth between a texture image synthesized with a source image and another source image area without depending on the shape of a synthetic area. CONSTITUTION:An image input device 10 inputs the source image and the texture image, an image area designating device 12 designates the perspective designating area of the source image and the using area of the texture image by respectively inputting apexes on coordinates, and an image synthesizer 14 sets a mask to specify the synthetic area in the perspective designating area based on data read from the image input device 10 and the image area designating device 12, performs perspective to the using area of the texture image by performing inverse projective normalizing transformation opposite to coordinate transformation for calculating projective normalizing coordinates, synthesizes the images by sticking the perspective texture image into the perspective designating area and outputs the prepared synthetic image from the image synthesizer 14 to an image output device 16.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像合成装置、特に、
例えばプレゼンテーション画像の制作、電子製版等にお
いて、原画像にテクスチャ画像を貼り込んで画像合成を
行う際、合成後のテクスチャ画像に原画像と整合がとれ
た自然な奥行感を与えることができる画像合成装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention
For example, in the production of presentation images, electronic platemaking, etc., when a texture image is pasted onto an original image and image synthesis is performed, it is possible to give the texture image after synthesis a natural sense of depth that is consistent with the original image. Regarding the device.

【0002】[0002]

【従来の技術】例えば、プレゼンテーション画像の制作
や電子製版等において、原画像にテクスチャ画像を貼り
込んで画像合成を行う際、その原画像が透視的描画法に
より作成され、遠近感(perspective )が与えられてい
る場合には、原画像の合成領域に対して貼り込むテクス
チャ画像に遠近感(以下、パースとも言う)を与えるた
めの歪みをかけずに該テクスチャ画像の貼り込みを行う
と、貼り込んだテクスチャ画像に奥行感がないため、得
られる合成画像では、テクスチャ画像を貼り込んだ領域
と、その他の領域の間に、奥行感の不整合(パースのか
かりの相違)による違和感が生じることになる。
2. Description of the Related Art For example, when a texture image is pasted on an original image to synthesize an image in the production of a presentation image or electronic plate making, the original image is created by a perspective drawing method, which gives a perspective. If it is given, if the texture image is pasted without distortion to give a sense of perspective (hereinafter also referred to as perspective) to the texture image to be pasted into the composite area of the original image, Since there is no sense of depth in the texture image that has been embedded, in the resulting composite image, a sense of incongruity (difference in depth of perspective) may occur between the region where the texture image is pasted and other regions due to inconsistency in depth. become.

【0003】このような違和感を解消するためにテクス
チャ画像に歪みをかける方法としては、原画像に、所定
形状の合成領域を設定し、テクスチャ画像を合成領域の
形状に合せて座標変換する方法がある。
As a method of distorting the texture image in order to eliminate such a feeling of discomfort, there is a method of setting a composite area of a predetermined shape in the original image and converting the coordinates of the texture image according to the shape of the composite area. is there.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記の
ように合成領域の形状に合せてテクスチャ画像を座標変
換する方法には以下の問題がある。今、図19のように
遠近感が付けられた室内に、正面から見ると図20のよ
うな三角形の窓が設けられた原画像について、その窓か
ら見える外の景色を作成するために、図21に示したよ
うなテクスチャ画像Tを座標変換し、それを窓部に合成
する場合を考える。
However, the above-mentioned method of coordinate-converting the texture image in accordance with the shape of the composite area has the following problems. Now, with respect to an original image in which a triangular window as shown in FIG. 20 when viewed from the front is provided in a room with a perspective as shown in FIG. Consider a case where the texture image T as shown in FIG. 21 is subjected to coordinate conversion and is combined with the window portion.

【0005】その際、図19における三角形の窓に相当
する領域(合成領域)をテクスチャ画像Tに遠近感を付
けるための基準領域(パース指定領域)としてそのまま
利用する場合、図21におけるテクスチャ画像Tの使用
領域を規定する4頂点P1′、P2′、P3′、P4′
は、それぞれ図19における4頂点P1、P2、P3、
P4で規定されるパース指定領域に対応するが、これは
三角形であるため頂点P1と頂点P2は同一の座標値を
とる。その結果、座標変換(透視変換)により変形され
たテクスチャ画像は、図22に見られるように窓の左側
になるほど、高さ方向にも奥行き方向(横方向)にも縮
小される結果となり、違和感の著しい合成画像が得られ
ることになる。
At that time, when the area (composite area) corresponding to the triangular window in FIG. 19 is used as it is as a reference area (perspective designated area) for giving a sense of perspective to the texture image T, the texture image T in FIG. 4 vertices P1 ', P2', P3 ', P4' that define the use area of
Are the four vertices P1, P2, P3,
It corresponds to the perspective designated area defined by P4, but since this is a triangle, the vertices P1 and P2 have the same coordinate values. As a result, the texture image transformed by the coordinate transformation (perspective transformation) is reduced in the height direction and the depth direction (horizontal direction) as it goes to the left side of the window as seen in FIG. Will be obtained.

【0006】本発明は、前記従来の問題点を解決するべ
くなされたもので、原画像の合成領域が如何なる形状で
あっても、その形状に影響されることなく、該合成領域
に貼り込んだテクスチャ画像と、原画像のその他の領域
の間で、違和感のない自然な奥行感のある合成画像を制
作することができる画像合成装置を提供することを課題
とする。
The present invention has been made in order to solve the above-mentioned conventional problems. Whatever shape the composite area of the original image has, the original image is pasted in the composite area without being affected by the shape. An object of the present invention is to provide an image synthesizing device capable of producing a synthetic image having a natural sense of depth without a sense of discomfort between a texture image and other regions of an original image.

【0007】[0007]

【課題を解決するための手段】本発明は、原画像を入力
する手段と、テクスチャ画像を入力する手段と、原画像
にテクスチャ画像を貼り込む貼込領域を指定する手段
と、原画像の貼込領域に対応するテクスチャ画像の使用
領域を指定する手段と、原画像の貼込領域にテクスチャ
画像の使用領域を合成する画像合成手段とを備えた画像
合成装置において、画像合成手段が、原画像の貼込領域
に、少なくとも1つの窓領域を有するマスクを設定する
機能と、テクスチャ画像の使用領域に対して擬似的な透
視変換を施す機能と、を備えた構成とすることにより、
前記課題を達成したものである。
According to the present invention, a means for inputting an original image, a means for inputting a texture image, a means for designating a pasting area for pasting the texture image on the original image, and a pasting for the original image. In an image synthesizing device including means for designating a used area of a texture image corresponding to an embedded area and image synthesizing means for synthesizing a used area of a texture image with a pasted area of an original image, By having a function of setting a mask having at least one window area in the pasting area of, and a function of performing pseudo perspective transformation on the usage area of the texture image,
The above object has been achieved.

【0008】本発明は、又、前記画像合成装置におい
て、画像合成手段が備えている擬似的な透視変換機能
を、射影的正規化逆変換を施す機能としたものである。
According to the present invention, in the image synthesizing apparatus, the pseudo perspective transformation function provided in the image synthesizing means is a function for performing projective normalization inverse transformation.

【0009】[0009]

【作用】本発明においては、原画像上にテクスチャ画像
を貼り込むための貼込領域(パース指定領域)を指定す
るとともに、テクスチャ画像の使用領域をパース指定領
域に対応させて擬似的に透視変換することによりパース
付けされたテクスチャ画像を作成し、そのパース付けさ
れた変形後のテクスチャ画像をパース指定領域に貼り込
む際に、該パース指定領域に少なくとも1つの窓領域を
有するマスクを設定できるようにしたので、変形後のテ
クスチャ画像を貼り込むパース指定領域と、そのテクス
チャ画像が実際に合成される合成領域(マスクの窓領
域)とを独立に設定することが可能となる。
In the present invention, the pasting area (paste designated area) for pasting the texture image on the original image is designated, and the used area of the texture image is pseudo-perspectively converted in correspondence with the perspective designated area. By creating a parsed texture image by doing this and pasting the parsed and deformed texture image into the parse designated area, a mask having at least one window area can be set in the parse designated area. Therefore, it is possible to independently set the perspective designated area in which the deformed texture image is to be pasted and the composite area (mask window area) in which the texture image is actually composited.

【0010】その結果、合成領域の形状に影響されるこ
となく、テクスチャ画像に擬似的な透視変換を施すこと
が可能となるため、例えば任意形状の窓を通して見える
外の景色と原画像との間で違和感のない合成画像を制作
することが可能となる。
As a result, the pseudo perspective transformation can be applied to the texture image without being affected by the shape of the composite area, so that, for example, between the outside scene seen through a window of an arbitrary shape and the original image. This makes it possible to create a synthetic image that does not look strange.

【0011】又、その際、複数の窓領域を有するマスク
を用いる場合は、例えば室内から複数の窓を通して見え
る外の景色が連続性を保ち、しかも窓毎に違和感のない
奥行感を持った状態で合成された画像を制作することが
可能となる。
Further, in this case, when a mask having a plurality of window regions is used, for example, the outside scenery seen from the room through the plurality of windows maintains a continuity, and the windows have a sense of depth without any discomfort. It is possible to create images that have been combined with.

【0012】なお、本発明において、パース指定領域と
は、テクスチャ画像に対する歪みのかけ具合を制御する
ために、原画像に設定する四辺形であり、それぞれの頂
点にテクスチャ画像の使用領域の4頂点が対応するよう
に、射影的正規化逆変換を施す領域である。
In the present invention, the perspective designated area is a quadrangle set in the original image in order to control the degree of distortion applied to the texture image, and each vertex has four vertices of the texture image used area. Are areas to which projective normalization inverse transformation is applied so as to correspond to.

【0013】又、擬似的な透視変換とは、純粋に2次元
的な手法で(3次元の奥行値情報を用いずに)幾何的な
変形手段を用いて、画像に擬似的な奥行き感を持たせる
処理を意味する。
The pseudo perspective transformation is a purely two-dimensional method (without using the three-dimensional depth value information) and uses a geometrical transformation means to give a pseudo depth feeling to an image. It means a process to have.

【0014】又、本発明において、画像合成手段が備え
ている擬似的な透視変換機能が、射影的正規化逆変換を
施す機能である場合には、合成されたテクスチャ画像と
その他の領域の間に、違和感のない極めて自然な奥行感
のある合成画像を制作することが可能となる。
Further, in the present invention, when the pseudo perspective transformation function provided in the image synthesizing means is a function for performing the projective normalization inverse transformation, the space between the synthesized texture image and another area is In addition, it is possible to produce a composite image with an extremely natural sense of depth without any discomfort.

【0015】以下、上記射影的正規化逆変換を詳細に説
明するが、初めにその基になる射影的正規化座標変換に
ついて説明する。なお、この座標変換については、例え
ば、「計算幾何学と地理情報処理」bit 別冊 共立出版
(1986)伊理正夫監修/腰塚武志編集、及び「数値
情報の基礎知識」(1981)建設省国土地理院地図情
報室編に詳説されている。
The projective normalized inverse transformation will be described in detail below. First, the projective normalized coordinate transformation which is the basis of the projective normalized inverse transformation will be described. Regarding this coordinate transformation, for example, "Computational Geometry and Geographic Information Processing" bit separate volume Kyoritsu Publishing (1986) edited by Masao Iri / edited by Takeshi Koshizuka, and "Basic Knowledge of Numerical Information" (1981) Geographical Survey of the Ministry of Construction It is explained in detail in the institution map information room.

【0016】射影的正規化座標変換は、航空写真の補正
等に適した座標変換であり、以下の特徴を有する。今、
四角形P1、P2、P3、P4の内部にP点があるとし
た場合、P1( x1 , y1 )をP1′(0,0)、P2
( x2 , y2 )をP2′(0,1)、P3( x3
y3 )をP3′(1,1)、P4( x4 , y4 )をP
4′(1,0)に移すような射影変換によってP(x ,
y )が移る点をP′(α,β)とするとき、この座標
(α,β)を射影的正規化座標と呼び、この座標を求め
るための射影変換を射影的正規化座標変換と定義する。
The projective normalized coordinate transformation is a coordinate transformation suitable for correcting aerial photographs and has the following features. now,
If there is a point P inside the quadrangles P1, P2, P3, and P4, P1 (x 1 , y 1 ) becomes P1 ′ (0, 0), P2
Let (x 2 , y 2 ) be P2 '(0, 1), P3 (x 3 ,
y 3 ) to P3 '(1,1) and P4 (x 4 , y 4 ) to P
P (x, by projective transformation that moves to 4 '(1,0)
When the point to which y) shifts is P '(α, β), this coordinate (α, β) is called projective normalized coordinate, and the projective transformation for obtaining this coordinate is defined as projective normalized coordinate transformation. To do.

【0017】Pi とPi ′(i =1,2,4)を対応付
ける射影変換は次の(1)式、(2)式で表わされる。
The projective transformation for associating Pi and Pi '(i = 1, 2, 4) is expressed by the following equations (1) and (2).

【0018】 x − x1 ={(1+c )( x4 − x1 )α+(1+d )( x2 − x1 )β} ÷(1+ cα+ dβ) ………(1) y − y1 ={(1+c )( y4 − y1 )α+(1+d )( y2 − y1 )β} ÷(1+ cα+ dβ) ………(2)[0018] x - x 1 = {(1 + c) (x 4 - x 1) α + (1 + d) (x 2 - x 1) β} ÷ (1+ cα + dβ) ......... (1) y - y 1 = { (1 + c) (y 4 - y 1) α + (1 + d) (y 2 - y 1) β} ÷ (1+ cα + dβ) ......... (2)

【0019】ここで、α=β=1のときに、x = x3
y = y3 となるようにc 、d を定めると次の(3)式、
(4)式となる。
Here, when α = β = 1, x = x 3 ,
If c and d are determined so that y = y 3 , the following equation (3),
Equation (4) is obtained.

【0020】[0020]

【数1】 [Equation 1]

【0021】 Δ1 =( x4 − x3 )( y2 − y3 )−( y4 − y3 )( x2 − x3 ) ………(4)Δ 1 = (x 4 −x 3 ) (y 2 −y 3 ) − (y 4 −y 3 ) (x 2 −x 3 ) ... (4)

【0022】前記(1)式、(2)式を(α,β)につ
いて解くと、次の(5)式、(6)式となる。
By solving the equations (1) and (2) for (α, β), the following equations (5) and (6) are obtained.

【0023】[0023]

【数2】 [Equation 2]

【0024】 Δ2 ={ x4 − x1 −c (x − x4 )}{ y2 − y1 −d (y − y2 )} −{ y4 − y1 −c (y − y4 )}{ x2 − x1 −d (x − x2 )} ………(6)Δ 2 = {x 4 −x 1 −c (x −x 4 )} {y 2 −y 1 −d (y −y 2 )} − {y 4 −y 1 −c (y −y 4 )} {x 2 - x 1 -d (x - x 2)} ......... (6)

【0025】即ち、P(x ,y )の射影的正規化座標
(α,β)は、(3)式、(4)式によってc 、d を求
め、次に(5)式、(6)式によって(α,β)を計算
することにより求めることができる。
That is, for the projective normalized coordinates (α, β) of P (x, y), c and d are obtained by the equations (3) and (4), and then the equations (5) and (6) are obtained. It can be calculated by calculating (α, β).

【0026】前記(3)式から明らかなように、c 、d
は四角形P1、P2、P3、P4によって決まり、それ
が平行四辺形のときにはc =d =0となる。
As is clear from the equation (3), c, d
Is determined by quadrangles P1, P2, P3, and P4, and when it is a parallelogram, c = d = 0.

【0027】1つの四辺形P1、P2、P3、P4を固
定して、多くのP(x ,y )の射影的正規化座標を求め
るときには、c 、d は予め計算しておくことができる。
When one quadrilateral P1, P2, P3, P4 is fixed and many projective normalized coordinates of P (x, y) are obtained, c and d can be calculated in advance.

【0028】本発明に適用される射影的正規化逆変換
は、上述した射影的正規化座標変換を逆に利用し、正規
化されている画像から歪みがかかった画像を得るための
座標変換である。
The projective normalization inverse transformation applied to the present invention is a coordinate transformation for obtaining a distorted image from a normalized image by reversely utilizing the above-mentioned projective normalization coordinate transformation. is there.

【0029】即ち、この射影的正規化逆変換は、正規化
されたパラメータα、β(0≦α≦1)、(0≦β≦
1)で表わされる座標値(α,β)が、任意の形状の四
辺形のどの位置に対応するかを以下のように求めるもの
である。
That is, this projective normalization inverse transformation is performed by using the normalized parameters α, β (0 ≦ α ≦ 1), (0 ≦ β ≦
The position to which the coordinate value (α, β) represented by 1) corresponds to a quadrilateral having an arbitrary shape is obtained as follows.

【0030】今、図1に示すような四辺形を考え、上記
正規化座標値(α,β)を射影的正規化逆変換して得ら
れる逆変換座標値(x ,y )は、前記(1)式、(2)
式から次の(7)式、(8)式として求められる。
Now, considering a quadrangle as shown in FIG. 1, the inverse transformed coordinate values (x, y) obtained by projective normalized inverse transformation of the normalized coordinate values (α, β) are the same as the above ( Formula 1), (2)
From the equations, the following equations (7) and (8) are obtained.

【0031】 x = x1 +{(1+c )( x4 − x1 )α+(1+d )( x2 − x1 )β} ÷(1+ cα+ dβ) ………(7) y = y1 +{(1+c )( y4 − y1 )α+(1+d )( y2 − y1 )β} ÷(1+ cα+ dβ) ………(8)X = x 1 + {(1 + c) (x 4 −x 1 ) α + (1 + d) (x 2 −x 1 ) β} ÷ ( 1 + cα + dβ) (7) y = y 1 + { (1 + c) (y 4 - y 1) α + (1 + d) (y 2 - y 1) β} ÷ (1+ cα + dβ) ......... (8)

【0032】上記(7)式、(8)式において、c 、d
は、射影的正規化座標変換の場合と同様に前記(3)
式、(4)式で与えられる。
In the above equations (7) and (8), c and d
Is the same as in the case of the projective normalized coordinate transformation (3)
Equation is given by equation (4).

【0033】次に、上述した射影的正規化逆変換の効果
を、地理情報処理で用いられる計測座標から正規化座標
を求める変換を逆に実行する透視変換(以下、正規化逆
変換と言う)を適用する場合と比較して具体的に説明す
る。
Next, the effect of the above-described projective normalization inverse transformation is a perspective transformation in which the transformation for obtaining the normalized coordinates from the measurement coordinates used in geographic information processing is executed in reverse (hereinafter referred to as the normalization inverse transformation). Will be specifically described in comparison with the case of applying.

【0034】今、図2(A)に示すように、縦に平行な
2辺を持った台形にとった原画像の貼込領域(パース指
定領域)Dに、同図(B)に示す格子状のテクスチャ画
像Tを貼り込むために、該テクスチャ画像Tにパース付
けをする場合を考える。
Now, as shown in FIG. 2 (A), a trapezoidal original image pasting area (perspective designation area) D having two sides parallel to each other is arranged in a grid shown in FIG. 2 (B). Consider a case where the texture image T is parsed in order to paste the texture image T.

【0035】図2(B)のテクスチャ画像Tに対するパ
ース付けを、上記正規化逆変換で行うと、図3に示すよ
うに縦方向には貼込領域の縦方向(上下方向)の長さに
対応してテスクチャの歪みをかけることができるが、横
方向(左右方向)は等間隔のままであるため、手前の方
が縮んだ印象を浮け、自然な奥行感が得られない。
When the texture image T of FIG. 2B is parsed by the above-mentioned normalization inverse transformation, the vertical direction (vertical direction) of the pasting area becomes vertical as shown in FIG. Although it is possible to apply the distortion of the texture correspondingly, since the lateral direction (horizontal direction) remains at equal intervals, the front side has a shrunken impression and a natural depth feeling cannot be obtained.

【0036】これに対し、上記射影的正規化逆変換を、
前記図2(A)に示したパース指定領域Dに貼り込む同
図(B)に示した格子状テクスチャ画像Tに適用する
と、図4に示すようなパース付けされたテクスチャ画像
Tを得ることができる。
On the other hand, the above projective normalization inverse transformation is
When applied to the lattice-shaped texture image T shown in FIG. 2B that is pasted in the perspective designated area D shown in FIG. 2A, a parsed texture image T as shown in FIG. 4 can be obtained. it can.

【0037】この図4に示したテクスチャ画像Tでは、
縦方向にパース指定領域の縦方向(上下方向)の長さに
対応したテクスチャの歪みがかかると共に、横方向(左
右方向)にも縦方向の歪みに応じた歪みをかけることが
できる。
In the texture image T shown in FIG. 4,
It is possible to apply texture distortion in the vertical direction corresponding to the length (vertical direction) of the perspective-designated area, and to apply distortion in the horizontal direction (horizontal direction) according to the vertical distortion.

【0038】従って、上記射影的正規化逆変換によれ
ば、画像編集作業において、上述した正規化座標変換を
テクスチャ画像に適用して得られる前記図3に示した変
換後のテクスチャ画像に比べ、一段と自然な奥行感を有
する合成画像を作成することが可能となることがわか
る。
Therefore, according to the projective normalized inverse transformation, as compared with the texture image after transformation shown in FIG. 3 obtained by applying the above-mentioned normalized coordinate transformation to the texture image in the image editing work, It can be seen that it is possible to create a composite image having a more natural depth feeling.

【0039】[0039]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0040】図5は、本発明に係る第1実施例の画像合
成装置の概略構成を示すブロック図である。
FIG. 5 is a block diagram showing the schematic arrangement of the image synthesizing apparatus of the first embodiment according to the present invention.

【0041】本実施例の画像合成装置は、画像入力装置
10と、画像領域指定装置12と、画像合成装置14
と、画像出力装置16とを備えている。
The image synthesizing apparatus according to the present embodiment includes an image input apparatus 10, an image area designating apparatus 12, and an image synthesizing apparatus 14.
And an image output device 16.

【0042】上記画像入力装置10は、原画像と、該原
画像と合成するためのテクスチャ画像とを入力する機能
を、又、画像領域指定装置12は、原画像の貼込領域
(パース指定領域)と、テクスチャ画像の使用領域と
を、それぞれ座標上の頂点を入力することにより指定す
る機能を備えている。
The image input device 10 has a function of inputting an original image and a texture image to be combined with the original image, and the image area designating device 12 has an original image pasting area (a perspective designating area). ) And the use area of the texture image are specified by inputting the vertices on the coordinates.

【0043】又、画像合成装置14は、画像入力装置1
0と画像領域指定装置12からデータを読み込み、その
データに基づいて原画像に指定されたパース指定領域に
対して窓領域を有するマスクを設定する機能を備えてい
ると共に、後に詳述する方法でテクスチャ画像に対して
射影的正規化逆変換を施し、変換後のテクスチャ画像と
原画像とを合成して、自然な奥行感のある画像合成を行
う機能を備えており、又、画像出力装置16は、合成後
の画像を、例えばファイルに出力する機能を備えてい
る。
The image synthesizing device 14 is the image input device 1.
0 and data is read from the image area designating device 12, and a function is provided for setting a mask having a window area for the perspective designated area designated in the original image based on the data, and by the method described in detail later. The texture output has a function of performing projective normalization inverse transformation and synthesizing the texture image after the transformation and the original image to synthesize an image with a natural sense of depth. Has a function of outputting the combined image to, for example, a file.

【0044】次に、本実施例の作用を、図6、図7に示
したフローチャートを用いて説明する。
Next, the operation of this embodiment will be described with reference to the flow charts shown in FIGS.

【0045】まず、画像入力装置10で、原画像とテク
スチャ画像を入力し(ステップ110)、入力した原画
像に対してパース指定領域を指定すると共に、テクスチ
ャ画像の使用領域を指定し、且つ原画像のパース指定領
域に対してマスクを設定する(ステップ112)。
First, the image input device 10 inputs an original image and a texture image (step 110), specifies a perspective designated area for the input original image, designates a used area of the texture image, and A mask is set for the perspective designated area of the image (step 112).

【0046】ここでは、図8に示すように、テクスチャ
画像Tに対して、画像合成に使用する領域を四辺形P
1′、P2′、P3′、P4′で定義し、該使用領域を
これら4つの頂点の座標で指定する。又、図9に示すよ
うに、このテクスチャ画像Tに対応する原画像G上のパ
ース指定領域Dを、四辺形P1、P2、P3、P4で定
義し、該指定領域Dを同様にこれら4つの頂点の座標で
指定する。
Here, as shown in FIG. 8, with respect to the texture image T, an area used for image synthesis is a quadrangle P.
1 ', P2', P3 ', P4', and the use area is specified by the coordinates of these four vertices. Further, as shown in FIG. 9, a perspective designated area D on the original image G corresponding to the texture image T is defined by quadrilaterals P1, P2, P3 and P4, and the designated area D is similarly defined by these four areas. Specify with the coordinates of the vertex.

【0047】次いで、原画像の1画素( x0 , y0 )に
対する射影的正規化座標変換による座標値(u ,v )を
求める(ステップ114)。この座標値(u ,v )は、
前述した射影的正規化座標変換をそのまま適用すること
により求めることができ、ここではパース指定領域Dの
四辺形P1、P2、P3、P4に対する射影的正規化座
標を求める。なお、座標(u ,v )は、前記(1)式、
(2)式における正規化座標値(α,β)に相当する。
Next, the coordinate value (u, v) is obtained by projective normalization coordinate conversion for one pixel (x 0 , y 0 ) of the original image (step 114). This coordinate value (u, v) is
It can be obtained by directly applying the above-mentioned projective normalized coordinate transformation. Here, the projective normalized coordinates for the quadrangle P1, P2, P3, P4 of the perspective designated area D are obtained. In addition, the coordinates (u, v) are expressed by the equation (1),
This corresponds to the normalized coordinate value (α, β) in the equation (2).

【0048】次いで、正規化座標値(u ,v )に対応す
るテクスチャ画像T上の座標値( x t , yt )を求める
(ステップ116)。この座標値( xt , yt )は、前
記(7)式、(8)式に、射影的正規化座標(α,β)
として上記(u ,v )を代入し、四辺形P1′、P
2′、P3′、P4′中の座標を求める計算を行うこと
によって求められる。このとき、射影的正規化座標で与
えられる四辺形P1′、P2′、P3′、P4′におけ
る絶対座標値を求める。
Then, the normalized coordinate value (u, v)
Coordinate value (x t, Yt) Ask
(Step 116). This coordinate value (xt, Yt) Is before
Note that the projective normalized coordinates (α, β) are added to the equations (7) and (8).
Substituting (u, v) as above, the quadrilaterals P1 ', P
Perform calculations to find the coordinates in 2 ', P3', P4 '
Required by. At this time, the projective normalized coordinates are given.
In the obtained quadrilateral P1 ', P2', P3 ', P4'
Calculate the absolute coordinate value.

【0049】次いで、原画像G上の座標( x0 , y0
の画素値をテクスチャ画像T上の座標( xt , yt )の
画素値で置換える(ステップ118)。
Next, the coordinates (x 0 , y 0 ) on the original image G
The pixel value of is replaced with the pixel value of the coordinate (x t , y t ) on the texture image T (step 118).

【0050】上記ステップ114〜118までの処理を
原画像のパース指定領域Dの全画素について実施する
(ステップ120)。
The above-mentioned steps 114 to 118 are carried out for all the pixels in the perspective designated area D of the original image (step 120).

【0051】上記ステップ114〜ステップ120まで
の処理は、テクスチャ画像Tの使用領域に対して射影的
正規化逆変換を施し、パース指定領域Dに対応するパー
ス付けがなされたテクスチャ画像Tの使用領域を該パー
ス指定領域Dに合成したことに相当する。
In the processing from step 114 to step 120, the use area of the texture image T which has been parsed corresponding to the perspective designated area D is obtained by subjecting the use area of the texture image T to projective normalization inverse transformation. Corresponds to the synthesis of the perspective designated area D.

【0052】以上の処理を実行した後、画像合成装置1
4から、画像出力装置16に対して作成された合成画像
を出力する。
After performing the above processing, the image synthesizing device 1
4 outputs the created composite image to the image output device 16.

【0053】以上詳述した本実施例によれば、原画像の
パース指定領域に対して所定形状の窓領域を有するマス
クを設定すると共に、テクスチャ画像の使用領域全体を
上記パース指定領域全体に対応付けて画像合成を行うこ
とにより、原画像に対して、そのパース指定領域に適切
にパース付けされたテクスチャ画像を貼り込むことが可
能となるため、合成領域(窓領域)の形状の如何に拘ら
ず、その形状に影響されることなく合成後のテクスチャ
画像が他の原画像領域との間で整合がとれた自然な奥行
感を有する合成画像を作成することが可能となる。
According to this embodiment described in detail above, a mask having a window area of a predetermined shape is set for the perspective designated area of the original image, and the entire usage area of the texture image corresponds to the entire perspective designated area. By adding and performing image composition, it is possible to paste a texture image that is appropriately parsed in the parse designated area to the original image, and therefore, regardless of the shape of the composition area (window area). In addition, it is possible to create a composite image having a natural sense of depth in which the texture image after composition is matched with other original image areas without being affected by its shape.

【0054】次に、図10に示す原画像Gに、前記図2
1に示したテクスチャ画像Tを合成する場合を例に、本
実施例を更に具体的に説明する。
Next, the original image G shown in FIG.
This embodiment will be described more specifically by taking the case of synthesizing the texture image T shown in FIG.

【0055】まず、前記フローチャートのステップ11
0で、画像入力装置10により図10の原画像Gと、図
21のテクスチャ画像Tとを入力し、ステップ112で
画像領域指定装置12により、前述した方法で図11に
示すように原画像Gに対するパース指定領域Dと、テク
スチャ画像Tの使用領域とを指定すると共に、図12に
示すように原画像Gのパース指定領域Dに対してマスク
Mを設定する。なお、ここでは、テクスチャ画像の使用
領域は入力したテクスチャ画像Tと同一サイズであり、
マスクMは前記図19に示した三角形の窓に相当する窓
領域を有している。
First, step 11 of the above flow chart.
At 0, the original image G of FIG. 10 and the texture image T of FIG. 21 are input by the image input device 10, and at step 112, the original image G as shown in FIG. 12 is specified, and the use area of the texture image T is specified, and the mask M is set for the perspective specified area D of the original image G as shown in FIG. Here, the used area of the texture image has the same size as the input texture image T,
The mask M has a window region corresponding to the triangular window shown in FIG.

【0056】次いで、上記原画像Gのパース指定領域D
とテクスチャ画像Tとについて、前記ステップ114〜
120の処理を実行することにより、該テクスチャTを
射影的正規化逆変換でパース付けすると共に、上記パー
ス指定領域Dに貼り込む。
Next, the perspective designated area D of the original image G is specified.
And the texture image T, the steps 114-
By executing the process of 120, the texture T is parsed by projective normalization inverse transformation and is also pasted in the parse designated region D.

【0057】以上の処理により、テクスチャ画像Tをパ
ース付けするための基準となるパース指定領域Dと、合
成領域を指定するためのマスクMとを、それぞれ独立に
設定できるため、テクスチャ画像Tに適切なパース付け
を行うと共に、それを所望形状に合成することが可能と
なる。その結果、図13に示すように、三角形の窓から
見える景色が自然な奥行感を持った状態の合成画像を制
作することが可能となる。なお、同図中二点鎖線はマス
クMに遮られたテクスチャ画像を示している。
By the above processing, the perspective designating area D serving as a reference for parsing the texture image T and the mask M for designating the composite area can be set independently of each other. It is possible to perform various parsing and synthesize the desired shape. As a result, as shown in FIG. 13, it is possible to produce a composite image in which the scenery seen from the triangular window has a natural sense of depth. The two-dot chain line in the figure shows the texture image shielded by the mask M.

【0058】次に、本発明に係る第2実施例の画像合成
装置を説明する。
Next, an image synthesizing apparatus according to the second embodiment of the present invention will be described.

【0059】本実施例の画像合成装置は、前記図2に示
した画像合成装置14が、原画像Gに指定されたパース
指定領域Dに対して複数の窓領域を有するマスクを設定
することができる機能を備えている以外は、前記第1実
施例の画像合成装置と実質的に同一である。
In the image synthesizing device of this embodiment, the image synthesizing device 14 shown in FIG. 2 can set a mask having a plurality of window regions for the perspective designated region D designated in the original image G. The image synthesizing apparatus is substantially the same as the image synthesizing apparatus according to the first exemplary embodiment except that the image synthesizing apparatus has the function.

【0060】本実施例の作用を、図14、図15のフロ
ーチャートを用いて説明する。なお、ここでは、前記第
1実施例に示した具体例と同様に、図10に示した原画
像Gに、図21に示したテクスチャ画像Tを合成する場
合を例に説明する。
The operation of this embodiment will be described with reference to the flowcharts of FIGS. 14 and 15. Note that, here, similar to the specific example shown in the first embodiment, the case where the texture image T shown in FIG. 21 is combined with the original image G shown in FIG. 10 will be described as an example.

【0061】まず、画像入力装置10により図10の原
画像Gと、図21のテクスチャ画像Tとを入力し(ステ
ップ130)、画像領域指定装置12により、図11に
示すように原画像Gに対するパース指定領域Dと、テク
スチャ画像Tの使用領域とを指定すると共に、図16に
示すように原画像Gのパース指定領域Dに対して、2つ
の窓領域を有するマスクMを設定する(ステップ13
2)。なお、本実施例では、テクスチャ画像の使用領域
及び原画像のパース指定領域の指定は、前記第1実施例
の場合と同様に各四辺形の頂点座標を用いて行うことが
できる。
First, the original image G of FIG. 10 and the texture image T of FIG. 21 are input by the image input device 10 (step 130), and the original image G is designated by the image area designating device 12 as shown in FIG. The perspective designated area D and the usage area of the texture image T are designated, and a mask M having two window areas is set for the perspective designated area D of the original image G as shown in FIG. 16 (step 13).
2). In this embodiment, the use area of the texture image and the purse designation area of the original image can be designated by using the vertex coordinates of each quadrangle as in the first embodiment.

【0062】次いで、図21のテクスチャ画像Tに、パ
ース指定領域Dに対応するパース付けが施されたテクス
チャ変形画像(図17のテクスチャ画像Tに相当する)
を想定し、該テクスチャ変形画像の1画素( x0
y0 )に対する射影的正規化座標変換による座標値(u
,v )を求める(ステップ134)。
Next, the texture image T shown in FIG. 21 is subjected to a perspective transformation corresponding to the perspective designated area D (a texture transformed image) (corresponding to the texture image T shown in FIG. 17).
And one pixel (x 0 ,
coordinate value by the projective normalization coordinate transformation for y 0) (u
, V) is obtained (step 134).

【0063】この座標値(u ,v )は、前記第1実施例
におけるステップ114の場合と同様に、前述した射影
的正規化座標変換をそのまま適用することにより求める
ことができる。即ち、テクスチャ変形画像の四辺形に対
する射影的正規化座標を求める。
The coordinate values (u, v) can be obtained by directly applying the above-described projective normalized coordinate transformation, as in the case of step 114 in the first embodiment. That is, the projective normalized coordinates for the quadrangle of the texture deformed image are obtained.

【0064】次いで、上記正規化座標値(u ,v )に対
応する、図21に示したテクスチャ画像T上の座標値
( xt , yt )を求める(ステップ136)。この座標
値( x t , yt )は、前記第1実施例のステップ136
の場合と同様に、前記(7)式、(8)式に、射影的正
規化座標(α,β)として上記(u ,v )を代入するこ
とにより求めることができる。
Then, the normalized coordinate values (u, v) are paired.
Corresponding coordinate values on the texture image T shown in FIG.
(Xt, Yt) Is obtained (step 136). This coordinate
Value (x t, Yt) Is the step 136 of the first embodiment.
As in the case of, the above equations (7) and (8)
Substituting (u, v) above as the normalized coordinates (α, β)
It can be obtained by and.

【0065】次いで、テクスチャ変形画像上の座標( x
0 , y0 )の画素値をテクスチャ画像上の座標( xt
yt )の画素値に設定する(ステップ138)。
Next, the coordinates (x
The pixel value of 0 , y 0 ) is the coordinate (x t ,
The pixel value of y t ) is set (step 138).

【0066】上述したステップ134〜138の処理を
テクスチャ変形画像の全画素について実施する(ステッ
プ140)。
The above-mentioned steps 134 to 138 are carried out for all the pixels of the texture-transformed image (step 140).

【0067】上記ステップ134〜140の処理は、ス
テップ132で指定した前記図21に示したテクスチャ
画像Tの使用領域に対して射影的正規化逆変換を施し、
図17に示したようなパース付けされたテクスチャ画像
(想定したテクスチャ変形画像)Tを作成したことに相
当する。
In the steps 134 to 140, the projective normalization inverse transformation is applied to the use area of the texture image T shown in FIG.
This is equivalent to creating a parsed texture image (assumed texture deformation image) T as shown in FIG.

【0068】以上の処理により図17に示したパース付
けされたテクスチャ画像Tを作成した後、前記図16に
示した原画像G中でマスクMが設定されているパース指
定領域Dに対して、上記テクスチャ画像Tをハードウエ
アによる画像合成機能を用いて合成し、図18に示すよ
うな合成画像を作成する(ステップ142)。その後、
作成された合成画像を画像合成装置14から画像出力装
置16へ出力する。
After the parsed texture image T shown in FIG. 17 is created by the above processing, the parse designated area D in which the mask M is set in the original image G shown in FIG. The texture image T is combined using the image combining function of hardware to create a combined image as shown in FIG. 18 (step 142). afterwards,
The created combined image is output from the image combining device 14 to the image output device 16.

【0069】以上詳述した本実施例によれば、原画像G
のパース指定領域Dに対して2つの窓領域を有するマス
クMを設定することにより、窓領域の間で連続的な画像
合成が可能となるため、例えば、2つの窓から通して見
られる窓越しの風景であれば、2つの窓の間で連続的
で、しかも自然な奥行感のある風景として表現すること
が可能となる。
According to this embodiment described in detail above, the original image G
By setting the mask M having two window regions for the perspective designated region D of, it is possible to continuously synthesize images between the window regions, and therefore, for example, through a window seen through two windows. With such a landscape, it is possible to represent a continuous landscape between two windows with a natural sense of depth.

【0070】又、前記第1実施例では、パース指定領域
の各画素に対して、パース指定領域内における射影的正
規化座標を求め、テクスチャ画像の使用領域内における
射影的正規化座標に対応する絶対座標を求めるという手
順を踏んだのに対し、本実施例によれば、テクスチャ画
像に対して事前に射影的正規化逆変換を適用し、該テク
スチャ画像をパース指定領域と同一の形に変形し、それ
を原画像に対して単純に合成するという手順を実施する
ことにより、前記第1実施例と実質的に等価な効果が得
られる。
In the first embodiment, the projective normalized coordinates in the perspective designated area are calculated for each pixel in the perspective designated area and correspond to the projective normalized coordinates in the usage area of the texture image. In contrast to the procedure of obtaining absolute coordinates, according to the present embodiment, the projective normalization inverse transformation is applied to the texture image in advance, and the texture image is transformed into the same shape as the perspective designated area. Then, by performing a procedure of simply synthesizing it with the original image, an effect substantially equivalent to that of the first embodiment can be obtained.

【0071】又、本実施例の合成過程ような幾何学的な
変形のない単純な画像合成は、高速画像合成が可能なハ
ードウエアを用いることにより容易に実現でき、又、特
にマスク処理も同時に行うことができるハードウエアを
用いることにより、マスキングも含めて高速な処理を実
現することが可能である。
Further, simple image composition without geometrical deformation like the composition process of the present embodiment can be easily realized by using hardware capable of high-speed image composition, and especially mask processing is also performed at the same time. It is possible to realize high-speed processing including masking by using the hardware that can be used.

【0072】以上、本発明について具体的に説明した
が、本発明は、前記実施例に示したものに限られるもの
でなく、その要旨を逸脱しない範囲で種々変更可能であ
る。
Although the present invention has been specifically described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention.

【0073】例えば、マスク領域に形成する窓領域の形
状は任意であり、又、その数も特に制限はなく、3以上
であってもよい。
For example, the shape of the window region formed in the mask region is arbitrary, and the number thereof is not particularly limited, and may be 3 or more.

【0074】又、テクスチャ画像に施す擬似的な透視変
換は、射影的正規化逆変換に限定されるものでなく、自
然な奥行感の点では劣るが、前述した正規化逆変換であ
ってもよい。
Further, the pseudo perspective transformation applied to the texture image is not limited to the projective normalization inverse transformation, and the natural depth feeling is inferior. Good.

【0075】[0075]

【発明の効果】以上説明した通り、本発明によれば、原
画像とテクスチャ画像を合成する際、原画像の合成領域
が如何なる形状であっても、その形状に影響されること
なく、該合成領域に貼り込んだテクスチャ画像と、原画
像のその他の領域の間で、違和感のない自然な奥行感の
ある合成画像を制作することができる。
As described above, according to the present invention, when synthesizing an original image and a texture image, no matter what shape the synthesis area of the original image is, the synthesis is performed without being affected by the shape. It is possible to produce a composite image having a natural sense of depth between the texture image pasted in the area and the other areas of the original image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に適用する射影的正規化逆変換の原理を
説明するための線図
FIG. 1 is a diagram for explaining the principle of projective normalization inverse transformation applied to the present invention.

【図2】パース指定領域と該パース指定領域に貼り込む
ためのテクスチャ画像を示す線図
FIG. 2 is a diagram showing a perspective designated area and a texture image to be pasted in the perspective designated area.

【図3】正規化逆変換が施されたテクスチャ画像を示す
線図
FIG. 3 is a diagram showing a texture image that has been subjected to normalized inverse transformation.

【図4】射影的正規化逆変換を施したテクスチャ画像を
示す線図
FIG. 4 is a diagram showing a texture image subjected to projective normalization inverse transformation.

【図5】本発明に係る第1実施例の画像合成装置の概略
構成を示すブロック図
FIG. 5 is a block diagram showing a schematic configuration of an image synthesizing apparatus according to the first embodiment of the present invention.

【図6】第1実施例の作用を説明するためのフローチャ
ート
FIG. 6 is a flowchart for explaining the operation of the first embodiment.

【図7】第1実施例の作用を説明するための他のフロー
チャート
FIG. 7 is another flowchart for explaining the operation of the first embodiment.

【図8】テクスチャ画像の使用領域を指定する方法を示
す線図
FIG. 8 is a diagram showing a method of designating a used area of a texture image.

【図9】原画像のパース指定領域を指定する方法を示す
線図
FIG. 9 is a diagram showing a method of designating a perspective designating area of an original image.

【図10】実施例で使用する原画像を示す線図FIG. 10 is a diagram showing an original image used in the example.

【図11】パース指定領域が指定された原画像を示す線
FIG. 11 is a diagram showing an original image in which a perspective designated area is designated.

【図12】パース指定領域にマスクが設定された原画像
を示す線図
FIG. 12 is a diagram showing an original image in which a mask is set in a perspective designated area.

【図13】原画像とテクスチャ画像を合成した合成画像
を示す線図
FIG. 13 is a diagram showing a composite image in which an original image and a texture image are composited.

【図14】第2実施例の作用を説明するためのフローチ
ャート
FIG. 14 is a flowchart for explaining the operation of the second embodiment.

【図15】第2実施例の作用を説明するための他のフロ
ーチャート
FIG. 15 is another flowchart for explaining the operation of the second embodiment.

【図16】パース指定領域にマスクが設定された原画像
を示す線図
FIG. 16 is a diagram showing an original image in which a mask is set in a perspective designated area.

【図17】射影的正規化逆変換が施されたテクスチャ画
像を示す線図
FIG. 17 is a diagram showing a texture image subjected to projective normalization inverse transformation.

【図18】原画像とテクスチャ画像を合成した合成画像
を示す線図
FIG. 18 is a diagram showing a composite image in which an original image and a texture image are composited.

【図19】三角形の窓が形成された原画像を示す線図FIG. 19 is a diagram showing an original image in which a triangular window is formed.

【図20】上記窓を正面から見た線図FIG. 20 is a diagram of the window viewed from the front.

【図21】テクスチャ画像の一例を示す線図FIG. 21 is a diagram showing an example of a texture image.

【図22】上記窓をパース指定領域として座標変換した
テクスチャ画像を原画像に合成した画像を示す線図
FIG. 22 is a diagram showing an image in which a texture image obtained by coordinate conversion using the window as a perspective designated area is combined with an original image.

【符号の説明】[Explanation of symbols]

10…画像入力装置 12…画像領域指定装置 14…画像合成装置 16…画像出力装置 G…原画像 D…パース指定領域 T…テクスチャ画像 M…マスク 10 ... Image input device 12 ... Image area designation device 14 ... Image synthesis device 16 ... Image output device G ... Original image D ... Perspective designation area T ... Texture image M ... Mask

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】原画像を入力する手段と、テクスチャ画像
を入力する手段と、原画像にテクスチャ画像を貼り込む
貼込領域を指定する手段と、原画像の貼込領域に対応す
るテクスチャ画像の使用領域を指定する手段と、原画像
の貼込領域にテクスチャ画像の使用領域を合成する画像
合成手段とを備えた画像合成装置において、 画像合成手段が、原画像の貼込領域に、少なくとも1つ
の窓領域を有するマスクを設定する機能と、テクスチャ
画像の使用領域に対して擬似的な透視変換を施す機能
と、を備えていることを特徴とする画像合成装置。
1. A means for inputting an original image, a means for inputting a texture image, a means for designating a pasting area for pasting a texture image on the original image, and a texture image for the pasting area of the original image. In an image synthesizing apparatus including means for designating a usage area and image synthesizing means for synthesizing a usage area for a texture image in a pasting area of an original image, the image synthesizing means sets at least 1 in the pasting area of the original image. An image synthesizing apparatus having a function of setting a mask having one window area and a function of performing a pseudo perspective transformation on a usage area of a texture image.
【請求項2】請求項1において、 画像合成手段が備えている擬似的な透視変換機能が、射
影的正規化逆変換を施す機能であることを特徴とする画
像合成装置。
2. The image synthesizing apparatus according to claim 1, wherein the pseudo perspective transformation function of the image synthesizing means is a function of performing projective normalization inverse transformation.
JP06234393A 1993-03-23 1993-03-23 Image synthesis device Expired - Fee Related JP3517256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06234393A JP3517256B2 (en) 1993-03-23 1993-03-23 Image synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06234393A JP3517256B2 (en) 1993-03-23 1993-03-23 Image synthesis device

Publications (2)

Publication Number Publication Date
JPH06274650A true JPH06274650A (en) 1994-09-30
JP3517256B2 JP3517256B2 (en) 2004-04-12

Family

ID=13197386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06234393A Expired - Fee Related JP3517256B2 (en) 1993-03-23 1993-03-23 Image synthesis device

Country Status (1)

Country Link
JP (1) JP3517256B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274649A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH0830194A (en) * 1994-07-11 1996-02-02 Mitsubishi Precision Co Ltd Method for forming geospecific texture
JPH08184952A (en) * 1994-12-29 1996-07-16 Dainippon Screen Mfg Co Ltd Plate composing processor
JPH08287225A (en) * 1995-04-17 1996-11-01 Toppan Printing Co Ltd Image simulation device
JPH0997350A (en) * 1995-09-29 1997-04-08 Canon Inc Method and device for information processing, and computer controller
JPH0997343A (en) * 1995-09-29 1997-04-08 Canon Inc Method and device for texture data generation and computer controller
JPH1079050A (en) * 1996-07-29 1998-03-24 Eastman Kodak Co Method for combining digital image
JP2001222275A (en) * 2000-02-08 2001-08-17 Akuseru:Kk Image mapping method
JP2004206672A (en) * 2003-05-20 2004-07-22 Namco Ltd Image processing system, program and information storage medium
JP2005293616A (en) * 2005-06-06 2005-10-20 Dainippon Printing Co Ltd Image synthesis device
JP2008515115A (en) * 2004-09-28 2008-05-08 クゥアルコム・インコーポレイテッド Perspective transformation of 2D images
WO2010113859A1 (en) * 2009-03-31 2010-10-07 シャープ株式会社 Video processing device, video processing method, and computer program
JP2016091558A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Information processing device, control method thereof, and program
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program
US11508029B2 (en) 2020-10-22 2022-11-22 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274649A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH0830194A (en) * 1994-07-11 1996-02-02 Mitsubishi Precision Co Ltd Method for forming geospecific texture
JPH08184952A (en) * 1994-12-29 1996-07-16 Dainippon Screen Mfg Co Ltd Plate composing processor
JPH08287225A (en) * 1995-04-17 1996-11-01 Toppan Printing Co Ltd Image simulation device
JPH0997350A (en) * 1995-09-29 1997-04-08 Canon Inc Method and device for information processing, and computer controller
JPH0997343A (en) * 1995-09-29 1997-04-08 Canon Inc Method and device for texture data generation and computer controller
JPH1079050A (en) * 1996-07-29 1998-03-24 Eastman Kodak Co Method for combining digital image
JP2001222275A (en) * 2000-02-08 2001-08-17 Akuseru:Kk Image mapping method
JP2004206672A (en) * 2003-05-20 2004-07-22 Namco Ltd Image processing system, program and information storage medium
US7295699B2 (en) 2003-05-20 2007-11-13 Namco Bandai Games Inc. Image processing system, program, information storage medium, and image processing method
JP2008515115A (en) * 2004-09-28 2008-05-08 クゥアルコム・インコーポレイテッド Perspective transformation of 2D images
JP2012104114A (en) * 2004-09-28 2012-05-31 Qualcomm Inc Perspective transformation of two-dimensional images
JP2005293616A (en) * 2005-06-06 2005-10-20 Dainippon Printing Co Ltd Image synthesis device
WO2010113859A1 (en) * 2009-03-31 2010-10-07 シャープ株式会社 Video processing device, video processing method, and computer program
JP2010238108A (en) * 2009-03-31 2010-10-21 Sharp Corp Device and method for processing video and computer program
JP2016091558A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Information processing device, control method thereof, and program
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program
US11508029B2 (en) 2020-10-22 2022-11-22 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP3517256B2 (en) 2004-04-12

Similar Documents

Publication Publication Date Title
JP3517256B2 (en) Image synthesis device
JP4097742B2 (en) Operation method of functional processor control machine
US7365744B2 (en) Methods and systems for image modification
JP3148045B2 (en) 3D object CG creation device
EP0726543B1 (en) Image processing method and apparatus therefor
JPH05143709A (en) Video effect device
WO2002013144A1 (en) 3d facial modeling system and modeling method
KR100317138B1 (en) Three-dimensional face synthesis method using facial texture image from several views
CN113808272B (en) Texture mapping method in three-dimensional virtual human head and face modeling
JP3538263B2 (en) Image generation method
JPH06274649A (en) Image synthesizer
JP4008686B2 (en) Texture editing apparatus, texture editing system and method
JPH06176129A (en) Computer graphic generation device
JP3285535B2 (en) Graphic operating system and shape synthesizing method for graphic system
JP3679347B2 (en) Pattern change simulation system
JP3002670B1 (en) House coordination support system and recording medium
JPH0935082A (en) Image processing method and image processor
JP3467572B2 (en) Map creation method and device
JPH03198167A (en) Method and device for deforming two-dimensional bit map image
JPH04165473A (en) Deformation device for 2-dimensional picture
JPH06176168A (en) Computer graphics preparing device
JPH04306782A (en) Picture synthesizer
JP2008217547A (en) Method of generating free eye point image
JP4087010B2 (en) Image processing device
Brooks et al. Integrating procedural textures with replicated image editing

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees