JPH03278095A - Device and method for synthesizing image - Google Patents
Device and method for synthesizing imageInfo
- Publication number
- JPH03278095A JPH03278095A JP2076645A JP7664590A JPH03278095A JP H03278095 A JPH03278095 A JP H03278095A JP 2076645 A JP2076645 A JP 2076645A JP 7664590 A JP7664590 A JP 7664590A JP H03278095 A JPH03278095 A JP H03278095A
- Authority
- JP
- Japan
- Prior art keywords
- image
- conditions
- lighting
- synthesized
- synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 7
- 238000000034 method Methods 0.000 title claims description 23
- 238000013507 mapping Methods 0.000 claims abstract description 24
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 18
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 18
- 239000007787 solid Substances 0.000 claims abstract description 13
- 238000000926 separation method Methods 0.000 claims description 6
- 238000001308 synthesis method Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract 5
- 238000005286 illumination Methods 0.000 description 20
- 239000002131 composite material Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 241001234891 Bletia purpurea Species 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 235000008331 Pinus X rigitaeda Nutrition 0.000 description 1
- 235000011613 Pinus brutia Nutrition 0.000 description 1
- 241000018646 Pinus brutia Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【発明の詳細な説明】
1産業上の利用分野1
本発明は、あらかじめ蓄積された画像を電子計算機を用
いて加工修正し、広告用画像、放送用画像、シュミレー
ション用画像などを作製するための、画像合成装置およ
び画像合成方法に関するものである。[Detailed Description of the Invention] 1. Field of Industrial Application 1. The present invention is a method for processing and correcting pre-stored images using a computer to create advertising images, broadcasting images, simulation images, etc. , relates to an image synthesis device and an image synthesis method.
[発明の概要]
従来から、自然画像を合成する手法として、クロマキー
やキーフレームにより対象物を切り出して背景画像と重
ね合せて表示する手法が実用化され、多(のCMフィル
ムやFSX映画等に利用されている。[Summary of the invention] Conventionally, as a method of synthesizing natural images, a method of cutting out an object using chroma key or key frame and displaying it by superimposing it on a background image has been put into practical use, and has been used in many commercial films, FSX movies, etc. It's being used.
しかし、これらの手法を利用するためには、ブルーバッ
クスタジオやミニチュア模型等を用意する必要があり、
さらに合成する二面面の視点の一致や照明条件の一致等
に高度の技術を要する。However, in order to use these methods, it is necessary to prepare a blue back studio, miniature models, etc.
Furthermore, advanced techniques are required to match the viewpoints of the two surfaces to be synthesized and to match the illumination conditions.
従って、実際にこの手法を利用したい場合には、コスト
や資材の制約から困難な場合が多く、より簡便な方法の
実現が期待されている。Therefore, when it is desired to actually use this method, it is often difficult due to cost and material constraints, and it is hoped that a simpler method will be realized.
そこで、本発明は、合成対象となる自然画像を被マツピ
ング立体と表面マツピングパターンに分離し、照明及び
視点条件に対して独立な三次元画像データを得たうえで
、コンピュータグラフィックスの手法を用いて、新たに
希望する任意の視点及び照明条件のもとて画像合成を行
なおうというものである。Therefore, the present invention separates a natural image to be synthesized into a three-dimensional object to be mapped and a surface mapping pattern, obtains three-dimensional image data that is independent of lighting and viewpoint conditions, and then applies computer graphics techniques. Using this technology, images can be synthesized under any newly desired viewpoint and illumination conditions.
本発明によれば、従来技術のように大規模な設備・機材
や高度の撮影技術を必要とせず、画像データベースなど
に蓄積されている既存の画像を利用し、これに上記の操
作をほどこすことにより、容易に目的に合った合成画像
を得ることができる。According to the present invention, existing images stored in an image database etc. are used and the above operations are applied to them, without requiring large-scale facilities/equipment or advanced photography techniques unlike the conventional technology. By doing so, it is possible to easily obtain a composite image that suits the purpose.
【従来の技術1
従来から画像合成を行うに際して、第3図に示されるよ
うに、背景となる情景36をビデオカメラ31で撮影し
て得られた背景となる画像33と、ブルーバック背景3
7を備えたスタジオて背景となる情景36と同じ条件と
なるように設置した照明装置38の前に合成の対象とな
る模型39を置き、ビデオカメラ32によって撮影する
ことにより得られた合成される画像34とを、単に平面
的に切りとり重ね合わせて、合成された画像35を得る
合成法が用いられてきた。[Prior art 1] Conventionally, when performing image synthesis, as shown in FIG. 3, a background image 33 obtained by photographing a background scene 36 with a video camera 31, and a blue background
A model 39 to be synthesized is placed in front of a lighting device 38 installed under the same conditions as the background scene 36, and the model 39 to be synthesized is photographed by a video camera 32. A compositing method has been used in which the image 34 is simply cut out two-dimensionally and superimposed to obtain a composite image 35.
この場合、合成する2つの画像の視点と照明の条件を合
わせるために、対象の模型39を作製するほか、色相に
より背景を分離するための大規模なスタジオ設備のもと
に、撮影技術者の視点や照明条件を合わせるための高度
な技術を駆使する必要があった。In this case, in order to match the viewpoint and lighting conditions of the two images to be combined, a model 39 of the object is created, and a camera technician uses large-scale studio equipment to separate the background by hue. It was necessary to use advanced technology to match viewpoints and lighting conditions.
]発明が解決しようとする課題1
従来の合成法によると、例えば第4図に示されるように
左から照明された机を上方視点より見た背景画像と、右
から照明された林檎を正面視点より撮影した画像と、を
合成した場合には、照明条件と視点条件が一致していな
い2つの画像同士を合成することになってしまい、不自
然な画像が得られることになる。] Problem 1 to be Solved by the Invention According to the conventional composition method, for example, as shown in FIG. If the two images are to be combined with an image taken from a different location, two images whose illumination conditions and viewpoint conditions do not match will be combined, resulting in an unnatural image.
従って、照明条件と視点条件の全く一致した画像を得る
必要がある。このような条件を常に満足するように、あ
らゆる視点および照明の条件に対応した画像を予め用意
しておくことは、不可能である。Therefore, it is necessary to obtain an image whose illumination conditions and viewpoint conditions completely match. It is impossible to prepare in advance images corresponding to all viewpoints and lighting conditions so as to always satisfy these conditions.
そこで、従来の技術の項で述べたように、対象となる模
型やスタジオ設備を用意し、撮影技術者の高度な技術を
駆使する必要があった。Therefore, as mentioned in the section on conventional technology, it was necessary to prepare a model and studio equipment to be used, and to make full use of the advanced skills of a photographer.
よって本発明の目的は、上述のような問題点を解決する
ために、合成すべき画像の照明条件と視点条件を合成の
目的に合わせて変換し、二つの画像を合成したときに全
く不自然さが生じないようにする画像合成装置および画
像合成方法を提供することにある。Therefore, in order to solve the above-mentioned problems, it is an object of the present invention to convert the illumination conditions and viewpoint conditions of images to be combined in accordance with the purpose of combining, so that when two images are combined, completely unnatural images may occur. An object of the present invention is to provide an image compositing device and an image compositing method that prevent image compositing from occurring.
【課題を解決するための手段1
本発明に係る画像合成装置は、与えられた視点と照明条
件のもとに撮影された2次元画像データを蓄積する画像
データベースと、前記データベースに蓄積された2次元
画像データの中から合成すべき画像を選択する選択手段
と、前記選択された合成対象を被マツピング立体とマツ
ピングパターンに分離する分離手段と、前記分離手段の
出力を導入し、新たに設定された照明条件と視点条件の
もとでの画像に再構成する再構成手段と、再構成された
画像と他の画像を重合わせて合成する合成手段とを具備
する。[Means for Solving the Problems 1] An image synthesis device according to the present invention includes an image database that stores two-dimensional image data photographed under given viewpoints and lighting conditions, and two-dimensional image data stored in the database. A selection means for selecting an image to be synthesized from dimensional image data, a separation means for separating the selected synthesis target into a solid to be mapped and a mapping pattern, and the output of the separation means are introduced and newly set. The image forming apparatus includes a reconstructing means for reconstructing an image under the specified illumination conditions and viewpoint conditions, and a synthesizing means for superimposing and synthesizing the reconstructed image and another image.
また本発明に係る画像合成方法は、合成すべき画像を選
択し、前記合成すべき画像をマツピングパターンと被マ
ツピング立体とに分離し、合成後の照明条件と視点条件
のもとでの画像をコンピュータグラフィックスの手法を
用いて生成し、視点の変更によって前記マツピングパタ
ーンの不足する部分について境界部分のパターンを延長
し、不自然に見える部分について修正を行い、背景画像
と合成するものである。Further, the image synthesis method according to the present invention selects images to be synthesized, separates the images to be synthesized into a mapping pattern and a solid to be mapped, and creates an image under illumination conditions and viewpoint conditions after synthesis. is generated using a computer graphics method, the boundary pattern is extended for the missing portion of the mapping pattern by changing the viewpoint, the unnatural-looking portion is corrected, and the image is combined with the background image. be.
[作 用]
本発明によれば、まず与えられた画像の照明条件の特殊
性が除かれ、照明条件に独立(無関係)なマツピングパ
ターン画像が得られる。またマツピングパターン画像張
りっけの対象となる被マツピング立体に対しては、視点
を自由に変更して、変更後の画像を得ることができる。[Function] According to the present invention, first, the particularity of the illumination conditions of a given image is removed, and a mapping pattern image that is independent (irrelevant) of the illumination conditions can be obtained. Furthermore, the viewpoint of the three-dimensional object to be mapped, which is the object of pasting the mapping pattern image, can be freely changed to obtain a changed image.
従って、照明および視点の変更に対して、自由に対応し
た画像生成することができる。このような操作を二つの
画像に施すことにより、任意の画像間について、照明と
視点の条件を一致させた画像合成を実現することができ
る。Therefore, it is possible to generate images that freely respond to changes in illumination and viewpoint. By performing such operations on two images, it is possible to realize image synthesis in which illumination and viewpoint conditions match between arbitrary images.
具体的には、第5図に示すように、まず前もって画像デ
ータベース22(第2図参照)内に蓄積しである画像2
3を利用することにより、模型の作製や現場へ出向いて
の現場撮影をしなくてもよいようにした。その時に問題
となる、照明と視点の条件の問題を解決するために、画
像中の対象物51を、表面の文様からなるマツピングパ
ターン53とマツピングパターンが張りつけられている
被マツピング立体52とに分離し、ある照明条件の下に
、ある視点から撮影されたものとし、その被マツピング
立体52を操作者27(第2図参照)の指示に従ってモ
デル化し、照明条件を考慮してマツピングパターン53
を電子計算機21(第2図参照)により推定する。Specifically, as shown in FIG. 5, first, image 2, which has been stored in the image database 22 (see FIG. 2) in advance, is
By using 3, there is no need to create a model or go to the site to take photographs. In order to solve the problems of illumination and viewpoint conditions that arise at that time, the object 51 in the image is divided into a mapping pattern 53 consisting of a pattern on the surface and a mapping target solid 52 to which the mapping pattern is pasted. The mapped solid 52 is modeled according to the instructions of the operator 27 (see FIG. 2), and a mapping pattern is created in consideration of the lighting conditions. 53
is estimated by the electronic computer 21 (see FIG. 2).
さらに第6図に示されるマツピングパターン62と被マ
ツピング立体61の組み合わせに対して、新たに設定さ
れた照明条件と視点条件のもとでの画像を計算し、それ
ぞれの画像を操作者の指示に従って重ね合わせることに
より、新しい再構成画像63を得ることとした。Furthermore, for the combination of the mapping pattern 62 and the mapped solid 61 shown in FIG. 6, images under newly set illumination conditions and viewpoint conditions are calculated, and each image is A new reconstructed image 63 is obtained by superimposing the images according to the following.
再構成画像63において、視点の変化に伴って、マツピ
ングパターンがカバーできない部分については、操作者
の指示のもとに、周辺のパターンを延長してカバーし、
不自然に見える部分がある場合は、操作者の操作により
修正を施すことにより、新しい照明条件のもとにおける
修正画像64を得ることができる。In the reconstructed image 63, as the viewpoint changes, parts that cannot be covered by the mapping pattern are covered by extending the surrounding patterns based on the operator's instructions.
If there are any parts that look unnatural, the operator can perform corrections to obtain a corrected image 64 under new lighting conditions.
【実施例1
以下、図面を参照して本発明の実施例を詳細に説明する
。[Embodiment 1] Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
第1図に示すように、机の写っている背景画像12と林
檎の写っている合成すべき画像11とを合成し、自然に
机の上に林檎が置かれているように合成された画像19
を得る場合の実施例を説明する。As shown in FIG. 1, a background image 12 showing a desk and an image to be combined 11 showing an apple are combined to create an image that looks like an apple placed naturally on the desk. 19
An example of obtaining the following will be described.
背景画像12においては照明は向かって右からさしてお
り、合成する林檎の画像13においては照明は向かって
左からさしている。In the background image 12, the lighting is shining from the right, and in the image 13 of an apple to be synthesized, the lighting is shining from the left.
また、背景画像12における机はかなり上方の視点から
撮影されており、合成すべき画像11においては、林檎
の真横の視点から撮影されている。Furthermore, the desk in the background image 12 is photographed from a viewpoint far above, and the image to be combined 11 is photographed from a viewpoint directly beside the apple.
従って、このまま画像を単純に重ねると、全(不自然な
画像となってしまう。Therefore, if the images are simply superimposed as is, the result will be an unnatural image.
そこで、背景画像の照明条件と視点条件に林檎の画像を
合わせて合成する場合を考える。そのために、先ず被マ
ツピング立体16とマツピングパターン15を分離する
。Therefore, let us consider a case where an image of an apple is synthesized by matching the illumination conditions and viewpoint conditions of the background image. To do this, first, the solid to be mapped 16 and the mapping pattern 15 are separated.
具体的な分離の手段の一例としては、第7図に示すよう
に、合成する林檎の画像13(第1図参照)に対して林
檎の3次元立体を輪郭線がこのオ檎と一致する疑似円筒
の集合と仮定し、被マツ1ング立体のワイヤフレームモ
デル71を設定する。As an example of a specific separation method, as shown in FIG. 7, for the image 13 of an apple to be synthesized (see FIG. 1), a pseudo three-dimensional apple whose outline matches that of the apple is created. Assuming that it is a collection of cylinders, a wire frame model 71 of the solid pine tree is set.
次にその上に−様な白地のパターンをマツビンゴした場
合の画像72をコンピュータ・クラフィッゴスの手法に
より計算する。このとき、被マツ1ング立体のワイヤフ
レームモデル71上の点(x、y) 0゜輝度Pxyと
輝度がPoの−様な白地のパターン鴫マツピングした場
合の画像72上の対応点(x’y°)、および、その点
の輝度Px ’ y ’を記憶してよ(。Next, an image 72 when a --like white background pattern is placed on top of it is calculated using the Computer Crafigos method. At this time, a point (x, y) on the wire frame model 71 of the solid to be mapped is a corresponding point (x' y°) and the brightness Px 'y' of that point (.
次に、合成する林檎の画像13(第1図参照)C画像上
の対応点の輝度Qxyに対して、マツピンクパターン上
の対応点の輝度Qx’y’をつぎの式によって算定する
。Next, the brightness Qx'y' of the corresponding point on the pine pink pattern is calculated using the following formula with respect to the brightness Qxy of the corresponding point on the apple image 13 (see FIG. 1) C image to be synthesized.
Qx ’ y ’ =Qxy*Po/Pxyこのマツピ
ングパターン画像と被マツピング立体に対して、背景画
像12(第1図参照)の照明条件と、背景画像12内の
机の上に自然に置かれた場合の林檎への視点条件とを与
えて、林檎の新しい見え方をコンピュータ・グラフィッ
クスの手法により計算する。その上で背景画像12の上
にこの計算結果の林檎画像を重ねると、自然な合成画像
が得られる。Qx ' y ' = Qxy * Po / Pxy For this mapping pattern image and the object to be mapped, the illumination conditions of the background image 12 (see Figure 1) and the natural position on the desk in the background image 12 are determined. Using computer graphics techniques, we calculate a new way of looking at the apple, given the viewpoint conditions for the apple. Then, by superimposing the apple image resulting from this calculation on the background image 12, a natural composite image is obtained.
この場合は、合成する林檎の画像13の照明と視点の条
件を背景画像12に合わせて合成した場合であるが、背
景画像12と合成する林檎の画像13の両方に、上記の
操作を加えて、全(新しい第3の視点および照明条件の
もとでの合成画像を作ることもできる。In this case, the illumination and viewpoint conditions of the apple image 13 to be combined are matched to the background image 12, but the above operations are applied to both the background image 12 and the apple image 13 to be combined. , a composite image under a new third viewpoint and lighting conditions can also be created.
第2図は本発明を実施するための装置構成例である。本
発明を実施するにあたっては、予めビデオカメラ28や
画像スキャナー29などの画像入力装置により入力され
た画像を、画像データベース22に蓄積しておく。操作
者27は、画像表示装置24を見ながら、操作用のキー
ボード25やマウス26を操作し、合成すべき画像を画
像データベース22に蓄積された画像23の中から選択
し1画像処理用の計算機21を用いて、上述した方法に
より画像合成を行う。FIG. 2 is an example of an apparatus configuration for implementing the present invention. In implementing the present invention, images inputted by an image input device such as a video camera 28 or an image scanner 29 are stored in the image database 22 in advance. The operator 27 selects an image to be synthesized from among the images 23 stored in the image database 22 by operating the operating keyboard 25 and mouse 26 while looking at the image display device 24, and selects an image to be synthesized from among the images 23 stored in the image database 22. 21, image synthesis is performed by the method described above.
第8図は、本発明の一実施例による画像合成プロセスの
概要を示すフローチャートである。本図に示されるよう
に、まず第一に、合成する画像を既存の画像データベー
スの中から選択する(ステップS1)。FIG. 8 is a flowchart outlining an image compositing process according to one embodiment of the present invention. As shown in this figure, first of all, an image to be synthesized is selected from an existing image database (step S1).
次に、この合成する画像を、照明条件と視点条件から独
立なマツピングパターンと被マツピング立体とに分離す
る(ステップS2)。Next, this image to be combined is separated into a mapping pattern and a solid to be mapped, which are independent of illumination conditions and viewpoint conditions (step S2).
次に、目的とする合成後の画像における照明条件と視点
条件を与え、その条件のもとでの画像をコンピュータグ
ラフィックスの手法を用いて生成する(ステップS3)
。Next, the illumination conditions and viewpoint conditions for the desired combined image are given, and an image under those conditions is generated using a computer graphics method (step S3).
.
次に、視点の変更によってマツピングパターンの不足す
る部分について境界部分のパターンを延長して、新しい
視点条件での可視部分の全体を完成する(ステップS4
)。Next, by changing the viewpoint, the boundary pattern is extended for the missing part of the mapping pattern to complete the entire visible part under the new viewpoint condition (step S4
).
次に、もし不自然に見える部分などがあれば、操作者の
マニュアル操作により修正する(ステップS5)。Next, if there are any parts that look unnatural, they are corrected by manual operation by the operator (step S5).
最後に、これらの操作によって得られた画像を背景画像
と合成する。(ステップS6)。Finally, the image obtained by these operations is combined with the background image. (Step S6).
【発明の効果1
本発明の実施により、従来技術のような大規模な設備や
機材と、高度な撮影技術を必要とせずに、容易に画像合
成が実施できる。Effects of the Invention 1 By implementing the present invention, image synthesis can be easily performed without requiring large-scale facilities and equipment and advanced photographing techniques as in the prior art.
また予め蓄積された画像データベースの中の、視点や照
明条件が完全には適合しない自然画像を活用し、画像合
成により目的に応じた新しい合成画像を作製することが
できることになる。Furthermore, by utilizing natural images in a pre-stored image database whose viewpoints and illumination conditions are not completely compatible, it is possible to create a new composite image according to the purpose through image synthesis.
以上の結果、これまでは画像合成が適用されなかった多
くの分野で画像合成が活用されるようになり、映像表現
の手段を豊富にすることができる。As a result of the above, image synthesis has come to be used in many fields where image synthesis has not been applied before, making it possible to enrich the means of image expression.
第1図は机の写っている背景画像12と林檎の写ってい
る合成する画像11とを合成し、自然に机の上に林檎が
置かれているように合成された画像19を得る場合の実
施例を示す図、
第2図は本発明による画像合成を実施するための装置構
成例を示すブロック図、
第3図は現地撮影による背景画像と模型を用いたスタジ
オ撮影による合成画像とを平面的に合成する従来技術に
よる画像合成法を示す図、第4図は左から照明された机
を上方の視点から見た背景画像と、右から照明された林
檎を正面からの視点より見た合成すべき画像とを、合成
した場合の不自然な合成画像の一例を示す図、第5図は
合成対象の画像から被マツピング立体と照明の影響を除
いたマツピングパターンへ分離する処理の一例を示す図
、
第6図は、分離された被マツピング立体と照明の影響を
除いたマツピングパターンに対して、新しい視点と照明
条件を与えて、新しいマツピング画像を生成し、さらに
不十分な部分を修正して、合成のための画像を生成する
過程を示す図、第7図は合成対象の画像に対して被マツ
ピング立体を与えて、照明の影響を除いたマツピンクパ
ターンを得るための照明補正処理を説明する図、第8図
は本発明の一実施例における画像合成プロセスを示すフ
ローチャートである。
11・・・合成する画像、
12・・・背景画像、
13・・・林檎の画像、
14・・・机、
15・・・マツピングパターン、
16・・・被マツピング立体、
19・・・合成された画像、
21・・・計算機、
22・・・画像データベース、
23・・・蓄積しである画像、
27・・・操作者、
28・・・ビテオカメラ、
29・・・画像スキャナー
31・・・ビテオカメラ、
32・・・ビテオカメラ、
33・・・背景となる画像、
34・・・合成される画像、
35・・・合成された画像。
36・・・背景となる情景、
37・・・ブルーパック背景、
38・・・照明装置、
39・・・模型、
51・・・対象物、
52・・・被マツピング立体、
53・・・マツピングパターン、
61・・・被マツピング立体、
62・・・マツピングパターン、
63・・・再構成画像、
64・・・修正画像、
71・・・ワイヤーフレームモデル。
第2図
第5図
第7図FIG. 1 shows a case where a background image 12 showing a desk and a composite image 11 showing an apple are combined to obtain a composite image 19 that looks like an apple is placed on the desk naturally. Figure 2 is a block diagram showing an example of the configuration of an apparatus for performing image synthesis according to the present invention; Figure 3 is a plan view of a background image taken on-site and a composite image taken in a studio using a model. Figure 4 shows a background image of a desk illuminated from the left viewed from above, and an apple illuminated from the right viewed from the front. Figure 5 shows an example of an unnatural composite image when the target image is combined with the target image. The diagram shown in Figure 6 shows that a new mapping image is generated by giving a new viewpoint and illumination conditions to the separated object to be mapped and the mapping pattern from which the influence of lighting has been removed, and the insufficient parts are further removed. A diagram showing the process of modifying and generating an image for compositing. Figure 7 shows the lighting correction to give a mapped solid to the image to be synthesized and obtain a pine pink pattern that removes the influence of lighting. FIG. 8, which is a diagram explaining the processing, is a flowchart showing the image synthesis process in one embodiment of the present invention. 11... Image to be synthesized, 12... Background image, 13... Apple image, 14... Desk, 15... Mapping pattern, 16... Three-dimensional object to be mapped, 19... Composition 21... Computer, 22... Image database, 23... Accumulated images, 27... Operator, 28... Video camera, 29... Image scanner 31... Video camera, 32... Video camera, 33... Background image, 34... Image to be combined, 35... Combined image. 36... Background scene, 37... Blue pack background, 38... Lighting device, 39... Model, 51... Target object, 52... Three-dimensional object to be mapped, 53... Pine Ping pattern, 61... Solid to be mapped, 62... Mapping pattern, 63... Reconstructed image, 64... Corrected image, 71... Wire frame model. Figure 2 Figure 5 Figure 7
Claims (1)
元画像データを蓄積する画像データベースと、 前記データベースに蓄積された2次元画像データの中か
ら合成すべき画像を選択する選択手段と、 前記選択された合成対象を被マッピング立体とマッピン
グパターンに分離する分離手段と、前記分離手段の出力
を導入し、新たに設定された照明条件と視点条件のもと
での画像に再構成する再構成手段と、 再構成された画像と他の画像を重合わせて合成する合成
手段と を具備したことを特徴とする画像合成装置。 2)合成すべき画像を選択し、 前記合成すべき画像をマッピングパターンと被マッピン
グ立体とに分離し、 合成後の照明条件と視点条件のもとでの画像をコンピュ
ータグラフィックスの手法を用いて生成し、 視点の変更によって前記マッピングパターンの不足する
部分について境界部分のパターンを延長し、 不自然に見える部分について修正を行い、背景画像と合
成する ことを特徴とする画像合成方法。[Claims] 1) An image database that stores two-dimensional image data taken under given viewpoints and lighting conditions; and an image to be synthesized from the two-dimensional image data stored in the database. a selection means for selecting the selected compositing target, a separation means for separating the selected synthesis target into a mapped solid and a mapping pattern, and an output of the separation means is introduced, and the output of the separation means is introduced and An image synthesizing device comprising: a reconstruction means for reconstructing an image into an image; and a synthesis means for superimposing and synthesizing the reconstructed image and another image. 2) Select images to be synthesized, separate the images to be synthesized into a mapping pattern and a three-dimensional object to be mapped, and use computer graphics techniques to generate images under the lighting and viewpoint conditions after synthesis. An image synthesis method characterized by: generating a pattern, extending a boundary pattern for a missing portion of the mapping pattern by changing the viewpoint, correcting a portion that looks unnatural, and compositing with a background image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2076645A JPH03278095A (en) | 1990-03-28 | 1990-03-28 | Device and method for synthesizing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2076645A JPH03278095A (en) | 1990-03-28 | 1990-03-28 | Device and method for synthesizing image |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03278095A true JPH03278095A (en) | 1991-12-09 |
Family
ID=13611129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2076645A Pending JPH03278095A (en) | 1990-03-28 | 1990-03-28 | Device and method for synthesizing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03278095A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6040836A (en) * | 1995-09-29 | 2000-03-21 | Fujitsu Limited | Modelling method, modelling system, and computer memory product of the same |
JP2011155680A (en) * | 2011-03-25 | 2011-08-11 | Casio Computer Co Ltd | Image processing apparatus and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59106071A (en) * | 1982-12-10 | 1984-06-19 | Matsushita Electric Ind Co Ltd | Generating device of synthesized picture |
JPS61237171A (en) * | 1985-04-12 | 1986-10-22 | Sony Corp | Image converter |
-
1990
- 1990-03-28 JP JP2076645A patent/JPH03278095A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59106071A (en) * | 1982-12-10 | 1984-06-19 | Matsushita Electric Ind Co Ltd | Generating device of synthesized picture |
JPS61237171A (en) * | 1985-04-12 | 1986-10-22 | Sony Corp | Image converter |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6040836A (en) * | 1995-09-29 | 2000-03-21 | Fujitsu Limited | Modelling method, modelling system, and computer memory product of the same |
JP2011155680A (en) * | 2011-03-25 | 2011-08-11 | Casio Computer Co Ltd | Image processing apparatus and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4925294A (en) | Method to convert two dimensional motion pictures for three-dimensional systems | |
US6084590A (en) | Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage | |
US8243123B1 (en) | Three-dimensional camera adjunct | |
EP1141893B1 (en) | System and method for creating 3d models from 2d sequential image data | |
US5737031A (en) | System for producing a shadow of an object in a chroma key environment | |
US20080246757A1 (en) | 3D Image Generation and Display System | |
US20070296721A1 (en) | Apparatus and Method for Producting Multi-View Contents | |
WO1998045813A9 (en) | Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage | |
JPH05143709A (en) | Video effect device | |
US12008708B2 (en) | Method and data processing system for creating or adapting individual images based on properties of a light ray within a lens | |
JP2000503177A (en) | Method and apparatus for converting a 2D image into a 3D image | |
WO1998045812A1 (en) | Integrating live/recorded sources into a three-dimensional environment for media productions | |
KR102032606B1 (en) | Machinima manufacturing method based on 3D Game Engine | |
CN112446939A (en) | Three-dimensional model dynamic rendering method and device, electronic equipment and storage medium | |
CN113132707A (en) | Method and system for dynamically superposing character and virtual decoration environment in real time | |
CN113112612A (en) | Positioning method and system for dynamic superposition of real person and mixed reality | |
CA2244467C (en) | Chroma keying studio system | |
JP2015076023A (en) | Image processor, stereoscopic data generation method, and program | |
KR101310216B1 (en) | Apparatus and method for converting color of images cinematograph | |
JPH03278095A (en) | Device and method for synthesizing image | |
JP2005258537A (en) | Three-dimensional model generating method and device and program and recording medium | |
US7127084B1 (en) | Method of creating digital composite files of superimposed images | |
JP3784104B2 (en) | Image synthesizer | |
KR101804844B1 (en) | Apparatus for generating cinemagraph and method thereof | |
JPH11261888A (en) | Composition system for television image |