JPH05183808A - Picture information input device and picture synthesizer device - Google Patents

Picture information input device and picture synthesizer device

Info

Publication number
JPH05183808A
JPH05183808A JP3347185A JP34718591A JPH05183808A JP H05183808 A JPH05183808 A JP H05183808A JP 3347185 A JP3347185 A JP 3347185A JP 34718591 A JP34718591 A JP 34718591A JP H05183808 A JPH05183808 A JP H05183808A
Authority
JP
Japan
Prior art keywords
depth
pixel
image
information
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3347185A
Other languages
Japanese (ja)
Inventor
Kiyoshi Maenobu
潔 前信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3347185A priority Critical patent/JPH05183808A/en
Publication of JPH05183808A publication Critical patent/JPH05183808A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To make it possible to synthesize a picture by rightly keeping a back and forth relation in a picture by making a photographing object into a model, arranging it in virtual spaces and operating the depth to the virtual object made into the model every picture element of photographing pictures of a camera based on the detection result of parameters such as the positions and directions, etc., of the camera at the time of photographing. CONSTITUTION:A scene modeling means 104 arranges a virtual object that a photographing object is made into a model by a shape modeling means 102 in virtual spaces. A camera 105 photographs a photographing object scene, and a camera parameter detection means 106 detects parameters such as the positions and directions, etc., of the camera 105 at the time of photographing and inputs the parameters in a picture element depth calculation means 107. Based on each parameter, the means 107 operates the depth to the virtual object when the virtual object is to be photographed by the camera 105 every picture element of a picture photographed by the camera 105. Thus, the picture of the means 102 can be synthesized by maintaining the back and forth realtion of an object in a picture kept rightly.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、合成画像を作成するた
めの画像情報を演算する画像情報入力装置、及び画像情
報を用いて複数の画像を合成する画像合成装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information input device for calculating image information for creating a composite image and an image composition device for composing a plurality of images using the image information.

【0002】[0002]

【従来の技術】従来、カメラなどから入力された複数の
画像を合成する技術として、クロマキーと呼ばれる方法
がある。クロマキーは放送における特殊効果技術の1つ
であり、2つのカメラで撮影した画像の一方に、もう一
方の画像をはめ込んだ合成画像を作成するための手法で
ある。クロマキーの原理については、例えば、「放送技
術双書 カラーテレビジョン」日本放送協会編(196
1年)pp.539〜540に詳しく示されている。
2. Description of the Related Art Conventionally, as a technique for synthesizing a plurality of images input from a camera or the like, there is a method called chroma key. Chroma key is one of special effect techniques in broadcasting, and is a method for creating a composite image in which one image captured by two cameras is fitted with the other image. The principle of chroma key is described in, for example, “Broadcasting Technology Sosho Color Television” edited by Japan Broadcasting Corporation (196
1 year) pp. 539-540.

【0003】クロマキーの原理を用いた、従来の画像合
成装置の例を図5に示す。図5において、合成の対象と
なる2つの画像401,402は、それら画像401,
402を一つの画像に合成する画像合成回路403に入
力され、合成された画像404を出力する。
FIG. 5 shows an example of a conventional image synthesizing device using the principle of chroma key. In FIG. 5, two images 401 and 402 to be combined are the images 401 and 402.
The image 402 is input to the image synthesizing circuit 403 that synthesizes the image 402 into one image, and the synthesized image 404 is output.

【0004】上記の画像合成回路403の動作について
説明すると、入力されてくる2つの画像401と402
の信号のうち、どちらか一方の画像の中の特定の色や信
号レベルをキーとし、そのキーを検出したときにその部
分の信号をもう一方の画像の信号で置き換え、画像を合
成して表示する。例えば画像401中の車の車体405
以外の部分(斜線部)406が同じ色、又は信号レベル
であるとき、それをキーとして画像の合成を行うと、画
像合成回路403は、画像401からキーとなる画像の
部分406の画素が入力された場合には、その部分の画
素をもう一方の画像402の対応する画素で置き換えて
出力し、車体の部分405の画素が入力された場合に
は、その画素をそのまま出力する。以上の処理を1フレ
ームについて行うことによって、車体405が手前にあ
って画像402を背景とする画像404が合成される。
The operation of the above image synthesizing circuit 403 will be described. Two input images 401 and 402 are input.
Of the signals of the above, a specific color or signal level in one of the images is used as a key, and when that key is detected, the signal of that part is replaced with the signal of the other image, and the images are combined and displayed. To do. For example, the car body 405 in the image 401.
When the portion (shaded portion) 406 other than the above has the same color or signal level and the images are combined using that as a key, the image combining circuit 403 inputs the pixels of the portion 406 of the image which is the key from the image 401. If that is the case, the pixel in that portion is replaced with the corresponding pixel in the other image 402 and output, and if the pixel in the portion 405 of the vehicle body is input, that pixel is output as is. By performing the above processing for one frame, the image 404 with the vehicle body 405 in front and the image 402 as the background is combined.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、以上の
ような従来の画像合成装置では、合成の対象としている
画像が色や信号レベルに関する情報だけしかもたず、奥
行きに関する情報をもっていないため、一方の画像を他
方の画像に対して、常に前に配置するか、常に後に配置
するかの、画像合成しかできなかった。例えば、図4
(a)および(b)に示すような2つの画像を合成する
とき、図4(c)に示すような合成ができなかった。即
ち、図4(a)の手前の建物と後ろの建物の間を、図4
(b)の車が通過していくような、2つの画像中の物体
が互いに入り組んで前後するような画像を、それらの物
体の前後関係を正しく保ちながら合成することができ
ず、不自然な画像しか得られないという課題がある。
However, in the conventional image synthesizing apparatus as described above, since the image to be synthesized has only the information on the color and the signal level and does not have the information on the depth, one image It was only possible to combine the images by always arranging in front of the other image or always arranging in the other image. For example, in FIG.
When synthesizing two images as shown in (a) and (b), synthesizing as shown in FIG. 4 (c) could not be performed. That is, the space between the front building and the back building in FIG.
It is not possible to synthesize an image in which the objects in the two images are intertwined with each other, such as the car passing through in (b), while maintaining the front-rear relationship of those objects, which is unnatural. There is a problem that only images can be obtained.

【0006】本発明は、従来のこのような課題を考慮
し、画像中の物体の前後関係を正しく保存したまま合成
を行うために必要な奥行きに関する情報を演算して出力
する画像情報入力装置、及び奥行き情報をもつ複数個の
画像を画像中の物体の前後関係を正しく保ちながら合成
する画像合成装置とを提供することを目的とするもので
ある。
In consideration of the above-mentioned problems of the prior art, the present invention calculates an image information input device for outputting information related to depth necessary for performing composition while correctly storing the front-back relation of objects in an image, Another object of the present invention is to provide an image synthesizing device for synthesizing a plurality of images having depth information while properly maintaining the front-back relation of objects in the images.

【0007】[0007]

【課題を解決するための手段】請求項1の本発明は、撮
像装置により撮影される撮影対象物をモデル化した仮想
対象物を、撮影対象物の配置と実質上同じに、仮想空間
に配置させるシーンモデリング手段と、撮影対象物の撮
影時の撮像装置の位置、方向、画角、焦点距離などのパ
ラメータを検出するパラメータ検出手段と、そのパラメ
ータ検出手段によって検出されたパラメータに基づき、
仮想空間に配置された仮想対象物を撮像装置で撮影する
としたときの、撮像装置から仮想対象物までの奥行き
を、撮像装置で撮影された画像の画素毎に演算する奥行
き演算手段とを備えた画像情報入力装置である。
According to a first aspect of the present invention, a virtual object which is a model of a photographing object photographed by an image pickup device is arranged in a virtual space in substantially the same arrangement as the photographing object. Based on the parameters detected by the parameter modeling means for detecting parameters such as scene modeling means for making, the position, direction, angle of view, focal length and the like of the image pickup device at the time of photographing the object to be photographed,
And a depth calculation means for calculating the depth from the image pickup device to the virtual object when the virtual object placed in the virtual space is taken by the image pickup device, for each pixel of the image taken by the image pickup device. It is an image information input device.

【0008】請求項2の本発明は、複数の画像の、対応
する画素の奥行き情報を入力し、その奥行き情報の奥行
きを比較する奥行き比較手段と、複数の画像の、画素の
画素情報を入力し、奥行き比較手段の比較結果に応じ
て、最も小さい奥行きに対応する画素を選択し、その選
択された画素の画素情報を出力する画素選択手段とを備
えた画像合成装置である。
According to the present invention of claim 2, the depth information of the pixels corresponding to a plurality of images is input, and the depth comparison means for comparing the depths of the depth information and the pixel information of the pixels of the plurality of images are input. An image synthesizing apparatus is provided with a pixel selecting unit that selects a pixel corresponding to the smallest depth according to the comparison result of the depth comparing unit and outputs pixel information of the selected pixel.

【0009】請求項4の本発明は、複数の画像の、対応
する画素の奥行き情報を入力し、その奥行き情報の奥行
きを比較する奥行き比較手段と、複数の画像の、画素の
画素情報を入力し、奥行き比較手段の比較結果に応じ
て、最も小さい奥行きに対応する画素を選択し、その選
択された画素の画素情報を出力する画素選択手段と、そ
の最も小さい奥行きを選択された画素の奥行き情報とし
て出力する奥行き選択手段とを備えた画像合成装置であ
る。
According to a fourth aspect of the present invention, the depth information of the pixels corresponding to a plurality of images is input, and the depth comparison means for comparing the depths of the depth information and the pixel information of the pixels of the plurality of images are input. Then, according to the comparison result of the depth comparing means, a pixel selecting means for selecting a pixel corresponding to the smallest depth and outputting pixel information of the selected pixel, and a depth of the pixel for which the smallest depth is selected. The image synthesizing device includes a depth selecting unit that outputs the information.

【0010】[0010]

【作用】請求項1の本発明は、シーンモデリング手段
が、撮影対象物をモデル化した仮想対象物を、仮想空間
に撮影対象物の配置と実質上同じに配置し、パラメータ
検出手段が、撮影対象物の撮影時の撮像装置の位置、方
向、画角、焦点距離などのパラメータを検出し、奥行き
演算手段が、パラメータ検出手段によって検出されたパ
ラメータに基づき、仮想空間に配置された仮想対象物を
撮像装置で撮影するとしたときの、撮像装置から仮想対
象物までの奥行きを、撮像装置で撮影された画像の画素
毎に演算する。
According to the present invention of claim 1, the scene modeling means arranges the virtual object modeling the object to be photographed in the virtual space in substantially the same manner as the arrangement of the object to be photographed, and the parameter detecting means takes the image. A virtual object placed in a virtual space by detecting parameters such as the position, direction, angle of view, and focal length of the imaging device when the object is photographed, and the depth calculation means based on the parameters detected by the parameter detection means. The depth from the image capturing device to the virtual object when the image is captured by the image capturing device is calculated for each pixel of the image captured by the image capturing device.

【0011】請求項2の本発明は、奥行き比較手段が、
入力された複数の画像の、対応する画素の奥行き情報の
奥行きを比較し、画素選択手段が、奥行き比較手段の比
較結果に応じて、入力された複数の画像の、画素情報の
画素から最も小さい奥行きに対応する画素を選択し、そ
の選択された画素の画素情報を出力して、複数の画像を
合成する。
According to the present invention of claim 2, the depth comparing means comprises:
The depths of the depth information of the corresponding pixels of the plurality of input images are compared, and the pixel selection unit is the smallest from the pixels of the pixel information of the plurality of input images according to the comparison result of the depth comparison unit. A pixel corresponding to the depth is selected, pixel information of the selected pixel is output, and a plurality of images are combined.

【0012】請求項4の本発明は、奥行き比較手段が、
入力された複数の画像の、対応する画素の奥行き情報の
奥行きを比較し、画素選択手段が、奥行き比較手段の比
較結果に応じて、入力された複数の画像の、画素情報の
画素から最も小さい奥行きに対応する画素を選択し、そ
の選択された画素の画素情報を出力し、奥行き選択手段
が、選択された画素の奥行き情報を出力して、複数の画
像を合成する。
According to the present invention of claim 4, the depth comparing means comprises:
The depths of the depth information of the corresponding pixels of the plurality of input images are compared, and the pixel selection unit is the smallest from the pixels of the pixel information of the plurality of input images according to the comparison result of the depth comparison unit. The pixel corresponding to the depth is selected, the pixel information of the selected pixel is output, and the depth selection unit outputs the depth information of the selected pixel to synthesize a plurality of images.

【0013】[0013]

【実施例】以下に、本発明をその実施例を示す図面に基
づいて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings showing its embodiments.

【0014】図1は、請求項1の本発明にかかる一実施
例の画像情報入力装置の構成を示すブロック図である。
すなわち、撮影対象となる物体(以下、撮影対象物と略
す)の形状に関する情報101は、撮影対象物を仮想対
象物にモデル化する形状モデリング手段102に入力さ
れ、形状モデリング手段102の出力は、撮影対象物の
シーン中における配置に関する情報103とともに、仮
想空間に仮想対象物を配置するシーンモデリング手段1
04に入力されている。
FIG. 1 is a block diagram showing the arrangement of an image information input apparatus according to the first embodiment of the present invention.
That is, the information 101 on the shape of the object to be imaged (hereinafter, abbreviated as an object to be imaged) is input to the shape modeling means 102 that models the object to be imaged into a virtual object, and the output of the shape modeling means 102 is A scene modeling means 1 for arranging a virtual object in a virtual space together with information 103 on the arrangement of the object to be photographed in the scene.
Has been entered in 04.

【0015】他方撮像装置であるカメラ105からは、
撮影された撮影対象物の画像110が出力され、その時
のカメラ105の位置、方向、画角、焦点距離などのカ
メラに関するパラメータは、カメラパラメータ検出手段
(パラメータ検出手段)106によって検出される。そ
の検出結果は、シーンモデリング手段104の出力とと
もに、撮影された画像の画素毎にその奥行きを演算する
画素奥行き算出手段(奥行き演算手段)107に入力さ
れる。画素奥行き算出手段107からは、計算によって
生成された仮想対象物の画像108、及び撮影された画
像の画素毎の奥行き109を出力する。
On the other hand, from the camera 105, which is an image pickup device,
An image 110 of the photographed object is output, and parameters relating to the camera such as the position, direction, angle of view, and focal length of the camera 105 at that time are detected by the camera parameter detection means (parameter detection means) 106. The detection result is input to a pixel depth calculation unit (depth calculation unit) 107 that calculates the depth of each pixel of the captured image together with the output of the scene modeling unit 104. The pixel depth calculation means 107 outputs the image 108 of the virtual object generated by the calculation and the depth 109 for each pixel of the captured image.

【0016】次に上記実施例の動作について説明する。Next, the operation of the above embodiment will be described.

【0017】まず、撮影対象物の寸法などの外形状に関
する情報101は図示されていない手段によって予め測
定され、形状モデリング手段102に入力される。形状
モデリング手段102は入力された形状に関する情報1
01を用いて、その撮影対象物を仮想対象物にモデル化
するために、その形状を多角形板や球体などの簡単な幾
何学形状プリミティブ(の集合)で近似する。近似の精
度は最終的に算出される奥行きの精度に影響するため、
奥行きの値の用途に応じて精度を調整する。形状モデリ
ング手段102によってモデル化された仮想対象物は、
シーンモデリング手段104によって、図示されない手
段により測定されたシーン中における各撮影対象物の配
置に関する情報103を用いて仮想的な3次元空間中
に、実際の撮影対象物の配置と同じ位置関係になるよう
に配置される。
First, the information 101 on the outer shape such as the size of the object to be photographed is measured in advance by means not shown and input to the shape modeling means 102. The shape modeling means 102 uses the input information about the shape 1
In order to model the object to be photographed into a virtual object using 01, the shape is approximated by (a set of) simple geometric shape primitives such as a polygonal plate and a sphere. Since the accuracy of the approximation affects the accuracy of the finally calculated depth,
Adjust the accuracy according to the usage of the depth value. The virtual object modeled by the shape modeling means 102 is
The scene modeling unit 104 uses the information 103 about the placement of each shooting target in the scene measured by a unit (not shown) to have the same positional relationship as the actual placement of the shooting target in the virtual three-dimensional space. Is arranged as.

【0018】一方、カメラ105は撮影対象となるシー
ンを撮影し、その撮影された画像110を出力する。カ
メラパラメータ検出手段106は、カメラ105で画像
110を撮影したときのカメラ105の位置や方向や焦
点距離や画角などのパラメータを検出し、画素奥行き算
出手段107に送る。画素奥行き算出手段107は、入
力されたカメラパラメータを用いて、実際にカメラ10
5で撮影したときと同じ条件のもとで、シーンモデリン
グ手段104によって仮想空間に配置された仮想対象物
を含むシーンの画像108を計算によって生成する。こ
の場合計算によって生成される画像108は必ずしも外
部に出力される必要はない。画素奥行き算出手段107
は画像108を生成する際に、撮影された画像の画素に
対応する画像108の各画素毎に、その画素の方向に見
えている最もカメラに近い仮想対象物までの奥行きを計
算し、実際に撮影された画像110の対応する各画素毎
の奥行き109として出力する。
On the other hand, the camera 105 photographs a scene to be photographed and outputs the photographed image 110. The camera parameter detection unit 106 detects parameters such as the position and direction of the camera 105, the focal length, and the angle of view when the image 105 is captured by the camera 105, and sends the parameters to the pixel depth calculation unit 107. The pixel depth calculation means 107 actually uses the input camera parameters to actually use the camera 10
An image 108 of a scene including a virtual object arranged in the virtual space is generated by the scene modeling unit 104 by calculation under the same conditions as when the image was captured in 5. In this case, the image 108 generated by calculation does not necessarily have to be output to the outside. Pixel depth calculation means 107
When the image 108 is generated, for each pixel of the image 108 corresponding to the pixel of the captured image, the depth to the virtual object closest to the camera seen in the direction of the pixel is calculated, and It is output as the depth 109 for each corresponding pixel of the captured image 110.

【0019】このようにして、実際にカメラ105によ
って撮影された画像110とその画像110の各画素に
写されている物体までの奥行き109を出力することが
できる。
In this manner, the image 110 actually photographed by the camera 105 and the depth 109 to the object imaged in each pixel of the image 110 can be output.

【0020】ここで、シーンモデリング手段104によ
って仮想空間中に配置された幾何学形状プリミティブか
ら、計算によって画像108を生成する方法について説
明する。この方法としては、通常の3次元コンピュータ
グラフィックスにおける画像生成手法を応用できる。3
次元コンピュータグラフィックスにおける画像生成の処
理の流れの一例を図2に示す。最初、仮想空間中の幾何
学形状プリミティブの配置はカメラ105の位置とは独
立な絶対的な座標空間(これをワールド座標空間と呼
ぶ)で表現される。カメラ105のワールド座標空間に
おける位置と方向が決まると、視野変換処理201によ
ってカメラ105の位置を原点とする座標空間(これを
視点座標空間)に変換される。次に、カメラの焦点距離
や画角が決まると、透視変換処理202によって幾何学
形状プリミティブは透視座標空間に変換される。なお、
視野変換処理201および透視変換処理202は一般に
行列とベクトルの乗算で求められ、2つの変換処理20
1と202で用いられる変換行列を連結して、ひとつの
処理としてまとめて行うこともできる。次に、透視座標
空間に変換された幾何学形状プリミティブを画像を投影
するためのスクリーンに投影する。このときスクリーン
中の同一の画素に複数の幾何学形状プリミティブが投影
される場合がある。このような場合には隠れ面除去処理
203によって、スクリーン中のその画素の方向に見え
るすべての幾何学形状プリミティブまでの奥行き(距
離)をそれぞれ算出して、これらを比較して最もカメラ
105に近い奥行きをもつ幾何学形状プリミティブから
得られる画像をその画素における画像とする。これらの
座標の変換や隠れ面除去の処理の具体的な実現方法は、
例えば、「コンピュータ・グラフィックス」今宮淳美
訳、日本コンピュータ協会(1984年)などにいくつ
か詳しく述べられている。
Here, a method of generating the image 108 from the geometric shape primitives arranged in the virtual space by the scene modeling means 104 will be described. As this method, an image generation method in ordinary three-dimensional computer graphics can be applied. Three
FIG. 2 shows an example of the flow of image generation processing in three-dimensional computer graphics. First, the arrangement of the geometric shape primitives in the virtual space is expressed in an absolute coordinate space (called a world coordinate space) independent of the position of the camera 105. When the position and the direction of the camera 105 in the world coordinate space are determined, the visual field conversion processing 201 converts the position of the camera 105 into the coordinate space (this is the viewpoint coordinate space). Next, when the focal length and the angle of view of the camera are determined, the geometric transformation primitive 202 is transformed into the perspective coordinate space by the perspective transformation processing 202. In addition,
The visual field conversion process 201 and the perspective conversion process 202 are generally obtained by multiplication of a matrix and a vector, and are converted into two conversion processes 20.
It is also possible to concatenate the conversion matrices used in 1 and 202 and perform them collectively as one process. Next, the geometric shape primitive converted into the perspective coordinate space is projected on a screen for projecting an image. At this time, a plurality of geometric shape primitives may be projected on the same pixel on the screen. In such a case, the hidden surface removal processing 203 calculates the depths (distances) to all geometric shape primitives that are visible in the direction of the pixel on the screen, and compares them to be closest to the camera 105. The image obtained from the geometric primitive with depth is the image at that pixel. The concrete realization method of the conversion of these coordinates and the processing of hidden surface removal is
For example, it is described in some detail in "Computer Graphics," translated by Atsumi Imamiya, Japan Computer Association (1984).

【0021】なお、上記実施例の画素奥行き算出手段1
07では視野変換、透視変換、隠れ面除去処理を経て奥
行きを算出する方法を用いる場合について説明したが、
奥行きの算出手段はこの方法に限らず、例えば同様に3
次元コンピュータグラフィックスにおける画像生成手法
として公知の技術である「視線探索法(またはレイトレ
ーシング法)などを用いて、座標変換などの処理を経る
ことなく解析的に直接計算してもよい。
The pixel depth calculating means 1 of the above embodiment
In 07, the case of using the method of calculating the depth through the view conversion, perspective conversion, and hidden surface removal processing has been described.
The depth calculation means is not limited to this method, and for example, 3
It is also possible to use analytical techniques such as "line-of-sight search method (or ray tracing method)", which is a known technique as an image generation method in three-dimensional computer graphics, without performing processing such as coordinate conversion.

【0022】図3(a)は、請求項2の本発明の画像合
成装置の構成を示すブロック図であり、図3(b)は請
求項4の本発明の画像合成装置の構成を示すブロック図
である。なお、図3(a)と図3(b)において同じ番
号を付した構成要素は同一のものである。本実施例では
3つの画像を合成するような画像合成装置について図示
している。すなわち、図3(a)においては、合成の対
象となる第1の画像の画素301、第2の画像の画素3
03、及び第3の画像の画素305のそれぞれの画素情
報は、最もカメラに近い画素を選択する画素選択手段3
09に入力され、前述の第1の画像の画素に対応する奥
行き302、第2の画像の画素に対応する奥行き30
4、及び第3の画像の画素に対応する奥行き306のそ
れぞれの奥行き情報は、それらの奥行きを比較する奥行
き比較手段307に入力されている。その奥行き比較手
段307の比較結果の信号308は画素選択手段309
に出力され、画素選択手段309から選択された画素の
画素情報310が出力される。
FIG. 3A is a block diagram showing the configuration of the image synthesizing apparatus of the present invention according to claim 2, and FIG. 3B is a block diagram showing the configuration of the image synthesizing apparatus of the present invention according to claim 4. It is a figure. 3A and FIG. 3B have the same components with the same numbers. In this embodiment, an image synthesizing device for synthesizing three images is shown. That is, in FIG. 3A, the pixel 301 of the first image and the pixel 3 of the second image to be combined are displayed.
03 and the pixel information of each of the pixels 305 of the third image, the pixel selection unit 3 that selects the pixel closest to the camera.
09, the depth 302 corresponding to the pixel of the first image and the depth 30 corresponding to the pixel of the second image described above.
The depth information of each of the depths 306 corresponding to the pixels of the fourth image and the third image is input to the depth comparison unit 307 that compares the depths. The signal 308 of the comparison result of the depth comparing means 307 is the pixel selecting means 309.
The pixel information 310 of the pixel selected by the pixel selection unit 309 is output.

【0023】図3(b)においては、前述の図3(a)
の場合に加えて、第1の画像の画素に対応する奥行き3
02、第2の画像の画素に対応する奥行き304、及び
第3の画像の画素に対応する奥行き306のそれぞれの
奥行き情報が、選択された画素に対応する奥行きを選択
する奥行き選択手段311に入力され、その奥行き選択
手段311からその奥行き情報312が出力される。
In FIG. 3B, the above-mentioned FIG.
And the depth 3 corresponding to the pixels of the first image
02, depth information 304 corresponding to the pixels of the second image, and depth information 306 corresponding to the pixels of the third image are input to the depth selection means 311 that selects the depth corresponding to the selected pixel. Then, the depth selection means 311 outputs the depth information 312.

【0024】次に上記実施例の動作について説明する。Next, the operation of the above embodiment will be described.

【0025】上記実施例のうち、図3(a)に示した請
求項2に記載の画像合成装置の実施例では、構成要素3
11と312がないことを除いて図3(b)に示した請
求項3に記載の画像合成装置と同じ構成であるため、動
作の説明は図3(b)を用いて、請求項3に記載の画像
合成装置についてのみ行い、図3(a)に示した請求項
2に記載の画像合成装置の実施例の動作の説明は省略す
る。
Of the above embodiments, in the embodiment of the image synthesizing apparatus according to claim 2 shown in FIG.
Since the image synthesizing apparatus has the same configuration as that of the image synthesizing apparatus according to claim 3 shown in FIG. 3B except that there are no 11 and 312, the description of the operation will be given with reference to FIG. Only the described image synthesizing device is performed, and the description of the operation of the embodiment of the image synthesizing device according to claim 2 shown in FIG. 3A is omitted.

【0026】まず、第1から第3までの画像の画素30
1、303、305の画素情報は各画像の対応する画素
位置毎に1画素ずつ画素選択手段309に入力される。
他方それら画素301、303、305の奥行きであ
る、第1から第3の画像の奥行き302、304、30
6の奥行き情報は、奥行き比較手段307と奥行き選択
手段311に入力される。奥行き比較手段307は奥行
き302、304、306の大小を比較し、最もカメラ
に近い奥行き(通常、奥行きをカメラからの距離にとれ
ば、最も小さい値)をもつ画像の画素を判定し、その結
果を示す信号308を画素選択手段309と奥行き選択
手段311に送る。画素選択手段309は信号308に
応じて、入力された画素301、303、305から最
もカメラに近い奥行きをもつと判定された画像の画素を
選択し、合成結果としての画像の画素情報310を出力
する。奥行き選択手段311はその判定結果の信号30
8に応じて、入力された奥行き302、304、306
からその奥行きを選択し、画素選択手段309から出力
された合成結果の画像の画素情報の奥行き情報312と
して出力する。
First, the pixels 30 of the first to third images
The pixel information of 1, 303, and 305 is input to the pixel selection unit 309 pixel by pixel for each corresponding pixel position of each image.
On the other hand, the depths 302, 304, 30 of the first to third images, which are the depths of those pixels 301, 303, 305.
The depth information of No. 6 is input to the depth comparison unit 307 and the depth selection unit 311. The depth comparing unit 307 compares the sizes of the depths 302, 304, and 306, determines the pixel of the image having the depth closest to the camera (usually, the smallest value when the depth is the distance from the camera), and the result is determined. Is sent to the pixel selection means 309 and the depth selection means 311. The pixel selection means 309 selects the pixel of the image determined to have the depth closest to the camera from the input pixels 301, 303, and 305 according to the signal 308, and outputs the pixel information 310 of the image as a synthesis result. To do. The depth selection means 311 uses the determination result signal 30.
The input depths 302, 304, 306 according to 8
From the pixel selection unit 309, and outputs the depth as depth information 312 of the pixel information of the image of the combined result output from the pixel selection unit 309.

【0027】このようにして、複数の画像を、その画像
中の物体の前後関係を正しく保ったまま合成した画像の
画素およびその画素毎の奥行きが得られ、図4(a)、
及び図4(b)に示す画像から、図4(c)に示したよ
うな合成画像が得られる。
In this way, the pixels and the depth of each pixel of an image obtained by combining a plurality of images while maintaining the front-back relationship of the objects in the images are obtained, and FIG.
A composite image as shown in FIG. 4C is obtained from the image shown in FIG.

【0028】なお、上記実施例では3つの画像を合成す
るような画像合成装置について示したが、本発明の画像
合成装置が合成の対象とする画像の数は必ずしも3とは
限らず、2以上の任意の数の画像を入力してももちろん
かまわない。
In the above embodiment, the image synthesizing device for synthesizing three images is shown, but the number of images to be synthesized by the image synthesizing device of the present invention is not necessarily three, but two or more. Of course, it does not matter if you input any number of images.

【0029】また、上記実施例の画像合成装置による合
成に用いる複数の画像のうち、少なくとも一つの画像の
画素情報、及び奥行き情報は、前述の請求項1記載の画
像情報入力装置の出力情報を用いてもよい。
Further, the pixel information and depth information of at least one of the plurality of images used for composition by the image composition apparatus of the above embodiment is the output information of the image information input apparatus according to claim 1. You may use.

【0030】また、上記実施例では、奥行き選択手段3
11によって、選択された画素の奥行き情報を出力する
ようにしたが、前述の図3(a)に示すように、奥行き
選択手段311をやめて、選択された画素の画素情報3
10だけ出力するようにしてもよいことは言うまでもな
い。
Further, in the above embodiment, the depth selection means 3
Although the depth information of the selected pixel is output according to 11, the depth selection unit 311 is stopped and the pixel information 3 of the selected pixel is output, as shown in FIG.
It goes without saying that only 10 may be output.

【0031】また、上記実施例では、カメラによって撮
影された画像どうしを合成したが、これに限らず、画素
毎に奥行き情報をもった画像であれば、仮想の画像、例
えばコンピュータグラフィックス、アニメなどの画像で
あってもよい。あるいはそれら画像とカメラで撮影され
た画像を合成してもよい。
Further, in the above embodiment, the images photographed by the cameras are combined, but the invention is not limited to this. If the image has depth information for each pixel, a virtual image such as computer graphics or animation is used. It may be an image such as. Alternatively, these images may be combined with the image captured by the camera.

【0032】[0032]

【発明の効果】以上述べたところから明らかなように本
発明は、撮像装置から仮想対象物までの奥行きを、撮像
装置で撮影された画像の画素毎に演算する奥行き演算手
段を備えているので、画像中の物体の前後関係を正しく
保存したまま合成を行うために必要な奥行きに関する情
報を演算して出力することができるという長所がある。
As is apparent from the above description, the present invention is provided with the depth calculating means for calculating the depth from the image pickup device to the virtual object for each pixel of the image photographed by the image pickup device. However, there is an advantage that the information related to the depth necessary for performing the composition can be calculated and output while correctly storing the context of the object in the image.

【0033】また、複数の画像の、対応する画素の奥行
き情報を入力し、その奥行き情報の奥行きを比較する奥
行き比較手段と、複数の画像の、画素の画素情報を入力
し、奥行き比較手段の比較結果に応じて、最も小さい奥
行きに対応する画素を選択し、その選択された画素の画
素情報を出力する画素選択手段とを備えているので、奥
行き情報をもつ複数個の画像を画像中の物体の前後関係
を正しく保ちながら合成することができるという利点が
ある。
Depth comparison means for inputting depth information of corresponding pixels of a plurality of images and comparing depths of the depth information, and pixel information of pixels of a plurality of images for inputting depth information of the depth comparison means. According to the comparison result, the pixel corresponding to the smallest depth is selected, and the pixel selection means for outputting the pixel information of the selected pixel is provided. Therefore, a plurality of images having depth information are included in the image. There is an advantage that the objects can be combined while maintaining the proper context.

【図面の簡単な説明】[Brief description of drawings]

【図1】請求項1の本発明にかかる一実施例の画像情報
入力装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image information input device of an embodiment according to the present invention of claim 1.

【図2】同実施例の画像入力装置を構成する奥行き算出
手段における処理の流れの一例を示す流れ図である。
FIG. 2 is a flowchart showing an example of a processing flow in a depth calculation means that constitutes the image input apparatus according to the embodiment.

【図3】同図(a)は、請求項2の本発明の画像合成装
置の構成を示すブロック図、同図(b)は、請求項3の
本発明の画像合成装置の構成を示すブロック図である。
3A is a block diagram showing a configuration of an image synthesizing apparatus of the present invention according to claim 2, and FIG. 3B is a block diagram showing a configuration of an image synthesizing apparatus of the present invention according to claim 3; It is a figure.

【図4】同図(a)、(b)、(c)は、本発明の画像
合成装置による画像合成例の説明図である。
4 (a), (b), and (c) are explanatory views of an image synthesizing example by the image synthesizing apparatus of the present invention.

【図5】従来の画像合成装置による画像合成例の説明図
である。
FIG. 5 is an explanatory diagram of an example of image composition by a conventional image composition apparatus.

【符号の説明】[Explanation of symbols]

102 形状モデリング手段 104 シーンモデリング手段 105 カメラ 106 カメラパラメータ検出手段 107 画素奥行き算出手段 109 奥行き 110 撮影された画像 301 第1の画像の画素 302 第1の画像の画素の奥行き 303 第2の画像の画素 304 第2の画像の画素の奥行き 305 第3の画像の画素 306 第3の画像の画素の奥行き 307 奥行き比較手段 309 画素選択手段 310 合成画像の画素情報 311 奥行き選択手段 312 合成画像の画素の奥行き情報 102 Shape Modeling Unit 104 Scene Modeling Unit 105 Camera 106 Camera Parameter Detecting Unit 107 Pixel Depth Calculating Unit 109 Depth 110 Captured Image 301 First Image Pixel 302 First Image Pixel Depth 303 Second Image Pixel 304 Pixel depth of second image 305 Pixel of third image 306 Pixel depth of third image 307 Depth comparing means 309 Pixel selecting means 310 Pixel information of synthetic image 311 Depth selecting means 312 Depth of pixel of synthetic image information

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮像装置により撮影される撮影対象物を
モデル化した仮想対象物を、前記撮影対象物の配置と実
質上同じに、仮想空間に配置させるシーンモデリング手
段と、前記撮影対象物の撮影時の撮像装置の位置、方
向、画角、焦点距離などのパラメータを検出するパラメ
ータ検出手段と、そのパラメータ検出手段によって検出
されたパラメータに基づき、前記仮想空間に配置された
前記仮想対象物を前記撮像装置で撮影するとしたとき
の、前記撮像装置から前記仮想対象物までの奥行きを、
前記撮像装置で撮影された画像の画素毎に演算する奥行
き演算手段とを備えたことを特徴とする画像情報入力装
置。
1. A scene modeling means for arranging a virtual object, which is a model of an object to be imaged by an imaging device, in a virtual space in substantially the same arrangement as the object to be imaged, and the object to be imaged. Parameter detection means for detecting parameters such as position, direction, angle of view, and focal length of the imaging device at the time of shooting, and the virtual object arranged in the virtual space based on the parameters detected by the parameter detection means. When taking a picture with the imaging device, the depth from the imaging device to the virtual object,
An image information input device, comprising: a depth calculation means for calculating each pixel of an image captured by the image capturing device.
【請求項2】 複数の画像の、対応する画素の奥行き情
報を入力し、その奥行き情報の奥行きを比較する奥行き
比較手段と、前記複数の画像の、前記画素の画素情報を
入力し、前記奥行き比較手段の比較結果に応じて、最も
小さい前記奥行きに対応する前記画素を選択し、その選
択された画素の画素情報を出力する画素選択手段とを備
えたことを特徴とする画像合成装置。
2. Depth comparison means for inputting depth information of corresponding pixels of a plurality of images and comparing depths of the depth information, and pixel information of the pixels of the plurality of images are input to obtain the depth. An image synthesizing device comprising: a pixel selecting unit that selects the pixel corresponding to the smallest depth according to the comparison result of the comparing unit and outputs pixel information of the selected pixel.
【請求項3】 複数の画像のうち少なくとも一つの前記
画像の画素の奥行き情報は、請求項1記載の画像情報入
力装置から入力されることを特徴とする請求項2記載の
画像合成装置。
3. The image synthesizing apparatus according to claim 2, wherein depth information of pixels of at least one of the plurality of images is input from the image information input apparatus according to claim 1.
【請求項4】 複数の画像の、対応する画素の奥行き情
報を入力し、その奥行き情報の奥行きを比較する奥行き
比較手段と、前記複数の画像の、前記画素の画素情報を
入力し、前記奥行き比較手段の比較結果に応じて、最も
小さい前記奥行きに対応する前記画素を選択し、その選
択された画素の画素情報を出力する画素選択手段と、そ
の最も小さい前記奥行きを前記選択された画素の奥行き
情報として出力する奥行き選択手段とを備えたことを特
徴とする画像合成装置。
4. Depth comparison means for inputting depth information of corresponding pixels of a plurality of images and comparing depths of the depth information, and pixel information of the pixels of the plurality of images are input, and the depth is input. Pixel selection means for selecting the pixel corresponding to the smallest depth and outputting pixel information of the selected pixel according to the comparison result of the comparison means, and the smallest depth of the selected pixel for the selected pixel. An image synthesizing apparatus comprising: a depth selecting unit that outputs depth information.
【請求項5】 複数の画像のうち少なくとも一つの前記
画像の画素の奥行き情報は、請求項1記載の画像情報入
力装置から入力されることを特徴とする請求項4記載の
画像合成装置。
5. The image synthesizing apparatus according to claim 4, wherein depth information of pixels of at least one of the plurality of images is input from the image information input apparatus according to claim 1.
JP3347185A 1991-12-27 1991-12-27 Picture information input device and picture synthesizer device Pending JPH05183808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3347185A JPH05183808A (en) 1991-12-27 1991-12-27 Picture information input device and picture synthesizer device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3347185A JPH05183808A (en) 1991-12-27 1991-12-27 Picture information input device and picture synthesizer device

Publications (1)

Publication Number Publication Date
JPH05183808A true JPH05183808A (en) 1993-07-23

Family

ID=18388500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3347185A Pending JPH05183808A (en) 1991-12-27 1991-12-27 Picture information input device and picture synthesizer device

Country Status (1)

Country Link
JP (1) JPH05183808A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995007590A1 (en) * 1993-09-06 1995-03-16 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Time-varying image processor and display device
JP4808778B2 (en) * 2005-08-11 2011-11-02 インターナショナル・ビジネス・マシーンズ・コーポレーション Method for compositing ray-traced images with rasterized images
CN113632498A (en) * 2019-03-28 2021-11-09 多玩国株式会社 Content distribution system, content distribution method, and content distribution program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995007590A1 (en) * 1993-09-06 1995-03-16 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Time-varying image processor and display device
JP4808778B2 (en) * 2005-08-11 2011-11-02 インターナショナル・ビジネス・マシーンズ・コーポレーション Method for compositing ray-traced images with rasterized images
CN113632498A (en) * 2019-03-28 2021-11-09 多玩国株式会社 Content distribution system, content distribution method, and content distribution program
US11961190B2 (en) 2019-03-28 2024-04-16 Dwango Co., Ltd. Content distribution system, content distribution method, and content distribution program

Similar Documents

Publication Publication Date Title
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
EP0930585B1 (en) Image processing apparatus
KR100495191B1 (en) Image synthesizer and image synthesizing method
US7782320B2 (en) Information processing method and information processing apparatus
JP2001346226A (en) Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program
JP7164968B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP2003141569A (en) Method of processing information and image synthesis device
JP7196421B2 (en) Information processing device, information processing system, information processing method and program
JPH07296185A (en) Three-dimensional image display device
JP4108171B2 (en) Image synthesizer
JPH10304244A (en) Image processing unit and its method
JPH10126665A (en) Image composing device
JP7313811B2 (en) Image processing device, image processing method, and program
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP2821042B2 (en) Image synthesis device
JPH05183808A (en) Picture information input device and picture synthesizer device
JP3230481B2 (en) Television image synthesis method
JP2004072677A (en) Device, method and program for compositing image and recording medium recording the program
JP3577202B2 (en) Video production equipment
JPH0630336A (en) Picture input device and picture synthesis method
JP2000023037A (en) Video compositing device
JP4439668B2 (en) Image synthesizer
JPH09187037A (en) Image processor
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JPH0818858A (en) Image composite device