JP2842437B2 - Image synthesis device - Google Patents

Image synthesis device

Info

Publication number
JP2842437B2
JP2842437B2 JP9140778A JP14077897A JP2842437B2 JP 2842437 B2 JP2842437 B2 JP 2842437B2 JP 9140778 A JP9140778 A JP 9140778A JP 14077897 A JP14077897 A JP 14077897A JP 2842437 B2 JP2842437 B2 JP 2842437B2
Authority
JP
Japan
Prior art keywords
image
area
unit
blind spot
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP9140778A
Other languages
Japanese (ja)
Other versions
JPH10334216A (en
Inventor
浩三 里田
啓次 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP9140778A priority Critical patent/JP2842437B2/en
Publication of JPH10334216A publication Critical patent/JPH10334216A/en
Application granted granted Critical
Publication of JP2842437B2 publication Critical patent/JP2842437B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、撮影した画像から
物体領域を取り出して別の画像に合成を行う画像合成装
置に関し、特に2つの撮像装置を利用して2枚の画像の
画素の対応から物体を取り出して合成を行う画像合成装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus for extracting an object area from a photographed image and synthesizing it with another image, and more particularly, from the correspondence of pixels of two images using two image pickup apparatuses. The present invention relates to an image synthesizing apparatus that takes out an object and performs synthesis.

【0002】[0002]

【従来の技術】従来の画像合成装置として、例えば特開
昭63−90285号公報や特開平3−285486号
公報に開示された発明のように、クロマキーによる画像
合成装置が知られている。これらの装置における画像合
成の方法を、以下に図面を参照して説明する。
2. Description of the Related Art As a conventional image synthesizing apparatus, there is known an image synthesizing apparatus using a chroma key as disclosed in Japanese Patent Application Laid-Open Nos. 63-90285 and 3-285486. The method of image synthesis in these devices will be described below with reference to the drawings.

【0003】まず、図18にクロマキーによる画像合成
装置の画像合成方法を示す。この図18に示されるよう
に、背景画像132の上に合成する物体131の画像を
撮像する際に、物体131の背後を青や緑、この図の場
合では青色の背景130、など特定の色で覆って撮影
し、この色情報をもとに物体部分134のみを取り出
し、これを背景画像132の上に合成して合成画像13
3を得るというものである。
First, FIG. 18 shows an image synthesizing method of an image synthesizing apparatus using a chroma key. As shown in FIG. 18, when capturing an image of the object 131 to be synthesized on the background image 132, a specific color such as blue or green behind the object 131, a blue background 130 in this case, or the like. , And only the object portion 134 is extracted based on the color information, and is combined with the background image 132 to form a composite image 13.
3 is obtained.

【0004】しかし、この手法では物体を撮影するため
に物体の背後を特定の色で覆わなければならず、その撮
影のためには特殊な撮影環境を必要とする欠点があり、
また、この方法では対象とする物体の3次元的な位置や
構造がわからず2次元的な合成しかできないという欠点
があった。
[0004] However, in this method, in order to photograph an object, the back of the object must be covered with a specific color, and there is a disadvantage that a special photographing environment is required for the photographing.
In addition, this method has a disadvantage that only two-dimensional composition can be performed without knowing the three-dimensional position and structure of the target object.

【0005】そこで上述の従来の欠点を補うため、特別
な撮影条件を必要とせず、物体部分のみを取り出す手段
として、特開平7−79429号公報に開示された発明
のような背景差分による方法や、特開平8−24947
1号公報に開示された発明のようなフレーム間差分の方
法が知られている。
Therefore, in order to compensate for the above-mentioned drawbacks of the prior art, as a means for extracting only an object portion without requiring special photographing conditions, a method using a background difference as disclosed in Japanese Patent Application Laid-Open No. 7-79429, JP-A-8-24947
There is known an inter-frame difference method such as the invention disclosed in Japanese Patent Application Laid-Open Publication No. 1 (1999).

【0006】背景差分による画像合成方法を図19を参
照して説明する。この図19に示されるように、背景差
分による方法は、背景画像141を予め撮影しておき、
それと現フレーム画像140との差をとることにより、
抽出された画像142として、移動物体部分のみを取り
出す方法である。
An image synthesizing method using background subtraction will be described with reference to FIG. As shown in FIG. 19, in the method based on background subtraction, a background image 141 is photographed in advance,
By taking the difference between it and the current frame image 140,
In this method, only the moving object portion is extracted as the extracted image 142.

【0007】次に、フレーム間差分による画像合成方法
を図20を参照して説明する。図20に示されるよう
に、このフレーム間差分による方法は、現フレーム画像
150と1フレーム前の前フレーム画像151との差分
をとることにより、抽出された画像152として移動物
体部分のみを取り出し、明るさの変化や日照条件の変化
があったとしても対応できるようにしたものである。
Next, an image synthesizing method using an inter-frame difference will be described with reference to FIG. As shown in FIG. 20, in the method using the inter-frame difference, the difference between the current frame image 150 and the previous frame image 151 one frame before is obtained, and only the moving object portion is extracted as the extracted image 152. Even if there is a change in brightness or a change in sunshine conditions, it is possible to cope with the change.

【0008】一方、従来の画像合成装置には、物体の3
次元的な構造や位置を検出するために、ステレオ画像の
両眼視差を用いてその3次元的な構造や位置を検出する
手法が知られている。
On the other hand, in a conventional image synthesizing apparatus, 3
In order to detect a three-dimensional structure or position, a method of detecting a three-dimensional structure or position using binocular parallax of a stereo image is known.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上記従
来技術において、背景差分の方法においては、移動物体
部分を取り出す際に、物体の影や日照条件の変化による
明るさの変化も取り出してしまうことがあり、正確に物
体だけを取り出すことができないという問題点を有して
いる。
However, in the above-mentioned prior art, in the background subtraction method, when a moving object portion is taken out, a change in brightness due to a change in the shadow of an object or a change in sunshine conditions may be taken out. There is a problem that only an object cannot be accurately taken out.

【0010】また、フレーム間差分による方法において
は、物体が動いている間であれば、移動物体部分のみを
取り出すことが可能であるが、物体が静止してしまう
と、その移動物体部分のみを取り出すことができないと
いう問題点を有している。
In the method based on the inter-frame difference, it is possible to take out only the moving object portion while the object is moving. However, when the object comes to rest, only the moving object portion is taken out. There is a problem that it cannot be taken out.

【0011】一方、物体の3次元的な構造や位置を検出
するための、両眼視差を用いる方法においてはステレオ
カメラで撮影された2枚の画像の画素間の対応をとる処
理動作が必須の動作となるが、この処理動作は一般の長
い処理時間がかかるという欠点があり、従ってこの方法
では、3次元的な構造や位置を検出する際に、その長い
処理時間による弊害として、静止物体に対しては用いる
ことが可能であるものの、動物体の画像合成には用いる
ことができないという問題点を有している。
On the other hand, in a method using binocular parallax for detecting a three-dimensional structure or position of an object, a processing operation for obtaining correspondence between pixels of two images photographed by a stereo camera is essential. However, this processing operation has a drawback that it generally takes a long processing time. Therefore, in this method, when detecting a three-dimensional structure or position, as a disadvantage due to the long processing time, it is difficult to detect a stationary object. However, they can be used, but cannot be used for image synthesis of moving objects.

【0012】このように、従来のクロマキーに基づく画
像合成装置は特殊な撮影環境が必要となり、物体の3次
元的な位置や構造がわからないという問題点を有してい
る。また、背景差分による画像合成方法やフレーム間差
分による画像合成方法では特殊な撮影環境が必要ではな
いものの、誤差を多く含む上、別の束縛条件が付与され
てしまい、かつ、物体の3次元的な位置や構造がわから
ないという問題点を有している。また、物体の3次元的
な位置や構造を検出するための両眼視差を用いる方法に
おいては上述のように長い処理時間がかかるという問題
点を有している。
As described above, the conventional image synthesizing apparatus based on the chroma key requires a special photographing environment, and has a problem that the three-dimensional position and structure of the object cannot be known. In addition, although a special imaging environment is not required in the image combining method using the background difference or the image combining method using the inter-frame difference, it includes many errors, and another constraint condition is added, and the three-dimensional object However, there is a problem that the exact position and structure cannot be understood. Further, the method using binocular parallax for detecting a three-dimensional position or structure of an object has a problem that a long processing time is required as described above.

【0013】本発明は上記事情に鑑みなされたもので、
特殊な撮像環境を必要とせずに対象物体の画像を3次元
的な位置や構造を含めて検出し、2次元画像や3次元コ
ンピュータグラフィックスとの画像合成を効率的に行う
ことが可能な画像合成装置を提供することを目的とす
る。
The present invention has been made in view of the above circumstances,
An image capable of detecting an image of a target object including a three-dimensional position and structure without requiring a special imaging environment and efficiently performing image synthesis with a two-dimensional image or three-dimensional computer graphics It is an object to provide a synthesis device.

【0014】[0014]

【課題を解決するための手段】請求項1記載の発明は、
異なる位置に配置された2台の撮像装置のそれぞれから
出力された画像を表す画像データが入力される画像入力
部と、前記画像入力部に入力された画像データにより表
される画像において、前記2台の撮像装置の内の一方の
撮像装置から出力された画像を構成する画素と他方の撮
像装置から出力された画像を構成する画素との間の対応
を検出する対応検出部と、前記検出された画素間の対応
を記憶する対応記憶部と、前記画像入力部に入力される
2台の撮像装置のそれぞれから出力された画像を構成す
る全ての画素の対応が、前記対応記憶部に記憶されてい
る画素間の対応と異なっているか否かを調べ、記憶され
ている対応と異なる対応を持つ画素と該異なる対応を持
つ画素により占められる領域とを検出する領域検出部
と、背景画像としての画像データを入力する背景画像入
力部と、前記領域検出部において検出された領域に対し
ては前記画像入力部に入力された画像の画像データを用
い、前記領域検出部において検出された領域以外には前
記背景画像入力部に入力された背景画像の画像データを
用いて画像を合成する画像合成部とを有することを特徴
とする。
According to the first aspect of the present invention,
In an image input unit to which image data representing images output from each of the two imaging devices arranged at different positions is input, and in an image represented by image data input to the image input unit, A correspondence detection unit that detects a correspondence between pixels constituting an image output from one of the imaging devices and pixels constituting an image output from the other imaging device; and The correspondence storage unit that stores the correspondence between the pixels, and the correspondence of all the pixels constituting the image output from each of the two imaging devices input to the image input unit, are stored in the correspondence storage unit. A region detection unit that checks whether the correspondence between the pixels is different from the corresponding pixels, and detects a pixel having a correspondence different from the stored correspondence and a region occupied by the pixels having the different correspondence, and a background image. A background image input unit for inputting image data, and for an area detected by the area detection unit, image data of an image input to the image input unit is used, in addition to the area detected by the area detection unit. Is characterized by having an image synthesizing unit for synthesizing an image using the image data of the background image input to the background image input unit.

【0015】従って、この発明によれば、画像入力部に
入力された、異なる位置に配置された2台の撮像装置か
ら出力された画像において、初期段階において対応検出
部で背景として撮影された2枚の画像を構成する画素間
の対応がとられ、この対応が対応記憶部に記憶される。
従って、対応する2つの画素は2つの撮像装置で背景の
同じ点を映している。領域検出部では画像入力部に入力
された画像を構成する全ての画素に対して対応記憶部に
記憶されている画素間の対応と一致しているか否かを調
べ直す。もし、背景以外の物体が撮像領域内に入ってき
た場合、左右の撮像装置から出力された画像の内のその
物体に対応する画素は、今まで背景の同じ点を映してい
るはずが物体によって背景の点が隠されてしまい、違う
点を映すことになり、対応が崩れることになる。従っ
て、対応が崩れて異なる対応となっている画素を集めれ
ば、画像から背景以外の物体のみを取り出すことができ
る。また、背景や日照条件によって背景の明るさが変化
したとしても、2台の撮像装置が映しているそれぞれの
画像の対応している画素における画素値が共に変化する
ので、このような背景や日照条件の条件には影響されず
に、画像から物体領域のみを取り出すことができる。そ
して、画像から物体領域のみを取り出した後、背景画像
入力部から入力した背景と、物体領域の画像とを重ね合
わすことにより画像を合成することができる。
Therefore, according to the present invention, in the image input from the image input unit and output from the two imaging devices arranged at different positions, the image obtained as the background by the correspondence detection unit in the initial stage is used. Correspondence between pixels constituting one image is taken, and this correspondence is stored in the correspondence storage unit.
Therefore, the two corresponding pixels show the same point in the background with the two imaging devices. The area detection unit checks again whether all the pixels constituting the image input to the image input unit match the correspondence between the pixels stored in the correspondence storage unit. If an object other than the background enters the imaging region, the pixel corresponding to the object in the images output from the left and right imaging devices should have been reflecting the same point on the background until now. The points in the background are hidden, showing different points, and the correspondence is broken. Therefore, by collecting pixels that have different correspondences and have different correspondences, only objects other than the background can be extracted from the image. Further, even if the brightness of the background changes due to the background and sunshine conditions, the pixel values of the corresponding pixels of the respective images projected by the two imaging devices change together. It is possible to extract only the object region from the image without being affected by the condition. Then, after extracting only the object region from the image, an image can be synthesized by superimposing the background input from the background image input unit and the image of the object region.

【0016】請求項2記載の発明は、請求項1記載の発
明において、前記領域検出部により検出された領域に対
応する物体の、前記撮像装置から前記物体までの距離を
検出する距離検出部と、該距離検出部により検出された
距離を記憶するための距離記憶部とを有することを特徴
とする。
According to a second aspect of the present invention, in the first aspect of the present invention, there is provided a distance detecting section for detecting a distance from the image pickup device to the object corresponding to the area detected by the area detecting section. And a distance storage unit for storing the distance detected by the distance detection unit.

【0017】従って、この発明によれば、請求項1記載
の発明の作用が得られると共に、領域検出部において検
出された領域に対応する物体に対して、撮像装置から物
体までの距離を検出する距離検出部を設けることによ
り、物体の撮像装置からの距離と検出された物体の3次
元構造を抽出することができ、これらの情報を距離記憶
部において記憶する。従って、物体の3次元構造と撮像
装置からの距離との、正確な測定及び記憶を行うことが
できる。
Therefore, according to the present invention, the operation of the invention described in claim 1 can be obtained, and the distance from the imaging device to the object corresponding to the area detected by the area detection unit is detected. By providing the distance detection unit, the distance of the object from the imaging device and the three-dimensional structure of the detected object can be extracted, and these pieces of information are stored in the distance storage unit. Therefore, accurate measurement and storage of the three-dimensional structure of the object and the distance from the imaging device can be performed.

【0018】請求項3記載の発明は、請求項2記載の発
明において、前記背景画像入力部は、撮像装置から背景
までの距離を表すデータと、撮像装置の撮像面における
背景画像の存在範囲を表すデータとが付与された背景画
像の画像データが入力され、前記画像合成部は、前記距
離記憶部に記憶された前記領域検出部により検出された
領域に対応する物体の、前記撮像装置から前記物体まで
の距離と、前記背景画像の画像データに付与されたデー
タにより表される撮像装置から背景までの距離とを比較
し、撮像面全体において、撮像装置に最も近い距離にあ
る画像の画像データに基づいて画像を合成することを特
徴とする。
According to a third aspect of the present invention, in the second aspect of the present invention, the background image input unit includes data representing a distance from the imaging device to the background and a background image existing range on the imaging surface of the imaging device. Image data of a background image to which data representing the image is given, and the image combining unit is configured to detect the object corresponding to the area detected by the area detection unit stored in the distance storage unit from the imaging device. The distance to the object is compared with the distance from the imaging device to the background represented by the data given to the image data of the background image, and the image data of the image closest to the imaging device over the entire imaging surface is compared. The image is synthesized based on

【0019】従って、この発明によれば、請求項2記載
の発明の作用が得られると共に、領域検出部において検
出された領域に対応する物体の、撮像装置から物体まで
の距離を距離検出部において検出し、この検出した距離
を距離記憶部に記憶することにより撮像装置と物体との
間の距離を測定する。また、背景画像入力部には、撮像
装置から背景までの距離を表すデータと、撮像装置の撮
像面で存在する背景画像の範囲のデータが付与された1
枚又は複数の画像が入力される。画像合成部では、領域
検出部で検出された領域には距離記憶部において記憶し
ている距離を用い、背景画像にはこの背景画像データに
付与された距離データを用いて、撮像装置の撮像面上の
全ての画素に対して、背景画像入力部から入力された画
像と領域検出部において検出された領域の画像とのそれ
ぞれを構成する画素の全ての距離を比較する。この比較
に基づき、最も撮像装置に近い位置にある画素を用いて
画像を形成することにより画像合成を行う。このように
構成することによって、複数の、かつ、異なった距離を
有する画像が背景画像として背景画像入力部に入力され
たとしても、その背景画像と領域検出部において検出さ
れた領域の画像とを、その距離関係を崩すことなく、合
成することができる。従って、検出された領域よりも撮
像装置に近い距離に背景が存在する場合であっても、そ
の背景画像の画像データに適切な距離データが付与され
ることにより、背景画像により検出された領域の画像を
背景画像により隠すような画像を合成することができ
る。
Therefore, according to the present invention, the operation of the invention described in claim 2 can be obtained, and the distance from the imaging device to the object corresponding to the area detected by the area detecting unit can be determined by the distance detecting unit. The distance between the imaging device and the object is measured by detecting the distance and storing the detected distance in the distance storage unit. The background image input unit is provided with data representing the distance from the imaging device to the background and data of the range of the background image existing on the imaging surface of the imaging device.
One or more images are input. The image synthesis unit uses the distance stored in the distance storage unit for the region detected by the region detection unit, and uses the distance data added to the background image data for the background image, and uses For all the pixels above, all distances of the pixels constituting each of the image input from the background image input unit and the image of the area detected by the area detection unit are compared. Based on this comparison, image synthesis is performed by forming an image using pixels located closest to the imaging device. With this configuration, even if a plurality of images having different distances are input to the background image input unit as the background image, the background image and the image of the area detected by the area detection unit are compared. Can be combined without breaking the distance relationship. Therefore, even when the background exists at a distance closer to the imaging device than the detected area, the appropriate distance data is added to the image data of the background image, so that the area detected by the background image is An image that hides the image with a background image can be synthesized.

【0020】請求項4記載の発明は、請求項2又は3に
記載の発明において、前記背景画像入力部は、背景とし
て3次元コンピュータグラフィックスによる背景モデル
のデータが入力され、前記画像合成部は、前記背景画像
入力部から入力された3次元コンピュータグラフィック
スによる背景モデルに対して、前記領域検出部において
検出された領域に対しては前記画像入力部に入力された
画像を、前記距離記憶部に記憶された距離に基づき配置
し、前記入力された画像に対応する物体の3次元構造を
表すように、若しくは、平面にテクスチャとしてはりつ
けることにより3次元コンピュータグラフィックスを用
いた画像を合成することを特徴とする。
According to a fourth aspect of the present invention, in the second or third aspect of the present invention, the background image input section receives background model data by three-dimensional computer graphics as a background, and the image synthesis section In contrast, for a background model based on three-dimensional computer graphics input from the background image input unit, an image input to the image input unit for an area detected by the area detection unit is stored in the distance storage unit. Combining the images using three-dimensional computer graphics by arranging them based on the distances stored in the object and representing the three-dimensional structure of the object corresponding to the input image, or by attaching them as a texture to a plane. It is characterized by.

【0021】従って、この発明によれば、請求項2又は
3に記載の発明の作用が得られると共に、背景画像入力
部において、背景として3次元コンピュータグラフィッ
クスの背景モデルデータが入力される。また、撮像装置
から物体までの距離を検出する距離検出部と、その検出
された距離を記憶する距離記憶部とにより、検出された
領域に対応する物体のおおよその距離及び物体の3次元
的な構造が抽出されるので、これらを画像合成部におい
て、3次元コンピュータグラフィックスの背景モデルと
合成することにより、3次元コンピュータグラフィック
スを用いた画像の合成を実行することができる。
Therefore, according to the present invention, the operation of the invention described in claim 2 or 3 is obtained, and the background image input unit inputs background model data of three-dimensional computer graphics as the background. In addition, a distance detection unit that detects a distance from the imaging device to the object, and a distance storage unit that stores the detected distance provide an approximate distance of the object corresponding to the detected area and a three-dimensional object. Since the structures are extracted, the images are synthesized with the background model of the three-dimensional computer graphics in the image synthesizing unit, so that the image can be synthesized using the three-dimensional computer graphics.

【0022】請求項5記載の発明は、請求項2から4の
いずれかに記載の発明において、前記領域検出部により
検出された領域に対応する物体の、前記距離記憶部に記
憶されている前記撮像装置から該物体までの距離に基づ
き、前記領域検出部で検出された領域内における、前記
対応する物体により生成された2台の撮像装置間の死角
領域を計算し、前記領域検出部で検出された領域から、
該計算された死角領域を除去する第1の死角除去部を有
することを特徴とする。
According to a fifth aspect of the present invention, in the invention according to any one of the second to fourth aspects, the object stored in the distance storage unit corresponds to an area detected by the area detection unit. Based on the distance from the imaging device to the object, a blind spot region between the two imaging devices generated by the corresponding object in the region detected by the region detection unit is calculated and detected by the region detection unit. From the area
It is characterized by having a first blind spot removing unit for removing the calculated blind spot area.

【0023】上記請求項1から4に記載された発明に具
備された領域検出部により、画像から背景以外の物体を
取り出すことができる。この取り出しは物体が撮像範囲
内に入ってくることにより、2台の撮像装置により背景
の同じ点として映されていた画素が、物体上の異なる2
点を移すことにより、その2台の撮像装置から出力され
る画素の対応が崩れることを利用している。しかし、2
台の撮像装置は異なる位置から物体を撮影しているた
め、一方の撮像装置は物体を映しているが、他方の撮像
装置は物体を映さずに背景を映しているという場合にお
いても、対応の崩れは発生する。この場合に、上述のよ
うに、単に、対応が崩れている画素の領域を、物体領域
であるとみなしてしまうと、その物体領域の中に、真の
物体領域ではない領域、いわゆる死角領域が含まれてし
まうことになる。そのため、画像から真の物体領域のみ
を正確に取り出すためには、この死角領域を除去する必
要がある。
[0023] By means of the area detecting section provided in the inventions according to the first to fourth aspects, objects other than the background can be extracted from the image. In this extraction, when the object comes into the imaging range, the pixels that have been projected as the same point on the background by the two imaging devices become different pixels on the object.
The fact that the correspondence between the pixels output from the two imaging devices is lost by shifting the points is utilized. However, 2
Since the two imaging devices image the object from different positions, one of the imaging devices reflects the object, but the other imaging device does not reflect the object but the background. Collapse occurs. In this case, as described above, if the area of the pixel whose correspondence is simply collapsed is regarded as an object area, an area that is not a true object area, a so-called blind spot area, is included in the object area. Will be included. Therefore, in order to accurately extract only the true object region from the image, it is necessary to remove the blind spot region.

【0024】従って、請求項5記載の発明によれば、請
求項2から4のいずれかに記載の発明の作用が得られる
と共に、第1の死角除去部が、距離検出部において検出
された撮像装置から物体まで距離に基づき、領域検出部
において検出された領域に対応する物体により生成され
た、2台の撮像装置間の死角領域の幅を計算する。この
幅は検出された領域の端点の画素によって異なるので、
全ての端点の画素について死角領域の幅を計算する。そ
の後、第1の死角除去部は、領域検出部で検出された領
域から各端点の画素に対応する死角領域を除去し、死角
領域が除去されたデータを画像合成部に出力する。従っ
て、死角領域を正確に除去することができると共に、死
角領域を求める際に、検出された領域の画像を構成する
全ての画素の探索を必要としていないので、高速に死角
領域を除去することができる。
Therefore, according to the fifth aspect of the present invention, the effect of the second aspect of the present invention can be obtained, and the first blind spot elimination unit can detect the image pick-up detected by the distance detection unit. Based on the distance from the device to the object, the width of the blind spot region between the two imaging devices generated by the object corresponding to the region detected by the region detection unit is calculated. Since this width differs depending on the pixel at the end point of the detected area,
The width of the blind spot area is calculated for all the pixels at the end points. Thereafter, the first blind spot removing unit removes a blind spot area corresponding to the pixel at each end point from the area detected by the area detecting unit, and outputs data from which the blind spot area has been removed to the image combining unit. Therefore, the blind spot area can be accurately removed, and the search for the blind spot area does not require searching for all the pixels forming the image of the detected area. it can.

【0025】請求項6記載の発明は、請求項1から5の
いずれかに記載の発明において、前記領域検出部により
検出された領域の画像を構成する画素において、前記対
応検出部が前記2台の撮像装置のそれぞれから出力され
た領域の画像を構成する画素の対応を検出し、該対応検
出部による検出結果に基づき、前記領域検出部により検
出された領域から対応がとれない画素により占められる
領域を死角領域とし、この死角領域を除去する第2の死
角除去部を有することを特徴とする。
According to a sixth aspect of the present invention, in the invention according to any one of the first to fifth aspects, in the pixels constituting the image of the area detected by the area detecting section, the correspondence detecting section includes the two sets of pixels. Detecting the correspondence of the pixels constituting the image of the region output from each of the imaging devices, and occupying the pixels detected by the region detection unit based on the detection result by the correspondence detection unit. The area is a blind spot area, and a second blind spot removing unit for removing this blind spot area is provided.

【0026】従って、この発明によれば、請求項1から
5のいずれかに記載の発明の作用が得られると共に、領
域検出部において検出された領域に対して、2台の撮像
装置により、改めて画素間のステレオ対応をとる。領域
検出部において検出された領域において、死角領域以外
の領域(真の物体領域)では、2台の撮像装置から出力
された画素が共通に映されるので画素間の対応がとれる
が、死角領域では対応が取れない。この対応がとれない
領域を、第2の死角領域除去部が検出された領域から除
去することにより、正確に真の物体領域のみを取り出す
ことができる。
Therefore, according to the present invention, the operation of the invention described in any one of the first to fifth aspects can be obtained, and the area detected by the area detecting section can be renewed by two imaging devices. Take stereo correspondence between pixels. In the area detected by the area detection unit, in the area other than the blind spot area (true object area), the pixels output from the two imaging devices are commonly displayed, so that the correspondence between the pixels can be obtained. I can't respond. By removing the area where this correspondence cannot be taken from the area where the second blind spot area removing unit has been detected, only the true object area can be accurately extracted.

【0027】請求項7記載の発明は、請求項1から6の
いずれかに記載の発明において、前記領域検出部により
検出された領域内において、前記異なる位置に配置され
た2台の撮像装置の内の1の撮像装置から出力された画
像における前記検出された領域の端点の画素に対応する
画素を、他の一方の撮像装置から出力された画像におけ
る前記検出された領域の端点から探索し、該他の一方の
撮像装置から出力された前記検出された領域の端点から
対応する画素の画素位置までの領域を死角領域であると
して除去し、これを前記領域の全ての端点の画素につい
て行うことにより、前記検出された領域の死角領域を除
去する第3の死角除去部を有することを特徴とする。
According to a seventh aspect of the present invention, in the first aspect of the present invention, the two image pickup devices arranged at the different positions in the area detected by the area detecting section are different from each other. A pixel corresponding to the pixel at the end point of the detected area in the image output from one of the imaging devices is searched for from the end point of the detected area in the image output from the other one of the imaging devices, Removing the area from the end point of the detected area output from the other one of the imaging devices to the pixel position of the corresponding pixel as a blind spot area, and performing this for all the pixels at the end points of the area And a third blind spot removing unit for removing a blind spot area of the detected area.

【0028】従って、この発明によれば、請求項1から
6のいずれかに記載の発明の作用が得られると共に、死
角領域の位置関係と2台の撮像装置の位置関係とのそれ
ぞれには、領域検出部で検出した領域内での死角の位置
が一致するという特性を利用して死角領域を除去する。
この領域内に現れる死角の位置の特性を利用は、第3の
死角除去部が、片方の撮像装置の画像から得られた領域
の端部の画素に対応する画素を、もう一方の画像から得
られた領域内の画素から探索し、対応した画素からその
領域の端部の画素までの領域を、死角領域であるとして
除去する。これを全ての端部の画素に対して行うことに
より、死角領域を除去する。このように、検出された領
域の端部のみを探索して死角領域の除去を行うので、検
出された領域全体を構成する画素の対応を取る必要がな
く、死角領域の除去にかかる時間を低減することができ
る。
Therefore, according to the present invention, the effect of the invention described in any one of claims 1 to 6 can be obtained, and the positional relationship between the blind spot area and the positional relationship between the two image pickup devices are respectively provided. The blind spot area is removed by using the characteristic that the positions of the blind spots in the area detected by the area detection unit match.
Utilizing the characteristic of the position of the blind spot appearing in this area, the third blind spot elimination unit obtains, from the other image, the pixel corresponding to the pixel at the end of the area obtained from the image of one imaging device. A search is performed from the pixels in the obtained area, and the area from the corresponding pixel to the pixel at the end of the area is removed as a blind spot area. By performing this for all the pixels at the end, the blind spot area is removed. As described above, since the blind spot area is removed by searching only the end of the detected area, it is not necessary to correspond to the pixels constituting the entire detected area, and the time required for removing the blind spot area is reduced. can do.

【0029】[0029]

【発明の実施の形態】次に、図面を参照して、本発明に
係る画像合成装置の実施形態を詳細に説明する。図1
に、本発明に係る画像合成装置の第1の実施形態の構成
のブロック図を示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment of an image synthesizing apparatus according to the present invention will be described in detail with reference to the drawings. FIG.
FIG. 1 shows a block diagram of the configuration of the first embodiment of the image synthesizing apparatus according to the present invention.

【0030】この図1に示されるように、この画像合成
装置は、物体や背景を撮影する、2台ステレオカメラか
ら構成される撮像装置としての撮像部1と、撮像部1に
おいて撮影された物体等の画像を、画像データとして入
力する画像入力部2と、画像入力部2に入力された画像
データを入力し、2台のステレオカメラのそれぞれから
出力された画像を構成する画素間の対応を検出する対応
検出部3と、対応検出部3において検出された対応を記
憶する対応記憶部4と、画像入力部2に入力された画像
データにより表される画像において、対応記憶部4に記
憶された対応に基づき領域を検出する領域検出部5と、
背景画像が入力される背景画像入力部6と、領域検出部
5において物体領域として検出された部分には画像入力
部2に入力した画像データを用い、領域と検出されなか
った部分には背景画像入力部6に入力された背景の画像
データを用いて画像を合成する画像合成部7とから構成
される。
As shown in FIG. 1, the image synthesizing apparatus includes an image pickup section 1 as an image pickup apparatus composed of two stereo cameras for picking up an object and a background, and an object picked up by the image pickup section 1. The image input unit 2 for inputting an image such as an image data as image data, and the correspondence between the pixels constituting the image output from each of the two stereo cameras by inputting the image data input to the image input unit 2 A correspondence detection unit 3 to detect, a correspondence storage unit 4 for storing the correspondence detected by the correspondence detection unit 3, and an image represented by the image data input to the image input unit 2 and stored in the correspondence storage unit 4. An area detection unit 5 for detecting an area based on the correspondence
A background image input unit 6 to which a background image is input, and image data input to the image input unit 2 for a part detected as an object area in the area detection unit 5, and a background image for a part not detected as an area An image synthesizing unit 7 for synthesizing an image using the background image data input to the input unit 6.

【0031】次に、この図1に示される画像合成装置の
動作についてさらに詳細に説明する。撮像部1は画像入
力用の2台のステレオカメラから構成され、この2台の
ステレオカメラのそれぞれから出力された画像データ
が、画像入力部2に入力される。物体領域を検出する前
の初期段階においては、あらかじめ、撮像部1におい
て、背景のシーンを撮影し、画像入力部2に出力する。
Next, the operation of the image synthesizing apparatus shown in FIG. 1 will be described in more detail. The imaging unit 1 includes two stereo cameras for image input, and image data output from each of the two stereo cameras is input to the image input unit 2. In an initial stage before detecting an object region, a background scene is photographed by the imaging unit 1 and output to the image input unit 2 in advance.

【0032】画像入力部2に入力された背景のシーンの
画像データは、対応検出部3、領域検出部5及び画像合
成部7に出力される。対応検出部3では、2台のステレ
オカメラのそれぞれから出力された背景のシーンにおい
て、この背景シーン画像を構成するそれぞれの画素間の
対応検出を行う。
The image data of the background scene input to the image input unit 2 is output to the correspondence detecting unit 3, the area detecting unit 5, and the image synthesizing unit 7. The correspondence detection unit 3 detects correspondence between pixels constituting the background scene image in the background scene output from each of the two stereo cameras.

【0033】対応検出部3における対応検出の動作を説
明する。まず、2台のステレオカメラにより背景シーン
の画像が撮影された場合、2台のステレオカメラの位置
関係からエピポーラ条件を定める。これは2台のステレ
オカメラのカメラ中心を結ぶ直線と背景シーン上の一点
を結ぶ平面とがステレオ画像と交差してできる2本直線
の直線の組がエピポーラ直線であり、背景中の任意の点
はステレオ画像中のエピポーラ直線対の上の画素に映っ
ているという条件である。この左右画像の全てのエピポ
ーラ直線対上で画素の対応点を求める。
The operation of correspondence detection in the correspondence detection unit 3 will be described. First, when an image of a background scene is captured by two stereo cameras, epipolar conditions are determined from the positional relationship between the two stereo cameras. This is a set of two straight lines formed by intersecting a stereo image with a straight line connecting the camera centers of the two stereo cameras and a point on the background scene, and is an epipolar straight line. Is a condition that the image is reflected on the pixel above the pair of epipolar straight lines in the stereo image. The corresponding points of the pixels are obtained on all the epipolar straight line pairs of the left and right images.

【0034】その後、対応検出部3において検出された
対応は対応記憶部4に出力され、対応記憶部4におい
て、画素の対応結果を記憶する。この対応記憶部4に記
憶される対応の状態を図2に示す。図2は、対応記憶部
4に記憶される2台のステレオカメラから出力された背
景シーンの画像を構成する画素の対応の記憶状態を示す
図である。図2の(a)が背景画像と左画像と右画像と
の位置関係を示す図であり、図2の(b)が左画像と右
画像との背景画像の明るさの配列を示す図であり、図2
の(c)が左画像に記憶される座標と、右画像に記憶さ
れる画像の対応記憶を示す図である。この図2に示され
るように、対応の記憶は、各画素について、対応する画
素の相手側の画像における座標を記憶することにより行
われる。
Thereafter, the correspondence detected by the correspondence detection unit 3 is output to the correspondence storage unit 4, and the correspondence storage unit 4 stores the result of the correspondence between the pixels. FIG. 2 shows the correspondence state stored in the correspondence storage unit 4. FIG. 2 is a diagram illustrating a correspondence storage state of pixels constituting a background scene image output from the two stereo cameras and stored in the correspondence storage unit 4. 2A is a diagram illustrating a positional relationship between a background image, a left image, and a right image, and FIG. 2B is a diagram illustrating an array of brightness of the background image between the left image and the right image. Yes, Figure 2
(C) of FIG. 12 is a diagram showing the correspondence between the coordinates stored in the left image and the image stored in the right image. As shown in FIG. 2, the corresponding storage is performed for each pixel by storing the coordinates of the corresponding pixel in the image on the other side.

【0035】対応記憶部4による対応の記憶が終了する
と、初期段階は終了となる。その後、撮像部1を構成す
る2台のステレオカメラのそれぞれから出力された画像
の画像データは、随時、領域検出部5に入力される。
When the storage of the correspondence by the correspondence storage unit 4 is completed, the initial stage ends. After that, the image data of the image output from each of the two stereo cameras constituting the imaging unit 1 is input to the area detection unit 5 as needed.

【0036】領域検出部5では、対応記録部4に記憶さ
れている対応する画素の座標を用いて、画像入力部2か
ら出力された画像データにより表される画像において、
背景以外の物体の領域を検出する。この対応検出部4に
おける背景以外の物体の領域を検出する動作について図
3を参照して説明する。
The area detection unit 5 uses the coordinates of the corresponding pixels stored in the correspondence recording unit 4 to calculate the image represented by the image data output from the image input unit 2.
An area of the object other than the background is detected. The operation of detecting the area of the object other than the background in the correspondence detection unit 4 will be described with reference to FIG.

【0037】図3は、領域検出部5において領域を検出
する際の2台のステレオカメラと物体との位置関係を示
す図である。図3の(a)が、物体が存在しない場合の
2台のステレオカメラと背景上の1点との位置関係を示
す図であり、図3の(b)が物体Oが存在している場合
の物体Oと2台のステレオカメラとの位置関係を示す図
である。この図3に示されるように、初期段階で背景画
像の対応付けを行った際に、背景のある点Pbについ
て、左画像の画素P1と右画像の画素Prが対応してい
たとする(図3の(a))。
FIG. 3 is a diagram showing the positional relationship between two stereo cameras and an object when the area detection section 5 detects an area. FIG. 3A is a diagram illustrating a positional relationship between two stereo cameras and one point on the background when no object exists, and FIG. 3B illustrates a case where an object O exists. FIG. 2 is a diagram showing a positional relationship between an object O and two stereo cameras. As shown in FIG. 3, when the background image is associated at the initial stage, the pixel P1 of the left image and the pixel Pr of the right image correspond to a point Pb with a background (FIG. 3). (A)).

【0038】その後、物体Oが撮像領域内に入ってき
て、2台のステレオカメラにより物体Oを撮影したとす
る(図3の(a))。この点Pbが物体Oによって隠さ
れた場合、PlとPrとが映している点は物体上の異な
った点POlとPOrとなるので対応しなくなる。この
ような対応しなくなった点を全て取り出すことにより、
物体領域の検出を行う。ここで、対応しなくなったか否
かの判定には以下のような計算方法を用いる。
Thereafter, it is assumed that the object O enters the image pickup area and the object O is photographed by two stereo cameras (FIG. 3A). When this point Pb is hidden by the object O, the points on which Pl and Pr are projected become different points PO1 and POr on the object, so that they do not correspond. By taking out all the points that no longer correspond,
The object area is detected. Here, the following calculation method is used to determine whether or not the correspondence has been made.

【0039】・単純な画素値の差分|Il(Pl)−I
r(Pr)|があるしきい値以下である。ただし、Il
(Pl)、Ir(Pr)はそれぞれ画素Pにおけるステ
レオ左画像、右画像の画素値を示す。 ・画素Pl、Prを中心としたウィンドウ内のパターン
の変化と対応する画素を中心とした、以下の式で表され
るウィンドウ内のパターンの変化sがあるしきい値以下
である。
Simple pixel value difference | Il (Pl) -I
r (Pr) | is below a certain threshold. However, Il
(Pl) and Ir (Pr) indicate the pixel values of the stereo left image and the right image at the pixel P, respectively. The change s of the pattern in the window represented by the following equation, centered on the pixel corresponding to the change of the pattern in the window around the pixels Pl and Pr, is below a certain threshold.

【0040】[0040]

【数1】 (Equation 1)

【0041】ただし、Pli 、Pri はそれぞれ画素P
l、Prを中心としたウィンドウのi番目の画素であ
り、μl、μrはそれぞれ画素Pl、Prを中心とした
ウィンドウ内の画素値の平均である。
[0041] However, Pl i, Pr i each pixel P
It is the i-th pixel of the window centered on l and Pr, and μl and μr are the averages of the pixel values in the window centered on the pixels Pl and Pr, respectively.

【0042】このように、領域検出部5における対応し
なくなったか否かの判定においては、上述のような計算
方法による判定方法を用いるが、本発明では、一度対応
付けがおこなわれた画素の対応が、物体が入ってくるこ
とにより崩れたか否かを判定して物体領域の検出を行う
のであり、判定のための計算方法自体に本発明の趣旨が
あるわけではない。従って、上述のような計算方法によ
る判定に限定されるものではなく、その他の適切な計算
式により表される判定を行っても良い。このような判定
により領域検出部5において物体領域が検出される。
As described above, the determination by the above-described calculation method is used to determine whether or not the correspondence is lost in the area detection unit 5. In the present invention, however, the correspondence between the pixels once associated with each other is determined. However, the object region is detected by judging whether or not the object has collapsed due to the entry of the object, and the calculation method itself for the judgment does not have the gist of the present invention. Therefore, the determination is not limited to the above-described calculation method, and a determination represented by another appropriate calculation formula may be performed. By such a determination, the object area is detected by the area detection unit 5.

【0043】次に、背景画像入力部6では、画像を合成
する場合の物体の背景となる画像を入力する。この背景
画像の入力はカメラを用いて背景を撮影したものを背景
画像として入力させても良いし、ビデオテープやレーザ
ーディスク、若しくは、コンピュータの大容量記憶装置
等の記憶媒体に記憶されている画像を背景画像として入
力させても良い。
Next, the background image input section 6 inputs an image to be the background of the object when synthesizing the images. This background image may be input as a background image by photographing the background using a camera, or may be an image stored in a storage medium such as a video tape, a laser disk, or a mass storage device of a computer. May be input as a background image.

【0044】画像合成部7では、背景画像入力部6に入
力された背景に領域検出部5で検出した領域、つまり、
背景以外の物体の画像を合成する。具体的には、領域検
出部5において検出された領域には画像入力部2に入力
された画像の画像データの画素値を用い、領域検出部5
で検出されなかった領域には背景画像入力部6において
背景画像として入力された画像の画像データの画素値を
用いる。
In the image synthesizing section 7, the area detected by the area detecting section 5 on the background input to the background image input section 6, that is,
The image of the object other than the background is synthesized. Specifically, the pixel value of the image data of the image input to the image input unit 2 is used for the area detected by the area detection unit 5.
The pixel value of the image data of the image input as the background image in the background image input unit 6 is used for the area not detected in the above.

【0045】ここで、画像合成部7における画像合成の
際に、領域検出部5で検出した領域の画像データとして
画像入力部2に入力した画像データの画素値を用いて、
合成に利用するが、撮像部1は2台のステレオカメラに
より構成されるため、画像入力部2から出力される画像
の画像データも2枚分存在する。そこで、領域検出部5
において、ステレオカメラの左画像を用いて領域を検出
した場合は検出した領域を画像入力部2で入力した左画
像の画素値で置き換え、ステレオカメラの右画像を用い
て領域を検出した場合は検出した領域を映像入力部2で
入力した右画像の画素値で置き換える。このように、画
像合成を実行する場合にはどちらの結果を用いても良
い。
Here, at the time of image synthesis in the image synthesis section 7, the pixel value of the image data input to the image input section 2 as the image data of the area detected by the area detection section 5 is used.
Although used for synthesis, since the imaging unit 1 is composed of two stereo cameras, there are two pieces of image data of the image output from the image input unit 2. Therefore, the area detection unit 5
In, when the area is detected using the left image of the stereo camera, the detected area is replaced with the pixel value of the left image input by the image input unit 2, and when the area is detected using the right image of the stereo camera, the detection is performed. Is replaced with the pixel value of the right image input by the video input unit 2. As described above, when performing image synthesis, either result may be used.

【0046】従って、この第1の実施形態に係る画像合
成装置によれば、入力した画像から背景以外の領域を、
正確かつ、迅速に取り出すことが可能であり、さらにこ
の取り出した領域を、背景画像入力部6に入力した背景
画像と合成することができる。
Therefore, according to the image synthesizing apparatus according to the first embodiment, regions other than the background from the input image are
It is possible to accurately and quickly extract the extracted area, and it is possible to combine the extracted area with the background image input to the background image input unit 6.

【0047】次に、本発明に係る画像合成装置の第2の
実施形態について図4を参照して説明する。図4に、第
2の実施形態に係る画像合成装置の構成のブロック図を
示す。ただし、図1に示される第1の実施形態に係る画
像合成装置と同様な部材には同じ番号を付す。
Next, a second embodiment of the image synthesizing apparatus according to the present invention will be described with reference to FIG. FIG. 4 shows a block diagram of a configuration of an image composition device according to the second embodiment. However, the same members as those of the image synthesizing apparatus according to the first embodiment shown in FIG.

【0048】この図4に示されるように、この第2の実
施形態に係る画像合成装置は、上述の第1の実施形態に
係る画像合成装置に、領域検出部5で得られた物体領域
に対して、その物体の3次元的構造及び、大体の距離を
測定する距離検出部8と、距離検出部8において検出さ
れた構造及び、距離の情報を記憶しておく距離記憶部9
とを設けたものである。
As shown in FIG. 4, the image synthesizing device according to the second embodiment is different from the image synthesizing device according to the first embodiment in that the object area obtained by the area detecting section 5 On the other hand, a distance detecting unit 8 for measuring the three-dimensional structure and the approximate distance of the object, and a distance storing unit 9 for storing information on the structure detected by the distance detecting unit 8 and the distance.
Are provided.

【0049】また、領域検出部5の出力は、直接画像合
成部7に出力される第1の実施形態と異なり、まず距離
検出部8に入力する。その後、検出された距離が付与さ
れた領域の画像データは距離記憶部9に記憶され、距離
記憶部9から検出された距離が付与された領域の画像デ
ータが画像合成部7に出力される。
The output of the area detecting section 5 is first input to the distance detecting section 8 unlike the first embodiment which is directly output to the image synthesizing section 7. Thereafter, the image data of the region to which the detected distance has been added is stored in the distance storage unit 9, and the image data of the region to which the detected distance has been added is output from the distance storage unit 9 to the image synthesizing unit 7.

【0050】距離検出部8による距離の検出は、レーザ
や超音波など距離を測定する距離計測様カメラにより能
動的に距離情報を求める検出方法でも良いし、特殊な距
離計測用カメラは設けず、領域検出部5において検出さ
れた領域内で、2枚の画像の画素間の対応を取り、画素
間の対応を取ることにより物体領域の構造と距離とを求
めても良い。また、距離記憶部9により記憶された情報
は、画像合成部7に出力されて、画像合成を行う際に利
用される。
The distance detection by the distance detection unit 8 may be a detection method of actively obtaining distance information by a distance measuring camera such as a laser or an ultrasonic wave for measuring a distance, or a special distance measuring camera is not provided. The structure and distance of the object region may be obtained by taking correspondence between pixels of two images in the region detected by the region detection unit 5 and taking correspondence between pixels. The information stored by the distance storage unit 9 is output to the image synthesizing unit 7 and used when performing image synthesis.

【0051】従って、この第2の実施形態に係る画像合
成装置においては、上述した第1の実施形態に係る画像
合成装置の効果と同様な効果が得られると共に、領域検
出部5において検出された領域の、撮像装置からその領
域に対応する物体までの距離を検出することが可能にな
ると共に、その領域に対応する物体の3次元構造も認識
することができる。
Therefore, in the image synthesizing apparatus according to the second embodiment, the same effects as those of the image synthesizing apparatus according to the above-described first embodiment can be obtained, and the image detected by the area detecting unit 5 can be obtained. It is possible to detect the distance of the region from the imaging device to the object corresponding to the region, and it is also possible to recognize the three-dimensional structure of the object corresponding to the region.

【0052】次に、本発明に係る画像合成装置の第3の
実施形態について図面を参照して説明する。図5に、第
3の実施形態に係る画像合成装置の構成のブロック図を
示す。この第3の実施形態に係る画像合成装置の構成
は、図4に示される第2の実施形態に係る画像合成装置
の構成と同様である。ただし、この図5に示される背景
画像入力部31の動作、及び、画像合成部32の動作と
が、図4に示される背景画像入力部6の動作、及び、画
像合成部7の動作と異なる。その他のブロックの動作に
ついては同様である。よって、以下に、この図5に示さ
れる背景画像入力部31の動作、及び、画像合成部32
の動作について説明する。ただし、図5において、図4
に示される第2の実施形態が有する部材と同様な部材に
は同じ番号を付す。
Next, a third embodiment of the image synthesizing apparatus according to the present invention will be described with reference to the drawings. FIG. 5 shows a block diagram of a configuration of the image synthesizing apparatus according to the third embodiment. The configuration of the image synthesizing apparatus according to the third embodiment is the same as the configuration of the image synthesizing apparatus according to the second embodiment shown in FIG. However, the operation of the background image input unit 31 and the operation of the image combining unit 32 shown in FIG. 5 are different from the operation of the background image input unit 6 and the operation of the image combining unit 7 shown in FIG. . The operation of the other blocks is the same. Therefore, the operation of the background image input unit 31 shown in FIG.
Will be described. However, in FIG.
The same reference numerals are given to members similar to those of the second embodiment shown in FIG.

【0053】まず、図5に示される背景画像入力部31
の動作について説明する。この第3の実施形態に係る画
像合成装置が具備する背景画像入力部31においては、
その背景画像と撮像部1との間の距離を表すデータと、
その撮像面において存在する存在範囲を表すデータとが
付与された背景画像の画像データが入力される。この、
背景画像入力部31に入力される画像の概念図を図6に
示す。
First, the background image input unit 31 shown in FIG.
Will be described. In the background image input unit 31 provided in the image composition device according to the third embodiment,
Data representing the distance between the background image and the imaging unit 1;
Image data of a background image to which data representing the existence range existing on the imaging surface is added is input. this,
FIG. 6 is a conceptual diagram of an image input to the background image input unit 31.

【0054】この図6に示されるように、背景画像入力
部31に入力される背景画像に付与される距離を表すデ
ータは、遠方、中距離、近距離等であり、存在範囲を表
すデータとしては、全画面、画面左下、画面下方等であ
る。
As shown in FIG. 6, the data representing the distance given to the background image input to the background image input unit 31 is distant, medium distance, short distance, and the like. Is the entire screen, the lower left of the screen, the lower screen, and the like.

【0055】従って、この背景画像入力部31では、物
体の背景となる画像だけでなく、物体よりも前方に存在
する背景の画像も入力することができる。
Therefore, the background image input unit 31 can input not only an image serving as a background of an object but also an image of a background existing ahead of the object.

【0056】上述のように、これらの背景画像は合成し
た画像の中でどこに存在するかという存在情報と物体と
どちらが前方にあるかを計算するための、撮像部1を構
成するステレオカメラからの距離情報が与えられてい
る。例えば、図6においては背景としての家の画像16
0が画面の全範囲に、車の画像161が画面の左下に、
花の画像162が画面の下方にあると設定されている。
As described above, these background images are output from the stereo camera constituting the image pickup unit 1 for calculating the presence information indicating where the background image exists in the synthesized image and which object is ahead. Distance information is provided. For example, in FIG. 6, an image 16 of a house as a background
0 is in the whole area of the screen, car image 161 is in the lower left of the screen,
It is set that the flower image 162 is below the screen.

【0057】さらに、ステレオカメラからの距離とし
て、家の画像160は遠距離にあり、車の画像161は
中距離であるが検出された物体よりは遠方にあり、花の
画像162は近距離にあると設定されている。このよう
に設定すると、検出した物体領域の画像163は家の画
像160や車の画像161の前方にあるので、これらの
背景により隠されることはないが、花の画像162は物
体より前方にあるので、花の画像162により隠されて
いる、という合成結果である合成画像164を、図5に
示される画像合成部32において、合成することができ
る。
Further, as the distance from the stereo camera, the house image 160 is at a long distance, the car image 161 is at a medium distance but far from the detected object, and the flower image 162 is at a short distance. It is set to be. With this setting, the detected object area image 163 is located in front of the house image 160 and the car image 161 and is not hidden by these backgrounds, but the flower image 162 is located ahead of the object. Therefore, the combined image 164, which is the combined result of being hidden by the flower image 162, can be combined in the image combining unit 32 shown in FIG.

【0058】次に、この第3の実施形態に係る画像合成
装置が具備する画像合成部32の画像合成の動作につい
て説明する。図6に示されるような、合成画像164を
合成する際の画像合成部32の動作は、撮像面を覆う全
ての画素に対して、背景画像入力部31から入力され
た、距離を表すデータが付与された背景画像を構成する
画素の距離と、距離検出部8において検出された距離の
データが付与された検出された物体領域の画像を構成す
る画素の距離とを比較する。この比較において、最も撮
像部1を構成するステレオカメラに近い距離にある画素
を、その点の画素であるとみなす。この比較を撮像面全
体に渡って実行することにより、3次元的な距離が与え
られている画素により構成されている画像の合成を実行
する。
Next, an image synthesizing operation of the image synthesizing section 32 provided in the image synthesizing apparatus according to the third embodiment will be described. As shown in FIG. 6, the operation of the image synthesizing unit 32 when synthesizing the synthesized image 164 is such that the data representing the distance input from the background image input unit 31 is applied to all the pixels covering the imaging surface. The distance between the pixels constituting the assigned background image is compared with the distance between the pixels constituting the image of the detected object region to which the data of the distance detected by the distance detection unit 8 has been added. In this comparison, the pixel closest to the stereo camera constituting the imaging unit 1 is regarded as the pixel at that point. By performing this comparison over the entire imaging surface, an image composed of pixels having a three-dimensional distance is synthesized.

【0059】従って、この第3の実施形態に係る画像合
成装置によれば、第2の実施形態に係る画像合成装置の
効果と同様な効果が得られると共に、撮像部1からの距
離と、撮像面における存在範囲とが付与された背景画像
の画像データを背景画像入力部31に入力することがで
き、距離情報が付与された背景画像の画像を構成する画
素の距離と、距離検出部8において検出された領域を構
成する画素の距離とを比較し、この比較結果に基づき、
画像合成部32が合成画像に採用する画素を決定するの
で、単に物体に覆われる背景としての画像のみならず、
物体よりも前方にある背景画像を用いて画像の合成を実
行することができ、3次元的な合成画像を生成すること
ができる。
Therefore, according to the image synthesizing apparatus according to the third embodiment, the same effects as those of the image synthesizing apparatus according to the second embodiment can be obtained. The image data of the background image to which the existence range on the surface has been added can be input to the background image input unit 31, and the distance between the pixels forming the image of the background image to which the distance information has been added and the distance detection unit 8 Compare the distance between the pixels constituting the detected area, based on the comparison result,
Since the image combining unit 32 determines the pixels to be used in the combined image, not only the image as the background covered by the object,
Image synthesis can be performed using a background image that is ahead of the object, and a three-dimensional synthesized image can be generated.

【0060】次に、本発明に係る画像合成装置の第4の
実施形態について図面を参照して説明する。図7に、第
4の実施形態に係る画像合成装置の構成のブロック図を
示す。この第4の実施形態に係る画像合成装置の構成
は、図4に示される第2の実施形態の構成と同様であ
る。ただし、この図7に示される背景画像入力部41の
動作及び画像合成部42の動作が、図4に示される背景
画像入力部6の動作及び画像合成部7の動作と異なり、
その他のブロックの動作については同様である。よっ
て、以下に、この図7に示される背景画像入力部41の
動作及び画像合成部42の動作について説明する。ただ
し、図7において、図4に示される部材と同様な部材に
は同じ番号を付す。
Next, a fourth embodiment of the image synthesizing apparatus according to the present invention will be described with reference to the drawings. FIG. 7 shows a block diagram of a configuration of an image composition device according to the fourth embodiment. The configuration of the image synthesizing apparatus according to the fourth embodiment is the same as the configuration of the second embodiment shown in FIG. However, the operation of the background image input unit 41 and the operation of the image synthesis unit 42 shown in FIG. 7 are different from the operation of the background image input unit 6 and the operation of the image synthesis unit 7 shown in FIG.
The operation of the other blocks is the same. Therefore, the operation of the background image input unit 41 and the operation of the image combining unit 42 shown in FIG. 7 will be described below. However, in FIG. 7, the same members as those shown in FIG. 4 are denoted by the same reference numerals.

【0061】まず、図7に示される背景画像入力部41
の動作について説明する。この第4の実施形態に係る画
像合成装置が具備する背景画像入力部41は、背景画像
として、3次元コンピュータグラフィックスによる背景
のモデルを入力する。
First, the background image input unit 41 shown in FIG.
Will be described. The background image input unit 41 included in the image composition device according to the fourth embodiment inputs a background model by three-dimensional computer graphics as a background image.

【0062】そして、画像合成部42は、距離記憶部9
において記憶されている物体の3次元的な構造に領域検
出部5において検出された領域に対応する物体の画像を
テクスチャとして貼り付けた物体のモデルを、背景画像
入力部6において入力した3次元コンピュータグラフィ
ックスの中に距離記憶部9で記憶しているカメラから物
体領域までの距離により計算した物体の3次元的な位置
に配置することにより、3次元コンピュータグラフィッ
クスを用いた画像の合成を行う。
Then, the image synthesizing unit 42 stores the distance
A three-dimensional computer that inputs a model of an object obtained by pasting, as a texture, an image of the object corresponding to the region detected by the region detection unit 5 to the three-dimensional structure of the object stored in the background image input unit 6 By arranging the object at a three-dimensional position calculated based on the distance from the camera to the object area stored in the distance storage unit 9 in the graphics, the image is synthesized using three-dimensional computer graphics. .

【0063】また、距離検出部8において、物体の詳細
な3次元構造を検出せず、物体とカメラとの間のおおよ
その距離が検出されている場合には、その距離に置かれ
た平面上に領域検出部5において検出された領域の画像
をテクスチャとして貼り付けることで3次元コンピュー
タグラフィックスを合成する。
When the distance detecting unit 8 does not detect the detailed three-dimensional structure of the object and detects the approximate distance between the object and the camera, the distance detector 8 determines whether or not the distance between the object and the camera is higher than the plane set at that distance. 3D computer graphics are synthesized by pasting the image of the area detected by the area detection unit 5 as a texture.

【0064】従って、この第4の実施形態に係る画像合
成装置によれば、第2の実施形態に係る画像合成装置の
効果と同様な効果が得られると共に、3次元コンピュー
タグラフィックスによる背景画像を用いることができる
と共に、距離記憶部4に記憶されている領域の距離に基
づき、3次元的な画像の合成を実行することができる。
Therefore, according to the image synthesizing apparatus according to the fourth embodiment, the same effect as that of the image synthesizing apparatus according to the second embodiment can be obtained, and the background image by three-dimensional computer graphics can be obtained. It can be used and can perform three-dimensional image synthesis based on the distance of the area stored in the distance storage unit 4.

【0065】ここで、この図7に示される背景画像入力
部41の機能として、上述の3次元コンピュータグラフ
ィックスの背景画像を入力させる他に、図5に示される
第3の実施形態に係る画像合成装置が具備する、背景画
像入力部31の機能を具備させても良い。この場合、利
用者は、3次元コンピュータグラフィックスの画像、若
しくは、距離データと存在範囲が付与された背景画像と
のいずれか一方を背景画像として選択することができ
る。また、この背景画像入力部41の機能拡張に伴い、
図7に示される画像合成部42の機能として、図5に示
される第3の実施形態に係る画像合成部32の機能を具
備させると良い。
Here, the functions of the background image input section 41 shown in FIG. 7 include, in addition to the input of the above-described background image of three-dimensional computer graphics, an image according to the third embodiment shown in FIG. The function of the background image input unit 31 provided in the synthesizing device may be provided. In this case, the user can select any one of the three-dimensional computer graphics image or the background image to which the distance data and the existence range are added as the background image. Also, with the extension of the function of the background image input unit 41,
As the function of the image combining unit 42 shown in FIG. 7, the function of the image combining unit 32 according to the third embodiment shown in FIG. 5 may be provided.

【0066】次に、本発明に係る画像合成装置の第5の
実施形態に係る画像合成装置について図面を参照して説
明する。図8に、この第5の実施形態に係る画像合成装
置の構成のブロック図を示す。
Next, an image synthesizing apparatus according to a fifth embodiment of the present invention will be described with reference to the drawings. FIG. 8 shows a block diagram of a configuration of the image synthesizing apparatus according to the fifth embodiment.

【0067】この図8に示されるように、この第5の実
施形態に係る画像合成装置の構成は、図4に示される第
2の実施形態の構成に、死角除去部53を付け加えた構
成となっている。この死角除去部53が付け加えられた
ことに伴い、画像入力部2の出力が死角除去部53に入
力し、領域検出部5において検出された領域のデータが
距離検出部8及び死角除去部53にも入力し、距離記憶
部9に記憶された距離データが付与された領域のデータ
が、死角除去部53及び画像合成部52に出力され、死
角除去部53からの出力が画像合成部52に出力されて
いる。また、図4に示される第2の実施形態に係る画像
合成装置と同様な部材には、同じ番号を付す。
As shown in FIG. 8, the configuration of the image synthesizing apparatus according to the fifth embodiment is the same as the configuration of the second embodiment shown in FIG. Has become. With the addition of the blind spot remover 53, the output of the image input unit 2 is input to the blind spot remover 53, and the data of the area detected by the area detector 5 is sent to the distance detector 8 and the blind spot remover 53. The data of the area to which the distance data stored in the distance storage unit 9 is added is output to the blind spot removing unit 53 and the image combining unit 52, and the output from the blind spot removing unit 53 is output to the image combining unit 52. Have been. The same members as those of the image compositing apparatus according to the second embodiment shown in FIG. 4 are denoted by the same reference numerals.

【0068】また、この図8に示される死角除去部53
以外の他のブロックの機能としては、第2の実施形態に
係る画像合成装置に具備されるそれぞれのブロックに対
応する機能と同様である。
The blind spot elimination section 53 shown in FIG.
The functions of the other blocks other than the above are the same as the functions corresponding to the respective blocks provided in the image synthesizing apparatus according to the second embodiment.

【0069】そこで、この第5の実施形態に係る画像合
成装置に具備された死角除去部53について説明する。
Therefore, a description will be given of the blind spot removing unit 53 provided in the image synthesizing apparatus according to the fifth embodiment.

【0070】前述の第1から第4の実施形態に係る画像
合成装置においては、物体領域のみを検出するために、
領域検出部5において図3に示されるような、画素間の
対応の崩れを基に物体領域の検出を行っていた。
In the image synthesizing apparatuses according to the first to fourth embodiments, since only the object area is detected,
In the area detection unit 5, the object area is detected based on the collapse of the correspondence between the pixels as shown in FIG.

【0071】しかし、単に対応が崩れている画素のみを
物体領域であるとみなしてしまうと、物体領域に死角領
域が含まれてしまう場合がある。この場合を図9を参照
して説明する。図9の(a)は初期段階における背景と
2台のステレオカメラとの位置関係を示す図であり、図
9の(b)は物体が撮像領域に入ってきた場合の背景と
2台のステレオカメラとの位置関係を示す図である。例
えば、図9の(b)に示されるように、2台のカメラの
位置関係により、背景のある1点Pbに対して、左画像
の対応画素Plは物体Oによって隠されているが、右画
像の対応画素Prは物体によって隠されておらず背景の
点を映しているという状況が発生する場合がある。この
場合であっても、両画素間の対応が崩れているために、
この画素を物体領域として検出してしまう。
However, if only pixels whose correspondence is lost are regarded as an object area, the object area may include a blind spot area. This case will be described with reference to FIG. FIG. 9A is a diagram showing the positional relationship between the background and two stereo cameras at an initial stage, and FIG. 9B is a diagram showing the background and two stereo cameras when an object enters the imaging area. FIG. 3 is a diagram illustrating a positional relationship with a camera. For example, as shown in FIG. 9B, the corresponding pixel Pl of the left image is hidden by the object O with respect to one background point Pb due to the positional relationship between the two cameras, but the right pixel P1 is hidden by the object O. A situation may occur in which the corresponding pixel Pr of the image is not hidden by the object but reflects a background point. Even in this case, since the correspondence between the two pixels is broken,
This pixel is detected as an object area.

【0072】この図9に示される位置関係において検出
される物体領域を、死角領域と呼ぶ。従って、より正確
に物体領域を取り出して画像合成を実行するためには、
画像合成の際に、物体領域に含まれる死角領域を除去す
る必要がある。
The object area detected in the positional relationship shown in FIG. 9 is called a blind spot area. Therefore, in order to take out the object region more accurately and execute the image synthesis,
At the time of image synthesis, it is necessary to remove a blind spot area included in the object area.

【0073】そのため、この図8に示される第5の実施
形態に係る画像合成装置においては領域検出部5におい
て検出された物体領域から死角領域を除去するための死
角除去部53を設けている。
Therefore, in the image synthesizing apparatus according to the fifth embodiment shown in FIG. 8, a blind spot removing section 53 for removing a blind spot area from the object area detected by the area detecting section 5 is provided.

【0074】次に、図8に示される死角除去部53の動
作について図10を参照して説明する。この図10に示
されるように、今、初期段階としての背景シーンの撮影
を行った際に、背景の点Pbに対して、左画像の画素P
lと右画像の画素Prとが対応していたとする。物体1
00がこの背景シーンに入ってくることによって、右画
像における物体100の端点Poに対して、左画像にP
lからPl’までの範囲の死角領域が発生する。
Next, the operation of the blind spot removing section 53 shown in FIG. 8 will be described with reference to FIG. As shown in FIG. 10, when the background scene is photographed as an initial stage, the pixel P of the left image is positioned with respect to the background point Pb.
It is assumed that 1 corresponds to the pixel Pr of the right image. Object 1
00 enters this background scene, the end point Po of the object 100 in the right image is
A blind spot area from 1 to Pl 'is generated.

【0075】物体の端点Poと左側のステレオカメラの
撮像面との間の距離zoは、距離検出部8により検出さ
れ、さらにこの検出された距離zoは距離記憶部9に記
憶されているので、このzoを用いて、Pl’の座標を
計算により求めて死角領域を除去するのが、この第5の
実施形態に係る画像合成装置が具備する死角除去部53
の動作である。
The distance zo between the end point Po of the object and the imaging plane of the stereo camera on the left side is detected by the distance detecting section 8, and the detected distance zo is stored in the distance storing section 9. The blind spot area is removed by calculating the coordinates of Pl ′ using this zo. This is because the blind spot removal unit 53 included in the image synthesizing apparatus according to the fifth embodiment.
Operation.

【0076】上述の死角除去部53におけるPl’の座
標を求める際の計算例を以下に示す。左カメラの焦点距
離をflとし、左カメラのレンズ中心を原点としたP
l、Pl’の座標をそれぞれ、図10に示すように、
An example of calculation for obtaining the coordinates of Pl 'in the above-mentioned blind spot elimination unit 53 will be described below. The focal length of the left camera is fl, and the origin is the center of the left camera lens.
As shown in FIG. 10, the coordinates of l and Pl ′ are

【0077】[0077]

【数2】 (Equation 2)

【0078】とする。ここで、上付の矢印はそれがベク
トルであることを示している。以下の式においても同じ
である。この際、左カメラの座標系は図10の(b)に
示す通りである。また、右カメラの焦点距離をfr、右
カメラのレンズ中心を原点としてPrの座標は図10に
示すように、
Assume that Here, the superscript arrow indicates that it is a vector. The same applies to the following equations. At this time, the coordinate system of the left camera is as shown in FIG. Further, assuming that the focal length of the right camera is fr and the center of the lens of the right camera is the origin, the coordinates of Pr are as shown in FIG.

【0079】[0079]

【数3】 (Equation 3)

【0080】とする。この時、右カメラの座標系は図1
0の(c)に示す通りである。
It is assumed that At this time, the coordinate system of the right camera is shown in FIG.
0 (c).

【0081】左右のカメラの位置関係が既知のとき、左
カメラの原点を基準としたPrの座標は回転行列R、並
進ベクトルをhとすると、
When the positional relationship between the left and right cameras is known, the coordinates of Pr with respect to the origin of the left camera are a rotation matrix R, and a translation vector is h.

【0082】[0082]

【数4】 (Equation 4)

【0083】となる。以下の式のように、R、ベクトル
hは次の成分に分解して考える。
Is obtained. As shown in the following equation, R and vector h are decomposed into the following components.

【0084】[0084]

【数5】 (Equation 5)

【0085】とする。r1、r2、r3は共に3次元の
行ベクトルである。
Assume that: r1, r2, and r3 are all three-dimensional row vectors.

【0086】左画像のPl’と右画像のPrが物体の端
点Poに対応している場合、Poの座標xoについて、
If Pl ′ in the left image and Pr in the right image correspond to the end point Po of the object, the coordinates xo of Po are as follows:

【0087】[0087]

【数6】 (Equation 6)

【0088】が成り立つ。これをk、lについて解く
と、
Holds. Solving this for k and l gives

【0089】[0089]

【数7】 (Equation 7)

【0090】が成立する。ここで、・はベクトルのスカ
ラー積を示す。端点の距離zoは距離記憶部8に記憶さ
れているデータにより分かるので、数式(1)のz成分
座標と数式(2)とから、
Holds. Here, represents a scalar product of vectors. Since the distance zo of the end point can be known from the data stored in the distance storage unit 8, the z component coordinates of the equation (1) and the equation (2) are used.

【0091】[0091]

【数8】 (Equation 8)

【0092】と求めることができる。例えば、図11に
示されるように左右カメラを平行にx軸方向に距離d離
して配置し、左右カメラの焦点距離がfと共通である場
合を考える。この場合、
Can be obtained as follows. For example, consider a case in which the left and right cameras are arranged in parallel in the x-axis direction at a distance d as shown in FIG. 11 and the focal length of the left and right cameras is common to f. in this case,

【0093】[0093]

【数9】 (Equation 9)

【0094】である。図11に示されるように、Is as follows. As shown in FIG.

【0095】[0095]

【数10】 (Equation 10)

【0096】となり、数式に値を代入したものと一致す
る。
## EQU11 ## which is the same as the value obtained by substituting a value into the equation.

【0097】図8に示される死角除去部53ではこのよ
うに計算した座標Pl’から座標Plまでの範囲にある
画素を除去することによって、図10に示される端点P
rに関する死角を除去する。これを全ての端点の画素に
対して行うことにより、検出された領域に含まれる死角
領域を除去することができる。
The blind spot elimination section 53 shown in FIG. 8 removes the pixels in the range from the coordinates Pl ′ to the coordinates Pl calculated in this way, so that the end point P shown in FIG.
Remove the blind spot for r. By performing this for all the pixels at the end points, it is possible to remove the blind spot area included in the detected area.

【0098】距離検出部8における物体の距離の計測
が、大体の距離の計測である場合であっても、物体の前
後の幅がカメラと物体の距離に比べて十分小さければ、
端点の距離を大体の距離で置き換えて使用することがで
きる。
Even if the measurement of the distance of the object by the distance detection unit 8 is a measurement of the approximate distance, if the front and rear width of the object is sufficiently smaller than the distance between the camera and the object,
The distance between the end points can be replaced with the approximate distance.

【0099】従って、この第5の実施形態に係る画像合
成装置によれば、第2の実施形態に係る画像合成装置の
効果と同様な効果が得られると共に、検出された領域の
死角領域を探索ではなく、計算により求めて除去してい
るため、その死角領域の除去動作が迅速に行え、結果と
して、画像合成を実行する際の処理時間を軽減すること
ができる。
Therefore, according to the image synthesizing apparatus according to the fifth embodiment, the same effect as that of the image synthesizing apparatus according to the second embodiment can be obtained, and the blind spot area of the detected area is searched. However, since the blind spot area is removed by calculation instead of calculation, the blind spot area can be removed quickly, and as a result, the processing time when executing image synthesis can be reduced.

【0100】ここで、この図8に示される背景画像入力
部51の機能としては、第2の実施形態に係る画像合成
装置に具備される背景画像入力部6と同様であるとした
が、さらに、図5に示される第3の実施形態に係る画像
合成装置が具備する背景画像入力部31に具備された機
能、及び、図7に示される第4の実施形態に係る画像合
成装置が具備する背景画像入力部41に具備された機能
のうち、少なくともいずれか一方の機能を具備させるこ
とが好ましい。この場合、利用者は、合成させるべき背
景画像として、距離データと存在範囲が付与された背景
画像と、3次元コンピュータグラフィックスによる背景
画像との少なくともいずれか一方の画像を背景画像とし
て選択することができる。また、このような背景画像入
力部51の機能拡張に伴い、図8に示される画像合成部
52の機能として、前述の図5に示される第3の実施形
態に係る画像合成部32に具備された機能、及び、図7
に示される第4の実施形態に係る画像合成部42に具備
された機能の少なくともいずれか一方を具備させると良
い。
Here, the function of the background image input unit 51 shown in FIG. 8 is the same as that of the background image input unit 6 provided in the image synthesizing apparatus according to the second embodiment. , The function provided in the background image input unit 31 included in the image synthesizing apparatus according to the third embodiment shown in FIG. 5, and the image synthesizing apparatus according to the fourth embodiment shown in FIG. It is preferable that at least one of the functions provided in the background image input unit 41 is provided. In this case, the user selects at least one of a background image to which the distance data and the existence range are added and a background image by three-dimensional computer graphics as the background image to be combined. Can be. Further, with the function expansion of the background image input unit 51, the function of the image combining unit 52 shown in FIG. 8 is provided in the image combining unit 32 according to the third embodiment shown in FIG. 5 described above. Functions and FIG.
It is preferable to provide at least one of the functions provided in the image combining unit 42 according to the fourth embodiment shown in FIG.

【0101】次に、本発明に係る画像合成装置の第6の
実施形態について図面を参照して説明する。図12に、
第6の実施形態に係る画像合成装置の構成のブロック図
を示す。
Next, a sixth embodiment of the image synthesizing apparatus according to the present invention will be described with reference to the drawings. In FIG.
FIG. 13 shows a block diagram of a configuration of an image composition device according to a sixth embodiment.

【0102】この図12に示されるように、この画像合
成装置は、前述の第1の実施形態に係る画像合成装置
に、死角除去部63が付け加えられた構成となってい
る。ただし、図1に示される第1の実施形態に係る画像
合成装置と同様な部材には、同じ番号を付す。
As shown in FIG. 12, the image synthesizing apparatus has a configuration in which a blind spot removing unit 63 is added to the image synthesizing apparatus according to the first embodiment. However, the same members as those of the image synthesizing apparatus according to the first embodiment shown in FIG.

【0103】死角除去部63を、画像合成装置に付け加
える理由は、上述の第5の実施形態に死角除去部53を
付け加えた理由と同様であるが、この死角除去部63の
動作と第5の実施形態に係る画像合成装置が具備してい
る死角除去部53とは、その死角領域を除去する際の動
作が異なる。従って、以下に、この死角除去部63の死
角領域を除去する際の動作について説明する。
The reason why the blind spot elimination unit 63 is added to the image synthesizing apparatus is the same as the reason why the blind spot elimination unit 53 is added to the fifth embodiment, but the operation of the blind spot elimination unit 63 and the fifth embodiment will be described. The operation at the time of removing the blind spot area is different from that of the blind spot removing unit 53 provided in the image synthesizing apparatus according to the embodiment. Accordingly, the operation of the blind spot removing unit 63 when removing the blind spot area will be described below.

【0104】図12に示されるように、この第6の実施
形態に係る画像合成装置は、死角除去部63が付け加え
られた結果として、画像入力部2の出力が、対応検出部
3、領域検出部5及び画像合成部62に出力されると共
に、死角除去部63にも出力されている。また、領域検
出部5において検出された領域のデータは、第1の実施
形態のように、直接画像合成部62に出力されるのでは
なく、死角除去部63に出力され、死角除去部63は、
入力した領域から死角領域を除去した後の領域のデータ
を画像合成部62に出力する。
As shown in FIG. 12, in the image synthesizing apparatus according to the sixth embodiment, the output of the image input unit 2 is The output is also output to the blind spot elimination unit 63 while being output to the unit 5 and the image synthesis unit 62. In addition, the data of the area detected by the area detection unit 5 is not directly output to the image synthesis unit 62 as in the first embodiment, but is output to the blind spot removal unit 63, and the blind spot removal unit 63 ,
The data of the area after removing the blind spot area from the input area is output to the image synthesis unit 62.

【0105】この死角除去部63における、領域検出部
5において検出された領域から死角領域を除去する際の
動作について、図12及び図13を参照してさらに詳細
に説明する。
The operation of the blind spot removing section 63 for removing a blind spot area from the area detected by the area detecting section 5 will be described in more detail with reference to FIGS.

【0106】領域検出部5において検出された物体領域
は、図13の(a)に示されるように、右カメラと左カ
メラのそれぞれの死角領域を含んでいる。また、図13
の(b)、及び図13の(c)に示されるように、左画
像及び右画像の両方の画像に物体が映っている領域が存
在し、それに隣接して死角領域81、82が現れてい
る。
As shown in FIG. 13A, the object area detected by the area detecting section 5 includes the blind spot areas of the right camera and the left camera. FIG.
13 (b) and FIG. 13 (c), there is a region where an object is reflected in both the left image and the right image, and the blind spot regions 81 and 82 appear adjacent thereto. I have.

【0107】そこで、この死角領域を除去するために、
死角除去部63は領域検出部5において検出された物体
領域内において、ステレオ法により、検出された領域の
画像を構成する画素の対応を求める。この動作は対応検
出部3において行う画素の対応を検出するための動作と
同様の動作である。物体が映っている領域は両方の画像
に存在しているので、領域検出部5において検出された
領域の内、死角領域以外の物体領域では、画素間の対応
がとれるが、死角領域となっている領域は画素間の対応
がとれない。死角除去部63は、このような画素間の対
応が取れない部分を領域検出部5において検出された物
体領域から除去することにより死角領域を除去する。
Therefore, in order to remove this blind spot area,
The blind spot elimination unit 63 obtains the correspondence of the pixels constituting the image of the detected area in the object area detected by the area detection unit 5 by the stereo method. This operation is the same as the operation performed by the correspondence detection unit 3 for detecting the correspondence between pixels. Since the region where the object is present is present in both images, among the regions detected by the region detection unit 5, in the object region other than the blind spot region, correspondence between pixels can be obtained, but the blind spot region is formed. There is no correspondence between the pixels in the region where it exists. The blind spot elimination unit 63 removes the blind spot area by removing such a part where the correspondence between pixels cannot be established from the object area detected by the area detection unit 5.

【0108】従って、この第6の実施形態に係る画像合
成装置によれば、第1の実施形態に係る画像合成装置と
同様な効果が得られると共に、検出した物体領域におい
て、死角領域を正確に除去することができる。
Therefore, according to the image synthesizing apparatus according to the sixth embodiment, the same effect as that of the image synthesizing apparatus according to the first embodiment can be obtained, and the blind spot area can be accurately detected in the detected object area. Can be removed.

【0109】さらに、この第6の実施形態として、図1
2に示されるような、死角除去部63を第1の実施形態
に係る画像合成装置に付け加えた構成を説明したが、こ
の死角除去部63と同様の機能を有する死角除去部を、
前述の第2の実施形態に係る画像合成装置に付け加えた
構成としても良い。この構成の画像合成装置を第6の実
施形態の別の態様とする。
Further, as the sixth embodiment, FIG.
2, a configuration in which the blind spot removing unit 63 is added to the image synthesizing apparatus according to the first embodiment has been described. However, a blind spot removing unit having the same function as the blind spot removing unit 63 includes:
The configuration may be added to the image synthesizing apparatus according to the second embodiment. An image synthesizing apparatus having this configuration is another aspect of the sixth embodiment.

【0110】この場合の、第6の実施形態の別の態様に
係る画像合成装置の構成のブロック図を図14に示す。
この図14に示されるように、この第6の実施形態の別
の態様によれば、図4に示される第2の実施形態に係る
画像合成装置に、死角除去部63が付け加えられている
構成となっている。ただし、この図14において、図4
に示される第2の実施形態に係る画像合成装置と同様な
部材には、同じ番号を付す。
FIG. 14 is a block diagram showing the configuration of an image synthesizing apparatus according to another aspect of the sixth embodiment in this case.
As shown in FIG. 14, according to another aspect of the sixth embodiment, a configuration in which a blind spot removing unit 63 is added to the image synthesizing apparatus according to the second embodiment shown in FIG. It has become. However, in FIG.
The same members as those of the image synthesizing apparatus according to the second embodiment shown in FIG.

【0111】また、死角除去部63が付け加えられたこ
とに伴い、画像入力部2の出力が死角除去部63にも入
力し、領域検出部5において検出された領域のデータが
距離検出部8及び死角除去部63に入力し、距離記憶部
9に記憶された距離データが付与された領域のデータ
が、死角除去部63及び画像合成部62に出力され、死
角除去部63からの出力が画像合成部62に出力されて
いる。
Further, with the addition of the blind spot elimination section 63, the output of the image input section 2 is also input to the blind spot elimination section 63, and the data of the area detected by the area detection section 5 is output by the distance detection section 8 and The data in the area to which the distance data added to the blind spot remover 63 is stored and which is stored in the distance storage unit 9 is output to the blind spot remover 63 and the image combiner 62, and the output from the blind spot remover 63 is used as the image combiner. It is output to the unit 62.

【0112】従って、この第6の実施形態の別の態様に
係る画像合成装置によれば、領域検出部5において検出
された領域の3次元的な構造を認識することができると
共に、検出された領域から死角領域を正確に除去するこ
とができる。
Therefore, according to the image synthesizing apparatus according to another aspect of the sixth embodiment, it is possible to recognize the three-dimensional structure of the area detected by the area detecting section 5 and to detect the three-dimensional structure. The blind spot area can be accurately removed from the area.

【0113】ここで、図14に示される、この第6の実
施形態の別の態様に係る画像合成装置には、距離検出部
8及び距離記憶部9を具備させたことに伴い、死角除去
部63に、前述の図8に示される第5の実施形態におけ
る死角除去部53に具備された機能を具備させても良
い。この場合、利用者は、領域検出部5において検出さ
れた領域から、死角領域を検出する際に、死角除去部5
3の機能による死角領域の除去、若しくは、死角除去部
63の機能による死角領域の除去のいずれか一方を選択
することができる。
Here, the image synthesizing apparatus according to another aspect of the sixth embodiment shown in FIG. 14 is provided with the distance detecting section 8 and the distance storing section 9 and the blind spot removing section. 63 may have the function provided in the blind spot removing unit 53 in the fifth embodiment shown in FIG. 8 described above. In this case, when the user detects a blind spot area from the area detected by the area detecting section 5, the user may select the blind spot removing section 5
Either removal of the blind spot area by the function of No. 3 or removal of the blind spot area by the function of the blind spot removal unit 63 can be selected.

【0114】さらに、この図14に示される背景画像入
力部61の機能としては、第2の実施形態に係る画像合
成装置に具備される背景画像入力部6と同様であるとし
たが、図5に示される第3の実施形態に係る画像合成装
置が具備する背景画像入力部31に具備された機能、及
び、図7に示される第4の実施形態に係る画像合成装置
が具備する背景画像入力部41に具備された機能のう
ち、少なくともいずれか一方の機能を具備させることが
好ましい。この場合、利用者は、合成させるべき背景画
像として、距離データと存在範囲が付与された背景画像
と、3次元コンピュータグラフィックスの画像との少な
くともいずれか一方の画像を背景画像として選択するこ
とができる。また、この背景画像入力部61の機能拡張
に伴い、図12に示される画像合成部62の機能とし
て、前述の図5に示される第3の実施形態に係る画像合
成部32に具備された機能、及び、図7に示される第4
の実施形態に係る画像合成部42に具備された機能の少
なくともいずれか一方を具備させると良い。
The function of the background image input unit 61 shown in FIG. 14 is the same as that of the background image input unit 6 provided in the image synthesizing apparatus according to the second embodiment. The function provided in the background image input unit 31 included in the image synthesizing device according to the third embodiment shown in FIG. 7 and the background image input included in the image synthesizing device according to the fourth embodiment shown in FIG. It is preferable that at least one of the functions provided in the unit 41 is provided. In this case, the user can select, as the background image, at least one of the background image to which the distance data and the existence range are added and the three-dimensional computer graphics image as the background image to be combined. it can. Further, with the function expansion of the background image input unit 61, the function of the image synthesizing unit 62 shown in FIG. 12 provided in the image synthesizing unit 32 according to the third embodiment shown in FIG. And the fourth shown in FIG.
It is preferable to provide at least one of the functions provided in the image combining unit 42 according to the embodiment.

【0115】次に、本発明に係る画像合成装置の第7の
実施形態について図面を参照して説明する。図15に、
第7の実施形態に係る画像合成装置の構成のブロック図
を示す。
Next, a seventh embodiment of the image synthesizing apparatus according to the present invention will be described with reference to the drawings. In FIG.
FIG. 14 shows a block diagram of a configuration of an image composition device according to a seventh embodiment.

【0116】この図15に示されるように、この第7の
実施形態に係る画像合成装置の構成は、図1に示される
第1の実施形態の構成に、死角除去部73を付け加えた
構成となっている。ただし、図1に示される第1の実施
形態に係る画像合成装置と同様な部材には、同じ番号を
付す。
As shown in FIG. 15, the configuration of the image synthesizing apparatus according to the seventh embodiment is the same as the configuration of the first embodiment shown in FIG. 1 except that a blind spot removing unit 73 is added. Has become. However, the same members as those of the image synthesizing apparatus according to the first embodiment shown in FIG.

【0117】死角除去部73を、画像合成装置に付け加
える理由は、上述の第5の実施形態に死角除去部53を
付け加えた理由と同様であるが、この死角除去部73の
動作と第5の実施形態に係る画像合成装置が具備してい
る死角除去部73とは、その死角領域を除去する際の動
作が異なる。従って、以下に、この死角除去部73の死
角領域を除去する際の動作について説明する。
The reason why the blind spot elimination unit 73 is added to the image synthesizing apparatus is the same as the reason why the blind spot elimination unit 53 is added to the above-described fifth embodiment, but the operation of the blind spot elimination unit 73 and the fifth embodiment will be described. The operation of removing the blind spot area is different from that of the blind spot removing unit 73 provided in the image synthesizing apparatus according to the embodiment. Accordingly, the operation of the blind spot removing unit 73 when removing the blind spot area will be described below.

【0118】この第7の実施形態に係る画像合成装置に
具備された死角除去部73は、死角領域の位置関係を利
用してその死角領域を除去するものである。
The blind spot removal unit 73 provided in the image synthesizing apparatus according to the seventh embodiment removes the blind spot area by utilizing the positional relationship of the blind spot area.

【0119】この死角領域の除去について図13及び図
16を参照して説明する。まず、2台のステレオカメラ
により物体を撮影した場合のその物体領域は、図13に
示されるように、死角領域81、82を含む。この図1
3は、カメラを平行に置いた場合、真に物体領域となる
領域と、死角領域となる領域との位置関係を示したもの
である。
The removal of the blind area will be described with reference to FIGS. First, when an object is photographed by two stereo cameras, the object area includes blind spot areas 81 and 82 as shown in FIG. This figure 1
Reference numeral 3 indicates a positional relationship between a region that is truly an object region and a region that is a blind spot region when the camera is placed in parallel.

【0120】図13の(b)に示されるように、左画像
における死角領域81は物体となる領域の左にあり、図
13の(c)に示されるように、右画像における死角領
域82は物体となる領域の右にある。これは、平行にカ
メラを設置した場合の位置関係であるが、任意の位置に
ステレオカメラを設置した場合も、カメラの位置関係
と、死角領域の真の物体領域に対する位置関係が一致す
る。つまり、左画像の死角領域は物体領域の左側にあ
り、右画像の死角領域は物体領域の右側にある。
As shown in FIG. 13 (b), the blind spot area 81 in the left image is located to the left of the object area, and as shown in FIG. 13 (c), the blind spot area 82 in the right image is It is to the right of the object area. This is the positional relationship when the cameras are installed in parallel, but also when the stereo camera is installed at an arbitrary position, the positional relationship between the cameras and the positional relationship between the blind spot area and the true object area match. That is, the blind spot area of the left image is on the left side of the object area, and the blind spot area of the right image is on the right side of the object area.

【0121】そこで、この第7の実施形態に係る画像合
成装置に具備された死角除去部73は、このような、死
角領域の位置に関する性質を利用して死角領域を除去す
る。この除去の動作を図16を参照して説明する。
Therefore, the blind spot removing unit 73 provided in the image synthesizing apparatus according to the seventh embodiment removes a blind spot area using such a property relating to the position of the blind spot area. The operation of this removal will be described with reference to FIG.

【0122】図16に示されるように、右画像の物体領
域の左端の画素は、上述の位置関係に示されるように、
真の物体領域を示しているので、この右画像の物体領域
の左端の画素と対応する画素を、左画像の物体領域の左
側から探索していき、対応した画素が位置する対応点を
検出する。
As shown in FIG. 16, the pixel at the left end of the object area of the right image is, as shown in the above-described positional relationship,
Since the true object region is shown, a pixel corresponding to the leftmost pixel of the object region of the right image is searched from the left side of the object region of the left image, and a corresponding point where the corresponding pixel is located is detected. .

【0123】そして、左画像の左端の画素から、上述の
対応点に位置する画素までの範囲内にある画素を除去す
ることにより、左画像における死角領域を除去する。
Then, the blind spot area in the left image is removed by removing pixels in the range from the leftmost pixel of the left image to the pixel located at the corresponding point described above.

【0124】上記の除去動作を、右画像の物体領域の左
端の画素全てについて行うことにより、左画像の全ての
死角領域を除去することができる。
By performing the above-described removing operation on all the pixels at the left end of the object region of the right image, all the blind spot regions of the left image can be removed.

【0125】右画像の死角領域を除去する際も、同様の
動作を行うことになる。すなわち、左画像の右端の画素
に対応する画素を、右画像の右端から探索していき、対
応する画素が存在する位置を対応点として、右画像の右
端に位置する画素から対応点に位置する画素までの範囲
内にある画素を除去することにより、右画像の死角領域
を除去する。
The same operation is performed when the blind spot area of the right image is removed. That is, a pixel corresponding to the right end pixel of the left image is searched from the right end of the right image, and a position where the corresponding pixel exists is set as a corresponding point, and a pixel located at the right end of the right image is located at the corresponding point. By removing pixels within the range up to the pixel, the blind spot area of the right image is removed.

【0126】また、ステレオカメラを平行に設置した場
合以外でも、エピポーラ条件を用いて探索範囲を狭め同
様のことを行うことにより死角領域が除去できる。
Further, even when the stereo cameras are not installed in parallel, the blind spot area can be removed by narrowing the search range using the epipolar condition and performing the same operation.

【0127】従って、この第7の実施形態に係る画像合
成装置によれば、第1の実施形態に係る画像合成装置の
効果と同様の効果が得られると共に、死角領域を除去す
る際の探索する画素が、右画像又は左画像の端部の画素
に限られているため、その死角領域の除去を迅速に行う
ことができる。
Therefore, according to the image synthesizing apparatus according to the seventh embodiment, the same effects as those of the image synthesizing apparatus according to the first embodiment can be obtained, and a search for removing a blind spot area is performed. Since the pixels are limited to the pixels at the end of the right image or the left image, the blind spot area can be quickly removed.

【0128】ここで、図15に示される第7の実施形態
に係る画像合成装置が具備する死角除去部73の機能と
して、前述の図12に示される第6の実施形態に係る画
像合成装置が具備する死角除去部63の機能を具備させ
ても良い。この場合、利用者は、領域検出部5において
検出された領域から死角領域を除去する際に、死角除去
部73の機能による死角領域の除去、若しくは、死角除
去部63の機能による死角領域の除去のいずれか一方を
選択することができる。
Here, as the function of the blind spot elimination unit 73 provided in the image synthesizing apparatus according to the seventh embodiment shown in FIG. 15, the image synthesizing apparatus according to the sixth embodiment shown in FIG. The function of the blind spot removing unit 63 provided may be provided. In this case, when removing the blind spot area from the area detected by the area detection unit 5, the user removes the blind spot area by the function of the blind spot removal unit 73 or removes the blind spot area by the function of the blind spot removal unit 63. Can be selected.

【0129】さらに、この第7の実施形態として、図1
5に示されるような、死角除去部73を第1の実施形態
に係る画像合成装置に付け加えた構成を説明したが、こ
の死角除去部73と同様の機能を有する死角除去部を、
前述の第2の実施形態に係る画像合成装置に付け加えた
構成としても良い。この構成の画像合成装置を第7の実
施形態の別の態様とする。
Further, as the seventh embodiment, FIG.
5, the configuration in which the blind spot removing unit 73 is added to the image synthesizing apparatus according to the first embodiment has been described. However, a blind spot removing unit having the same function as the blind spot removing unit 73 is provided.
The configuration may be added to the image synthesizing apparatus according to the second embodiment. An image synthesizing apparatus having this configuration is another aspect of the seventh embodiment.

【0130】この場合の、第7の実施形態の別の態様に
係る画像合成装置の構成のブロック図を図17に示す。
この図17に示されるように、この第7の実施形態の別
の態様によれば、図4に示される第2の実施形態に係る
画像合成装置に、死角除去部73が付け加えられている
構成となっている。ただし、この図17において、図4
に示される第2の実施形態に係る画像合成装置と同様な
部材には、同じ番号を付す。
FIG. 17 is a block diagram showing the configuration of an image synthesizing apparatus according to another aspect of the seventh embodiment in this case.
As shown in FIG. 17, according to another aspect of the seventh embodiment, a configuration in which a blind spot removing unit 73 is added to the image synthesizing apparatus according to the second embodiment shown in FIG. It has become. However, in FIG.
The same members as those of the image synthesizing apparatus according to the second embodiment shown in FIG.

【0131】また、死角除去部73が付け加えられたこ
とに伴い、画像入力部2の出力が死角除去部73にも入
力し、領域検出部5において検出された領域のデータが
距離検出部8及び死角除去部73に入力し、距離記憶部
9に記憶された距離データが付与された領域のデータ
が、死角除去部73及び画像合成部72に出力され、死
角除去部73からの出力が画像合成部72に出力されて
いる。
Further, with the addition of the blind spot elimination section 73, the output of the image input section 2 is also input to the blind spot elimination section 73, and the data of the area detected by the area detection section 5 is output by the distance detection section 8 and The data in the area to which the distance data added to the blind spot remover 73 is stored and which is stored in the distance storage unit 9 is output to the blind spot remover 73 and the image combiner 72, and the output from the blind spot remover 73 is used as the image combiner. It is output to the unit 72.

【0132】従って、この第7の実施形態の別の態様に
係る画像合成装置によれば、領域検出部5において検出
された領域の3次元的な構造を認識することができると
共に、検出された領域から死角領域を正確に除去するこ
とができる。
Therefore, according to the image synthesizing apparatus according to another aspect of the seventh embodiment, it is possible to recognize the three-dimensional structure of the area detected by the area detecting section 5 and to detect the three-dimensional structure. The blind spot area can be accurately removed from the area.

【0133】ここで、図17に示される、この第7の実
施形態の別の態様に係る画像合成装置が具備する死角除
去部73に、前述の図8に示される第5の実施形態にお
ける死角除去部53に具備された機能、若しくは、図1
2に示される第6の実施形態における死角除去部63に
具備された機能のうち少なくともいずれか一方を具備さ
せても良い。この場合、利用者は、領域検出部5におい
て検出された領域から、死角領域を検出する際に、死角
除去部53の機能による死角領域の除去、死角除去部6
3の機能による死角領域の除去、若しくは、死角除去部
73の機能による死角領域の除去、のいずれか一つを選
択することができ、死角領域を除去する際の処理効率を
向上させることができる。
Here, the blind spot removing unit 73 provided in the image synthesizing apparatus according to another aspect of the seventh embodiment shown in FIG. 17 is provided with the blind spot in the fifth embodiment shown in FIG. The function provided in the removing unit 53 or FIG.
2 may be provided with at least one of the functions provided in the blind spot removing unit 63 in the sixth embodiment shown in FIG. In this case, when detecting the blind spot area from the area detected by the area detection unit 5, the user removes the blind spot area by the function of the blind spot removal unit 53 and the blind spot removal unit 6.
Either removal of the blind spot area by the function of No. 3 or removal of the blind spot area by the function of the blind spot removal unit 73 can be selected, and the processing efficiency when removing the blind spot area can be improved. .

【0134】さらに、この図17に示される背景画像入
力部71の機能としては、第2の実施形態に係る画像合
成装置に具備される背景画像入力部6と同様であるとし
たが、さらに、図5に示される第3の実施形態に係る画
像合成装置が具備する背景画像入力部31に具備された
機能、及び、図7に示される第4の実施形態に係る画像
合成装置が具備する背景画像入力部41に具備された機
能のうち、少なくともいずれか一方の機能を具備させる
ことが好ましい。この場合、利用者は、合成させるべき
背景画像として、距離データと存在範囲が付与された背
景画像と、3次元コンピュータグラフィックスの画像と
の少なくともいずれか一方の画像を背景画像として選択
することができる。また、この背景画像入力部71の機
能拡張に伴い、図17に示される画像合成部72の機能
として、前述の図5に示される第3の実施形態に係る画
像合成部32に具備された機能、及び、図7に示される
第4の実施形態に係る画像合成部42に具備された機能
の少なくともいずれか一方を具備させると良い。
The function of the background image input section 71 shown in FIG. 17 is the same as that of the background image input section 6 provided in the image synthesizing apparatus according to the second embodiment. The function included in the background image input unit 31 included in the image synthesis device according to the third embodiment illustrated in FIG. 5 and the background included in the image synthesis device according to the fourth embodiment illustrated in FIG. It is preferable that at least one of the functions provided in the image input unit 41 is provided. In this case, the user can select, as the background image, at least one of the background image to which the distance data and the existence range are added and the three-dimensional computer graphics image as the background image to be combined. it can. In addition to the function expansion of the background image input unit 71, the function of the image synthesis unit 72 shown in FIG. 17 is included in the image synthesis unit 32 according to the third embodiment shown in FIG. , And at least one of the functions provided in the image combining unit 42 according to the fourth embodiment shown in FIG.

【0135】[0135]

【発明の効果】以上の説明から明らかなように、本発明
によれば、背景となるシーンを2台のステレオカメラで
撮影し、背景となる2枚の画像のそれぞれを構成する画
素の対応をあらかじめ求めておき、物体が撮像範囲に入
ってくることにより対応が崩れているか否かにより、背
景を除いた物体領域を検出することができるので、取り
出した物体領域を他の背景の画像に合成することが可能
な画像合成装置を提供することができる。
As is apparent from the above description, according to the present invention, a background scene is photographed by two stereo cameras, and the correspondence between pixels constituting each of the two background images is determined. The object area excluding the background can be detected based on whether or not the correspondence has been lost due to the object entering the imaging range, so the extracted object area can be combined with another background image. It is possible to provide an image synthesizing apparatus capable of performing the above.

【0136】また、初期段階として背景の画素間の対応
を求めることにより物体領域の取り出しを行っているの
で、従来の画像合成装置であるクロマキーを用いた画像
合成装置で必要だったブルーバックなどの特殊な撮影環
境が必要とせずに、物体領域を取り出すことが可能な画
像合成装置を提供することができる。
In addition, since the object area is taken out by obtaining the correspondence between the pixels of the background as an initial stage, a blue background or the like which is required in the image synthesizing apparatus using the chroma key which is the conventional image synthesizing apparatus is used. An image synthesizing apparatus capable of taking out an object area without requiring a special shooting environment can be provided.

【0137】また、物体領域を取り出すための、特殊な
撮影環境が必要でない物体検出方法として、従来では、
背景差分による方法があるが、これは日照条件の変化や
物体の影に影響される。本発明では、初期段階として2
台のステレオカメラにより撮影した画像を構成する画素
の対応を手がかりにして物体を検出しているので、日照
条件や影などによって背景のある点を映す画素の値に変
化があっても、ある点を映している左右の対応する画素
の双方で画素値の変化が起こるので、物体領域としては
検出されず、従って日照条件の変化や物体の影に影響さ
れずに物体領域を取り出すことが可能な画像合成装置を
提供することができる。
As an object detection method that does not require a special photographing environment for taking out an object area,
There is a method based on background subtraction, which is affected by changes in sunlight conditions and shadows of objects. In the present invention, 2
Since the object is detected based on the correspondence of the pixels constituting the image taken by the stereo cameras, even if the value of the pixel that reflects a point in the background changes due to sunlight conditions or shadows, a certain point Since a change in the pixel value occurs in both the left and right corresponding pixels that are projected, the object area is not detected, and therefore the object area can be extracted without being affected by changes in the sunshine conditions or the shadow of the object. An image composition device can be provided.

【0138】また、従来の画像合成装置においては、2
次元的な画像による画像合成しか実行できなかったが、
本発明においては、物体領域となる領域に対応する物体
の撮像装置からの距離を、距離検出部によりステレオ画
像の画素間の対応をとるなどして検出し、これを距離記
憶部において記憶しているので、物体領域の3次元的な
構造を計算を高速かつ正確に行うことができ、3次元的
な画像合成を実行することが可能な画像合成装置を提供
することができる。
Further, in the conventional image synthesizing apparatus, 2
Although only image synthesis using two-dimensional images could be performed,
In the present invention, the distance from the imaging device of the object corresponding to the region serving as the object region is detected by, for example, taking correspondence between the pixels of the stereo image by the distance detection unit, and this is stored in the distance storage unit. Therefore, it is possible to provide an image synthesizing apparatus capable of calculating the three-dimensional structure of the object region at high speed and accurately, and executing the three-dimensional image synthesis.

【0139】さらに、従来の3次元構造の解析に用いら
れている、ステレオ画像により画素間の対応とり3次元
構造を求める方法は、画素間の対応をとるために計算時
間がかかるという欠点があるため採用せず、本発明にお
いては、背景の画像に対して画素間の対応はとっている
ものの、既に検出されている領域にのみ画素間の対応を
とる。そのため、物体領域の3次元的な構造の検出を、
高速かつ正確に行うことが可能な画像合成装置を提供す
ることができる。
Further, the method of obtaining a correspondence between pixels from a stereo image and obtaining a three-dimensional structure, which is used in a conventional analysis of a three-dimensional structure, has a drawback that it takes a long calculation time to establish correspondence between pixels. Therefore, in the present invention, although the correspondence between pixels is taken for the background image, the correspondence between pixels is taken only for the already detected area. Therefore, detection of the three-dimensional structure of the object area
It is possible to provide an image synthesizing device capable of performing high speed and accurate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る画像合成装置の第1の実施形態の
構成を示すブロック図である。
FIG. 1 is a block diagram showing the configuration of a first embodiment of an image synthesizing apparatus according to the present invention.

【図2】本発明に係る画像合成装置が具備する対応記憶
部に記憶される画素の記憶状態を示す図である。
FIG. 2 is a diagram illustrating a storage state of pixels stored in a corresponding storage unit included in the image synthesis device according to the present invention.

【図3】本発明に係る画像合成装置が具備する撮像装
置、背景及び物体の位置関係を示す図である。
FIG. 3 is a diagram illustrating a positional relationship between an imaging device, a background, and an object included in the image synthesis device according to the present invention.

【図4】本発明に係る画像合成装置の第2の実施形態の
構成を示すブロック図である。
FIG. 4 is a block diagram showing the configuration of a second embodiment of the image synthesizing apparatus according to the present invention.

【図5】本発明に係る画像合成装置の第3の実施形態の
構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of a third embodiment of the image synthesizing apparatus according to the present invention.

【図6】本発明に係る画像合成装置が具備する背景画像
入力部に入力する、距離及び存在範囲のデータが付与さ
れた画像の一例、及び、画像合成装置により合成された
画像の一例を示す図である。
FIG. 6 shows an example of an image to which data of a distance and an existence range is added, and an example of an image synthesized by the image synthesis device, which are input to a background image input unit provided in the image synthesis device according to the present invention. FIG.

【図7】本発明に係る画像合成装置の第4の実施形態の
構成を示すブロック図である。
FIG. 7 is a block diagram showing the configuration of a fourth embodiment of the image synthesizing apparatus according to the present invention.

【図8】本発明に係る画像合成装置の第5の実施形態の
構成を示すブロック図である。
FIG. 8 is a block diagram showing the configuration of a fifth embodiment of the image synthesizing apparatus according to the present invention.

【図9】本発明に係る画像合成装置により物体領域を検
出する際の死角領域が発生する場合の状態を示す図であ
る。
FIG. 9 is a diagram illustrating a state in which a blind spot area occurs when an image area is detected by the image synthesis device according to the present invention.

【図10】本発明に係る画像合成装置が具備する死角除
去部による死角領域を計算により除去する際の動作を示
す概念図である。
FIG. 10 is a conceptual diagram showing an operation when a blind spot area is removed by calculation by a blind spot removing unit provided in the image synthesizing apparatus according to the present invention.

【図11】本発明に係る画像合成装置が具備する死角除
去部による死角領域を計算により除去する際の動作を示
す概念図である。
FIG. 11 is a conceptual diagram showing an operation when a blind spot area is removed by calculation by a blind spot removing unit included in the image synthesizing apparatus according to the present invention.

【図12】本発明に係る画像合成装置の第6の実施形態
の構成を示すブロック図である。
FIG. 12 is a block diagram showing a configuration of an image synthesizing apparatus according to a sixth embodiment of the present invention.

【図13】本発明に係る画像合成装置により検出した物
体領域に含まれる死角領域の状態を示す図である。
FIG. 13 is a diagram illustrating a state of a blind spot area included in an object area detected by the image synthesis device according to the present invention.

【図14】本発明に係る画像合成装置の第6の実施形態
の別の態様の構成を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of another mode of the sixth embodiment of the image synthesizing apparatus according to the present invention.

【図15】本発明に係る画像合成装置の第7の実施形態
の構成を示すブロック図である。
FIG. 15 is a block diagram showing a configuration of an image synthesizing apparatus according to a seventh embodiment of the present invention.

【図16】本発明に係る画像合成装置が具備する死角除
去部による死角領域を除去する際の動作を示す概念図で
ある。
FIG. 16 is a conceptual diagram showing an operation when a blind spot area is removed by a blind spot removing unit provided in the image synthesizing apparatus according to the present invention.

【図17】本発明に係る画像合成装置の第7の実施形態
の別の態様の構成を示すブロック図である。
FIG. 17 is a block diagram showing a configuration of another mode of the seventh embodiment of the image synthesizing apparatus according to the present invention.

【図18】従来の画像合成装置により、物体領域を取り
出す際の動作を示す概略図である。
FIG. 18 is a schematic diagram showing an operation when an object area is taken out by a conventional image synthesizing apparatus.

【図19】従来の画像合成装置により、物体領域を取り
出す際の動作を示す概略図である。
FIG. 19 is a schematic view showing an operation when an object area is taken out by a conventional image synthesizing apparatus.

【図20】従来の画像合成装置により、物体領域を取り
出す際の動作を示す概略図である。
FIG. 20 is a schematic diagram showing an operation when an object area is taken out by a conventional image synthesizing apparatus.

【符号の説明】[Explanation of symbols]

1 撮像部 2 画像入力部 3 対応検出部 4 対応記憶部 5 領域検出部 6 背景画像入力部 7 画像合成部 8 距離検出部 9 距離記憶部 31、41、51、61、71 背景画像入力部 32、42、52、62、72 画像合成部 53、63、73 死角除去部 Reference Signs List 1 imaging unit 2 image input unit 3 correspondence detection unit 4 correspondence storage unit 5 area detection unit 6 background image input unit 7 image synthesis unit 8 distance detection unit 9 distance storage unit 31, 41, 51, 61, 71 background image input unit 32 , 42, 52, 62, 72 Image synthesis units 53, 63, 73 Blind spot elimination units

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 G06T 7/00──────────────────────────────────────────────────続 き Continuation of the front page (58) Field surveyed (Int.Cl. 6 , DB name) G06T 1/00 G06T 7/00

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 異なる位置に配置された2台の撮像装置
のそれぞれから出力された画像を表す画像データが入力
される画像入力部と、 前記画像入力部に入力された画像データにより表される
画像において、前記2台の撮像装置の内の一方の撮像装
置から出力された画像を構成する画素と他方の撮像装置
から出力された画像を構成する画素との間の対応を検出
する対応検出部と、 前記検出された画素間の対応を記憶する対応記憶部と、 前記画像入力部に入力される2台の撮像装置のそれぞれ
から出力された画像を構成する全ての画素の対応が、前
記対応記憶部に記憶されている画素間の対応と異なって
いるか否かを調べ、記憶されている対応と異なる対応を
持つ画素と該異なる対応を持つ画素により占められる領
域とを検出する領域検出部と、 背景画像としての画像データを入力する背景画像入力部
と、 前記領域検出部において検出された領域に対しては前記
画像入力部に入力された画像の画像データを用い、前記
領域検出部において検出された領域以外には前記背景画
像入力部に入力された背景画像の画像データを用いて画
像を合成する画像合成部とを有することを特徴とする画
像合成装置。
1. An image input unit to which image data representing an image output from each of two imaging devices arranged at different positions is input, and the image data is represented by image data input to the image input unit. In the image, a correspondence detection unit that detects correspondence between pixels constituting an image output from one of the two imaging devices and pixels constituting an image output from the other imaging device. A correspondence storage unit that stores a correspondence between the detected pixels; and a correspondence between all pixels constituting an image output from each of the two imaging devices input to the image input unit. An area detection unit that checks whether or not the correspondence between the pixels stored in the storage unit is different, and detects a pixel having a correspondence different from the stored correspondence and an area occupied by the pixel having the different correspondence. , A background image input unit for inputting image data as a background image, and for the region detected by the region detection unit, the image data of the image input to the image input unit is used. An image synthesizing unit for synthesizing an image using the image data of the background image input to the background image input unit in a region other than the area where the image is synthesized.
【請求項2】 前記領域検出部により検出された領域に
対応する物体の、前記撮像装置から前記物体までの距離
を検出する距離検出部と、 該距離検出部により検出された距離を記憶するための距
離記憶部とを有することを特徴とする請求項1記載の画
像合成装置。
2. A distance detecting section for detecting a distance from the imaging device to the object corresponding to an area detected by the area detecting section, and a distance detected by the distance detecting section. The image synthesizing apparatus according to claim 1, further comprising a distance storage unit.
【請求項3】 前記背景画像入力部は、撮像装置から背
景までの距離を表すデータと、撮像装置の撮像面におけ
る背景画像の存在範囲を表すデータとが付与された背景
画像の画像データが入力され、 前記画像合成部は、前記距離記憶部に記憶された前記領
域検出部により検出された領域に対応する物体の、前記
撮像装置から前記物体までの距離と、前記背景画像の画
像データに付与されたデータにより表される撮像装置か
ら背景までの距離とを比較し、撮像面全体において、撮
像装置に最も近い距離にある画像の画像データに基づい
て画像を合成することを特徴とする請求項2記載の画像
合成装置。
3. The background image input section inputs image data of a background image to which data representing a distance from an imaging device to a background and data representing an existence range of the background image on an imaging surface of the imaging device are added. The image synthesizing unit is configured to add an object corresponding to an area detected by the area detection unit stored in the distance storage unit to a distance from the imaging device to the object and to image data of the background image. Comparing the distance from the imaging device to the background represented by the obtained data, and synthesizing the image based on the image data of the image closest to the imaging device over the entire imaging surface. 3. The image synthesizing device according to 2.
【請求項4】 前記背景画像入力部は、背景として3次
元コンピュータグラフィックスによる背景モデルのデー
タが入力され、 前記画像合成部は、前記背景画像入力部から入力された
3次元コンピュータグラフィックスによる背景モデルに
対して、前記領域検出部において検出された領域に対し
ては前記画像入力部に入力された画像を、前記距離記憶
部に記憶された距離に基づき配置し、前記入力された画
像に対応する物体の3次元構造を表すように、若しく
は、平面にテクスチャとしてはりつけることにより3次
元コンピュータグラフィックスを用いた画像を合成する
ことを特徴とする請求項2又は3に記載の画像合成装
置。
4. The background image input unit receives three-dimensional computer graphics background model data as a background, and the image synthesis unit receives the three-dimensional computer graphics background input from the background image input unit. With respect to the model, for the area detected by the area detection unit, the image input to the image input unit is arranged based on the distance stored in the distance storage unit, and corresponds to the input image. The image synthesizing apparatus according to claim 2, wherein an image using three-dimensional computer graphics is synthesized so as to represent a three-dimensional structure of an object to be processed or by attaching it to a plane as a texture.
【請求項5】 前記領域検出部により検出された領域に
対応する物体の、前記距離記憶部に記憶されている前記
撮像装置から該物体までの距離に基づき、前記領域検出
部で検出された領域内における、前記対応する物体によ
り生成された2台の撮像装置間の死角領域を計算し、前
記領域検出部で検出された領域から、該計算された死角
領域を除去する第1の死角除去部を有することを特徴と
する請求項2から4のいずれかに記載の画像合成装置。
5. An area detected by the area detecting unit based on a distance from the imaging device to the object stored in the distance storage unit, the object corresponding to the area detected by the area detecting unit. A first blind spot removal unit that calculates a blind spot area between two imaging devices generated by the corresponding object and removes the calculated blind spot area from the area detected by the area detection unit. The image synthesizing apparatus according to any one of claims 2 to 4, comprising:
【請求項6】 前記領域検出部により検出された領域の
画像を構成する画素において、 前記対応検出部が前記2台の撮像装置のそれぞれから出
力された領域の画像を構成する画素の対応を検出し、 該対応検出部による検出結果に基づき、前記領域検出部
により検出された領域から対応がとれない画素により占
められる領域を死角領域とし、この死角領域を除去する
第2の死角除去部を有することを特徴とする請求項1か
ら5のいずれかに記載の画像合成装置。
6. A pixel forming an image of a region detected by the region detecting unit, wherein the correspondence detecting unit detects correspondence of pixels forming an image of a region output from each of the two imaging devices. And a second blind spot removing unit that removes the blind spot area from the area occupied by pixels that do not correspond to the area detected by the area detecting unit based on the detection result by the correspondence detecting unit. The image synthesizing device according to claim 1, wherein:
【請求項7】 前記領域検出部により検出された領域内
において、前記異なる位置に配置された2台の撮像装置
の内の1の撮像装置から出力された画像における前記検
出された領域の端点の画素に対応する画素を、他の一方
の撮像装置から出力された画像における前記検出された
領域の端点から探索し、該他の一方の撮像装置から出力
された前記検出された領域の端点から対応する画素の画
素位置までの領域を死角領域であるとして除去し、これ
を前記領域の全ての端点の画素について行うことによ
り、前記検出された領域の死角領域を除去する第3の死
角除去部を有することを特徴とする請求項1から6のい
ずれかに記載の画像合成装置。
7. An end point of the detected area in an image output from one of the two imaging apparatuses arranged at the different positions in an area detected by the area detection unit. A pixel corresponding to the pixel is searched from the end point of the detected area in the image output from the other one of the imaging devices, and the pixel corresponding to the pixel is searched from the end point of the detected area output from the other one of the imaging devices. A third blind spot removing unit that removes the blind spot area of the detected area by removing the area up to the pixel position of the pixel to be determined as a blind spot area and performing this for all the pixels at the end points of the area. The image synthesizing device according to claim 1, further comprising:
JP9140778A 1997-05-30 1997-05-30 Image synthesis device Expired - Fee Related JP2842437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9140778A JP2842437B2 (en) 1997-05-30 1997-05-30 Image synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9140778A JP2842437B2 (en) 1997-05-30 1997-05-30 Image synthesis device

Publications (2)

Publication Number Publication Date
JPH10334216A JPH10334216A (en) 1998-12-18
JP2842437B2 true JP2842437B2 (en) 1999-01-06

Family

ID=15276535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9140778A Expired - Fee Related JP2842437B2 (en) 1997-05-30 1997-05-30 Image synthesis device

Country Status (1)

Country Link
JP (1) JP2842437B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009199284A (en) * 2008-02-21 2009-09-03 Univ Of Tokyo Road object recognition method
JP6090917B2 (en) * 2013-03-08 2017-03-08 Kddi株式会社 Subject image extraction and synthesis apparatus and method
JP6587435B2 (en) * 2015-06-29 2019-10-09 キヤノン株式会社 Image processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JPH10334216A (en) 1998-12-18

Similar Documents

Publication Publication Date Title
US5307136A (en) Distance detection system for vehicles
JP4206427B2 (en) Camera apparatus and image processing method
KR101396346B1 (en) Method and apparatus for creating a 3D image using 2D photograph images
CN111462503B (en) Vehicle speed measuring method and device and computer readable storage medium
JP3773011B2 (en) Image composition processing method
JP2003203238A (en) Scalable architecture for corresponding multi video streams at frame rate
US7260243B2 (en) Intruding-object detection apparatus
CN102959942B (en) Image capture device for stereoscopic viewing-use and control method thereof
JP2020126590A (en) Information processing apparatus, information processing method, and program
JP3008875B2 (en) Subject extraction device
JP3988574B2 (en) Image processing device
JP4394487B2 (en) Stereo image processing device
JP2001266128A (en) Method and device for obtaining depth information and recording medium recording depth information obtaining program
JP2842437B2 (en) Image synthesis device
US20090245584A1 (en) Image processing apparatus, image processing method, and program
JP2000099740A (en) Image composing method, image input device and recording medium recording image compositing program
JP5906696B2 (en) Vehicle periphery photographing apparatus and vehicle periphery image processing method
JP2002117403A (en) Image processor and image processing method
JP2000028354A (en) Three-dimensional image processing device
WO2021049281A1 (en) Image processing device, head-mounted display, and spatial information acquisition method
JPH1091790A (en) Three-dimensional shape extraction method and device and storage medium
Hoegner et al. Texture extraction for building models from IR sequences of urban areas
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JP2001319224A (en) Device and method for detecting three-dimensional object, and recording medium
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980922

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071023

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081023

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091023

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091023

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101023

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111023

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees