JP6285686B2 - Parallax image generation device - Google Patents
Parallax image generation device Download PDFInfo
- Publication number
- JP6285686B2 JP6285686B2 JP2013218641A JP2013218641A JP6285686B2 JP 6285686 B2 JP6285686 B2 JP 6285686B2 JP 2013218641 A JP2013218641 A JP 2013218641A JP 2013218641 A JP2013218641 A JP 2013218641A JP 6285686 B2 JP6285686 B2 JP 6285686B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- infrared
- parallax
- visible light
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 194
- 238000000034 method Methods 0.000 claims description 91
- 238000006243 chemical reaction Methods 0.000 claims description 73
- 238000009499 grossing Methods 0.000 claims description 73
- 230000003287 optical effect Effects 0.000 claims description 53
- 230000002093 peripheral effect Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 2
- 230000000717 retained effect Effects 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 43
- 230000010354 integration Effects 0.000 description 21
- 230000001678 irradiating effect Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000005338 frosted glass Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Description
本発明は、複数のカメラで撮影した画像を用いて視差画像を生成する視差画像生成装置に関する。 The present invention relates to a parallax image generation device that generates a parallax image using images taken by a plurality of cameras.
撮影位置の異なる2台のカラーカメラで撮影したステレオ画像から、各画像について視差を推定した視差画像を生成する手法は多く存在する。しかし、そのほとんどがカラー画像の局所的な輝度変化を手がかりに、左右の画像における各画素の対応を探索して求めている。このため、人工物に多く見られるように、テクスチャが乏しい領域については、推定精度が低下するという問題がある。 There are many techniques for generating parallax images in which parallax is estimated for each image from stereo images shot by two color cameras with different shooting positions. However, most of them are obtained by searching for the correspondence of each pixel in the left and right images with the local luminance change of the color image as a clue. For this reason, as is often seen in artifacts, there is a problem in that the estimation accuracy is lowered for a region with a poor texture.
その問題を克服するために、既知のパターンを照射し、その照射されたパターンを観測して、高速かつ高精度に視差画像を生成する手法がある。
例えば、特許文献1には、ランダムなスペックルパターンを物体の表面に照射して、複数のカメラで撮影した2次元画像を解析することで物体の3次元形状を求める手法が記載されている。
In order to overcome the problem, there is a method of generating a parallax image with high speed and high accuracy by irradiating a known pattern and observing the irradiated pattern.
For example,
特許文献1に記載された手法では、スペックルパターンが照射されることにより、被写体である物体表面にテクスチャが付与され、カメラによって撮影される画像には、当該テクスチャが撮影される。このため、カメラで撮影した画像を、視差画像を生成するために用いるとともに、当該撮影画像を生成した視差画像を用いて異なる視点の画像を生成する際の基準画像として用いる場合には、テクスチャ自体がノイズになるという問題がある。
また、照射されるスペックルパターンは、必ずしも高い密度で付与できるものではないため、付与したテクスチャのみに基づいて視差を推定するには、広範囲の領域を参照する必要がある。このため、特許文献1に記載された手法では、視差が大きく異なる領域の境界付近において、視差の推定精度が低下するという問題がある。
In the method described in
In addition, since the speckle pattern to be irradiated cannot always be applied at a high density, it is necessary to refer to a wide area in order to estimate the parallax based only on the applied texture. For this reason, the technique described in
本発明は、かかる問題に鑑みて創案されたものであり、テクスチャの少ない被写体についても、可視光領域の画像に影響を与えることなくテクスチャを付与して視差画像を精度よく生成できる視差画像生成装置を提供することを課題とする。 The present invention was devised in view of such a problem, and a parallax image generation device capable of accurately generating a parallax image by giving a texture to a subject having a small texture without affecting the image in the visible light region. It is an issue to provide.
前記した課題を解決するために、本発明の一形態に係る視差画像生成装置は、赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像及び可視光の波長領域の画像である可視光画像を2台のカメラで撮影した赤外線画像の組及び可視光画像の組を用いて、視差画像を生成する視差画像生成装置であって、画像変換部と、対応度マップ群生成部と、視差画像生成処理部と、を備える構成とした。 In order to solve the above-described problem, a parallax image generation device according to an aspect of the present invention provides an infrared image that is an image in the infrared wavelength region and an image in the visible wavelength region with respect to a subject on which an infrared pattern is projected. A parallax image generation device that generates a parallax image using a set of infrared images and a set of visible light images obtained by capturing a certain visible light image with two cameras, and includes an image conversion unit and a correspondence map group generation unit And a parallax image generation processing unit.
かかる構成によれば、視差画像生成装置は、画像変換部によって、前記2台のカメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台のカメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化可視光画像の組に変換する。
次に、視差画像生成装置は、対応度マップ群生成部によって、基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する。
According to such a configuration, the parallax image generation device uses the camera parameters for the two cameras to cause the set of infrared images to be parallel to the optical axes of the two cameras by the image conversion unit. Are converted into a set of collimated infrared images, which are images obtained by using the camera parameters for the two cameras, and the set of visible light images is made parallel to the optical axes of the two cameras. It is converted into a set of collimated visible light images which are images obtained at the time.
Next, the parallax image generation device uses the correspondence map group generation unit to generate a parallax between the reference infrared image that is the reference parallelized infrared image and the other non-reference infrared image that is the parallelized infrared image. Is a constant value for the entire image, the degree of correspondence, which is an index indicating the degree of matching between the reference infrared image and the non-reference infrared image for each pixel of the predetermined range image including the pixel, and The parallax between the reference visible light image that is the collimated visible light image having the same optical axis as the reference infrared image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image. And the correspondence degree that is an index indicating the degree of matching of the image of the predetermined range including the pixel for each pixel of the reference visible light image and the non-reference visible light image. Two-dimensional arrangement of degrees The degree of correspondence map is, to produce a corresponding degree of map group by obtaining for each parallax predetermined intervals for a predetermined parallax range.
そして、視差画像生成装置は、視差画像生成処理部によって、画素毎に、前記対応度マップ群の中で最も一致の度合いが高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する。
これによって、視差画像生成装置は、テクスチャの少ない被写体領域について赤外線パターンのテクスチャを付与された赤外線ステレオ画像を用いて精度よく視差を推定するとともに、テクスチャを有する被写体領域について可視光ステレオ画像を用いて精度よく視差を推定する。
Then, the parallax image generation device selects the parallax for the correspondence map having the highest degree of matching in the correspondence map group for each pixel by the parallax image generation processing unit, so that the parallax is generated for each pixel. A parallax image that is a predetermined image is generated.
As a result, the parallax image generation apparatus accurately estimates the parallax using the infrared stereo image to which the texture of the infrared pattern is given for the subject region with less texture, and uses the visible light stereo image for the subject region having the texture. Estimate the parallax with high accuracy.
また、本発明の他の形態に係る視差画像生成装置は、赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像を2台の赤外線カメラで撮影した赤外線画像の組と、可視光の波長領域の画像である可視光画像を2台の可視光カメラで撮影した可視光画像の組とを用いて、視差画像を生成する視差画像生成装置であって、画像変換部と、対応度マップ群生成部と、視差画像生成処理部と、を備える構成とした。 In addition, the parallax image generating device according to another aspect of the present invention is a set of infrared images obtained by photographing an infrared image that is an image in the infrared wavelength region with two infrared cameras for a subject on which an infrared pattern is projected, A parallax image generation device that generates a parallax image using a set of visible light images obtained by capturing a visible light image that is an image in a wavelength region of visible light with two visible light cameras, an image conversion unit, A correspondence map group generation unit and a parallax image generation processing unit are provided.
かかる構成によれば、視差画像生成装置は、画像変換部によって、前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台の赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台の可視光カメラ及び前記2台の赤外線カメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台の可視光カメラの光軸を前記平行化赤外線画像の組を得るための光軸と同じとした際に得られる画像である平行化可視光画像の組に変換する。
次に、視差画像生成装置は、対応度マップ群生成部によって、基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する。
According to such a configuration, the parallax image generation device uses the camera parameters for the two infrared cameras to cause the pair of infrared images to be parallel to the optical axes of the two infrared cameras. And converting the set of visible light images into the set of collimated infrared images, which are images obtained at the time, and using the camera parameters for the two visible light cameras and the two infrared cameras. The optical axes of the two visible light cameras are converted into a set of collimated visible light images that are images obtained when the optical axes for obtaining the set of collimated infrared images are the same.
Next, the parallax image generation device uses the correspondence map group generation unit to generate a parallax between the reference infrared image that is the reference parallelized infrared image and the other non-reference infrared image that is the parallelized infrared image. Is a constant value for the entire image, the degree of correspondence, which is an index indicating the degree of matching between the reference infrared image and the non-reference infrared image for each pixel of the predetermined range image including the pixel, and The parallax between the reference visible light image that is the collimated visible light image having the same optical axis as the reference infrared image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image. And the correspondence degree that is an index indicating the degree of matching of the image of the predetermined range including the pixel for each pixel of the reference visible light image and the non-reference visible light image. Two-dimensional arrangement of degrees The degree of correspondence map is, to produce a corresponding degree of map group by obtaining for each parallax predetermined intervals for a predetermined parallax range.
そして、視差画像生成装置は、視差画像生成処理部によって、画素毎に、前記対応度マップ群の中で最も対応度が高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する。
これによって、視差画像生成装置は、テクスチャの少ない被写体領域について赤外線パターンのテクスチャを付与された赤外線ステレオ画像を用いて精度よく視差を推定するとともに、テクスチャを有する被写体領域について可視光ステレオ画像を用いて精度よく視差を推定する。
Then, the parallax image generation device determines the parallax for each pixel by selecting the parallax for the correspondence map having the highest correspondence in the correspondence map group for each pixel by the parallax image generation processing unit. A parallax image which is the obtained image is generated.
As a result, the parallax image generation apparatus accurately estimates the parallax using the infrared stereo image to which the texture of the infrared pattern is given for the subject region with less texture, and uses the visible light stereo image for the subject region having the texture. Estimate the parallax with high accuracy.
本発明の更に他の形態に係る視差画像生成装置は、赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像を2台の赤外線カメラで撮影した赤外線画像の組と、可視光の波長領域の画像である可視光画像を可視光カメラで撮影した可視光画像とを用いて、視差画像を生成する視差画像生成装置であって、画像変換部と、対応度マップ群生成部と、平滑化フィルタ処理部と、視差画像生成処理部と、を備える構成とした。 A parallax image generation device according to still another aspect of the present invention provides a set of infrared images obtained by capturing an infrared image, which is an image in the infrared wavelength region, with two infrared cameras for a subject on which an infrared pattern is projected, and a visible image. A parallax image generation device that generates a parallax image using a visible light image obtained by capturing a visible light image that is an image in the wavelength region of light with a visible light camera, the image conversion unit, and a correspondence map group generation unit And a smoothing filter processing unit and a parallax image generation processing unit.
かかる構成によれば、視差画像生成装置は、画像変換部によって、前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記可視光カメラ及び基準となる前記赤外線カメラについてのカメラパラメータを用いて、前記可視光画像を、前記可視光カメラの光軸を基準となる前記平行化赤外線画像を得るための光軸と同じとした際に得られる画像である基準可視光画像に変換する。
次に、視差画像生成装置は、対応度マップ群生成部によって、前記基準となる平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する。
According to such a configuration, when the parallax image generation device makes the set of infrared images parallel to the optical axis of the infrared camera using the camera parameters for the two infrared cameras by the image conversion unit. Converted into a set of collimated infrared images, which are obtained images, and using the camera parameters for the visible light camera and the reference infrared camera, the visible light image is referenced to the optical axis of the visible light camera. Is converted into a reference visible light image which is an image obtained when the same optical axis for obtaining the collimated infrared image is obtained.
Next, the parallax image generation device uses a correspondence map group generation unit to generate a parallax between a reference infrared image that is the reference parallelized infrared image and a non-reference infrared image that is the other parallelized infrared image. 2 is an index indicating the degree of matching between the reference infrared image and the non-reference infrared image for each pixel of a predetermined range image including the pixel, where is a constant value in the entire image. A correspondence map group is generated by obtaining a correspondence map, which is a dimensional array, for each parallax at a predetermined interval in a predetermined parallax range.
次に、視差画像生成装置は、平滑化フィルタ処理部によって、前記対応度マップ群について、前記対応度マップ毎に、前記基準可視光画像をエッジ領域識別のためのガイド画像として、当該ガイド画像における被写体のエッジに対応する前記対応度マップのエッジを保持した平滑化フィルタ処理を行う。
そして、視差画像生成装置は、視差画像生成処理部によって、前記平滑化フィルタ処理された対応度マップ群の中で最も対応度の高い対応度マップについての視差を、画素毎に選択することにより、画素毎に視差が定められた画像である視差画像を生成する。
これによって、視差画像生成装置は、被写体について赤外線パターンによるテクスチャを付与した赤外線ステレオ画像を用いて視差を推定する。また、視差画像生成装置は、可視光画像をガイド画像とするエッジ保持型の平滑化フィルタ処理を行うことによって、視差の推定精度を向上する。
Next, the parallax image generating device uses the reference visible light image as a guide image for edge region identification for each correspondence map for the correspondence map group by the smoothing filter processing unit. Smoothing filter processing that holds the edge of the correspondence map corresponding to the edge of the subject is performed.
Then, the parallax image generation device selects, for each pixel, the parallax for the correspondence map having the highest correspondence degree among the correspondence map groups subjected to the smoothing filter processing by the parallax image generation processing unit. A parallax image that is an image in which parallax is determined for each pixel is generated.
Thereby, the parallax image generating apparatus estimates the parallax using the infrared stereo image to which the texture of the subject is given the texture by the infrared pattern. In addition, the parallax image generation device improves the parallax estimation accuracy by performing an edge-holding smoothing filter process using a visible light image as a guide image.
本発明によれば、赤外線パターンを投影した被写体を撮影した赤外線画像及び可視光画像を用いて視差を推定するため、テクスチャの少ない被写体領域についても視差が精度よく推定された視差画像を生成することができる。また、本発明によれば、赤外線パターンでテクスチャを付与するため、可視光画像には影響を及ぼさない。 According to the present invention, since the parallax is estimated using the infrared image and the visible light image obtained by photographing the subject on which the infrared pattern is projected, the parallax image in which the parallax is accurately estimated even for the subject region with less texture is generated. Can do. Further, according to the present invention, since the texture is given by the infrared pattern, the visible light image is not affected.
以下、本発明の実施形態について、適宜に図面を参照して詳細に説明する。
<第1実施形態>
[視差画像生成システムの構成]
まず、図1及び図2(a)を参照して、第1実施形態に係る視差画像生成システムの構成について説明する。
図1に示すように、本実施形態に係る視差画像生成システム100は、視差画像生成装置1と、赤外線パターン照射機2と、撮影装置3と、を備えて構成されている。また、視差画像生成装置1は、画像変換部4と、コストボリューム生成部5と、視差画像生成処理部6と、を備えて構成されている。本実施形態において、撮影装置3は、赤外線及びRGB(赤、緑、青)の4チャンネルの波長域の画像を同光軸で撮影する2台の赤外線カラーカメラ31,32を備えている。また、図2(a)に示すように、赤外線パターン照射機2と、2台の赤外線カラーカメラ31,32とが、水平方向(X軸方向)に並置されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
<First Embodiment>
[Configuration of parallax image generation system]
First, the configuration of the parallax image generation system according to the first embodiment will be described with reference to FIG. 1 and FIG.
As illustrated in FIG. 1, the parallax
なお、本明細書においては特に断らない限り、図2(a)に示すように、水平方向をX軸方法とし、垂直方向をY軸方向とし、撮影装置3の内の基準となるカメラ(例えば、赤外線カラーカメラ31)の光軸方向、すなわち被写体の奥行方向をZ軸方向として説明する。 In this specification, unless otherwise specified, as shown in FIG. 2A, the horizontal direction is the X-axis method, the vertical direction is the Y-axis direction, and a camera (for example, a reference) in the photographing apparatus 3 (for example, The optical axis direction of the infrared color camera 31), that is, the depth direction of the subject will be described as the Z-axis direction.
本実施形態に係る視差画像生成システム100は、赤外線パターン照射機2によって赤外線パターンを被写体に投影することにより、被写体に赤外線のテクスチャを付与する。そして、視差画像生成装置1によって、赤外線のテクスチャを付与した被写体を撮影した赤外線画像の組と、可視光の画像であるカラー画像の組とを用いて、被写体の奥行方向の距離に対応した指標である視差を示す画像である視差画像を生成するものである。
以下、各構成について順次詳細に説明する。
The parallax
Hereinafter, each configuration will be sequentially described in detail.
赤外線パターン照射機2は、赤外線パターンを照射し、被写体に赤外線パターンを投影することによって被写体の赤外線のテクスチャを付与するためのものである。
照射する赤外線の波長は特に限定されるものではないが、赤外線画像に撮影され、かつカラー画像に撮影されない近赤外領域の波長であることが好ましい。
The
Although the wavelength of the infrared rays to be irradiated is not particularly limited, it is preferably a wavelength in the near infrared region that is captured in an infrared image and not captured in a color image.
赤外線パターン照射機2は、例えば、コヒーレント光を出力する光源と、光拡散器とで構成することができる。コヒーレント光を出力する光源としては、赤外線レーザを用いることができる。また、光拡散器としては、擦りガラスを用いることができる。
擦りガラスに赤外線レーザ光を照射することにより、擦りガラスの凹凸による赤外線レーザ光の回折光が互いに干渉してスペックルパターンが形成される。このとき、擦りガラスの凹凸はランダムに配置されているため、スペックルパターンもランダムな斑点状のパターンとなる。
また、光拡散器として、表面に凹凸がランダムに形成されたホログラムであってもよい。更にまた、光拡散器は、赤外線レーザ光を透過するものであっても反射するものであってもよい。
The
By irradiating the rubbing glass with infrared laser light, the diffracted light of the infrared laser light due to the unevenness of the rubbing glass interferes with each other to form a speckle pattern. At this time, since the unevenness of the frosted glass is randomly arranged, the speckle pattern also becomes a random spotted pattern.
Further, the light diffuser may be a hologram having irregularities randomly formed on the surface. Furthermore, the light diffuser may be one that transmits or reflects infrared laser light.
また、赤外線パターン照射機2は1台に限定されず、複数台で構成し、広範囲に赤外線パターンを照射するようにしてもよい。また、このとき、複数の赤外線パターン照射機2から照射される赤外線パターンが、重なるように照射して、被写体に、より高密度に赤外線パターンが投影されるようにしてもよい。
Further, the
また、照射する赤外線パターンは、前記したスペックルパターンのようなランダムドットパターンが好ましいが、これに限定されず、間隔が不規則なストライプパターンや格子パターンなど、他のテクスチャ形状であってもよい。このとき、赤外線パターンは、少なくとも、ステレオ撮影される赤外線画像のエピポーラ線の近傍において、互いの相関が高い類似パターンが発生しなければよい。すなわち、少なくともエピポーラ線の近傍でパターンがランダムであればよい。
また、赤外線パターンは、赤外線カラーカメラ31,32によって撮影される赤外線画像においてパターンが判別できる範囲で細かい方が好ましい。パターンが細かい方が、赤外線画像を用いたステレオマッチングによる視差の推定の解像度を高くすることができる。
The infrared pattern to be irradiated is preferably a random dot pattern such as the speckle pattern described above, but is not limited thereto, and may be another texture shape such as a stripe pattern or a lattice pattern with irregular intervals. . At this time, it is sufficient that the infrared pattern does not generate a similar pattern having a high correlation with each other at least in the vicinity of the epipolar line of the infrared image taken in stereo. That is, it is sufficient that the pattern is random at least in the vicinity of the epipolar line.
Further, it is preferable that the infrared pattern is fine as long as the pattern can be identified in the infrared image captured by the
撮影装置3は、前記したように2台の赤外線カラーカメラ31,32で構成され、赤外線画像及びRGBからなるカラー画像をそれぞれステレオ撮影するカメラである。本実施形態では、2台の赤外線カラーカメラ31,32と、赤外線パターン照射機2とが水平方向に並置されている。更に、赤外線パターン照射機2は、2台の赤外線カラーカメラ31,32の間に配置されている。すなわち、2台の赤外線カラーカメラ31,32の何れにとっても、赤外線パターン照射機2が近くに配置されていることになる。このため、2台の赤外線カラーカメラ31,32の何れから見ても、赤外線パターン照射機2から被写体に向かって照射される赤外線パターンが、被写体の一部の影になって投影されない領域、すなわちテクスチャが付与されない領域を低減することができるため好ましい。
As described above, the photographing
赤外線カラーカメラ31,32は、それぞれ赤外線画像及びRGBからなるカラー画像を同光軸で撮影するカメラである。本実施形態では、被写体に向かって左側に配置された赤外線カラーカメラ31によって撮影される左視点の赤外線画像及びカラー画像をそれぞれのチャンネル(波長領域)の基準画像とする。また、右側に配置された赤外線カラーカメラ32によって撮影される右視点の赤外線画像及びカラー画像と、それぞれ基準視点である左視点の赤外線画像及びカラー画像とを組み合わせることにより赤外線ステレオ画像及びカラーステレオ画像とする。
The
以下、2台のカメラで撮影した赤外線画像の組及びカラー画像の組を、適宜に、それぞれ「赤外線ステレオ画像」及び「カラーステレオ画像」と呼ぶこととする。なお、後記する他の実施形態のように、赤外線カメラとカラーカメラとが別個のカメラである場合も同様である。
赤外線カラーカメラ31,32は、撮影した赤外線ステレオ画像を視差画像生成装置1の画像平行化処理部41に、撮影したカラーステレオ画像を視差画像生成装置1の画像平行化処理部42に、それぞれ出力する。
Hereinafter, a set of infrared images and a set of color images taken by two cameras are appropriately referred to as “infrared stereo image” and “color stereo image”, respectively. The same applies to the case where the infrared camera and the color camera are separate cameras as in other embodiments described later.
The
なお、本実施形態では、2台の赤外線カラーカメラ31,32を用いてステレオ撮影するように構成したが、3台以上の赤外線カラーカメラを用いて被写体を撮影し、例えば、隣接する2台のカメラで撮影した画像組を、それぞれステレオ画像として用いるようにしてもよい。
また、本実施形態では、赤外線カラーカメラ31,32によって、可視光領域の画像としてRGBの3チャンネルからなるカラー画像を撮影するようにしたが、可視光領域のモノクロ画像、2チャンネルの画像又は4チャンネル以上の画像を撮影するようにしてもよい。
In this embodiment, the two
In the present embodiment, the
また、赤外線カラーカメラ31,32は、赤外線画像において、赤外線パターン照射機2で照射される赤外線の波長に感度を有し、カラー画像において、当該赤外線の波長に感度を有さないことが好ましい。すなわち、カラー画像において、当該赤外線に波長を有さないことにより、カラー画像に赤外線パターンが撮影されない。これによって、赤外線パターンの照射の影響を受けることなくカラー画像を撮影することができる。
従って、本実施形態に係る視差画像生成装置1によって生成される視差画像を、赤外線カラーカメラ31,32で撮影されるカラー画像と組み合わせることによって、視差画像を有するカラー画像として用いることができる。
Moreover, it is preferable that the
Therefore, the parallax image generated by the parallax
視差画像生成装置1は、画像変換部4と、コストボリューム生成部5と、視差画像生成処理部6とを備え、赤外線ステレオ画像と、可視光ステレオ画像と、これらの画像を撮影した赤外線カラーカメラ31,32のカメラパラメータと、を用いて視差画像を生成する。
The parallax
画像変換部4は、画像平行化処理部41,42を備え、赤外線カラーカメラ31,32から入力する赤外線ステレオ画像及びカラーステレオ画像を、それぞれ平行化する。ここで、画像の平行化とは、2つの画像について、それぞれの光学主点を変えずに、互いに光軸を平行とした場合の画像に座標変換することである。
The
画像平行化処理部41は、赤外線カラーカメラ31,32から赤外線ステレオ画像を入力するとともに、2台の赤外線カラーカメラ31,32のそれぞれのカメラパラメータを入力し、入力した赤外線ステレオ画像を平行化するものである。なお、カメラパラメータ及びその取得方法については後記する。
画像平行化処理部41は、平行化した赤外線ステレオ画像をコストボリューム生成部5のコストボリューム算出部51に出力する。
The image
The image
画像平行化処理部42は、赤外線カラーカメラ31,32からカラーステレオ画像を入力するとともに、2台の赤外線カラーカメラ31,32のそれぞれのカメラパラメータを入力し、入力したカラーステレオ画像を平行化するものである。なお、カメラパラメータ及びその取得方法については後記する。
画像平行化処理部42は、平行化したカラーステレオ画像をコストボリューム生成部5のコストボリューム算出部52に出力する。
The image
The image
ここで、カメラパラメータについて説明する。
カメラパラメータには、カメラの状態を示す内部パラメータと、カメラの位置関係を示す外部パラメータとがある。
内部パラメータには、カメラレンズの焦点距離、画素ピッチ、画素ピッチの縦横の比であるアスペクト比、光軸と撮像面との交点の画像座標及びカメラレンズによるディストーションについての情報がある。また、外部パラメータには、世界座標系又は基準カメラのカメラ座標系におけるカメラの位置と回転量がある。この内の画素ピッチ及びアスペクト比は、カメラに固有の既知の値として予め取得することができ、他のパラメータは、カメラキャリブレーションを行うことにより取得することができる。
なお、本実施形態では、外部パラメータとして、各カメラについて、世界座標系におけるカメラの回転量を用いてステレオ画像の平行化処理を行うものとする。
また、同仕様のカメラを複数台用いる場合は、当該複数台のカメラの内部パラメータの平均値を、各カメラに共通の内部パラメータとして用いるようにしてもよい。
Here, the camera parameters will be described.
The camera parameters include an internal parameter that indicates the state of the camera and an external parameter that indicates the positional relationship of the camera.
The internal parameters include information about the focal length of the camera lens, the pixel pitch, the aspect ratio which is the aspect ratio of the pixel pitch, the image coordinates of the intersection of the optical axis and the imaging surface, and distortion by the camera lens. The external parameters include the camera position and rotation amount in the world coordinate system or the camera coordinate system of the reference camera. Of these, the pixel pitch and aspect ratio can be acquired in advance as known values specific to the camera, and other parameters can be acquired by performing camera calibration.
In the present embodiment, it is assumed that the stereo image is parallelized using the rotation amount of the camera in the world coordinate system for each camera as the external parameter.
When a plurality of cameras having the same specification are used, an average value of internal parameters of the plurality of cameras may be used as an internal parameter common to the cameras.
カメラキャリブレーションは、マーカーやテストチャートなどの既知のパターンをキャリブレーション対象のカメラで撮影し、撮影した画像を解析することで行うことができる。このような画像解析によるカメラキャリブレーションとしては、例えば、参考文献1に記載の手法を用いることができるため、詳細な説明は省略する。
なお、本実施形態においては、カメラパラメータは、前記した手法等により予め求められているものとする。
(参考文献1)R. Tsai, “A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses,” Journal of Robotics & Automation, RA-3(4), pp.323-344, (1987)
Camera calibration can be performed by photographing a known pattern such as a marker or a test chart with a camera to be calibrated and analyzing the photographed image. As camera calibration based on such image analysis, for example, the method described in
In the present embodiment, it is assumed that the camera parameters are obtained in advance by the method described above.
(Reference 1) R. Tsai, “A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses,” Journal of Robotics & Automation, RA-3 (4), pp. 323-344, (1987)
次に、画像平行化処理部41,42による画像の平行化処理について説明する。
画像の平行化処理とは、光軸が平行でない状態の2台のカメラで撮影した画像を、光軸が平行な状態で撮影される画像に座標変換する処理のことである。
なお、カメラの光軸が平行になるように2台のカメラを設置した場合であっても、カメラキャリブレーションによって取得したカメラパラメータを用いて平行化処理を行うことにより、ステレオ画像をより高精度に平行化することができる。
Next, image parallelization processing by the image
The image collimation process is a process for converting the coordinates of an image photographed by two cameras in a state where the optical axes are not parallel into an image photographed in a state where the optical axes are parallel.
Even when two cameras are installed so that the optical axes of the cameras are parallel, the stereo image can be processed with higher accuracy by performing the parallelization process using the camera parameters acquired by camera calibration. Can be parallelized.
具体的には、座標変換処理前の内部パラメータ行列をF、外部パラメータである回転行列をRとし、座標変換処理後の内部パラメータをFr、回転行列をRrとすると、式(1)を用いて画像の平行化処理を行うことができる。 Specifically, when the internal parameter matrix before the coordinate transformation process is F, the rotation matrix that is the external parameter is R, the internal parameter after the coordinate transformation process is F r , and the rotation matrix is R r , Equation (1) is The image can be parallelized by using this.
ここで、(u,v)は座標変換処理前の画像座標を示し、(ur,vr)は座標変換処理後の画像座標を示し、PC及びPCrは、それぞれ座標変換処理前及び座標変換処理後の画像座標の斉次座標を示す。
また、内部パラメータ行列Fは、式(2)のように表わすことができる。
Here, (u, v) represents the image coordinates before coordinate transformation, (u r, v r) represents the image coordinates after coordinate transformation process, P C and P Cr is and pre coordinate transformation respectively The homogeneous coordinates of the image coordinates after the coordinate conversion process are shown.
Further, the internal parameter matrix F can be expressed as shown in Equation (2).
ここで、fは垂直方向の画素ピッチ単位で表わしたカメラレンズの焦点距離、aは垂直方向の画素ピッチを水平方向の画素ピッチで除することで算出されるアスペクト比、(Cu,Cv)は、カメラの光軸と画像面との交点、すなわち撮影される画像の中心画素の画像座標を示す。 Here, f is the focal length of the camera lens expressed in units of vertical pixel pitch, a is the aspect ratio calculated by dividing the vertical pixel pitch by the horizontal pixel pitch, and (C u , C v ) Indicates the intersection between the optical axis of the camera and the image plane, that is, the image coordinates of the center pixel of the image to be captured.
なお、本実施形態では、赤外線ステレオ画像を平行化する画像平行化処理部41とカラーステレオ画像を平行化する画像平行化処理部42とを独立して設けるように設けるようにしたが、1つの画像平行化処理部41(又は42)を設け、タイミングをずらせて、赤外線ステレオ画像及びカラーステレオ画像について順次に平行化処理を行うように構成してもよい。
In this embodiment, the image
視差画像生成装置1の構成について説明を続ける。
コストボリューム生成部(対応度マップ群生成部)5は、平行化された赤外線ステレオ画像及びカラーステレオ画像を用いて、視差をある一定の値に仮定した場合に、ステレオ画像を構成する左右の画像の一致の度合を示す画素毎の「コスト(Cost)」(対応度)の2次元配列であるコストマップ(Cost Map)(対応度マップ)を、所定範囲の視差毎に求めたコストボリューム(Cost Volume)(対応度マップ群)を生成するものである。
このために、コストボリューム生成部5は、コストボリューム算出部51,52と、コストボリューム統合部53とを備えて構成されている。
コストボリューム生成部5は、生成したコストボリュームを視差画像生成処理部6に出力する。
The description of the configuration of the parallax
The cost volume generation unit (correspondence map group generation unit) 5 uses the parallelized infrared stereo image and color stereo image, and assuming that the parallax is a certain value, the left and right images constituting the stereo image A cost volume (Cost Map) that is a two-dimensional array of “cost (Cost)” (correspondence) for each pixel indicating the degree of coincidence for each of the predetermined ranges of disparity Volume) (correspondence map group) is generated.
For this purpose, the cost
The cost
コストボリューム算出部51は、画像平行化処理部41から平行化された赤外線ステレオ画像Jr,L,Jr,Rを入力し、入力した赤外線ステレオ画像Jr,L,Jr,Rを用いてコストボリュームを算出するものである。コストボリューム算出部51は、算出したコストボリュームをコストボリューム統合部53に出力する。
Cost
また、コストボリューム算出部52は、画像平行化処理部42から平行化されたカラーステレオ画像Ir,L,Ir,Rを入力し、入力したカラーステレオ画像Ir,L,Ir,Rを用いてコストボリュームを算出するものである。コストボリューム算出部52は、算出したコストボリュームをコストボリューム統合部53に出力する。
Further, the cost
ここで、図3を参照(適宜図1参照)して、コストボリューム算出部51,52におけるコストボリュームの算出方法について説明する。
まず、コストボリューム算出部51について説明する。
コストボリューム算出部51は、平行化された赤外線ステレオ画像Jr,L,Jr,Rについて、画素毎に、当該画素を中心とする所定サイズの画像領域の一致度、すなわち相関を示すコストを算出する。このとき、基準画像である左視点の赤外線画像Jr,Lと、他方の画像である右視点の赤外線画像Jr,Rとの間の視差を、画像全体において一定値dであると仮定して、画素毎にコストを算出する。
なお、本実施形態では、視差dは、ステレオ画像である左右の画像Jr,L,Jr,Rにおける被写体の対応点の画像座標(ur,vr)の差を示すものとする。
Here, with reference to FIG. 3 (refer to FIG. 1 as appropriate), the cost volume calculation method in the cost
First, the cost
For each of the parallel infrared stereo images Jr, L , Jr, R , the cost
In the present embodiment, the parallax d denote the difference between the image J r of the left and right are stereo images, L, J r, the image coordinates of the corresponding points of the subject in R (u r, v r) .
具体的には、図3に示すように、基準画像である左画像Jr,Lの画素pLを中心とする所定範囲の画像である画像ブロックBLと、ステレオ画像の他方の画像である右画像Jr,Rの対応点pRを中心とする同サイズの画像ブロックBRとの一致度、すなわち画像の相関を示す指標としてコストを算出する。なお、本実施形態では、算出されるコストの値が小さいほど、画像ブロックBL及び画像ブロックBRの一致度(相関)が高いものとする。 Specifically, as shown in FIG. 3, an image block B L is an image of a predetermined range of the left image J r, centered at the pixel p L of L which is the reference image, the other image of the stereo image right image J r, the degree of coincidence between the image blocks B R of the same size around the corresponding point p R of R, i.e., calculates the cost as an index indicating the correlation of the image. In the present embodiment, as the cost of the value calculated is small, matching of the image blocks B L and the image block B R (correlation) is high.
ここで、画像ブロックBL,BRのサイズは、一辺の長さ(画素数)がτの正方形領域とする。また、左視点の画像Jr,Lを基準とした場合は、右視点の画像Jr,Rにおける被写体の対応点は、視差dだけ左側にシフトすることになる。従って、画像ブロックBLの中心画素PLの画像座標を(ur,vr)とすると、視差dを仮定したときの画像ブロックBRの中心画素pRの画像座標は、視差dだけ左側にシフトした(ur−d,vr)となる。
本実施形態では、このコストの評価式として、式(3)を用いる。
Here, the image blocks B L, the size of B R is a side length of (number of pixels) is a square region of tau. Further, when the left viewpoint image J r, L is used as a reference, the corresponding point of the subject in the right viewpoint image J r, R is shifted to the left by the parallax d. Therefore, when the image coordinates of the central pixel P L of the image blocks B L and (u r, v r), the image coordinates of the central pixel p R of the image blocks B R, assuming parallax d, only the disparity d left a shifted (u r -d, v r) to.
In the present embodiment, Expression (3) is used as the cost evaluation expression.
なお、式(3)において、Cj(ur,vr,d)は、視差をdであると仮定した場合の、基準画像である平行化された左視点の赤外線画像Jr,Lの画像座標(ur,vr)におけるコストを示す。すべての画素についてコストCjを算出することによって、赤外線ステレオ画像について、視差をdであると仮定したときの、画素毎のコストの2次元配列であるコストマップCMjd(CMj1〜CMjNの何れか)が算出される。 In Expression (3), C j (u r , v r , d) is the reference image of the parallelized left-viewpoint infrared image J r, L assuming that the parallax is d. the image coordinates (u r, v r) indicating the cost at. By calculating the cost C j for all the pixels, the cost map CM jd (CM j1 to CM jN) , which is a two-dimensional array of costs for each pixel, assuming that the parallax is d for the infrared stereo image. Either) is calculated.
更に、所定範囲(d=1〜N)の視差d毎に、前記した手順でコストマップを算出する。これによって、N個のコストマップCMj1〜CMjNからなる配列、すなわちコストの3次元配列であるコストボリュームCVjが算出される。
ここで、Nは視差dの取り得る最大値として予め定められた値である。また、本実施形態では、dは「1」毎に算出するものとして説明するが、例えば「2」などの整数値毎としてもよく、また、「0.5」毎や「2.5」毎のように小数値毎としてもよい。
Further, a cost map is calculated by the above-described procedure for each parallax d within a predetermined range (d = 1 to N). As a result, an array composed of N cost maps CM j1 to CM jN , that is, a cost volume CV j that is a three-dimensional array of costs is calculated.
Here, N is a value predetermined as the maximum value that the parallax d can take. In the present embodiment, d is described as being calculated every “1”. However, d may be calculated as an integer value such as “2”, and every “0.5” or “2.5”. It is good also for every decimal value like.
また、画像ブロックBL,BRのサイズτは、撮影された赤外線画像Jr,L,Jr,Rの解像度や赤外線パターン照射機2が照射する赤外線パターンの細かさに応じて、適宜に定めることができるが、例えば、7〜19画素程度とすることができる。また、画像ブロックBL,BRの形状は正方形とすることで計算が簡便となるが、これに限定されず、長方形、六角形、菱形などの多角形、円形などであってもよい。
The image block B L, the size τ of B R, captured infrared image J r, L, J r, depending on the fineness of the infrared pattern resolution and
また、コストボリューム算出部52は、前記したコストボリューム算出部51と同様の手順で、平行化されたカラーステレオ画像Ir,L,Ir,Rについて、コストボリュームCVcを算出する。
なお、コストボリューム算出部52において、カラーステレオ画像Ir,L,Ir,Rの各画素ついてのコストを算出する際の画像ブロックBL,BRのサイズτ及び/又は形状は、コストボリューム算出部51とは異なるようにしてもよい。
Further, the cost
It should be noted that in cost
ここで、カラーステレオ画像Ir,L,Ir,Rについて、視差をdであると仮定し、基準画像であるカラー画像Ir,Lの画像座標(ur,vr)におけるコストCc(ur,vr,d)は、式(4)により算出する。 Here, it is assumed that the parallax is d for the color stereo images I r, L , I r, R , and the cost C c in the image coordinates (u r , v r ) of the color image I r, L that is the reference image. (U r , v r , d) is calculated by equation (4).
なお、式(4)において、kは、カラー画像Ir,L,Ir,RにおけるRGBの各チャンネルを示す。
また、カラー画像Ir,L,Ir,Rを用いた式(4)に代えて、グレー画像Mr,L,Mr,Rを用いた式(5)によりコストCc(ur,vr,d)を算出するようにしてもよい。ここで、グレー画像Mr,L,Mr,Rは、各カラー画像Ir,L,Ir,Rから生成した1成分からなる画像である。グレー画像Mr,L,Mr,Rとしては、例えば、カラー画像Ir,L,Ir,Rの輝度成分を示す画像を用いることができる。
In Equation (4), k represents each of the RGB channels in the color images I r, L , I r, R.
Further, the color image I r, L, I r, instead of equation (4) using the R, gray image M r, L, M r, cost by equation (5) with R C c (u r, v r , d) may be calculated. Here, the gray images Mr, L , Mr, R are images composed of one component generated from the color images Ir , L , Ir , R. As the gray images Mr, L , Mr, and R , for example, images showing the luminance components of the color images Ir , L , Ir , and R can be used.
また、本実施形態では、式(3)〜式(5)に示したように、一般的にSSD(Sum of Squared Difference)と呼ばれる評価式を用いてコストを算出するようにしたが、画像の相関を示す他の評価式を用いるようにしてもよい。他の評価式としては、例えば、SAD(Sum of Absolute Difference)、NCC(Normalized Cross Correlation)、ZNCC(Zero-mean Normalized Cross Correlation)、SD(Squared Difference)などを用いることができる。 In the present embodiment, as shown in the equations (3) to (5), the cost is calculated using an evaluation equation generally called SSD (Sum of Squared Difference). You may make it use the other evaluation formula which shows a correlation. As other evaluation formulas, for example, SAD (Sum of Absolute Difference), NCC (Normalized Cross Correlation), ZNCC (Zero-mean Normalized Cross Correlation), SD (Squared Difference), and the like can be used.
なお、本実施形態では、平行化された赤外線ステレオ画像Jr,L,Jr,Rを用いてコストボリュームを算出するコストボリューム算出部51と、平行化されたカラーステレオ画像Ir,L,Ir,Rを用いてコストボリュームを算出するコストボリューム算出部52とを独立して設けるように設けるようにしたが、1つのコストボリューム算出部51(又は52)を設け、タイミングをずらせて、赤外線ステレオ画像Jr,L,Jr,R及びカラーステレオ画像Ir,L,Ir,Rを用いて順次にコストボリュームを算出するように構成してもよい。
In the present embodiment, a cost
図1に戻って、視差画像生成装置1の構成について説明を続ける。
コストボリューム統合部53は、コストボリューム算出部51から赤外線ステレオ画像Jr,L,Jr,Rについてのコストボリュームを、コストボリューム算出部52からカラーステレオ画像Ir,L,Ir,Rについてのコストボリュームをそれぞれ入力し、入力した2つのコストボリュームを1つに統合するものである。コストボリューム統合部53は、統合した1つのコストボリュームを、視差画像生成処理部6に出力する。
Returning to FIG. 1, the description of the configuration of the parallax
The cost
具体的には、コストボリューム統合部53は、視差d毎に、かつ画素毎に、2つのコストボリュームのコストCj,Ccを、式(6)によって重み付き加算することで、1つのコストボリュームに統合する。
なお、式(6)において、λは重み係数であり、0<λ<1である。
Specifically, the cost
In Equation (6), λ is a weighting coefficient, and 0 <λ <1.
また、2つのコストボリュームの統合方法は、式(6)による各コストCj,Ccの重み付き加算に限定されず、各コストCj,Ccの積、各コストCj,Ccの逆数の和、各コストCj,Ccの逆数の積など、他の方法であってもよい。 Also, how to integrate the two cost volume, the cost C j according to equation (6) is not limited to the weighted sum of C c, the cost C j, the product of C c, the cost C j, the C c Other methods such as the sum of the reciprocals and the product of the reciprocals of the costs C j and C c may be used.
また、本実施形態では、コストボリューム算出部51,52によって、まず2つのコストボリュームを生成し、その後に2つのコストボリュームを1つに統合するようにしたが、これに限定されるものではない。例えば、赤外線ステレオ画像及びカラーステレオ画像についての同じ視差のコストマップを算出する毎に、1つのコストマップに統合するようにしてもよく、赤外線ステレオ画像及びカラーステレオ画像についての同じ視差かつ同じ画素のコストを算出する毎に、1つのコストに統合するようにしてもよい。
In the present embodiment, the cost
視差画像生成処理部6は、コストボリューム統合部53から1つに統合されたコストボリュームを入力し、入力したコストボリュームを用いて画素毎に視差を定めた視差画像を生成するものである。また、視差画像生成処理部6は、生成した視差画像を、視差画像生成装置1の出力として外部に出力する。
The parallax image generation processing unit 6 inputs the cost volume integrated into one from the cost
視差画像生成処理部6は、具体的には、コストボリュームにおいて、画素毎に、コストが最小となるコストマップに仮定した視差dを、当該画素における視差として選択する。すなわち、赤外線カラーカメラ31,32で撮影されたステレオ画像の各画素について、各画素を中心画素とする所定サイズの画像ブロックBL,BR(図3参照)の一致の度合いが最も高くなるように(コストが最小となるように)視差が定められる。
すべての画素について、同じ手順によって視差dを選択することにより、視差画像を生成することができる。
Specifically, the parallax image generation processing unit 6 selects the parallax d assumed in the cost map that minimizes the cost for each pixel in the cost volume as the parallax for the pixel. That is, for each pixel of the stereo image taken by the
A parallax image can be generated by selecting the parallax d by the same procedure for all pixels.
[視差画像生成システムの動作]
次に、図4を参照(適宜図1参照)して、第1実施形態に係る視差画像生成システム100の動作について説明する。
図4に示すように、まず、視差画像生成システム100は、赤外線パターン照射機2によって、ランダムドットパターンなどの赤外線パターンを照射して、被写体に赤外線画像で識別可能なテクスチャを付与する(ステップS11)。
[Operation of parallax image generation system]
Next, the operation of the parallax
As shown in FIG. 4, first, the parallax
次に、視差画像生成システム100は、2台の赤外線カラーカメラ31,32によって、赤外線ステレオ画像及びカラーステレオ画像を撮影する(ステップS12)。
次に、視差画像生成システム100は、画像平行化処理部41によって、ステップS12で撮影した赤外線ステレオ画像を平行化処理する(ステップS13)。また、視差画像生成システム100は、画像平行化処理部42によって、ステップS12で撮影したカラーステレオ画像を平行化処理する(ステップS14)。なお、ステップS13とステップS14とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax
Next, the parallax
次に、視差画像生成システム100は、コストボリューム算出部51によって、ステップS13で平行化した赤外線ステレオ画像について、コストボリュームを算出する(ステップS15)。また、視差画像生成システム100は、コストボリューム算出部52によって、ステップS14で平行化したカラーステレオ画像について、コストボリュームを算出する(ステップS16)。なお、ステップS15とステップS16とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax
次に、視差画像生成システム100は、コストボリューム統合部53によって、ステップS15で算出した赤外線ステレオ画像についてのコストボリュームと、ステップS16で算出したカラーステレオ画像についてのコストボリュームとを、式(6)を用いて、視差毎及び画素毎にコストを重み付き加算することで、1つのコストボリュームに統合する(ステップS17)。
Next, the parallax
そして、視差画像生成システム100は、視差画像生成処理部6によって、ステップS17で統合したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS18)。
以上の手順により、視差画像生成システム100は、視差画像を生成することができる。
And the parallax
Through the above procedure, the parallax
本実施形態では、前記したように赤外線ステレオ画像を用いて算出したコストボリュームと、カラー画像を用いて算出したコストボリュームとを統合したコストボリュームを用いて視差を推定する。このため、テクスチャを有する被写体については、主として本来のテクスチャが撮影されたカラーステレオ画像に基づくコストボリュームにより精度よく視差を推定することができる。また、本来テクスチャを有さない被写体については、主として赤外線パターンによりテクスチャを付与された画像が撮影された赤外線ステレオ画像に基づくコストボリュームにより精度よく視差を推定することができる。
すなわち、赤外線ステレオ画像とカラーステレオ画像とを用いることにより、互いに視差推定精度の低い領域を補完することができるため、高い精度の視差画像を生成することができる。
In the present embodiment, the parallax is estimated using the cost volume obtained by integrating the cost volume calculated using the infrared stereo image and the cost volume calculated using the color image as described above. For this reason, for a subject having a texture, the parallax can be accurately estimated by a cost volume based mainly on a color stereo image in which the original texture is captured. In addition, for a subject that does not originally have a texture, the parallax can be accurately estimated by a cost volume based on an infrared stereo image obtained by photographing an image that is textured mainly by an infrared pattern.
That is, by using an infrared stereo image and a color stereo image, regions with low parallax estimation accuracy can be complemented, and thus a parallax image with high accuracy can be generated.
<第2実施形態>
[視差画像生成システムの構成]
次に、図5を参照して、本発明の第2実施形態に係る視差画像生成システムについて説明する。
図5に示すように、第2実施形態に係る視差画像生成システム100Aは、図1に示した第1実施形態に係る視差画像生成システム100に対して、コストボリューム生成部5を備えた視差画像生成装置1に代えて、コストボリューム生成部5Aを備えた視差画像生成装置1Aを備えることが異なる。
また、第2実施形態の視差画像生成装置1Aにおいて、コストボリューム生成部5Aは、コストボリュームフィルタ処理部54を更に備え、コストボリューム統合部53が統合したコストボリュームについて、コストマップ毎に、エッジ保持型の平滑化フィルタ処理を行うことにより、被写体の輪郭付近の視差推定精度の向上を図るものである。
Second Embodiment
[Configuration of parallax image generation system]
Next, a parallax image generation system according to the second embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 5, the parallax
In the parallax image generation device 1A of the second embodiment, the cost
なお、第1実施形態に係る視差画像生成システム100と同様の構成要素については、同じ符号を付して説明は適宜に省略する。
以下、主として視差画像生成装置1Aのコストボリュームフィルタ処理部54について説明する。
In addition, about the component similar to the parallax
Hereinafter, the cost volume
視差画像生成装置1Aは、画像変換部4と、コストボリューム生成部5Aと、視差画像生成処理部6とを備え、赤外線ステレオ画像と、可視光ステレオ画像と、これらの画像を撮影した赤外線カラーカメラ31,32のカメラパラメータと、を用いて視差画像を生成する。
また、コストボリューム生成部5Aは、コストボリューム算出部51,52と、コストボリューム統合部53と、コストボリュームフィルタ処理部54とを備える。
The parallax image generation device 1A includes an
The cost
コストボリュームフィルタ処理部(平滑化フィルタ処理部)54は、コストボリューム統合部53から統合されたコストボリュームを入力するとともに、画像平行化処理部42から平行化されたカラーステレオ画像の内の基準画像であるカラー画像Ir,Lを入力し、入力したコストボリュームについて、コストマップ毎に、カラー画像Ir,Lをガイド画像としてエッジ保持型の平滑化フィルタ処理を行う。
コストボリュームフィルタ処理部54は、平滑化フィルタ処理したコストボリュームを視差画像生成処理部6に出力する。
The cost volume filter processing unit (smoothing filter processing unit) 54 inputs the cost volume integrated from the cost
The cost volume
コストボリュームフィルタ処理部54によるコストマップ毎の平滑化フィルタ処理は、前記したように、被写体の輪郭付近の視差推定精度の向上を図るためのものである。特に、本来テクスチャを有さない被写体については、主として赤外線ステレオ画像に基づいて視差を推定することとなる。ここで、赤外線パターン照射機2により付与される赤外線パターンのテクスチャは、必ずしも高密度のテクスチャではないため、エッジ保持型の平滑化フィルタ処理を行うことにより、本来テクスチャを有さない被写体の輪郭付近の視差推定精度の向上に特に有用である。
The smoothing filter processing for each cost map by the cost volume
エッジ保持型の平滑化フィルタ処理としては、例えば、参考文献2〜参考文献4に記載された手法を用いることができる。
(参考文献2)J. Lu, K. Shi, D. Min, L. Lin and M. Do, “Cross-Based Local Multipoint Filtering”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 430-437, (2012)
(参考文献3)K. He, J. Sun, X. Tang, “Guided Image Filtering,” In Proc. of ECCV Part I, Pages 1-14, (2010)
(参考文献4)G. Petschnigg, M. Agrawala, H. Hoppe, R. Szeliski, M. Cohen, K. Toyama, “Digital Photography with Flash and No-Flash Image Pairs,” In Proc. of SIGGRAPH, (2004)
As the edge holding type smoothing filter process, for example, the methods described in
(Reference 2) J. Lu, K. Shi, D. Min, L. Lin and M. Do, “Cross-Based Local Multipoint Filtering”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 430- 437, (2012)
(Reference 3) K. He, J. Sun, X. Tang, “Guided Image Filtering,” In Proc. Of ECCV Part I, Pages 1-14, (2010)
(Reference 4) G. Petschnigg, M. Agrawala, H. Hoppe, R. Szeliski, M. Cohen, K. Toyama, “Digital Photography with Flash and No-Flash Image Pairs,” In Proc. Of SIGGRAPH, (2004 )
以下、本実施形態におけるコストボリュームフィルタ処理部54が、参考文献2に記載されたCLMF(Cross-based Local Multipoint Filter)によってエッジ保持型の平滑化フィルタ処理を行う場合を例として説明する。
本実施形態において、CLMFによるコストボリュームの平滑化フィルタ処理は、各コストマップをコストを画素値とする2次元の画像として扱い、コストマップ毎に2次元空間フィルタ処理を行うものである。また、各画素についてのコストを、当該画素の周辺画素についてのコストを参照して平滑化フィルタ処理する際に、基準視点についてのカラー画像を被写体のエッジ領域識別のためのガイド画像として、当該平滑化フィルタ処理の対象画素と、色が類似する(色差が所定の閾値以下の)周辺画素についてのコストのみを抽出して平滑化フィルタ処理に用いるものである。視差が大きく異なる領域は、被写体のエッジ部、すなわち別個の被写体が隣接して撮影された領域に相当し、互いに色も大きく異なることが多いという性質を利用して、平滑化の際にエッジ(輪郭)を保持するための参考情報とするものである。平滑化フィルタ処理に類似色の画素のみを用いることで、特に評価式としてSSDを用いてコストを算出してコストボリュームを生成する際に発生する「領域が太る現象」を抑制する効果がある。
Hereinafter, a case where the cost volume
In the present embodiment, the cost volume smoothing filter processing by CLMF treats each cost map as a two-dimensional image with the cost as a pixel value, and performs two-dimensional spatial filter processing for each cost map. Further, when the smoothing filter processing is performed on the cost for each pixel with reference to the cost for the peripheral pixels of the pixel, the color image for the reference viewpoint is used as a guide image for identifying the edge region of the subject. Only the cost of a peripheral pixel that is similar in color to the target pixel of the smoothing filter process (the color difference is equal to or smaller than a predetermined threshold) is extracted and used for the smoothing filter process. An area where the parallax is greatly different corresponds to an edge portion of the subject, that is, an area where separate subjects are photographed adjacent to each other, and an edge ( This is used as reference information for maintaining the contour. By using only similar color pixels for the smoothing filter processing, there is an effect of suppressing the “region fattening phenomenon” that occurs when the cost volume is generated by calculating the cost using SSD as an evaluation formula.
ここで、図6を参照して、CLMFによる平滑化フィルタ処理について説明する。
図6において、矩形の画像領域であるカーネルWpは、中心画素pについてのコストを平滑化フィルタ処理する際に参照する周辺画素の最大領域である。このカーネルWpから、中心画素pと色が類似する画像領域としてカーネルΩpを抽出する。
Here, the smoothing filter processing by CLMF will be described with reference to FIG.
In FIG. 6, a kernel W p that is a rectangular image region is a maximum region of peripheral pixels that are referred to when the cost for the center pixel p is subjected to the smoothing filter process. From this kernel W p, the central pixel p and colors to extract the kernel Omega p as image regions similar.
カーネルΩpを抽出するために、まず、画素pから垂直方向(v軸方向)に配列する画素列について、画素pから上下方向のそれぞれについて順次に、画素pと色が類似するかどうかを判定する。このとき、カラー画像Ir,Lを判定用のガイド画像として用い、当該ガイド画像における画素pと、各周辺画素との色差が所定の閾値以下の場合に色が類似すると判定する。
画素pから色が類似する画素を上下方向に順次に判定し、カーネルWpの範囲内で色が類似しない画素が検出されるまで判定を続ける。そして、最後に色が類似する画素を、カーネルΩpの上端及び下端とする。
To extract the kernel Omega p, first, the pixel lines arranged in the vertical direction (v direction) from the pixel p, sequentially for each of the vertical direction from the pixel p, determine whether the pixel p and the color is similar To do. At this time, the color images Ir , L are used as a guide image for determination, and it is determined that the colors are similar when the color difference between the pixel p in the guide image and each peripheral pixel is equal to or less than a predetermined threshold.
Sequentially determining a pixel color from a pixel p is similar to the vertical direction, continued determination to the pixel color is not similar within the kernel W p is detected. Finally, pixels having similar colors are defined as the upper and lower ends of the kernel Ωp.
次に、前記した上端から下端の範囲内で、画素pの垂直方向に配列する画素q(図6において、実線の矢印線で示した範囲の各画素)から、左右方向(u軸方向)に配列する画素について順次に、画素qと色が類似するかどうかを判定する。画素qから色が類似する画素を左右方向に順次に判定し、カーネルWpの範囲内で色が類似しない画素が検出されるまで判定を続ける。そして、最後に色が類似する画素を、当該画素qの位置におけるカーネルΩpの左端及び右端とする。
これを、すべての画素qについて行うことで、図6に破線で示したように、カーネルΩpを抽出することができる。
Next, in the horizontal direction (u-axis direction) from the pixel q (each pixel in the range indicated by the solid arrow line in FIG. 6) arranged in the vertical direction of the pixel p within the range from the upper end to the lower end. It is sequentially determined whether or not the color of the pixel q is similar for the pixels to be arranged. Sequentially determining a pixel color from the pixel q is similar to the left-right direction, continued determination to the pixel color is not similar within the kernel W p is detected. Finally, the pixels having similar colors are defined as the left end and the right end of the kernel Ωp at the position of the pixel q.
This, by performing for every pixel q, as indicated by a broken line in FIG. 6, it is possible to extract the kernel Omega p.
また、CLMFでは、フィルタ処理後の画像Sは、ガイド画像Gと線形の関係にあると仮定する。そこで、係数a,bを用いて、フィルタ処理後の画像Sを、式(7)のように表わすこととする。 In CLMF, it is assumed that the image S after the filter process has a linear relationship with the guide image G. Therefore, the image S after the filter processing is expressed as shown in Expression (7) using the coefficients a and b.
式(7)において、添字kはカーネルΩpに属する各画素を示し、係数ak,bkは、式(8)によって算出される。 In the formula (7), the subscript k denotes the respective pixels belonging to the kernel Omega p, coefficient a k, b k is calculated by the equation (8).
式(8)において、Ωkは画素kを中心画素として、前記したΩpを抽出するのと同様の手順で抽出されるカーネル(画像領域)を示す。また、μk、σk 2、Z’k及びεは、それぞれカーネルΩkにおけるガイド画像Gの平均、分散、カーネルΩkにおけるフィルタ処理の対象画像であるコストマップの平均、及び正則化項を示す。また、|Ωk|は、カーネルΩkに属する画素数を示す。 In Expression (8), Ω k indicates a kernel (image region) extracted by the same procedure as that for extracting Ω p with the pixel k as the central pixel. Further, mu k, is σ k 2, Z 'k and epsilon, the average of the guide image G in kernel Omega k respectively, dispersion, average cost map a target image filtering in kernel Omega k, and the regularization term Show. | Ω k | indicates the number of pixels belonging to the kernel Ω k .
また、フィルタ処理後の画像Sp(すなわち、画素pにおけるフィルタ処理後のコスト)は、式(9)のように近似することができる。 The image S p the filtered (i.e., the cost of post-filtering in pixel p) can be approximated as equation (9).
コストボリュームフィルタ処理部54は、以上に手順によって、コストボリュームのすべてのコストマップについて、エッジ保持型の平滑化フィルタ処理を行う。
The cost volume
図5に戻って、視差画像生成装置1Aの構成について説明を続ける。
視差画像生成処理部6は、コストボリュームフィルタ処理部54から平滑化フィルタ処理されたコストボリュームを入力し、入力したコストボリュームを用いて画素毎に視差を定めた視差画像を生成するものである。また、視差画像生成処理部6は生成した視差画像を、視差画像生成装置1Aの出力として外部に出力する。
視差画像生成処理部6による視差画像生成処理の手順は、第1実施形態における視差画像生成処理部6と同様であるから、説明は省略する。
Returning to FIG. 5, the description of the configuration of the parallax image generating device 1A will be continued.
The parallax image generation processing unit 6 receives the cost volume that has been subjected to the smoothing filter processing from the cost volume
Since the procedure of the parallax image generation processing by the parallax image generation processing unit 6 is the same as that of the parallax image generation processing unit 6 in the first embodiment, the description thereof is omitted.
[視差画像生成システムの動作]
次に、図7を参照(適宜図5参照)して、第2実施形態に係る視差画像生成システム100Aの動作について説明する。
第2実施形態に係る視差画像生成システム100Aによる視差画像生成において、赤外線パターンを照射するステップS21からコストボリュームを統合するステップS27までは、図4に示した第1実施形態に係る視差画像生成システム100による視差画像生成におけるステップS11からステップS17までと同様であるから、説明は省略する。
[Operation of parallax image generation system]
Next, the operation of the parallax
In the parallax image generation by the parallax
ステップS27の後、視差画像生成システム100Aは、コストボリュームフィルタ処理部54によって、ステップS27で統合されたコストボリュームについて、ステップS24で平行化した基準視点(左視点)についてのカラー画像をガイド画像として、コストマップ毎にエッジ保持型の平滑化フィルタ処理を行う(ステップS28)。
After step S27, the parallax
そして、視差画像生成システム100Aは、視差画像生成処理部6によって、ステップS28で平滑化フィルタ処理したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS29)。
以上の手順により、視差画像生成システム100Aは、視差画像を生成することができる。
Then, the parallax
Through the above procedure, the parallax
本実施形態では、視差画像生成処理(ステップS29)を行う前に、コストボリュームに対してエッジ保持型の平滑化フィルタ処理を行うため、特に被写体の輪郭近傍での視差推定精度を向上することができる。 In the present embodiment, since the edge holding type smoothing filter process is performed on the cost volume before the parallax image generation process (step S29), the parallax estimation accuracy particularly in the vicinity of the contour of the subject can be improved. it can.
<第3実施形態>
[視差画像生成システムの構成]
次に、図8及び図2(b)を参照して、本発明の第3実施形態に係る視差画像生成システムについて説明する。
図8に示すように、第3実施形態に係る視差画像生成システム100Bは、図5に示した第2実施形態に係る視差画像生成システム100Aに対して、撮影装置3に代えて撮影装置3Bを備えることと、視差画像生成装置1Aに代えて視差画像生成装置1Bを備えることとが異なる。また、視差画像生成装置1Bは、視差画像生成装置1Aに対して、画像変換部4に代えて画像変換部4Bを備えることと、コストボリューム生成部5Aに代えてコストボリューム生成部5Bを備えることとが異なる。
<Third Embodiment>
[Configuration of parallax image generation system]
Next, a parallax image generation system according to the third embodiment of the present invention will be described with reference to FIG. 8 and FIG.
As shown in FIG. 8, the parallax
第3実施形態に係る視差画像生成システム100Bは、撮影装置3Bとして、第1実施形態及び第2実施形態の撮影装置3における2台の赤外線カラーカメラ31,32に代えて、赤外線ステレオ画像を撮影するための2台の赤外線カメラ33,34と、カラーステレオ画像を撮影するための2台のカラーカメラ35,36とを備えている。同光軸で赤外線画像とカラー画像とを撮影できるが高価な赤外線カラーカメラ31,32の代わりに、赤外線画像を撮影するカメラとカラー画像を撮影するカメラとを別個に備えることにより、安価に撮影装置3Bを構成することができる。
The parallax
また、本実施形態では、赤外線画像の撮影とカラー画像の撮影とを光軸の異なる別個のカメラで撮影するため、カラーカメラ35で撮影したカラー画像とカラーカメラ36で撮影したカラー画像との光軸を平行化することに加えて、それぞれのカラー画像に対応する赤外線カメラ33で撮影した赤外線画像及び赤外線カメラ34で撮影した赤外線画像と光学主点を合わせるように、画像座標を変換する必要がある。そのために、画像平行化処理部42の代わりに、画像座標変換処理部43と、画像座標変換処理部44とを備え、画像座標変換処理部43によって、カラーカメラ35で撮影したカラー画像を、赤外線カメラ33で撮影して平行化した基準画像となる赤外線画像と光軸を合わせるとともに、画像座標変換処理部44によって、カラーカメラ36で撮影したカラー画像を、赤外線カメラ34で撮影して平行化した他方の赤外線画像と光軸を合わせるものである。
In the present embodiment, since the infrared image and the color image are captured by separate cameras having different optical axes, the light of the color image captured by the
画像座標変換処理部43及び画像座標変換処理部44から出力されるカラー画像の組は、平行化され、かつ赤外線ステレオ画像と光軸が一致するように座標変換されたカラーステレオ画像である。但し、平行化及び光学主点の移動を伴う画像座標変換処理は、被写体の奥行方向の距離(もしくは変換先の赤外線ステレオ画像上での視差)に依存するため、カラーカメラ35及びカラーカメラ36で撮影されたカラー画像の画像座標変換は、赤外線ステレオ画像上での視差を一律に仮定し、仮定した視差毎に行う必要がある。
本実施形態では、視差毎に画像座標変換されたカラー画像を用いてコストボリュームを算出するために、第1実施形態及び第2実施形態におけるコストボリューム算出部52の代わりに、コストボリューム算出部52Bを備えるものである。
A set of color images output from the image coordinate
In the present embodiment, in order to calculate the cost volume using the color image obtained by image coordinate conversion for each parallax, the cost
他の構成については、第2実施形態に係る視差画像生成システム100Aと同様であるから、同じ構成要素については、同じ符号を付して説明は適宜に省略する。
以下、主として第2実施形態と異なる構成について説明する。
Since other configurations are the same as those of the parallax
Hereinafter, a configuration different from the second embodiment will be mainly described.
撮影装置3Bは、前記したように、2台の赤外線カメラ33,34と、2台のカラーカメラ35,36とを備えている。
図2(b)に示すように、2台の赤外線カメラ33,34は、赤外線パターン照射機2を挟んで、水平方向(X軸方向)に並置されている。また、2台のカラーカメラ35,36は、それぞれX軸方向に対応する視点の画像を撮影する赤外線カメラ33,34の上方向(Y軸方向)に配置されている。赤外線カメラ33,34及びカラーカメラ35,36は、互いに略光軸が平行となるように配置されることが好ましい。また、赤外線カメラ33及びカラーカメラ35と、赤外線カメラ34及びカラーカメラ36とは、それぞれできる限り近い視点から撮影するように近傍に配置することが好ましい。これによって、画像平行化処理部41及び画像座標変換処理部43,44によって座標変換される変換量が小さくなるため、精度よく光軸を合わせた画像を算出することができる。
As described above, the photographing
As shown in FIG. 2B, the two
また、カラーカメラ35,36は、赤外線パターン照射機2が照射する波長の赤外線をカットする赤外カットフィルタを備えることが好ましい。これによって、赤外線パターン照射の影響を受けることなくカラー画像を撮影することができる。
更にまた、本実施形態では、カラーカメラ35,36によって、可視光領域の画像としてRGBの3チャンネルからなるカラー画像を撮影するようにしたが、可視光領域のモノクロ画像、2チャンネルの画像又は4チャンネル以上の画像を撮影するようにしてもよい。
Moreover, it is preferable that the
Furthermore, in the present embodiment, a color image composed of three RGB channels is captured as an image in the visible light region by the
赤外線カメラ33,34は、撮影した赤外線ステレオ画像を画像平行化処理部41に出力する。また、カラーカメラ35は、撮影したカラー画像を画像座標変換処理部43に出力し、カラーカメラ36は、撮影したカラー画像を画像座標変換処理部44に出力する。
The
視差画像生成装置1Bは、画像変換部4Bと、コストボリューム生成部5Bと、視差画像生成処理部6とを備え、赤外線ステレオ画像及び可視光ステレオ画像と、これらの画像を撮影した赤外線カメラ33,34及びカラーカメラ35,36のカメラパラメータと、を用いて視差画像を生成する。
The parallax
画像変換部4Bは、画像平行化処理部41と、画像座標変換処理部43,44とを備えて構成されている。
画像平行化処理部41は、第2実施形態と同様であるから、説明は省略する。
画像座標変換処理部43は、カラーカメラ35からカラー画像を入力するとともに、カラーカメラ35についてのカメラパラメータと、赤外線カメラ33についてのカメラパラメータとを入力する。画像座標変換処理部43は、入力したカラー画像を、カラーカメラ35のカメラパラメータと赤外線カメラ33のカメラパラメータとを用いて、画像平行化処理部41によって平行化される赤外線カメラ33により撮影された赤外線画像と同じ光軸の画像座標系に変換する。画像座標変換処理部43は、画像座標を変換したカラー画像を、基準視点である左視点のカラー画像としてコストボリューム算出部52Bに出力する。更に、画像座標変換処理部43は、画像座標を変換したカラー画像を、平滑化フィルタ処理のガイド画像としてコストボリュームフィルタ処理部54に出力する。
The
Since the image
The image coordinate
なお、各カメラパラメータの取得方法は、前記した第1実施形態と同様であるから、詳細な説明は省略する。なお、本実施形態では、赤外線カメラ33とカラーカメラ35とは光軸が異なるため、それぞれカメラについてカメラキャリブレーションを行ってカメラパラメータを取得するものとする。ここで、赤外線カメラ33については、撮影した赤外線画像をモノクロ画像として取り扱うことにより、画像解析手法を用いた従来のカメラキャリブレーションによりカメラパラメータを取得することができる。
また、赤外線カメラ34及びカラーカメラ36のカメラパラメータについても同様である。
The method for acquiring each camera parameter is the same as in the first embodiment described above, and detailed description thereof is omitted. In this embodiment, since the
The same applies to the camera parameters of the
画像座標変換処理部44は、カラーカメラ36からカラー画像を入力するとともに、カラーカメラ36についてのカメラパラメータと、赤外線カメラ34についてのカメラパラメータとを入力する。画像座標変換処理部44は、入力したカラー画像を、カラーカメラ36のカメラパラメータと赤外線カメラ34のカメラパラメータとを用いて、画像平行化処理部41によって平行化される赤外線カメラ34により撮影された赤外線画像と同じ光軸の画像座標系に変換する。画像座標変換処理部44は、画像座標を変換したカラー画像を、右視点のカラー画像としてコストボリューム算出部52Bに出力する。
The image coordinate
ここで、画像座標変換処理部43による画像座標変換処理について説明する。
画像座標変換処理部43は、カラーカメラ35によって撮影されたカラー画像を、赤外線カメラ33によって撮影された赤外線画像と同じ座標系で扱えるようにカラー画像を座標変換する。ここで、変換式は、視差dに依存するため、視差d毎に、すべての視差dに対応するカラー画像を算出する。
なお、すべての視差dとは、第1実施形態についての説明において、コストマップを算出するための視差dの範囲及び間隔と同じである。すなわち、視差dは、最小値「0」から視差画像生成装置1Bで生成する視差画像において視差として取り得る最大の値「N」までを、所定の間隔(例えば、「1」)毎に想定されるものとする。
Here, the image coordinate conversion processing by the image coordinate
The image coordinate
Note that all the parallaxes d are the same as the range and interval of the parallax d for calculating the cost map in the description of the first embodiment. That is, the parallax d is assumed every predetermined interval (for example, “1”) from the minimum value “0” to the maximum value “N” that can be taken as parallax in the parallax image generated by the parallax
基準視点である左視点についての平行化した赤外線画像の位置prの画像座標(ur,vr)における視差をdとすると、位置prの斉次座標は、式(10)によって算出することができる。 When the image coordinates (u r, v r) of the position p r of the collimated infrared image for the left viewpoint is the reference viewpoint disparity in the d, homogeneous coordinates of the position p r is calculated by Equation (10) be able to.
式(10)において、fは2台の赤外線カメラ33,34のカメラレンズの画素ピッチを単位とする焦点距離を示し、Bは2台の赤外線カメラ33,34の光学主点間の距離を示し、(Cu,Cv)は、赤外線画像の中心点の画像座標を示す。各パラメータにおいて、添字rは平行化画像についてのパラメータであることを示す。また、右肩の「T」は、転置行列を示す。
In Expression (10), f represents the focal length in units of pixel pitch of the camera lenses of the two
ここで、内部パラメータ行列をF、回転行列をR、並進ベクトルをTとすると、赤外線画像において位置prに撮影された被写体上の点Pの世界座標は、式(11)のように表わされる。更に、当該被写体上の点Pに対応するカラー画像中の画像座標(uc,vc)は、式(12)のように表わされる。なお、式(12)において、添字cは、カラー画像についてのパラメータであることを示す。 Here, the internal parameter matrix F, the rotation matrix R, when the translation vector T, the world coordinates of the point P on the object photographed in the position p r in the infrared image is represented by the equation (11) . Further, the image coordinates (u c , v c ) in the color image corresponding to the point P on the subject are expressed as in Expression (12). In equation (12), the subscript c indicates a parameter for a color image.
平行化された基準視点における赤外線画像の各画素について、カラー画像において対応する画素の画像座標(uc,vc)を式(11)及び式(12)を用いて算出することにより、視差がdであると仮定したときのカラー画像に変換することができる。
画像座標変換処理部43は、想定するすべての視差dについて、カラー画像を変換する。
For each pixel of the infrared image at the parallel reference viewpoint, the parallax is calculated by calculating the image coordinates (u c , v c ) of the corresponding pixel in the color image using the equations (11) and (12). It can be converted to a color image when d is assumed.
The image coordinate
画像座標変換処理部44は、左視点の赤外線画像及びカラー画像とこれらの画像を撮影したカメラのカメラパラメータとに代えて、右視点の赤外線画像及びカラー画像とこれのら画像を撮影したカメラのカメラパラメータとを用いて、同様の手順で、想定するすべての視差dについて、平行化された右視点の赤外線画像の座標面に変換したカラー画像を算出する。
The image coordinate
コストボリューム生成部5Bは、コストボリューム算出部51,52Bと、コストボリューム統合部53と、コストボリュームフィルタ処理部54とを備える。
The cost
コストボリューム算出部52Bは、画像座標変換処理部43から左視点のカラー画像を、画像座標変換処理部44から右視点のカラー画像を、それぞれ入力し、これらのカラー画像の組からなるカラーステレオ画像について、視差d毎にコストマップを算出することで、これらのコストマップの配列であるコストボリュームを算出する。
コストボリューム算出部52Bは、算出したカラーステレオ画像についてのコストボリュームを、コストボリューム統合部53に出力する。
The cost
The cost
なお、コストボリューム算出部52Bに入力されるカラーステレオ画像は、視差d毎に生成されているため、コストマップを算出する際には、対応する視差dのカラーステレオ画像を用いて各画素についてのコストを算出する。
Since the color stereo image input to the cost
コストボリュームフィルタ処理部54は、コストボリューム統合部53から統合されたコストボリュームを入力するとともに、画像座標変換処理部43から平行化された基準視点の赤外線画像と同じ光軸の画像に変換されたカラー画像をガイド画像として入力する。そして、コストボリュームフィルタ処理部54は、前記した第2実施形態におけるコストボリュームフィルタ処理部54と同様にして、コストボリュームにエッジ保持型の平滑化フィルタ処理を施し、フィルタ処理を施したコストボリュームを視差画像生成処理部6に出力する。
The cost volume
その他の構成要素は、第2実施形態に係る視差画像生成システム100と同様であるから、説明は省略する。
なお、本実施形態において、第1実施形態と同様に、視差画像生成装置1Bが、コストボリュームフィルタ処理部54を備えずに、コストボリューム統合部53によって算出したコストボリュームを用いて、視差画像生成処理部6によって視差画像を生成するように構成してもよい。
Since other components are the same as those of the parallax
In the present embodiment, as in the first embodiment, the parallax
[視差画像生成システムの動作]
次に、図9を参照(適宜図8参照)して、第3実施形態に係る視差画像生成システム100Bの動作について説明する。
赤外線パターンを照射するステップS31は、第1実施形態のステップS11(図4参照)と同様であるから、説明は省略する。
[Operation of parallax image generation system]
Next, the operation of the parallax
Step S31 of irradiating the infrared pattern is the same as step S11 (see FIG. 4) of the first embodiment, and thus description thereof is omitted.
次に、視差画像生成システム100Bは、2台の赤外線カメラ33,34によって赤外線ステレオ画像を撮影するとともに、2台のカラーカメラ35,36によってカラーステレオ画像を撮影する(ステップS32)。
次に、視差画像生成システム100Bは、画像平行化処理部41によって、ステップS32で撮影した赤外線ステレオ画像を平行化処理する(ステップS33)。また、視差画像生成システム100Bは、画像座標変換処理部43によって、ステップS32でカラーカメラ35により撮影したカラー画像を、ステップS33で平行化した基準視点(左視点)の赤外線画像の光軸と合うように画像座標の変換処理を行うとともに、画像座標変換処理部44によって、ステップS32でカラーカメラ36により撮影したカラー画像を、ステップS33で平行化した右視点の赤外線画像の光軸と合うように画像座標の変換処理を行う(ステップS34)。なお、ステップS33とステップS34とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax
Next, in the parallax
次に、視差画像生成システム100Bは、コストボリューム算出部51によって、ステップS33で平行化した赤外線ステレオ画像について、コストボリュームを算出する(ステップS35)。また、視差画像生成システム100Bは、コストボリューム算出部52Bによって、ステップS34で画像座標を変換したカラーステレオ画像について、コストボリュームを算出する(ステップS36)。なお、ステップS35とステップS36とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax
次に、視差画像生成システム100Bは、コストボリューム統合部53によって、ステップS35で算出した赤外線ステレオ画像についてのコストボリュームと、ステップS36で算出したカラーステレオ画像についてのコストボリュームとを、式(6)を用いて、視差毎及び画素毎にコストを重み付き加算することで、1つのコストボリュームに統合する(ステップS37)。
Next, the parallax
次に、視差画像生成システム100Bは、コストボリュームフィルタ処理部54によって、ステップS37で統合されたコストボリュームについて、ステップS34で画像座標変換した基準視点(左視点)についてのカラー画像をガイド画像として、視差d毎に、すなわちコストマップ毎にエッジ保持型の平滑化フィルタ処理を行う(ステップS38)。
Next, the parallax
そして、視差画像生成システム100Bは、視差画像生成処理部6によって、ステップS38で平滑化フィルタ処理したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS39)。
以上の手順により、視差画像生成システム100Bは、視差画像を生成することができる。
Then, the parallax
Through the above procedure, the parallax
本実施形態では、画像座標変換処理部43,44によって、カラーカメラ35,36で撮影したカラーステレオ画像を、平行化した赤外線ステレオ画像の光軸と一致するように画像座標を変換するため、安価な赤外線カメラ及びカラーカメラを用いて撮影した赤外線画像及びカラー画像から視差画像を生成することができる。
In the present embodiment, the image coordinate
<第4実施形態>
[視差画像生成システムの構成]
次に、図10及び図2(c)を参照して、本発明の第4実施形態に係る視差画像生成システムについて説明する。
図10に示すように、第4実施形態に係る視差画像生成システム100Cは、図8に示した第3実施形態に係る視差画像生成システム100Bに対して、撮影装置3Bに代えて撮影装置3Cを備えることと、視差画像生成装置1Bに代えて視差画像生成装置1Cを備えることとが異なる。また、視差画像生成装置1Cは、視差画像生成装置1Bに対して、画像変換部4Bに代えて画像変換部4Cを備えることと、コストボリューム生成部5Bに代えてコストボリューム生成部5Cを備えることとが異なる。
<Fourth embodiment>
[Configuration of parallax image generation system]
Next, a parallax image generation system according to the fourth embodiment of the present invention will be described with reference to FIG. 10 and FIG.
As shown in FIG. 10, the parallax
第4実施形態に係る視差画像生成システム100Cは、撮影装置3Cとして、赤外線ステレオ画像を撮影するための2台の赤外線カメラ33,34と、カラー画像を撮影するための1台のカラーカメラ35とを備えている。本実施形態では、コストボリュームは、赤外線ステレオ画像からのみ算出する。そして、平行化された基準視点の赤外線画像と同じ光軸の画像に座標変換したカラー画像をガイド画像として用いて、赤外線ステレオ画像について算出したコストボリュームをエッジ保持型の平滑化フィルタ処理をし、平滑化フィルタ処理したコストボリュームを用いて視差画像を生成する。
A parallax
このため、本実施形態に係る視差画像生成システム100Cは、図8に示した第3実施形態に係る視差画像生成システム100Bに対して、撮影装置3Cに右視点用のカラーカメラ36を備えないことと、視差画像生成装置1Cの画像変換部4Cに右視点用の画像座標変換処理部44を備えないことと、視差画像生成装置1Cのコストボリューム生成部5Cにカラーステレオ画像についてのコストボリュームを算出するためのコストボリューム算出部52B及びコストボリューム統合部53を備えないこととが異なる。
第3実施形態と同様の構成要素については、同じ符号を付して説明は適宜に省略する。
For this reason, the parallax
The same components as those in the third embodiment are denoted by the same reference numerals, and the description thereof is omitted as appropriate.
撮影装置3Cは、前記したように、2台の赤外線カメラ33,34と、1台のカラーカメラ35とを備えている。
図2(c)に示すように、2台の赤外線カメラ33,34は、赤外線パターン照射機2及び1台のカラーカメラ35を挟んで、水平方向(X軸方向)に並置されている。
赤外線パターン照射機2は、2台の赤外線カメラ33,34の間に配置することが好ましい。これによって、2台の赤外線カメラ33,34の何れから見ても、赤外線パターン照射機2から被写体に向かって照射される赤外線パターンが、被写体の一部の影になって投影されない領域、すなわちテクスチャが付与されない領域を低減することができる。
また、カラーカメラ35も、赤外線カメラ33,34の間に配置することが好ましい。更に、カラーカメラ35は、基準画像を撮影する赤外線カメラ33の近くに配置することが、より好ましい。
カラーカメラ35が撮影したカラー画像は、赤外線ステレオ画像についてのコストボリュームをエッジ保持型の平滑化フィルタ処理する際のガイド画像として用いるため、赤外線カメラ33,34と視点が近くなるように配置することで、基準視点の赤外線画像と光軸を合わせたカラー画像を高精度に算出することができる。
As described above, the photographing
As shown in FIG. 2C, the two
The
The
Since the color image taken by the
赤外線カメラ33,34は、撮影した赤外線ステレオ画像を画像平行化処理部41に出力する。また、カラーカメラ35は、撮影したカラー画像を画像座標変換処理部43に出力する。
The
視差画像生成装置1Cは、画像変換部4Cと、コストボリューム生成部5Cと、視差画像生成処理部6とを備え、赤外線ステレオ画像及び可視光画像と、これらの画像を撮影した赤外線カメラ33,34及びカラーカメラ35のカメラパラメータと、を用いて視差画像を生成する。
The parallax
画像変換部4Cは、画像平行化処理部41と、画像座標変換処理部43とを備えて構成されている。
画像平行化処理部41は、第2実施形態及び第3実施形態と同様であるから、説明は省略する。
画像座標変換処理部43は、第3実施形態と同様に、カラーカメラ35からカラー画像を入力するとともに、カラーカメラ35についてのカメラパラメータと、赤外線カメラ33についてのカメラパラメータとを入力し、入力したカラー画像を、カラーカメラ35のカメラパラメータと赤外線カメラ33のカメラパラメータとを用いて、画像平行化処理部41によって平行化される赤外線カメラ33により撮影された赤外線画像と同じ光軸の画像座標系に変換する。画像座標変換処理部43は、画像座標を変換したカラー画像を、平滑化フィルタ処理のガイド画像としてコストボリュームフィルタ処理部54に出力する。
The
The image
As in the third embodiment, the image coordinate
コストボリューム算出部51は、画像平行化処理部41から平行化された赤外線ステレオ画像を入力し、当該赤外線ステレオ画像についてコストボリュームを算出する。コストボリューム算出部51は、算出したコストボリュームをコストボリュームフィルタ処理部54に出力する。
The cost
コストボリュームフィルタ処理部54は、コストボリューム算出部51から赤外線ステレオ画像についてのコストボリュームを入力するとともに、画像座標変換処理部43から平行化された基準視点の赤外線画像と同じ光軸の画像に座標変換されたカラー画像をガイド画像として入力する。そして、コストボリュームフィルタ処理部54は、前記した第2実施形態及び第3実施形態におけるコストボリュームフィルタ処理部54と同様にして、コストボリュームにエッジ保持型の平滑化フィルタ処理を施し、平滑化フィルタ処理を施したコストボリュームを視差画像生成処理部6に出力する。
The cost volume
その他の構成要素は、第3実施形態に係る視差画像生成システム100Bと同様であるから、説明は省略する。
The other components are the same as those of the parallax
[視差画像生成システムの動作]
次に、図11を参照(適宜図10参照)して、第4実施形態に係る視差画像生成システム100Cの動作について説明する。
赤外線パターンを照射するステップS41は、第1実施形態のステップS11(図4参照)と同様であるから、説明は省略する。
[Operation of parallax image generation system]
Next, the operation of the parallax
Step S41 for irradiating the infrared pattern is the same as step S11 (see FIG. 4) of the first embodiment, and a description thereof will be omitted.
次に、視差画像生成システム100Cは、2台の赤外線カメラ33,34によって赤外線ステレオ画像を撮影するとともに、1台のカラーカメラ35によってカラー画像を撮影する(ステップS42)。
次に、視差画像生成システム100Cは、画像平行化処理部41によって、ステップS42で撮影した赤外線ステレオ画像を平行化処理する(ステップS43)。また、視差画像生成システム100Cは、画像座標変換処理部43によって、ステップS42でカラーカメラ35により撮影したカラー画像を、ステップS43で平行化した基準視点(左視点)の赤外線画像の光軸と合うように画像座標の変換処理を行う(ステップS44)。なお、ステップS43とステップS44とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax
Next, in the parallax
次に、視差画像生成システム100Cは、コストボリューム算出部51によって、ステップS43で平行化した赤外線ステレオ画像について、コストボリュームを算出する(ステップS45)。
Next, in the parallax
次に、視差画像生成システム100Cは、コストボリュームフィルタ処理部54によって、ステップS45で算出したコストボリュームについて、ステップS44で基準視点(左視点)の画像に変換したカラー画像をガイド画像として、コストマップ毎にエッジ保持型の平滑化フィルタ処理を行う(ステップS46)。
Next, the parallax
そして、視差画像生成システム100Cは、視差画像生成処理部6によって、ステップS46で平滑化フィルタ処理したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS47)。
以上の手順により、視差画像生成システム100Cは、視差画像を生成することができる。
Then, the parallax
Through the above procedure, the parallax
本実施形態では、赤外線パターン照射機2によって赤外線パターンのテクスチャを被写体に付与し、テクスチャが付与された被写体を撮影した赤外線ステレオ画像についてのコストボリュームに基づいて視差画像を生成するため、本来テクスチャを有さない被写体についても精度よく視差を推定することができる。また、コストボリュームを、カラー画像をガイド画像として用いたエッジ保持型の平滑化フィルタ処理するため、本来テクスチャを有する領域についても、精度よく視差を推定することができる。
In this embodiment, the texture of the infrared pattern is given to the subject by the
<第5実施形態>
[視差画像生成システムの構成]
次に、図12を参照して、本発明の第5実施形態に係る視差画像システムについて説明する。
図12に示す第5実施形態に係る視差画像生成システム100Dは、図5に示した第2実施形態に係る視差画像生成システム100Aにおいて、視差画像生成装置1Aに代えて視差画像生成装置1Dを備えるものである。また、視差画像生成装置1Dは、視差画像生成装置1Aにおいて、コストボリュームフィルタ処理部54を有するコストボリューム生成部5Aに代えて、コストボリュームフィルタ処理部54Dを有するコストボリューム生成部5Dを備えるものである。第5実施形態に係る視差画像生成システム100Dの他の構成については、第2実施形態に係る視差画像生成システム100Aと同様であるから、同じ符号を付して説明は省略する。
<Fifth Embodiment>
[Configuration of parallax image generation system]
Next, with reference to FIG. 12, the parallax image system which concerns on 5th Embodiment of this invention is demonstrated.
A parallax
第2実施形態におけるコストボリュームフィルタ処理部54(図5参照)は、2次元空間に広がりを有するカーネルΩp(図6参照)を用いてコストを平滑化するものである。ここで、時系列に連続する複数の視差画像(フレーム)で構成される視差映像に対して、視差画像毎に、すなわちフレーム毎に視差を推定すると、時間軸方向の視差の連続性が考慮されない。このため、フレーム毎に平滑化処理をして、時系列に連続する複数の視差画像を連続再生すると、視差映像にフリッカが生じることがある。そこで、本実施形態におけるコストボリュームフィルタ処理部54Dは、2次元空間に時間軸を加えた、3次元時空間に亘る平滑化フィルタ処理を行う。これによって、複数の視差画像を連続再生する際に、フリッカの発生を抑制することができるとともに、特に静止物についての奥行き推定精度を改善することができる。
The cost volume filter processing unit 54 (see FIG. 5) in the second embodiment smoothes the cost using a kernel Ω p (see FIG. 6) having a spread in a two-dimensional space. Here, if parallax is estimated for each parallax image, that is, for each frame, with respect to a parallax image composed of a plurality of parallax images (frames) continuous in time series, the continuity of parallax in the time axis direction is not considered. . For this reason, if smoothing processing is performed for each frame and a plurality of time-sequential parallax images are continuously reproduced, flicker may occur in the parallax image. Therefore, the cost volume
具体的には、本実施形態におけるコストボリュームフィルタ処理部54Dは、第2実施形態におけるコストボリュームフィルタ処理部54による2次元空間に広がりを有するカーネルを用いた平滑化フィルタ処理を、時間軸方向に拡張して、3次元時空間に広がりを有するカーネルを用いた平滑化フィルタ処理を行うようにするものである。
なお、本実施形態においては、画像変換部4、並びに、コストボリューム生成部5Dのコストボリューム算出部51,52及びコストボリューム統合部53は、それぞれフレーム毎に第2実施形態で説明した処理を行うものとする。そして、コストボリュームフィルタ処理部54Dは、平滑化フィルタ処理の対象となるフレームを中心として、時間軸方向について予め定めた範囲の複数のフレームについてのコストボリューム及びガイド画像を用いて、平滑化フィルタ処理を行う。
Specifically, the cost volume
In the present embodiment, the
以下、図12から図14を参照して、本実施形態におけるコストボリュームフィルタ処理部54Dによるコストボリュームの平滑化処理について順を追って説明する。
まず、2次元カーネルを用いたエッジ保持型の平滑化フィルタ処理について説明する。この平滑化フィルタ処理は、第2実施形態のコストボリュームフィルタ処理部54で行う平滑化フィルタ処理と同じものである。2次元の平滑化フィルタ処理としては、前記したように、参考文献2〜参考文献4に記載された手法を用いることができる。ここでは、適応型カーネルを用いた2次元の平滑化フィルタ処理として、参考文献2に記載されたCLMFを用いる場合について改めて説明する。
Hereinafter, the cost volume smoothing process performed by the cost volume
First, edge holding type smoothing filter processing using a two-dimensional kernel will be described. This smoothing filter process is the same as the smoothing filter process performed by the cost volume
[適応型カーネル]
第2実施形態におけるコストボリューム統合部53から出力される1つのフレームについてのコストボリュームCjは、前記したように、Cj(ur,vr,d)と表わすことができる。このコストボリュームCjは、各視差dの2次元のコストマップCMjdがdの数だけ集まって構成された3次元配列で表わされる。本実施形態では、時系列に連続する複数のフレームについてのコストボリュームを用いて視差を推定するため、コストボリュームCjは、Cj(ur,vr,d,t)のように、4次元配列で表わすことができる。ここで、tは時間を示すものであり、時刻やフレーム番号で示される。例えば、tがフレーム番号を示す場合において、平滑化フィルタ処理のために参照するフレーム数をFとすると、t=1〜Fの値をとるものである。
一方、各視差dのコストマップCMjdは、CMjd(ur,vr,t)となり、3次元配列で表わされる。また、ガイド画像もコストボリュームCjに対応して複数のフレームを用いるため、平滑化フィルタ処理のカーネルも3次元となる。
[Adaptive kernel]
As described above, the cost volume C j for one frame output from the cost
On the other hand, cost map CM jd for each parallax d is, CM jd (u r, v r, t) , and the represented by three-dimensional array. In addition, since the guide image uses a plurality of frames corresponding to the cost volume C j , the smoothing filter processing kernel is also three-dimensional.
図13は、平滑化フィルタ処理の2次元カーネルの例を示したものである。図13において、x軸が水平方向を示し、y軸方向が垂直方向を示し、各格子が画素を示している。なお、図13におけるx軸及びy軸は、それぞれ図6におけるu軸及びv軸に相当するものである。
矩形領域であるカーネルWpは、平滑化フィルタ処理を行う際に参照される可能性がある最大の画素領域である。このカーネルWpから、中心画素pと色が類似する画素領域が、適応型カーネルΩpとして抽出される。
また、図13に示した例では、ガイド画像上において、中央部の網掛けを施した領域と、その他の周辺領域とで色相が異なっていることを示している。例えば、網掛けを施した領域が青色の領域であり、その周辺領域である網掛けを施していない領域が黄色の領域である場合を示している。
FIG. 13 shows an example of a two-dimensional kernel for smoothing filter processing. In FIG. 13, the x-axis indicates the horizontal direction, the y-axis direction indicates the vertical direction, and each lattice indicates a pixel. Note that the x-axis and the y-axis in FIG. 13 correspond to the u-axis and the v-axis in FIG. 6, respectively.
The kernel W p that is a rectangular area is the largest pixel area that can be referred to when performing the smoothing filter process. From this kernel W p, the pixel region center pixel p and colors are similar, are extracted as adaptive kernel Omega p.
Further, in the example shown in FIG. 13, it is shown that the hue is different between the shaded area at the center and the other peripheral areas on the guide image. For example, the shaded area is a blue area, and the surrounding area that is not shaded is a yellow area.
次に、1フレームについての適応型カーネルΩpを抽出する手順について説明する。
(手順1)
中心画素pから、アームを上方向(y軸のマイナス方向)に向かって、1画素ずつ延伸させる。
(手順2)
アームの先端の画素値と中心画素の画素値との差が所定の閾値以上になったら、アームの延伸を止め、中心画素pからの長さをSp,1として保存する。
なお、アームの延伸は、予め定めた大きさの矩形(3次元時空間に拡張した場合は、カーネルWpは直方体となる)のカーネルWp内を最大範囲とする。また、後記する他の手順においても同様とする。
(手順3)
手順2と同様に、アームを下方向(y軸のプラス方向)に向かって1画素ずつ延伸させる。
Next, the procedure for extracting the adaptive kernel Omega p for 1 frame.
(Procedure 1)
From the center pixel p, the arm is extended one pixel at a time in the upward direction (minus direction of the y-axis).
(Procedure 2)
When the difference between the pixel value of the tip of the arm and the pixel value of the center pixel becomes equal to or greater than a predetermined threshold, the extension of the arm is stopped and the length from the center pixel p is stored as Sp, 1 .
Note that the extension of the arm has a maximum range within the kernel W p of a rectangle having a predetermined size (when expanded to a three-dimensional space-time, the kernel W p is a rectangular parallelepiped). The same applies to other procedures described later.
(Procedure 3)
Similarly to the
(手順4)
アームの先端の画素値と中心画素pの画素値との差が所定の閾値以上になったら、アームの延伸を止め、中心画素pからの長さをSp,3として保存する。
(手順5)
式(13)で示される縦方向(y軸方向)に延伸する線分(画素列)V(p)上の、ある画素(点)qから、左方向(x軸のマイナス方向)及び右方向(x軸のプラス方向)に、それぞれアームを1画素ずつ延伸させる。
なお、xp及びypは、それぞれ中心画素pのx座標及びy座標を示す。
(Procedure 4)
When the difference between the pixel value at the tip of the arm and the pixel value of the center pixel p becomes equal to or greater than a predetermined threshold, the extension of the arm is stopped and the length from the center pixel p is stored as Sp, 3 .
(Procedure 5)
From a certain pixel (point) q on the line segment (pixel column) V (p) extending in the vertical direction (y-axis direction) represented by Expression (13), the left direction (minus direction of the x-axis) and the right direction Each arm is extended by one pixel in the positive direction of the x-axis.
Incidentally, x p and y p, respectively indicate the x and y coordinates of the central pixel p.
(手順6)
アームの先端の画素値と、中心画素pの画素値との差が所定の閾値以上になったら、アームの延伸を止め、線分V(p)からの距離(長さ)を、それぞれSq,0及びSq,2として保存する。これによって、式(14)で表わされる水平方向(x軸方向)に延伸する線分(画素列)H(q)を抽出することができる。
なお、xq及びyqは、それぞれ画素qのx座標及びy座標を示す。
(Procedure 6)
When the difference between the pixel value at the tip of the arm and the pixel value of the center pixel p is equal to or greater than a predetermined threshold, the arm is stopped and the distance (length) from the line segment V (p) is set to S q. , 0 and S q, 2 . Thereby, a line segment (pixel column) H (q) extending in the horizontal direction (x-axis direction) represented by Expression (14) can be extracted.
Note that x q and y q indicate the x coordinate and the y coordinate of the pixel q, respectively.
(手順7)
線分V(p)上のすべての画素qについて、(手順5)及び(手順6)を実行してH(q)を抽出する。そして、1フレームについてのカーネルU(t)は、式(15)に示すように、各画素qについて抽出したH(q)の和集合で表わすことができる。ここで、tは、フレーム番号(時刻)を示す。
なお、図13において破線で示したカーネルΩpが、U(t)として抽出された画素領域を示している。
(Procedure 7)
(Procedure 5) and (Procedure 6) are executed for all pixels q on the line segment V (p) to extract H (q). The kernel U (t) for one frame can be represented by the union of H (q) extracted for each pixel q as shown in Expression (15). Here, t indicates a frame number (time).
Note that the kernel Omega p indicated by a broken line in FIG. 13 shows a pixel area extracted as U (t).
この処理は、Orthogonal Integral Imageを用いたアルゴリズムにより、効率的に処理することができる。この手法については、参考文献5に詳細に説明されている。
(参考文献5)
K. Zhang, J. Lu, and G. Lafruit, “Cross-based local stereo matching using orthogonal integral images.” IEEE Transactions on Circuits and Systems for Video Technology, 19(7):1073-1079, July 2009.
This process can be efficiently processed by an algorithm using Orthogonal Integral Image. This technique is described in detail in
(Reference 5)
K. Zhang, J. Lu, and G. Lafruit, “Cross-based local stereo matching using orthogonal integral images.” IEEE Transactions on Circuits and Systems for Video Technology, 19 (7): 1073-1079, July 2009.
[適応型時空間カーネル]
本実施形態では、この処理を時間軸(t軸)方向に拡張し、3次元時空間に広がりを有する3次元カーネルを生成して、平滑化フィルタ処理に用いるものである。図14は、複数フレーム分のガイド画像を並べた3次元時空間を、x−t平面で切った断面図を示したものである。但し、図13において、水平方向をx軸、垂直方向をt軸(時間軸)としている。なお、時系列に番号が割り当てられるフレーム番号がt軸の座標値に相当する。
このとき、3次元カーネルΩpは、以下に示す(手順8)から(手順10)の処理を行うことで生成することができる。
[Adaptive space-time kernel]
In the present embodiment, this process is expanded in the time axis (t-axis) direction to generate a three-dimensional kernel having a spread in a three-dimensional space-time and used for the smoothing filter process. FIG. 14 is a cross-sectional view of a three-dimensional space-time in which guide images for a plurality of frames are arranged, cut along an xt plane. However, in FIG. 13, the horizontal direction is the x-axis and the vertical direction is the t-axis (time axis). Note that the frame number to which a number is assigned in time series corresponds to the coordinate value of the t-axis.
At this time, three-dimensional kernel Omega p can be generated by performing the processing (step 10) from below (step 8).
(手順8)
中心画素pから、時間軸方向の、前方向(t軸のマイナス方向)及び後方向(t軸のプラス方向)に、それぞれ1フレームずつアームを延伸させる。
(手順9)
アームの先端の画素値と中心画素pの画素値との差が所定の閾値以上になったら、アームの延伸を止め、中心画素pからの長さを、それぞれSq,4及びSq,5として保存する。
これによって、式(16)で表わされる時間軸(t軸)方向に延伸する線分(画素列)T(p)を抽出することができる。
(Procedure 8)
From the center pixel p, the arm is extended by one frame each in the forward direction (minus direction of the t-axis) and the backward direction (plus direction of the t-axis) in the time axis direction.
(Procedure 9)
When the difference between the pixel value of the tip of the arm and the pixel value of the center pixel p is equal to or greater than a predetermined threshold, the extension of the arm is stopped, and the length from the center pixel p is set to S q, 4 and S q, 5 , respectively. Save as.
As a result, a line segment (pixel column) T (p) extending in the time axis (t-axis) direction represented by Expression (16) can be extracted.
(手順10)
線分T(p)上のすべての画素tについて、各画素tを含むフレーム毎に、それぞれ(手順1)から(手順7)を実行して、式(15)で示したフレーム毎のカーネルU(t)を抽出する。そして、時空間に拡張した3次元カーネルY(p)は、式(17)に示すように、各フレームtについて抽出したU(t)の和集合で表わすことができる。
なお、図14において破線で示したカーネルΩpが、Y(p)として抽出された画素領域の、x−t平面で切った断面を示している。
(Procedure 10)
For all the pixels t on the line segment T (p), for each frame including each pixel t, (procedure 1) to (procedure 7) are executed, and the kernel U for each frame shown in Expression (15) is obtained. Extract (t). Then, the three-dimensional kernel Y (p) expanded in space-time can be represented by the union of U (t) extracted for each frame t as shown in Expression (17).
Note that the kernel Omega p indicated by a broken line in FIG. 14, Y of the pixel area extracted as (p), shows a cross section taken along the x-t plane.
[CLMF]
前記したように、CLMFにおいて、平滑化された画像Sは、式(18)に示すように、ガイド画像Gpと2つの係数a,bとによる線形変換で表されると仮定している。
[CLMF]
As described above, in CLMF, smoothed image S, as shown in equation (18), the guide image G p and the two coefficients a, are assumed to be represented by a linear transformation by and b.
式(18)において、添字kは、カーネルΩpに属する画素を示し、係数ak,bkは、画素kを中心とするカーネルΩk内においては一定であり、線形回帰法を用いて、式(19)により算出することができる。 In the equation (18), the subscript k indicates a pixel belonging to the kernel Ω p , and the coefficients a k and b k are constant in the kernel Ω k centered on the pixel k, and using a linear regression method, It can be calculated by equation (19).
式(19)において、Zは平滑化する対象となる画像であり、本実施形態においては、コストマップが相当する。また、μk,σk 2,Z’k、及びεは、それぞれカーネルΩkにおけるガイド画像の平均、分散、カーネルΩkにおけるコストマップの平均、及び正則化項である。また、|Ωk|は、カーネルΩkに属する画素数を示す。 In Expression (19), Z is an image to be smoothed, and corresponds to a cost map in this embodiment. Further, the μ k, σ k 2, Z 'k, and epsilon, the average of the guide image in the kernel Omega k respectively, dispersion, average cost map in kernel Omega k, and a regularization term. | Ω k | indicates the number of pixels belonging to the kernel Ω k .
このとき、平滑化された画像Spは、式(20)で定義されるSkの重み付け加算で近似することができる。 In this case, smoothed image S p can be approximated by the weighted sum of the S k defined by formula (20).
コストボリュームフィルタ処理部54Dは、以上の手順によって、コストボリュームのすべてのコストマップについて、視差毎に3次元時空間の平滑化フィルタ処理を行う。コストボリュームフィルタ処理部54Dは、平滑化したコストボリュームを、視差画像生成処理部6に出力する。また、視差画像生成部6は、コストボリュームフィルタ処理部54Dから平滑化されたコストボリュームを入力し、このコストボリュームについて、画素毎に最もコストの低い視差を選択することで、視差画像を生成する。
The cost volume
[視差画像生成ステムの動作]
本実施形態に係る視差画像生成システム100Dは、撮影装置3によって、所定のフレーム周波数で撮影した赤外線画像及びカラー画像を、視差画像生成装置1Dに入力する。フレーム周波数は特に限定されるものではないが、例えば、30〜240Hz程度とすることができる。
このとき、赤外線画像のフレーム及びカラー画像のフレームは、視差画像生成装置1Dに同期して入力される。そして、視差画像生成装置1Dは、前記したように、画像変換部4、コストボリューム算出部51,52及びコストボリューム統合部53によって、フレーム毎に第2実施形態で説明したものと同じ処理を行う。また、視差画像生成装置1Dは、コストボリュームフィルタ処理部54Dによって、平滑化フィルタ処理の対象となるフレームを中心として、時間軸方向について、その近傍の予め定めた範囲の複数のフレームについてのコストボリューム及びガイド画像を用いて、前記した手順の平滑化フィルタ処理を行う。本実施形態に係る視差画像生成システム100Dの他の動作は、図7に示した第2実施形態に係る視差画像生成システム100Aと同様であるから、詳細な説明は省略する。
[Operation of parallax image generation stem]
The parallax
At this time, the frame of the infrared image and the frame of the color image are input in synchronization with the parallax
また、図8に示した第3実施形態及び図10に示した第4実施形態についても、コストボリュームフィルタ処理部54を、第5実施形態におけるコストボリュームフィルタ処理部54Dに置き換えることで、カーネルを2次元空間及び時間軸からなる3次元時空間に拡張した平滑化フィルタ処理を適用することができる。
これらの実施形態において、3次元時空間に亘る平滑化フィルタ処理を適用することによって、第5実施形態と同様に、複数の視差画像を連続再生する際に、フリッカの発生を抑制することができるとともに、特に静止物についての奥行き推定精度を改善することができる。
Also, in the third embodiment shown in FIG. 8 and the fourth embodiment shown in FIG. 10, the kernel is changed by replacing the cost volume
In these embodiments, by applying a smoothing filter process over a three-dimensional space-time, the occurrence of flicker can be suppressed when a plurality of parallax images are continuously reproduced, as in the fifth embodiment. At the same time, it is possible to improve the depth estimation accuracy especially for stationary objects.
以上説明したように、各実施形態に係る視差画像生成システム100,100A,100B,100C,100Dは、赤外線パターン照射機2によってテクスチャが付与された被写体の赤外線ステレオ画像と、カラーステレオ画像又はカラー画像とを用いて、視差画像生成装置1,1A,1B,1C,1Dによって精度よく視差画像を生成することができる。生成された視差画像は、例えば、3次元モデル生成のために用いることができる。更にまた、当該3次元モデルを用いて、例えば、インテグラル・フォトグラフィ方式の立体映像の生成にために用いることができる。
As described above, the parallax
なお、本発明の各実施形態に係る視差画像生成システム100,100A,100B,100C,100Dにおいて、赤外線画像及びカラー画像を演算処理する視差画像生成装置1,1A,1B,1C,1Dの画像変換部4,4B,4C、コストボリューム生成部5,5A,5B,5C,5D及び視差画像生成処理部6の各構成手段は、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、又は専用のハードウェア回路を用いて構成することができる。
また、本発明の各実施形態における視差画像生成装置1,1A,1B,1C,1Dは、赤外線パターン照射機2及び撮影装置3等が接続され、CPU(Central Processing Unit)、記憶手段(例えば、メモリ、ハードディスク)、各種信号の入出力手段等のハードウェア資源を備えるコンピュータを、前記した画像変換部4,4B,4C、コストボリューム生成部5,5A,5B,5C,5D及び視差画像生成処理部6の各構成手段として協調動作させるための、視差画像生成プログラムによって実現することもできる。このプログラムは、通信回線を介して配布してもよく、光ディスクや磁気ディスク、フラッシュメモリ等の記録媒体に書き込んで配布してもよい。
Note that, in the parallax
In addition, the parallax
以上、本発明の実施形態に係る視差画像生成システムについて、発明を実施するための形態により具体的に説明したが、本発明の趣旨はこれらの記載に限定されるものではなく、特許請求の範囲の記載に基づいて広く解釈されなければならない。また、これらの記載に基づいて種々変更、改変等したものも本発明の趣旨に含まれることはいうまでもない。 As described above, the parallax image generation system according to the embodiment of the present invention has been specifically described by the mode for carrying out the invention. However, the gist of the present invention is not limited to these descriptions, and the scope of the claims Should be interpreted broadly based on the description. Needless to say, various changes and modifications based on these descriptions are also included in the spirit of the present invention.
1,1A,1B,1C,1D 視差画像生成装置
2 赤外線パターン照射機
3,3B,3C 撮影装置
31,32 赤外線カラーカメラ(カメラ)
33,34 赤外線カメラ
35,36 カラーカメラ(可視光カメラ)
4,4B,4C 画像変換部
41,42 画像平行化処理部
43,44 画像座標変換処理部
5,5A,5B,5C,5D コストボリューム生成部(対応度マップ群生成部)
51,52,52B コストボリューム算出部
53 コストボリューム統合部
54,54D コストボリュームフィルタ処理部(平滑化フィルタ処理部)
6 視差画像生成処理部
100,100A,100B,100C,100D 視差画像生成システム
1, 1A, 1B, 1C, 1D Parallax
33, 34
4, 4B, 4C
51, 52, 52B Cost
6 Parallax image
Claims (6)
前記2台のカメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台のカメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化可視光画像の組に変換する画像変換部と、
基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する対応度マップ群生成部と、
画素毎に、前記対応度マップ群の中で最も一致の度合いが高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する視差画像生成処理部と、
を備えることを特徴とする視差画像生成装置。 A set of infrared images and a set of visible light images obtained by photographing an infrared image that is an image in the infrared wavelength region and a visible light image that is an image in the visible light wavelength region with two cameras. A parallax image generation device that generates a parallax image using
Using the camera parameters for the two cameras, the set of infrared images is converted into a set of parallelized infrared images, which are images obtained when the optical axes of the two cameras are parallel, Using the camera parameters for the two cameras, the set of visible light images is converted into a set of collimated visible light images that are images obtained when the optical axes of the two cameras are parallel. An image converter;
When the parallax between the reference infrared image that is the reference parallelized infrared image and the non-reference infrared image that is the other parallelized infrared image is a constant value in the entire image, the reference infrared image And the non-reference infrared image for each pixel, the correspondence level, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, and the collimated visible light image having the same optical axis as the reference infrared image When the parallax between the reference visible light image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image, the reference visible light image and the non-reference visible light A correspondence map, which is a two-dimensional array of correspondence obtained by integrating the correspondence, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, with respect to each pixel of the light image, for a predetermined parallax range At predetermined intervals A corresponding level map group generation unit for generating a corresponding degree map group by obtaining each difference,
Parallax image generation processing for generating a parallax image that is an image in which the parallax is determined for each pixel by selecting the parallax for the correspondence map having the highest degree of matching in the correspondence map group for each pixel And
A parallax image generating device comprising:
前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台の赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台の可視光カメラ及び前記2台の赤外線カメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台の可視光カメラの光軸を前記平行化赤外線画像の組を得るための光軸と同じとした際に得られる画像である平行化可視光画像の組に変換する画像変換部と、
基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する対応度マップ群生成部と、
画素毎に、前記対応度マップ群の中で最も対応度が高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する視差画像生成処理部と、
を備えることを特徴とする視差画像生成装置。 For a subject on which an infrared pattern is projected, a pair of infrared images obtained by photographing an infrared image that is an image in the infrared wavelength region with two infrared cameras, and two visible light images that are images in the wavelength region of visible light. A parallax image generation device that generates a parallax image using a set of visible light images captured by a visible light camera,
Using the camera parameters for the two infrared cameras, the set of infrared images is converted into a set of parallelized infrared images that are images obtained when the optical axes of the two infrared cameras are parallel. In addition, using the camera parameters of the two visible light cameras and the two infrared cameras, the set of the visible light images, the optical axis of the two visible light cameras, and the set of the collimated infrared images An image conversion unit for converting into a set of collimated visible light images, which is an image obtained when the same as the optical axis for obtaining
When the parallax between the reference infrared image that is the reference parallelized infrared image and the non-reference infrared image that is the other parallelized infrared image is a constant value in the entire image, the reference infrared image And the non-reference infrared image for each pixel, the correspondence level, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, and the collimated visible light image having the same optical axis as the reference infrared image When the parallax between the reference visible light image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image, the reference visible light image and the non-reference visible light A correspondence map, which is a two-dimensional array of correspondence obtained by integrating the correspondence, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, with respect to each pixel of the light image, for a predetermined parallax range At predetermined intervals A corresponding level map group generation unit for generating a corresponding degree map group by obtaining each difference,
For each pixel, a parallax image generation processing unit that generates a parallax image that is an image in which the parallax is determined for each pixel by selecting the parallax for the correspondence map having the highest correspondence in the correspondence map group When,
A parallax image generating device comprising:
前記視差画像生成処理部は、前記平滑化フィルタ処理部によって平滑化フィルタ処理された対応度マップ群を用いて、前記視差画像を生成することを特徴とする請求項1又は請求項2に記載の視差画像生成装置。 The correspondence map group generation unit uses the reference visible light image as a guide image for edge region identification for each correspondence map for the correspondence map group, and corresponds to the edge of the subject in the guide image. A smoothing filter processing unit that performs a smoothing filter process that holds an edge of the correspondence map;
The said parallax image generation process part produces | generates the said parallax image using the correspondence map group smoothed by the said smoothing filter process part, The Claim 1 or Claim 2 characterized by the above-mentioned. A parallax image generating device.
前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記可視光カメラ及び基準となる前記赤外線カメラについてのカメラパラメータを用いて、前記可視光画像を、前記可視光カメラの光軸を基準となる前記平行化赤外線画像を得るための光軸と同じとした際に得られる画像である基準可視光画像に変換する画像変換部と、
前記基準となる平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する対応度マップ群生成部と、
前記対応度マップ群について、前記対応度マップ毎に、前記基準可視光画像をエッジ領域識別のためのガイド画像として、当該ガイド画像における被写体のエッジに対応する前記対応度マップのエッジを保持した平滑化フィルタ処理を行う平滑化フィルタ処理部と、
前記平滑化フィルタ処理された対応度マップ群の中で最も対応度の高い対応度マップについての視差を、画素毎に選択することにより、画素毎に視差が定められた画像である視差画像を生成する視差画像生成処理部と、
を備えることを特徴とする視差画像生成装置。 For a subject on which an infrared pattern is projected, a set of infrared images obtained by photographing the infrared image that is an image in the infrared wavelength region with two infrared cameras, and a visible light image that is an image in the visible light wavelength region A parallax image generating device that generates a parallax image using a visible light image captured in
Using the camera parameters for the two infrared cameras, the set of infrared images is converted into a set of parallelized infrared images that are images obtained when the optical axes of the infrared cameras are parallel, and Using the camera parameters for the visible light camera and the reference infrared camera, the visible light image is the same as the optical axis for obtaining the collimated infrared image based on the optical axis of the visible light camera. An image conversion unit for converting to a reference visible light image which is an image obtained at the time,
When the parallax between the reference infrared image that is the reference parallelized infrared image and the non-reference infrared image that is the other parallelized infrared image is a constant value in the entire image, the reference infrared image A correspondence map, which is a two-dimensional array of correspondence, which is an index indicating the degree of coincidence of an image of a predetermined range including the pixel for each pixel of the non-reference infrared image and a predetermined interval for a predetermined parallax range. A correspondence map group generation unit that generates a correspondence map group by obtaining each parallax;
For the correspondence map group, for each correspondence map, the reference visible light image is used as a guide image for edge region identification, and the smoothness of the correspondence map corresponding to the edge of the subject in the guide image is retained. A smoothing filter processing unit for performing the smoothing filter processing;
A parallax image that is an image in which the parallax is determined for each pixel is generated by selecting the parallax for the correspondence map having the highest degree of correspondence in the correspondence map group that has been subjected to the smoothing filter process. A parallax image generation processing unit,
A parallax image generating device comprising:
前記対応度マップ群生成部は、フレーム毎に前記対応度マップ群を生成し、
前記平滑化フィルタ処理部は、前記対応度マップ群について、前記平滑化フィルタ処理の対象である当該対応度マップ群に対応するフレームの近傍の複数のフレームについての前記対応度マップ群及び前記ガイド画像を参照して、2次元空間及び時間軸からなる3次元時空間について前記平滑化フィルタ処理を行うことを特徴とする請求項3乃至請求項5の何れか一項に記載の視差画像生成装置。 The infrared image and the visible light image are taken at a predetermined frame frequency,
The correspondence map group generation unit generates the correspondence map group for each frame,
The smoothing filter processing unit, for the correspondence map group, the correspondence map group and the guide image for a plurality of frames in the vicinity of a frame corresponding to the correspondence map group that is a target of the smoothing filter processing. The parallax image generating apparatus according to claim 3, wherein the smoothing filter process is performed on a three-dimensional space-time including a two-dimensional space and a time axis.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013218641A JP6285686B2 (en) | 2013-06-12 | 2013-10-21 | Parallax image generation device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013123888 | 2013-06-12 | ||
JP2013123888 | 2013-06-12 | ||
JP2013218641A JP6285686B2 (en) | 2013-06-12 | 2013-10-21 | Parallax image generation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015019346A JP2015019346A (en) | 2015-01-29 |
JP6285686B2 true JP6285686B2 (en) | 2018-02-28 |
Family
ID=52439926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013218641A Active JP6285686B2 (en) | 2013-06-12 | 2013-10-21 | Parallax image generation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6285686B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106644092B (en) * | 2017-01-05 | 2019-01-15 | 西安电子科技大学 | Infrared texture temperature field modulator approach based on visible optical information |
CN107680083B (en) * | 2017-09-13 | 2020-05-29 | 海信集团有限公司 | Parallax determination method and parallax determination device |
JP7067091B2 (en) * | 2018-02-02 | 2022-05-16 | 株式会社リコー | Image pickup device and control method of image pickup device |
JP7257272B2 (en) * | 2019-06-24 | 2023-04-13 | 日本放送協会 | DEPTH MAP GENERATION DEVICE AND PROGRAM THEREOF, AND 3D IMAGE GENERATION DEVICE |
CN111311667B (en) * | 2020-02-14 | 2022-05-17 | 苏州浪潮智能科技有限公司 | Content self-adaptive binocular matching method and device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001008235A (en) * | 1999-06-25 | 2001-01-12 | Minolta Co Ltd | Image input method for reconfiguring three-dimensional data and multiple-lens data input device |
JP2001264033A (en) * | 2000-03-17 | 2001-09-26 | Sony Corp | Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium |
JP2004133556A (en) * | 2002-10-08 | 2004-04-30 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional shape extraction method, three-dimensional shape extraction program and storage medium storing three-dimensional shape extraction program |
US6847728B2 (en) * | 2002-12-09 | 2005-01-25 | Sarnoff Corporation | Dynamic depth recovery from multiple synchronized video streams |
JP2006214735A (en) * | 2005-02-01 | 2006-08-17 | Viewplus Inc | Compound stereo vision device |
JP2007004318A (en) * | 2005-06-22 | 2007-01-11 | Sega Corp | Image processing method, program for executing image processing and storage medium with its program stored |
EP2213102B1 (en) * | 2007-11-09 | 2012-02-22 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
KR20120049997A (en) * | 2010-11-10 | 2012-05-18 | 삼성전자주식회사 | Image process device, display apparatus and methods thereof |
-
2013
- 2013-10-21 JP JP2013218641A patent/JP6285686B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015019346A (en) | 2015-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11562498B2 (en) | Systems and methods for hybrid depth regularization | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
US8452081B2 (en) | Forming 3D models using multiple images | |
US9214013B2 (en) | Systems and methods for correcting user identified artifacts in light field images | |
US8447099B2 (en) | Forming 3D models using two images | |
KR100793076B1 (en) | Edge-adaptive stereo/multi-view image matching apparatus and its method | |
CN110009672A (en) | Promote ToF depth image processing method, 3D rendering imaging method and electronic equipment | |
KR101706216B1 (en) | Apparatus and method for reconstructing dense three dimension image | |
US9025862B2 (en) | Range image pixel matching method | |
KR20090055803A (en) | Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image | |
EP3382645B1 (en) | Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images | |
CN111028295A (en) | 3D imaging method based on coded structured light and dual purposes | |
WO2011145285A1 (en) | Image processing device, image processing method and program | |
JP6285686B2 (en) | Parallax image generation device | |
JP6097903B2 (en) | Three-dimensional shape acquisition apparatus, processing method, and program | |
CN111080776B (en) | Human body action three-dimensional data acquisition and reproduction processing method and system | |
CN111563952A (en) | Method and system for realizing stereo matching based on phase information and spatial texture characteristics | |
WO2021108626A1 (en) | System and method for correspondence map determination | |
Nozick | Camera array image rectification and calibration for stereoscopic and autostereoscopic displays | |
KR20160049639A (en) | Stereoscopic image registration method based on a partial linear method | |
Jorissen et al. | Multi-view wide baseline depth estimation robust to sparse input sampling | |
Ahmed et al. | A system for 3D video acquisition and spatio-temporally coherent 3D animation reconstruction using multiple RGB-D cameras | |
JP2018081378A (en) | Image processing apparatus, imaging device, image processing method, and image processing program | |
Chotikakamthorn | Near point light source location estimation from shadow edge correspondence | |
Jonscher et al. | Reconstruction of images taken by a pair of non-regular sampling sensors using correlation based matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6285686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |