JP6285686B2 - Parallax image generation device - Google Patents

Parallax image generation device Download PDF

Info

Publication number
JP6285686B2
JP6285686B2 JP2013218641A JP2013218641A JP6285686B2 JP 6285686 B2 JP6285686 B2 JP 6285686B2 JP 2013218641 A JP2013218641 A JP 2013218641A JP 2013218641 A JP2013218641 A JP 2013218641A JP 6285686 B2 JP6285686 B2 JP 6285686B2
Authority
JP
Japan
Prior art keywords
image
infrared
parallax
visible light
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013218641A
Other languages
Japanese (ja)
Other versions
JP2015019346A (en
Inventor
健介 久富
健介 久富
健佑 池谷
健佑 池谷
片山 美和
美和 片山
岩舘 祐一
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2013218641A priority Critical patent/JP6285686B2/en
Publication of JP2015019346A publication Critical patent/JP2015019346A/en
Application granted granted Critical
Publication of JP6285686B2 publication Critical patent/JP6285686B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のカメラで撮影した画像を用いて視差画像を生成する視差画像生成装置に関する。   The present invention relates to a parallax image generation device that generates a parallax image using images taken by a plurality of cameras.

撮影位置の異なる2台のカラーカメラで撮影したステレオ画像から、各画像について視差を推定した視差画像を生成する手法は多く存在する。しかし、そのほとんどがカラー画像の局所的な輝度変化を手がかりに、左右の画像における各画素の対応を探索して求めている。このため、人工物に多く見られるように、テクスチャが乏しい領域については、推定精度が低下するという問題がある。   There are many techniques for generating parallax images in which parallax is estimated for each image from stereo images shot by two color cameras with different shooting positions. However, most of them are obtained by searching for the correspondence of each pixel in the left and right images with the local luminance change of the color image as a clue. For this reason, as is often seen in artifacts, there is a problem in that the estimation accuracy is lowered for a region with a poor texture.

その問題を克服するために、既知のパターンを照射し、その照射されたパターンを観測して、高速かつ高精度に視差画像を生成する手法がある。
例えば、特許文献1には、ランダムなスペックルパターンを物体の表面に照射して、複数のカメラで撮影した2次元画像を解析することで物体の3次元形状を求める手法が記載されている。
In order to overcome the problem, there is a method of generating a parallax image with high speed and high accuracy by irradiating a known pattern and observing the irradiated pattern.
For example, Patent Document 1 describes a method for obtaining a three-dimensional shape of an object by irradiating a random speckle pattern on the surface of the object and analyzing two-dimensional images photographed by a plurality of cameras.

米国特許第6101269号明細書US Pat. No. 6,1011,269

特許文献1に記載された手法では、スペックルパターンが照射されることにより、被写体である物体表面にテクスチャが付与され、カメラによって撮影される画像には、当該テクスチャが撮影される。このため、カメラで撮影した画像を、視差画像を生成するために用いるとともに、当該撮影画像を生成した視差画像を用いて異なる視点の画像を生成する際の基準画像として用いる場合には、テクスチャ自体がノイズになるという問題がある。
また、照射されるスペックルパターンは、必ずしも高い密度で付与できるものではないため、付与したテクスチャのみに基づいて視差を推定するには、広範囲の領域を参照する必要がある。このため、特許文献1に記載された手法では、視差が大きく異なる領域の境界付近において、視差の推定精度が低下するという問題がある。
In the method described in Patent Document 1, a speckle pattern is irradiated to give a texture to the surface of an object that is a subject, and the texture is photographed in an image photographed by a camera. For this reason, when the image captured by the camera is used to generate a parallax image and is used as a reference image when generating an image of a different viewpoint using the parallax image generated from the captured image, the texture itself There is a problem that becomes noise.
In addition, since the speckle pattern to be irradiated cannot always be applied at a high density, it is necessary to refer to a wide area in order to estimate the parallax based only on the applied texture. For this reason, the technique described in Patent Document 1 has a problem that the estimation accuracy of the parallax is reduced in the vicinity of the boundary between the regions where the parallax is greatly different.

本発明は、かかる問題に鑑みて創案されたものであり、テクスチャの少ない被写体についても、可視光領域の画像に影響を与えることなくテクスチャを付与して視差画像を精度よく生成できる視差画像生成装置を提供することを課題とする。   The present invention was devised in view of such a problem, and a parallax image generation device capable of accurately generating a parallax image by giving a texture to a subject having a small texture without affecting the image in the visible light region. It is an issue to provide.

前記した課題を解決するために、本発明の一形態に係る視差画像生成装置は、赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像及び可視光の波長領域の画像である可視光画像を2台のカメラで撮影した赤外線画像の組及び可視光画像の組を用いて、視差画像を生成する視差画像生成装置であって、画像変換部と、対応度マップ群生成部と、視差画像生成処理部と、を備える構成とした。   In order to solve the above-described problem, a parallax image generation device according to an aspect of the present invention provides an infrared image that is an image in the infrared wavelength region and an image in the visible wavelength region with respect to a subject on which an infrared pattern is projected. A parallax image generation device that generates a parallax image using a set of infrared images and a set of visible light images obtained by capturing a certain visible light image with two cameras, and includes an image conversion unit and a correspondence map group generation unit And a parallax image generation processing unit.

かかる構成によれば、視差画像生成装置は、画像変換部によって、前記2台のカメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台のカメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化可視光画像の組に変換する。
次に、視差画像生成装置は、対応度マップ群生成部によって、基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する。
According to such a configuration, the parallax image generation device uses the camera parameters for the two cameras to cause the set of infrared images to be parallel to the optical axes of the two cameras by the image conversion unit. Are converted into a set of collimated infrared images, which are images obtained by using the camera parameters for the two cameras, and the set of visible light images is made parallel to the optical axes of the two cameras. It is converted into a set of collimated visible light images which are images obtained at the time.
Next, the parallax image generation device uses the correspondence map group generation unit to generate a parallax between the reference infrared image that is the reference parallelized infrared image and the other non-reference infrared image that is the parallelized infrared image. Is a constant value for the entire image, the degree of correspondence, which is an index indicating the degree of matching between the reference infrared image and the non-reference infrared image for each pixel of the predetermined range image including the pixel, and The parallax between the reference visible light image that is the collimated visible light image having the same optical axis as the reference infrared image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image. And the correspondence degree that is an index indicating the degree of matching of the image of the predetermined range including the pixel for each pixel of the reference visible light image and the non-reference visible light image. Two-dimensional arrangement of degrees The degree of correspondence map is, to produce a corresponding degree of map group by obtaining for each parallax predetermined intervals for a predetermined parallax range.

そして、視差画像生成装置は、視差画像生成処理部によって、画素毎に、前記対応度マップ群の中で最も一致の度合いが高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する。
これによって、視差画像生成装置は、テクスチャの少ない被写体領域について赤外線パターンのテクスチャを付与された赤外線ステレオ画像を用いて精度よく視差を推定するとともに、テクスチャを有する被写体領域について可視光ステレオ画像を用いて精度よく視差を推定する。
Then, the parallax image generation device selects the parallax for the correspondence map having the highest degree of matching in the correspondence map group for each pixel by the parallax image generation processing unit, so that the parallax is generated for each pixel. A parallax image that is a predetermined image is generated.
As a result, the parallax image generation apparatus accurately estimates the parallax using the infrared stereo image to which the texture of the infrared pattern is given for the subject region with less texture, and uses the visible light stereo image for the subject region having the texture. Estimate the parallax with high accuracy.

また、本発明の他の形態に係る視差画像生成装置は、赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像を2台の赤外線カメラで撮影した赤外線画像の組と、可視光の波長領域の画像である可視光画像を2台の可視光カメラで撮影した可視光画像の組とを用いて、視差画像を生成する視差画像生成装置であって、画像変換部と、対応度マップ群生成部と、視差画像生成処理部と、を備える構成とした。   In addition, the parallax image generating device according to another aspect of the present invention is a set of infrared images obtained by photographing an infrared image that is an image in the infrared wavelength region with two infrared cameras for a subject on which an infrared pattern is projected, A parallax image generation device that generates a parallax image using a set of visible light images obtained by capturing a visible light image that is an image in a wavelength region of visible light with two visible light cameras, an image conversion unit, A correspondence map group generation unit and a parallax image generation processing unit are provided.

かかる構成によれば、視差画像生成装置は、画像変換部によって、前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台の赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台の可視光カメラ及び前記2台の赤外線カメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台の可視光カメラの光軸を前記平行化赤外線画像の組を得るための光軸と同じとした際に得られる画像である平行化可視光画像の組に変換する。
次に、視差画像生成装置は、対応度マップ群生成部によって、基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する。
According to such a configuration, the parallax image generation device uses the camera parameters for the two infrared cameras to cause the pair of infrared images to be parallel to the optical axes of the two infrared cameras. And converting the set of visible light images into the set of collimated infrared images, which are images obtained at the time, and using the camera parameters for the two visible light cameras and the two infrared cameras. The optical axes of the two visible light cameras are converted into a set of collimated visible light images that are images obtained when the optical axes for obtaining the set of collimated infrared images are the same.
Next, the parallax image generation device uses the correspondence map group generation unit to generate a parallax between the reference infrared image that is the reference parallelized infrared image and the other non-reference infrared image that is the parallelized infrared image. Is a constant value for the entire image, the degree of correspondence, which is an index indicating the degree of matching between the reference infrared image and the non-reference infrared image for each pixel of the predetermined range image including the pixel, and The parallax between the reference visible light image that is the collimated visible light image having the same optical axis as the reference infrared image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image. And the correspondence degree that is an index indicating the degree of matching of the image of the predetermined range including the pixel for each pixel of the reference visible light image and the non-reference visible light image. Two-dimensional arrangement of degrees The degree of correspondence map is, to produce a corresponding degree of map group by obtaining for each parallax predetermined intervals for a predetermined parallax range.

そして、視差画像生成装置は、視差画像生成処理部によって、画素毎に、前記対応度マップ群の中で最も対応度が高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する。
これによって、視差画像生成装置は、テクスチャの少ない被写体領域について赤外線パターンのテクスチャを付与された赤外線ステレオ画像を用いて精度よく視差を推定するとともに、テクスチャを有する被写体領域について可視光ステレオ画像を用いて精度よく視差を推定する。
Then, the parallax image generation device determines the parallax for each pixel by selecting the parallax for the correspondence map having the highest correspondence in the correspondence map group for each pixel by the parallax image generation processing unit. A parallax image which is the obtained image is generated.
As a result, the parallax image generation apparatus accurately estimates the parallax using the infrared stereo image to which the texture of the infrared pattern is given for the subject region with less texture, and uses the visible light stereo image for the subject region having the texture. Estimate the parallax with high accuracy.

本発明の更に他の形態に係る視差画像生成装置は、赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像を2台の赤外線カメラで撮影した赤外線画像の組と、可視光の波長領域の画像である可視光画像を可視光カメラで撮影した可視光画像とを用いて、視差画像を生成する視差画像生成装置であって、画像変換部と、対応度マップ群生成部と、平滑化フィルタ処理部と、視差画像生成処理部と、を備える構成とした。   A parallax image generation device according to still another aspect of the present invention provides a set of infrared images obtained by capturing an infrared image, which is an image in the infrared wavelength region, with two infrared cameras for a subject on which an infrared pattern is projected, and a visible image. A parallax image generation device that generates a parallax image using a visible light image obtained by capturing a visible light image that is an image in the wavelength region of light with a visible light camera, the image conversion unit, and a correspondence map group generation unit And a smoothing filter processing unit and a parallax image generation processing unit.

かかる構成によれば、視差画像生成装置は、画像変換部によって、前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記可視光カメラ及び基準となる前記赤外線カメラについてのカメラパラメータを用いて、前記可視光画像を、前記可視光カメラの光軸を基準となる前記平行化赤外線画像を得るための光軸と同じとした際に得られる画像である基準可視光画像に変換する。
次に、視差画像生成装置は、対応度マップ群生成部によって、前記基準となる平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する。
According to such a configuration, when the parallax image generation device makes the set of infrared images parallel to the optical axis of the infrared camera using the camera parameters for the two infrared cameras by the image conversion unit. Converted into a set of collimated infrared images, which are obtained images, and using the camera parameters for the visible light camera and the reference infrared camera, the visible light image is referenced to the optical axis of the visible light camera. Is converted into a reference visible light image which is an image obtained when the same optical axis for obtaining the collimated infrared image is obtained.
Next, the parallax image generation device uses a correspondence map group generation unit to generate a parallax between a reference infrared image that is the reference parallelized infrared image and a non-reference infrared image that is the other parallelized infrared image. 2 is an index indicating the degree of matching between the reference infrared image and the non-reference infrared image for each pixel of a predetermined range image including the pixel, where is a constant value in the entire image. A correspondence map group is generated by obtaining a correspondence map, which is a dimensional array, for each parallax at a predetermined interval in a predetermined parallax range.

次に、視差画像生成装置は、平滑化フィルタ処理部によって、前記対応度マップ群について、前記対応度マップ毎に、前記基準可視光画像をエッジ領域識別のためのガイド画像として、当該ガイド画像における被写体のエッジに対応する前記対応度マップのエッジを保持した平滑化フィルタ処理を行う。
そして、視差画像生成装置は、視差画像生成処理部によって、前記平滑化フィルタ処理された対応度マップ群の中で最も対応度の高い対応度マップについての視差を、画素毎に選択することにより、画素毎に視差が定められた画像である視差画像を生成する。
これによって、視差画像生成装置は、被写体について赤外線パターンによるテクスチャを付与した赤外線ステレオ画像を用いて視差を推定する。また、視差画像生成装置は、可視光画像をガイド画像とするエッジ保持型の平滑化フィルタ処理を行うことによって、視差の推定精度を向上する。
Next, the parallax image generating device uses the reference visible light image as a guide image for edge region identification for each correspondence map for the correspondence map group by the smoothing filter processing unit. Smoothing filter processing that holds the edge of the correspondence map corresponding to the edge of the subject is performed.
Then, the parallax image generation device selects, for each pixel, the parallax for the correspondence map having the highest correspondence degree among the correspondence map groups subjected to the smoothing filter processing by the parallax image generation processing unit. A parallax image that is an image in which parallax is determined for each pixel is generated.
Thereby, the parallax image generating apparatus estimates the parallax using the infrared stereo image to which the texture of the subject is given the texture by the infrared pattern. In addition, the parallax image generation device improves the parallax estimation accuracy by performing an edge-holding smoothing filter process using a visible light image as a guide image.

本発明によれば、赤外線パターンを投影した被写体を撮影した赤外線画像及び可視光画像を用いて視差を推定するため、テクスチャの少ない被写体領域についても視差が精度よく推定された視差画像を生成することができる。また、本発明によれば、赤外線パターンでテクスチャを付与するため、可視光画像には影響を及ぼさない。   According to the present invention, since the parallax is estimated using the infrared image and the visible light image obtained by photographing the subject on which the infrared pattern is projected, the parallax image in which the parallax is accurately estimated even for the subject region with less texture is generated. Can do. Further, according to the present invention, since the texture is given by the infrared pattern, the visible light image is not affected.

本発明の第1実施形態に係る視差画像生成装置を備えた視差画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the parallax image generation system provided with the parallax image generation apparatus which concerns on 1st Embodiment of this invention. 本発明の各実施形態に係る視差画像生成装置を備えた視差画像生成システムにおけるカメラと赤外線パターン照射機との配置を示す模式的斜視図であり、(a)は第1実施形態及び第2実施形態、(b)は第3実施形態、(c)は第4実施形態の例を示す。It is a typical perspective view which shows arrangement | positioning of the camera and infrared pattern irradiation machine in the parallax image generation system provided with the parallax image generation apparatus which concerns on each embodiment of this invention, (a) is 1st Embodiment and 2nd Embodiment. (B) shows an example of the third embodiment, and (c) shows an example of the fourth embodiment. 本発明の第1実施形態に係る視差画像生成システムにおいて、コストボリュームの生成を説明するための図である。It is a figure for demonstrating the production | generation of a cost volume in the parallax image generation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る視差画像生成システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the parallax image generation system which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る視差画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the parallax image generation system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る視差画像生成システムにおいて、コストボリュームの平滑化フィルタ処理を説明するための図である。It is a figure for demonstrating the smoothing filter process of a cost volume in the parallax image generation system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る視差画像生成システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the parallax image generation system which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る視差画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the parallax image generation system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る視差画像生成システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the parallax image generation system which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る視差画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the parallax image generation system which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る視差画像生成システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the parallax image generation system which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る視差画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the parallax image generation system which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る視差画像生成システムにおいて、コストボリュームの平滑化フィルタ処理を説明するための図である。It is a figure for demonstrating the smoothing filter process of a cost volume in the parallax image generation system which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る視差画像生成システムにおいて、コストボリュームの平滑化フィルタ処理を説明するための図である。It is a figure for demonstrating the smoothing filter process of a cost volume in the parallax image generation system which concerns on 5th Embodiment of this invention.

以下、本発明の実施形態について、適宜に図面を参照して詳細に説明する。
<第1実施形態>
[視差画像生成システムの構成]
まず、図1及び図2(a)を参照して、第1実施形態に係る視差画像生成システムの構成について説明する。
図1に示すように、本実施形態に係る視差画像生成システム100は、視差画像生成装置1と、赤外線パターン照射機2と、撮影装置3と、を備えて構成されている。また、視差画像生成装置1は、画像変換部4と、コストボリューム生成部5と、視差画像生成処理部6と、を備えて構成されている。本実施形態において、撮影装置3は、赤外線及びRGB(赤、緑、青)の4チャンネルの波長域の画像を同光軸で撮影する2台の赤外線カラーカメラ31,32を備えている。また、図2(a)に示すように、赤外線パターン照射機2と、2台の赤外線カラーカメラ31,32とが、水平方向(X軸方向)に並置されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
<First Embodiment>
[Configuration of parallax image generation system]
First, the configuration of the parallax image generation system according to the first embodiment will be described with reference to FIG. 1 and FIG.
As illustrated in FIG. 1, the parallax image generation system 100 according to the present embodiment includes a parallax image generation device 1, an infrared pattern irradiator 2, and a photographing device 3. The parallax image generation device 1 includes an image conversion unit 4, a cost volume generation unit 5, and a parallax image generation processing unit 6. In the present embodiment, the photographing apparatus 3 includes two infrared color cameras 31 and 32 that photograph images in the wavelength range of four channels of infrared rays and RGB (red, green, and blue) with the same optical axis. Moreover, as shown to Fig.2 (a), the infrared pattern irradiation machine 2 and the two infrared color cameras 31 and 32 are juxtaposed in the horizontal direction (X-axis direction).

なお、本明細書においては特に断らない限り、図2(a)に示すように、水平方向をX軸方法とし、垂直方向をY軸方向とし、撮影装置3の内の基準となるカメラ(例えば、赤外線カラーカメラ31)の光軸方向、すなわち被写体の奥行方向をZ軸方向として説明する。   In this specification, unless otherwise specified, as shown in FIG. 2A, the horizontal direction is the X-axis method, the vertical direction is the Y-axis direction, and a camera (for example, a reference) in the photographing apparatus 3 (for example, The optical axis direction of the infrared color camera 31), that is, the depth direction of the subject will be described as the Z-axis direction.

本実施形態に係る視差画像生成システム100は、赤外線パターン照射機2によって赤外線パターンを被写体に投影することにより、被写体に赤外線のテクスチャを付与する。そして、視差画像生成装置1によって、赤外線のテクスチャを付与した被写体を撮影した赤外線画像の組と、可視光の画像であるカラー画像の組とを用いて、被写体の奥行方向の距離に対応した指標である視差を示す画像である視差画像を生成するものである。
以下、各構成について順次詳細に説明する。
The parallax image generation system 100 according to the present embodiment gives an infrared texture to a subject by projecting an infrared pattern onto the subject by the infrared pattern irradiator 2. Then, an index corresponding to the distance in the depth direction of the subject by using the set of infrared images obtained by photographing the subject to which the infrared texture is applied by the parallax image generation device 1 and the set of color images that are visible light images. A parallax image that is an image showing parallax is generated.
Hereinafter, each configuration will be sequentially described in detail.

赤外線パターン照射機2は、赤外線パターンを照射し、被写体に赤外線パターンを投影することによって被写体の赤外線のテクスチャを付与するためのものである。
照射する赤外線の波長は特に限定されるものではないが、赤外線画像に撮影され、かつカラー画像に撮影されない近赤外領域の波長であることが好ましい。
The infrared pattern irradiator 2 is for irradiating an infrared pattern and projecting the infrared pattern onto the subject to impart an infrared texture of the subject.
Although the wavelength of the infrared rays to be irradiated is not particularly limited, it is preferably a wavelength in the near infrared region that is captured in an infrared image and not captured in a color image.

赤外線パターン照射機2は、例えば、コヒーレント光を出力する光源と、光拡散器とで構成することができる。コヒーレント光を出力する光源としては、赤外線レーザを用いることができる。また、光拡散器としては、擦りガラスを用いることができる。
擦りガラスに赤外線レーザ光を照射することにより、擦りガラスの凹凸による赤外線レーザ光の回折光が互いに干渉してスペックルパターンが形成される。このとき、擦りガラスの凹凸はランダムに配置されているため、スペックルパターンもランダムな斑点状のパターンとなる。
また、光拡散器として、表面に凹凸がランダムに形成されたホログラムであってもよい。更にまた、光拡散器は、赤外線レーザ光を透過するものであっても反射するものであってもよい。
The infrared pattern irradiator 2 can be composed of, for example, a light source that outputs coherent light and a light diffuser. An infrared laser can be used as a light source that outputs coherent light. In addition, a frosted glass can be used as the light diffuser.
By irradiating the rubbing glass with infrared laser light, the diffracted light of the infrared laser light due to the unevenness of the rubbing glass interferes with each other to form a speckle pattern. At this time, since the unevenness of the frosted glass is randomly arranged, the speckle pattern also becomes a random spotted pattern.
Further, the light diffuser may be a hologram having irregularities randomly formed on the surface. Furthermore, the light diffuser may be one that transmits or reflects infrared laser light.

また、赤外線パターン照射機2は1台に限定されず、複数台で構成し、広範囲に赤外線パターンを照射するようにしてもよい。また、このとき、複数の赤外線パターン照射機2から照射される赤外線パターンが、重なるように照射して、被写体に、より高密度に赤外線パターンが投影されるようにしてもよい。   Further, the infrared pattern irradiator 2 is not limited to a single unit, and may be configured by a plurality of units to irradiate an infrared pattern over a wide range. At this time, the infrared patterns irradiated from the plurality of infrared pattern irradiators 2 may be irradiated so as to overlap so that the infrared patterns are projected onto the subject at a higher density.

また、照射する赤外線パターンは、前記したスペックルパターンのようなランダムドットパターンが好ましいが、これに限定されず、間隔が不規則なストライプパターンや格子パターンなど、他のテクスチャ形状であってもよい。このとき、赤外線パターンは、少なくとも、ステレオ撮影される赤外線画像のエピポーラ線の近傍において、互いの相関が高い類似パターンが発生しなければよい。すなわち、少なくともエピポーラ線の近傍でパターンがランダムであればよい。
また、赤外線パターンは、赤外線カラーカメラ31,32によって撮影される赤外線画像においてパターンが判別できる範囲で細かい方が好ましい。パターンが細かい方が、赤外線画像を用いたステレオマッチングによる視差の推定の解像度を高くすることができる。
The infrared pattern to be irradiated is preferably a random dot pattern such as the speckle pattern described above, but is not limited thereto, and may be another texture shape such as a stripe pattern or a lattice pattern with irregular intervals. . At this time, it is sufficient that the infrared pattern does not generate a similar pattern having a high correlation with each other at least in the vicinity of the epipolar line of the infrared image taken in stereo. That is, it is sufficient that the pattern is random at least in the vicinity of the epipolar line.
Further, it is preferable that the infrared pattern is fine as long as the pattern can be identified in the infrared image captured by the infrared color cameras 31 and 32. The finer the pattern, the higher the resolution of parallax estimation by stereo matching using an infrared image.

撮影装置3は、前記したように2台の赤外線カラーカメラ31,32で構成され、赤外線画像及びRGBからなるカラー画像をそれぞれステレオ撮影するカメラである。本実施形態では、2台の赤外線カラーカメラ31,32と、赤外線パターン照射機2とが水平方向に並置されている。更に、赤外線パターン照射機2は、2台の赤外線カラーカメラ31,32の間に配置されている。すなわち、2台の赤外線カラーカメラ31,32の何れにとっても、赤外線パターン照射機2が近くに配置されていることになる。このため、2台の赤外線カラーカメラ31,32の何れから見ても、赤外線パターン照射機2から被写体に向かって照射される赤外線パターンが、被写体の一部の影になって投影されない領域、すなわちテクスチャが付与されない領域を低減することができるため好ましい。   As described above, the photographing device 3 is composed of the two infrared color cameras 31 and 32, and is a camera that individually photographs an infrared image and a color image composed of RGB. In the present embodiment, two infrared color cameras 31 and 32 and an infrared pattern irradiator 2 are juxtaposed in the horizontal direction. Further, the infrared pattern irradiator 2 is disposed between the two infrared color cameras 31 and 32. That is, the infrared pattern irradiator 2 is arranged close to both of the two infrared color cameras 31 and 32. For this reason, when viewed from either of the two infrared color cameras 31 and 32, the infrared pattern irradiated from the infrared pattern irradiator 2 toward the subject is a shadow of a part of the subject and is not projected, that is, Since the area | region where a texture is not provided can be reduced, it is preferable.

赤外線カラーカメラ31,32は、それぞれ赤外線画像及びRGBからなるカラー画像を同光軸で撮影するカメラである。本実施形態では、被写体に向かって左側に配置された赤外線カラーカメラ31によって撮影される左視点の赤外線画像及びカラー画像をそれぞれのチャンネル(波長領域)の基準画像とする。また、右側に配置された赤外線カラーカメラ32によって撮影される右視点の赤外線画像及びカラー画像と、それぞれ基準視点である左視点の赤外線画像及びカラー画像とを組み合わせることにより赤外線ステレオ画像及びカラーステレオ画像とする。   The infrared color cameras 31 and 32 are cameras that shoot an infrared image and a color image composed of RGB on the same optical axis. In the present embodiment, the left viewpoint infrared image and color image captured by the infrared color camera 31 arranged on the left side of the subject are used as the reference images of the respective channels (wavelength regions). Further, an infrared stereo image and a color stereo image are obtained by combining a right viewpoint infrared image and a color image captured by the infrared color camera 32 arranged on the right side with a left viewpoint infrared image and a color image which are reference viewpoints, respectively. And

以下、2台のカメラで撮影した赤外線画像の組及びカラー画像の組を、適宜に、それぞれ「赤外線ステレオ画像」及び「カラーステレオ画像」と呼ぶこととする。なお、後記する他の実施形態のように、赤外線カメラとカラーカメラとが別個のカメラである場合も同様である。
赤外線カラーカメラ31,32は、撮影した赤外線ステレオ画像を視差画像生成装置1の画像平行化処理部41に、撮影したカラーステレオ画像を視差画像生成装置1の画像平行化処理部42に、それぞれ出力する。
Hereinafter, a set of infrared images and a set of color images taken by two cameras are appropriately referred to as “infrared stereo image” and “color stereo image”, respectively. The same applies to the case where the infrared camera and the color camera are separate cameras as in other embodiments described later.
The infrared color cameras 31 and 32 output the captured infrared stereo image to the image parallelization processing unit 41 of the parallax image generation device 1 and the captured color stereo image to the image parallelization processing unit 42 of the parallax image generation device 1, respectively. To do.

なお、本実施形態では、2台の赤外線カラーカメラ31,32を用いてステレオ撮影するように構成したが、3台以上の赤外線カラーカメラを用いて被写体を撮影し、例えば、隣接する2台のカメラで撮影した画像組を、それぞれステレオ画像として用いるようにしてもよい。
また、本実施形態では、赤外線カラーカメラ31,32によって、可視光領域の画像としてRGBの3チャンネルからなるカラー画像を撮影するようにしたが、可視光領域のモノクロ画像、2チャンネルの画像又は4チャンネル以上の画像を撮影するようにしてもよい。
In this embodiment, the two infrared color cameras 31 and 32 are used for stereo shooting. However, the subject is shot using three or more infrared color cameras. You may make it use the image group image | photographed with the camera as a stereo image, respectively.
In the present embodiment, the infrared color cameras 31 and 32 are used to capture a color image composed of three RGB channels as an image in the visible light region, but a monochrome image in the visible light region, a two-channel image, or 4 You may make it image | photograph the image more than a channel.

また、赤外線カラーカメラ31,32は、赤外線画像において、赤外線パターン照射機2で照射される赤外線の波長に感度を有し、カラー画像において、当該赤外線の波長に感度を有さないことが好ましい。すなわち、カラー画像において、当該赤外線に波長を有さないことにより、カラー画像に赤外線パターンが撮影されない。これによって、赤外線パターンの照射の影響を受けることなくカラー画像を撮影することができる。
従って、本実施形態に係る視差画像生成装置1によって生成される視差画像を、赤外線カラーカメラ31,32で撮影されるカラー画像と組み合わせることによって、視差画像を有するカラー画像として用いることができる。
Moreover, it is preferable that the infrared color cameras 31 and 32 have sensitivity to the infrared wavelength irradiated by the infrared pattern irradiator 2 in the infrared image, and do not have sensitivity to the infrared wavelength in the color image. That is, in the color image, since the infrared ray has no wavelength, an infrared pattern is not photographed in the color image. Thereby, a color image can be taken without being affected by the irradiation of the infrared pattern.
Therefore, the parallax image generated by the parallax image generating apparatus 1 according to the present embodiment can be used as a color image having a parallax image by combining with the color image captured by the infrared color cameras 31 and 32.

視差画像生成装置1は、画像変換部4と、コストボリューム生成部5と、視差画像生成処理部6とを備え、赤外線ステレオ画像と、可視光ステレオ画像と、これらの画像を撮影した赤外線カラーカメラ31,32のカメラパラメータと、を用いて視差画像を生成する。   The parallax image generation device 1 includes an image conversion unit 4, a cost volume generation unit 5, and a parallax image generation processing unit 6, and includes an infrared stereo image, a visible light stereo image, and an infrared color camera that captures these images. A parallax image is generated using the camera parameters 31 and 32.

画像変換部4は、画像平行化処理部41,42を備え、赤外線カラーカメラ31,32から入力する赤外線ステレオ画像及びカラーステレオ画像を、それぞれ平行化する。ここで、画像の平行化とは、2つの画像について、それぞれの光学主点を変えずに、互いに光軸を平行とした場合の画像に座標変換することである。   The image conversion unit 4 includes image parallelization processing units 41 and 42, and parallelizes the infrared stereo image and the color stereo image input from the infrared color cameras 31 and 32, respectively. Here, the collimation of images means that the coordinates of two images are transformed into images when the optical axes are parallel to each other without changing the respective optical principal points.

画像平行化処理部41は、赤外線カラーカメラ31,32から赤外線ステレオ画像を入力するとともに、2台の赤外線カラーカメラ31,32のそれぞれのカメラパラメータを入力し、入力した赤外線ステレオ画像を平行化するものである。なお、カメラパラメータ及びその取得方法については後記する。
画像平行化処理部41は、平行化した赤外線ステレオ画像をコストボリューム生成部5のコストボリューム算出部51に出力する。
The image parallelization processing unit 41 inputs infrared stereo images from the infrared color cameras 31 and 32 and inputs camera parameters of the two infrared color cameras 31 and 32 to parallelize the input infrared stereo images. Is. The camera parameters and the acquisition method will be described later.
The image parallelization processing unit 41 outputs the parallelized infrared stereo image to the cost volume calculation unit 51 of the cost volume generation unit 5.

画像平行化処理部42は、赤外線カラーカメラ31,32からカラーステレオ画像を入力するとともに、2台の赤外線カラーカメラ31,32のそれぞれのカメラパラメータを入力し、入力したカラーステレオ画像を平行化するものである。なお、カメラパラメータ及びその取得方法については後記する。
画像平行化処理部42は、平行化したカラーステレオ画像をコストボリューム生成部5のコストボリューム算出部52に出力する。
The image parallelization processing unit 42 inputs color stereo images from the infrared color cameras 31 and 32 and inputs camera parameters of the two infrared color cameras 31 and 32 to parallelize the input color stereo images. Is. The camera parameters and the acquisition method will be described later.
The image parallelization processing unit 42 outputs the parallelized color stereo image to the cost volume calculation unit 52 of the cost volume generation unit 5.

ここで、カメラパラメータについて説明する。
カメラパラメータには、カメラの状態を示す内部パラメータと、カメラの位置関係を示す外部パラメータとがある。
内部パラメータには、カメラレンズの焦点距離、画素ピッチ、画素ピッチの縦横の比であるアスペクト比、光軸と撮像面との交点の画像座標及びカメラレンズによるディストーションについての情報がある。また、外部パラメータには、世界座標系又は基準カメラのカメラ座標系におけるカメラの位置と回転量がある。この内の画素ピッチ及びアスペクト比は、カメラに固有の既知の値として予め取得することができ、他のパラメータは、カメラキャリブレーションを行うことにより取得することができる。
なお、本実施形態では、外部パラメータとして、各カメラについて、世界座標系におけるカメラの回転量を用いてステレオ画像の平行化処理を行うものとする。
また、同仕様のカメラを複数台用いる場合は、当該複数台のカメラの内部パラメータの平均値を、各カメラに共通の内部パラメータとして用いるようにしてもよい。
Here, the camera parameters will be described.
The camera parameters include an internal parameter that indicates the state of the camera and an external parameter that indicates the positional relationship of the camera.
The internal parameters include information about the focal length of the camera lens, the pixel pitch, the aspect ratio which is the aspect ratio of the pixel pitch, the image coordinates of the intersection of the optical axis and the imaging surface, and distortion by the camera lens. The external parameters include the camera position and rotation amount in the world coordinate system or the camera coordinate system of the reference camera. Of these, the pixel pitch and aspect ratio can be acquired in advance as known values specific to the camera, and other parameters can be acquired by performing camera calibration.
In the present embodiment, it is assumed that the stereo image is parallelized using the rotation amount of the camera in the world coordinate system for each camera as the external parameter.
When a plurality of cameras having the same specification are used, an average value of internal parameters of the plurality of cameras may be used as an internal parameter common to the cameras.

カメラキャリブレーションは、マーカーやテストチャートなどの既知のパターンをキャリブレーション対象のカメラで撮影し、撮影した画像を解析することで行うことができる。このような画像解析によるカメラキャリブレーションとしては、例えば、参考文献1に記載の手法を用いることができるため、詳細な説明は省略する。
なお、本実施形態においては、カメラパラメータは、前記した手法等により予め求められているものとする。
(参考文献1)R. Tsai, “A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses,” Journal of Robotics & Automation, RA-3(4), pp.323-344, (1987)
Camera calibration can be performed by photographing a known pattern such as a marker or a test chart with a camera to be calibrated and analyzing the photographed image. As camera calibration based on such image analysis, for example, the method described in Reference 1 can be used, and thus detailed description thereof is omitted.
In the present embodiment, it is assumed that the camera parameters are obtained in advance by the method described above.
(Reference 1) R. Tsai, “A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses,” Journal of Robotics & Automation, RA-3 (4), pp. 323-344, (1987)

次に、画像平行化処理部41,42による画像の平行化処理について説明する。
画像の平行化処理とは、光軸が平行でない状態の2台のカメラで撮影した画像を、光軸が平行な状態で撮影される画像に座標変換する処理のことである。
なお、カメラの光軸が平行になるように2台のカメラを設置した場合であっても、カメラキャリブレーションによって取得したカメラパラメータを用いて平行化処理を行うことにより、ステレオ画像をより高精度に平行化することができる。
Next, image parallelization processing by the image parallelization processing units 41 and 42 will be described.
The image collimation process is a process for converting the coordinates of an image photographed by two cameras in a state where the optical axes are not parallel into an image photographed in a state where the optical axes are parallel.
Even when two cameras are installed so that the optical axes of the cameras are parallel, the stereo image can be processed with higher accuracy by performing the parallelization process using the camera parameters acquired by camera calibration. Can be parallelized.

具体的には、座標変換処理前の内部パラメータ行列をF、外部パラメータである回転行列をRとし、座標変換処理後の内部パラメータをF、回転行列をRとすると、式(1)を用いて画像の平行化処理を行うことができる。 Specifically, when the internal parameter matrix before the coordinate transformation process is F, the rotation matrix that is the external parameter is R, the internal parameter after the coordinate transformation process is F r , and the rotation matrix is R r , Equation (1) is The image can be parallelized by using this.

Figure 0006285686
Figure 0006285686

ここで、(u,v)は座標変換処理前の画像座標を示し、(u,v)は座標変換処理後の画像座標を示し、P及びPCrは、それぞれ座標変換処理前及び座標変換処理後の画像座標の斉次座標を示す。
また、内部パラメータ行列Fは、式(2)のように表わすことができる。
Here, (u, v) represents the image coordinates before coordinate transformation, (u r, v r) represents the image coordinates after coordinate transformation process, P C and P Cr is and pre coordinate transformation respectively The homogeneous coordinates of the image coordinates after the coordinate conversion process are shown.
Further, the internal parameter matrix F can be expressed as shown in Equation (2).

Figure 0006285686
Figure 0006285686

ここで、fは垂直方向の画素ピッチ単位で表わしたカメラレンズの焦点距離、aは垂直方向の画素ピッチを水平方向の画素ピッチで除することで算出されるアスペクト比、(C,C)は、カメラの光軸と画像面との交点、すなわち撮影される画像の中心画素の画像座標を示す。 Here, f is the focal length of the camera lens expressed in units of vertical pixel pitch, a is the aspect ratio calculated by dividing the vertical pixel pitch by the horizontal pixel pitch, and (C u , C v ) Indicates the intersection between the optical axis of the camera and the image plane, that is, the image coordinates of the center pixel of the image to be captured.

なお、本実施形態では、赤外線ステレオ画像を平行化する画像平行化処理部41とカラーステレオ画像を平行化する画像平行化処理部42とを独立して設けるように設けるようにしたが、1つの画像平行化処理部41(又は42)を設け、タイミングをずらせて、赤外線ステレオ画像及びカラーステレオ画像について順次に平行化処理を行うように構成してもよい。   In this embodiment, the image parallelization processing unit 41 that parallelizes the infrared stereo image and the image parallelization processing unit 42 that parallelizes the color stereo image are provided independently. An image parallelization processing unit 41 (or 42) may be provided, and the parallelization processing may be sequentially performed on the infrared stereo image and the color stereo image by shifting the timing.

視差画像生成装置1の構成について説明を続ける。
コストボリューム生成部(対応度マップ群生成部)5は、平行化された赤外線ステレオ画像及びカラーステレオ画像を用いて、視差をある一定の値に仮定した場合に、ステレオ画像を構成する左右の画像の一致の度合を示す画素毎の「コスト(Cost)」(対応度)の2次元配列であるコストマップ(Cost Map)(対応度マップ)を、所定範囲の視差毎に求めたコストボリューム(Cost Volume)(対応度マップ群)を生成するものである。
このために、コストボリューム生成部5は、コストボリューム算出部51,52と、コストボリューム統合部53とを備えて構成されている。
コストボリューム生成部5は、生成したコストボリュームを視差画像生成処理部6に出力する。
The description of the configuration of the parallax image generation device 1 will be continued.
The cost volume generation unit (correspondence map group generation unit) 5 uses the parallelized infrared stereo image and color stereo image, and assuming that the parallax is a certain value, the left and right images constituting the stereo image A cost volume (Cost Map) that is a two-dimensional array of “cost (Cost)” (correspondence) for each pixel indicating the degree of coincidence for each of the predetermined ranges of disparity Volume) (correspondence map group) is generated.
For this purpose, the cost volume generation unit 5 includes cost volume calculation units 51 and 52 and a cost volume integration unit 53.
The cost volume generation unit 5 outputs the generated cost volume to the parallax image generation processing unit 6.

コストボリューム算出部51は、画像平行化処理部41から平行化された赤外線ステレオ画像Jr,L,Jr,Rを入力し、入力した赤外線ステレオ画像Jr,L,Jr,Rを用いてコストボリュームを算出するものである。コストボリューム算出部51は、算出したコストボリュームをコストボリューム統合部53に出力する。 Cost volume calculation unit 51, using inputs image parallel processing portion 41 infrared stereo image J r which is collimated from, L, J r, the R, infrared stereo image J r input, L, J r, the R To calculate the cost volume. The cost volume calculation unit 51 outputs the calculated cost volume to the cost volume integration unit 53.

また、コストボリューム算出部52は、画像平行化処理部42から平行化されたカラーステレオ画像Ir,L,Ir,Rを入力し、入力したカラーステレオ画像Ir,L,Ir,Rを用いてコストボリュームを算出するものである。コストボリューム算出部52は、算出したコストボリュームをコストボリューム統合部53に出力する。 Further, the cost volume calculation unit 52 receives the color stereo images I r, L , I r, R that have been collimated from the image collimation processing unit 42 , and the input color stereo images I r, L , I r, R. Is used to calculate the cost volume. The cost volume calculation unit 52 outputs the calculated cost volume to the cost volume integration unit 53.

ここで、図3を参照(適宜図1参照)して、コストボリューム算出部51,52におけるコストボリュームの算出方法について説明する。
まず、コストボリューム算出部51について説明する。
コストボリューム算出部51は、平行化された赤外線ステレオ画像Jr,L,Jr,Rについて、画素毎に、当該画素を中心とする所定サイズの画像領域の一致度、すなわち相関を示すコストを算出する。このとき、基準画像である左視点の赤外線画像Jr,Lと、他方の画像である右視点の赤外線画像Jr,Rとの間の視差を、画像全体において一定値dであると仮定して、画素毎にコストを算出する。
なお、本実施形態では、視差dは、ステレオ画像である左右の画像Jr,L,Jr,Rにおける被写体の対応点の画像座標(u,v)の差を示すものとする。
Here, with reference to FIG. 3 (refer to FIG. 1 as appropriate), the cost volume calculation method in the cost volume calculation units 51 and 52 will be described.
First, the cost volume calculation unit 51 will be described.
For each of the parallel infrared stereo images Jr, L , Jr, R , the cost volume calculation unit 51 calculates, for each pixel, the degree of coincidence of a predetermined size image region centered on the pixel, that is, the cost indicating the correlation. calculate. At this time, it is assumed that the parallax between the left-viewpoint infrared image Jr, L that is the reference image and the right-viewpoint infrared image Jr, R that is the other image is a constant value d in the entire image. Thus, the cost is calculated for each pixel.
In the present embodiment, the parallax d denote the difference between the image J r of the left and right are stereo images, L, J r, the image coordinates of the corresponding points of the subject in R (u r, v r) .

具体的には、図3に示すように、基準画像である左画像Jr,Lの画素pを中心とする所定範囲の画像である画像ブロックBと、ステレオ画像の他方の画像である右画像Jr,Rの対応点pを中心とする同サイズの画像ブロックBとの一致度、すなわち画像の相関を示す指標としてコストを算出する。なお、本実施形態では、算出されるコストの値が小さいほど、画像ブロックB及び画像ブロックBの一致度(相関)が高いものとする。 Specifically, as shown in FIG. 3, an image block B L is an image of a predetermined range of the left image J r, centered at the pixel p L of L which is the reference image, the other image of the stereo image right image J r, the degree of coincidence between the image blocks B R of the same size around the corresponding point p R of R, i.e., calculates the cost as an index indicating the correlation of the image. In the present embodiment, as the cost of the value calculated is small, matching of the image blocks B L and the image block B R (correlation) is high.

ここで、画像ブロックB,Bのサイズは、一辺の長さ(画素数)がτの正方形領域とする。また、左視点の画像Jr,Lを基準とした場合は、右視点の画像Jr,Rにおける被写体の対応点は、視差dだけ左側にシフトすることになる。従って、画像ブロックBの中心画素Pの画像座標を(u,v)とすると、視差dを仮定したときの画像ブロックBの中心画素pの画像座標は、視差dだけ左側にシフトした(u−d,v)となる。
本実施形態では、このコストの評価式として、式(3)を用いる。
Here, the image blocks B L, the size of B R is a side length of (number of pixels) is a square region of tau. Further, when the left viewpoint image J r, L is used as a reference, the corresponding point of the subject in the right viewpoint image J r, R is shifted to the left by the parallax d. Therefore, when the image coordinates of the central pixel P L of the image blocks B L and (u r, v r), the image coordinates of the central pixel p R of the image blocks B R, assuming parallax d, only the disparity d left a shifted (u r -d, v r) to.
In the present embodiment, Expression (3) is used as the cost evaluation expression.

Figure 0006285686
Figure 0006285686

なお、式(3)において、C(u,v,d)は、視差をdであると仮定した場合の、基準画像である平行化された左視点の赤外線画像Jr,Lの画像座標(u,v)におけるコストを示す。すべての画素についてコストCを算出することによって、赤外線ステレオ画像について、視差をdであると仮定したときの、画素毎のコストの2次元配列であるコストマップCMjd(CMj1〜CMjNの何れか)が算出される。 In Expression (3), C j (u r , v r , d) is the reference image of the parallelized left-viewpoint infrared image J r, L assuming that the parallax is d. the image coordinates (u r, v r) indicating the cost at. By calculating the cost C j for all the pixels, the cost map CM jd (CM j1 to CM jN) , which is a two-dimensional array of costs for each pixel, assuming that the parallax is d for the infrared stereo image. Either) is calculated.

更に、所定範囲(d=1〜N)の視差d毎に、前記した手順でコストマップを算出する。これによって、N個のコストマップCMj1〜CMjNからなる配列、すなわちコストの3次元配列であるコストボリュームCVが算出される。
ここで、Nは視差dの取り得る最大値として予め定められた値である。また、本実施形態では、dは「1」毎に算出するものとして説明するが、例えば「2」などの整数値毎としてもよく、また、「0.5」毎や「2.5」毎のように小数値毎としてもよい。
Further, a cost map is calculated by the above-described procedure for each parallax d within a predetermined range (d = 1 to N). As a result, an array composed of N cost maps CM j1 to CM jN , that is, a cost volume CV j that is a three-dimensional array of costs is calculated.
Here, N is a value predetermined as the maximum value that the parallax d can take. In the present embodiment, d is described as being calculated every “1”. However, d may be calculated as an integer value such as “2”, and every “0.5” or “2.5”. It is good also for every decimal value like.

また、画像ブロックB,Bのサイズτは、撮影された赤外線画像Jr,L,Jr,Rの解像度や赤外線パターン照射機2が照射する赤外線パターンの細かさに応じて、適宜に定めることができるが、例えば、7〜19画素程度とすることができる。また、画像ブロックB,Bの形状は正方形とすることで計算が簡便となるが、これに限定されず、長方形、六角形、菱形などの多角形、円形などであってもよい。 The image block B L, the size τ of B R, captured infrared image J r, L, J r, depending on the fineness of the infrared pattern resolution and infrared pattern irradiator 2 R is irradiated, as appropriate For example, it can be about 7 to 19 pixels. The image block B L, the shape of B R is a simple calculation by the square, not limited to this, rectangular, hexagonal, polygonal such as rhombus, or the like may be used circular.

また、コストボリューム算出部52は、前記したコストボリューム算出部51と同様の手順で、平行化されたカラーステレオ画像Ir,L,Ir,Rについて、コストボリュームCVを算出する。
なお、コストボリューム算出部52において、カラーステレオ画像Ir,L,Ir,Rの各画素ついてのコストを算出する際の画像ブロックB,Bのサイズτ及び/又は形状は、コストボリューム算出部51とは異なるようにしてもよい。
Further, the cost volume calculation unit 52 calculates the cost volume CV c for the parallel color stereo images I r, L , I r, R in the same procedure as the cost volume calculation unit 51 described above.
It should be noted that in cost volume calculation unit 52, a color stereoscopic image I r, L, I r, the image blocks B L when calculating the cost of about each pixel of R, the size τ and / or shape of B R is cost volume You may make it differ from the calculation part 51. FIG.

ここで、カラーステレオ画像Ir,L,Ir,Rについて、視差をdであると仮定し、基準画像であるカラー画像Ir,Lの画像座標(u,v)におけるコストC(u,v,d)は、式(4)により算出する。 Here, it is assumed that the parallax is d for the color stereo images I r, L , I r, R , and the cost C c in the image coordinates (u r , v r ) of the color image I r, L that is the reference image. (U r , v r , d) is calculated by equation (4).

Figure 0006285686
Figure 0006285686

なお、式(4)において、kは、カラー画像Ir,L,Ir,RにおけるRGBの各チャンネルを示す。
また、カラー画像Ir,L,Ir,Rを用いた式(4)に代えて、グレー画像Mr,L,Mr,Rを用いた式(5)によりコストC(u,v,d)を算出するようにしてもよい。ここで、グレー画像Mr,L,Mr,Rは、各カラー画像Ir,L,Ir,Rから生成した1成分からなる画像である。グレー画像Mr,L,Mr,Rとしては、例えば、カラー画像Ir,L,Ir,Rの輝度成分を示す画像を用いることができる。
In Equation (4), k represents each of the RGB channels in the color images I r, L , I r, R.
Further, the color image I r, L, I r, instead of equation (4) using the R, gray image M r, L, M r, cost by equation (5) with R C c (u r, v r , d) may be calculated. Here, the gray images Mr, L , Mr, R are images composed of one component generated from the color images Ir , L , Ir , R. As the gray images Mr, L , Mr, and R , for example, images showing the luminance components of the color images Ir , L , Ir , and R can be used.

Figure 0006285686
Figure 0006285686

また、本実施形態では、式(3)〜式(5)に示したように、一般的にSSD(Sum of Squared Difference)と呼ばれる評価式を用いてコストを算出するようにしたが、画像の相関を示す他の評価式を用いるようにしてもよい。他の評価式としては、例えば、SAD(Sum of Absolute Difference)、NCC(Normalized Cross Correlation)、ZNCC(Zero-mean Normalized Cross Correlation)、SD(Squared Difference)などを用いることができる。   In the present embodiment, as shown in the equations (3) to (5), the cost is calculated using an evaluation equation generally called SSD (Sum of Squared Difference). You may make it use the other evaluation formula which shows a correlation. As other evaluation formulas, for example, SAD (Sum of Absolute Difference), NCC (Normalized Cross Correlation), ZNCC (Zero-mean Normalized Cross Correlation), SD (Squared Difference), and the like can be used.

なお、本実施形態では、平行化された赤外線ステレオ画像Jr,L,Jr,Rを用いてコストボリュームを算出するコストボリューム算出部51と、平行化されたカラーステレオ画像Ir,L,Ir,Rを用いてコストボリュームを算出するコストボリューム算出部52とを独立して設けるように設けるようにしたが、1つのコストボリューム算出部51(又は52)を設け、タイミングをずらせて、赤外線ステレオ画像Jr,L,Jr,R及びカラーステレオ画像Ir,L,Ir,Rを用いて順次にコストボリュームを算出するように構成してもよい。 In the present embodiment, a cost volume calculation unit 51 that calculates a cost volume using the parallelized infrared stereo images Jr, L , Jr, R , and the parallelized color stereo images Ir , L , The cost volume calculation unit 52 that calculates the cost volume using Ir and R is provided independently. However, one cost volume calculation unit 51 (or 52) is provided, and the timing is shifted. You may comprise so that a cost volume may be calculated sequentially using infrared stereo image Jr, L , Jr, R and color stereo image Ir , L , Ir , R.

図1に戻って、視差画像生成装置1の構成について説明を続ける。
コストボリューム統合部53は、コストボリューム算出部51から赤外線ステレオ画像Jr,L,Jr,Rについてのコストボリュームを、コストボリューム算出部52からカラーステレオ画像Ir,L,Ir,Rについてのコストボリュームをそれぞれ入力し、入力した2つのコストボリュームを1つに統合するものである。コストボリューム統合部53は、統合した1つのコストボリュームを、視差画像生成処理部6に出力する。
Returning to FIG. 1, the description of the configuration of the parallax image generating device 1 will be continued.
The cost volume integration unit 53 receives the cost volume for the infrared stereo images J r, L , J r, R from the cost volume calculation unit 51, and the color stereo images I r, L , I r, R from the cost volume calculation unit 52. Are entered, and the entered two cost volumes are integrated into one. The cost volume integration unit 53 outputs one integrated cost volume to the parallax image generation processing unit 6.

具体的には、コストボリューム統合部53は、視差d毎に、かつ画素毎に、2つのコストボリュームのコストC,Cを、式(6)によって重み付き加算することで、1つのコストボリュームに統合する。
なお、式(6)において、λは重み係数であり、0<λ<1である。
Specifically, the cost volume integration unit 53 adds the weights C j and C c of the two cost volumes for each parallax d and for each pixel by weighted addition according to Expression (6). Integrate into a volume.
In Equation (6), λ is a weighting coefficient, and 0 <λ <1.

Figure 0006285686
Figure 0006285686

また、2つのコストボリュームの統合方法は、式(6)による各コストC,Cの重み付き加算に限定されず、各コストC,Cの積、各コストC,Cの逆数の和、各コストC,Cの逆数の積など、他の方法であってもよい。 Also, how to integrate the two cost volume, the cost C j according to equation (6) is not limited to the weighted sum of C c, the cost C j, the product of C c, the cost C j, the C c Other methods such as the sum of the reciprocals and the product of the reciprocals of the costs C j and C c may be used.

また、本実施形態では、コストボリューム算出部51,52によって、まず2つのコストボリュームを生成し、その後に2つのコストボリュームを1つに統合するようにしたが、これに限定されるものではない。例えば、赤外線ステレオ画像及びカラーステレオ画像についての同じ視差のコストマップを算出する毎に、1つのコストマップに統合するようにしてもよく、赤外線ステレオ画像及びカラーステレオ画像についての同じ視差かつ同じ画素のコストを算出する毎に、1つのコストに統合するようにしてもよい。   In the present embodiment, the cost volume calculation units 51 and 52 first generate two cost volumes and then integrate the two cost volumes into one. However, the present invention is not limited to this. . For example, each time the cost map of the same parallax for the infrared stereo image and the color stereo image is calculated, the cost map of the same parallax and the same pixel for the infrared stereo image and the color stereo image may be integrated into one cost map. Each time the cost is calculated, it may be integrated into one cost.

視差画像生成処理部6は、コストボリューム統合部53から1つに統合されたコストボリュームを入力し、入力したコストボリュームを用いて画素毎に視差を定めた視差画像を生成するものである。また、視差画像生成処理部6は、生成した視差画像を、視差画像生成装置1の出力として外部に出力する。   The parallax image generation processing unit 6 inputs the cost volume integrated into one from the cost volume integration unit 53, and generates a parallax image in which the parallax is determined for each pixel using the input cost volume. Further, the parallax image generation processing unit 6 outputs the generated parallax image to the outside as an output of the parallax image generation device 1.

視差画像生成処理部6は、具体的には、コストボリュームにおいて、画素毎に、コストが最小となるコストマップに仮定した視差dを、当該画素における視差として選択する。すなわち、赤外線カラーカメラ31,32で撮影されたステレオ画像の各画素について、各画素を中心画素とする所定サイズの画像ブロックB,B(図3参照)の一致の度合いが最も高くなるように(コストが最小となるように)視差が定められる。
すべての画素について、同じ手順によって視差dを選択することにより、視差画像を生成することができる。
Specifically, the parallax image generation processing unit 6 selects the parallax d assumed in the cost map that minimizes the cost for each pixel in the cost volume as the parallax for the pixel. That is, for each pixel of the stereo image taken by the infrared color cameras 31 and 32, the degree of coincidence between the image blocks B L and B R (see FIG. 3) having a predetermined size centered on each pixel is the highest. The parallax is determined (so that the cost is minimized).
A parallax image can be generated by selecting the parallax d by the same procedure for all pixels.

[視差画像生成システムの動作]
次に、図4を参照(適宜図1参照)して、第1実施形態に係る視差画像生成システム100の動作について説明する。
図4に示すように、まず、視差画像生成システム100は、赤外線パターン照射機2によって、ランダムドットパターンなどの赤外線パターンを照射して、被写体に赤外線画像で識別可能なテクスチャを付与する(ステップS11)。
[Operation of parallax image generation system]
Next, the operation of the parallax image generation system 100 according to the first embodiment will be described with reference to FIG. 4 (refer to FIG. 1 as appropriate).
As shown in FIG. 4, first, the parallax image generation system 100 irradiates an infrared pattern such as a random dot pattern with the infrared pattern irradiator 2 to give the subject a texture that can be identified by the infrared image (step S11). ).

次に、視差画像生成システム100は、2台の赤外線カラーカメラ31,32によって、赤外線ステレオ画像及びカラーステレオ画像を撮影する(ステップS12)。
次に、視差画像生成システム100は、画像平行化処理部41によって、ステップS12で撮影した赤外線ステレオ画像を平行化処理する(ステップS13)。また、視差画像生成システム100は、画像平行化処理部42によって、ステップS12で撮影したカラーステレオ画像を平行化処理する(ステップS14)。なお、ステップS13とステップS14とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax image generation system 100 captures an infrared stereo image and a color stereo image with the two infrared color cameras 31 and 32 (step S12).
Next, the parallax image generation system 100 uses the image parallelization processing unit 41 to parallelize the infrared stereo image captured in step S12 (step S13). Further, the parallax image generation system 100 causes the image parallelization processing unit 42 to parallelize the color stereo image captured in step S12 (step S14). Note that either step S13 or step S14 may be executed first or in parallel.

次に、視差画像生成システム100は、コストボリューム算出部51によって、ステップS13で平行化した赤外線ステレオ画像について、コストボリュームを算出する(ステップS15)。また、視差画像生成システム100は、コストボリューム算出部52によって、ステップS14で平行化したカラーステレオ画像について、コストボリュームを算出する(ステップS16)。なお、ステップS15とステップS16とは、何れを先に実行してもよく、並行して行うようにしてもよい。   Next, the parallax image generation system 100 calculates the cost volume for the infrared stereo image parallelized in step S13 by the cost volume calculation unit 51 (step S15). Further, the parallax image generation system 100 calculates the cost volume for the color stereo image parallelized in step S14 by the cost volume calculation unit 52 (step S16). Note that either step S15 or step S16 may be executed first or in parallel.

次に、視差画像生成システム100は、コストボリューム統合部53によって、ステップS15で算出した赤外線ステレオ画像についてのコストボリュームと、ステップS16で算出したカラーステレオ画像についてのコストボリュームとを、式(6)を用いて、視差毎及び画素毎にコストを重み付き加算することで、1つのコストボリュームに統合する(ステップS17)。   Next, the parallax image generation system 100 uses the cost volume integration unit 53 to calculate the cost volume for the infrared stereo image calculated in step S15 and the cost volume for the color stereo image calculated in step S16 using Equation (6). Is used to add the weights for each parallax and each pixel with a weight, thereby integrating them into one cost volume (step S17).

そして、視差画像生成システム100は、視差画像生成処理部6によって、ステップS17で統合したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS18)。
以上の手順により、視差画像生成システム100は、視差画像を生成することができる。
And the parallax image generation system 100 produces | generates a parallax image by selecting the parallax which gives the minimum cost for every pixel by the parallax image generation process part 6 about the cost volume integrated by step S17 (step S18).
Through the above procedure, the parallax image generation system 100 can generate a parallax image.

本実施形態では、前記したように赤外線ステレオ画像を用いて算出したコストボリュームと、カラー画像を用いて算出したコストボリュームとを統合したコストボリュームを用いて視差を推定する。このため、テクスチャを有する被写体については、主として本来のテクスチャが撮影されたカラーステレオ画像に基づくコストボリュームにより精度よく視差を推定することができる。また、本来テクスチャを有さない被写体については、主として赤外線パターンによりテクスチャを付与された画像が撮影された赤外線ステレオ画像に基づくコストボリュームにより精度よく視差を推定することができる。
すなわち、赤外線ステレオ画像とカラーステレオ画像とを用いることにより、互いに視差推定精度の低い領域を補完することができるため、高い精度の視差画像を生成することができる。
In the present embodiment, the parallax is estimated using the cost volume obtained by integrating the cost volume calculated using the infrared stereo image and the cost volume calculated using the color image as described above. For this reason, for a subject having a texture, the parallax can be accurately estimated by a cost volume based mainly on a color stereo image in which the original texture is captured. In addition, for a subject that does not originally have a texture, the parallax can be accurately estimated by a cost volume based on an infrared stereo image obtained by photographing an image that is textured mainly by an infrared pattern.
That is, by using an infrared stereo image and a color stereo image, regions with low parallax estimation accuracy can be complemented, and thus a parallax image with high accuracy can be generated.

<第2実施形態>
[視差画像生成システムの構成]
次に、図5を参照して、本発明の第2実施形態に係る視差画像生成システムについて説明する。
図5に示すように、第2実施形態に係る視差画像生成システム100Aは、図1に示した第1実施形態に係る視差画像生成システム100に対して、コストボリューム生成部5を備えた視差画像生成装置1に代えて、コストボリューム生成部5Aを備えた視差画像生成装置1Aを備えることが異なる。
また、第2実施形態の視差画像生成装置1Aにおいて、コストボリューム生成部5Aは、コストボリュームフィルタ処理部54を更に備え、コストボリューム統合部53が統合したコストボリュームについて、コストマップ毎に、エッジ保持型の平滑化フィルタ処理を行うことにより、被写体の輪郭付近の視差推定精度の向上を図るものである。
Second Embodiment
[Configuration of parallax image generation system]
Next, a parallax image generation system according to the second embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 5, the parallax image generation system 100A according to the second embodiment is different from the parallax image generation system 100 according to the first embodiment shown in FIG. Instead of the generation apparatus 1, a difference is that a parallax image generation apparatus 1A including a cost volume generation unit 5A is provided.
In the parallax image generation device 1A of the second embodiment, the cost volume generation unit 5A further includes a cost volume filter processing unit 54. The cost volume integrated by the cost volume integration unit 53 is held for each cost map. The parallax estimation accuracy near the contour of the subject is improved by performing the type smoothing filter processing.

なお、第1実施形態に係る視差画像生成システム100と同様の構成要素については、同じ符号を付して説明は適宜に省略する。
以下、主として視差画像生成装置1Aのコストボリュームフィルタ処理部54について説明する。
In addition, about the component similar to the parallax image generation system 100 which concerns on 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted suitably.
Hereinafter, the cost volume filter processing unit 54 of the parallax image generation device 1A will be mainly described.

視差画像生成装置1Aは、画像変換部4と、コストボリューム生成部5Aと、視差画像生成処理部6とを備え、赤外線ステレオ画像と、可視光ステレオ画像と、これらの画像を撮影した赤外線カラーカメラ31,32のカメラパラメータと、を用いて視差画像を生成する。
また、コストボリューム生成部5Aは、コストボリューム算出部51,52と、コストボリューム統合部53と、コストボリュームフィルタ処理部54とを備える。
The parallax image generation device 1A includes an image conversion unit 4, a cost volume generation unit 5A, and a parallax image generation processing unit 6, and includes an infrared stereo image, a visible light stereo image, and an infrared color camera that captures these images. A parallax image is generated using the camera parameters 31 and 32.
The cost volume generation unit 5A includes cost volume calculation units 51 and 52, a cost volume integration unit 53, and a cost volume filter processing unit 54.

コストボリュームフィルタ処理部(平滑化フィルタ処理部)54は、コストボリューム統合部53から統合されたコストボリュームを入力するとともに、画像平行化処理部42から平行化されたカラーステレオ画像の内の基準画像であるカラー画像Ir,Lを入力し、入力したコストボリュームについて、コストマップ毎に、カラー画像Ir,Lをガイド画像としてエッジ保持型の平滑化フィルタ処理を行う。
コストボリュームフィルタ処理部54は、平滑化フィルタ処理したコストボリュームを視差画像生成処理部6に出力する。
The cost volume filter processing unit (smoothing filter processing unit) 54 inputs the cost volume integrated from the cost volume integration unit 53 and also uses a reference image among the color stereo images parallelized from the image parallelization processing unit 42. The color image Ir , L is input, and edge retention type smoothing filter processing is performed on the input cost volume using the color image Ir , L as a guide image for each cost map.
The cost volume filter processing unit 54 outputs the cost volume subjected to the smoothing filter processing to the parallax image generation processing unit 6.

コストボリュームフィルタ処理部54によるコストマップ毎の平滑化フィルタ処理は、前記したように、被写体の輪郭付近の視差推定精度の向上を図るためのものである。特に、本来テクスチャを有さない被写体については、主として赤外線ステレオ画像に基づいて視差を推定することとなる。ここで、赤外線パターン照射機2により付与される赤外線パターンのテクスチャは、必ずしも高密度のテクスチャではないため、エッジ保持型の平滑化フィルタ処理を行うことにより、本来テクスチャを有さない被写体の輪郭付近の視差推定精度の向上に特に有用である。   The smoothing filter processing for each cost map by the cost volume filter processing unit 54 is for improving the accuracy of parallax estimation near the contour of the subject as described above. In particular, for a subject that does not originally have a texture, the parallax is estimated mainly based on an infrared stereo image. Here, since the texture of the infrared pattern provided by the infrared pattern irradiator 2 is not necessarily a high-density texture, by performing edge holding type smoothing filter processing, the vicinity of the contour of the subject that does not originally have a texture This is particularly useful for improving the accuracy of parallax estimation.

エッジ保持型の平滑化フィルタ処理としては、例えば、参考文献2〜参考文献4に記載された手法を用いることができる。
(参考文献2)J. Lu, K. Shi, D. Min, L. Lin and M. Do, “Cross-Based Local Multipoint Filtering”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 430-437, (2012)
(参考文献3)K. He, J. Sun, X. Tang, “Guided Image Filtering,” In Proc. of ECCV Part I, Pages 1-14, (2010)
(参考文献4)G. Petschnigg, M. Agrawala, H. Hoppe, R. Szeliski, M. Cohen, K. Toyama, “Digital Photography with Flash and No-Flash Image Pairs,” In Proc. of SIGGRAPH, (2004)
As the edge holding type smoothing filter process, for example, the methods described in Reference Documents 2 to 4 can be used.
(Reference 2) J. Lu, K. Shi, D. Min, L. Lin and M. Do, “Cross-Based Local Multipoint Filtering”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 430- 437, (2012)
(Reference 3) K. He, J. Sun, X. Tang, “Guided Image Filtering,” In Proc. Of ECCV Part I, Pages 1-14, (2010)
(Reference 4) G. Petschnigg, M. Agrawala, H. Hoppe, R. Szeliski, M. Cohen, K. Toyama, “Digital Photography with Flash and No-Flash Image Pairs,” In Proc. Of SIGGRAPH, (2004 )

以下、本実施形態におけるコストボリュームフィルタ処理部54が、参考文献2に記載されたCLMF(Cross-based Local Multipoint Filter)によってエッジ保持型の平滑化フィルタ処理を行う場合を例として説明する。
本実施形態において、CLMFによるコストボリュームの平滑化フィルタ処理は、各コストマップをコストを画素値とする2次元の画像として扱い、コストマップ毎に2次元空間フィルタ処理を行うものである。また、各画素についてのコストを、当該画素の周辺画素についてのコストを参照して平滑化フィルタ処理する際に、基準視点についてのカラー画像を被写体のエッジ領域識別のためのガイド画像として、当該平滑化フィルタ処理の対象画素と、色が類似する(色差が所定の閾値以下の)周辺画素についてのコストのみを抽出して平滑化フィルタ処理に用いるものである。視差が大きく異なる領域は、被写体のエッジ部、すなわち別個の被写体が隣接して撮影された領域に相当し、互いに色も大きく異なることが多いという性質を利用して、平滑化の際にエッジ(輪郭)を保持するための参考情報とするものである。平滑化フィルタ処理に類似色の画素のみを用いることで、特に評価式としてSSDを用いてコストを算出してコストボリュームを生成する際に発生する「領域が太る現象」を抑制する効果がある。
Hereinafter, a case where the cost volume filter processing unit 54 according to the present embodiment performs edge holding type smoothing filter processing by CLMF (Cross-based Local Multipoint Filter) described in Reference Document 2 will be described as an example.
In the present embodiment, the cost volume smoothing filter processing by CLMF treats each cost map as a two-dimensional image with the cost as a pixel value, and performs two-dimensional spatial filter processing for each cost map. Further, when the smoothing filter processing is performed on the cost for each pixel with reference to the cost for the peripheral pixels of the pixel, the color image for the reference viewpoint is used as a guide image for identifying the edge region of the subject. Only the cost of a peripheral pixel that is similar in color to the target pixel of the smoothing filter process (the color difference is equal to or smaller than a predetermined threshold) is extracted and used for the smoothing filter process. An area where the parallax is greatly different corresponds to an edge portion of the subject, that is, an area where separate subjects are photographed adjacent to each other, and an edge ( This is used as reference information for maintaining the contour. By using only similar color pixels for the smoothing filter processing, there is an effect of suppressing the “region fattening phenomenon” that occurs when the cost volume is generated by calculating the cost using SSD as an evaluation formula.

ここで、図6を参照して、CLMFによる平滑化フィルタ処理について説明する。
図6において、矩形の画像領域であるカーネルWは、中心画素pについてのコストを平滑化フィルタ処理する際に参照する周辺画素の最大領域である。このカーネルWから、中心画素pと色が類似する画像領域としてカーネルΩを抽出する。
Here, the smoothing filter processing by CLMF will be described with reference to FIG.
In FIG. 6, a kernel W p that is a rectangular image region is a maximum region of peripheral pixels that are referred to when the cost for the center pixel p is subjected to the smoothing filter process. From this kernel W p, the central pixel p and colors to extract the kernel Omega p as image regions similar.

カーネルΩを抽出するために、まず、画素pから垂直方向(v軸方向)に配列する画素列について、画素pから上下方向のそれぞれについて順次に、画素pと色が類似するかどうかを判定する。このとき、カラー画像Ir,Lを判定用のガイド画像として用い、当該ガイド画像における画素pと、各周辺画素との色差が所定の閾値以下の場合に色が類似すると判定する。
画素pから色が類似する画素を上下方向に順次に判定し、カーネルWの範囲内で色が類似しない画素が検出されるまで判定を続ける。そして、最後に色が類似する画素を、カーネルΩの上端及び下端とする。
To extract the kernel Omega p, first, the pixel lines arranged in the vertical direction (v direction) from the pixel p, sequentially for each of the vertical direction from the pixel p, determine whether the pixel p and the color is similar To do. At this time, the color images Ir , L are used as a guide image for determination, and it is determined that the colors are similar when the color difference between the pixel p in the guide image and each peripheral pixel is equal to or less than a predetermined threshold.
Sequentially determining a pixel color from a pixel p is similar to the vertical direction, continued determination to the pixel color is not similar within the kernel W p is detected. Finally, pixels having similar colors are defined as the upper and lower ends of the kernel Ωp.

次に、前記した上端から下端の範囲内で、画素pの垂直方向に配列する画素q(図6において、実線の矢印線で示した範囲の各画素)から、左右方向(u軸方向)に配列する画素について順次に、画素qと色が類似するかどうかを判定する。画素qから色が類似する画素を左右方向に順次に判定し、カーネルWの範囲内で色が類似しない画素が検出されるまで判定を続ける。そして、最後に色が類似する画素を、当該画素qの位置におけるカーネルΩの左端及び右端とする。
これを、すべての画素qについて行うことで、図6に破線で示したように、カーネルΩを抽出することができる。
Next, in the horizontal direction (u-axis direction) from the pixel q (each pixel in the range indicated by the solid arrow line in FIG. 6) arranged in the vertical direction of the pixel p within the range from the upper end to the lower end. It is sequentially determined whether or not the color of the pixel q is similar for the pixels to be arranged. Sequentially determining a pixel color from the pixel q is similar to the left-right direction, continued determination to the pixel color is not similar within the kernel W p is detected. Finally, the pixels having similar colors are defined as the left end and the right end of the kernel Ωp at the position of the pixel q.
This, by performing for every pixel q, as indicated by a broken line in FIG. 6, it is possible to extract the kernel Omega p.

また、CLMFでは、フィルタ処理後の画像Sは、ガイド画像Gと線形の関係にあると仮定する。そこで、係数a,bを用いて、フィルタ処理後の画像Sを、式(7)のように表わすこととする。   In CLMF, it is assumed that the image S after the filter process has a linear relationship with the guide image G. Therefore, the image S after the filter processing is expressed as shown in Expression (7) using the coefficients a and b.

Figure 0006285686
Figure 0006285686

式(7)において、添字kはカーネルΩに属する各画素を示し、係数a,bは、式(8)によって算出される。 In the formula (7), the subscript k denotes the respective pixels belonging to the kernel Omega p, coefficient a k, b k is calculated by the equation (8).

Figure 0006285686
Figure 0006285686

式(8)において、Ωは画素kを中心画素として、前記したΩを抽出するのと同様の手順で抽出されるカーネル(画像領域)を示す。また、μ、σ 、Z’及びεは、それぞれカーネルΩにおけるガイド画像Gの平均、分散、カーネルΩにおけるフィルタ処理の対象画像であるコストマップの平均、及び正則化項を示す。また、|Ω|は、カーネルΩに属する画素数を示す。 In Expression (8), Ω k indicates a kernel (image region) extracted by the same procedure as that for extracting Ω p with the pixel k as the central pixel. Further, mu k, is σ k 2, Z 'k and epsilon, the average of the guide image G in kernel Omega k respectively, dispersion, average cost map a target image filtering in kernel Omega k, and the regularization term Show. | Ω k | indicates the number of pixels belonging to the kernel Ω k .

また、フィルタ処理後の画像S(すなわち、画素pにおけるフィルタ処理後のコスト)は、式(9)のように近似することができる。 The image S p the filtered (i.e., the cost of post-filtering in pixel p) can be approximated as equation (9).

Figure 0006285686
Figure 0006285686

コストボリュームフィルタ処理部54は、以上に手順によって、コストボリュームのすべてのコストマップについて、エッジ保持型の平滑化フィルタ処理を行う。   The cost volume filter processing unit 54 performs the edge holding type smoothing filter processing for all cost maps of the cost volume according to the above procedure.

図5に戻って、視差画像生成装置1Aの構成について説明を続ける。
視差画像生成処理部6は、コストボリュームフィルタ処理部54から平滑化フィルタ処理されたコストボリュームを入力し、入力したコストボリュームを用いて画素毎に視差を定めた視差画像を生成するものである。また、視差画像生成処理部6は生成した視差画像を、視差画像生成装置1Aの出力として外部に出力する。
視差画像生成処理部6による視差画像生成処理の手順は、第1実施形態における視差画像生成処理部6と同様であるから、説明は省略する。
Returning to FIG. 5, the description of the configuration of the parallax image generating device 1A will be continued.
The parallax image generation processing unit 6 receives the cost volume that has been subjected to the smoothing filter processing from the cost volume filter processing unit 54, and generates a parallax image in which parallax is determined for each pixel using the input cost volume. Further, the parallax image generation processing unit 6 outputs the generated parallax image to the outside as an output of the parallax image generation device 1A.
Since the procedure of the parallax image generation processing by the parallax image generation processing unit 6 is the same as that of the parallax image generation processing unit 6 in the first embodiment, the description thereof is omitted.

[視差画像生成システムの動作]
次に、図7を参照(適宜図5参照)して、第2実施形態に係る視差画像生成システム100Aの動作について説明する。
第2実施形態に係る視差画像生成システム100Aによる視差画像生成において、赤外線パターンを照射するステップS21からコストボリュームを統合するステップS27までは、図4に示した第1実施形態に係る視差画像生成システム100による視差画像生成におけるステップS11からステップS17までと同様であるから、説明は省略する。
[Operation of parallax image generation system]
Next, the operation of the parallax image generation system 100A according to the second embodiment will be described with reference to FIG.
In the parallax image generation by the parallax image generation system 100A according to the second embodiment, from the step S21 of irradiating the infrared pattern to the step S27 of integrating the cost volume, the parallax image generation system according to the first embodiment shown in FIG. Since this is the same as Step S11 to Step S17 in the parallax image generation by 100, description thereof will be omitted.

ステップS27の後、視差画像生成システム100Aは、コストボリュームフィルタ処理部54によって、ステップS27で統合されたコストボリュームについて、ステップS24で平行化した基準視点(左視点)についてのカラー画像をガイド画像として、コストマップ毎にエッジ保持型の平滑化フィルタ処理を行う(ステップS28)。   After step S27, the parallax image generation system 100A uses, as the guide image, the color image for the reference viewpoint (left viewpoint) parallelized in step S24 for the cost volume integrated in step S27 by the cost volume filter processing unit 54. Then, an edge holding type smoothing filter process is performed for each cost map (step S28).

そして、視差画像生成システム100Aは、視差画像生成処理部6によって、ステップS28で平滑化フィルタ処理したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS29)。
以上の手順により、視差画像生成システム100Aは、視差画像を生成することができる。
Then, the parallax image generation system 100A generates a parallax image by selecting the parallax that gives the minimum cost for each pixel for the cost volume that has been subjected to the smoothing filter process in step S28 by the parallax image generation processing unit 6. S29).
Through the above procedure, the parallax image generation system 100A can generate a parallax image.

本実施形態では、視差画像生成処理(ステップS29)を行う前に、コストボリュームに対してエッジ保持型の平滑化フィルタ処理を行うため、特に被写体の輪郭近傍での視差推定精度を向上することができる。   In the present embodiment, since the edge holding type smoothing filter process is performed on the cost volume before the parallax image generation process (step S29), the parallax estimation accuracy particularly in the vicinity of the contour of the subject can be improved. it can.

<第3実施形態>
[視差画像生成システムの構成]
次に、図8及び図2(b)を参照して、本発明の第3実施形態に係る視差画像生成システムについて説明する。
図8に示すように、第3実施形態に係る視差画像生成システム100Bは、図5に示した第2実施形態に係る視差画像生成システム100Aに対して、撮影装置3に代えて撮影装置3Bを備えることと、視差画像生成装置1Aに代えて視差画像生成装置1Bを備えることとが異なる。また、視差画像生成装置1Bは、視差画像生成装置1Aに対して、画像変換部4に代えて画像変換部4Bを備えることと、コストボリューム生成部5Aに代えてコストボリューム生成部5Bを備えることとが異なる。
<Third Embodiment>
[Configuration of parallax image generation system]
Next, a parallax image generation system according to the third embodiment of the present invention will be described with reference to FIG. 8 and FIG.
As shown in FIG. 8, the parallax image generation system 100B according to the third embodiment is different from the parallax image generation system 100A according to the second embodiment shown in FIG. The provision differs from the provision of the parallax image generation device 1B instead of the parallax image generation device 1A. Further, the parallax image generation device 1B includes an image conversion unit 4B instead of the image conversion unit 4 and a cost volume generation unit 5B instead of the cost volume generation unit 5A with respect to the parallax image generation device 1A. Is different.

第3実施形態に係る視差画像生成システム100Bは、撮影装置3Bとして、第1実施形態及び第2実施形態の撮影装置3における2台の赤外線カラーカメラ31,32に代えて、赤外線ステレオ画像を撮影するための2台の赤外線カメラ33,34と、カラーステレオ画像を撮影するための2台のカラーカメラ35,36とを備えている。同光軸で赤外線画像とカラー画像とを撮影できるが高価な赤外線カラーカメラ31,32の代わりに、赤外線画像を撮影するカメラとカラー画像を撮影するカメラとを別個に備えることにより、安価に撮影装置3Bを構成することができる。   The parallax image generation system 100B according to the third embodiment shoots an infrared stereo image as the imaging device 3B instead of the two infrared color cameras 31 and 32 in the imaging device 3 of the first embodiment and the second embodiment. Two infrared cameras 33 and 34 for photographing, and two color cameras 35 and 36 for photographing color stereo images. Infrared images and color images can be taken with the same optical axis, but instead of expensive infrared color cameras 31 and 32, a camera for taking infrared images and a camera for taking color images are separately provided, so that it can be taken at low cost. The apparatus 3B can be configured.

また、本実施形態では、赤外線画像の撮影とカラー画像の撮影とを光軸の異なる別個のカメラで撮影するため、カラーカメラ35で撮影したカラー画像とカラーカメラ36で撮影したカラー画像との光軸を平行化することに加えて、それぞれのカラー画像に対応する赤外線カメラ33で撮影した赤外線画像及び赤外線カメラ34で撮影した赤外線画像と光学主点を合わせるように、画像座標を変換する必要がある。そのために、画像平行化処理部42の代わりに、画像座標変換処理部43と、画像座標変換処理部44とを備え、画像座標変換処理部43によって、カラーカメラ35で撮影したカラー画像を、赤外線カメラ33で撮影して平行化した基準画像となる赤外線画像と光軸を合わせるとともに、画像座標変換処理部44によって、カラーカメラ36で撮影したカラー画像を、赤外線カメラ34で撮影して平行化した他方の赤外線画像と光軸を合わせるものである。   In the present embodiment, since the infrared image and the color image are captured by separate cameras having different optical axes, the light of the color image captured by the color camera 35 and the color image captured by the color camera 36 is captured. In addition to collimating the axes, it is necessary to convert the image coordinates so that the infrared image captured by the infrared camera 33 corresponding to each color image and the infrared image captured by the infrared camera 34 are aligned with the optical principal point. is there. For this purpose, an image coordinate conversion processing unit 43 and an image coordinate conversion processing unit 44 are provided in place of the image parallelization processing unit 42, and a color image captured by the color camera 35 is converted into an infrared ray by the image coordinate conversion processing unit 43. The optical axis is aligned with the infrared image, which is the reference image captured by the camera 33 and parallelized, and the color image captured by the color camera 36 is captured by the infrared camera 34 and parallelized by the image coordinate conversion processing unit 44. The other infrared image is aligned with the optical axis.

画像座標変換処理部43及び画像座標変換処理部44から出力されるカラー画像の組は、平行化され、かつ赤外線ステレオ画像と光軸が一致するように座標変換されたカラーステレオ画像である。但し、平行化及び光学主点の移動を伴う画像座標変換処理は、被写体の奥行方向の距離(もしくは変換先の赤外線ステレオ画像上での視差)に依存するため、カラーカメラ35及びカラーカメラ36で撮影されたカラー画像の画像座標変換は、赤外線ステレオ画像上での視差を一律に仮定し、仮定した視差毎に行う必要がある。
本実施形態では、視差毎に画像座標変換されたカラー画像を用いてコストボリュームを算出するために、第1実施形態及び第2実施形態におけるコストボリューム算出部52の代わりに、コストボリューム算出部52Bを備えるものである。
A set of color images output from the image coordinate conversion processing unit 43 and the image coordinate conversion processing unit 44 is a color stereo image that has been parallelized and coordinate-converted so that the optical axis coincides with the infrared stereo image. However, the image coordinate conversion process that involves parallelization and movement of the optical principal point depends on the distance in the depth direction of the subject (or the parallax on the infrared stereo image of the conversion destination), and therefore the color camera 35 and the color camera 36 The image coordinate conversion of the captured color image must be performed for each assumed parallax, assuming that the parallax on the infrared stereo image is uniformly assumed.
In the present embodiment, in order to calculate the cost volume using the color image obtained by image coordinate conversion for each parallax, the cost volume calculation unit 52B is used instead of the cost volume calculation unit 52 in the first embodiment and the second embodiment. Is provided.

他の構成については、第2実施形態に係る視差画像生成システム100Aと同様であるから、同じ構成要素については、同じ符号を付して説明は適宜に省略する。
以下、主として第2実施形態と異なる構成について説明する。
Since other configurations are the same as those of the parallax image generation system 100A according to the second embodiment, the same components are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
Hereinafter, a configuration different from the second embodiment will be mainly described.

撮影装置3Bは、前記したように、2台の赤外線カメラ33,34と、2台のカラーカメラ35,36とを備えている。
図2(b)に示すように、2台の赤外線カメラ33,34は、赤外線パターン照射機2を挟んで、水平方向(X軸方向)に並置されている。また、2台のカラーカメラ35,36は、それぞれX軸方向に対応する視点の画像を撮影する赤外線カメラ33,34の上方向(Y軸方向)に配置されている。赤外線カメラ33,34及びカラーカメラ35,36は、互いに略光軸が平行となるように配置されることが好ましい。また、赤外線カメラ33及びカラーカメラ35と、赤外線カメラ34及びカラーカメラ36とは、それぞれできる限り近い視点から撮影するように近傍に配置することが好ましい。これによって、画像平行化処理部41及び画像座標変換処理部43,44によって座標変換される変換量が小さくなるため、精度よく光軸を合わせた画像を算出することができる。
As described above, the photographing apparatus 3B includes the two infrared cameras 33 and 34 and the two color cameras 35 and 36.
As shown in FIG. 2B, the two infrared cameras 33 and 34 are juxtaposed in the horizontal direction (X-axis direction) with the infrared pattern irradiator 2 interposed therebetween. Further, the two color cameras 35 and 36 are respectively arranged in the upward direction (Y-axis direction) of the infrared cameras 33 and 34 that capture images of viewpoints corresponding to the X-axis direction. The infrared cameras 33 and 34 and the color cameras 35 and 36 are preferably arranged so that their optical axes are substantially parallel to each other. Further, it is preferable that the infrared camera 33 and the color camera 35 and the infrared camera 34 and the color camera 36 are arranged in the vicinity so as to be photographed from viewpoints as close as possible. As a result, the amount of conversion by which the coordinate conversion is performed by the image parallelization processing unit 41 and the image coordinate conversion processing units 43 and 44 is reduced, so that an image in which the optical axes are aligned can be calculated with high accuracy.

また、カラーカメラ35,36は、赤外線パターン照射機2が照射する波長の赤外線をカットする赤外カットフィルタを備えることが好ましい。これによって、赤外線パターン照射の影響を受けることなくカラー画像を撮影することができる。
更にまた、本実施形態では、カラーカメラ35,36によって、可視光領域の画像としてRGBの3チャンネルからなるカラー画像を撮影するようにしたが、可視光領域のモノクロ画像、2チャンネルの画像又は4チャンネル以上の画像を撮影するようにしてもよい。
Moreover, it is preferable that the color cameras 35 and 36 are provided with the infrared cut filter which cuts the infrared rays of the wavelength which the infrared pattern irradiation machine 2 irradiates. As a result, a color image can be taken without being affected by infrared pattern irradiation.
Furthermore, in the present embodiment, a color image composed of three RGB channels is captured as an image in the visible light region by the color cameras 35 and 36, but a monochrome image in the visible light region, a two-channel image, or 4 You may make it image | photograph the image more than a channel.

赤外線カメラ33,34は、撮影した赤外線ステレオ画像を画像平行化処理部41に出力する。また、カラーカメラ35は、撮影したカラー画像を画像座標変換処理部43に出力し、カラーカメラ36は、撮影したカラー画像を画像座標変換処理部44に出力する。   The infrared cameras 33 and 34 output the captured infrared stereo image to the image parallelization processing unit 41. The color camera 35 outputs the captured color image to the image coordinate conversion processing unit 43, and the color camera 36 outputs the captured color image to the image coordinate conversion processing unit 44.

視差画像生成装置1Bは、画像変換部4Bと、コストボリューム生成部5Bと、視差画像生成処理部6とを備え、赤外線ステレオ画像及び可視光ステレオ画像と、これらの画像を撮影した赤外線カメラ33,34及びカラーカメラ35,36のカメラパラメータと、を用いて視差画像を生成する。   The parallax image generation device 1B includes an image conversion unit 4B, a cost volume generation unit 5B, and a parallax image generation processing unit 6, and includes an infrared stereo image and a visible light stereo image, and an infrared camera 33 that captures these images. 34 and the camera parameters of the color cameras 35 and 36 are used to generate a parallax image.

画像変換部4Bは、画像平行化処理部41と、画像座標変換処理部43,44とを備えて構成されている。
画像平行化処理部41は、第2実施形態と同様であるから、説明は省略する。
画像座標変換処理部43は、カラーカメラ35からカラー画像を入力するとともに、カラーカメラ35についてのカメラパラメータと、赤外線カメラ33についてのカメラパラメータとを入力する。画像座標変換処理部43は、入力したカラー画像を、カラーカメラ35のカメラパラメータと赤外線カメラ33のカメラパラメータとを用いて、画像平行化処理部41によって平行化される赤外線カメラ33により撮影された赤外線画像と同じ光軸の画像座標系に変換する。画像座標変換処理部43は、画像座標を変換したカラー画像を、基準視点である左視点のカラー画像としてコストボリューム算出部52Bに出力する。更に、画像座標変換処理部43は、画像座標を変換したカラー画像を、平滑化フィルタ処理のガイド画像としてコストボリュームフィルタ処理部54に出力する。
The image conversion unit 4B includes an image parallelization processing unit 41 and image coordinate conversion processing units 43 and 44.
Since the image parallelization processing unit 41 is the same as that of the second embodiment, description thereof is omitted.
The image coordinate conversion processing unit 43 inputs a color image from the color camera 35 and inputs camera parameters for the color camera 35 and camera parameters for the infrared camera 33. The image coordinate conversion processing unit 43 photographed the input color image by the infrared camera 33 that is parallelized by the image parallelization processing unit 41 using the camera parameters of the color camera 35 and the camera parameters of the infrared camera 33. Convert to the image coordinate system of the same optical axis as the infrared image. The image coordinate conversion processing unit 43 outputs the color image obtained by converting the image coordinates to the cost volume calculation unit 52B as the color image of the left viewpoint that is the reference viewpoint. Furthermore, the image coordinate conversion processing unit 43 outputs the color image obtained by converting the image coordinates to the cost volume filter processing unit 54 as a guide image for smoothing filter processing.

なお、各カメラパラメータの取得方法は、前記した第1実施形態と同様であるから、詳細な説明は省略する。なお、本実施形態では、赤外線カメラ33とカラーカメラ35とは光軸が異なるため、それぞれカメラについてカメラキャリブレーションを行ってカメラパラメータを取得するものとする。ここで、赤外線カメラ33については、撮影した赤外線画像をモノクロ画像として取り扱うことにより、画像解析手法を用いた従来のカメラキャリブレーションによりカメラパラメータを取得することができる。
また、赤外線カメラ34及びカラーカメラ36のカメラパラメータについても同様である。
The method for acquiring each camera parameter is the same as in the first embodiment described above, and detailed description thereof is omitted. In this embodiment, since the infrared camera 33 and the color camera 35 have different optical axes, camera calibration is performed for each camera to acquire camera parameters. Here, for the infrared camera 33, camera parameters can be acquired by conventional camera calibration using an image analysis method by handling the captured infrared image as a monochrome image.
The same applies to the camera parameters of the infrared camera 34 and the color camera 36.

画像座標変換処理部44は、カラーカメラ36からカラー画像を入力するとともに、カラーカメラ36についてのカメラパラメータと、赤外線カメラ34についてのカメラパラメータとを入力する。画像座標変換処理部44は、入力したカラー画像を、カラーカメラ36のカメラパラメータと赤外線カメラ34のカメラパラメータとを用いて、画像平行化処理部41によって平行化される赤外線カメラ34により撮影された赤外線画像と同じ光軸の画像座標系に変換する。画像座標変換処理部44は、画像座標を変換したカラー画像を、右視点のカラー画像としてコストボリューム算出部52Bに出力する。   The image coordinate conversion processing unit 44 inputs a color image from the color camera 36 and inputs camera parameters for the color camera 36 and camera parameters for the infrared camera 34. The image coordinate conversion processing unit 44 photographed the input color image by the infrared camera 34 that is parallelized by the image parallelization processing unit 41 using the camera parameters of the color camera 36 and the camera parameters of the infrared camera 34. Convert to the image coordinate system of the same optical axis as the infrared image. The image coordinate conversion processing unit 44 outputs the color image obtained by converting the image coordinates to the cost volume calculation unit 52B as a right viewpoint color image.

ここで、画像座標変換処理部43による画像座標変換処理について説明する。
画像座標変換処理部43は、カラーカメラ35によって撮影されたカラー画像を、赤外線カメラ33によって撮影された赤外線画像と同じ座標系で扱えるようにカラー画像を座標変換する。ここで、変換式は、視差dに依存するため、視差d毎に、すべての視差dに対応するカラー画像を算出する。
なお、すべての視差dとは、第1実施形態についての説明において、コストマップを算出するための視差dの範囲及び間隔と同じである。すなわち、視差dは、最小値「0」から視差画像生成装置1Bで生成する視差画像において視差として取り得る最大の値「N」までを、所定の間隔(例えば、「1」)毎に想定されるものとする。
Here, the image coordinate conversion processing by the image coordinate conversion processing unit 43 will be described.
The image coordinate conversion processing unit 43 performs coordinate conversion of the color image so that the color image captured by the color camera 35 can be handled in the same coordinate system as the infrared image captured by the infrared camera 33. Here, since the conversion formula depends on the parallax d, a color image corresponding to all the parallaxes d is calculated for each parallax d.
Note that all the parallaxes d are the same as the range and interval of the parallax d for calculating the cost map in the description of the first embodiment. That is, the parallax d is assumed every predetermined interval (for example, “1”) from the minimum value “0” to the maximum value “N” that can be taken as parallax in the parallax image generated by the parallax image generation device 1B. Shall be.

基準視点である左視点についての平行化した赤外線画像の位置pの画像座標(u,v)における視差をdとすると、位置pの斉次座標は、式(10)によって算出することができる。 When the image coordinates (u r, v r) of the position p r of the collimated infrared image for the left viewpoint is the reference viewpoint disparity in the d, homogeneous coordinates of the position p r is calculated by Equation (10) be able to.

Figure 0006285686
Figure 0006285686

式(10)において、fは2台の赤外線カメラ33,34のカメラレンズの画素ピッチを単位とする焦点距離を示し、Bは2台の赤外線カメラ33,34の光学主点間の距離を示し、(C,C)は、赤外線画像の中心点の画像座標を示す。各パラメータにおいて、添字rは平行化画像についてのパラメータであることを示す。また、右肩の「T」は、転置行列を示す。 In Expression (10), f represents the focal length in units of pixel pitch of the camera lenses of the two infrared cameras 33 and 34, and B represents the distance between the optical principal points of the two infrared cameras 33 and 34. , (C u , C v ) indicate the image coordinates of the center point of the infrared image. In each parameter, the subscript r indicates a parameter for the parallelized image. Further, “T” on the right shoulder indicates a transposed matrix.

ここで、内部パラメータ行列をF、回転行列をR、並進ベクトルをTとすると、赤外線画像において位置pに撮影された被写体上の点Pの世界座標は、式(11)のように表わされる。更に、当該被写体上の点Pに対応するカラー画像中の画像座標(u,v)は、式(12)のように表わされる。なお、式(12)において、添字cは、カラー画像についてのパラメータであることを示す。 Here, the internal parameter matrix F, the rotation matrix R, when the translation vector T, the world coordinates of the point P on the object photographed in the position p r in the infrared image is represented by the equation (11) . Further, the image coordinates (u c , v c ) in the color image corresponding to the point P on the subject are expressed as in Expression (12). In equation (12), the subscript c indicates a parameter for a color image.

Figure 0006285686
Figure 0006285686

平行化された基準視点における赤外線画像の各画素について、カラー画像において対応する画素の画像座標(u,v)を式(11)及び式(12)を用いて算出することにより、視差がdであると仮定したときのカラー画像に変換することができる。
画像座標変換処理部43は、想定するすべての視差dについて、カラー画像を変換する。
For each pixel of the infrared image at the parallel reference viewpoint, the parallax is calculated by calculating the image coordinates (u c , v c ) of the corresponding pixel in the color image using the equations (11) and (12). It can be converted to a color image when d is assumed.
The image coordinate conversion processing unit 43 converts color images for all assumed parallaxes d.

画像座標変換処理部44は、左視点の赤外線画像及びカラー画像とこれらの画像を撮影したカメラのカメラパラメータとに代えて、右視点の赤外線画像及びカラー画像とこれのら画像を撮影したカメラのカメラパラメータとを用いて、同様の手順で、想定するすべての視差dについて、平行化された右視点の赤外線画像の座標面に変換したカラー画像を算出する。   The image coordinate conversion processing unit 44 replaces the infrared image and color image of the left viewpoint with the camera parameters of the camera that captured these images, and the infrared image and color image of the right viewpoint and the camera that captured these images. Using the camera parameters, a color image converted to the coordinate plane of the parallelized right viewpoint infrared image is calculated for all assumed parallaxes in the same procedure.

コストボリューム生成部5Bは、コストボリューム算出部51,52Bと、コストボリューム統合部53と、コストボリュームフィルタ処理部54とを備える。   The cost volume generation unit 5B includes cost volume calculation units 51 and 52B, a cost volume integration unit 53, and a cost volume filter processing unit 54.

コストボリューム算出部52Bは、画像座標変換処理部43から左視点のカラー画像を、画像座標変換処理部44から右視点のカラー画像を、それぞれ入力し、これらのカラー画像の組からなるカラーステレオ画像について、視差d毎にコストマップを算出することで、これらのコストマップの配列であるコストボリュームを算出する。
コストボリューム算出部52Bは、算出したカラーステレオ画像についてのコストボリュームを、コストボリューム統合部53に出力する。
The cost volume calculation unit 52B inputs the color image of the left viewpoint from the image coordinate conversion processing unit 43 and the color image of the right viewpoint from the image coordinate conversion processing unit 44, respectively, and a color stereo image including a set of these color images. Is calculated for each parallax d, a cost volume that is an array of these cost maps is calculated.
The cost volume calculation unit 52B outputs the cost volume for the calculated color stereo image to the cost volume integration unit 53.

なお、コストボリューム算出部52Bに入力されるカラーステレオ画像は、視差d毎に生成されているため、コストマップを算出する際には、対応する視差dのカラーステレオ画像を用いて各画素についてのコストを算出する。   Since the color stereo image input to the cost volume calculation unit 52B is generated for each parallax d, when calculating the cost map, the color stereo image of the corresponding parallax d is used for each pixel. Calculate the cost.

コストボリュームフィルタ処理部54は、コストボリューム統合部53から統合されたコストボリュームを入力するとともに、画像座標変換処理部43から平行化された基準視点の赤外線画像と同じ光軸の画像に変換されたカラー画像をガイド画像として入力する。そして、コストボリュームフィルタ処理部54は、前記した第2実施形態におけるコストボリュームフィルタ処理部54と同様にして、コストボリュームにエッジ保持型の平滑化フィルタ処理を施し、フィルタ処理を施したコストボリュームを視差画像生成処理部6に出力する。   The cost volume filter processing unit 54 inputs the cost volume integrated from the cost volume integration unit 53 and is converted from the image coordinate conversion processing unit 43 into an image of the same optical axis as the parallel infrared image of the reference viewpoint. A color image is input as a guide image. Then, the cost volume filter processing unit 54 performs the edge holding type smoothing filter processing on the cost volume in the same manner as the cost volume filter processing unit 54 in the second embodiment described above, and the filtered cost volume is obtained. The data is output to the parallax image generation processing unit 6.

その他の構成要素は、第2実施形態に係る視差画像生成システム100と同様であるから、説明は省略する。
なお、本実施形態において、第1実施形態と同様に、視差画像生成装置1Bが、コストボリュームフィルタ処理部54を備えずに、コストボリューム統合部53によって算出したコストボリュームを用いて、視差画像生成処理部6によって視差画像を生成するように構成してもよい。
Since other components are the same as those of the parallax image generation system 100 according to the second embodiment, description thereof will be omitted.
In the present embodiment, as in the first embodiment, the parallax image generation device 1B does not include the cost volume filter processing unit 54, and uses the cost volume calculated by the cost volume integration unit 53 to generate the parallax image. You may comprise so that a parallax image may be produced | generated by the process part 6. FIG.

[視差画像生成システムの動作]
次に、図9を参照(適宜図8参照)して、第3実施形態に係る視差画像生成システム100Bの動作について説明する。
赤外線パターンを照射するステップS31は、第1実施形態のステップS11(図4参照)と同様であるから、説明は省略する。
[Operation of parallax image generation system]
Next, the operation of the parallax image generation system 100B according to the third embodiment will be described with reference to FIG. 9 (see FIG. 8 as appropriate).
Step S31 of irradiating the infrared pattern is the same as step S11 (see FIG. 4) of the first embodiment, and thus description thereof is omitted.

次に、視差画像生成システム100Bは、2台の赤外線カメラ33,34によって赤外線ステレオ画像を撮影するとともに、2台のカラーカメラ35,36によってカラーステレオ画像を撮影する(ステップS32)。
次に、視差画像生成システム100Bは、画像平行化処理部41によって、ステップS32で撮影した赤外線ステレオ画像を平行化処理する(ステップS33)。また、視差画像生成システム100Bは、画像座標変換処理部43によって、ステップS32でカラーカメラ35により撮影したカラー画像を、ステップS33で平行化した基準視点(左視点)の赤外線画像の光軸と合うように画像座標の変換処理を行うとともに、画像座標変換処理部44によって、ステップS32でカラーカメラ36により撮影したカラー画像を、ステップS33で平行化した右視点の赤外線画像の光軸と合うように画像座標の変換処理を行う(ステップS34)。なお、ステップS33とステップS34とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax image generation system 100B captures an infrared stereo image with the two infrared cameras 33 and 34 and also captures a color stereo image with the two color cameras 35 and 36 (step S32).
Next, in the parallax image generation system 100B, the image parallelization processing unit 41 parallelizes the infrared stereo image captured in step S32 (step S33). Further, the parallax image generation system 100B matches the optical axis of the infrared image at the reference viewpoint (left viewpoint) obtained by parallelizing the color image captured by the color camera 35 in step S32 by the image coordinate conversion processing unit 43 in step S33. In this way, the image coordinate conversion process is performed, and the image coordinate conversion processing unit 44 matches the color image captured by the color camera 36 in step S32 with the optical axis of the right viewpoint infrared image parallelized in step S33. Image coordinate conversion processing is performed (step S34). Note that either step S33 or step S34 may be executed first or in parallel.

次に、視差画像生成システム100Bは、コストボリューム算出部51によって、ステップS33で平行化した赤外線ステレオ画像について、コストボリュームを算出する(ステップS35)。また、視差画像生成システム100Bは、コストボリューム算出部52Bによって、ステップS34で画像座標を変換したカラーステレオ画像について、コストボリュームを算出する(ステップS36)。なお、ステップS35とステップS36とは、何れを先に実行してもよく、並行して行うようにしてもよい。   Next, the parallax image generation system 100B calculates a cost volume for the infrared stereo image parallelized in step S33 by the cost volume calculation unit 51 (step S35). Further, the parallax image generation system 100B calculates a cost volume for the color stereo image whose image coordinates are converted in step S34 by the cost volume calculation unit 52B (step S36). Note that either step S35 or step S36 may be executed first or in parallel.

次に、視差画像生成システム100Bは、コストボリューム統合部53によって、ステップS35で算出した赤外線ステレオ画像についてのコストボリュームと、ステップS36で算出したカラーステレオ画像についてのコストボリュームとを、式(6)を用いて、視差毎及び画素毎にコストを重み付き加算することで、1つのコストボリュームに統合する(ステップS37)。   Next, the parallax image generation system 100B uses the cost volume integration unit 53 to calculate the cost volume for the infrared stereo image calculated in step S35 and the cost volume for the color stereo image calculated in step S36 using Equation (6). Is used to add the weights for each parallax and each pixel with a weight, thereby integrating them into one cost volume (step S37).

次に、視差画像生成システム100Bは、コストボリュームフィルタ処理部54によって、ステップS37で統合されたコストボリュームについて、ステップS34で画像座標変換した基準視点(左視点)についてのカラー画像をガイド画像として、視差d毎に、すなわちコストマップ毎にエッジ保持型の平滑化フィルタ処理を行う(ステップS38)。   Next, the parallax image generation system 100B uses, as a guide image, a color image for the reference viewpoint (left viewpoint) obtained by converting the image coordinates in step S34 for the cost volume integrated in step S37 by the cost volume filter processing unit 54. Edge-preserving smoothing filter processing is performed for each parallax d, that is, for each cost map (step S38).

そして、視差画像生成システム100Bは、視差画像生成処理部6によって、ステップS38で平滑化フィルタ処理したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS39)。
以上の手順により、視差画像生成システム100Bは、視差画像を生成することができる。
Then, the parallax image generation system 100B generates a parallax image by selecting the parallax that gives the minimum cost for each pixel for the cost volume smoothed by the parallax image generation processing unit 6 in step S38 (step S38). S39).
Through the above procedure, the parallax image generation system 100B can generate a parallax image.

本実施形態では、画像座標変換処理部43,44によって、カラーカメラ35,36で撮影したカラーステレオ画像を、平行化した赤外線ステレオ画像の光軸と一致するように画像座標を変換するため、安価な赤外線カメラ及びカラーカメラを用いて撮影した赤外線画像及びカラー画像から視差画像を生成することができる。   In the present embodiment, the image coordinate conversion processing units 43 and 44 convert the image coordinates of the color stereo image captured by the color cameras 35 and 36 so as to coincide with the optical axis of the parallelized infrared stereo image. A parallax image can be generated from an infrared image and a color image captured using a simple infrared camera and a color camera.

<第4実施形態>
[視差画像生成システムの構成]
次に、図10及び図2(c)を参照して、本発明の第4実施形態に係る視差画像生成システムについて説明する。
図10に示すように、第4実施形態に係る視差画像生成システム100Cは、図8に示した第3実施形態に係る視差画像生成システム100Bに対して、撮影装置3Bに代えて撮影装置3Cを備えることと、視差画像生成装置1Bに代えて視差画像生成装置1Cを備えることとが異なる。また、視差画像生成装置1Cは、視差画像生成装置1Bに対して、画像変換部4Bに代えて画像変換部4Cを備えることと、コストボリューム生成部5Bに代えてコストボリューム生成部5Cを備えることとが異なる。
<Fourth embodiment>
[Configuration of parallax image generation system]
Next, a parallax image generation system according to the fourth embodiment of the present invention will be described with reference to FIG. 10 and FIG.
As shown in FIG. 10, the parallax image generation system 100C according to the fourth embodiment is different from the parallax image generation system 100B according to the third embodiment shown in FIG. The provision differs from the provision of the parallax image generation device 1C instead of the parallax image generation device 1B. Further, the parallax image generation device 1C includes an image conversion unit 4C instead of the image conversion unit 4B and a cost volume generation unit 5C instead of the cost volume generation unit 5B with respect to the parallax image generation device 1B. Is different.

第4実施形態に係る視差画像生成システム100Cは、撮影装置3Cとして、赤外線ステレオ画像を撮影するための2台の赤外線カメラ33,34と、カラー画像を撮影するための1台のカラーカメラ35とを備えている。本実施形態では、コストボリュームは、赤外線ステレオ画像からのみ算出する。そして、平行化された基準視点の赤外線画像と同じ光軸の画像に座標変換したカラー画像をガイド画像として用いて、赤外線ステレオ画像について算出したコストボリュームをエッジ保持型の平滑化フィルタ処理をし、平滑化フィルタ処理したコストボリュームを用いて視差画像を生成する。   A parallax image generation system 100C according to the fourth embodiment includes two infrared cameras 33 and 34 for capturing an infrared stereo image, and one color camera 35 for capturing a color image as an imaging device 3C. It has. In the present embodiment, the cost volume is calculated only from the infrared stereo image. Then, using the color image coordinate-converted to the image of the same optical axis as the parallel infrared image of the reference viewpoint as a guide image, the cost volume calculated for the infrared stereo image is subjected to edge holding type smoothing filter processing, A parallax image is generated using the cost volume subjected to the smoothing filter process.

このため、本実施形態に係る視差画像生成システム100Cは、図8に示した第3実施形態に係る視差画像生成システム100Bに対して、撮影装置3Cに右視点用のカラーカメラ36を備えないことと、視差画像生成装置1Cの画像変換部4Cに右視点用の画像座標変換処理部44を備えないことと、視差画像生成装置1Cのコストボリューム生成部5Cにカラーステレオ画像についてのコストボリュームを算出するためのコストボリューム算出部52B及びコストボリューム統合部53を備えないこととが異なる。
第3実施形態と同様の構成要素については、同じ符号を付して説明は適宜に省略する。
For this reason, the parallax image generation system 100C according to the present embodiment does not include the color camera 36 for the right viewpoint in the photographing device 3C as compared to the parallax image generation system 100B according to the third embodiment illustrated in FIG. The image conversion unit 4C of the parallax image generation device 1C does not include the image coordinate conversion processing unit 44 for the right viewpoint, and the cost volume generation unit 5C of the parallax image generation device 1C calculates the cost volume for the color stereo image. The difference is that the cost volume calculation unit 52B and the cost volume integration unit 53 are not provided.
The same components as those in the third embodiment are denoted by the same reference numerals, and the description thereof is omitted as appropriate.

撮影装置3Cは、前記したように、2台の赤外線カメラ33,34と、1台のカラーカメラ35とを備えている。
図2(c)に示すように、2台の赤外線カメラ33,34は、赤外線パターン照射機2及び1台のカラーカメラ35を挟んで、水平方向(X軸方向)に並置されている。
赤外線パターン照射機2は、2台の赤外線カメラ33,34の間に配置することが好ましい。これによって、2台の赤外線カメラ33,34の何れから見ても、赤外線パターン照射機2から被写体に向かって照射される赤外線パターンが、被写体の一部の影になって投影されない領域、すなわちテクスチャが付与されない領域を低減することができる。
また、カラーカメラ35も、赤外線カメラ33,34の間に配置することが好ましい。更に、カラーカメラ35は、基準画像を撮影する赤外線カメラ33の近くに配置することが、より好ましい。
カラーカメラ35が撮影したカラー画像は、赤外線ステレオ画像についてのコストボリュームをエッジ保持型の平滑化フィルタ処理する際のガイド画像として用いるため、赤外線カメラ33,34と視点が近くなるように配置することで、基準視点の赤外線画像と光軸を合わせたカラー画像を高精度に算出することができる。
As described above, the photographing apparatus 3C includes two infrared cameras 33 and 34 and one color camera 35.
As shown in FIG. 2C, the two infrared cameras 33 and 34 are juxtaposed in the horizontal direction (X-axis direction) with the infrared pattern irradiator 2 and one color camera 35 interposed therebetween.
The infrared pattern irradiator 2 is preferably disposed between the two infrared cameras 33 and 34. As a result, when viewed from either of the two infrared cameras 33 and 34, the infrared pattern irradiated from the infrared pattern irradiator 2 toward the subject is a shadow of a part of the subject and is not projected, that is, the texture. It is possible to reduce a region where no is given.
The color camera 35 is also preferably disposed between the infrared cameras 33 and 34. Furthermore, it is more preferable that the color camera 35 is disposed near the infrared camera 33 that captures the reference image.
Since the color image taken by the color camera 35 is used as a guide image when the cost volume of the infrared stereo image is subjected to the edge holding type smoothing filter processing, the color image is arranged so that the viewpoint is close to the infrared cameras 33 and 34. Thus, a color image combining the infrared image of the reference viewpoint and the optical axis can be calculated with high accuracy.

赤外線カメラ33,34は、撮影した赤外線ステレオ画像を画像平行化処理部41に出力する。また、カラーカメラ35は、撮影したカラー画像を画像座標変換処理部43に出力する。   The infrared cameras 33 and 34 output the captured infrared stereo image to the image parallelization processing unit 41. The color camera 35 outputs the captured color image to the image coordinate conversion processing unit 43.

視差画像生成装置1Cは、画像変換部4Cと、コストボリューム生成部5Cと、視差画像生成処理部6とを備え、赤外線ステレオ画像及び可視光画像と、これらの画像を撮影した赤外線カメラ33,34及びカラーカメラ35のカメラパラメータと、を用いて視差画像を生成する。   The parallax image generation device 1 </ b> C includes an image conversion unit 4 </ b> C, a cost volume generation unit 5 </ b> C, and a parallax image generation processing unit 6, and an infrared stereo image and a visible light image, and infrared cameras 33 and 34 that capture these images. And the camera parameters of the color camera 35 are used to generate a parallax image.

画像変換部4Cは、画像平行化処理部41と、画像座標変換処理部43とを備えて構成されている。
画像平行化処理部41は、第2実施形態及び第3実施形態と同様であるから、説明は省略する。
画像座標変換処理部43は、第3実施形態と同様に、カラーカメラ35からカラー画像を入力するとともに、カラーカメラ35についてのカメラパラメータと、赤外線カメラ33についてのカメラパラメータとを入力し、入力したカラー画像を、カラーカメラ35のカメラパラメータと赤外線カメラ33のカメラパラメータとを用いて、画像平行化処理部41によって平行化される赤外線カメラ33により撮影された赤外線画像と同じ光軸の画像座標系に変換する。画像座標変換処理部43は、画像座標を変換したカラー画像を、平滑化フィルタ処理のガイド画像としてコストボリュームフィルタ処理部54に出力する。
The image conversion unit 4 </ b> C includes an image parallelization processing unit 41 and an image coordinate conversion processing unit 43.
The image parallelization processing unit 41 is the same as that in the second embodiment and the third embodiment, and a description thereof will be omitted.
As in the third embodiment, the image coordinate conversion processing unit 43 inputs a color image from the color camera 35, and inputs and inputs camera parameters for the color camera 35 and camera parameters for the infrared camera 33. An image coordinate system having the same optical axis as that of the infrared image captured by the infrared camera 33 parallelized by the image parallelization processing unit 41 using the camera parameters of the color camera 35 and the camera parameters of the infrared camera 33. Convert to The image coordinate conversion processing unit 43 outputs the color image obtained by converting the image coordinates to the cost volume filter processing unit 54 as a guide image for smoothing filter processing.

コストボリューム算出部51は、画像平行化処理部41から平行化された赤外線ステレオ画像を入力し、当該赤外線ステレオ画像についてコストボリュームを算出する。コストボリューム算出部51は、算出したコストボリュームをコストボリュームフィルタ処理部54に出力する。   The cost volume calculation unit 51 inputs the parallel infrared stereo image from the image parallelization processing unit 41 and calculates the cost volume for the infrared stereo image. The cost volume calculation unit 51 outputs the calculated cost volume to the cost volume filter processing unit 54.

コストボリュームフィルタ処理部54は、コストボリューム算出部51から赤外線ステレオ画像についてのコストボリュームを入力するとともに、画像座標変換処理部43から平行化された基準視点の赤外線画像と同じ光軸の画像に座標変換されたカラー画像をガイド画像として入力する。そして、コストボリュームフィルタ処理部54は、前記した第2実施形態及び第3実施形態におけるコストボリュームフィルタ処理部54と同様にして、コストボリュームにエッジ保持型の平滑化フィルタ処理を施し、平滑化フィルタ処理を施したコストボリュームを視差画像生成処理部6に出力する。   The cost volume filter processing unit 54 inputs the cost volume for the infrared stereo image from the cost volume calculation unit 51 and coordinates the image with the same optical axis as the reference viewpoint infrared image parallelized from the image coordinate conversion processing unit 43. The converted color image is input as a guide image. Then, the cost volume filter processing unit 54 performs the edge holding type smoothing filter processing on the cost volume in the same manner as the cost volume filter processing unit 54 in the second embodiment and the third embodiment described above. The processed cost volume is output to the parallax image generation processing unit 6.

その他の構成要素は、第3実施形態に係る視差画像生成システム100Bと同様であるから、説明は省略する。   The other components are the same as those of the parallax image generation system 100B according to the third embodiment, and thus description thereof is omitted.

[視差画像生成システムの動作]
次に、図11を参照(適宜図10参照)して、第4実施形態に係る視差画像生成システム100Cの動作について説明する。
赤外線パターンを照射するステップS41は、第1実施形態のステップS11(図4参照)と同様であるから、説明は省略する。
[Operation of parallax image generation system]
Next, the operation of the parallax image generation system 100C according to the fourth embodiment will be described with reference to FIG. 11 (see FIG. 10 as appropriate).
Step S41 for irradiating the infrared pattern is the same as step S11 (see FIG. 4) of the first embodiment, and a description thereof will be omitted.

次に、視差画像生成システム100Cは、2台の赤外線カメラ33,34によって赤外線ステレオ画像を撮影するとともに、1台のカラーカメラ35によってカラー画像を撮影する(ステップS42)。
次に、視差画像生成システム100Cは、画像平行化処理部41によって、ステップS42で撮影した赤外線ステレオ画像を平行化処理する(ステップS43)。また、視差画像生成システム100Cは、画像座標変換処理部43によって、ステップS42でカラーカメラ35により撮影したカラー画像を、ステップS43で平行化した基準視点(左視点)の赤外線画像の光軸と合うように画像座標の変換処理を行う(ステップS44)。なお、ステップS43とステップS44とは、何れを先に実行してもよく、並行して行うようにしてもよい。
Next, the parallax image generation system 100C captures an infrared stereo image with the two infrared cameras 33 and 34 and also captures a color image with the single color camera 35 (step S42).
Next, in the parallax image generation system 100C, the image parallelization processing unit 41 parallelizes the infrared stereo image captured in step S42 (step S43). In addition, the parallax image generation system 100C matches the optical axis of the infrared image at the reference viewpoint (left viewpoint) obtained by collimating the color image captured by the color camera 35 in step S42 with the image coordinate conversion processing unit 43 in step S43. In this way, image coordinate conversion processing is performed (step S44). Note that either step S43 or step S44 may be executed first or in parallel.

次に、視差画像生成システム100Cは、コストボリューム算出部51によって、ステップS43で平行化した赤外線ステレオ画像について、コストボリュームを算出する(ステップS45)。   Next, in the parallax image generation system 100C, the cost volume calculation unit 51 calculates the cost volume for the infrared stereo image parallelized in step S43 (step S45).

次に、視差画像生成システム100Cは、コストボリュームフィルタ処理部54によって、ステップS45で算出したコストボリュームについて、ステップS44で基準視点(左視点)の画像に変換したカラー画像をガイド画像として、コストマップ毎にエッジ保持型の平滑化フィルタ処理を行う(ステップS46)。   Next, the parallax image generation system 100C uses the cost volume calculated by the cost volume filter processing unit 54 in step S45 to convert the cost volume into an image of the reference viewpoint (left viewpoint) in step S44, and uses the cost map as a guide image. An edge-holding type smoothing filter process is performed every time (step S46).

そして、視差画像生成システム100Cは、視差画像生成処理部6によって、ステップS46で平滑化フィルタ処理したコストボリュームについて、画素毎に最小コストを与える視差を選択することで、視差画像を生成する(ステップS47)。
以上の手順により、視差画像生成システム100Cは、視差画像を生成することができる。
Then, the parallax image generation system 100C generates a parallax image by selecting the parallax that gives the minimum cost for each pixel for the cost volume smoothed by the parallax image generation processing unit 6 in step S46 (step S46). S47).
Through the above procedure, the parallax image generation system 100C can generate a parallax image.

本実施形態では、赤外線パターン照射機2によって赤外線パターンのテクスチャを被写体に付与し、テクスチャが付与された被写体を撮影した赤外線ステレオ画像についてのコストボリュームに基づいて視差画像を生成するため、本来テクスチャを有さない被写体についても精度よく視差を推定することができる。また、コストボリュームを、カラー画像をガイド画像として用いたエッジ保持型の平滑化フィルタ処理するため、本来テクスチャを有する領域についても、精度よく視差を推定することができる。   In this embodiment, the texture of the infrared pattern is given to the subject by the infrared pattern illuminator 2, and the parallax image is generated based on the cost volume for the infrared stereo image obtained by photographing the subject to which the texture is given. It is possible to accurately estimate the parallax even for a subject that does not exist. In addition, since the cost volume is subjected to an edge-holding smoothing filter process using a color image as a guide image, the parallax can be accurately estimated even for an area that originally has a texture.

<第5実施形態>
[視差画像生成システムの構成]
次に、図12を参照して、本発明の第5実施形態に係る視差画像システムについて説明する。
図12に示す第5実施形態に係る視差画像生成システム100Dは、図5に示した第2実施形態に係る視差画像生成システム100Aにおいて、視差画像生成装置1Aに代えて視差画像生成装置1Dを備えるものである。また、視差画像生成装置1Dは、視差画像生成装置1Aにおいて、コストボリュームフィルタ処理部54を有するコストボリューム生成部5Aに代えて、コストボリュームフィルタ処理部54Dを有するコストボリューム生成部5Dを備えるものである。第5実施形態に係る視差画像生成システム100Dの他の構成については、第2実施形態に係る視差画像生成システム100Aと同様であるから、同じ符号を付して説明は省略する。
<Fifth Embodiment>
[Configuration of parallax image generation system]
Next, with reference to FIG. 12, the parallax image system which concerns on 5th Embodiment of this invention is demonstrated.
A parallax image generation system 100D according to the fifth embodiment shown in FIG. 12 includes a parallax image generation device 1D instead of the parallax image generation device 1A in the parallax image generation system 100A according to the second embodiment shown in FIG. Is. The parallax image generation device 1D includes a cost volume generation unit 5D having a cost volume filter processing unit 54D instead of the cost volume generation unit 5A having the cost volume filter processing unit 54 in the parallax image generation device 1A. is there. Since the other configuration of the parallax image generation system 100D according to the fifth embodiment is the same as that of the parallax image generation system 100A according to the second embodiment, the same reference numerals are given and description thereof is omitted.

第2実施形態におけるコストボリュームフィルタ処理部54(図5参照)は、2次元空間に広がりを有するカーネルΩ(図6参照)を用いてコストを平滑化するものである。ここで、時系列に連続する複数の視差画像(フレーム)で構成される視差映像に対して、視差画像毎に、すなわちフレーム毎に視差を推定すると、時間軸方向の視差の連続性が考慮されない。このため、フレーム毎に平滑化処理をして、時系列に連続する複数の視差画像を連続再生すると、視差映像にフリッカが生じることがある。そこで、本実施形態におけるコストボリュームフィルタ処理部54Dは、2次元空間に時間軸を加えた、3次元時空間に亘る平滑化フィルタ処理を行う。これによって、複数の視差画像を連続再生する際に、フリッカの発生を抑制することができるとともに、特に静止物についての奥行き推定精度を改善することができる。 The cost volume filter processing unit 54 (see FIG. 5) in the second embodiment smoothes the cost using a kernel Ω p (see FIG. 6) having a spread in a two-dimensional space. Here, if parallax is estimated for each parallax image, that is, for each frame, with respect to a parallax image composed of a plurality of parallax images (frames) continuous in time series, the continuity of parallax in the time axis direction is not considered. . For this reason, if smoothing processing is performed for each frame and a plurality of time-sequential parallax images are continuously reproduced, flicker may occur in the parallax image. Therefore, the cost volume filter processing unit 54D in the present embodiment performs a smoothing filter process over a three-dimensional space-time by adding a time axis to the two-dimensional space. Thereby, when a plurality of parallax images are continuously reproduced, the occurrence of flicker can be suppressed, and in particular, the depth estimation accuracy for a stationary object can be improved.

具体的には、本実施形態におけるコストボリュームフィルタ処理部54Dは、第2実施形態におけるコストボリュームフィルタ処理部54による2次元空間に広がりを有するカーネルを用いた平滑化フィルタ処理を、時間軸方向に拡張して、3次元時空間に広がりを有するカーネルを用いた平滑化フィルタ処理を行うようにするものである。
なお、本実施形態においては、画像変換部4、並びに、コストボリューム生成部5Dのコストボリューム算出部51,52及びコストボリューム統合部53は、それぞれフレーム毎に第2実施形態で説明した処理を行うものとする。そして、コストボリュームフィルタ処理部54Dは、平滑化フィルタ処理の対象となるフレームを中心として、時間軸方向について予め定めた範囲の複数のフレームについてのコストボリューム及びガイド画像を用いて、平滑化フィルタ処理を行う。
Specifically, the cost volume filter processing unit 54D in the present embodiment performs smoothing filter processing using a kernel having a two-dimensional space spread by the cost volume filter processing unit 54 in the second embodiment in the time axis direction. In this way, smoothing filter processing using a kernel having a spread in a three-dimensional space-time is performed.
In the present embodiment, the image conversion unit 4, and the cost volume calculation units 51 and 52 and the cost volume integration unit 53 of the cost volume generation unit 5D perform the processing described in the second embodiment for each frame. Shall. Then, the cost volume filter processing unit 54D uses the cost volume and the guide image for a plurality of frames in a predetermined range in the time axis direction around the frame that is the target of the smoothing filter processing, and performs the smoothing filter processing. I do.

以下、図12から図14を参照して、本実施形態におけるコストボリュームフィルタ処理部54Dによるコストボリュームの平滑化処理について順を追って説明する。
まず、2次元カーネルを用いたエッジ保持型の平滑化フィルタ処理について説明する。この平滑化フィルタ処理は、第2実施形態のコストボリュームフィルタ処理部54で行う平滑化フィルタ処理と同じものである。2次元の平滑化フィルタ処理としては、前記したように、参考文献2〜参考文献4に記載された手法を用いることができる。ここでは、適応型カーネルを用いた2次元の平滑化フィルタ処理として、参考文献2に記載されたCLMFを用いる場合について改めて説明する。
Hereinafter, the cost volume smoothing process performed by the cost volume filter processing unit 54D according to the present embodiment will be described in order with reference to FIGS.
First, edge holding type smoothing filter processing using a two-dimensional kernel will be described. This smoothing filter process is the same as the smoothing filter process performed by the cost volume filter processing unit 54 of the second embodiment. As described above, as the two-dimensional smoothing filter process, the methods described in Reference Document 2 to Reference Document 4 can be used. Here, the case where the CLMF described in Reference 2 is used as the two-dimensional smoothing filter processing using the adaptive kernel will be described again.

[適応型カーネル]
第2実施形態におけるコストボリューム統合部53から出力される1つのフレームについてのコストボリュームCは、前記したように、C(u,v,d)と表わすことができる。このコストボリュームCは、各視差dの2次元のコストマップCMjdがdの数だけ集まって構成された3次元配列で表わされる。本実施形態では、時系列に連続する複数のフレームについてのコストボリュームを用いて視差を推定するため、コストボリュームCは、C(u,v,d,t)のように、4次元配列で表わすことができる。ここで、tは時間を示すものであり、時刻やフレーム番号で示される。例えば、tがフレーム番号を示す場合において、平滑化フィルタ処理のために参照するフレーム数をFとすると、t=1〜Fの値をとるものである。
一方、各視差dのコストマップCMjdは、CMjd(u,v,t)となり、3次元配列で表わされる。また、ガイド画像もコストボリュームCに対応して複数のフレームを用いるため、平滑化フィルタ処理のカーネルも3次元となる。
[Adaptive kernel]
As described above, the cost volume C j for one frame output from the cost volume integration unit 53 in the second embodiment can be expressed as C j (u r , v r , d). The cost volume C j is represented by a three-dimensional array configured by collecting the two-dimensional cost maps CM jd of each parallax d by the number d. In this embodiment, since the parallax is estimated using the cost volume for a plurality of frames that are continuous in time series, the cost volume C j is 4 as C j (u r , v r , d, t). It can be represented by a dimensional array. Here, t indicates time, and is indicated by time and frame number. For example, when t indicates a frame number, if the number of frames referred to for the smoothing filter process is F, t = 1 to F is assumed.
On the other hand, cost map CM jd for each parallax d is, CM jd (u r, v r, t) , and the represented by three-dimensional array. In addition, since the guide image uses a plurality of frames corresponding to the cost volume C j , the smoothing filter processing kernel is also three-dimensional.

図13は、平滑化フィルタ処理の2次元カーネルの例を示したものである。図13において、x軸が水平方向を示し、y軸方向が垂直方向を示し、各格子が画素を示している。なお、図13におけるx軸及びy軸は、それぞれ図6におけるu軸及びv軸に相当するものである。
矩形領域であるカーネルWは、平滑化フィルタ処理を行う際に参照される可能性がある最大の画素領域である。このカーネルWから、中心画素pと色が類似する画素領域が、適応型カーネルΩとして抽出される。
また、図13に示した例では、ガイド画像上において、中央部の網掛けを施した領域と、その他の周辺領域とで色相が異なっていることを示している。例えば、網掛けを施した領域が青色の領域であり、その周辺領域である網掛けを施していない領域が黄色の領域である場合を示している。
FIG. 13 shows an example of a two-dimensional kernel for smoothing filter processing. In FIG. 13, the x-axis indicates the horizontal direction, the y-axis direction indicates the vertical direction, and each lattice indicates a pixel. Note that the x-axis and the y-axis in FIG. 13 correspond to the u-axis and the v-axis in FIG. 6, respectively.
The kernel W p that is a rectangular area is the largest pixel area that can be referred to when performing the smoothing filter process. From this kernel W p, the pixel region center pixel p and colors are similar, are extracted as adaptive kernel Omega p.
Further, in the example shown in FIG. 13, it is shown that the hue is different between the shaded area at the center and the other peripheral areas on the guide image. For example, the shaded area is a blue area, and the surrounding area that is not shaded is a yellow area.

次に、1フレームについての適応型カーネルΩを抽出する手順について説明する。
(手順1)
中心画素pから、アームを上方向(y軸のマイナス方向)に向かって、1画素ずつ延伸させる。
(手順2)
アームの先端の画素値と中心画素の画素値との差が所定の閾値以上になったら、アームの延伸を止め、中心画素pからの長さをSp,1として保存する。
なお、アームの延伸は、予め定めた大きさの矩形(3次元時空間に拡張した場合は、カーネルWは直方体となる)のカーネルW内を最大範囲とする。また、後記する他の手順においても同様とする。
(手順3)
手順2と同様に、アームを下方向(y軸のプラス方向)に向かって1画素ずつ延伸させる。
Next, the procedure for extracting the adaptive kernel Omega p for 1 frame.
(Procedure 1)
From the center pixel p, the arm is extended one pixel at a time in the upward direction (minus direction of the y-axis).
(Procedure 2)
When the difference between the pixel value of the tip of the arm and the pixel value of the center pixel becomes equal to or greater than a predetermined threshold, the extension of the arm is stopped and the length from the center pixel p is stored as Sp, 1 .
Note that the extension of the arm has a maximum range within the kernel W p of a rectangle having a predetermined size (when expanded to a three-dimensional space-time, the kernel W p is a rectangular parallelepiped). The same applies to other procedures described later.
(Procedure 3)
Similarly to the procedure 2, the arm is extended pixel by pixel in the downward direction (plus direction of the y-axis).

(手順4)
アームの先端の画素値と中心画素pの画素値との差が所定の閾値以上になったら、アームの延伸を止め、中心画素pからの長さをSp,3として保存する。
(手順5)
式(13)で示される縦方向(y軸方向)に延伸する線分(画素列)V(p)上の、ある画素(点)qから、左方向(x軸のマイナス方向)及び右方向(x軸のプラス方向)に、それぞれアームを1画素ずつ延伸させる。
なお、x及びyは、それぞれ中心画素pのx座標及びy座標を示す。
(Procedure 4)
When the difference between the pixel value at the tip of the arm and the pixel value of the center pixel p becomes equal to or greater than a predetermined threshold, the extension of the arm is stopped and the length from the center pixel p is stored as Sp, 3 .
(Procedure 5)
From a certain pixel (point) q on the line segment (pixel column) V (p) extending in the vertical direction (y-axis direction) represented by Expression (13), the left direction (minus direction of the x-axis) and the right direction Each arm is extended by one pixel in the positive direction of the x-axis.
Incidentally, x p and y p, respectively indicate the x and y coordinates of the central pixel p.

Figure 0006285686
Figure 0006285686

(手順6)
アームの先端の画素値と、中心画素pの画素値との差が所定の閾値以上になったら、アームの延伸を止め、線分V(p)からの距離(長さ)を、それぞれSq,0及びSq,2として保存する。これによって、式(14)で表わされる水平方向(x軸方向)に延伸する線分(画素列)H(q)を抽出することができる。
なお、x及びyは、それぞれ画素qのx座標及びy座標を示す。
(Procedure 6)
When the difference between the pixel value at the tip of the arm and the pixel value of the center pixel p is equal to or greater than a predetermined threshold, the arm is stopped and the distance (length) from the line segment V (p) is set to S q. , 0 and S q, 2 . Thereby, a line segment (pixel column) H (q) extending in the horizontal direction (x-axis direction) represented by Expression (14) can be extracted.
Note that x q and y q indicate the x coordinate and the y coordinate of the pixel q, respectively.

Figure 0006285686
Figure 0006285686

(手順7)
線分V(p)上のすべての画素qについて、(手順5)及び(手順6)を実行してH(q)を抽出する。そして、1フレームについてのカーネルU(t)は、式(15)に示すように、各画素qについて抽出したH(q)の和集合で表わすことができる。ここで、tは、フレーム番号(時刻)を示す。
なお、図13において破線で示したカーネルΩが、U(t)として抽出された画素領域を示している。
(Procedure 7)
(Procedure 5) and (Procedure 6) are executed for all pixels q on the line segment V (p) to extract H (q). The kernel U (t) for one frame can be represented by the union of H (q) extracted for each pixel q as shown in Expression (15). Here, t indicates a frame number (time).
Note that the kernel Omega p indicated by a broken line in FIG. 13 shows a pixel area extracted as U (t).

Figure 0006285686
Figure 0006285686

この処理は、Orthogonal Integral Imageを用いたアルゴリズムにより、効率的に処理することができる。この手法については、参考文献5に詳細に説明されている。
(参考文献5)
K. Zhang, J. Lu, and G. Lafruit, “Cross-based local stereo matching using orthogonal integral images.” IEEE Transactions on Circuits and Systems for Video Technology, 19(7):1073-1079, July 2009.
This process can be efficiently processed by an algorithm using Orthogonal Integral Image. This technique is described in detail in Reference 5.
(Reference 5)
K. Zhang, J. Lu, and G. Lafruit, “Cross-based local stereo matching using orthogonal integral images.” IEEE Transactions on Circuits and Systems for Video Technology, 19 (7): 1073-1079, July 2009.

[適応型時空間カーネル]
本実施形態では、この処理を時間軸(t軸)方向に拡張し、3次元時空間に広がりを有する3次元カーネルを生成して、平滑化フィルタ処理に用いるものである。図14は、複数フレーム分のガイド画像を並べた3次元時空間を、x−t平面で切った断面図を示したものである。但し、図13において、水平方向をx軸、垂直方向をt軸(時間軸)としている。なお、時系列に番号が割り当てられるフレーム番号がt軸の座標値に相当する。
このとき、3次元カーネルΩは、以下に示す(手順8)から(手順10)の処理を行うことで生成することができる。
[Adaptive space-time kernel]
In the present embodiment, this process is expanded in the time axis (t-axis) direction to generate a three-dimensional kernel having a spread in a three-dimensional space-time and used for the smoothing filter process. FIG. 14 is a cross-sectional view of a three-dimensional space-time in which guide images for a plurality of frames are arranged, cut along an xt plane. However, in FIG. 13, the horizontal direction is the x-axis and the vertical direction is the t-axis (time axis). Note that the frame number to which a number is assigned in time series corresponds to the coordinate value of the t-axis.
At this time, three-dimensional kernel Omega p can be generated by performing the processing (step 10) from below (step 8).

(手順8)
中心画素pから、時間軸方向の、前方向(t軸のマイナス方向)及び後方向(t軸のプラス方向)に、それぞれ1フレームずつアームを延伸させる。
(手順9)
アームの先端の画素値と中心画素pの画素値との差が所定の閾値以上になったら、アームの延伸を止め、中心画素pからの長さを、それぞれSq,4及びSq,5として保存する。
これによって、式(16)で表わされる時間軸(t軸)方向に延伸する線分(画素列)T(p)を抽出することができる。
(Procedure 8)
From the center pixel p, the arm is extended by one frame each in the forward direction (minus direction of the t-axis) and the backward direction (plus direction of the t-axis) in the time axis direction.
(Procedure 9)
When the difference between the pixel value of the tip of the arm and the pixel value of the center pixel p is equal to or greater than a predetermined threshold, the extension of the arm is stopped, and the length from the center pixel p is set to S q, 4 and S q, 5 , respectively. Save as.
As a result, a line segment (pixel column) T (p) extending in the time axis (t-axis) direction represented by Expression (16) can be extracted.

Figure 0006285686
Figure 0006285686

(手順10)
線分T(p)上のすべての画素tについて、各画素tを含むフレーム毎に、それぞれ(手順1)から(手順7)を実行して、式(15)で示したフレーム毎のカーネルU(t)を抽出する。そして、時空間に拡張した3次元カーネルY(p)は、式(17)に示すように、各フレームtについて抽出したU(t)の和集合で表わすことができる。
なお、図14において破線で示したカーネルΩが、Y(p)として抽出された画素領域の、x−t平面で切った断面を示している。
(Procedure 10)
For all the pixels t on the line segment T (p), for each frame including each pixel t, (procedure 1) to (procedure 7) are executed, and the kernel U for each frame shown in Expression (15) is obtained. Extract (t). Then, the three-dimensional kernel Y (p) expanded in space-time can be represented by the union of U (t) extracted for each frame t as shown in Expression (17).
Note that the kernel Omega p indicated by a broken line in FIG. 14, Y of the pixel area extracted as (p), shows a cross section taken along the x-t plane.

Figure 0006285686
Figure 0006285686

[CLMF]
前記したように、CLMFにおいて、平滑化された画像Sは、式(18)に示すように、ガイド画像Gと2つの係数a,bとによる線形変換で表されると仮定している。
[CLMF]
As described above, in CLMF, smoothed image S, as shown in equation (18), the guide image G p and the two coefficients a, are assumed to be represented by a linear transformation by and b.

Figure 0006285686
Figure 0006285686

式(18)において、添字kは、カーネルΩに属する画素を示し、係数a,bは、画素kを中心とするカーネルΩ内においては一定であり、線形回帰法を用いて、式(19)により算出することができる。 In the equation (18), the subscript k indicates a pixel belonging to the kernel Ω p , and the coefficients a k and b k are constant in the kernel Ω k centered on the pixel k, and using a linear regression method, It can be calculated by equation (19).

Figure 0006285686
Figure 0006285686

式(19)において、Zは平滑化する対象となる画像であり、本実施形態においては、コストマップが相当する。また、μ,σ ,Z’、及びεは、それぞれカーネルΩにおけるガイド画像の平均、分散、カーネルΩにおけるコストマップの平均、及び正則化項である。また、|Ω|は、カーネルΩに属する画素数を示す。 In Expression (19), Z is an image to be smoothed, and corresponds to a cost map in this embodiment. Further, the μ k, σ k 2, Z 'k, and epsilon, the average of the guide image in the kernel Omega k respectively, dispersion, average cost map in kernel Omega k, and a regularization term. | Ω k | indicates the number of pixels belonging to the kernel Ω k .

このとき、平滑化された画像Sは、式(20)で定義されるSの重み付け加算で近似することができる。 In this case, smoothed image S p can be approximated by the weighted sum of the S k defined by formula (20).

Figure 0006285686
Figure 0006285686

コストボリュームフィルタ処理部54Dは、以上の手順によって、コストボリュームのすべてのコストマップについて、視差毎に3次元時空間の平滑化フィルタ処理を行う。コストボリュームフィルタ処理部54Dは、平滑化したコストボリュームを、視差画像生成処理部6に出力する。また、視差画像生成部6は、コストボリュームフィルタ処理部54Dから平滑化されたコストボリュームを入力し、このコストボリュームについて、画素毎に最もコストの低い視差を選択することで、視差画像を生成する。   The cost volume filter processing unit 54D performs the three-dimensional space-time smoothing filter processing for each parallax for all cost maps of the cost volume by the above procedure. The cost volume filter processing unit 54 </ b> D outputs the smoothed cost volume to the parallax image generation processing unit 6. Also, the parallax image generation unit 6 receives the smoothed cost volume from the cost volume filter processing unit 54D, and generates a parallax image by selecting the parallax with the lowest cost for each pixel for this cost volume. .

[視差画像生成ステムの動作]
本実施形態に係る視差画像生成システム100Dは、撮影装置3によって、所定のフレーム周波数で撮影した赤外線画像及びカラー画像を、視差画像生成装置1Dに入力する。フレーム周波数は特に限定されるものではないが、例えば、30〜240Hz程度とすることができる。
このとき、赤外線画像のフレーム及びカラー画像のフレームは、視差画像生成装置1Dに同期して入力される。そして、視差画像生成装置1Dは、前記したように、画像変換部4、コストボリューム算出部51,52及びコストボリューム統合部53によって、フレーム毎に第2実施形態で説明したものと同じ処理を行う。また、視差画像生成装置1Dは、コストボリュームフィルタ処理部54Dによって、平滑化フィルタ処理の対象となるフレームを中心として、時間軸方向について、その近傍の予め定めた範囲の複数のフレームについてのコストボリューム及びガイド画像を用いて、前記した手順の平滑化フィルタ処理を行う。本実施形態に係る視差画像生成システム100Dの他の動作は、図7に示した第2実施形態に係る視差画像生成システム100Aと同様であるから、詳細な説明は省略する。
[Operation of parallax image generation stem]
The parallax image generation system 100D according to the present embodiment inputs an infrared image and a color image captured at a predetermined frame frequency by the imaging device 3 to the parallax image generation device 1D. The frame frequency is not particularly limited, but can be, for example, about 30 to 240 Hz.
At this time, the frame of the infrared image and the frame of the color image are input in synchronization with the parallax image generation device 1D. Then, as described above, the parallax image generation device 1D performs the same processing as described in the second embodiment for each frame by the image conversion unit 4, the cost volume calculation units 51 and 52, and the cost volume integration unit 53. . In addition, the parallax image generation device 1D uses the cost volume filter processing unit 54D to center the frame that is the target of the smoothing filter process, and the cost volume for a plurality of frames in a predetermined range in the vicinity in the time axis direction. And the smoothing filter process of the above-mentioned procedure is performed using the guide image. Other operations of the parallax image generation system 100D according to the present embodiment are the same as those of the parallax image generation system 100A according to the second embodiment shown in FIG.

また、図8に示した第3実施形態及び図10に示した第4実施形態についても、コストボリュームフィルタ処理部54を、第5実施形態におけるコストボリュームフィルタ処理部54Dに置き換えることで、カーネルを2次元空間及び時間軸からなる3次元時空間に拡張した平滑化フィルタ処理を適用することができる。
これらの実施形態において、3次元時空間に亘る平滑化フィルタ処理を適用することによって、第5実施形態と同様に、複数の視差画像を連続再生する際に、フリッカの発生を抑制することができるとともに、特に静止物についての奥行き推定精度を改善することができる。
Also, in the third embodiment shown in FIG. 8 and the fourth embodiment shown in FIG. 10, the kernel is changed by replacing the cost volume filter processing unit 54 with the cost volume filter processing unit 54D in the fifth embodiment. Smoothing filter processing extended to a three-dimensional space-time consisting of a two-dimensional space and a time axis can be applied.
In these embodiments, by applying a smoothing filter process over a three-dimensional space-time, the occurrence of flicker can be suppressed when a plurality of parallax images are continuously reproduced, as in the fifth embodiment. At the same time, it is possible to improve the depth estimation accuracy especially for stationary objects.

以上説明したように、各実施形態に係る視差画像生成システム100,100A,100B,100C,100Dは、赤外線パターン照射機2によってテクスチャが付与された被写体の赤外線ステレオ画像と、カラーステレオ画像又はカラー画像とを用いて、視差画像生成装置1,1A,1B,1C,1Dによって精度よく視差画像を生成することができる。生成された視差画像は、例えば、3次元モデル生成のために用いることができる。更にまた、当該3次元モデルを用いて、例えば、インテグラル・フォトグラフィ方式の立体映像の生成にために用いることができる。   As described above, the parallax image generation systems 100, 100 A, 100 B, 100 C, and 100 D according to the embodiments are used for an infrared stereo image, a color stereo image, or a color image of a subject that is textured by the infrared pattern illuminator 2. Can be used to generate a parallax image with high accuracy by the parallax image generation devices 1, 1 </ b> A, 1 </ b> B, 1 </ b> C, and 1 </ b> D. The generated parallax image can be used, for example, for generating a three-dimensional model. Furthermore, the three-dimensional model can be used to generate, for example, an integral photography stereoscopic image.

なお、本発明の各実施形態に係る視差画像生成システム100,100A,100B,100C,100Dにおいて、赤外線画像及びカラー画像を演算処理する視差画像生成装置1,1A,1B,1C,1Dの画像変換部4,4B,4C、コストボリューム生成部5,5A,5B,5C,5D及び視差画像生成処理部6の各構成手段は、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、又は専用のハードウェア回路を用いて構成することができる。
また、本発明の各実施形態における視差画像生成装置1,1A,1B,1C,1Dは、赤外線パターン照射機2及び撮影装置3等が接続され、CPU(Central Processing Unit)、記憶手段(例えば、メモリ、ハードディスク)、各種信号の入出力手段等のハードウェア資源を備えるコンピュータを、前記した画像変換部4,4B,4C、コストボリューム生成部5,5A,5B,5C,5D及び視差画像生成処理部6の各構成手段として協調動作させるための、視差画像生成プログラムによって実現することもできる。このプログラムは、通信回線を介して配布してもよく、光ディスクや磁気ディスク、フラッシュメモリ等の記録媒体に書き込んで配布してもよい。
Note that, in the parallax image generation systems 100, 100A, 100B, 100C, and 100D according to the embodiments of the present invention, image conversion of the parallax image generation devices 1, 1A, 1B, 1C, and 1D that performs arithmetic processing on infrared images and color images. Each component of the units 4, 4B, 4C, the cost volume generators 5, 5A, 5B, 5C, 5D and the parallax image generation processor 6 is a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or a dedicated unit. This hardware circuit can be used.
In addition, the parallax image generation devices 1, 1A, 1B, 1C, and 1D in each embodiment of the present invention are connected to an infrared pattern irradiator 2, a photographing device 3, and the like, and a CPU (Central Processing Unit) and storage means (for example, A computer having hardware resources such as memory, hard disk) and various signal input / output means, the above-described image conversion units 4, 4B, 4C, cost volume generation units 5, 5A, 5B, 5C, 5D and parallax image generation processing It can also be realized by a parallax image generation program for causing each component means of the unit 6 to perform a cooperative operation. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as an optical disk, a magnetic disk, or a flash memory.

以上、本発明の実施形態に係る視差画像生成システムについて、発明を実施するための形態により具体的に説明したが、本発明の趣旨はこれらの記載に限定されるものではなく、特許請求の範囲の記載に基づいて広く解釈されなければならない。また、これらの記載に基づいて種々変更、改変等したものも本発明の趣旨に含まれることはいうまでもない。   As described above, the parallax image generation system according to the embodiment of the present invention has been specifically described by the mode for carrying out the invention. However, the gist of the present invention is not limited to these descriptions, and the scope of the claims Should be interpreted broadly based on the description. Needless to say, various changes and modifications based on these descriptions are also included in the spirit of the present invention.

1,1A,1B,1C,1D 視差画像生成装置
2 赤外線パターン照射機
3,3B,3C 撮影装置
31,32 赤外線カラーカメラ(カメラ)
33,34 赤外線カメラ
35,36 カラーカメラ(可視光カメラ)
4,4B,4C 画像変換部
41,42 画像平行化処理部
43,44 画像座標変換処理部
5,5A,5B,5C,5D コストボリューム生成部(対応度マップ群生成部)
51,52,52B コストボリューム算出部
53 コストボリューム統合部
54,54D コストボリュームフィルタ処理部(平滑化フィルタ処理部)
6 視差画像生成処理部
100,100A,100B,100C,100D 視差画像生成システム
1, 1A, 1B, 1C, 1D Parallax image generation device 2 Infrared pattern irradiator 3, 3B, 3C Imaging device 31, 32 Infrared color camera (camera)
33, 34 Infrared camera 35, 36 Color camera (visible light camera)
4, 4B, 4C Image conversion unit 41, 42 Image parallelization processing unit 43, 44 Image coordinate conversion processing unit 5, 5A, 5B, 5C, 5D Cost volume generation unit (correspondence map group generation unit)
51, 52, 52B Cost volume calculation unit 53 Cost volume integration unit 54, 54D Cost volume filter processing unit (smoothing filter processing unit)
6 Parallax image generation processing unit 100, 100A, 100B, 100C, 100D Parallax image generation system

Claims (6)

赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像及び可視光の波長領域の画像である可視光画像を2台のカメラで撮影した赤外線画像の組及び可視光画像の組を用いて、視差画像を生成する視差画像生成装置であって、
前記2台のカメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台のカメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台のカメラの光軸を平行とした際に得られる画像である平行化可視光画像の組に変換する画像変換部と、
基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する対応度マップ群生成部と、
画素毎に、前記対応度マップ群の中で最も一致の度合いが高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する視差画像生成処理部と、
を備えることを特徴とする視差画像生成装置。
A set of infrared images and a set of visible light images obtained by photographing an infrared image that is an image in the infrared wavelength region and a visible light image that is an image in the visible light wavelength region with two cameras. A parallax image generation device that generates a parallax image using
Using the camera parameters for the two cameras, the set of infrared images is converted into a set of parallelized infrared images, which are images obtained when the optical axes of the two cameras are parallel, Using the camera parameters for the two cameras, the set of visible light images is converted into a set of collimated visible light images that are images obtained when the optical axes of the two cameras are parallel. An image converter;
When the parallax between the reference infrared image that is the reference parallelized infrared image and the non-reference infrared image that is the other parallelized infrared image is a constant value in the entire image, the reference infrared image And the non-reference infrared image for each pixel, the correspondence level, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, and the collimated visible light image having the same optical axis as the reference infrared image When the parallax between the reference visible light image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image, the reference visible light image and the non-reference visible light A correspondence map, which is a two-dimensional array of correspondence obtained by integrating the correspondence, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, with respect to each pixel of the light image, for a predetermined parallax range At predetermined intervals A corresponding level map group generation unit for generating a corresponding degree map group by obtaining each difference,
Parallax image generation processing for generating a parallax image that is an image in which the parallax is determined for each pixel by selecting the parallax for the correspondence map having the highest degree of matching in the correspondence map group for each pixel And
A parallax image generating device comprising:
赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像を2台の赤外線カメラで撮影した赤外線画像の組と、可視光の波長領域の画像である可視光画像を2台の可視光カメラで撮影した可視光画像の組とを用いて、視差画像を生成する視差画像生成装置であって、
前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記2台の赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記2台の可視光カメラ及び前記2台の赤外線カメラについてのカメラパラメータを用いて、前記可視光画像の組を、前記2台の可視光カメラの光軸を前記平行化赤外線画像の組を得るための光軸と同じとした際に得られる画像である平行化可視光画像の組に変換する画像変換部と、
基準となる前記平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、前記基準赤外線画像と同じ光軸の前記平行化可視光画像である基準可視光画像と、他方の前記平行化可視光画像である非基準可視光画像との間の視差が画像全体において前記一定値であるとした場合に、前記基準可視光画像と前記非基準可視光画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度と、を統合した対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する対応度マップ群生成部と、
画素毎に、前記対応度マップ群の中で最も対応度が高い対応度マップについての視差を選択することにより、画素毎に視差が定められた画像である視差画像を生成する視差画像生成処理部と、
を備えることを特徴とする視差画像生成装置。
For a subject on which an infrared pattern is projected, a pair of infrared images obtained by photographing an infrared image that is an image in the infrared wavelength region with two infrared cameras, and two visible light images that are images in the wavelength region of visible light. A parallax image generation device that generates a parallax image using a set of visible light images captured by a visible light camera,
Using the camera parameters for the two infrared cameras, the set of infrared images is converted into a set of parallelized infrared images that are images obtained when the optical axes of the two infrared cameras are parallel. In addition, using the camera parameters of the two visible light cameras and the two infrared cameras, the set of the visible light images, the optical axis of the two visible light cameras, and the set of the collimated infrared images An image conversion unit for converting into a set of collimated visible light images, which is an image obtained when the same as the optical axis for obtaining
When the parallax between the reference infrared image that is the reference parallelized infrared image and the non-reference infrared image that is the other parallelized infrared image is a constant value in the entire image, the reference infrared image And the non-reference infrared image for each pixel, the correspondence level, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, and the collimated visible light image having the same optical axis as the reference infrared image When the parallax between the reference visible light image and the non-reference visible light image that is the other collimated visible light image is the constant value in the entire image, the reference visible light image and the non-reference visible light A correspondence map, which is a two-dimensional array of correspondence obtained by integrating the correspondence, which is an index indicating the degree of coincidence of an image in a predetermined range including the pixel, with respect to each pixel of the light image, for a predetermined parallax range At predetermined intervals A corresponding level map group generation unit for generating a corresponding degree map group by obtaining each difference,
For each pixel, a parallax image generation processing unit that generates a parallax image that is an image in which the parallax is determined for each pixel by selecting the parallax for the correspondence map having the highest correspondence in the correspondence map group When,
A parallax image generating device comprising:
前記対応度マップ群生成部は、前記対応度マップ群について、前記対応度マップ毎に、前記基準可視光画像をエッジ領域識別のためのガイド画像として、当該ガイド画像における被写体のエッジに対応する前記対応度マップのエッジを保持する平滑化フィルタ処理を行う平滑化フィルタ処理部を更に備え、
前記視差画像生成処理部は、前記平滑化フィルタ処理部によって平滑化フィルタ処理された対応度マップ群を用いて、前記視差画像を生成することを特徴とする請求項1又は請求項2に記載の視差画像生成装置。
The correspondence map group generation unit uses the reference visible light image as a guide image for edge region identification for each correspondence map for the correspondence map group, and corresponds to the edge of the subject in the guide image. A smoothing filter processing unit that performs a smoothing filter process that holds an edge of the correspondence map;
The said parallax image generation process part produces | generates the said parallax image using the correspondence map group smoothed by the said smoothing filter process part, The Claim 1 or Claim 2 characterized by the above-mentioned. A parallax image generating device.
赤外線パターンを投影した被写体について、前記赤外線の波長領域の画像である赤外線画像を2台の赤外線カメラで撮影した赤外線画像の組と、可視光の波長領域の画像である可視光画像を可視光カメラで撮影した可視光画像とを用いて、視差画像を生成する視差画像生成装置であって、
前記2台の赤外線カメラについてのカメラパラメータを用いて、前記赤外線画像の組を、前記赤外線カメラの光軸を平行とした際に得られる画像である平行化赤外線画像の組に変換するとともに、前記可視光カメラ及び基準となる前記赤外線カメラについてのカメラパラメータを用いて、前記可視光画像を、前記可視光カメラの光軸を基準となる前記平行化赤外線画像を得るための光軸と同じとした際に得られる画像である基準可視光画像に変換する画像変換部と、
前記基準となる平行化赤外線画像である基準赤外線画像と、他方の前記平行化赤外線画像である非基準赤外線画像との間の視差が画像全体において一定値であるとした場合に、前記基準赤外線画像と前記非基準赤外線画像との画素毎の、当該画素を含む所定範囲の画像の一致の度合いを示す指標である対応度の2次元配列である対応度マップを、所定の視差範囲について所定間隔の視差毎に求めることで対応度マップ群を生成する対応度マップ群生成部と、
前記対応度マップ群について、前記対応度マップ毎に、前記基準可視光画像をエッジ領域識別のためのガイド画像として、当該ガイド画像における被写体のエッジに対応する前記対応度マップのエッジを保持した平滑化フィルタ処理を行う平滑化フィルタ処理部と、
前記平滑化フィルタ処理された対応度マップ群の中で最も対応度の高い対応度マップについての視差を、画素毎に選択することにより、画素毎に視差が定められた画像である視差画像を生成する視差画像生成処理部と、
を備えることを特徴とする視差画像生成装置。
For a subject on which an infrared pattern is projected, a set of infrared images obtained by photographing the infrared image that is an image in the infrared wavelength region with two infrared cameras, and a visible light image that is an image in the visible light wavelength region A parallax image generating device that generates a parallax image using a visible light image captured in
Using the camera parameters for the two infrared cameras, the set of infrared images is converted into a set of parallelized infrared images that are images obtained when the optical axes of the infrared cameras are parallel, and Using the camera parameters for the visible light camera and the reference infrared camera, the visible light image is the same as the optical axis for obtaining the collimated infrared image based on the optical axis of the visible light camera. An image conversion unit for converting to a reference visible light image which is an image obtained at the time,
When the parallax between the reference infrared image that is the reference parallelized infrared image and the non-reference infrared image that is the other parallelized infrared image is a constant value in the entire image, the reference infrared image A correspondence map, which is a two-dimensional array of correspondence, which is an index indicating the degree of coincidence of an image of a predetermined range including the pixel for each pixel of the non-reference infrared image and a predetermined interval for a predetermined parallax range. A correspondence map group generation unit that generates a correspondence map group by obtaining each parallax;
For the correspondence map group, for each correspondence map, the reference visible light image is used as a guide image for edge region identification, and the smoothness of the correspondence map corresponding to the edge of the subject in the guide image is retained. A smoothing filter processing unit for performing the smoothing filter processing;
A parallax image that is an image in which the parallax is determined for each pixel is generated by selecting the parallax for the correspondence map having the highest degree of correspondence in the correspondence map group that has been subjected to the smoothing filter process. A parallax image generation processing unit,
A parallax image generating device comprising:
前記平滑化フィルタ処理部は、前記ガイド画像を参照して平滑化フィルタ処理の対象画素との間の色差が所定の閾値以下である周辺画素を抽出し、前記抽出した周辺画素についての前記対応度を用いて平滑化フィルタ処理を行うことを特徴とする請求項3又は請求項4に記載の視差画像生成装置。   The smoothing filter processing unit extracts peripheral pixels whose color difference from the target pixel of the smoothing filter processing is a predetermined threshold or less with reference to the guide image, and the correspondence degree of the extracted peripheral pixels 5. The parallax image generation device according to claim 3 or 4, wherein smoothing filter processing is performed using. 前記赤外線画像及び前記可視光画像は、所定のフレーム周波数で撮影され、
前記対応度マップ群生成部は、フレーム毎に前記対応度マップ群を生成し、
前記平滑化フィルタ処理部は、前記対応度マップ群について、前記平滑化フィルタ処理の対象である当該対応度マップ群に対応するフレームの近傍の複数のフレームについての前記対応度マップ群及び前記ガイド画像を参照して、2次元空間及び時間軸からなる3次元時空間について前記平滑化フィルタ処理を行うことを特徴とする請求項3乃至請求項5の何れか一項に記載の視差画像生成装置。
The infrared image and the visible light image are taken at a predetermined frame frequency,
The correspondence map group generation unit generates the correspondence map group for each frame,
The smoothing filter processing unit, for the correspondence map group, the correspondence map group and the guide image for a plurality of frames in the vicinity of a frame corresponding to the correspondence map group that is a target of the smoothing filter processing. The parallax image generating apparatus according to claim 3, wherein the smoothing filter process is performed on a three-dimensional space-time including a two-dimensional space and a time axis.
JP2013218641A 2013-06-12 2013-10-21 Parallax image generation device Active JP6285686B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013218641A JP6285686B2 (en) 2013-06-12 2013-10-21 Parallax image generation device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013123888 2013-06-12
JP2013123888 2013-06-12
JP2013218641A JP6285686B2 (en) 2013-06-12 2013-10-21 Parallax image generation device

Publications (2)

Publication Number Publication Date
JP2015019346A JP2015019346A (en) 2015-01-29
JP6285686B2 true JP6285686B2 (en) 2018-02-28

Family

ID=52439926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013218641A Active JP6285686B2 (en) 2013-06-12 2013-10-21 Parallax image generation device

Country Status (1)

Country Link
JP (1) JP6285686B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106644092B (en) * 2017-01-05 2019-01-15 西安电子科技大学 Infrared texture temperature field modulator approach based on visible optical information
CN107680083B (en) * 2017-09-13 2020-05-29 海信集团有限公司 Parallax determination method and parallax determination device
JP7067091B2 (en) * 2018-02-02 2022-05-16 株式会社リコー Image pickup device and control method of image pickup device
JP7257272B2 (en) * 2019-06-24 2023-04-13 日本放送協会 DEPTH MAP GENERATION DEVICE AND PROGRAM THEREOF, AND 3D IMAGE GENERATION DEVICE
CN111311667B (en) * 2020-02-14 2022-05-17 苏州浪潮智能科技有限公司 Content self-adaptive binocular matching method and device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008235A (en) * 1999-06-25 2001-01-12 Minolta Co Ltd Image input method for reconfiguring three-dimensional data and multiple-lens data input device
JP2001264033A (en) * 2000-03-17 2001-09-26 Sony Corp Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium
JP2004133556A (en) * 2002-10-08 2004-04-30 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape extraction method, three-dimensional shape extraction program and storage medium storing three-dimensional shape extraction program
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
JP2006214735A (en) * 2005-02-01 2006-08-17 Viewplus Inc Compound stereo vision device
JP2007004318A (en) * 2005-06-22 2007-01-11 Sega Corp Image processing method, program for executing image processing and storage medium with its program stored
EP2213102B1 (en) * 2007-11-09 2012-02-22 Thomson Licensing System and method for depth map extraction using region-based filtering
KR20120049997A (en) * 2010-11-10 2012-05-18 삼성전자주식회사 Image process device, display apparatus and methods thereof

Also Published As

Publication number Publication date
JP2015019346A (en) 2015-01-29

Similar Documents

Publication Publication Date Title
US11562498B2 (en) Systems and methods for hybrid depth regularization
US10789765B2 (en) Three-dimensional reconstruction method
US8452081B2 (en) Forming 3D models using multiple images
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
US8447099B2 (en) Forming 3D models using two images
KR100793076B1 (en) Edge-adaptive stereo/multi-view image matching apparatus and its method
CN110009672A (en) Promote ToF depth image processing method, 3D rendering imaging method and electronic equipment
KR101706216B1 (en) Apparatus and method for reconstructing dense three dimension image
US9025862B2 (en) Range image pixel matching method
KR20090055803A (en) Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
CN111028295A (en) 3D imaging method based on coded structured light and dual purposes
WO2011145285A1 (en) Image processing device, image processing method and program
JP6285686B2 (en) Parallax image generation device
JP6097903B2 (en) Three-dimensional shape acquisition apparatus, processing method, and program
CN111080776B (en) Human body action three-dimensional data acquisition and reproduction processing method and system
CN111563952A (en) Method and system for realizing stereo matching based on phase information and spatial texture characteristics
WO2021108626A1 (en) System and method for correspondence map determination
Nozick Camera array image rectification and calibration for stereoscopic and autostereoscopic displays
KR20160049639A (en) Stereoscopic image registration method based on a partial linear method
Jorissen et al. Multi-view wide baseline depth estimation robust to sparse input sampling
Ahmed et al. A system for 3D video acquisition and spatio-temporally coherent 3D animation reconstruction using multiple RGB-D cameras
JP2018081378A (en) Image processing apparatus, imaging device, image processing method, and image processing program
Chotikakamthorn Near point light source location estimation from shadow edge correspondence
Jonscher et al. Reconstruction of images taken by a pair of non-regular sampling sensors using correlation based matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180202

R150 Certificate of patent or registration of utility model

Ref document number: 6285686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250