JP2013044597A - Image processing device and method, and program - Google Patents

Image processing device and method, and program Download PDF

Info

Publication number
JP2013044597A
JP2013044597A JP2011181564A JP2011181564A JP2013044597A JP 2013044597 A JP2013044597 A JP 2013044597A JP 2011181564 A JP2011181564 A JP 2011181564A JP 2011181564 A JP2011181564 A JP 2011181564A JP 2013044597 A JP2013044597 A JP 2013044597A
Authority
JP
Japan
Prior art keywords
polarization
specular reflection
reflection light
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011181564A
Other languages
Japanese (ja)
Other versions
JP2013044597A5 (en
Inventor
Hideyasu Tashiro
秀康 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011181564A priority Critical patent/JP2013044597A/en
Publication of JP2013044597A publication Critical patent/JP2013044597A/en
Publication of JP2013044597A5 publication Critical patent/JP2013044597A5/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate a distance to a subject accurately even if components of specular reflection light are included in captured image data.SOLUTION: On the basis of plural polarization image data pieces captured with plural cameras having polarization filters with different angles of polarization planes, at least one of the intensity of specular reflection light of a subject and the angle of the polarization plane is estimated, and a distance to the subject is estimated on the basis of the results.

Description

本発明は、複数のカメラにより撮像された複数の画像データを処理する画像処理装置および方法、プログラムに関する。   The present invention relates to an image processing apparatus, method, and program for processing a plurality of image data captured by a plurality of cameras.

従来、ステレオカメラ、又は複数のカメラを格子上に配置した多眼方式の撮像装置を用いて、対象物体までの距離を推定する距離推定技術がある。この距離推定技術は視差を用いて測定する方法である。この測定ではカメラの位置と、複数枚画像の重なった領域での画像間の対応点探索が必要となる。
しかし、撮像条件の影響により対応点探索の際の誤差が大きくなる。例えば、夜間の撮影画像は可視光情報が少ないため、対応点探索の誤差が大きくなる。夜間の可視光情報が少ない条件に対して対応点探索の誤差を削減するために、複数台カメラの中で可視光カメラと赤外線カメラを分け、2値化された可視画像と赤外画像から車両を認識する手法が提案されている。(特許文献1)
Conventionally, there is a distance estimation technique for estimating a distance to a target object using a stereo camera or a multi-view imaging apparatus in which a plurality of cameras are arranged on a lattice. This distance estimation technique is a method of measuring using parallax. In this measurement, it is necessary to search for corresponding points between images in a region where a plurality of images overlap with the position of the camera.
However, the error in searching for corresponding points increases due to the influence of imaging conditions. For example, since a night-time captured image has little visible light information, an error in searching for corresponding points increases. In order to reduce the error of searching for corresponding points for conditions with little visible light information at night, the visible light camera and infrared camera are divided among multiple cameras, and the vehicle is made from the binarized visible image and infrared image. A method for recognizing is proposed. (Patent Document 1)

特開平10−255019JP 10-255019 A

しかしながら、特許文献1は異なる波長の画像を合成する手法であって、光の偏光に対する処理は行っていない。従って、ガラス、水面、プラスチックなどの表面で起きる鏡面反射の部分は、異なる波長の画像間では対応点付けができず、距離の推定精度が落ちるという課題がある。
そこで本発明では、撮像画像データ中に鏡面反射光の成分が含まれる場合であっても、被写体までの距離を高精度に推定することを目的とする。
However, Patent Document 1 is a method of synthesizing images with different wavelengths, and does not perform processing for polarization of light. Therefore, the specular reflection portion that occurs on the surface of glass, water, plastic, or the like cannot be matched between images of different wavelengths, and there is a problem that the accuracy of distance estimation is reduced.
Therefore, an object of the present invention is to estimate the distance to a subject with high accuracy even when captured image data includes a component of specular reflection light.

上記の目的を達成するために本発明の画像処理装置は、複数のカメラにより撮像された複数の画像データを処理する画像処理装置であって、偏光面の角度が異なる偏光フィルタが装着された前記複数のカメラにより撮像された複数の偏光画像データを取得する偏光画像取得手段と、前記複数の偏光画像データに基づき、被写体の鏡面反射光の強度と偏光面の角度との少なくとも何れか一方を推定する鏡面反射光推定手段と、前記鏡面反射光推定手段による推定結果に基づいて、被写体までの距離を推定する距離推定手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus of the present invention is an image processing apparatus that processes a plurality of image data captured by a plurality of cameras, and is provided with the polarization filters having different polarization plane angles. Polarized image acquisition means for acquiring a plurality of polarization image data captured by a plurality of cameras, and estimating at least one of the intensity of the specular reflection light and the angle of the polarization plane of the subject based on the plurality of polarization image data Specular reflection light estimation means, and distance estimation means for estimating the distance to the subject based on the estimation result by the specular reflection light estimation means.

本発明によれば、撮像画像データ中に鏡面反射光の成分が含まれる場合であっても、被写体までの距離を高精度に推定することが可能となる。   According to the present invention, it is possible to estimate the distance to the subject with high accuracy even when the captured image data includes a component of specular reflection light.

多眼方式の撮像装置に偏光フィルタを装着したイメージ図である。It is an image figure which attached the polarizing filter to the multi-eye imaging device. 実施例1のシステム構成図である。1 is a system configuration diagram of Embodiment 1. FIG. 撮像部101〜109のシステム構成図である。It is a system block diagram of the imaging parts 101-109. 実施例1の示すブロック図である。1 is a block diagram illustrating Example 1. FIG. 実施例1の効果を示す図である。It is a figure which shows the effect of Example 1. FIG. 実施例1の動作を示すフローチャートである。3 is a flowchart showing the operation of the first embodiment. 鏡面反射光の奥行き算出部410の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the depth calculation part 410 of specular reflection light. 実施例1の撮像画像のイメージ図である。3 is an image diagram of a captured image of Example 1. FIG. 鏡面反射光推定部406の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the specular reflection light estimation part 406. 実施例1の偏光画像と測距画像のイメージ図である。It is an image figure of the polarization image of Example 1, and a ranging image. 偏光フィルタに対する鏡面反射光の入射・透過光の性質を示す図である。It is a figure which shows the property of the incident / transmitted light of the specular reflection light with respect to a polarizing filter. 測距画像生成部407の動作を示すフローチャートである。5 is a flowchart showing an operation of a ranging image generation unit 407.

[実施例1]
本実施例では、多眼方式の撮像装置に偏光面の角度が異なる偏光フィルタをN個(本実施例ではN=3)配置する。偏光フィルタに対する偏光した光の入射・透過光の性質を用いて、被写体における鏡面反射光の強度と偏光面の角度を高精度に推定することにより、距離推定精度を向上することができる。また、カメラの数が増えると装着できる偏光フィルタの数も増えて、鏡面反射光の強度と偏光面の角度の推定精度が向上する。
[Example 1]
In this embodiment, N (N = 3 in this embodiment) polarizing filters having different polarization planes are arranged in a multi-lens imaging device. The distance estimation accuracy can be improved by estimating the intensity of the specular reflection light and the angle of the polarization plane in the subject with high accuracy using the properties of the incident / transmitted light of the polarized light with respect to the polarizing filter. Further, as the number of cameras increases, the number of polarizing filters that can be mounted also increases, and the estimation accuracy of the intensity of the specular reflection light and the angle of the polarization plane is improved.

図1は、多眼方式の撮像装置に偏光フィルタを装着したイメージ図である。図1(a)は複数のカメラにより構成される多眼方式の撮像装置の一例を示している。9個のカメラ101〜109は3行3列の正方格子上に配置されている。すべてのカメラは筺体110の同一平面上に配置され、その光軸はすべて略平行であり、配置された平面に垂直である。本実施例では、複数台のカメラにおいて、測距カメラと撮像カメラを区別して使う。図1(a)は、測距カメラと撮像カメラの配置を一例として示している。本実施例では、図1(a)に示すように測距カメラは距離推定精度を向上するために、偏光フィルタを装着する。図1(a)の測距カメラ中央の斜線は、装着した偏光フィルタの偏光面の角度を表す線である。   FIG. 1 is an image diagram in which a polarizing filter is attached to a multi-lens imaging device. FIG. 1A shows an example of a multi-lens imaging device including a plurality of cameras. The nine cameras 101 to 109 are arranged on a 3 × 3 square lattice. All the cameras are arranged on the same plane of the casing 110, and their optical axes are all substantially parallel and perpendicular to the arranged plane. In this embodiment, a distance measuring camera and an imaging camera are distinguished from each other in a plurality of cameras. FIG. 1A shows an example of the arrangement of ranging cameras and imaging cameras. In this embodiment, as shown in FIG. 1A, the ranging camera is equipped with a polarizing filter in order to improve the distance estimation accuracy. The oblique line at the center of the distance measuring camera in FIG. 1A is a line representing the angle of the polarization plane of the attached polarizing filter.

図1(b)、(c)は被写体を撮影した画像のイメージ図である。図1(b)は偏光フィルタ無しの撮像カメラにより取得した撮像画像のイメージ図を示している。図1(c)は偏光フィルタ有りの測距カメラにより取得した偏光画像のイメージ図を示している。図1(b)の偏光フィルタ無しの場合、撮像画像上に被写体の反射光に対応する領域(鏡面反射領域)がある。一方、図1(c)の偏光フィルタ有りの場合、鏡面反射領域は偏光フィルタにより除去でき、撮像画像上に鏡面反射領域は無い。   1B and 1C are image diagrams of images obtained by photographing a subject. FIG. 1B shows an image diagram of a captured image acquired by an imaging camera without a polarizing filter. FIG. 1C shows an image diagram of a polarization image acquired by a ranging camera with a polarization filter. When there is no polarizing filter in FIG. 1B, there is a region (specular reflection region) corresponding to the reflected light of the subject on the captured image. On the other hand, when the polarizing filter of FIG. 1C is provided, the specular reflection area can be removed by the polarizing filter, and there is no specular reflection area on the captured image.

本実施例のシステム構成を図2を用いて説明する。撮像部101〜109は、被写体からの光情報をセンサで受光しA/D変換を施しデータ転送経路であるバス214にデジタルデータを出力する。フラッシュ201は、被写体に光を照射する。ROM202とRAM203は、撮像や画像処理に必要なプログラム、データ、作業領域などをCPU204に提供する。CPU204はRAM203をワークメモリとして、ROM202やRAM203に格納されたプログラムを実行し、バス214を介して各構成を制御する。これにより、後述する様々な処理が実行される。撮像装置制御部205は、フォーカスを合わせる、シャッターを開く、絞りを調節するなどの、CPU204から指示された撮像系の制御を行う。操作部206は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。CG生成部207は、文字やグラフィックなどを生成する。表示部208は、一般的には液晶ディスプレイが広く用いられており、CG生成部207や後述のデジタル信号処理部209、画像処理部213から受け取った撮影画像データが示す画像や文字の表示を行う。また、タッチスクリーン機能を有していても良く、その場合は、ユーザ指示を操作部206の入力として扱うことも可能である。デジタル信号処理部209は、デジタル値にホワイトバランス処理、ガンマ処理、ノイズ低減処理などを行い、デジタル画像データを生成する。圧縮・伸張部210は、上記デジタル値をJpegやMpegなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部211は、PCその他メディア212(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)につなぐためのインターフェースである。画像処理部213は、撮像部101〜109から得られたデジタル画像データ或いは、デジタル信号処理部から出力されるデジタル画像データ群を利用して新たな画像データを生成し、その結果をバス214へ出力する。   The system configuration of this embodiment will be described with reference to FIG. The imaging units 101 to 109 receive light information from the subject with a sensor, perform A / D conversion, and output digital data to the bus 214 which is a data transfer path. The flash 201 irradiates the subject with light. A ROM 202 and a RAM 203 provide the CPU 204 with programs, data, work areas, and the like necessary for imaging and image processing. The CPU 204 executes a program stored in the ROM 202 or the RAM 203 using the RAM 203 as a work memory, and controls each component via the bus 214. Thereby, various processes described later are executed. The imaging device control unit 205 controls the imaging system instructed by the CPU 204 such as focusing, opening a shutter, and adjusting an aperture. The operation unit 206 corresponds to buttons, mode dials, and the like, and receives user instructions input via these buttons. The CG generation unit 207 generates characters and graphics. Generally, a liquid crystal display is widely used as the display unit 208, and displays images and characters indicated by captured image data received from the CG generation unit 207, a digital signal processing unit 209, which will be described later, and the image processing unit 213. . Further, it may have a touch screen function. In that case, a user instruction can be handled as an input of the operation unit 206. The digital signal processing unit 209 performs white balance processing, gamma processing, noise reduction processing, and the like on the digital value to generate digital image data. The compression / decompression unit 210 performs a process of converting the digital value into a file format such as Jpeg or Mpeg. The external memory control unit 211 is an interface for connecting to a PC or other media 212 (for example, hard disk, memory card, CF card, SD card, USB memory). The image processing unit 213 generates new image data using the digital image data obtained from the imaging units 101 to 109 or the digital image data group output from the digital signal processing unit, and the result is sent to the bus 214. Output.

図3を用いて、撮像部101〜109の詳細を説明する。撮像部101〜103は、装着フィルタ301(本実施例では偏光フィルタ)を有する一方、撮像部104〜109は偏光フィルタ301を有しない。更に、撮像部101〜109は、レンズ302、絞り303、シャッター304、光学フィルタ305、センサ306などから構成され、被写体の光量を検知する。A/D変換部307は被写体の光量をデジタル値に変換し、バス214にデジタルデータを出力する。   Details of the imaging units 101 to 109 will be described with reference to FIG. The imaging units 101 to 103 have a mounting filter 301 (a polarizing filter in this embodiment), while the imaging units 104 to 109 do not have a polarizing filter 301. Furthermore, the imaging units 101 to 109 include a lens 302, a diaphragm 303, a shutter 304, an optical filter 305, a sensor 306, and the like, and detect the amount of light of the subject. The A / D conversion unit 307 converts the light amount of the subject into a digital value and outputs the digital data to the bus 214.

なお、装置の構成要素は上記以外にも存在するが、本実施例の主眼ではないので、説明を省略する。   Although there are other components of the apparatus than the above, the description thereof is omitted because it is not the main point of the present embodiment.

図4は、本実施例を適用できる画像処理装置の実施の一形態を示すブロック図である。入力された偏光画像データ群は入力端子401から画像処理部213へ入力される。入力された偏光画像データ群に対応した偏光フィルタ角度情報は入力端子402から入力される。同じく撮像画像データ群は入力端子403から画像処理部213へ入力される。偏光画像データ群と撮像画像データ群のカメラパラメータは入力端子404から画像処理部213へ入力される。   FIG. 4 is a block diagram showing an embodiment of an image processing apparatus to which this embodiment can be applied. The input polarization image data group is input from the input terminal 401 to the image processing unit 213. Polarization filter angle information corresponding to the input polarization image data group is input from the input terminal 402. Similarly, the captured image data group is input from the input terminal 403 to the image processing unit 213. Camera parameters of the polarization image data group and the captured image data group are input from the input terminal 404 to the image processing unit 213.

偏光画像取得部405は、入力端子401から入力された偏光画像データを取得する。同様に、撮像画像取得部409は、入力端子403から入力された撮像画像データを取得する。取得された撮像画像データは高輝度部の奥行き算出部410に入力され、高輝度部にピントを合わせた時の奥行きを算出する。算出した高輝度部の奥行きと偏光画像取得部405で取得した偏光画像データは、鏡面反射光推定部406に入力され、鏡面反射光強度と偏光面の角度を推定する。推定した鏡面反射光強度と偏光面の角度は、測距画像生成部407に入力され、鏡面反射光を除去した画像データを測距画像データとして生成する。距離推定部408は、測距画像生成部407で生成された測距画像データから距離推定を行う。その結果は画像合成部411に入力され、撮像画像取得部409で取得された撮像画像データと合成され、精度の高い3次元画像データ(合成画像データ)を生成する。画像合成部411で合成された合成画像データは出力端子412から出力される。   The polarization image acquisition unit 405 acquires polarization image data input from the input terminal 401. Similarly, the captured image acquisition unit 409 acquires captured image data input from the input terminal 403. The acquired captured image data is input to the depth calculation unit 410 of the high luminance part, and the depth when the high luminance part is focused is calculated. The calculated depth of the high luminance part and the polarization image data acquired by the polarization image acquisition unit 405 are input to the specular reflection light estimation unit 406, and the specular reflection light intensity and the angle of the polarization plane are estimated. The estimated specular reflection light intensity and the angle of the polarization plane are input to the distance measurement image generation unit 407, and image data from which the specular reflection light has been removed is generated as distance measurement image data. The distance estimation unit 408 performs distance estimation from the distance measurement image data generated by the distance measurement image generation unit 407. The result is input to the image synthesis unit 411 and synthesized with the captured image data acquired by the captured image acquisition unit 409 to generate highly accurate three-dimensional image data (synthesized image data). The combined image data combined by the image combining unit 411 is output from the output terminal 412.

本実施例を適用すると、図5に示すように、偏光画像データが示す偏光画像(図5(a))上にある異なる偏光面の角度を持つ鏡面反射光を除去又は低減した測距画像データが示す測距画像(図5(b))を得ることができる。この鏡面反射光の影響を除去又は低減した測距画像データによれば非常に精度の高い距離推定を実現することができる。高輝度部の奥行き算出部410においても高輝度部の奥行きを推定することができる。しかしながら、鏡面反射光による影響が残った撮像画像データに基づく距離推定であることから、高輝度部の奥行き算出部410による距離推定は距離推定部408による距離推定ほどの推定精度はない。尚、本実施例では鏡面反射光強度と偏光面の角度を推定しているので、画像上の鏡面反射光を任意の重み付けで付加・除去加工することができる。   When this embodiment is applied, as shown in FIG. 5, ranging image data obtained by removing or reducing specular reflection light having different polarization plane angles on the polarization image (FIG. 5A) indicated by the polarization image data. Can be obtained (FIG. 5B). According to the distance measurement image data from which the influence of the specular reflection light is removed or reduced, it is possible to realize distance estimation with very high accuracy. The depth calculation unit 410 of the high luminance part can also estimate the depth of the high luminance part. However, since distance estimation is based on captured image data that remains affected by specular reflected light, the distance estimation by the depth calculation unit 410 of the high-luminance part is not as accurate as the distance estimation by the distance estimation unit 408. In this embodiment, since the specular reflection light intensity and the angle of the polarization plane are estimated, the specular reflection light on the image can be added / removed with arbitrary weighting.

〔画像処理部213の動作〕
図6は、本実施例の画像処理方法を示すフローチャートである。詳細には、図6のフローチャートに示す手順を記述したコンピュータで実行可能なプログラムをROM202からRAM203上に読み込んだ後に、CPU204によって該プログラムを実行することによって当該処理が実施される。
[Operation of Image Processing Unit 213]
FIG. 6 is a flowchart showing the image processing method of this embodiment. More specifically, after a computer-executable program describing the procedure shown in the flowchart of FIG. 6 is read from the ROM 202 onto the RAM 203, the CPU 204 executes the program to execute the process.

以下、図6に示す各処理について説明する。撮像画像取得部409は、撮像画像データをROM202またはRAM203等の記憶領域に入力する(S601)。偏光画像取得部405は、偏光画像データを記憶領域に入力する(S602)。ステップS603では、ステップS601、S602で入力された撮像画像と偏光画像を撮像する際のカメラパラメータを記憶領域に入力する。カメラパラメータは各カメラの焦点距離や光軸ずれを表す内部パラメータと、各カメラの3次元座標を表す外部パラメータ(各カメラの配置と向き情報を含むパラメータ)等から成る。高輝度部の奥行き算出部410は、ステップS601で入力された撮像画像データが示す撮像画像上にある高輝度部にピントを合わせた時の奥行きデータを算出する(S604)。奥行きデータとは、高輝度部に対応する被写体の実空間上での位置とカメラとの距離である。高輝度部の奥行きデータの算出方法の詳細は図7を用いて後述する。算出した高輝度部の奥行きデータは、高輝度部の画素領域と対応付けて記憶領域に記憶させる。鏡面反射光推定部406は、ステップS604で算出された高輝度部の奥行きデータが記憶領域に有るかどうかを調べることにより、撮像画像上に高輝度部が有るかどうかを判定する(S605)。高輝度部の奥行きデータが有る場合は、高輝度部が有ると判定し、ステップS606へ移行する。高輝度部の奥行きデータが無い場合は、高輝度部が無いと判定し、ステップS609へ移行する。また、鏡面反射光推定部406は、ステップS602で入力された偏光画像データに対応する偏光フィルタ装着角度を記憶領域に入力する(S606)。ステップS602で入力された偏光画像データから、鏡面反射光強度と偏光面の角度を推定する(S607)。鏡面反射光の推定には、ステップS604で算出された高輝度部の奥行きデータと、ステップS606で入力した偏光フィルタ角度を用いる。鏡面反射光の推定方法の詳細は図9を用いて後述する。推定結果は記憶領域に記憶させる。測距画像生成部407は、ステップS602で入力された偏光画像データから鏡面反射光による影響を除去・低減した測距画像データを生成する(S608)。測距画像生成方法の詳細は図12を用いて後述する。生成した測距画像データは記憶領域に記憶させる。距離推定部408は、ステップS608で生成された測距画像データを用いて距離を推定する(S609)。ステップS605で高輝度部が無かった場合は、ステップS602で入力した偏光画像データを用いて距離を推定する。距離推定結果は記憶領域に記憶させる。画像合成部411は、ステップS601で入力した撮像画像データと、ステップS609で推定した距離推定結果を用いて画像合成処理を行い、処理を終了する(S610)。   Hereinafter, each process shown in FIG. 6 will be described. The captured image acquisition unit 409 inputs the captured image data to a storage area such as the ROM 202 or the RAM 203 (S601). The polarization image acquisition unit 405 inputs the polarization image data to the storage area (S602). In step S603, the camera parameters for capturing the captured image and the polarization image input in steps S601 and S602 are input to the storage area. The camera parameters are composed of internal parameters representing the focal length and optical axis deviation of each camera, external parameters representing the three-dimensional coordinates of each camera (parameters including arrangement and orientation information of each camera), and the like. The depth calculation unit 410 of the high luminance part calculates depth data when the high luminance part on the captured image indicated by the captured image data input in step S601 is focused (S604). Depth data is the distance between the position of the subject corresponding to the high luminance portion in real space and the camera. Details of the method of calculating the depth data of the high luminance part will be described later with reference to FIG. The calculated depth data of the high luminance part is stored in the storage area in association with the pixel area of the high luminance part. The specular reflection light estimation unit 406 determines whether there is a high luminance part on the captured image by checking whether the depth data of the high luminance part calculated in step S604 is in the storage area (S605). If there is depth data of the high luminance part, it is determined that there is a high luminance part, and the process proceeds to step S606. If there is no depth data of the high luminance part, it is determined that there is no high luminance part, and the process proceeds to step S609. Further, the specular reflection light estimation unit 406 inputs the polarization filter mounting angle corresponding to the polarization image data input in step S602 to the storage area (S606). The specular reflection light intensity and the angle of the polarization plane are estimated from the polarization image data input in step S602 (S607). The specular reflection light is estimated by using the depth data of the high brightness portion calculated in step S604 and the polarization filter angle input in step S606. Details of the specular reflection light estimation method will be described later with reference to FIG. The estimation result is stored in the storage area. The ranging image generation unit 407 generates ranging image data in which the influence of specular reflection light is removed / reduced from the polarization image data input in step S602 (S608). Details of the ranging image generation method will be described later with reference to FIG. The generated ranging image data is stored in the storage area. The distance estimation unit 408 estimates the distance using the distance measurement image data generated in step S608 (S609). If there is no high brightness portion in step S605, the distance is estimated using the polarization image data input in step S602. The distance estimation result is stored in the storage area. The image composition unit 411 performs image composition processing using the captured image data input in step S601 and the distance estimation result estimated in step S609, and ends the processing (S610).

〔高輝度部の奥行き算出部410の動作〕
以下では、ステップS604の高輝度部の鏡面反射光の奥行き算出の詳細について、図7のフローチャートを用いて説明する。ここでは撮像カメラがM台(本実施例ではM=6)あるとし、各撮像カメラ104〜109で撮影した撮像画像は撮像画像1,撮像画像2,・・・,撮像画像Mと番号が付いているものとする。
[Operation of Depth Calculation Unit 410 of High Brightness Part]
Hereinafter, details of the depth calculation of the specular reflection light of the high-luminance part in step S604 will be described using the flowchart of FIG. Here, it is assumed that there are M imaging cameras (M = 6 in this embodiment), and the captured images captured by the respective imaging cameras 104 to 109 are numbered as captured image 1, captured image 2,. It shall be.

ステップS701では、撮像画像の番号iに対して、i=1に初期化する。ステップS702では、ステップS601で入力した撮像画像iのRGB値をYCbCrに変換する。変換した画像データは記憶領域に記憶させる。ステップS703では、ステップS702で変換した撮像画像iにおいて、Y値がY>Ythを満たす画素が有るかどうかを判定する。本実施例では、例えばYth=150とする。Y>Ythを満たす画素が有る場合は、ステップS704へ移行する。Y>Ythを満たす画素が無い場合は、高輝度部が無いと判定して、ステップS707へ移行する。ステップS704では撮像画像iにおいて、S>Sthを満たす領域が有るかどうかを判定する。SはステップS703で、Y>Ythを満たすと判定した画素が集まっている領域内の画素数である。即ち、Sは、Y>Ythを満たす画素が互いに縦横斜め何れかで隣接している画素からなる画素領域である。本実施例では、例えばSth=10[pixel]とする。S>Sthを満たす画素領域が有る場合は、高輝度部が有ると判定して、ステップS705へ移行する。S>Sthを満たす領域が無い場合は、高輝度部が無いと判定して、ステップS707へ移行する。このステップS704の処理により撮像画像i上の画素ノイズを除去することができる。ステップS705では、ステップS704で高輝度部と判定した各画素領域に対して、図8(a)に示すように、高輝度部Ri1,Ri2,・・・と番号を割り振る。ステップS706では、ステップS705で番号を割り振った高輝度部Ri1,Ri2,・・・と画素領域を対応付けて記憶領域に記憶させる。ステップS707では、撮像画像の番号iに対して、i=i+1に更新する。ステップS708では、撮像画像の番号iがi≧Mを満たすかどうかを判定する。i≧Mを満たす場合は、M枚全ての撮像画像について処理を終了したと判定し、ステップS709へ移行する。i≧Mを満たさない場合は、ステップS702へ移行する。ステップS709では、ステップS706で記憶した各撮像画像iの高輝度部Ri1,Ri2,・・・の画素領域に対して、テンプレートマッチングを用いて位置合わせを行う。位置合わせができた各撮像画像間の画素ズレ量は、高輝度部の番号と対応付けて記憶領域に記憶させる。ステップS710では、ステップS709で複数の撮像画像間で位置合わせできた高輝度部Ri1,Ri2,・・・に対して、図8(b)に示すようにR´,R´,・・・R´(本実施例ではL=2)と再度番号を割り振る。ステップS711では、ステップS710で番号を割り振った高輝度部R´,R´,・・・R´と画素領域、及びステップS709で記憶した画素ズレ量を対応付けて記憶領域に記憶させる。また、位置合わせできた高輝度部の数Lも記憶領域に記憶させる。ステップS712では、ステップS711で記憶した高輝度部R´,R´,・・・R´に対応する画素ズレ量と、ステップS603で入力したカメラパラメータから、各高輝度部にピントを合わせた時の奥行きデータを算出する。算出した奥行きは、高輝度部の奥行きとして、高輝度部R´,R´,・・・R´と対応付けて記憶領域に記憶し、高輝度部の奥行き算出処理を終了する。 In step S701, i = 1 is initialized for the number i of the captured image. In step S702, the RGB value of the captured image i input in step S601 is converted to YCbCr. The converted image data is stored in the storage area. In step S703, it is determined whether or not there is a pixel in which the Y value satisfies Y> Yth in the captured image i converted in step S702. In the present embodiment, for example, Y th = 150. If Y> pixels satisfying Y th is present, the process proceeds to step S704. If there is no pixel satisfying Y> Yth , it is determined that there is no high luminance part, and the process proceeds to step S707. Step S704 in the captured image i in, it is determined whether the region satisfies the S> S th there. S is the number of pixels in the region where the pixels determined to satisfy Y> Y th in step S703 are gathered. That is, S is a pixel region composed of pixels in which pixels satisfying Y> Yth are adjacent to each other either vertically or horizontally. In this embodiment, for example, S th = 10 [pixel]. If a pixel area satisfying S> S th is present, it is determined that the high luminance portion exists, the process proceeds to step S705. If there is no region satisfying S> Sth , it is determined that there is no high luminance part, and the process proceeds to step S707. Pixel noise on the captured image i can be removed by the processing in step S704. In step S705, high luminance portions R i1 , R i2 ,... Are assigned to the pixel areas determined as the high luminance portions in step S704 as shown in FIG. In step S706, the high luminance portions R i1 , R i2 ,... Assigned to the numbers in step S705 are associated with the pixel areas and stored in the storage area. In step S707, the number i of the captured image is updated to i = i + 1. In step S708, it is determined whether the number i of the captured image satisfies i ≧ M. If i ≧ M is satisfied, it is determined that the processing has been completed for all M captured images, and the process proceeds to step S709. If i ≧ M is not satisfied, the process proceeds to step S702. In step S709, the pixel regions of the high luminance portions R i1 , R i2 ,... Of each captured image i stored in step S706 are aligned using template matching. The amount of pixel shift between the captured images that have been aligned is stored in the storage area in association with the number of the high luminance part. In step S710, as shown in FIG. 8B, R ′ 1 , R ′ 2 ,... For the high luminance portions R i1 , R i2 ,. ... R ′ L (L = 2 in this embodiment) and numbers are assigned again. In step S711, the high luminance portions R ′ 1 , R ′ 2 ,... R ′ L assigned with the numbers in step S710 and the pixel area and the pixel shift amount stored in step S709 are associated with each other and stored in the storage area. . Further, the number L of high-luminance portions that can be aligned is also stored in the storage area. In step S712, each high brightness portion is focused from the pixel shift amount corresponding to the high brightness portions R ′ 1 , R ′ 2 ,... R ′ L stored in step S711 and the camera parameters input in step S603. Depth data when combined is calculated. The calculated depth is stored in the storage area as the depth of the high luminance portion in association with the high luminance portions R ′ 1 , R ′ 2 ,... R ′ L, and the depth calculation processing of the high luminance portion is terminated.

尚、本実施例では複数の撮像画像上に写り、距離推定に大きく影響する鏡面反射光を除去・低減する手法について取り扱っている。撮像画像データ群の内、ある1枚の画像に写る鏡面反射光については、例えば鏡面反射光が写らなかった撮像画像の画素値を用いて、鏡面反射光を除去すれば良い。   In this embodiment, a method of removing / reducing specular reflection light that appears on a plurality of captured images and greatly affects distance estimation is handled. For specular reflection light that appears in a single image in the captured image data group, for example, the specular reflection light may be removed using the pixel value of the captured image in which the specular reflection light is not reflected.

〔鏡面反射光推定部406の動作〕
以下では、ステップS607の鏡面反射光推定処理の詳細について、図9のフローチャートを用いて説明する。ここでは測距カメラがN台(本実施例ではN=3)あるとし、各測距カメラ101〜103で撮影した偏光画像は偏光画像1,偏光画像2,・・・,偏光画像Nと番号が付いているものとする。図10(a)に示すように、各偏光画像は高輝度部R´,R´,・・・R´が画像上に写っている。但し、図8(b)の撮像画像と比較して、偏光フィルタの角度により高輝度部の輝度が変化している点が異なる。
[Operation of Specular Reflection Light Estimation Unit 406]
Hereinafter, details of the specular reflection light estimation processing in step S607 will be described with reference to the flowchart of FIG. Here, it is assumed that there are N distance measuring cameras (N = 3 in this embodiment), and the polarization images taken by the distance measurement cameras 101 to 103 are the polarization image 1, the polarization image 2,. Shall be attached. As shown in FIG. 10A, each polarized image has high-luminance portions R ′ 1 , R ′ 2 ,... R ′ L appearing on the image. However, it differs from the captured image of FIG. 8B in that the brightness of the high brightness portion changes depending on the angle of the polarization filter.

ステップS901では、高輝度部R´の番号jに対して、j=1に初期化する。ステップS902では、ステップS712で算出した高輝度部の奥行きと、ステップS603で入力したカメラパラメータから、偏光画像1,偏光画像2,・・・,偏光画像Nの画素ズレ量を算出する。算出した画素ズレ量は、各偏光画像と対応付けて記憶領域に記憶させる。ステップS903では、ステップS711で記憶した高輝度部R´に対応する画素領域と、ステップS902で算出した画素ズレ量から、偏光画像1,偏光画像2,・・・,偏光画像N上における高輝度部R´の画素領域を算出する。算出した偏光画像上における高輝度部R´の画素素領域は、各偏光画像と対応付けて記憶領域に記憶させる。ステップS904では、ステップS602で入力した偏光画像と、ステップS902で算出した画素ズレ量から、偏光画像1,偏光画像2,・・・,偏光画像Nの位置合わせを行う。位置合わせした偏光画像は、図10(b)に示すように、高輝度部R´(図10(b)ではj=2)にピントが合っており、他の高輝度部はボケた画像となる。位置合わせができるかどうかは、ステップS903で算出した各偏光画像に対する高輝度部R´の画素領域が、偏光画像の画像内に収まるかどうかを調べれば良い。位置合わせできた偏光画像は、高輝度部R´と対応付けて記憶領域に記憶させる。ステップS905では、高輝度部R´に対して、ステップS904で位置合わせができた偏光画像の枚数kをカウントする。カウント数kは、高輝度部R´と対応付けて記憶領域に記憶させる。ステップS906では、ステップS905でカウントしたkが、k≧3を満たすかどうかを判定する。k≧3を満たす場合は、ステップS907へ移行する。k≧3を満たさない場合は、高輝度部R´の鏡面反射光を推定できないと判定し、ステップS908へ移行する。ステップS907では、ステップS904で記憶した偏光画像から、高輝度部R´内の各画素について鏡面反射光強度と偏光面の角度を推定する。推定した鏡面反射光の強度と偏光面の角度は、高輝度部R´内の各画素位置と対応付けて記憶領域に記憶させる。鏡面反射光の推定方法の詳細は後述する。ステップS908では、高輝度部R´の番号jに対して、j=j+1に更新する。ステップS909では、高輝度部R´の番号jがj≧Lを満たすかどうかを判定する。i≧Lを満たす場合は、L個全ての高輝度部について処理を実行したと判定し、鏡面反射光推定処理を終了する。j≧Lを満たさない場合は、ステップS902へ移行する。 In step S901, j = 1 is initialized for the number j of the high-luminance portion R ′ j . In step S902, the pixel shift amount of the polarization image 1, the polarization image 2,..., And the polarization image N is calculated from the depth of the high luminance portion calculated in step S712 and the camera parameter input in step S603. The calculated pixel shift amount is stored in the storage area in association with each polarization image. In step S903, the high in the polarization image 1, the polarization image 2,..., The polarization image N is calculated from the pixel region corresponding to the high luminance part R ′ j stored in step S711 and the pixel shift amount calculated in step S902. The pixel area of the luminance part R ′ j is calculated. The pixel area of the high luminance portion R ′ j on the calculated polarization image is stored in the storage area in association with each polarization image. In step S904, the polarization image 1, the polarization image 2,..., And the polarization image N are aligned based on the polarization image input in step S602 and the pixel shift amount calculated in step S902. As shown in FIG. 10B, the aligned polarization image is in focus on the high luminance portion R ′ j (j = 2 in FIG. 10B), and the other high luminance portions are blurred images. It becomes. Whether or not the alignment can be performed may be determined by checking whether or not the pixel area of the high-luminance portion R ′ j for each polarization image calculated in step S903 is within the polarization image. The aligned polarization image is stored in the storage area in association with the high luminance portion R ′ j . In step S905, the high luminance portion R'j, counts the number k j polarized images that could alignment in step S904. The count number k j is stored in the storage area in association with the high luminance part R ′ j . In step S906, it is determined whether k j counted in step S905 satisfies k j ≧ 3. When k j ≧ 3 is satisfied, the process proceeds to step S907. When k j ≧ 3 is not satisfied, it is determined that the specular reflection light of the high-luminance portion R ′ j cannot be estimated, and the process proceeds to step S908. In step S907, the polarization image stored in step S904, the estimating the angle of the specular reflection light intensity and the polarization plane for each pixel in the high luminance portion R'j. The estimated intensity of the specular reflection light and the angle of the polarization plane are stored in the storage area in association with each pixel position in the high luminance portion R ′ j . Details of the specular reflection light estimation method will be described later. In step S908, the number j of the high luminance part R ′ j is updated to j = j + 1. In step S909, it determines the number j of the high luminance portion R'j whether meet j ≧ L. When i ≧ L is satisfied, it is determined that the process has been executed for all L high-luminance parts, and the specular reflection light estimation process is terminated. When j ≧ L is not satisfied, the process proceeds to step S902.

以下、ステップS907の鏡面反射光推定方法の詳細について説明する。鏡面反射光の推定には、図11に示す偏光フィルタに対する鏡面反射光の入射・透過光の性質を用いる。一般的に鏡面反射光は、反射面に平行な角度に偏光した光(s偏光)を多く含む。従って、カメラに偏光フィルタを装着すると、装着方向によりカメラに写る鏡面反射光の強度が変化する(図11(a))。偏光フィルタに入射する鏡面反射光の偏光面と、偏光フィルタの偏光面との間をなす角をθとすると、偏光フィルタを透過する鏡面反射光の電場の振幅は入射光の電場の余弦成分となる(図11(b))。偏光フィルタに入射する鏡面反射光の入射光強度をI、偏光フィルタを透過してカメラに到達する鏡面反射光の透過光強度をIとすると、以下の式(1)が成り立つ。 Details of the specular reflection light estimation method in step S907 will be described below. The specular reflection light is estimated by using the properties of incident / transmitted light of the specular reflection light with respect to the polarizing filter shown in FIG. In general, specular reflection light includes a lot of light (s-polarized light) polarized at an angle parallel to the reflection surface. Therefore, when the polarizing filter is attached to the camera, the intensity of the specular reflected light reflected on the camera changes depending on the attaching direction (FIG. 11A). When the angle between the polarization plane of the specular reflection light incident on the polarization filter and the polarization plane of the polarization filter is θ, the electric field amplitude of the specular reflection light transmitted through the polarization filter is the cosine component of the electric field of the incident light. (FIG. 11B). When the incident light intensity of the specular reflected light incident on the polarizing filter is I 0 , and the transmitted light intensity of the specular reflected light that passes through the polarizing filter and reaches the camera is I 1 , the following equation (1) is established.

式(1)の関係を用いることで、高輝度部R´の鏡面反射光強度と偏光面の角度を高精度に推定することができる。 By using the relationship of the expression (1), the specular reflection light intensity of the high luminance part R ′ j and the angle of the polarization plane can be estimated with high accuracy.

以下、図10(b)を用いて、k≧3を満たしている高輝度部R´(図10(b)ではj=2)内の点Pを例に、鏡面反射光の推定方法を説明する。ステップS904で記憶した偏光画像0、偏光画像1、・・・偏光画像N上の点PのRGB値をそれぞれ(r,g,b),(r,g,b),・・・(r,g,b)と表す。また、各偏光画像の水平方向に対する偏光フィルタ角度を、それぞれ0°,α,・・・Nαとする。本実施例では、α=10°とする。点Pでの鏡面反射光のRGB値を(r,g,b)、鏡面反射光以外の主に物体色を表すRGB値を(r,g,b)とする。更に、鏡面反射光の偏光面と偏光画像0に対応する偏光フィルタとの間をなす角をθとするとR値について以下の式(2)が求まる。 Hereinafter, with reference to FIG. 10B, the specular reflection light estimation method using the point P in the high luminance portion R ′ j (j = 2 in FIG. 10B) that satisfies k j ≧ 3 as an example. Will be explained. The RGB values of the polarization image 0, the polarization image 1,..., The point P on the polarization image N stored in step S904 are (r 0 , g 0 , b 0 ), (r 1 , g 1 , b 1 ), ... (r N , g N , b N ). Also, the polarization filter angles with respect to the horizontal direction of the respective polarization images are set to 0 °, α,. In this embodiment, α = 10 °. The RGB value of the specular reflection light at the point P is (r A , g A , b A ), and the RGB value mainly representing the object color other than the specular reflection light is (r C , g C , b C ). Furthermore, when the angle between the polarization plane of the specular reflection light and the polarization filter corresponding to the polarization image 0 is θ, the following equation (2) is obtained for the R value.

式(2)から未知数はr,r,θの3つなので、k≧3を満たす高輝度部R´上の点Pにおいて、鏡面反射光強度rと偏光面の角度θを最小二乗法を用いて推定することができる。G値、B値についても以下の式(3)、式(4)が得られる。同様にしてG値、B値の鏡面反射光強度g,bと偏光面の角度θを推定することができる。 Since there are three unknowns r A , r C , and θ from the equation (2), the specular reflection light intensity r A and the angle θ of the plane of polarization are set at a point P on the high-luminance portion R ′ j that satisfies k j ≧ 3. It can be estimated using the least squares method. The following formulas (3) and (4) are also obtained for the G value and the B value. Similarly, the specular reflection light intensity g A , b A of G value and B value and the angle θ of the polarization plane can be estimated.

推定した鏡面反射光の強度のRGB値(r,g,b)と、偏光面の角度θは、高輝度部R´内の点Pと対応付けて記憶領域に記憶させる。以上、式(2)〜式(4)の計算を高輝度部R´内の画素領域全てに対して実施することで、高輝度部R´内の鏡面反射光を画素単位で推定することができる。尚、鏡面反射光の推定精度を向上する為に、高輝度部R´が鏡面反射光又は光源の光かどうかを判定する処理を設けても良い。具体的には、推定した鏡面反射光と物体色のRGB値をYCbCr値に変換し、それぞれのY値を比較することで判定する。鏡面反射光のY値が物体色のY値に比べて十分小さい場合、高輝度部R´は、光源の光であると判定し、鏡面反射光のRGB値を(0,0,0)とすれば良い。 The estimated RGB values (r A , g A , b A ) of the intensity of the specular reflection light and the angle θ of the polarization plane are stored in the storage area in association with the point P in the high luminance portion R ′ j . Above, the formula (2) By performing to Formula calculations (4) relative to the pixel area all in the high luminance portion R'j, estimates the specular reflection light in the high-luminance portion R'j in units of pixels be able to. In order to improve the accuracy of specular reflection light estimation, a process for determining whether the high-luminance portion R ′ j is specular reflection light or light from a light source may be provided. Specifically, the estimated specular reflection light and the RGB value of the object color are converted into YCbCr values, and the respective Y values are compared for determination. When the Y value of the specular reflection light is sufficiently smaller than the Y value of the object color, the high-luminance portion R ′ j determines that the light is light from the light source, and the RGB value of the specular reflection light is (0, 0, 0). What should I do?

〔測距画像生成部407の動作〕
以下では、ステップS608の測距画像の生成処理の詳細について、図12のフローチャートを用いて説明する。
[Operation of Ranging Image Generation Unit 407]
Hereinafter, details of the ranging image generation processing in step S608 will be described with reference to the flowchart of FIG.

ステップS1201では、高輝度部R´の番号jに対して、j=1に初期化する。ステップS1202では、ステップS905でカウントしたkが、k≧3を満たすかどうかを判定する。k≧3を満たす場合は、ステップS1203へ移行する。k≧3を満たさない場合は、高輝度部R´の測距画像を生成できないと判定し、ステップS1205へ移行する。ステップS1203では、ステップS907で推定した、高輝度部R´内の各画素位置に対応した鏡面面反射光強度のRGB値(r,g,b)と、偏光面の角度θを記憶領域に入力する。ステップS1204では、ステップS1203で入力した鏡面反射光強度と偏光面の角度から、ステップS904で記憶した各偏光画像が示す画像中の被写体の鏡面反射光に対応する高輝度部R´から、鏡面反射光による影響を差し引く。高輝度部R´内の鏡面反射成分を差し引いた偏光画像1,偏光画像2,・・・,偏光画像Nは、記憶領域にて上書き記憶させる。ステップS1205では、高輝度部R´の番号jに対して、j=j+1に更新する。ステップS1206では、高輝度部R´の番号jがj≧Lを満たすかどうかを判定する。i≧Lを満たす場合は、L個全ての高輝度部について差分処理が終了したと判定し、ステップS1207へ移行する。j≧Lを満たさない場合は、ステップS1202へ移行する。ステップS1207では、ステップS1204で上書き記憶した偏光画像1,偏光画像2,・・・,偏光画像Nを、測距画像1,測距画像2,・・・,測距画像Nとして記憶領域に記憶し、測距画像生成処理を終了する。生成した測距画像は、図10(c)に示すように、偏光画像1,偏光画像2,・・・,偏光画像Nからk≧3を満たす高輝度部R´,R´,・・・R´(本実施例ではN=3,L=2)を除去した画像となる。 In step S1201, j = 1 is initialized for the number j of the high-luminance portion R ′ j . In step S1202, it is determined whether k j counted in step S905 satisfies k j ≧ 3. When k j ≧ 3 is satisfied, the process proceeds to step S1203. When k j ≧ 3 is not satisfied, it is determined that a ranging image of the high luminance portion R ′ j cannot be generated, and the process proceeds to step S1205. In step S1203, the RGB value (r A , g A , b A ) of the specular reflection light intensity corresponding to each pixel position in the high luminance portion R ′ j and the angle θ of the polarization plane estimated in step S907 are obtained. Enter in the storage area. In step S1204, from the specular reflection light intensity input in step S1203 and the angle of the polarization plane, from the high brightness portion R ′ j corresponding to the specular reflection light of the subject in the image indicated by each polarization image stored in step S904, the specular surface is obtained. Subtract the effect of reflected light. The polarized image 1, the polarized image 2,..., And the polarized image N obtained by subtracting the specular reflection component in the high luminance portion R ′ j are overwritten and stored in the storage area. In step S1205, the number j of the high brightness portion R ′ j is updated to j = j + 1. In step S1206, it determines the number j of the high luminance portion R'j whether meet j ≧ L. If i ≧ L is satisfied, it is determined that the difference processing has been completed for all L high-luminance portions, and the process proceeds to step S1207. When j ≧ L is not satisfied, the process proceeds to step S1202. In step S1207, the polarization image 1, polarization image 2,..., Polarization image N overwritten and stored in step S1204 are stored in the storage area as distance measurement image 1, distance measurement image 2,. Then, the distance measurement image generation process ends. As shown in FIG. 10 (c), the generated ranging image includes the high-luminance portions R ′ 1 , R ′ 2 , which satisfy k j ≧ 3 from the polarization image 1, the polarization image 2,. ... R ′ L (N = 3, L = 2 in this embodiment) is removed.

以上説明した偏光フィルタによる鏡面反射光推定処理を行うことで、多眼方式の撮像装置における距離推定精度を向上することができる。   By performing the specular reflection light estimation process using the polarization filter described above, it is possible to improve the distance estimation accuracy in the multi-view imaging apparatus.

本実施例では、偏光フィルタ角度を0°,10°,20°としたが、等間隔にする必要は無く、3つ以上異なる角度が存在する限りにおいて、任意の値をとって良い。例えば偏光画像に写る鏡面反射光の画素値が飽和しないように、偏光フィルタ角度として0°,10°,20°と、それに直交する90°,100°,110°の計6つ設けても良い。   In this embodiment, the polarizing filter angles are set to 0 °, 10 °, and 20 °. However, they need not be equally spaced and may take any value as long as three or more different angles exist. For example, a total of six polarization filter angles of 0 °, 10 °, and 20 °, and 90 °, 100 °, and 110 ° orthogonal thereto may be provided so that the pixel values of the specular reflection light reflected in the polarization image are not saturated. .

また、本実施例では、式(2)〜式(4)で求まるθは理論的に等しいので、θの値が等しくなるように繰り返し演算することで、鏡面反射光を高精度に推定しても良い。   Further, in the present embodiment, θ obtained by the equations (2) to (4) is theoretically equal, so that the specular reflection light can be estimated with high accuracy by repeatedly calculating so that the values of θ are equal. Also good.

更に、奥行きの変化が大きい鏡面反射光を推定する為に、高輝度部R´を奥行き毎に分割し、鏡面反射光の推定処理をしても良い。例えば、撮像画像でピントを合わせる奥行きをΔz[mm]ずつ走査する。各奥行きに対してピントが合った高輝度領域を、高輝度部R´として抽出し、鏡面反射光を推定すれば良い。 Furthermore, in order to estimate specular reflection light with a large change in depth, the high-luminance portion R ′ j may be divided for each depth and specular reflection light estimation processing may be performed. For example, the depth of focus in the captured image is scanned by Δz [mm]. A high-luminance area in focus for each depth, and extracted as a high luminance portion R'j, may be estimated specular reflection light.

以上の通り、本実施例によれば、撮像画像データ中に鏡面反射光の成分が含まれる場合であっても、被写体までの距離を高精度に推定することが可能となる。   As described above, according to the present embodiment, it is possible to estimate the distance to the subject with high accuracy even when the component of the specular reflection light is included in the captured image data.

<変形例>
・本実施例では、各処理が図2に示されるような撮像装置により実施されるとしたが、これに限らない。例えば、偏光画像データ及び撮像画像データの撮像は多眼方式の撮像装置によってなされるものの、画像処理部213の各処理は情報処理装置(例えば、パーソナルコンピュータ)により実現されても良い。
・本実施例では、画像合成部411は、撮像画像データと距離推定結果とを用いて画像合成処理を行うとした。しかし、画像合成を行うにあたり、撮像画像データに加えて偏光画像データを用いても良い。
・本実施例では、測距画像推定の際に偏光画像データのみを用いるとした。しかしながら、撮像画像データを用いて、測距画像推定を行っても良い。
<Modification>
In the present embodiment, each process is performed by the imaging apparatus as shown in FIG. 2, but the present invention is not limited to this. For example, although polarization image data and captured image data are captured by a multi-lens imaging device, each process of the image processing unit 213 may be realized by an information processing device (for example, a personal computer).
In the present embodiment, the image composition unit 411 performs image composition processing using the captured image data and the distance estimation result. However, when performing image composition, polarization image data may be used in addition to the captured image data.
In the present embodiment, only polarization image data is used for distance measurement image estimation. However, ranging image estimation may be performed using captured image data.

Claims (7)

複数のカメラにより撮像された複数の画像データを処理する画像処理装置であって、
偏光面の角度が異なる偏光フィルタが装着された前記複数のカメラにより撮像された複数の偏光画像データを取得する偏光画像取得手段と、
前記複数の偏光画像データに基づき、被写体の鏡面反射光の強度と偏光面の角度との少なくとも何れか一方を推定する鏡面反射光推定手段と、
前記鏡面反射光推定手段による推定結果に基づいて、被写体までの距離を推定する距離推定手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that processes a plurality of image data captured by a plurality of cameras,
Polarization image acquisition means for acquiring a plurality of polarization image data imaged by the plurality of cameras equipped with polarization filters having different polarization plane angles;
Specular reflection light estimation means for estimating at least one of the intensity of the specular reflection light of the subject and the angle of the polarization plane based on the plurality of polarization image data;
Distance estimation means for estimating the distance to the subject based on the estimation result by the specular reflection light estimation means;
An image processing apparatus comprising:
前記複数のカメラは、3つ以上の異なる偏光面の角度で偏光フィルタが装着されていることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of cameras are mounted with polarization filters at angles of three or more different polarization planes. 前記複数のカメラにより撮像された撮像画像データから、被写体における鏡面反射光に対応する領域までの距離を算出する奥行き算出手段を更に有し、
前記鏡面反射光推定手段は、前記奥行き算出手段により算出された距離と前記複数の偏光画像データとに基づいて、前記被写体の鏡面反射光の強度と偏光面の角度との少なくとも何れか一方を推定することを特徴とする請求項1又は2に記載の画像処理装置。
Depth calculation means for calculating a distance from the captured image data captured by the plurality of cameras to a region corresponding to the specular reflection light in the subject;
The specular reflection light estimation means estimates at least one of the intensity of specular reflection light and the angle of the polarization plane of the subject based on the distance calculated by the depth calculation means and the plurality of polarization image data. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記距離推定手段は、前記鏡面反射光推定手段による推定結果に基づいて、偏光画像データが示す画像中の被写体の鏡面反射光に対応する領域から、鏡面反射光による影響を差し引くことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The distance estimation unit subtracts the influence of the specular reflection light from the region corresponding to the specular reflection light of the subject in the image indicated by the polarization image data based on the estimation result by the specular reflection light estimation unit. The image processing apparatus according to claim 1. 請求項1乃至4の何れか1項の画像処理装置を有する撮像装置。   An imaging apparatus comprising the image processing apparatus according to claim 1. 複数のカメラにより撮像された複数の画像データを処理する画像処理方法であって、
偏光面の角度が異なる偏光フィルタが装着された前記複数のカメラにより撮像された複数の偏光画像データを取得する偏光画像取得工程と、
前記複数の偏光画像データに基づき、被写体の鏡面反射光の強度と偏光面の角度との少なくとも何れか一方を推定する鏡面反射光推定工程と、
前記鏡面反射光推定工程の推定結果に基づいて、被写体までの距離を推定する距離推定工程と、
を有することを特徴とする画像処理方法。
An image processing method for processing a plurality of image data captured by a plurality of cameras,
A polarization image acquisition step of acquiring a plurality of polarization image data captured by the plurality of cameras equipped with polarization filters having different polarization plane angles;
A specular reflection estimation step of estimating at least one of the intensity of the specular reflection light of the subject and the angle of the polarization plane based on the plurality of polarization image data;
Based on the estimation result of the specular reflection light estimation step, a distance estimation step of estimating the distance to the subject;
An image processing method comprising:
コンピュータを請求項1乃至4のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   The program for functioning a computer as an image processing apparatus of any one of Claims 1 thru | or 4.
JP2011181564A 2011-08-23 2011-08-23 Image processing device and method, and program Withdrawn JP2013044597A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011181564A JP2013044597A (en) 2011-08-23 2011-08-23 Image processing device and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011181564A JP2013044597A (en) 2011-08-23 2011-08-23 Image processing device and method, and program

Publications (2)

Publication Number Publication Date
JP2013044597A true JP2013044597A (en) 2013-03-04
JP2013044597A5 JP2013044597A5 (en) 2014-10-02

Family

ID=48008624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181564A Withdrawn JP2013044597A (en) 2011-08-23 2011-08-23 Image processing device and method, and program

Country Status (1)

Country Link
JP (1) JP2013044597A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182225A1 (en) * 2014-05-30 2015-12-03 コニカミノルタ株式会社 Imaging device
WO2015198851A1 (en) * 2014-06-23 2015-12-30 コニカミノルタ株式会社 Distance measurement device and distance measurement method
WO2016088483A1 (en) * 2014-12-01 2016-06-09 ソニー株式会社 Image-processing device and image-processing method
WO2016104235A1 (en) * 2014-12-26 2016-06-30 コニカミノルタ株式会社 Stereo imaging device and moving body
US11428522B2 (en) 2017-12-07 2022-08-30 Fujitsu Limited Distance measuring device, distance measuring method, and non-transitory computer-readable storage medium for storing program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182225A1 (en) * 2014-05-30 2015-12-03 コニカミノルタ株式会社 Imaging device
WO2015198851A1 (en) * 2014-06-23 2015-12-30 コニカミノルタ株式会社 Distance measurement device and distance measurement method
WO2016088483A1 (en) * 2014-12-01 2016-06-09 ソニー株式会社 Image-processing device and image-processing method
CN107003110A (en) * 2014-12-01 2017-08-01 索尼公司 Image processing apparatus and image processing method
US20170223339A1 (en) * 2014-12-01 2017-08-03 Sony Corporation Image processing apparatus and image processing method
JPWO2016088483A1 (en) * 2014-12-01 2017-09-07 ソニー株式会社 Image processing apparatus and image processing method
CN107003110B (en) * 2014-12-01 2020-09-15 索尼公司 Image processing apparatus, image processing method, and program
US11206388B2 (en) 2014-12-01 2021-12-21 Sony Corporation Image processing apparatus and image processing method for aligning polarized images based on a depth map and acquiring a polarization characteristic using the aligned polarized images
WO2016104235A1 (en) * 2014-12-26 2016-06-30 コニカミノルタ株式会社 Stereo imaging device and moving body
US11428522B2 (en) 2017-12-07 2022-08-30 Fujitsu Limited Distance measuring device, distance measuring method, and non-transitory computer-readable storage medium for storing program

Similar Documents

Publication Publication Date Title
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
JP6585006B2 (en) Imaging device and vehicle
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
JP5762211B2 (en) Image processing apparatus, image processing method, and program
US8144974B2 (en) Image processing apparatus, method, and program
JP2001194114A (en) Image processing apparatus and method and program providing medium
US8774551B2 (en) Image processing apparatus and image processing method for reducing noise
JP6580761B1 (en) Depth acquisition apparatus and method using polarization stereo camera
WO2011125937A1 (en) Calibration data selection device, method of selection, selection program, and three dimensional position measuring device
CN111492201B (en) Distance measuring camera
JP6071257B2 (en) Image processing apparatus, control method therefor, and program
WO2017199696A1 (en) Image processing device and image processing method
JP5882789B2 (en) Image processing apparatus, image processing method, and program
JP2012247356A (en) Imaging module, imaging apparatus, image processing apparatus, and image processing method
JP2013044597A (en) Image processing device and method, and program
JPWO2012176556A1 (en) Corresponding point search device and distance measurement device
JP2013178684A (en) Depth estimation apparatus, reconfigured image generation device, depth estimation method, reconfigured image generation method and program
JP5996233B2 (en) Imaging device
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP6038489B2 (en) Image processing device
KR101857977B1 (en) Image apparatus for combining plenoptic camera and depth camera, and image processing method
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium
JP2013175821A (en) Image processing device, image processing method, and program
JP5863280B2 (en) Imaging apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140820

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140820

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20150406