JP2015207861A - Imaging device and method - Google Patents

Imaging device and method Download PDF

Info

Publication number
JP2015207861A
JP2015207861A JP2014086459A JP2014086459A JP2015207861A JP 2015207861 A JP2015207861 A JP 2015207861A JP 2014086459 A JP2014086459 A JP 2014086459A JP 2014086459 A JP2014086459 A JP 2014086459A JP 2015207861 A JP2015207861 A JP 2015207861A
Authority
JP
Japan
Prior art keywords
imaging
sensitivity
image
unit
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014086459A
Other languages
Japanese (ja)
Inventor
敏嗣 山本
Toshitsugu Yamamoto
敏嗣 山本
杭迫 真奈美
Manami Kuiseko
真奈美 杭迫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014086459A priority Critical patent/JP2015207861A/en
Publication of JP2015207861A publication Critical patent/JP2015207861A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide imaging device and method that are flexibly adaptable to user's requirement for ranging precision and dynamic range width of HDR images by using one compound-eye camera.SOLUTION: An imaging device has plural imaging optical systems, a compound-eye camera having plural imaging units which are adaptable to the plural imaging optical systems and image optical images of a target object which are formed by the plural imaging optical systems, an optical filter unit having plural filters which correspond to the plural imaging optical systems and transmit incident light while attenuating the incident light with preset different attenuation factors, a sensitivity changing unit for changing the sensitivity of the compound-eye camera, an image creator for creating one image from images picked up by the plural imaging units, and a controller which has plural modes of different brightness ranges, makes the sensitivity changing unit change the sensitivities of the plural imaging units according to the mode, and makes the image creator create one image within the brightness range with images picked up by the plural imaging units.

Description

本発明は、ハイダイナミックレンジ画像を生成する撮像装置及び撮像方法に関するものである。   The present invention relates to an imaging apparatus and an imaging method for generating a high dynamic range image.

近年、各種デジタル技術の進展に伴い、例えばCCD(Charge Coupled Device)型イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の固体撮像素子を用いることによってデジタル画像が比較的容易に得られるようになり、このデジタル画像が様々に利用されている。その利用分野として、例えば、複数のデジタル画像から所定の被写体までの距離を計測する技術や、ハイダイナミックレンジ画像(以下、「HDR画像」という。)を作成する技術等がある。   In recent years, with the progress of various digital technologies, for example, a digital image can be obtained relatively easily by using a solid-state imaging device such as a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor. This digital image is used in various ways. For example, there are technologies for measuring the distance from a plurality of digital images to a predetermined subject and technologies for creating a high dynamic range image (hereinafter referred to as “HDR image”).

複数のデジタル画像からHDR画像を作成する技術として、カメラの感度(露出)を変えて同一被写体を撮像し、得られた複数の画像を合成してHDR画像を作成する技術がある。1つのカメラで感度を変えながら被写体を撮像する場合には、被写体が移動すると、きれいなHDR画像が得られない場合ある。そこで、複数の個眼カメラを備え、同じ被写体に対し、複数の画像を同時に撮像できる複眼カメラを用いる技術が提案されている。例えば、個眼カメラの感度をそれぞれ異ならせた複眼カメラによって対象物を撮像し、得られた複数の画像を合成して、HDR画像を作成する技術が開示されている(特許文献1参照)。尚、このような複眼カメラを用いて撮影された複数の画像は、視差(位置ずれ)が生じているため、合成の際に視差補正を行う技術が開示されている(特許文献3参照)。また、被写体からの入射光が、ビームスプリッタ等によって多眼光学系の各個眼に入力されて、視差の生じていない画像が撮像される技術が開示されている(特許文献3参照)。   As a technique for creating an HDR image from a plurality of digital images, there is a technique for imaging the same subject by changing the sensitivity (exposure) of the camera and synthesizing the obtained plurality of images to create an HDR image. When a subject is imaged while changing sensitivity with a single camera, a beautiful HDR image may not be obtained if the subject moves. Therefore, a technique using a compound eye camera that includes a plurality of single-eye cameras and can simultaneously capture a plurality of images of the same subject has been proposed. For example, a technique is disclosed in which an object is imaged by a compound eye camera with different sensitivity of a single-eye camera, and a plurality of obtained images are combined to create an HDR image (see Patent Document 1). In addition, since the parallax (position shift | offset | difference) has arisen in the some image image | photographed using such a compound eye camera, the technique which performs parallax correction at the time of a synthesis | combination is disclosed (refer patent document 3). In addition, a technique is disclosed in which incident light from a subject is input to each eye of a multi-lens optical system by a beam splitter or the like, and an image without parallax is captured (see Patent Document 3).

複眼カメラは、複数のデジタル画像から所定の被写体までの距離を計測する技術においても利用されている。例えば、複眼カメラで撮像された複数の画像のうちの一対の画像に対し、対応点探索がピクセル単位で実行される。そして、この一対の個眼カメラ間の視差がピクセル単位で求められ、この求められた視差に基づいて被写体までの距離がいわゆる三角測量の原理に基づいて求められる。   Compound eye cameras are also used in technology for measuring the distance from a plurality of digital images to a predetermined subject. For example, the corresponding point search is executed in units of pixels for a pair of images captured by a compound eye camera. Then, the parallax between the pair of single-eye cameras is obtained in units of pixels, and the distance to the subject is obtained based on the so-called triangulation principle based on the obtained parallax.

このように、1台の複眼カメラによって、HDR画像が作成でき、更に、被写体までの距離が測定できることになる。   In this way, an HDR image can be created by a single compound camera, and the distance to the subject can be measured.

特開2002−171430号公報JP 2002-171430 A 特開2011−254265号公報JP 2011-254265 A 特開2012−199805号公報JP 2012-199805 A

しかし、広いダイナミックレンジのHDR画像を得るためには、ダイナミックレンジ幅に応じて、複数種類の感度によって撮像された複数の画像が必要である。そして、所望するHDR画像のダイナミックレンジの幅が広くなればなるほど、より多くの種類の感度で撮像された画像が必要となる。   However, in order to obtain an HDR image with a wide dynamic range, a plurality of images captured with a plurality of types of sensitivity are required according to the dynamic range width. Then, the wider the dynamic range of the desired HDR image, the more images that are captured with different types of sensitivity are required.

また、測距の精度、つまり、視差を求める精度は、対応点探索を行う画像を撮像する個眼カメラ間の距離(基線長)が長い程、高くなる。更に、測距の精度は、個眼カメラの数が多い程、つまり、対応点探索を行う画像のペアの数が多い程、高くなる。但し、対応点探索において高精度で視差を求めるためには、対応点探索を行うペアの画像は、同じ感度で撮像された画像あることが望ましい。   In addition, the accuracy of distance measurement, that is, the accuracy of obtaining parallax increases as the distance (baseline length) between single-eye cameras that capture images for searching for corresponding points increases. Further, the accuracy of distance measurement increases as the number of single-eye cameras increases, that is, as the number of image pairs for which corresponding point search is performed increases. However, in order to obtain the parallax with high accuracy in the corresponding point search, it is desirable that the pair images for which the corresponding point search is performed are images captured with the same sensitivity.

従って、通常、複眼カメラに含まれる個眼カメラの個数は限られているため、感度の種類を多くすれば、対応点探索を行う画像のペアの数は減ることになる。つまり、広いダイナミックレンジのHDR画像を得ようとすれば、測距の精度が落ちることになる。また、測距の精度を上げるために対応点探索を行う画像のペアの数を多くすると、感度の種類を減らすことになる。つまり、測距の精度を上げようとすると、HDR画像のダイナミックレンジの幅が狭くなる。   Therefore, since the number of single-eye cameras normally included in a compound-eye camera is limited, the number of image pairs for which the corresponding point search is performed decreases as the type of sensitivity increases. That is, if an HDR image having a wide dynamic range is obtained, the accuracy of distance measurement is lowered. Further, if the number of image pairs for which corresponding point search is performed in order to increase the accuracy of distance measurement, the type of sensitivity is reduced. That is, when the accuracy of distance measurement is increased, the dynamic range width of the HDR image is narrowed.

測距の精度や、HDR画像のダイナミックレンジの広さは、ユーザによって要求が異なる。従って、ユーザの要求毎に、その要求に応じた複眼カメラを作成することは、高コスト化を招くことになり、現実的ではない。   Different users have different requirements for ranging accuracy and the dynamic range of HDR images. Therefore, it is not practical to create a compound eye camera corresponding to a user's request for each user's request, resulting in an increase in cost.

そこで、本発明は、測距の精度とHDR画像のダイナミックレンジの広さに関するユーザの要求に、1台の複眼カメラで柔軟に応じることを目的とする。   Accordingly, an object of the present invention is to flexibly meet a user's request regarding the accuracy of distance measurement and the dynamic range of an HDR image with a single compound eye camera.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる撮像装置は、一体に配列された複数の撮像光学系と、前記複数の撮像光学系に対応し、前記複数の撮像光学系それぞれによって結像された対象物の光学像を撮像する複数の撮像部とを有する複眼カメラと、前記複数の撮像光学系にそれぞれ対応する複数のフィルタであって、それぞれ異なる予め設定された所定の減衰率で入射光を減光させて透過する複数のフィルタを有し、前記複数のフィルタのうち、少なくとも2つのフィルタは、前記予め設定された所定の減衰率が同じである光学フィルタ部と、前記複数の撮像部それぞれの感度を変更する感度変更部と、前記複数の撮像部で撮像された画像を用いた対応点探索により、前記複数の画像同士の視差を算出する対応点探索部と、前記予め設定された所定の減衰率が同一の前記複数のフィルタに対応する撮像部であって、前記感度変更部によって同じ感度に変更された撮像部により撮像された複数の画像を用いて、前記対応点探索部に視差を算出させ、算出された視差を用いて前記対象物の位置合わせを行い、前記複数の撮像部で撮像された画像を合成して、1枚の画像を作成する画像作成部と、輝度範囲の異なる複数のモードを有し、前記モードに応じて、前記感度変更部に前記複数の撮像部の感度を変更させ、前記複数の撮像部で撮像された画像を用いて、前記画像作成部に前記各モードに応じた輝度範囲の画像を作成させる制御部とを備えることを特徴とする。   As a result of various studies, the present inventor has found that the above object is achieved by the present invention described below. That is, an imaging apparatus according to an aspect of the present invention corresponds to a plurality of imaging optical systems arranged in an integrated manner, and the plurality of imaging optical systems, and targets formed by the plurality of imaging optical systems. A compound-eye camera having a plurality of imaging units that capture an optical image, and a plurality of filters respectively corresponding to the plurality of imaging optical systems, and dimming incident light at different preset predetermined attenuation rates. And at least two of the plurality of filters have the sensitivity of each of the optical filter unit having the same predetermined attenuation rate and the plurality of imaging units. A sensitivity changing unit to be changed; a corresponding point searching unit that calculates parallax between the plurality of images by searching for corresponding points using images captured by the plurality of imaging units; and the preset predetermined number The imaging unit corresponding to the plurality of filters having the same attenuation rate, and using the plurality of images captured by the imaging unit changed to the same sensitivity by the sensitivity changing unit, parallax is applied to the corresponding point search unit. The brightness range is different from that of the image creation unit that performs calculation, aligns the target using the calculated parallax, and synthesizes the images captured by the plurality of imaging units to create one image. According to the mode, the sensitivity changing unit changes the sensitivity of the plurality of imaging units, and the images created by the plurality of imaging units are used for the image creation unit. And a control unit that creates an image in a luminance range according to the mode.

また、他の一態様にかかる撮像方法は、一体に配列された複数の撮像光学系と、前記複数の撮像光学系に対応し、前記複数の撮像光学系それぞれによって結像された対象物の光学像を撮像する複数の撮像部とを有する複眼カメラと、前記複数の撮像光学系にそれぞれ対応する複数のフィルタであって、それぞれ異なる予め設定された所定の減衰率で入射光を減光させて透過する複数のフィルタを有し、前記複数のフィルタのうち、少なくとも2つのフィルタは、前記予め設定された所定の減衰率が同じである光学フィルタ部と、を備える撮像装置で用いられる撮像方法であって、前記複数の撮像部それぞれの感度を変更する感度変更ステップと、前記複数の撮像部で撮像された画像を用いた対応点探索により、前記複数の画像同士の視差を算出する対応点探索ステップと、前記予め設定された所定の減衰率が同一の前記複数のフィルタに対応する撮像部であって、前記感度変更ステップによって同じ感度に変更された撮像部により撮像された複数の画像を用いて、前記対応点探索ステップで視差を算出し、算出された視差を用いて前記対象物の位置合わせを行い、前記複数の撮像部で撮像された画像を合成して、1枚の画像を作成する画像作成ステップと、輝度範囲の異なる複数のモードを有し、前記モードに応じて、前記感度変更ステップで前記複数の撮像部の感度を変更させ、前記複数の撮像部で撮像された画像を用いて、前記画像作成ステップで前記各モードに応じた輝度範囲の画像を作成させる制御ステップとを備えることを特徴とする。   Further, an imaging method according to another aspect includes a plurality of imaging optical systems arranged in an integrated manner, and an optical of an object imaged by each of the plurality of imaging optical systems, corresponding to the plurality of imaging optical systems. A compound-eye camera having a plurality of imaging units that capture images, and a plurality of filters respectively corresponding to the plurality of imaging optical systems, wherein incident light is dimmed at different preset predetermined attenuation rates An imaging method that is used in an imaging apparatus that includes a plurality of filters that transmit, and wherein at least two of the plurality of filters include the optical filter unit that has the same predetermined predetermined attenuation rate. The parallax between the plurality of images is calculated by a sensitivity changing step for changing the sensitivity of each of the plurality of imaging units and a corresponding point search using images captured by the plurality of imaging units. A plurality of images picked up by the image pickup unit corresponding to the plurality of filters having the same predetermined predetermined attenuation rate and changed to the same sensitivity by the sensitivity changing step. Using the image of the corresponding point, the parallax is calculated in the corresponding point search step, the target is aligned using the calculated parallax, and the images captured by the plurality of imaging units are combined to obtain one image A plurality of modes having different brightness ranges, and the sensitivity changing step changes the sensitivity of the plurality of imaging units according to the mode, and imaging is performed by the plurality of imaging units. And a control step of creating an image of a luminance range corresponding to each mode in the image creation step using the image that has been obtained.

このような撮像装置及び撮像方法では、対象物は、それぞれ異なる予め設定された所定の減衰率で入射光を減光させて透過する複数のフィルタを介して撮像され、更に、撮像部の感度を変更することができるので、相対輝度の範囲がそれぞれ異なる複数の画像を取得することができる。従って、モードに応じた広い範囲の輝度範囲(ハイダイナミックレンジ)の画像を作成することができる。また、相対輝度の範囲が同じ画像を複数撮像することができ、これらの画像に基づいて、画像のずれ(視差)を算出することができるので、複数の画像を合成してダイナミックレンジが広い1枚の画像を作成することが可能となる。つまり、撮像装置は、1つの複眼カメラを用いて、様々な輝度範囲(ダイナミックレンジ)の画像を作成することが可能となる。   In such an imaging apparatus and imaging method, an object is imaged through a plurality of filters that attenuate and transmit incident light at different predetermined preset attenuation rates, and further improve the sensitivity of the imaging unit. Since it can be changed, a plurality of images having different relative luminance ranges can be acquired. Accordingly, it is possible to create an image with a wide luminance range (high dynamic range) according to the mode. In addition, a plurality of images having the same relative luminance range can be taken, and based on these images, an image shift (parallax) can be calculated. It is possible to create a single image. That is, the imaging apparatus can create images with various luminance ranges (dynamic ranges) using one compound eye camera.

また、他の一態様では、上述の撮像装置において、前記予め設定された所定の減衰率は、n種類(n≧2)であり、前記撮像部により撮像された画像の輝度範囲を横軸に、前記輝度範囲の輝度の信頼度を縦軸とするグラフにおいて、第1減衰率のフィルタに対応する第1撮像部により撮像された画像の第1グラフのうちの輝度が低い部分であって前記信頼度が徐々に低下している部分である裾部分の一部が、前記第1減衰率の次に減衰率が低い第2減衰率のフィルタに対応し、前記第1撮像部と同じ感度に設定された第2撮像部により撮像された画像の第2グラフと重なるように、前記第1減衰率及び前記第2減衰率が設定され、前記複数のフィルタは、n種類の減衰率のフィルタをそれぞれ複数有し、n種類の減衰率のフィルタをそれぞれ含む第1グループと第2グループとを備えており、前記複数のモードとは、前記感度変更部により前記第1グループ及び前記第2グループのフィルタに対応する撮像部が同一の感度に変更される第1モードと、前記感度変更部により前記第1グループのフィルタに対応する撮像部が第1感度に変更され、前記第2グループのフィルタに対応する撮像部が前記第1感度よりも高い感度の第2感度に変更され、前記第1感度及び前記第2感度は、前記第1感度に変更された撮像部のうち最も減衰率が低いフィルタに対応する撮像部により撮像された画像の前記グラフの全部または一部分が、前記第2感度に変更された撮像部のうち最も減衰率が高いフィルタに対応する撮像部により撮像された画像の前記グラフと重なるような感度である第2モードと、前記感度変更部により前記第1グループのフィルタに対応する撮像部が第3感度に変更され、前記第2グループのフィルタに対応する撮像部が前記第3感度よりも高い感度の第4感度に変更され、前記第3感度及び前記第4感度は、前記第3感度に変更された撮像部のうち最も減衰率が高いフィルタに対応する撮像部により撮像された画像の前記グラフの前記裾部分の全てが、前記第4感度に変更された撮像部のうち最も減衰率が高いフィルタに対応する撮像部により撮像された画像の前記グラフと重なるような感度である第3モードであることを特徴とする。   In another aspect, in the above-described imaging device, the predetermined attenuation rate that is set in advance is n types (n ≧ 2), and the luminance range of the image captured by the imaging unit is on the horizontal axis. In the graph with the reliability of the luminance in the luminance range as the vertical axis, the portion of the first graph of the image captured by the first imaging unit corresponding to the filter having the first attenuation rate is a low-luminance portion, and A part of the bottom part, which is a part where the reliability is gradually decreased, corresponds to a filter having a second attenuation factor that is the second lowest attenuation factor after the first attenuation factor, and has the same sensitivity as the first imaging unit. The first attenuation factor and the second attenuation factor are set so as to overlap the second graph of the image captured by the set second imaging unit, and the plurality of filters are filters of n types of attenuation factors. Each has a plurality of filters with n attenuation factors In the plurality of modes, the imaging unit corresponding to the filters of the first group and the second group is changed to the same sensitivity by the sensitivity changing unit. The imaging unit corresponding to the first group filter is changed to the first sensitivity by the first mode and the sensitivity changing unit, and the imaging unit corresponding to the second group filter is higher in sensitivity than the first sensitivity. The first sensitivity and the second sensitivity are changed to the second sensitivity, and the first sensitivity and the second sensitivity of the graph of the image captured by the imaging unit corresponding to the filter having the lowest attenuation rate among the imaging units changed to the first sensitivity The second mode has a sensitivity such that all or part of the sensitivity is overlapped with the graph of the image captured by the imaging unit corresponding to the filter having the highest attenuation rate among the imaging units changed to the second sensitivity. Then, the imaging unit corresponding to the first group of filters is changed to the third sensitivity by the sensitivity changing unit, and the imaging unit corresponding to the second group of filters is higher in sensitivity than the third sensitivity. The third sensitivity and the fourth sensitivity are the skirt portions of the graph of the image captured by the imaging unit corresponding to the filter having the highest attenuation rate among the imaging units changed to the third sensitivity. Are all in the third mode in which the sensitivity of the image captured by the image capturing unit corresponding to the filter having the highest attenuation rate overlaps the graph of the image capturing unit changed to the fourth sensitivity. And

このような撮像装置では、相対輝度の範囲が連続した画像を複数撮像することができ、また、モードに応じて、複数画像全体における輝度範囲、及び、輝度の信頼度を変更したダイナミックレンジが広い画像を作成することが可能となる。具体的には、第1モードでは、同一の感度の撮像部により、撮像される画像の相対輝度の範囲が連続するような複数の減衰率のフィルタを介して、画像を撮像するので、撮像装置は、フィルタの減衰率に応じた輝度範囲(ダイナミックレンジ)の画像を作成することができる。第2モードでは、このような複数の減衰率のフィルタを介して撮像される画像であって、異なる感度の撮像部で撮像した画像の相対輝度の範囲が連続するので、第1モードよりも広い輝度範囲(ダイナミックレンジ)の画像を作成することができる。第3モードでは、このような複数の減衰率のフィルタを介して撮像される画像の相対輝度の範囲のうちの信頼度が低い部分が、感度の違う撮像部で撮像された画像の相対輝度の範囲と重なるような画像を撮像するので、他のモードよりも輝度の信頼度の高い、つまり、画質の良い、広い輝度範囲(ダイナミックレンジ)の画像を作成することができる。   In such an imaging apparatus, a plurality of images having a continuous relative luminance range can be captured, and the luminance range in the entire plurality of images and the dynamic range in which the reliability of luminance is changed are wide according to the mode. An image can be created. Specifically, in the first mode, the imaging unit having the same sensitivity captures an image through a plurality of attenuation rate filters such that the relative luminance ranges of the captured images are continuous. Can create an image of a luminance range (dynamic range) according to the attenuation rate of the filter. In the second mode, the range of the relative luminance of the images captured by the imaging units having different sensitivities, which are captured through such a plurality of attenuation factor filters, is wider than that in the first mode. An image with a luminance range (dynamic range) can be created. In the third mode, a portion with a low reliability in the range of the relative luminance of the image captured through the plurality of filters with the attenuation factors is the relative luminance of the image captured by the imaging unit having a different sensitivity. Since an image that overlaps the range is captured, it is possible to create an image with a higher luminance reliability than other modes, that is, an image with a wide luminance range (dynamic range) with good image quality.

また、他の一態様では、上述の撮像装置において、前記複数の撮像光学系のうち少なくとも2つの撮像光学系に対応する撮像部で撮像された画像に基づいて前記対象物までの距離を求める距離演算部を、更に備え、前記距離演算部は、前記予め設定された所定の減衰率が同一の前記複数のフィルタに対応する撮像部であって、前記感度変更部によって同じ感度に変更された撮像部により撮像された複数の画像を用いて、前記対応点探索部に視差を算出させ、算出された視差に基づいて前記対象物までの距離を算出することを特徴とする。   In another aspect, in the above-described imaging device, a distance for obtaining a distance to the object based on an image captured by an imaging unit corresponding to at least two imaging optical systems among the plurality of imaging optical systems. An imaging unit is further provided, and the distance calculation unit is an imaging unit corresponding to the plurality of filters having the same predetermined predetermined attenuation rate, and the imaging is changed to the same sensitivity by the sensitivity changing unit. The corresponding point search unit calculates parallax using a plurality of images captured by the unit, and calculates the distance to the object based on the calculated parallax.

このような撮像装置では、相対輝度の範囲が同じ画像を複数撮像することができるので、これらの画像に基づいて、画像における対象物の視差を算出することができ、対象物までの距離を算出することが可能となる。   In such an imaging apparatus, since it is possible to capture a plurality of images having the same relative luminance range, the parallax of the object in the image can be calculated based on these images, and the distance to the object can be calculated. It becomes possible to do.

また、他の一態様では、上述の撮像装置において、前記モードを設定する設定入力手段を更に備え、前記制御部は、前記設定入力手段により設定されたモードに応じて、前記感度変更部に前記複数の撮像部の感度を変更させることを特徴とする。   In another aspect, the imaging apparatus further includes setting input means for setting the mode, and the control unit sends the sensitivity changing unit to the sensitivity changing unit according to the mode set by the setting input means. It is characterized in that the sensitivities of a plurality of imaging units are changed.

このような撮像装置では、ユーザは、所望する輝度範囲(ダイナミックレンジ)のモードを設定できるので、所望するダイナミックレンジの画像を容易に得ることが可能となる。   In such an imaging apparatus, the user can set a mode of a desired luminance range (dynamic range), so that an image with a desired dynamic range can be easily obtained.

また、他の一態様では、上述の撮像装置において、前記制御部は、前記複数の撮像部で撮像された画像に基づいてモードを決定し、決定されたモードに応じて前記感度変更部に前記複数の撮像部の感度を変更させることを特徴とする。   According to another aspect, in the above-described imaging device, the control unit determines a mode based on images captured by the plurality of imaging units, and the sensitivity changing unit determines the mode according to the determined mode. It is characterized in that the sensitivities of a plurality of imaging units are changed.

このような撮像装置では、実際に撮像された画像に基づいて、モードが決定され、撮像部の感度が設定されるので、容易に、ハイダイナミックレンジ画像の撮像が可能となる。   In such an imaging apparatus, the mode is determined based on the actually captured image, and the sensitivity of the imaging unit is set. Therefore, it is possible to easily capture a high dynamic range image.

また、他の一態様では、上述の撮像装置において、前記撮像部は、固体撮像素子を有し、前記感度変更部は、前記複数の撮像部それぞれが有する固体撮像素子の蓄積時間を変更することによって、前記複数の撮像部の感度を変更することを特徴とする。   According to another aspect, in the above-described imaging device, the imaging unit includes a solid-state imaging element, and the sensitivity changing unit changes a storage time of the solid-state imaging element included in each of the plurality of imaging units. To change the sensitivity of the plurality of imaging units.

このような撮像装置では、固体撮像素子の蓄積時間を変えることにより撮像部の感度を変えるので、容易に、複眼カメラの感度を変えて撮像を行うことが可能となる。   In such an imaging apparatus, since the sensitivity of the imaging unit is changed by changing the accumulation time of the solid-state imaging device, it is possible to easily perform imaging by changing the sensitivity of the compound eye camera.

本発明にかかる撮像装置および撮像方法は、測距の精度とHDR画像のダイナミックレンジの広さとに関するユーザの要求に、1台の複眼カメラで柔軟に応じることができる。   The imaging apparatus and the imaging method according to the present invention can flexibly meet the user's request regarding the accuracy of distance measurement and the wide dynamic range of the HDR image with a single compound eye camera.

実施形態の撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device of embodiment. 実施形態の撮像装置における画像取得部の構成を示すブロック図である。It is a block diagram which shows the structure of the image acquisition part in the imaging device of embodiment. (a)は、実施形態の画像取得部におけるアレイカメラ及び光学フィルタの配置位置を示す図であり、(b)は、実施形態の画像取得部におけるアレイカメラの構成を示す図であり、(c)は、光学フィルタ部の構成を示す図である。(A) is a figure which shows the arrangement position of the array camera and optical filter in the image acquisition part of embodiment, (b) is a figure which shows the structure of the array camera in the image acquisition part of embodiment, (c) ) Is a diagram showing a configuration of an optical filter unit. 撮像素子の感度範囲(ラチチュード)を説明するための図である。It is a figure for demonstrating the sensitivity range (latitude) of an image pick-up element. 実施形態の画像撮像部で得られる画像の相対輝度の範囲を説明するための図である。It is a figure for demonstrating the range of the relative luminance of the image obtained by the image imaging part of embodiment. 実施形態の光学フィルタ部とアレイ撮像部の感度とを説明するための図である。It is a figure for demonstrating the sensitivity of the optical filter part and array imaging part of embodiment. 実施形態の通常HDRモードにおける対応点探索を説明するための図である。It is a figure for demonstrating the corresponding point search in the normal HDR mode of embodiment. 実施形態の通常HDRモードにおける相対輝度範囲を説明するための図である。It is a figure for demonstrating the relative-luminance range in normal HDR mode of embodiment. 実施形態のスーパーHDRモードにおける対応点探索を説明するための図である。It is a figure for demonstrating the corresponding point search in the super HDR mode of embodiment. 実施形態のスーパーHDRモードにおける相対輝度範囲を説明するための図である。It is a figure for demonstrating the relative-luminance range in the super HDR mode of embodiment. 実施形態のスーパーHDRモードの変形例における相対輝度範囲を説明するための図である。It is a figure for demonstrating the relative-luminance range in the modification of the super HDR mode of embodiment. 実施形態の高画質HDRモードにおける対応点探索を説明するための図である。It is a figure for demonstrating the corresponding point search in the high quality HDR mode of embodiment. 実施形態の高画質HDRモードにおける相対輝度範囲を説明するための図である。It is a figure for demonstrating the relative-luminance range in the high image quality HDR mode of embodiment. 実施形態の撮像装置における、ステレオ法による測距方法を説明するための図である。It is a figure for demonstrating the ranging method by the stereo method in the imaging device of embodiment. 実施形態のアレイカメラにより得られた画像の視差を説明するための図である。It is a figure for demonstrating the parallax of the image obtained by the array camera of embodiment. 実施形態のアレイカメラにより得られた画像の視差を説明するための図である。It is a figure for demonstrating the parallax of the image obtained by the array camera of embodiment. 実施形態の撮像装置における撮像処理を示すフローチャートである。It is a flowchart which shows the imaging process in the imaging device of embodiment.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。また、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
<実施形態>
図1は、実施形態における撮像装置の構成を示すブロック図である。図2は、実施形態の撮像装置における画像取得部の構成を示すブロック図である。図3(a)は、前記画像取得部におけるアレイカメラ及び光学フィルタの配置位置を示す斜視図であり、図3(b)は、前記画像取得部におけるアレイカメラの構成を示す斜視図であり、図3(c)は、光学フィルタ部32の構成を示す。
Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably. Further, in this specification, when referring generically, it is indicated by a reference symbol without a suffix, and when referring to an individual configuration, it is indicated by a reference symbol with a suffix.
<Embodiment>
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to the embodiment. FIG. 2 is a block diagram illustrating a configuration of an image acquisition unit in the imaging apparatus according to the embodiment. FIG. 3A is a perspective view showing an arrangement position of the array camera and the optical filter in the image acquisition unit, and FIG. 3B is a perspective view showing a configuration of the array camera in the image acquisition unit. FIG. 3C shows the configuration of the optical filter unit 32.

実施形態における撮像装置は、アレイカメラを構成する複数の個眼カメラの感度(撮像素子の感度)を変えて撮像した画像を用いて、HDR画像を作成するとともに、被写体までの距離を算出するものである。実施形態の撮像装置Dは、取得できるHDR画像のダイナミックレンジの幅と測距精度とがそれぞれ異なる複数の撮像モードを提供する。   The imaging apparatus according to the embodiment creates an HDR image and calculates a distance to a subject using an image captured by changing the sensitivity (sensitivity of an imaging element) of a plurality of single-lens cameras constituting an array camera. It is. The imaging apparatus D of the embodiment provides a plurality of imaging modes in which the width of the dynamic range of the HDR image that can be acquired and the distance measurement accuracy are different from each other.

実施形態における撮像装置Dは、例えば、図1に示すように、制御処理部1と、記憶部2と、画像取得部3と、入力部4と、出力部5とを備える。   For example, as illustrated in FIG. 1, the imaging device D according to the embodiment includes a control processing unit 1, a storage unit 2, an image acquisition unit 3, an input unit 4, and an output unit 5.

<画像取得部>
画像取得部3は、制御処理部1に接続され、同一の測定対象(物体、被写体)を撮像した複数の画像を取得するものである。このような画像取得部3は、例えば、図2に示すように、アレイカメラ31と、光学フィルタ部32とを備える。
<Image acquisition unit>
The image acquisition unit 3 is connected to the control processing unit 1 and acquires a plurality of images obtained by imaging the same measurement target (object, subject). Such an image acquisition unit 3 includes, for example, an array camera 31 and an optical filter unit 32 as shown in FIG.

図3(a)に示すように、アレイカメラ31は、複数の個眼レンズ(撮像光学系)を有するアレイレンズ部311と、この複数の個眼レンズそれぞれによって結像された物体の光学像をそれぞれ撮像する複数の個眼撮像部(撮像部)を有するアレイ撮像部312とを備える。そして、光学フィルタ部32は、複数種類のNDフィルタを有し、アレイレンズ部311の、物側に配置される。   As shown in FIG. 3A, the array camera 31 includes an array lens unit 311 having a plurality of single-lens lenses (imaging optical systems) and an optical image of an object imaged by each of the plurality of single-lens lenses. And an array imaging unit 312 having a plurality of single-eye imaging units (imaging units) that respectively capture images. The optical filter unit 32 includes a plurality of types of ND filters and is disposed on the object side of the array lens unit 311.

図3(b)に示すように、アレイレンズ部311は、複数の個眼レンズ3111を備える。1個の個眼レンズ3111は、その光軸に沿って1または複数の光学レンズを備えて構成される。複数の個眼レンズ3111は、図3(b)に示す例では、各光軸が互いに略平行となるように、そして、線形独立な2方向、より具体的には互いに直交するX方向およびY方向の2方向に2次元マトリクス状に配列される。図3(b)に示す例では、複数の個眼レンズ3111は、3行4列に2次元マトリクス状に配列された12個の個眼レンズ3111−11〜3111−34として示されている。   As illustrated in FIG. 3B, the array lens unit 311 includes a plurality of single-eye lenses 3111. One single lens 3111 includes one or more optical lenses along the optical axis. In the example shown in FIG. 3B, the plurality of single-lens lenses 3111 are arranged so that the optical axes are substantially parallel to each other, and in two linearly independent directions, more specifically, the X direction and the Y direction orthogonal to each other. They are arranged in a two-dimensional matrix in two directions. In the example shown in FIG. 3B, the plurality of single-lens lenses 3111 are shown as twelve single-lens lenses 3111-11 to 3111-34 arranged in a two-dimensional matrix in three rows and four columns.

アレイ撮像部312は、複数の個眼撮像部3121を備える。1個の個眼撮像部3121は、2次元マトリクス状に配列された複数の光電変換素子(複数の画素)を備え、各光電変換素子は、それぞれ、受光した光の光量に応じて変換した電気信号を画像における各画素のデータとして出力する。複数の個眼撮像部3121は、アレイレンズ部311における複数の個眼レンズ3111に対応し、各撮像面が互いに同一平面となるように配列される。図3(b)に示す例では、複数の個眼撮像部3121は、線形独立な2方向、より具体的には互いに直交するX方向およびY方向の2方向に2次元マトリクス状に配列されている。図3(b)に示す例では、複数の個眼撮像部3121は、3行4列に2次元マトリクス状に配列された12個の個眼撮像部3121−11〜3121−34として示されている。これら複数の個眼撮像部3121は、同一の基板上に2次元マトリクス状に配列された複数の前記固体撮像素子を備えて構成されて良いが、図3(a)に示す例では、1個の前記固体撮像素子を備えて構成されるものとする。この場合、1個の前記固体撮像素子における有効画素領域が、各個眼撮像部3121に対応するように、2次元マトリクス状に配列された複数の領域に分割され、これら各領域が各個眼撮像部3121として利用されるものとする。   The array imaging unit 312 includes a plurality of single-eye imaging units 3121. One single-eye imaging unit 3121 includes a plurality of photoelectric conversion elements (a plurality of pixels) arranged in a two-dimensional matrix, and each photoelectric conversion element converts electricity according to the amount of received light. The signal is output as data of each pixel in the image. The plurality of single-eye imaging units 3121 correspond to the plurality of single-eye lenses 3111 in the array lens unit 311 and are arranged so that the respective imaging surfaces are on the same plane. In the example shown in FIG. 3B, the plurality of single-eye imaging units 3121 are arranged in a two-dimensional matrix in two linearly independent directions, more specifically, two directions of X and Y directions orthogonal to each other. Yes. In the example shown in FIG. 3B, the plurality of single-eye imaging units 3121 are shown as twelve single-eye imaging units 3121-11 to 3121-34 arranged in a two-dimensional matrix in three rows and four columns. Yes. The plurality of single-eye imaging units 3121 may be configured to include a plurality of the solid-state imaging elements arranged in a two-dimensional matrix on the same substrate, but in the example illustrated in FIG. The solid-state imaging device is provided. In this case, the effective pixel area in one solid-state imaging device is divided into a plurality of areas arranged in a two-dimensional matrix so as to correspond to each single-eye imaging unit 3121, and each of these areas is divided into each single-eye imaging unit. Assume that 312 is used.

光学フィルタ部32は、入射光を領域ごとに光学的に互いに異なるように透過する光学素子であり、例えば、入射光を光学的に互いに異なるように透過する複数のサブ光学フィルタの領域を備える。実施形態では、図3(c)に示すように、光学フィルタ部32は、3行4列で配列された8個のNDフィルタ321−11〜332−34を備える。NDフィルタは、入射光を予め設定された所定の減衰率で減光させて透過するフィルタである。尚、これらNDフィルタ321は、個別の光学素子であって良く、また一体に形成された光学素子であっても良い。   The optical filter unit 32 is an optical element that transmits incident light so as to be optically different from region to region. For example, the optical filter unit 32 includes a plurality of sub optical filter regions that transmit incident light so as to be optically different from each other. In the embodiment, as shown in FIG. 3C, the optical filter unit 32 includes eight ND filters 321-1 to 332-34 arranged in 3 rows and 4 columns. The ND filter is a filter that transmits incident light after dimming it with a predetermined attenuation rate. These ND filters 321 may be individual optical elements, or may be optical elements formed integrally.

光学フィルタ部32の、1行1列に配置されるNDフィルタ321−11、1行3列に配置されるNDフィルタ321−13、3行2列に配置されるNDフィルタ321−32、及び、3行4列に配置されるNDフィルタ321−34は、光学濃度(OD(Optical Density)値)が「2.8」である。また、2行2列に配置されるNDフィルタ321−22、2行4列に配置されるNDフィルタ321−24、3行1列に配置されるNDフィルタ321−31、及び、3行3列に配置されるNDフィルタ321−33は、光学濃度が「1.4」である。1行2列に配置されるNDフィルタ321−12、1行4列に配置されるNDフィルタ321−14、2行1列に配置されるNDフィルタ321−21、及び、2行3列に配置されるNDフィルタ231−34は、光学濃度が「0.0」である。光学濃度「0.0」は、フィルタの透過率が「100%」を示し、光学濃度「1.4」は、透過率が約「4%」を示し、光学濃度「2.8」は、透過率が約「0.15%」を示す。   ND filter 321-11 arranged in 1 row and 1 column of optical filter section 32, ND filter 321-13 arranged in 1 row and 3 column, ND filter 321-32 arranged in 3 row and 2 column, and The ND filters 321-34 arranged in 3 rows and 4 columns have an optical density (OD (Optical Density) value) of “2.8”. Also, ND filter 321-22 arranged in 2 rows and 2 columns, ND filter 321-24 arranged in 2 rows and 4 columns, ND filter 321-31 arranged in 3 rows and 1 column, and 3 rows and 3 columns The optical density of the ND filters 321 to 33 arranged in the range is “1.4”. ND filter 321-12 arranged in 1 row and 2 columns, ND filter 321-14 arranged in 1 row and 4 columns, ND filter 321-21 arranged in 2 rows and 1 column, and arranged in 2 rows and 3 columns The ND filter 231-34 to be used has an optical density of “0.0”. The optical density “0.0” indicates that the transmittance of the filter is “100%”, the optical density “1.4” indicates that the transmittance is about “4%”, and the optical density “2.8” indicates that The transmittance is about “0.15%”.

光学フィルタ部32の複数のNDフィルタ321それぞれは、アレイレンズ部311が備える複数の個眼レンズ3111それぞれに対応して、各個眼レンズ3111の各物側にそれぞれ配置される。従って、各NDフィルタ321を介して入射される被写体からの光束は、各個眼レンズ3111を介して、各個眼撮像部3121の各受光面に物体の光学像をそれぞれ形成するように入射される。複数の個眼撮像部3121の各光電変換素子は、それぞれ、受光した光を、その光量に応じた電気信号に光電変換し、この電気信号を画像における各画素のデータとして制御処理部1へ出力する。複数の個眼撮像部3121は、同じ被写体を写した略視差だけずれた画像データを出力する。   Each of the plurality of ND filters 321 of the optical filter unit 32 is disposed on each object side of each individual lens 3111 corresponding to each of the plurality of individual lenses 3111 provided in the array lens unit 311. Therefore, the light flux from the subject incident through each ND filter 321 is incident through each individual lens 3111 so as to form an optical image of the object on each light receiving surface of each individual image pickup unit 3121. Each photoelectric conversion element of the plurality of single-eye imaging units 3121 photoelectrically converts the received light into an electrical signal corresponding to the amount of light, and outputs the electrical signal to the control processing unit 1 as data of each pixel in the image. To do. The plurality of single-eye imaging units 3121 outputs image data that is shifted by a substantially parallax that represents the same subject.

また、光学フィルタ部32は、アレイレンズ部311の物側に設けることとしているが、アレイレンズ部311と個眼撮像部3121との間に設けることとしてもよい。   The optical filter unit 32 is provided on the object side of the array lens unit 311, but may be provided between the array lens unit 311 and the single-eye imaging unit 3121.

ここで、撮像素子(個眼カメラ)の感度範囲について、図4を用いて説明する。以下、それぞれ対向する個眼撮像部3121と個眼レンズ3111との組み合わせを、「個眼カメラ」というものとする。   Here, the sensitivity range of the image sensor (single-eye camera) will be described with reference to FIG. Hereinafter, a combination of the single-eye imaging unit 3121 and the single-eye lens 3111 facing each other is referred to as a “single-eye camera”.

図4は、撮像素子の出力とその信頼度との関係を模式的に示したグラフ(以下、「信頼度グラフ」という。)である。横軸に、撮像素子の出力に基づく相対輝度を示し、縦軸に、画素値(出力値)の信頼度を示す。信頼度は、縦軸の矢印の方に行くにしたがって高くなるものとする。信頼度とは、階調表現力、S/N比等をいうものとする。横軸の「2」は、相対輝度「10」〜「10−2」の範囲は、6ビットで表されることを示す。 FIG. 4 is a graph schematically showing the relationship between the output of the image sensor and its reliability (hereinafter referred to as “reliability graph”). The horizontal axis represents the relative luminance based on the output of the image sensor, and the vertical axis represents the reliability of the pixel value (output value). The reliability is assumed to increase as it goes in the direction of the arrow on the vertical axis. The reliability refers to gradation expression power, S / N ratio, and the like. “2 6 2 4 2 2 2 0 ” on the horizontal axis indicates that the range of relative luminance “10 0 ” to “10 −2 ” is represented by 6 bits.

図4の信頼度グラフが示すように、撮像素子の感度範囲(相対輝度10−2〜10)内において、撮像素子の出力値の信頼度は一定ではなく、相対的に暗い領域では暗くなるにつれて信頼度が徐々に低下する領域(以下、「裾部分」という。)がある(矢印41参照)。尚、人間の感じる明るさの範囲は、撮像素子が一度にとらえることができる感度範囲に比べてかなり広いので、人間が一度に見ることができる明るさの範囲をカバーすることが望まれている。 As shown in the reliability graph of FIG. 4, the reliability of the output value of the image sensor is not constant within the sensitivity range (relative luminance 10 −2 to 10 1 ) of the image sensor, and the image becomes dark in a relatively dark region. There is a region (hereinafter referred to as “bottom part”) in which the reliability gradually decreases as shown (see arrow 41). It should be noted that the range of brightness perceived by humans is considerably wider than the sensitivity range that the image sensor can capture at a time, so it is desirable to cover the range of brightness that humans can see at once. .

次に、図5に、NDフィルタ321を介した光を受光した場合の撮像素子(個眼カメラ)の信頼度グラフを示す。グラフG1は、光学濃度「2.8」のNDフィルタ321を介した光を受光した場合の信頼度グラフであり、グラフG2は、光学濃度「1.4」のNDフィルタ321を介した光を受光した場合の信頼度グラフであり、グラフG3は、光学濃度「0.0」のNDフィルタ321を介した光を受光した場合の信頼度グラフである。つまり、NDフィルタにより入射光が予め設定された所定の減衰率で減光されて撮像素子に入射されるので、個眼カメラが出力する画像の相対輝度の範囲が、異なることになる。図5では、NDフィルタの光学濃度が「1.4」異なれば、個眼カメラが出力する画像の相対輝度の範囲は「101.4」異なることになる。つまり、(101.4≒2)であるので、光学濃度の異なるNDフィルタを備えた個眼カメラは、4ビットずれた相対輝度範囲をカバーできることになる。 Next, FIG. 5 shows a reliability graph of the image sensor (single-eye camera) when receiving light through the ND filter 321. A graph G1 is a reliability graph when light having passed through the ND filter 321 having an optical density of “2.8”, and a graph G2 represents light having passed through the ND filter 321 having an optical density of “1.4”. The graph is a reliability graph when light is received, and the graph G3 is a reliability graph when light is received through the ND filter 321 having an optical density of “0.0”. That is, since the incident light is attenuated by the ND filter at a predetermined attenuation rate and is incident on the image sensor, the relative luminance ranges of the images output from the single-eye camera are different. In FIG. 5, if the optical density of the ND filter is different by “1.4”, the range of relative luminance of the image output from the single-eye camera is different by “10 1.4 ”. That is, since (10 1.4 ≈2 4 ), a single-eye camera equipped with an ND filter having a different optical density can cover a relative luminance range shifted by 4 bits.

従って、3種類のNDフィルタ321を設けることで、アレイカメラ31が出力する複数画像全体の相対輝度の範囲(以下、「アレイカメラ31の相対輝度範囲」という。)は、NDフィルタ321を設けない場合に比べて、広い相対輝度範囲となる。   Therefore, by providing the three types of ND filters 321, the ND filter 321 is not provided in the range of relative luminance of the entire plurality of images output from the array camera 31 (hereinafter referred to as “relative luminance range of the array camera 31”). Compared to the case, the relative luminance range is wide.

<入力部>
図1に戻って、入力部4は、制御処理部1に接続され、例えば、撮像の開始を指示するコマンド等の各種コマンド、及び、撮像モードの設定等の撮像処理を実行する上で必要な各種データを撮像装置Dに入力する機器である。例えば、撮像装置Dの本体に付属する操作部であり、ボタン、スライドスイッチ等である。また、通信可能に接続されたパソコン等のキーボード、マウス等であってもよい。
<Input section>
Returning to FIG. 1, the input unit 4 is connected to the control processing unit 1, and is necessary for executing various types of commands such as a command for instructing the start of imaging, and imaging processing such as setting of an imaging mode, for example. It is a device that inputs various data to the imaging device D. For example, an operation unit attached to the main body of the imaging apparatus D, such as a button or a slide switch. Further, it may be a keyboard such as a personal computer or a mouse connected so as to be communicable.

<出力部>
出力部5は、制御処理部1に接続され、入力部4から入力されたコマンドやデータ、および、撮像装置Dによって作成されたHDR画像や、測距された測定対象までの距離等を出力する機器であり、例えばCRTディスプレイ、LCDおよび有機ELディスプレイ等の表示装置等である。
<Output unit>
The output unit 5 is connected to the control processing unit 1 and outputs commands and data input from the input unit 4, an HDR image created by the imaging device D, a distance to a measured object, and the like. For example, a display device such as a CRT display, an LCD, and an organic EL display.

尚、入力部4及び出力部5からタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部4は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置であり、出力部5は、表示装置である。このタッチパネルでは、表示装置の表示面上に位置入力装置が設けられ、表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として撮像装置Dに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い撮像装置Dが提供される。   A touch panel may be configured from the input unit 4 and the output unit 5. In the case of configuring this touch panel, the input unit 4 is a position input device that detects and inputs an operation position such as a resistive film method or a capacitance method, and the output unit 5 is a display device. In this touch panel, a position input device is provided on the display surface of the display device, one or more input content candidates that can be input to the display device are displayed, and the user touches the display position where the input content to be input is displayed. Then, the position is detected by the position input device, and the display content displayed at the detected position is input to the imaging device D as the operation input content of the user. With such a touch panel, the user can easily understand the input operation intuitively, and thus an imaging device D that is easy for the user to handle is provided.

<記憶部>
記憶部2は、制御処理部1に接続され、撮像処理を実行する上で必要な各種プログラムや各種データを記憶する装置であり、例えば、ROM(Read Only Memory)やEEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性記憶素子、RAM(Random Access Memory)等の揮発性記憶素子およびその周辺回路等を備えて構成される。記憶部2は、例えばハードディスク等の大容量記憶装置を備えても良い。
<Storage unit>
The storage unit 2 is a device that is connected to the control processing unit 1 and stores various programs and various data necessary for executing the imaging process. For example, the storage unit 2 is a ROM (Read Only Memory) or an EEPROM (Electrically Erasable Programmable Read Only). Non-volatile memory elements such as Memory), volatile memory elements such as RAM (Random Access Memory), and peripheral circuits thereof. The storage unit 2 may include a large-capacity storage device such as a hard disk.

そして、記憶部2は、画像データを記憶し、この画像データに対し制御処理部1によって後述の撮像処理を行うための作業領域として用いられる。   The storage unit 2 stores image data, and is used as a work area for performing imaging processing described later on the image data by the control processing unit 1.

<制御処理部>
制御処理部1は、所定の撮像処理プログラムに基づき後述の撮像処理を実行するべく、撮像装置Dの各部を当該各部の機能に応じてそれぞれ制御するものである。前記所定の撮像処理プログラムは、ユーザが設定した撮像モードに従って被写体を撮像し、HDR画像を作成し、また、被写体までの距離を測定するためのプログラムである。制御処理部1は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成され、所定の撮像処理プログラムを実行することによって、制御処理部1には、機能的に、制御部11、感度調整部12、及び、演算部13が構成される。
<Control processing unit>
The control processing unit 1 controls each part of the imaging device D according to the function of each part so as to execute an imaging process described later based on a predetermined imaging process program. The predetermined imaging processing program is a program for imaging a subject according to an imaging mode set by a user, creating an HDR image, and measuring a distance to the subject. The control processing unit 1 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. By executing a predetermined imaging processing program, the control processing unit 1 functionally includes the control unit 11, A sensitivity adjustment unit 12 and a calculation unit 13 are configured.

制御部11は、所定の撮像処理を実行するために、撮像装置Dの各部を当該各部の機能に応じてそれぞれ制御するものである。   The control unit 11 controls each unit of the imaging apparatus D according to the function of each unit in order to execute a predetermined imaging process.

感度調整部12は、個眼撮像部3121の撮像素子の光子の蓄積時間(積分時間)をそれぞれ変更する。つまり、個眼撮像部3121の光電変換素子の受光時間を変更することで、個眼カメラの感度を変更する。以下、個眼撮像部3121−11と個眼レンズ3111−11との組み合わせを「個眼カメラ11」、個眼撮像部3121−12と個眼レンズ3111−12との組み合わせを「個眼カメラ12」のようにいうものとする。   The sensitivity adjustment unit 12 changes the photon accumulation time (integration time) of the image sensor of the single-eye imaging unit 3121. That is, the sensitivity of the single-eye camera is changed by changing the light reception time of the photoelectric conversion element of the single-eye imaging unit 3121. Hereinafter, the combination of the single-eye imaging unit 3121-11 and the single-eye lens 3111-11 is referred to as “single-eye camera 11”, and the combination of the single-eye imaging unit 3121-12 and single-eye lens 3111-12 is referred to as “single-eye camera 12”. ".

図6は、光学フィルタ部32であり、矩形はNDフィルタ321を示し、矩形内の円で囲まれた数字は、NDフィルタ321の光学濃度を示す。「1」は光学濃度「2.8」、「2」は光学濃度「1.4」、「3」は光学濃度「0.0」を示す。つまり、同じ数字が付されたNDフィルタ321は、同じ光学濃度のNDフィルタ321であることを示す。以下、光学濃度「2.8」を「光学濃度(0)」、光学濃度「1.4」を「光学濃度(2)」、光学濃度「0.0」を「光学濃度(3)」という場合がある。   FIG. 6 shows the optical filter unit 32, where the rectangle indicates the ND filter 321, and the number enclosed by a circle in the rectangle indicates the optical density of the ND filter 321. “1” indicates an optical density “2.8”, “2” indicates an optical density “1.4”, and “3” indicates an optical density “0.0”. That is, the ND filter 321 with the same numeral is the ND filter 321 having the same optical density. Hereinafter, the optical density “2.8” is referred to as “optical density (0)”, the optical density “1.4” is referred to as “optical density (2)”, and the optical density “0.0” is referred to as “optical density (3)”. There is a case.

実施形態では、感度調整部12は、図6に示すように、NDフィルタ321をグループに分けて、つまり、アレイカメラ31の12個の個眼カメラを2つのグループ(グループA、グループB)に分けて、グループごとに感度を変更する。つまり、グループAは、個眼カメラ11、個眼カメラ12、個眼カメラ21、個眼カメラ22、個眼カメラ31、及び、個眼カメラ32で構成され、グループBは、個眼カメラ13、個眼カメラ14、個眼カメラ23、個眼カメラ24、個眼カメラ33、及び、個眼カメラ34で構成される。   In the embodiment, as shown in FIG. 6, the sensitivity adjustment unit 12 divides the ND filter 321 into groups, that is, the 12 single-eye cameras of the array camera 31 are divided into two groups (group A and group B). Separately, change the sensitivity for each group. That is, the group A includes the single camera 11, the single camera 12, the single camera 21, the single camera 22, the single camera 31, and the single camera 32, and the group B includes the single camera 13, The camera is composed of a single camera 14, a single camera 23, a single camera 24, a single camera 33, and a single camera 34.

感度調整部12は、ユーザにより設定された撮像モードに応じて、グループA、及び、グループBの感度を変更する。撮像モードに応じた処理については、<撮像モード>の項で、説明される。   The sensitivity adjustment unit 12 changes the sensitivities of the group A and the group B according to the imaging mode set by the user. The processing according to the imaging mode will be described in the section <imaging mode>.

演算部13は、例えば、図1に示すように、HDR画像生成部131、対応点探索部132、及び、距離算出部133を備える。   For example, as illustrated in FIG. 1, the calculation unit 13 includes an HDR image generation unit 131, a corresponding point search unit 132, and a distance calculation unit 133.

HDR画像生成部131は、アレイカメラ31により撮像された画像を、視差だけずらして合成し、1枚のHDR画像を生成する。つまり、HDR画像生成部131は、各画像内の被写体の位置合わせを行って、各画像を合成する。各画像間の視差は、対応点探索部132が算出する。また、HDR画像生成部131は、アレイ撮像部312の複数の個眼撮像部3121それぞれを構成する撮像素子からの出力値に基づいて、ダイナミックレンジ(輝度範囲)を決定し、アレイカメラ31により撮像された画像を合成して、決定したダイナミックレンジの1枚の画像を作成する。   The HDR image generation unit 131 combines the images picked up by the array camera 31 by shifting the parallax, and generates one HDR image. That is, the HDR image generation unit 131 performs alignment of the subject in each image and synthesizes each image. The corresponding point search unit 132 calculates the parallax between the images. In addition, the HDR image generation unit 131 determines a dynamic range (luminance range) based on output values from the imaging elements constituting each of the plurality of single-eye imaging units 3121 of the array imaging unit 312, and images are taken by the array camera 31. The synthesized images are combined to create one image of the determined dynamic range.

ここで、画像のずれについて図15、16を用いて説明する。各画像のずれの現れる方向は、各画像を撮像した個眼カメラの個眼レンズの位置に基づく。図15(a)に、2つの個眼カメラで撮像した2つの画像を重ねた合成画像を示し、図15(b)には、図15(a)の2つの画像を撮像したアレイカメラのアレイ撮像部を示す。このアレイカメラのアレイ撮像部は、3行3列の2次元マトリクス状に配列された9個の個眼撮像部から成る。内部に数値が表された矩形は、個眼撮像部を示し、ここでは、個眼撮像部で撮像された画像を、矩形の中の数値を用いて、画像1、画像2のように表すものとする。図15(a)に示す合成画像は、図15(b)に示す画像1と画像2の合成画像である。画像1と画像2とのずれは、画像1を撮像した個眼レンズの光軸と個眼撮像部の撮像面との交点と、画像2を撮像した個眼レンズの光軸と個眼撮像部の撮像面との交点とを結んだ方向に現れる(矢印152参照)。図15(a)の合成画面の矢印151の方向が、ずれの方向である。   Here, the image shift will be described with reference to FIGS. The direction in which the shift of each image appears is based on the position of the single lens of the single camera that captured each image. FIG. 15A shows a composite image obtained by superimposing two images captured by two single-eye cameras, and FIG. 15B shows an array camera array that captures the two images of FIG. An imaging part is shown. The array imaging unit of this array camera is composed of nine single-eye imaging units arranged in a two-dimensional matrix of 3 rows and 3 columns. A rectangle in which numerical values are represented indicates a single-eye imaging unit. Here, images captured by the single-eye imaging unit are represented as images 1 and 2 using numerical values in the rectangle. And The composite image shown in FIG. 15A is a composite image of image 1 and image 2 shown in FIG. The difference between the image 1 and the image 2 is the intersection of the optical axis of the single lens that captured the image 1 and the imaging surface of the single image capturing unit, and the optical axis of the single lens that captured the image 2 and the single image capturing unit. Appear in the direction connecting the intersection with the imaging surface (see arrow 152). The direction of the arrow 151 on the composite screen in FIG.

同様に、図16(a)に、2つの個眼カメラで撮像した2つの画像を重ねた合成画像を示し、図16(b)には、図16(a)の2つの画像を撮像したアレイカメラのアレイ撮像部を示す。図16(a)に示す合成画像は、図16(b)に示す画像2と画像5の合成画像である。画像2と画像5とのずれは、画像2を撮像した個眼レンズの光軸と個眼撮像部の撮像面との交点と、画像5を撮像した個眼レンズの光軸と個眼撮像部の撮像面との交点とを結んだ方向に現れる(矢印162参照)。図16(a)の合成画面の矢印161の方向が、ずれの方向である。このずれの方向が、いわゆるエピポールラインの方向となる。エピポールラインとは、基準画像側のカメラの視線を参照画像上に投影した線であるからである。個眼カメラが、図3に示すように、互いに直交するX方向およびY方向の2方向に2次元マトリクス状に配列され、個眼カメラ間の基線長が等しい場合には、図15に示すように、X軸方向の2つの画像、例えば、画像1と画像2のずれ量と、図16に示すように、Y軸方向の2つの画像、例えば、画像2と画像5のずれ量とを求めればよい。画像間のX軸方向のずれ量は、左右に隣り合う画像間では同じであり、Y軸方向のずれ量は、上下の画像間では同じだからである。具体的には、例えば、画像1と画像2のX軸方向のずれ量と、画像2と画像3とのずれ量と、画像4と画像5とのずれ量とは同じであり、同様に、他の画像間のX軸方向のずれ量も同じである(図15(b)参照)。また、画像5と画像2のY軸方向ずれ量と、画像5と画像8とのずれ量と、画像1と画像4とのずれ量とは同じであり、同様に、他の画像間のY軸方向のずれ量も同じである(図16(b)参照)。つまり、HDR画像生成部131は、HDR画像を作成する際に必要な各画像間の視差を、容易に求めることができる。HDR画像生成部131が、視差を求めるために選択する画像は、後述する距離算出部133が視差を求めるために選択する画像ペアと同じである。いずれの画像ペアを用いるかは、<撮像モード>の項で、説明する。尚、画像ペアは、X軸方向のY軸方向の隣り合った画像ペアに限られず、1以上の画像を間に挟んでいてもよく、また、ななめの位置の画像であってもよい。   Similarly, FIG. 16A shows a composite image in which two images taken by two single-eye cameras are superimposed, and FIG. 16B shows an array in which the two images in FIG. 16A are taken. The array imaging part of a camera is shown. The composite image shown in FIG. 16A is a composite image of the image 2 and the image 5 shown in FIG. The deviation between the image 2 and the image 5 is the intersection of the optical axis of the single-lens lens that captured the image 2 and the imaging surface of the single-eye imaging unit, the optical axis of the single-lens lens that captured the image 5, and the single-eye imaging unit. Appear in the direction connecting the intersection with the imaging surface (see arrow 162). The direction of the arrow 161 on the composite screen in FIG. The direction of this shift is the so-called epipole line direction. This is because the epipole line is a line obtained by projecting the line of sight of the camera on the base image side onto the reference image. When single-cameras are arranged in a two-dimensional matrix in two directions of X and Y directions orthogonal to each other as shown in FIG. 3, and the baseline lengths between single-cameras are equal, as shown in FIG. Further, two images in the X-axis direction, for example, the shift amount between the images 1 and 2, and two images in the Y-axis direction, for example, the shift amount between the images 2 and 5, as shown in FIG. That's fine. This is because the amount of deviation in the X-axis direction between images is the same between the images adjacent to the left and right, and the amount of deviation in the Y-axis direction is the same between the upper and lower images. Specifically, for example, the shift amount in the X-axis direction between the image 1 and the image 2, the shift amount between the image 2 and the image 3, and the shift amount between the image 4 and the image 5 are the same. The amount of deviation in the X-axis direction between other images is the same (see FIG. 15B). Further, the amount of deviation between the images 5 and 2 in the Y-axis direction, the amount of deviation between the images 5 and 8, and the amount of deviation between the images 1 and 4 are the same. The amount of deviation in the axial direction is the same (see FIG. 16B). That is, the HDR image generation unit 131 can easily obtain the parallax between each image necessary for creating the HDR image. The image that the HDR image generation unit 131 selects to obtain the parallax is the same as the image pair that the distance calculation unit 133 (to be described later) selects to obtain the parallax. Which image pair is used will be described in the section <Imaging mode>. Note that the image pair is not limited to the adjacent image pair in the Y-axis direction in the X-axis direction, and one or more images may be sandwiched therebetween, or may be an image at a licked position.

また、複数の画像から得られたハイダイナミックレンジデータを、同一枚の画像データにまとめアルゴリズムついては、以下の文献を参照できる。
M. Debevec: “Recovering High Dynamic Range Radiance Maps from Photographic”. In: Proc. SIGGRAPH (1997)
S.B. King, M. Uyttendaele, S. Winder, R. Szeliski: “High Dynamic Range Video”. ACM Transaction on Graphics (TOG), 22, 3 (July 2003)
対応点探索部132は、アレイカメラ31により撮像された複数の画像のずれ量(視差)を算出する。具体的には、対応点探索部132は、アレイカメラ31により撮像された画像のいずれかを基準画像とし、他の画像のいずれかを参照画像として対応点探索を行い、視差(ずれ画素数)を求める。対応点探索部132は、基準画像上に、対応点を探索したい所定の画素位置を中心に所定の大きさを持つウィンドウ(テンプレートT)を設定する。同様に、対応点探索部132は、参照画像上にも同じ大きさを持つウィンドウWを、エピポールライン上に複数設定する。そして、対応点探索部132は、基準画像上におけるテンプレートTに対する、参照画像上における各ウィンドウWの一致度(相関度)を所定の手法で求め(テンプレートマッチング)、最も一致度の高いウィンドウWにおける中心位置の画素を対応点として求める。対応点探索部132は、テンプレートTの中心位置の画素と、対応点との差をずれ量として算出する。一致度を求める前記所定の手法には、公知の常套手段、例えば、SAD(Sum of Absolute Difference)法(絶対誤差法)、POC(Phase−Only Correlation)等が用いられる。
Moreover, the following documents can be referred for the algorithm which puts the high dynamic range data obtained from a plurality of images into the same image data.
M.M. Devevec: “Recovering High Dynamic Range Radiance Map from Photographic”. In: Proc. SIGGRAPH (1997)
S. B. King, M.M. Uyttendaele, S.M. Winder, R .; Szeliski: “High Dynamic Range Video”. ACM Transactions on Graphics (TOG), 22, 3 (Jully 2003)
The corresponding point search unit 132 calculates a shift amount (parallax) between a plurality of images captured by the array camera 31. Specifically, the corresponding point search unit 132 performs a corresponding point search using any one of images captured by the array camera 31 as a reference image and any other image as a reference image, and parallax (the number of shifted pixels). Ask for. The corresponding point search unit 132 sets, on the reference image, a window (template T) having a predetermined size around a predetermined pixel position where a corresponding point is to be searched. Similarly, the corresponding point search unit 132 sets a plurality of windows W having the same size on the reference image on the epipole line. Then, the corresponding point search unit 132 obtains a matching degree (correlation degree) of each window W on the reference image with respect to the template T on the standard image by a predetermined method (template matching), and in the window W having the highest matching degree. The pixel at the center position is obtained as the corresponding point. The corresponding point search unit 132 calculates the difference between the pixel at the center position of the template T and the corresponding point as a deviation amount. As the predetermined method for obtaining the degree of coincidence, known conventional means, for example, SAD (Sum of Absolute Difference) method (absolute error method), POC (Phase-Only Correlation), or the like is used.

距離算出部133は、対応点探索部132が求めた視差を用いて、被写体までの距離を算出する。距離の算出について、図14を用いて説明する。予め定める間隔(基線長)だけ離間して設けられた一対の個眼カメラによって被写体の各画像が得られ、これら各画像に対し対応点探索がピクセル単位で実行され、これら各画像から前記離間方向における前記一対のカメラ間の視差がピクセル単位で求められる。そして、この求められた視差に基づいて被写体までの距離がいわゆる三角測量の原理に基づいて求められる。より具体的には、図14において、少なくとも焦点距離(f)、撮像面(個眼撮像部3121)の画素数、1画素の大きさ(μ)が相互に等しい2台の第1および第2カメラが、所定の基線長(B)だけ左右に離間させて光軸AX−1、AX−2を平行に配置される。これら第1および第2カメラで物体(被写体)Obが撮影された場合に、撮像面IP−1、IP−2上の視差(ずれ画素数)がd(=d1+d2)であるとすると、前記物体(被写体)Obまでの距離(Z)は、斜線を施して示す三角形が相似であることから、
Z:f=B:(d×μ)
の関係があり、
Z=(B×f)/(d×μ)
で求めることができる。
The distance calculation unit 133 calculates the distance to the subject using the parallax obtained by the corresponding point search unit 132. The calculation of the distance will be described with reference to FIG. Each image of the subject is obtained by a pair of single-lens cameras that are spaced apart by a predetermined interval (baseline length), and corresponding point search is performed for each of these images in units of pixels. The parallax between the pair of cameras is determined in units of pixels. Then, the distance to the subject is obtained based on the so-called triangulation principle based on the obtained parallax. More specifically, in FIG. 14, two first and second units having at least the focal length (f), the number of pixels on the imaging surface (single-eye imaging unit 3121), and the size (μ) of one pixel are equal to each other. The cameras are arranged in parallel with the optical axes AX-1 and AX-2 separated from each other by a predetermined base line length (B). When the object (subject) Ob is captured by the first and second cameras, and the parallax (the number of shifted pixels) on the imaging surfaces IP-1 and IP-2 is d (= d1 + d2), the object The distance (Z) to (subject) Ob is similar to the triangle shown by hatching,
Z: f = B: (d × μ)
There is a relationship
Z = (B × f) / (d × μ)
Can be obtained.

距離算出部133は、被写体までの距離を算出する際の視差を算出するために用いる2つの画像(画像ペア)を選択し、選択した画像ペアを対応点探索部132に渡して、視差を求めさせる。いずれの画像ペアを用いて視差を算出させるかは、ユーザによって設定された撮像モードによって異なる。いずれの画像ペアを用いるかは、<撮像モード>の項で、説明する。   The distance calculation unit 133 selects two images (image pairs) used to calculate the parallax when calculating the distance to the subject, passes the selected image pair to the corresponding point search unit 132, and obtains the parallax. Let Which image pair is used to calculate the parallax differs depending on the imaging mode set by the user. Which image pair is used will be described in the section <Imaging mode>.

距離算出部133は、複数の画像ペアから複数の視差を求めさせた場合には、算出された距離に基づいて、被写体までの距離を決定する。例えば、それぞれの距離の平均を測定対象物までの距離とする、または、信頼性の高い方の距離を採用するなどである。   In the case where a plurality of parallaxes are obtained from a plurality of image pairs, the distance calculation unit 133 determines the distance to the subject based on the calculated distance. For example, the average of each distance is used as the distance to the measurement object, or the more reliable distance is employed.

<撮像モード>
以下、撮像装置Dが備える撮像モードについて説明する。撮像装置Dは、大きく3つの撮像モードを備える。1つ目のモードは、「通常HDRモード」であり、2つ目のモードは、「スーパーHDRモード」であり、3つ目のモードは、「高画質HDRモード」である。そして、「スーパーHDRモード」と「高画質HDRモード」は、それぞれ「静体撮影モード」を有する。従って、撮像装置Dは、5つの撮像モードを備えることになる。
<Imaging mode>
Hereinafter, imaging modes provided in the imaging apparatus D will be described. The imaging device D has roughly three imaging modes. The first mode is a “normal HDR mode”, the second mode is a “super HDR mode”, and the third mode is a “high quality HDR mode”. The “super HDR mode” and the “high quality HDR mode” each have a “still body shooting mode”. Therefore, the imaging device D has five imaging modes.

<通常HDRモード>
以下、図7、8を用いて、通常HDRモード時の、感度調整部12の感度調整、及び、距離算出部133が選択する画像ペアについて説明する。
<Normal HDR mode>
Hereinafter, the sensitivity adjustment of the sensitivity adjustment unit 12 and the image pair selected by the distance calculation unit 133 in the normal HDR mode will be described with reference to FIGS.

通常HDRモードは、撮像装置Dが備える3つの撮像モードの中では、最も高精度の測距を行い、最もダイナミックレンジの狭いHDR画像を作成するモードである。従って、このモードは、ダイナミックレンジの幅よりも、距離の精度を重視される場合に、設定される撮像モードといえる。   The normal HDR mode is a mode in which the most accurate distance measurement is performed and the HDR image with the narrowest dynamic range is created among the three imaging modes provided in the imaging apparatus D. Therefore, this mode can be said to be an imaging mode that is set when the accuracy of distance is more important than the width of the dynamic range.

図7は、個眼カメラの感度調整、及び、画像ペアを説明するための光学フィルタ部32の図である。図8は、アレイカメラ31が出力する画像の相対輝度の範囲を説明するための図である。   FIG. 7 is a diagram of the optical filter unit 32 for explaining sensitivity adjustment of a single-eye camera and image pairs. FIG. 8 is a diagram for explaining a range of relative luminance of an image output from the array camera 31.

感度調整部12は、図6のグループA及びグループBを、同じ感度に調整する。つまり、感度調整部12は、アレイ撮像部312を構成する全ての個眼撮像部3121の撮像素子の、受光時間を同じ時間にする。図8の信頼度グラフは、グラフG3は、光学濃度(3)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示し、グラフG2は、光学濃度(2)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示し、グラフG1は、光学濃度(1)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示す。光学濃度(1)、(2)、(3)の各NDフィルタは、グラフG1、G2、G3のそれぞれの裾部分の一部が、光学濃度の値が次に低い(減衰率が低い)NDフィルタのグラフと重なるように、それぞれの光学濃度が設定される。実施形態では、光学濃度(3)は、光学濃度「0.0」であり、光学濃度(2)は光学濃度「1.4」であり、光学濃度(1)は、光学濃度「2.8」である。従って、NDフィルタの光学濃度が「1.4」異なれば、個眼カメラが出力する画像の相対輝度の範囲は「101.4」異なることになるので、アレイカメラ31が出力する複数画像全体の相対輝度の範囲は、おおむね104.5となる(両端矢印81参照)。 The sensitivity adjustment unit 12 adjusts the group A and the group B in FIG. 6 to the same sensitivity. That is, the sensitivity adjustment unit 12 sets the light reception times of the imaging elements of all the single-eye imaging units 3121 constituting the array imaging unit 312 to be the same time. In the reliability graph of FIG. 8, a graph G3 shows a range of relative luminance of an image output by a single-eye camera provided with the ND filter 321 having an optical density (3), and a graph G2 shows an optical density (2). The range of the relative luminance of the image output by the single camera provided with the ND filter 321 is shown, and the graph G1 shows the relative luminance of the image output by the single camera provided with the ND filter 321 of optical density (1). Indicates the range. In each of the ND filters of optical densities (1), (2), and (3), the ND portion of each of the graphs G1, G2, and G3 has the next lowest optical density value (low attenuation factor). Each optical density is set so as to overlap the filter graph. In the embodiment, the optical density (3) is an optical density “0.0”, the optical density (2) is an optical density “1.4”, and the optical density (1) is an optical density “2.8”. It is. Therefore, if the optical density of the ND filter is different by “1.4”, the range of relative luminance of the image output by the single-eye camera is different by “10 1.4 ”. range of relative luminance becomes approximately 10 4.5 (see double arrow 81).

距離算出部133は、測距のための視差を算出する画像ペアを、同じ光学濃度のNDフィルタ321が設けられた個眼カメラで撮像された画像同士を、ペアとして選択する。つまり、距離算出部133は、4つの画像から、画像ペアを選択する。図7では、例えば、画像ペア71、画像ペア72、画像ペア73の3つの画像ペアを選択する。この場合、この3つの画像ペアに共通する画像、つまり、3行3列のNDフィルタ321が設けられた個眼カメラ33で撮像された画像を、基準画像として対応点探索を行う。このような3つの画像ペアは、ペアとなる個眼カメラ間の基線長がそれぞれ異なり、また、基線長の向きがそれぞれ異なる。このような画像ペアを用いた対応点探索は、被写体を映した画像に、所定の画像が一定の間隔で繰り返し現れる模様、例えば、縞模様が含まれる場合であっても、高精度で視差を算出できる可能性が高い。また、オクルージョンが生じている場合であっても、画像ペアの数が多ければ、高精度で視差を算出できる可能性が高くなる。従って、通常HDRモードでは、同じ光学濃度のNDフィルタ321が設けられた個眼カメラで撮像された画像の数が多いので、画像ペアの選択の幅が広く、距離算出部133は、適切な画像ペアを選択することが可能であるので、測距精度が高くなることになる。   The distance calculation unit 133 selects an image pair for calculating parallax for distance measurement as a pair of images captured by a single-eye camera provided with the ND filter 321 having the same optical density. That is, the distance calculation unit 133 selects an image pair from the four images. In FIG. 7, for example, three image pairs of an image pair 71, an image pair 72, and an image pair 73 are selected. In this case, a corresponding point search is performed using an image common to the three image pairs, that is, an image captured by the single-eye camera 33 provided with the ND filter 321 of 3 rows and 3 columns as a reference image. In such three image pairs, the base line lengths between the paired single-eye cameras are different, and the directions of the base line lengths are different. Corresponding point search using such an image pair is a high-precision parallax even when the image showing the subject includes a pattern in which a predetermined image repeatedly appears at regular intervals, for example, a striped pattern. It is highly possible to calculate. Even if occlusion occurs, if the number of image pairs is large, there is a high possibility that the parallax can be calculated with high accuracy. Therefore, in the normal HDR mode, since the number of images captured by the single-eye camera provided with the ND filter 321 having the same optical density is large, the selection range of the image pair is wide, and the distance calculation unit 133 can select an appropriate image. Since it is possible to select a pair, ranging accuracy is increased.

尚、更に、1行1列のNDフィルタ321が設けられた個眼カメラ11、及び、3行4列のNDフィルタ321が設けられた個眼カメラ34の画像を画像ペアとして選択してもよい。   Furthermore, the images of the single camera 11 provided with the ND filter 321 of 1 row and 1 column and the single camera 34 provided with the ND filter 321 of 3 rows and 4 columns may be selected as an image pair. .

HDR画像生成部131は、上述したように、距離算出部13が選択する画像ペアのうち、画像間のずれ量を算出するのに必要な画像ペアを選択する。   As described above, the HDR image generation unit 131 selects an image pair necessary for calculating the shift amount between images from among the image pairs selected by the distance calculation unit 13.

<スーパーHDRモード>
以下、図9〜11を用いて、スーパーHDRモード時の、感度調整部12の感度調整、及び、距離算出部133が選択する画像ペアについて説明する。
<Super HDR mode>
Hereinafter, the sensitivity adjustment of the sensitivity adjustment unit 12 and the image pair selected by the distance calculation unit 133 in the super HDR mode will be described with reference to FIGS.

スーパーHDRモードは、比較的広い相対輝度範囲の画像を取得でき、比較的高精度の測距を行うモードである。従って、このモードは、ダイナミックレンジの幅も、距離の精度も、双方ともある程度重視される場合に、設定される撮像モードといえる。   The super HDR mode is a mode in which an image in a relatively wide relative luminance range can be acquired and a distance measurement with a relatively high accuracy is performed. Therefore, this mode can be said to be an imaging mode that is set when both the width of the dynamic range and the accuracy of the distance are emphasized to some extent.

図9は、個眼カメラの感度調整、及び、画像ペアを説明するための光学フィルタ部32の図である。図10は、アレイカメラ31の相対輝度範囲を説明するための図である。   FIG. 9 is a diagram of the optical filter unit 32 for explaining sensitivity adjustment of a single-eye camera and image pairs. FIG. 10 is a diagram for explaining the relative luminance range of the array camera 31.

感度調整部12は、グループAの個眼カメラの感度と、グループBの個眼カメラの感度を異ならせる。例えば、グループAの受光時間を、グループBの受光時間より長くなるように調整する。つまり、アレイ撮像部312を構成する個眼撮像部3121のうち、グループAに属する個眼撮像部3121の撮像素子の受光時間を、グループBに属する個眼撮像部3121の撮像素子の受光時間よりも、長くする。この受光時間を長くする時間は、図10に示すように、各個眼カメラが出力する画像の相対輝度の範囲が一部重なるような時間である。図10の信頼度グラフは、グラフGA3は、グループAの光学濃度(3)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示し、グラフGA2は、グループAの光学濃度(2)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示し、グラフGA1は、グループAの光学濃度(1)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示す。また、グラフGB3は、グループBの光学濃度(3)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示し、グラフGB2は、グループBの光学濃度(2)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示し、グラフGB1は、グループBの光学濃度(1)のNDフィルタ321が設けられた個眼カメラが出力する画像の相対輝度の範囲を示す。図10に示すように、アレイカメラ31の相対輝度範囲は、おおむね10となる(両端矢印101参照)。図10に示すように、撮像装置Dは、グループAの受光時間とグループBの受光時間とを異ならせることで、アレイカメラ31の相対輝度範囲を広くすることが可能となる。 The sensitivity adjustment unit 12 makes the sensitivity of the group A single camera different from the sensitivity of the group B single camera. For example, the light reception time of group A is adjusted to be longer than the light reception time of group B. That is, among the single-eye imaging units 3121 constituting the array imaging unit 312, the light-receiving time of the imaging device of the single-eye imaging unit 3121 belonging to group A is determined from the light-receiving time of the imaging device of the single-eye imaging unit 3121 belonging to group B. Also make it longer. As shown in FIG. 10, the time for increasing the light receiving time is a time such that the ranges of the relative luminance of the images output from the single-eye cameras partially overlap. In the reliability graph of FIG. 10, a graph GA3 indicates a range of relative luminance of an image output by a single-lens camera provided with the ND filter 321 of the optical density (3) of group A, and a graph GA2 indicates the group A The range of the relative luminance of the image output by the single camera provided with the ND filter 321 having the optical density (2) is shown. The graph GA1 is a single eye provided with the ND filter 321 having the optical density (1) of group A. Indicates the range of relative luminance of the image output by the camera. A graph GB3 indicates a range of relative luminance of an image output by a single-eye camera provided with the ND filter 321 of the optical density (3) of the group B, and a graph GB2 indicates the optical density (2) of the group B. The range of the relative luminance of the image output by the single camera provided with the ND filter 321 is shown, and the graph GB1 shows the image output by the single camera provided with the ND filter 321 of the optical density (1) of group B. Indicates the range of relative luminance. As shown in FIG. 10, the relative luminance range of the array camera 31 becomes approximately 109 (see double arrow 101). As illustrated in FIG. 10, the imaging apparatus D can widen the relative luminance range of the array camera 31 by making the light reception time of the group A different from the light reception time of the group B.

尚、図10に示すように各個眼カメラが出力する画像の相対輝度の範囲の一部が重なるようになる受光時間は、予め求め、定めておくものとする。   Note that, as shown in FIG. 10, the light reception time during which a part of the range of the relative luminance of the image output from each single camera overlaps is obtained and determined in advance.

距離算出部133は、図9に示すように、画像ペア91、又は、画像ペア92を選択する。同じ光学濃度のNDフィルタ321が設けられた個眼カメラで撮像された画像は、図9に示すように、グループA、Bそれぞれに、2つ含まれる。例えば、グループBにおいては、光学濃度(1)のNDフィルタ321による画像ペアは、画像ペア91であり、光学濃度(2)のNDフィルタ321による画像ペアは、画像ペア92である。つまり、同じ相対輝度範囲の画像のペアは1つであるので、対応点探索による視差の算出精度は、高くない場合が生じ得る。   The distance calculation unit 133 selects the image pair 91 or the image pair 92 as shown in FIG. As shown in FIG. 9, two images are included in each of groups A and B as shown in FIG. 9 by the single-eye camera provided with the ND filter 321 having the same optical density. For example, in group B, the image pair by the ND filter 321 having the optical density (1) is the image pair 91, and the image pair by the ND filter 321 having the optical density (2) is the image pair 92. In other words, since there is one image pair in the same relative luminance range, the accuracy of calculating the parallax by the corresponding point search may not be high.

そこで、図11に示すように、グラフGA1とグラフGB3とが重なるように、感度調整部12が、グループA、及び、グループBの受光時間を調整してもよい。この場合、グループAの光学濃度(1)のNDフィルタ321が設けられた2つの個眼カメラによる2つの画像と、グループBの光学濃度(3)のNDフィルタ321が設けられた2つの個眼カメラによる2つの画像との、計4つの画像を用いて、距離算出部133は、対応点探索を行うことが可能となる。つまり、距離算出部133は、高精度で求めた視差を取得することができる。図10で示すアレイカメラ31の相対輝度範囲が、所望する相対輝度範囲より広い場合には、図11に示すように、撮像装置Dは、一部の個眼カメラの感度範囲が重なるように、感度調整部12に個眼カメラの感度を調整させることで、高精度の測距を行うことが可能となる。   Therefore, as shown in FIG. 11, the sensitivity adjustment unit 12 may adjust the light reception times of the groups A and B so that the graph GA1 and the graph GB3 overlap. In this case, two images obtained by two single-eye cameras provided with the ND filter 321 having the optical density (1) of the group A and two single eyes provided with the ND filter 321 having the optical density (3) of the group B. The distance calculation unit 133 can perform a corresponding point search using a total of four images including two images from the camera. That is, the distance calculation unit 133 can acquire the parallax obtained with high accuracy. When the relative luminance range of the array camera 31 shown in FIG. 10 is wider than the desired relative luminance range, as shown in FIG. 11, the imaging device D is configured so that the sensitivity ranges of some single-eye cameras overlap. By causing the sensitivity adjustment unit 12 to adjust the sensitivity of the single-eye camera, highly accurate distance measurement can be performed.

HDR画像生成部131は、距離算出部13が選択する画像ペアのうち、画像間のずれ量を算出するのに必要な画像ペアを選択する。   The HDR image generation unit 131 selects an image pair necessary for calculating a shift amount between images from among the image pairs selected by the distance calculation unit 13.

<スーパーHDRモード:静体撮像モード>
被写体が、静体である場合には、複数回撮像したとしても、撮像した画像内で被写体が変化することはない。従って、撮像装置Dは、スーパーHDRモードで撮像し、更に、もう一度、通常HDRモードで撮像する。つまり、図9で示したように、撮像装置Dは、グループAの個眼カメラの感度と、グループBの個眼カメラの感度とを異ならせて、被写体を撮像し、次に、グループAの個眼カメラの感度と、グループBの個眼カメラの感度とを同じにして、同一被写体を撮像する。
<Super HDR mode: Still body imaging mode>
When the subject is a still body, the subject does not change in the captured image even if the image is captured a plurality of times. Therefore, the imaging apparatus D captures an image in the super HDR mode, and further captures an image again in the normal HDR mode. That is, as illustrated in FIG. 9, the imaging device D captures the subject by changing the sensitivity of the single-camera of the group A and the sensitivity of the single-camera of the group B. The same subject is imaged with the sensitivity of the single camera and the sensitivity of the single camera of group B being the same.

このように2回撮像することで、撮像装置Dは、図10に示すような広い相対輝度範囲のアレイカメラ31で撮像された画像により、HDR画像を作成でき、同時に、図7に示すような画像ペアにより、高精度の測距を行うことが可能となる。   By imaging twice in this way, the imaging apparatus D can create an HDR image from an image captured by the array camera 31 having a wide relative luminance range as shown in FIG. 10, and at the same time as shown in FIG. With the image pair, it becomes possible to perform high-precision distance measurement.

<高画質HDRモード>
以下、図12、13を用いて、高画質HDRモード時の、感度調整部12の感度調整、及び、距離算出部133が選択する画像ペアについて説明する。
<High quality HDR mode>
Hereinafter, the sensitivity adjustment of the sensitivity adjustment unit 12 and the image pair selected by the distance calculation unit 133 in the high image quality HDR mode will be described with reference to FIGS.

高画質HDRモードは、最も画質がよい、つまり、S/N比が高いHDR画像を作成するモードであり、高精度の測距を行うモードである。従って、このモードは、HDR画像の画質と、測距精度が重視される場合に、設定される撮像モードといえる。   The high image quality HDR mode is a mode for creating an HDR image with the best image quality, that is, a high S / N ratio, and a mode for performing high-precision distance measurement. Therefore, this mode can be said to be an imaging mode that is set when importance is attached to the image quality of the HDR image and the ranging accuracy.

図12は、個眼カメラの感度調整、及び、画像ペアを説明するための光学フィルタ部32の図である。図13は、アレイカメラ31の相対輝度範囲を説明するための図である。   FIG. 12 is a diagram of the optical filter unit 32 for explaining sensitivity adjustment of a single-eye camera and image pairs. FIG. 13 is a diagram for explaining the relative luminance range of the array camera 31.

感度調整部12は、グループAの個眼カメラの感度と、グループBの個眼カメラの感度を異ならせる。例えば、感度調整部12は、グループAの受光時間を、グループBの受光時間より長くなるように調整する。この受光時間を長くする時間は、図13に示すように、各個眼カメラが出力する画像の相対輝度の範囲が重なるような時間である。図4を用いて説明したように、撮像素子の感度範囲(相対輝度10−2〜10)内において、撮像素子の出力値の信頼度は、暗くなるに従って信頼度が低くなる(図4の矢印41参照)。従って、アレイカメラ31の相対輝度範囲において、信頼度が低くなる箇所が無いように、つまり、個眼カメラが出力する画像の相対輝度の範囲の信頼度が低い部分が、他の個眼カメラの信頼度の高い相対輝度の範囲と重なるように、感度調整部12は、グループA及びグループBの受光時間を調整する。 The sensitivity adjustment unit 12 makes the sensitivity of the group A single camera different from the sensitivity of the group B single camera. For example, the sensitivity adjustment unit 12 adjusts the light reception time of group A to be longer than the light reception time of group B. As shown in FIG. 13, the time for increasing the light reception time is a time such that the ranges of relative luminance of the images output from the single-eye cameras overlap. As described with reference to FIG. 4, the reliability of the output value of the image sensor becomes lower as it becomes darker in the sensitivity range (relative luminance 10 −2 to 10 1 ) of the image sensor (in FIG. 4). (See arrow 41). Therefore, in the relative luminance range of the array camera 31, there is no portion where the reliability is low, that is, the portion where the reliability of the range of the relative luminance of the image output by the single camera is low is that of the other single camera. The sensitivity adjustment unit 12 adjusts the light reception times of the group A and the group B so as to overlap with the range of relative luminance with high reliability.

尚、図13に示すように、個眼カメラが出力する画像の相対輝度の範囲が、他の個眼カメラが出力する画像の相対輝度の範囲の信頼度が低い部分を補うことになる受光時間は、予め求め、定めておくものとする。   Note that, as shown in FIG. 13, the light reception time in which the relative luminance range of the image output from the single camera supplements the low reliability portion of the relative luminance range of the image output from the other single camera. Is determined and determined in advance.

図13では、グラフGB1の信頼度が低い部分は、グラフGA1の信頼度が高い部分により補われ、グラフGB2の信頼度が低い部分は、グラフGA2の信頼度が高い部分により補われ、グラフGB3の信頼度が低い部分は、グラフGA3の信頼度が高い部分により補われている。アレイカメラ31の相対輝度範囲は、おおむね10となる(両端矢印131参照)。アレイカメラ31の相対輝度範囲は、スーパーHDRモードに比べて狭くなるが、画質は、スーパーHDRモードに比べて向上する。 In FIG. 13, the low reliability portion of the graph GB1 is supplemented by a high reliability portion of the graph GA1, and the low reliability portion of the graph GB2 is supplemented by a high reliability portion of the graph GA2. The portion with low reliability is supplemented by the portion with high reliability of the graph GA3. The relative luminance range of the array camera 31 becomes approximately 10 4 (see double arrow 131). Although the relative luminance range of the array camera 31 is narrower than that in the super HDR mode, the image quality is improved as compared with the super HDR mode.

距離算出部133は、図12に示すように、画像ペア121、画像ペア122、及び、画像ペア123の、3つのペアを選択する。つまり、図13に示すように、グループAの個眼カメラが出力する画像の相対輝度の範囲とグループBの個眼カメラが出力する画像の相対輝度の範囲は、重なっている部分がある。従って、距離算出部133は、グループA及びグループBの個眼カメラによる画像から、画像ペアを選択することが可能となる。つまり、距離算出部133は、4つの画像から、画像ペアを選択することが可能となる。従って、距離算出部133は、通常HDRモードと同様に、高精度で視差を算出できる可能性が高くなる。尚、視差を算出するために、グループAの個眼カメラによる画像と、グループBの個眼カメラによる画像とを用いて対応点探索を行う際には、いずれか一方のデータに感度補正を行い、感度補正後のデータを用いて対応点探索を行う。   The distance calculation unit 133 selects three pairs of an image pair 121, an image pair 122, and an image pair 123 as illustrated in FIG. That is, as shown in FIG. 13, the relative luminance range of the image output from the group A single camera and the relative luminance range of the image output from the group B single lens have an overlapping portion. Therefore, the distance calculation unit 133 can select an image pair from the images obtained by the group A and group B single-eye cameras. That is, the distance calculation unit 133 can select an image pair from four images. Accordingly, there is a high possibility that the distance calculation unit 133 can calculate the parallax with high accuracy as in the normal HDR mode. In order to calculate the parallax, when performing a corresponding point search using an image from the group A single camera and an image from the group B single camera, sensitivity correction is performed on one of the data. The corresponding point search is performed using the data after the sensitivity correction.

HDR画像生成部131は、距離算出部13が選択する画像ペアのうち、画像間のずれ量を算出するのに必要な画像ペアを選択する。   The HDR image generation unit 131 selects an image pair necessary for calculating a shift amount between images from among the image pairs selected by the distance calculation unit 13.

<高画質HDRモード:静体撮像モード>
被写体が、静体である場合には、複数回撮像したとしても、撮像した画像内で被写体が変化することはない。従って、撮像装置Dは、高品質HDRモードで撮像し、更に、もう一度、通常HDRモードで撮像する。つまり、撮像装置Dは、図12で示したように、グループAの個眼カメラの感度と、グループBの個眼カメラの感度とを異ならせて、被写体を撮像し、次に、グループAの個眼カメラの感度と、グループBの個眼カメラの感度とを同じにして、同一被写体を撮像する。
<High quality HDR mode: Still body imaging mode>
When the subject is a still body, the subject does not change in the captured image even if the image is captured a plurality of times. Therefore, the imaging device D captures an image in the high quality HDR mode, and further captures an image in the normal HDR mode again. That is, as illustrated in FIG. 12, the imaging device D images the subject by changing the sensitivity of the group A single camera and the sensitivity of the group B single camera. The same subject is imaged with the sensitivity of the single camera and the sensitivity of the single camera of group B being the same.

このように2回撮像することで、撮像装置Dは、図13に示すような感度範囲のアレイカメラ31で撮像された画像を用いて高画質のHDR画像を作成でき、同時に、図7に示すような画像ペアにより、高精度の測距を行うことが可能となる。   By imaging twice in this way, the imaging apparatus D can create a high-quality HDR image using an image captured by the array camera 31 having a sensitivity range as shown in FIG. 13, and at the same time, shown in FIG. Such an image pair makes it possible to perform highly accurate distance measurement.

<動作>
次に、本実施形態における撮像装置Dの動作について、図17を用いて説明する。図17は、撮像装置Dの撮像処理のフローチャートである。尚、図17のフローチャートにおいて、ステップ番号が同じ処理は、その処理内容が同じであるとする。
<Operation>
Next, the operation of the imaging apparatus D in this embodiment will be described with reference to FIG. FIG. 17 is a flowchart of the imaging process of the imaging device D. In the flowchart of FIG. 17, it is assumed that processes with the same step number have the same processing contents.

ユーザは、入力部4を操作して、撮像モードを設定する。ユーザにより設定された撮像モードを、制御処理部1を介して受け付けた制御部11は、設定された撮像モードが「通常HDRモード」である場合には(ステップS11:Yes)、感度調整部12にグループA及びグループBの感度を同じにするよう指示する。指示を受けた感度調整部12は、画像取得部3のアレイカメラ31の個眼撮像部3121の受光時間として、すべて同じ時間を設定する(ステップS13)。   The user operates the input unit 4 to set the imaging mode. The control unit 11 that has received the imaging mode set by the user via the control processing unit 1, when the set imaging mode is the “normal HDR mode” (step S <b> 11: Yes), the sensitivity adjustment unit 12. Instruct the group A and group B to have the same sensitivity. Upon receiving the instruction, the sensitivity adjustment unit 12 sets the same time as the light reception time of the single-eye imaging unit 3121 of the array camera 31 of the image acquisition unit 3 (step S13).

ユーザが入力部4を操作して、撮像を指示するコマンドを入力すると、制御処理部1を介して撮像指示を受け付けた制御部11は、画像取得部3から、感度調整部12が設定した感度で撮像された複数の画像を取得し、記憶部2に記憶させる(ステップS13)。   When the user operates the input unit 4 to input a command for instructing imaging, the control unit 11 that has received the imaging instruction via the control processing unit 1 receives the sensitivity set by the sensitivity adjustment unit 12 from the image acquisition unit 3. A plurality of images picked up in (1) are acquired and stored in the storage unit 2 (step S13).

そして、制御部11は、HDR画像生成部131に、HDR画像の作成を指示する。指示を受けたHDR画像生成部131は、記憶部2から画像を読み出し、各画像間のずれを算出することが可能な画像ペアを選択し、選択した画像ペアを対応点探索部132に渡して、視差(ずれ量)の算出を依頼する。依頼を受けた対応点探索部132は、ペアの画像を用いて対応点探索を行い、視差を求め、HDR画像生成部131に渡す。   Then, the control unit 11 instructs the HDR image generation unit 131 to create an HDR image. Upon receiving the instruction, the HDR image generation unit 131 reads out the image from the storage unit 2, selects an image pair that can calculate the shift between the images, and passes the selected image pair to the corresponding point search unit 132. , Request the calculation of the parallax (deviation amount). Upon receiving the request, the corresponding point search unit 132 performs a corresponding point search using the pair of images, obtains the parallax, and passes the parallax to the HDR image generation unit 131.

対応点探索部132から、画像間のずれ量を受け取ったHDR画像生成部131は、記憶部2から読み出した画像を、ずれ量だけずらして合成し、1枚のHDR画像を生成する(ステップS14)。   The HDR image generation unit 131 that has received the shift amount between images from the corresponding point search unit 132 combines the images read from the storage unit 2 by shifting the shift amount, and generates one HDR image (step S14). ).

また、制御部11は、距離算出部133に、被写体までの距離の算出を指示する。指示を受けた距離算出部133は、上述したような画像ペアを記憶部2から読み出し、読み出した画像ペアを対応点探索部132に渡し、視差の算出を依頼する。依頼を受けた対応点探索部132は、ペアの画像を用いて対応点探索を行い、視差を求め、距離算出部133に渡す。   Further, the control unit 11 instructs the distance calculation unit 133 to calculate the distance to the subject. Upon receiving the instruction, the distance calculation unit 133 reads out the image pair as described above from the storage unit 2, passes the read image pair to the corresponding point search unit 132, and requests the calculation of parallax. Upon receiving the request, the corresponding point search unit 132 performs a corresponding point search using the pair of images, obtains the parallax, and passes the parallax to the distance calculation unit 133.

対応点探索部132から視差を受け取った距離算出部133は、図14を用いて説明したように、被写体までの距離を算出する(ステップS15)。   The distance calculation unit 133 that has received the parallax from the corresponding point search unit 132 calculates the distance to the subject as described with reference to FIG. 14 (step S15).

制御部11は、HDR画像生成部131が作成したHDR画像、及び、距離算出部133が算出した被写体までの距離を出力部5に出力する。   The control unit 11 outputs the HDR image created by the HDR image generation unit 131 and the distance to the subject calculated by the distance calculation unit 133 to the output unit 5.

ステップS11において、設定された撮像モードが「通常HDRモード」ではなく(ステップS11:No)、設定された撮像モードが「スーパーHDRモード」であり(ステップS21:Yes)、「静体撮像モード」ではない場合には(ステップS22:No)、制御部11は、<スーパーHDRモード>の項で説明したように、感度調整部12にグループAの感度とグループBの感度とを、それぞれスーパーHDRモード用に予め定められた感度にするよう指示する。指示を受けた感度調整部12は、スーパーHDRモード用に予め定められている受光時間を、画像取得部3のアレイカメラ31の個眼撮像部3121の受光時間として、グループごとに設定する(ステップS23)。   In step S11, the set imaging mode is not “normal HDR mode” (step S11: No), the set imaging mode is “super HDR mode” (step S21: Yes), and “still body imaging mode”. If not (step S22: No), the control unit 11 sets the sensitivity of the group A and the sensitivity of the group B to the sensitivity adjustment unit 12 as described in the <Super HDR mode>, respectively. Instructs the sensitivity to be predetermined for the mode. Upon receiving the instruction, the sensitivity adjustment unit 12 sets the light reception time predetermined for the super HDR mode for each group as the light reception time of the single-eye imaging unit 3121 of the array camera 31 of the image acquisition unit 3 (Step S1). S23).

ユーザが入力部4を操作して、撮像を指示するコマンドを入力すると、制御処理部1を介して撮像指示を受け付けた制御部11は、画像取得部3から、感度調整部12が設定した感度で撮像された複数の画像を取得し、記憶部2に記憶させる(ステップS24)。   When the user operates the input unit 4 to input a command for instructing imaging, the control unit 11 that has received the imaging instruction via the control processing unit 1 receives the sensitivity set by the sensitivity adjustment unit 12 from the image acquisition unit 3. A plurality of images picked up in (1) are acquired and stored in the storage unit 2 (step S24).

そして、制御部11は、HDR画像生成部131に、HDR画像の作成を指示する。指示を受けたHDR画像生成部131は、記憶部2から画像を読み出し、画像ペアを選択し、選択した画像ペアを対応点探索部132に渡して視差(ずれ量)を算出させ、算出されたずれ量を用いて、1枚のHDR画像を生成する(ステップS25)。   Then, the control unit 11 instructs the HDR image generation unit 131 to create an HDR image. Upon receiving the instruction, the HDR image generation unit 131 reads an image from the storage unit 2, selects an image pair, passes the selected image pair to the corresponding point search unit 132, and calculates parallax (deviation amount). One HDR image is generated using the shift amount (step S25).

また、制御部11は、距離算出部133に、被写体までの距離の算出を指示する。指示を受けた距離算出部133は、<スーパーHDRモード>の項で説明したような画像ペアを記憶部2から読み出し、読み出した画像ペアを対応点探索部132に渡し、視差を算出させ、算出された視差を用いて、被写体までの距離を算出する(ステップS26)。   Further, the control unit 11 instructs the distance calculation unit 133 to calculate the distance to the subject. Upon receiving the instruction, the distance calculation unit 133 reads out the image pair as described in the <Super HDR mode> section from the storage unit 2, passes the read image pair to the corresponding point search unit 132, and calculates and calculates the parallax. Using the parallax, the distance to the subject is calculated (step S26).

制御部11は、HDR画像生成部131が作成したHDR画像、及び、距離算出部133が算出した被写体までの距離を出力部5に出力する。   The control unit 11 outputs the HDR image created by the HDR image generation unit 131 and the distance to the subject calculated by the distance calculation unit 133 to the output unit 5.

ステップS22において、「静体撮像モード」ではある場合には(ステップS22:Yes)、制御部11は、ステップS23からステップS25までの処理、つまり、スーパーHDRモードでの撮像を行い、HDR画像を作成する。   In step S22, when it is “still body imaging mode” (step S22: Yes), the control unit 11 performs processing from step S23 to step S25, that is, performs imaging in the super HDR mode, and displays an HDR image. create.

そして、制御部11は、次に、ステップS12、S13、S15の処理、つまり、通常HDRモードでの撮像を行い、被写体までの距離を算出する。   Then, the control unit 11 performs the processing of steps S12, S13, and S15, that is, performs imaging in the normal HDR mode, and calculates the distance to the subject.

制御部11は、作成されたHDR画像、及び、算出された被写体までの距離を出力部5に出力する。   The control unit 11 outputs the created HDR image and the calculated distance to the subject to the output unit 5.

ステップS21において、設定された撮像モードが「高画質HDRモード」であり(ステップS21:No)、「静体撮像モード」ではない場合には(ステップS41:No)、制御部11は、<高画質HDRモード>の項で説明したように、感度調整部12にグループAの感度とグループBの感度とを、それぞれ高画質HDRモード用に予め定められた感度にするよう指示する。指示を受けた感度調整部12は、高画質HDRモード用に予め定められている受光時間を、画像取得部3のアレイカメラ31の個眼撮像部3121の受光時間として、グループごとに設定する(ステップS42)。   In step S21, when the set imaging mode is the “high image quality HDR mode” (step S21: No) and not the “still body imaging mode” (step S41: No), the control unit 11 determines that <high As described in the section “Image Quality HDR Mode>, the sensitivity adjustment unit 12 is instructed to set the sensitivity of the group A and the sensitivity of the group B to the predetermined sensitivity for the high image quality HDR mode. Upon receiving the instruction, the sensitivity adjustment unit 12 sets the light reception time predetermined for the high image quality HDR mode as the light reception time of the single-eye imaging unit 3121 of the array camera 31 of the image acquisition unit 3 for each group ( Step S42).

ユーザが入力部4を操作して、撮像を指示するコマンドを入力すると、制御処理部1を介して撮像指示を受け付けた制御部11は、画像取得部3から、感度調整部12が設定した感度で撮像された複数の画像を取得し、記憶部2に記憶させる(ステップS43)。   When the user operates the input unit 4 to input a command for instructing imaging, the control unit 11 that has received the imaging instruction via the control processing unit 1 receives the sensitivity set by the sensitivity adjustment unit 12 from the image acquisition unit 3. A plurality of images picked up in (1) are acquired and stored in the storage unit 2 (step S43).

そして、制御部11は、HDR画像生成部131に、HDR画像の作成を指示する。指示を受けたHDR画像生成部131は、記憶部2から画像を読み出し、対応点探索部132に渡して視差(ずれ量)を算出させ、算出されたずれ量を用いて、1枚のHDR画像を生成する(ステップS44)。   Then, the control unit 11 instructs the HDR image generation unit 131 to create an HDR image. Upon receiving the instruction, the HDR image generation unit 131 reads an image from the storage unit 2, passes the image to the corresponding point search unit 132, calculates parallax (deviation amount), and uses the calculated deviation amount to produce one HDR image. Is generated (step S44).

また、制御部11は、距離算出部133に、被写体までの距離の算出を指示する。指示を受けた距離算出部133は、<高画質HDRモード>の項で説明したような画像ペアを記憶部2から読み出し、読み出した画像ペアを対応点探索部132に渡し、視差を算出させ、算出された視差を用いて、被写体までの距離を算出する(ステップS45)。   Further, the control unit 11 instructs the distance calculation unit 133 to calculate the distance to the subject. Upon receiving the instruction, the distance calculation unit 133 reads out the image pair as described in the section of <High Quality HDR Mode> from the storage unit 2, passes the read image pair to the corresponding point search unit 132, and calculates the parallax. A distance to the subject is calculated using the calculated parallax (step S45).

制御部11は、HDR画像生成部131が作成したHDR画像、及び、距離算出部133が算出した被写体までの距離を出力部5に出力する。   The control unit 11 outputs the HDR image created by the HDR image generation unit 131 and the distance to the subject calculated by the distance calculation unit 133 to the output unit 5.

ステップS41において、「静体撮像モード」ではある場合には(ステップS41:Yes)、制御部11は、ステップS42からステップS44までの処理、つまり、高画質HDRモードでの撮像を行い、HDR画像を作成する。   In step S41, when it is “still body imaging mode” (step S41: Yes), the control unit 11 performs the processing from step S42 to step S44, that is, performs imaging in the high image quality HDR mode, and performs the HDR image. Create

そして、制御部11は、次に、ステップS12、S13、S15の処理、つまり、通常HDRモードでの撮像を行い、被写体までの距離を算出する。   Then, the control unit 11 performs the processing of steps S12, S13, and S15, that is, performs imaging in the normal HDR mode, and calculates the distance to the subject.

制御部11は、作成されたHDR画像、及び、算出された被写体までの距離を出力部5に出力する。   The control unit 11 outputs the created HDR image and the calculated distance to the subject to the output unit 5.

このように、撮像装置Dでは、画像のダイナミックレンジ、及び、測距精度の選択を、ユーザが容易に行うことが可能となっている。   As described above, in the imaging apparatus D, the user can easily select the dynamic range of the image and the ranging accuracy.

尚、実施形態では、撮像モードをユーザが入力することとしているが、所望するダイナミックレンジを入力することとしてもよい。この場合は、撮像装置Dは、入力されたダイナミックレンジに応じて、適切な撮像モードを設定する。   In the embodiment, the user inputs the imaging mode, but a desired dynamic range may be input. In this case, the imaging device D sets an appropriate imaging mode according to the input dynamic range.

また、実施形態では、撮像モードごとにダイナミックレンジの幅を予め定めておくこととしているが、任意のダイナミックレンジの幅をユーザが入力してもよい。例えば、図11のグループAの個眼カメラが出力する画像の相対輝度の範囲と、グループBの個眼カメラが出力する画像の相対輝度の範囲との重なり幅を変更することで、アレイカメラ31の相対輝度範囲を任意の幅に変更することができるからである。この調整は、グループAの受光時間とグループBの受光時間とを調整することで、容易に実現が可能である。   In the embodiment, the width of the dynamic range is determined in advance for each imaging mode. However, the user may input an arbitrary width of the dynamic range. For example, the array camera 31 can be changed by changing the overlap width between the relative luminance range of the image output from the single-camera group A in FIG. 11 and the relative luminance range of the image output from the single-camera group B in FIG. This is because the relative luminance range can be changed to an arbitrary width. This adjustment can be easily realized by adjusting the light reception time of group A and the light reception time of group B.

また、撮像装置Dが、被写体を動画として撮像しながら必要なダイナミックレンジ(相対輝度範囲)を算出し、グループA及びグループBのそれぞれの感度を自動的に設定してもよい。例えば、撮像した画像内に暗い領域が、画像全体の一定割合以上ある場合には、スーパーHDRモードが設定され、暗い領域の割合が前記一定割合を下回る場合は、標準HDRモードが設定されるなどである。また、時系列の画像に変化がなく被写体が静体であると判断される場合には、スーパーHDRモードの静体撮像モードが設定されるなどである。   Further, the imaging device D may calculate a necessary dynamic range (relative luminance range) while imaging the subject as a moving image, and automatically set the sensitivity of each of the group A and the group B. For example, the super HDR mode is set when the dark area in the captured image is a certain ratio or more of the entire image, and the standard HDR mode is set when the ratio of the dark area is lower than the certain ratio. It is. Further, when it is determined that there is no change in the time-series images and the subject is a still body, the still body imaging mode of the super HDR mode is set.

更に、ユーザが、出力部5に表示される自動設定後の撮像画像を見ながら、ダイナミックレンジの調整を行えることとしてもよい。また、撮像装置Dは、最初にスーパーHDRモードで被写体を撮像して撮像画像を表示し、その後、ユーザによるスライドスイッチ等の操作に応じて、ダイナミックレンジを変更させ、適切なモードに設定させることとしてもよい。   Furthermore, the user may be able to adjust the dynamic range while viewing the automatically set captured image displayed on the output unit 5. In addition, the imaging apparatus D first captures a subject in the super HDR mode and displays a captured image, and then changes the dynamic range in accordance with the user's operation of a slide switch or the like, and sets the appropriate mode. It is good.

また、撮像装置Dは、まず、複数の撮像モードで被写体を撮像し、異なる撮像モードで撮像した複数の撮像画像を出力部5に表示し、ユーザに所望するような画像を選択させて、選択された画像の撮像モードを設定することとしてもよい。また、撮像装置Dは、撮像モードで撮像した複数の撮像画像を通信可能に接続されたパソコン等にさせて、ユーザに、所望するような画像を選択させてもよい。   In addition, the imaging device D first captures a subject in a plurality of imaging modes, displays a plurality of captured images captured in different imaging modes on the output unit 5, and allows the user to select and select an image as desired. It is also possible to set the imaging mode for the captured image. In addition, the imaging apparatus D may cause a user to select a desired image by causing a plurality of captured images captured in the imaging mode to be connected to a personal computer or the like that is communicably connected.

また、実施形態では、撮像装置Dは、ハイダイナミックレンジ画像を作成することとしているが、アレイカメラ31から得られた複数の画像を用いて、超解像画像を作成してもよく、更に、超解像画像を用いた測距を行ってもよい。   In the embodiment, the imaging apparatus D creates a high dynamic range image. However, the imaging apparatus D may create a super-resolution image using a plurality of images obtained from the array camera 31. Ranging using a super-resolution image may be performed.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.

D 測距装置
12 感度調整部
13 演算部
131 HDR画像生成部
132 対応点探索部
133 距離算出部
3 画像取得部
31 アレイカメラ
311 アレイレンズ部
312 アレイ撮像部
32 光学フィルタ部
321 NDフィルタ
D Distance measuring device 12 Sensitivity adjustment unit 13 Calculation unit 131 HDR image generation unit 132 Corresponding point search unit 133 Distance calculation unit 3 Image acquisition unit 31 Array camera 311 Array lens unit 312 Array imaging unit 32 Optical filter unit 321 ND filter

Claims (7)

一体に配列された複数の撮像光学系と、前記複数の撮像光学系に対応し、前記複数の撮像光学系それぞれによって結像された対象物の光学像を撮像する複数の撮像部とを有する複眼カメラと、
前記複数の撮像光学系にそれぞれ対応する複数のフィルタであって、それぞれ異なる予め設定された所定の減衰率で入射光を減光させて透過する複数のフィルタを有し、前記複数のフィルタのうち、少なくとも2つのフィルタは、前記予め設定された所定の減衰率が同じである光学フィルタ部と、
前記複数の撮像部それぞれの感度を変更する感度変更部と、
前記複数の撮像部で撮像された画像を用いた対応点探索により、前記複数の画像同士の視差を算出する対応点探索部と、
前記予め設定された所定の減衰率が同一の前記複数のフィルタに対応する撮像部であって、前記感度変更部によって同じ感度に変更された撮像部により撮像された複数の画像を用いて、前記対応点探索部に視差を算出させ、算出された視差を用いて前記対象物の位置合わせを行い、前記複数の撮像部で撮像された画像を合成して、1枚の画像を作成する画像作成部と、
輝度範囲の異なる複数のモードを有し、前記モードに応じて、前記感度変更部に前記複数の撮像部の感度を変更させ、前記複数の撮像部で撮像された画像を用いて、前記画像作成部に前記各モードに応じた輝度範囲の画像を作成させる制御部と
を備えることを特徴とする撮像装置。
A compound eye having a plurality of imaging optical systems arranged in an integrated manner and a plurality of imaging units corresponding to the plurality of imaging optical systems and imaging optical images of objects formed by the plurality of imaging optical systems, respectively. A camera,
A plurality of filters respectively corresponding to the plurality of imaging optical systems, each having a plurality of filters that attenuate and transmit incident light at different preset predetermined attenuation rates; , At least two filters, the optical filter unit having the same predetermined attenuation rate set in advance,
A sensitivity changing unit that changes the sensitivity of each of the plurality of imaging units;
A corresponding point search unit that calculates parallax between the plurality of images by corresponding point search using images captured by the plurality of imaging units;
The imaging unit corresponding to the plurality of filters having the same preset predetermined attenuation rate, and using a plurality of images captured by the imaging unit changed to the same sensitivity by the sensitivity changing unit, Image creation that causes a corresponding point search unit to calculate parallax, aligns the object using the calculated parallax, and synthesizes images captured by the plurality of imaging units to create one image And
The image creation using a plurality of modes having different luminance ranges, causing the sensitivity changing unit to change the sensitivity of the plurality of imaging units according to the mode, and using images captured by the plurality of imaging units An image pickup apparatus comprising: a control unit that causes the unit to create an image of a luminance range corresponding to each mode.
前記予め設定された所定の減衰率は、n種類(n≧2)であり、
前記撮像部により撮像された画像の輝度範囲を横軸に、前記輝度範囲の輝度の信頼度を縦軸とするグラフにおいて、第1減衰率のフィルタに対応する第1撮像部により撮像された画像の第1グラフのうちの輝度が低い部分であって前記信頼度が徐々に低下している部分である裾部分の一部が、前記第1減衰率の次に減衰率が低い第2減衰率のフィルタに対応し、前記第1撮像部と同じ感度に設定された第2撮像部により撮像された画像の第2グラフと重なるように、前記第1減衰率及び前記第2減衰率が設定され、
前記複数のフィルタは、n種類の減衰率のフィルタをそれぞれ複数有し、n種類の減衰率のフィルタをそれぞれ含む第1グループと第2グループとを備えており、
前記複数のモードとは、
前記感度変更部により前記第1グループ及び前記第2グループのフィルタに対応する撮像部が同一の感度に変更される第1モードと、
前記感度変更部により前記第1グループのフィルタに対応する撮像部が第1感度に変更され、前記第2グループのフィルタに対応する撮像部が前記第1感度よりも高い感度の第2感度に変更され、前記第1感度及び前記第2感度は、前記第1感度に変更された撮像部のうち最も減衰率が低いフィルタに対応する撮像部により撮像された画像の前記グラフの全部または一部分が、前記第2感度に変更された撮像部のうち最も減衰率が高いフィルタに対応する撮像部により撮像された画像の前記グラフと重なるような感度である第2モードと、
前記感度変更部により前記第1グループのフィルタに対応する撮像部が第3感度に変更され、前記第2グループのフィルタに対応する撮像部が前記第3感度よりも高い感度の第4感度に変更され、前記第3感度及び前記第4感度は、前記第3感度に変更された撮像部のうち最も減衰率が高いフィルタに対応する撮像部により撮像された画像の前記グラフの前記裾部分の全てが、前記第4感度に変更された撮像部のうち最も減衰率が高いフィルタに対応する撮像部により撮像された画像の前記グラフと重なるような感度である第3モードである
ことを特徴とする請求項1に記載の撮像装置。
The preset predetermined attenuation rate is n types (n ≧ 2),
An image captured by the first imaging unit corresponding to the filter of the first attenuation rate in a graph with the luminance range of the image captured by the imaging unit on the horizontal axis and the reliability of the luminance in the luminance range on the vertical axis In the first graph, a part of the skirt portion where the luminance is low and the reliability is gradually decreased is a second attenuation factor having the second lowest attenuation factor after the first attenuation factor. The first attenuation factor and the second attenuation factor are set so as to overlap with the second graph of the image captured by the second imaging unit set to the same sensitivity as the first imaging unit. ,
The plurality of filters each include a plurality of filters of n types of attenuation factors, and each of the plurality of filters includes a first group and a second group each including a filter of n types of attenuation factors.
The plurality of modes are
A first mode in which the imaging units corresponding to the filters of the first group and the second group are changed to the same sensitivity by the sensitivity changing unit;
The imaging unit corresponding to the filter of the first group is changed to the first sensitivity by the sensitivity changing unit, and the imaging unit corresponding to the filter of the second group is changed to the second sensitivity having a higher sensitivity than the first sensitivity. The first sensitivity and the second sensitivity are all or a part of the graph of the image captured by the imaging unit corresponding to the filter having the lowest attenuation rate among the imaging units changed to the first sensitivity. A second mode that is a sensitivity that overlaps the graph of the image captured by the imaging unit corresponding to the filter with the highest attenuation rate among the imaging units changed to the second sensitivity;
The imaging unit corresponding to the filter of the first group is changed to the third sensitivity by the sensitivity changing unit, and the imaging unit corresponding to the filter of the second group is changed to the fourth sensitivity having a higher sensitivity than the third sensitivity. The third sensitivity and the fourth sensitivity are all the bottom portions of the graph of the image captured by the imaging unit corresponding to the filter having the highest attenuation rate among the imaging units changed to the third sensitivity. Is a third mode in which the sensitivity is such that it overlaps the graph of the image captured by the imaging unit corresponding to the filter having the highest attenuation rate among the imaging units changed to the fourth sensitivity. The imaging device according to claim 1.
前記複数の撮像光学系のうち少なくとも2つの撮像光学系に対応する撮像部で撮像された画像に基づいて前記対象物までの距離を求める距離演算部を、更に備え、
前記距離演算部は、前記予め設定された所定の減衰率が同一の前記複数のフィルタに対応する撮像部であって、前記感度変更部によって同じ感度に変更された撮像部により撮像された複数の画像を用いて、前記対応点探索部に視差を算出させ、算出された視差に基づいて前記対象物までの距離を算出する
ことを特徴とする請求項1又は2に記載の撮像装置。
A distance calculation unit for obtaining a distance to the object based on an image captured by an imaging unit corresponding to at least two of the plurality of imaging optical systems;
The distance calculation unit is an imaging unit corresponding to the plurality of filters having the same predetermined attenuation rate set in advance, and a plurality of images captured by the imaging unit changed to the same sensitivity by the sensitivity changing unit The imaging apparatus according to claim 1, wherein the corresponding point search unit calculates parallax using an image, and calculates a distance to the object based on the calculated parallax.
前記モードを設定する設定入力手段を更に備え、
前記制御部は、前記設定入力手段により設定されたモードに応じて、前記感度変更部に前記複数の撮像部の感度を変更させる
ことを特徴とする請求項1乃至3のいずれか一項に記載の撮像装置。
It further comprises setting input means for setting the mode,
The said control part makes the said sensitivity change part change the sensitivity of these image pick-up parts according to the mode set by the said setting input means. Imaging device.
前記制御部は、前記複数の撮像部で撮像された画像に基づいてモードを決定し、決定されたモードに応じて前記感度変更部に前記複数の撮像部の感度を変更させる
ことを特徴とする請求項1乃至4のいずれか一項に記載の撮像装置。
The control unit determines a mode based on images captured by the plurality of imaging units, and causes the sensitivity changing unit to change the sensitivity of the plurality of imaging units according to the determined mode. The imaging device according to any one of claims 1 to 4.
前記撮像部は、固体撮像素子を有し、
前記感度変更部は、前記複数の撮像部それぞれが有する固体撮像素子の蓄積時間を変更することによって、前記複数の撮像部の感度を変更する
ことを特徴とする請求項1乃至5のいずれか一項に記載の撮像装置。
The imaging unit has a solid-state imaging device,
The sensitivity changing unit changes the sensitivity of the plurality of imaging units by changing a storage time of a solid-state imaging element included in each of the plurality of imaging units. The imaging device according to item.
一体に配列された複数の撮像光学系と、前記複数の撮像光学系に対応し、前記複数の撮像光学系それぞれによって結像された対象物の光学像を撮像する複数の撮像部とを有する複眼カメラと、前記複数の撮像光学系にそれぞれ対応する複数のフィルタであって、それぞれ異なる予め設定された所定の減衰率で入射光を減光させて透過する複数のフィルタを有し、前記複数のフィルタのうち、少なくとも2つのフィルタは、前記予め設定された所定の減衰率が同じである光学フィルタ部と、を備える撮像装置で用いられる撮像方法であって、
前記複数の撮像部それぞれの感度を変更する感度変更ステップと、
前記複数の撮像部で撮像された画像を用いた対応点探索により、前記複数の画像同士の視差を算出する対応点探索ステップと、
前記予め設定された所定の減衰率が同一の前記複数のフィルタに対応する撮像部であって、前記感度変更ステップによって同じ感度に変更された撮像部により撮像された複数の画像を用いて、前記対応点探索ステップで視差を算出し、算出された視差を用いて前記対象物の位置合わせを行い、前記複数の撮像部で撮像された画像を合成して、1枚の画像を作成する画像作成ステップと、
輝度範囲の異なる複数のモードを有し、前記モードに応じて、前記感度変更ステップで前記複数の撮像部の感度を変更させ、前記複数の撮像部で撮像された画像を用いて、前記画像作成ステップで前記各モードに応じた輝度範囲の画像を作成させる制御ステップと
を備えることを特徴とする撮像方法。
A compound eye having a plurality of imaging optical systems arranged in an integrated manner and a plurality of imaging units corresponding to the plurality of imaging optical systems and imaging optical images of objects formed by the plurality of imaging optical systems, respectively. A plurality of filters corresponding respectively to the camera and the plurality of imaging optical systems, each having a plurality of filters that attenuate and transmit incident light at different preset predetermined attenuation rates; Among the filters, at least two filters are imaging methods used in an imaging device including the optical filter unit having the same predetermined attenuation rate set in advance,
A sensitivity change step of changing the sensitivity of each of the plurality of imaging units;
A corresponding point search step for calculating parallax between the plurality of images by searching for corresponding points using images captured by the plurality of imaging units;
The imaging unit corresponding to the plurality of filters having the same preset predetermined attenuation rate, and using a plurality of images captured by the imaging unit changed to the same sensitivity by the sensitivity changing step, Image creation in which a parallax is calculated in the corresponding point search step, the object is aligned using the calculated parallax, and images captured by the plurality of imaging units are combined to create a single image Steps,
The plurality of modes having different luminance ranges, the sensitivity of the plurality of imaging units is changed in the sensitivity changing step according to the mode, and the image creation is performed using images captured by the plurality of imaging units And a control step of creating an image of a luminance range corresponding to each mode in the step.
JP2014086459A 2014-04-18 2014-04-18 Imaging device and method Pending JP2015207861A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014086459A JP2015207861A (en) 2014-04-18 2014-04-18 Imaging device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014086459A JP2015207861A (en) 2014-04-18 2014-04-18 Imaging device and method

Publications (1)

Publication Number Publication Date
JP2015207861A true JP2015207861A (en) 2015-11-19

Family

ID=54604379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014086459A Pending JP2015207861A (en) 2014-04-18 2014-04-18 Imaging device and method

Country Status (1)

Country Link
JP (1) JP2015207861A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111050143A (en) * 2018-10-11 2020-04-21 华为技术有限公司 Image shooting method and terminal equipment
JP2021509238A (en) * 2017-12-28 2021-03-18 ウェイモ エルエルシー Multiple operating modes to increase dynamic range
WO2022230521A1 (en) * 2021-04-26 2022-11-03 キヤノン株式会社 Light receiving device and distance measuring device
WO2023286403A1 (en) * 2021-07-12 2023-01-19 ソニーセミコンダクタソリューションズ株式会社 Light detection device and distance measurement system
US11663728B2 (en) 2020-01-16 2023-05-30 Samsung Electronics Co., Ltd. Depth estimation method and apparatus
US11928797B2 (en) 2018-10-24 2024-03-12 Samsung Electronics Co., Ltd. Electronic device and method for acquiring a synthesized image
US11933599B2 (en) 2018-11-08 2024-03-19 Samsung Electronics Co., Ltd. Electronic device and method for controlling same

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021509238A (en) * 2017-12-28 2021-03-18 ウェイモ エルエルシー Multiple operating modes to increase dynamic range
JP7210589B2 (en) 2017-12-28 2023-01-23 ウェイモ エルエルシー Multiple operating modes for extended dynamic range
CN111050143A (en) * 2018-10-11 2020-04-21 华为技术有限公司 Image shooting method and terminal equipment
US11595588B2 (en) 2018-10-11 2023-02-28 Huawei Technologies Co., Ltd. Image capturing method and terminal device
US11928797B2 (en) 2018-10-24 2024-03-12 Samsung Electronics Co., Ltd. Electronic device and method for acquiring a synthesized image
US11933599B2 (en) 2018-11-08 2024-03-19 Samsung Electronics Co., Ltd. Electronic device and method for controlling same
US11663728B2 (en) 2020-01-16 2023-05-30 Samsung Electronics Co., Ltd. Depth estimation method and apparatus
WO2022230521A1 (en) * 2021-04-26 2022-11-03 キヤノン株式会社 Light receiving device and distance measuring device
GB2620898A (en) * 2021-04-26 2024-01-24 Canon Kk Light receiving device and distance measuring device
WO2023286403A1 (en) * 2021-07-12 2023-01-19 ソニーセミコンダクタソリューションズ株式会社 Light detection device and distance measurement system

Similar Documents

Publication Publication Date Title
JP2015207861A (en) Imaging device and method
US9832362B2 (en) Image-capturing apparatus
JP6223169B2 (en) Information processing apparatus, information processing method, and program
US9560243B2 (en) Image processing device, imaging device, program, and image processing method suppressing a reduction in visibility of an image to check focus when distortion is corrected
JP2012215785A (en) Solid-state image sensor and image capturing apparatus
US9667853B2 (en) Image-capturing apparatus
KR20180123117A (en) Image processing apparatus, image pickup apparatus, control method therefor, storage medium
WO2013069292A1 (en) Image blurring correction device
JP2012033104A (en) Display device and imaging device
US9300860B2 (en) Image-capturing apparatus
JP2023115356A (en) Measurement device, imaging device, control method, and program
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP6162971B2 (en) Image processing apparatus, image processing method, imaging apparatus, and control method thereof
US20150281554A1 (en) Image-capturing apparatus
US10075639B2 (en) Image acquiring device and portable terminal comprising same and image acquiring method of the device
JP6362473B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2015207862A (en) Imaging device and imaging method
JP6012396B2 (en) Image processing apparatus, image processing method, and program.
US20180109733A1 (en) Image processing device, imaging device, image processing method, and image processing program
JP6045280B2 (en) Imaging device
JP2021068929A (en) Imaging apparatus and imaging method
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2017098929A (en) Image processing apparatus and image processing method
KR20140140495A (en) Aparatus and method for obtaining spatial information using active lens array