JP2015177258A - image input device - Google Patents

image input device Download PDF

Info

Publication number
JP2015177258A
JP2015177258A JP2014050594A JP2014050594A JP2015177258A JP 2015177258 A JP2015177258 A JP 2015177258A JP 2014050594 A JP2014050594 A JP 2014050594A JP 2014050594 A JP2014050594 A JP 2014050594A JP 2015177258 A JP2015177258 A JP 2015177258A
Authority
JP
Japan
Prior art keywords
exposure
camera
image
parallax
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014050594A
Other languages
Japanese (ja)
Inventor
高山 淳
Atsushi Takayama
淳 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014050594A priority Critical patent/JP2015177258A/en
Publication of JP2015177258A publication Critical patent/JP2015177258A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate a high-definition and high-dynamic-range image by using a compound-eye camera.SOLUTION: An array camera 411 comprises an array of plural cameras. A parallax detector 420 calculates the parallax of a subject by using images captured by the respective cameras on exposure conditions for detecting the parallax. An image synthesizer 430 generates a sheet of high-dynamic-range image by synthesizing the images captured by the respective cameras for an exposure time for obtaining a high-dynamic-range image, by deviating the images by the parallax calculated by the parallax detector 420.

Description

本発明は、ハイダイナミックレンジ画像を生成する画像入力装置に関するものである。   The present invention relates to an image input device that generates a high dynamic range image.

監視用途、工業用途、車載用途などで使用されるカメラにおいては、低照度から高輝度の被写体まで識別できる広い諧調特性(高ダイナミックレンジ)が求められている。これを実現するための一つの手段として複眼カメラがある。   Cameras used in surveillance applications, industrial applications, in-vehicle applications, and the like are required to have a wide gradation characteristic (high dynamic range) that can be distinguished from low-illuminance to high-luminance subjects. There is a compound eye camera as one means for realizing this.

例えば、特許文献1は、複眼カメラを構成する各個眼カメラに透過率の異なる光学フィルタを搭載し、各個眼カメラに撮像条件の異なる画像を同時に撮像させ、得られた画像を合成してハイダイナミックレンジ画像を得る技術を開示する。   For example, in Patent Document 1, each single-lens camera constituting a compound-eye camera is equipped with an optical filter having different transmittance, and each single-eye camera simultaneously captures images with different imaging conditions. A technique for obtaining a range image is disclosed.

特開2002−281361号公報JP 2002-281361 A

ところで、複眼カメラにおいては、各個眼カメラは空間的にずれて配置されているため、各個眼カメラが撮像した画像における被写体の位置は、その距離に応じてずれて撮影されている。よって、各個眼カメラで得られた画像をそのまま合成すると、このずれにより高精細なハイダイナミックレンジ画像が得られないという課題がある。   By the way, in a compound eye camera, since each single-eye camera is arrange | positioned spatially, the position of the to-be-photographed object in the image imaged by each single-eye camera is image | photographed by shifting according to the distance. Therefore, if the images obtained by the single-eye cameras are synthesized as they are, there is a problem that a high-definition high dynamic range image cannot be obtained due to this shift.

しかしながら、特許文献1に記載の複眼カメラでは、個眼カメラで得られた画像のずれが全く考慮されていない。   However, the compound eye camera described in Patent Document 1 does not take into account image shifts obtained with a single-eye camera.

ここで、対応点探索により画像同士の視差を求め、画像同士のずれを修正することも考えられる。しかしながら、特許文献1において、個眼カメラから得られた画像から被写体の視差を求めようとすると、個眼カメラで撮像された画像は、それぞれ、透過率の異なる色フィルタを用いて異なる露光条件で撮像された画像であるため、正確な視差を求めることができない。   Here, it is also conceivable to obtain the parallax between the images by searching for corresponding points and to correct the shift between the images. However, in Patent Document 1, when the parallax of an object is obtained from an image obtained from a single-eye camera, the images captured by the single-eye camera are respectively subjected to different exposure conditions using color filters having different transmittances. Since it is a captured image, an accurate parallax cannot be obtained.

つまり、視差を求めるためには、画像間で同じ被写体の同じ部分(対応点)を求める必要があるが、露光条件が異なると、被写体の明るさが異なるため、対応点を探索することが難しい。特に被写体が飽和している、或いは黒くつぶれて撮像されている場合、対応点を見つけることは不可能である。   That is, in order to obtain the parallax, it is necessary to obtain the same part (corresponding point) of the same subject between images, but it is difficult to search for the corresponding point because the brightness of the subject differs under different exposure conditions. . It is impossible to find a corresponding point especially when the subject is saturated or is captured in black.

本発明の目的は、複眼カメラを用いて高精細なハイダイナミックレンジ画像を生成する画像入力装置を提供することである。   An object of the present invention is to provide an image input device that generates a high-definition high dynamic range image using a compound eye camera.

本発明の一態様による画像入力装置は、複数のカメラが一体的に構成されたアレイカメラ部と、各カメラの露光条件を個別に設定可能な露光制御部と、前記露光制御部により各カメラがハイダイナミックレンジ画像を得るための露光条件に設定され、前記各カメラにより撮像された画像を、一枚の画像に合成する画像合成部とを備える。   An image input apparatus according to an aspect of the present invention includes an array camera unit in which a plurality of cameras are integrally formed, an exposure control unit that can individually set exposure conditions of each camera, and each camera by the exposure control unit. An image synthesis unit that is set as an exposure condition for obtaining a high dynamic range image and synthesizes an image captured by each camera into a single image.

この場合、各カメラの露光条件がハイダイナミックレンジ画像を得るための露光条件に設定されて、被写体が撮像されるそのため、高精細なハイダイナミックレンジ画像が得られる。   In this case, the exposure condition of each camera is set to the exposure condition for obtaining a high dynamic range image, and the subject is imaged. Therefore, a high-definition high dynamic range image is obtained.

また、上記態様において、前記露光制御部により各カメラが視差を検出するための露光条件に設定され、前記各カメラにより撮像された画像を用いて被写体の視差を検出する視差検出部を更に備え、前記画像合成部は、前記検出された視差を用いて前記被写体を位置合わせして、前記各カメラにより撮像された画像を、一枚の画像に合成してもよい。   In the above aspect, the exposure control unit further includes a parallax detection unit that is set to an exposure condition for each camera to detect parallax, and detects a parallax of a subject using an image captured by each camera, The image synthesizing unit may align the subject using the detected parallax, and synthesize the images captured by the cameras into a single image.

この場合、各カメラの露光条件が視差を検出するための露光条件に設定されて、被写体が撮像され、各カメラで撮像された画像から被写体の視差が検出される。そして、各カメラで撮像された画像は、被写体が位置合わせされて合成される。そのため、高精細なハイダイナミックレンジ画像が得られる。   In this case, the exposure condition of each camera is set to the exposure condition for detecting parallax, the subject is imaged, and the parallax of the subject is detected from the image captured by each camera. The images captured by the cameras are combined with the subject aligned. Therefore, a high-definition high dynamic range image can be obtained.

また、上記態様において、複数のレンズが各カメラに対向して一体的に配列されたアレイレンズを更に備えてもよい。   In the above aspect, an array lens in which a plurality of lenses are integrally arranged to face each camera may be further provided.

この場合、レンズが一体的に配列されたアレイレンズが用いられているため、撮像部を作成する際に、レンズをカメラに正確に位置合わせする作業が容易になる。   In this case, since an array lens in which the lenses are integrally arranged is used, it is easy to accurately align the lens with the camera when creating the imaging unit.

また、上記態様において、前記アレイカメラは、前記複数のカメラに対応する複数の受光部が同一基板上に一体的に構成されていてもよい。   In the above aspect, the array camera may be configured such that a plurality of light receiving units corresponding to the plurality of cameras are integrally formed on the same substrate.

この場合、1つの基板からなる撮像素子を用いてアレイカメラを構成でき、低コストでアレイカメラを作成できる。   In this case, an array camera can be configured using an image sensor made of one substrate, and the array camera can be created at low cost.

また、上記態様において、前記露光制御部は、各カメラの露光時間を独立して設定してもよい。   In the above aspect, the exposure control unit may set the exposure time of each camera independently.

この場合、各カメラの露光時間を変えることで、各カメラの露光条件が変更できる。   In this case, the exposure condition of each camera can be changed by changing the exposure time of each camera.

また、上記態様において、前記露光制御部は、前記ハイダイナミックレンジ画像を得るために、前記各カメラの露光条件を異なる露光条件に設定してもよい。   In the above aspect, the exposure control unit may set the exposure conditions of the cameras to different exposure conditions in order to obtain the high dynamic range image.

この場合、異なる露光条件が設定されたカメラで撮像された画像を合成することで、ハイダイナミックレンジ画像が得られる。   In this case, a high dynamic range image is obtained by synthesizing images captured by cameras set with different exposure conditions.

また、上記態様において、前記露光制御部は、前記視差を検出するために、前記各カメラの露光時間が同一になるように前記各カメラの露光条件を設定してもよい。   In the above aspect, the exposure control unit may set the exposure conditions of the cameras so that the exposure times of the cameras are the same in order to detect the parallax.

この場合、露光時間が同一に設定された複数のカメラで撮像された画像を用いて視差が検出されるため、視差を正確に検出できる。   In this case, the parallax can be accurately detected because the parallax is detected using images captured by a plurality of cameras having the same exposure time.

また、上記態様において、前記視差検出部は、対応点探索手法を用いて前記視差を検出し、前記視差検出部による対応点の探索結果を用いて、前記視差を検出するために設定された露光条件の信頼度を推定する信頼度推定部を更に備え、前記露光制御部は、前記信頼度が規定値を超えるまで、前記露光条件を変えて前記各カメラに撮像させ、前記視差検出部は、前記信頼度が規定値を超えた露光条件で撮像された画像を用いて、前記視差を検出してもよい。   In the above aspect, the parallax detection unit detects the parallax using a corresponding point search method, and exposure is set to detect the parallax using a corresponding point search result by the parallax detection unit. Further comprising a reliability estimation unit for estimating the reliability of the condition, the exposure control unit causes each camera to change the exposure condition until the reliability exceeds a specified value, the parallax detection unit, The parallax may be detected using an image captured under an exposure condition in which the reliability exceeds a specified value.

この場合、信頼度が規定値を超える露光条件で撮像された画像を用いて視差が検出されるため、視差を精度よく検知できる。   In this case, since the parallax is detected using an image captured under an exposure condition whose reliability exceeds a specified value, the parallax can be detected with high accuracy.

また、上記態様において、前記視差検出部は、対応点探索手法を用いて前記視差を検出し、前記露光制御部は、前記視差を検出するために、複数の露光条件を切り替えて前記各カメラに被写体を複数回撮像させ、前記視差検出部による対応点の探索結果を用いて、前記視差を検出するために設定された露光条件の信頼度を推定する信頼度推定部を更に備え、前記視差検出部は、前記信頼度が最大となる露光条件で撮像された画像を用いて前記視差を検出してもよい。   In the above aspect, the parallax detection unit detects the parallax using a corresponding point search method, and the exposure control unit switches a plurality of exposure conditions to detect each parallax in order to detect the parallax. The parallax detection further includes a reliability estimation unit that images the subject a plurality of times, and uses the search result of the corresponding points by the parallax detection unit to estimate the reliability of the exposure condition set to detect the parallax. The unit may detect the parallax using an image captured under an exposure condition that maximizes the reliability.

この場合、予め定められた複数の露光条件で被写体を撮像させ、信頼度が最大の露光条件で撮像された画像を用いて視差が検出されるため、視差を精度良く検出できる。   In this case, since the subject is imaged under a plurality of predetermined exposure conditions and the parallax is detected using an image captured under the exposure condition with the maximum reliability, the parallax can be detected with high accuracy.

また、前記各カメラにより撮像された画像から各カメラの露出評価値を算出する露出評価値算出部を更に備え、前記露光制御部は、前記信頼度が規定値以下の場合、前記各カメラで撮像された画像の露出評価値を前記露出評価値算出部に算出させ、前記算出された露出評価値が所定の適正範囲から一定の値以上離れている画像を撮像したカメラについては、前記露光条件を最適露光条件に変更してもよい。   Further, the camera further includes an exposure evaluation value calculation unit that calculates an exposure evaluation value of each camera from an image captured by each camera, and the exposure control unit captures an image with each camera when the reliability is equal to or less than a specified value. The exposure evaluation value of the obtained image is calculated by the exposure evaluation value calculation unit, and for a camera that captures an image in which the calculated exposure evaluation value is a predetermined value or more away from a predetermined appropriate range, the exposure condition is set as follows. You may change to optimal exposure conditions.

この場合、被写体をうまく撮像できなかったカメラについては露光条件が最適露光条件に設定されて、再度、各カメラで被写体が撮像されるため、視差を精度良く検知できる。   In this case, the exposure condition is set to the optimum exposure condition for the camera that cannot capture the subject well, and the subject is imaged again by each camera, so that the parallax can be detected with high accuracy.

また、上記態様において、前記画像合成部は、前記各カメラが撮像した画像から所定数の被写体を特定し、特定した被写体が位置合わせされるように各カメラが撮像した画像を合成すればよい。   In the above aspect, the image composition unit may identify a predetermined number of subjects from the images captured by the cameras, and synthesize the images captured by the cameras so that the specified subjects are aligned.

この場合、所定数の主要な被写体が位置合わせされるため、被写体がぼけることを防止できる。   In this case, since a predetermined number of main subjects are aligned, it is possible to prevent the subjects from being blurred.

本発明によれば、高精細なハイダイナミックレンジ画像が得られる。   According to the present invention, a high-definition high dynamic range image can be obtained.

本発明の一実施の形態による画像入力装置を構成するアレイレンズ及び撮像部の構成の一例を示した図である。It is the figure which showed an example of the structure of the array lens and imaging part which comprise the image input device by one embodiment of this invention. 本発明の一実施の形態による画像入力装置を構成するアレイレンズ及び撮像部の構成の他の一例を示した図である。It is the figure which showed another example of the structure of the array lens and imaging part which comprise the image input device by one embodiment of this invention. 本発明の一実施の形態による画像入力装置を構成するアレイレンズ及び撮像部の構成の他の一例を示した図である。It is the figure which showed another example of the structure of the array lens and imaging part which comprise the image input device by one embodiment of this invention. 本発明の一実施の形態による画像入力装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image input device by one embodiment of this invention. 図2に示す撮像部が採用されたときの撮像部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of an imaging part when the imaging part shown in FIG. 2 is employ | adopted. 図1に示す撮像部が採用されたときの撮像部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of an imaging part when the imaging part shown in FIG. 1 is employ | adopted. 図2の撮像部が採用された場合において、アレイカメラ部における受光ブロックの分布を示した図である。FIG. 3 is a diagram illustrating a distribution of light receiving blocks in an array camera unit when the imaging unit of FIG. 2 is employed. 図3の撮像部が採用された場合において、アレイカメラ部に形成される受光ブロックの他の例を示す図である。It is a figure which shows the other example of the light reception block formed in an array camera part when the imaging part of FIG. 3 is employ | adopted. 図3に示す撮像部を採用した場合の撮像素子の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image pick-up element at the time of employ | adopting the image pick-up part shown in FIG. 図9に示す撮像素子の読み出しシーケンスの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the read-out sequence of the image pick-up element shown in FIG. 本実施の形態の画像入力装置による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process by the image input device of this Embodiment. 第1パターンの視差検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the parallax detection process of a 1st pattern. 第2パターンの視差検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the parallax detection process of a 2nd pattern. 視差を検出する際に撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged when detecting parallax. ハイダイナミックレンジ画像を得る際に撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged when obtaining a high dynamic range image.

図1は、本発明の一実施の形態による画像入力装置を構成するアレイレンズ11及び撮像部12の構成の一例を示した図である。撮像部12は、撮像素子121及び撮像基板122を備える。撮像素子121は、撮像基板122上に、所定行×所定列でアレイ状に配列されている。図1の例では、撮像素子121は、4行×4列で配列されているが、これは、一例に過ぎず、撮像部12において複数個含まれていればよい。   FIG. 1 is a diagram showing an example of the configuration of an array lens 11 and an imaging unit 12 constituting an image input device according to an embodiment of the present invention. The imaging unit 12 includes an imaging element 121 and an imaging substrate 122. The imaging elements 121 are arranged in an array of predetermined rows × predetermined columns on the imaging substrate 122. In the example of FIG. 1, the imaging elements 121 are arranged in 4 rows × 4 columns, but this is only an example, and a plurality of imaging elements may be included in the imaging unit 12.

各撮像素子121は、それぞれ、1つの受光部121aを備えている。受光部121aには、1画素に対応する1つのフォトダイオードが所定行×所定列でアレイ状に配列されている。よって、図1の例では、受光部121aとレンズ111とを組み合せた構成が1つのカメラに相当する。   Each image sensor 121 includes one light receiving portion 121a. In the light receiving unit 121a, one photodiode corresponding to one pixel is arranged in an array of predetermined rows × predetermined columns. Therefore, in the example of FIG. 1, a configuration in which the light receiving unit 121a and the lens 111 are combined corresponds to one camera.

撮像基板122は、例えばシリコン等の支持部材であり、撮像素子121を制御する制御回路等を含む。   The imaging substrate 122 is a support member such as silicon, and includes a control circuit that controls the imaging element 121 and the like.

アレイレンズ11は、各撮像素子121に対応する所定行×所定列でアレイ状に配列されたレンズ基板112を備える。図1の例では、撮像素子121が4行×4列で配列されているため、レンズ基板112は、4行×4列で配列されている。但し、これは一例にすぎず、撮像素子121の個数に応じて複数のレンズ基板112が設けられる。レンズ基板112は、それぞれ、1つのレンズ部111を備える。つまり、図1の例では、アレイレンズ11は、単体のレンズ基板112がアレイ状に配列されて構成されている。   The array lens 11 includes a lens substrate 112 arranged in an array of predetermined rows × predetermined columns corresponding to the imaging elements 121. In the example of FIG. 1, since the image sensors 121 are arranged in 4 rows × 4 columns, the lens substrates 112 are arranged in 4 rows × 4 columns. However, this is only an example, and a plurality of lens substrates 112 are provided in accordance with the number of image sensors 121. Each lens substrate 112 includes one lens unit 111. That is, in the example of FIG. 1, the array lens 11 is configured by arranging single lens substrates 112 in an array.

図1の撮像部12では、アレイレンズ11の前方の被写体の光学像が、各レンズ部111を通じて各受光部121aに個別に結像される。そして、各受光部121aに個別に結像された光学像が1つのカメラで撮像された画像として読み出される。ここで、各受光部121aに結像される光学像は、同じ被写体を撮像しているが、各レンズ部111が空間的にずれているため、光学像同士で被写体の結像位置にずれが発生する。   In the imaging unit 12 of FIG. 1, an optical image of a subject in front of the array lens 11 is individually formed on each light receiving unit 121 a through each lens unit 111. Then, an optical image individually formed on each light receiving unit 121a is read as an image picked up by one camera. Here, the optical image formed on each light receiving unit 121a captures the same subject, but since each lens unit 111 is spatially shifted, there is a shift in the imaging position of the subject between the optical images. Occur.

図2は、本発明の一実施の形態による画像入力装置を構成するアレイレンズ11及び撮像部12の構成の他の一例を示した図である。図2の例では、撮像基板122上には1つの撮像素子121が配置されている。撮像素子121は、所定行×所定列で複数の受光部121bがアレイ状に配列されている。受光部121bには、1画素に対応する1つのフォトダイオードが所定行×所定列でアレイ状に配列されている。つまり、図2では、1つの撮像素子121の表面を複数の領域に区画することで、複数の受光部121bが規定されている。よって、図2の例では、1つの受光部121bと1つのレンズ111とを組み合わせた構成が1つのカメラに相当する。   FIG. 2 is a diagram illustrating another example of the configuration of the array lens 11 and the imaging unit 12 that constitute the image input device according to the embodiment of the present invention. In the example of FIG. 2, one imaging element 121 is arranged on the imaging substrate 122. In the imaging device 121, a plurality of light receiving portions 121b are arranged in an array in a predetermined row × predetermined column. In the light receiving unit 121b, one photodiode corresponding to one pixel is arranged in an array of predetermined rows × predetermined columns. That is, in FIG. 2, the plurality of light receiving portions 121b are defined by dividing the surface of one image sensor 121 into a plurality of regions. Therefore, in the example of FIG. 2, a configuration in which one light receiving unit 121b and one lens 111 are combined corresponds to one camera.

図2の例では、アレイレンズ11は、各受光部121bに対応して複数のレンズ部111が所定行×所定列でアレイ状に配列された1つのレンズ基板112により構成されている。つまり、図2の例では、アレイレンズ11は、複数のレンズ部111が一体的に構成されている。   In the example of FIG. 2, the array lens 11 is configured by a single lens substrate 112 in which a plurality of lens portions 111 are arranged in a predetermined row × predetermined array corresponding to each light receiving portion 121b. That is, in the example of FIG. 2, the array lens 11 includes a plurality of lens portions 111 integrally formed.

図2の撮像部12では、アレイレンズ11の前方の被写体の光学像が、各レンズ部111を通じて各受光部121bに個別に結像される。そして、各受光部121bに個別に結像された光学像が1つのカメラで撮像された画像として読み出される。ここで、各受光部121bに結像される光学像は、同じ被写体を撮像しているが、各レンズ部111が空間的にずれているため、図1と同様、光学像同士で被写体の結像位置にずれが発生する。   In the imaging unit 12 of FIG. 2, an optical image of a subject in front of the array lens 11 is individually formed on each light receiving unit 121 b through each lens unit 111. Then, an optical image individually formed on each light receiving unit 121b is read as an image captured by one camera. Here, the optical image formed on each light receiving unit 121b captures the same subject, but each lens unit 111 is spatially displaced. A shift occurs in the image position.

図3は、本発明の一実施の形態による画像入力装置を構成するアレイレンズ11及び撮像部12の構成の他の一例を示した図である。図3において、アレイレンズ11の構成は図2のものと同一であるが、撮像部12の構成が図2と相違する。図3の例では、撮像基板122上に1つの撮像素子121が配置されている点は図2と同じである。但し、図3の撮像素子121は、1つの受光部121cを備えている点が図2と異なる。すなわち、図3の撮像部12では、アレイレンズ11の前方の被写体の光学像が、各レンズ部111を通じて1つの受光部1cに個別に結像される。そして、受光部1cに個別に結像された複数の光学像のそれぞれが1つのカメラで撮像された画像として読み出される。図3でも、各レンズ部111が空間的にずれているため、図1、図2と同様、光学像同士で被写体の結像位置にずれが発生する。 図4は、本発明の一実施の形態による画像入力装置の構成の一例を示すブロック図である。画像入力装置は、撮像部12、視差検出部420、画像合成部430、露出評価値算出部440、信頼度推定部450、及び露光制御部460を備える。   FIG. 3 is a diagram showing another example of the configuration of the array lens 11 and the imaging unit 12 constituting the image input device according to the embodiment of the present invention. 3, the configuration of the array lens 11 is the same as that of FIG. 2, but the configuration of the imaging unit 12 is different from that of FIG. 3 is the same as FIG. 2 in that one image pickup device 121 is arranged on the image pickup substrate 122. However, the imaging device 121 of FIG. 3 is different from FIG. 2 in that it includes a single light receiving unit 121c. That is, in the imaging unit 12 of FIG. 3, an optical image of a subject in front of the array lens 11 is individually formed on one light receiving unit 1 c through each lens unit 111. Then, each of a plurality of optical images individually formed on the light receiving unit 1c is read as an image captured by one camera. Also in FIG. 3, since each lens unit 111 is spatially displaced, as in FIGS. 1 and 2, a deviation occurs in the imaging position of the subject between the optical images. FIG. 4 is a block diagram showing an example of the configuration of the image input apparatus according to the embodiment of the present invention. The image input device includes an imaging unit 12, a parallax detection unit 420, an image composition unit 430, an exposure evaluation value calculation unit 440, a reliability estimation unit 450, and an exposure control unit 460.

撮像部12は、アレイカメラ部411及び露光時間設定部412を備える。アレイカメラ部411は、アレイ状に配列された複数のカメラを備える。図1の撮像部12が採用された場合、撮像基板122上に配置された複数の撮像素子121のそれぞれが備える1つの受光部121aと1つのレンズ111とが、アレイカメラ部411の1つのカメラに相当する。図2の撮像部12が採用された場合、撮像基板122上に配置された1つの撮像素子121に形成された1つの受光部121bとその受光部121bに対向する1つのレンズ11とが、アレイカメラ部411の1つのカメラに相当する。図3の撮像部12が採用された場合、1つのレンズ部111の光学像が結像される受光部121c上の1つの領域とその領域に対向するレンズ111とが、アレイカメラ部411の1つのカメラに相当する。   The imaging unit 12 includes an array camera unit 411 and an exposure time setting unit 412. The array camera unit 411 includes a plurality of cameras arranged in an array. When the imaging unit 12 of FIG. 1 is employed, one light receiving unit 121a and one lens 111 included in each of the plurality of imaging elements 121 arranged on the imaging substrate 122 are combined into one camera of the array camera unit 411. It corresponds to. When the imaging unit 12 of FIG. 2 is employed, one light receiving unit 121b formed on one imaging element 121 disposed on the imaging substrate 122 and one lens 11 facing the light receiving unit 121b are arranged in an array. This corresponds to one camera of the camera unit 411. When the imaging unit 12 of FIG. 3 is employed, one region on the light receiving unit 121c where an optical image of one lens unit 111 is formed and the lens 111 facing the region are one of the array camera unit 411. Equivalent to two cameras.

露光時間設定部412は、例えば、撮像基板122に実装された回路モジュールにより構成され、露光制御部460から、各カメラに対する露光時間の設定に関する指示を受け付け、指示された露光時間(電荷の蓄積時間)で各カメラを露光し、電荷を蓄積させる。   The exposure time setting unit 412 includes, for example, a circuit module mounted on the imaging substrate 122. The exposure time setting unit 412 receives an instruction regarding the setting of the exposure time for each camera from the exposure control unit 460, and instructs the exposure time (charge accumulation time). ) To expose each camera and accumulate charges.

視差検出部420は、視差を検出するための露光条件で各カメラにより撮像された画像を用いて被写体の視差を算出する。ここで、視差検出部420は、例えば、複数のカメラのうちの1つのカメラが撮像した画像を基準画像、1つ以外の残りのカメラが撮像した画像を参照画像とする。そして、視差検出部420は、基準画像の各点に対応する点を参照画像から探索し、得られた対応点を用いて被写体の視差を算出すればよい。ここで、対応点の探索手法としては、例えば、SAD(Sum of Absolute Differences)やPOC(Phase−Only Correlation)などが採用できる。   The parallax detection unit 420 calculates the parallax of the subject using an image captured by each camera under an exposure condition for detecting the parallax. Here, the parallax detection unit 420 uses, for example, an image captured by one of a plurality of cameras as a reference image, and an image captured by other remaining cameras as a reference image. Then, the parallax detection unit 420 may search the reference image for points corresponding to the respective points of the standard image, and calculate the parallax of the subject using the obtained corresponding points. Here, as a corresponding point search method, for example, SAD (Sum of Absolute Differences) or POC (Phase-Only Correlation) can be employed.

参照画像が複数あったとすると、視差検出部420は、基準画像とそれぞれの参照画像に対して視差を算出すればよい。例えば、参照画像が3つあったとすると、視差検出部420は、1つの基準画像に対する対応点探索処理を3つの参照画像に個別に適用して視差を算出すればよい。なお、視差検出部420は、基準画像の全点を対応点の探索対象として設定してもよいし、基準画像において一定の間隔を空けて配置された点を、対応点の探索対象として設定してもよい。後者の場合、処理コストを削減できる。   If there are a plurality of reference images, the parallax detection unit 420 may calculate the parallax for the base image and each reference image. For example, if there are three reference images, the parallax detection unit 420 may calculate the parallax by individually applying the corresponding point search process for one reference image to the three reference images. Note that the parallax detection unit 420 may set all points of the reference image as search targets for corresponding points, or set points arranged at certain intervals in the reference image as search targets for corresponding points. May be. In the latter case, the processing cost can be reduced.

画像合成部430は、ハイダイナミックレンジ画像を得るための露光条件で各カメラにより撮像された画像を、被写体毎に視差検出部420により算出された視差だけずらして合成し、1枚のハイダイナミックレンジ画像を生成する。   The image combining unit 430 combines images captured by the cameras under the exposure conditions for obtaining a high dynamic range image by shifting the parallax calculated by the parallax detection unit 420 for each subject and combining the images. Generate an image.

露出評価値算出部440は、各カメラが撮像した画像の露出評価値を算出する。ここで、露出評価値としては、例えば、各カメラが撮像した画像のそれぞれにおいて、一部の領域(例えば、画像の中央に位置する矩形状の領域)の平均輝度が採用できる。或いは、画像を複数領域に分割し、分割した領域の平均輝度値を重みづけして加算したものが露出評価値として採用されても良い。   The exposure evaluation value calculation unit 440 calculates an exposure evaluation value of an image captured by each camera. Here, as the exposure evaluation value, for example, the average luminance of a partial region (for example, a rectangular region located at the center of the image) can be employed in each of the images captured by each camera. Alternatively, an image obtained by dividing an image into a plurality of regions and weighting and adding the average luminance values of the divided regions may be adopted as the exposure evaluation value.

露光制御部460は、各カメラの露光時間を設定するための指示を露光時間設定部412に出力し、各カメラの露光時間を個別に設定する。ここで、露光制御部460は、視差を検出する場合、例えば、各カメラの露光時間を同一に設定し、各カメラに被写体を撮像させる。また、露光時間設定部412は、ハイダイナミックレンジ画像を得る場合、例えば、各カメラの露光時間を異なる値に設定し、各カメラに被写体を撮像させる。   The exposure control unit 460 outputs an instruction for setting the exposure time of each camera to the exposure time setting unit 412, and sets the exposure time of each camera individually. Here, when detecting the parallax, for example, the exposure control unit 460 sets the exposure time of each camera to be the same, and causes each camera to image the subject. Further, when obtaining a high dynamic range image, for example, the exposure time setting unit 412 sets the exposure time of each camera to a different value and causes each camera to image the subject.

また、露光制御部460は、最適露光制御を行う場合、露出評価値算出部440で算出された各カメラの露出評価値を用いて各カメラの最適露光時間を算出し、各カメラに設定する。この場合、露光制御部460は、例えば、露出制御対象のカメラからの画像の輝度値が所定の適正範囲になるように、最適露光時間を設定すればよい。   Further, when performing optimal exposure control, the exposure control unit 460 calculates the optimal exposure time of each camera using the exposure evaluation value of each camera calculated by the exposure evaluation value calculation unit 440, and sets it to each camera. In this case, for example, the exposure control unit 460 may set the optimum exposure time so that the luminance value of the image from the exposure control target camera falls within a predetermined appropriate range.

信頼度推定部450は、視差検出部420による対応点の探索結果を用いて、視差を検出する際に設定された露光条件の信頼度を推定する。ここで、信頼度は、対応点探索処理において、より多くの対応点が正しく探索できるほど値が上昇する。なお、信頼度を用いた露光条件の設定については後述する。   The reliability estimation unit 450 estimates the reliability of the exposure condition set when the parallax is detected, using the corresponding point search result by the parallax detection unit 420. Here, the value of reliability increases as more corresponding points can be searched correctly in the corresponding point search process. The setting of exposure conditions using reliability will be described later.

図4において、視差検出部420、画像合成部430、露出評価値算出部440、信頼度推定部450、及び露光制御部460は、例えば、CPUがプログラムを実行することで実現されてもよいし、画像処理プロセッサ等の専用のハードウェア回路で構成されてもよい。   In FIG. 4, the parallax detection unit 420, the image synthesis unit 430, the exposure evaluation value calculation unit 440, the reliability estimation unit 450, and the exposure control unit 460 may be realized, for example, by a CPU executing a program. Alternatively, it may be configured by a dedicated hardware circuit such as an image processor.

図5は、図2に示す撮像部12が採用されたときの撮像部12の構成の一例を示すブロック図である。図5では、受光部121bが3行×3列で配列された撮像部12の例が示されている。   FIG. 5 is a block diagram illustrating an example of the configuration of the imaging unit 12 when the imaging unit 12 illustrated in FIG. 2 is employed. FIG. 5 illustrates an example of the imaging unit 12 in which the light receiving units 121b are arranged in 3 rows × 3 columns.

撮像部12は、3行×3列で配列された9個の受光部121b、1つの出力部123、及び1つの露光時間設定部412を備える。出力部123は、9個の受光部121bのそれぞれから個別に画像が入力される。そして、出力部123は、各受光部121bのそれぞれから入力された画像を1つのカメラで撮像された画像として、視差検出部420、画像合成部430、及び露出評価値算出部440に出力する。   The imaging unit 12 includes nine light receiving units 121b, one output unit 123, and one exposure time setting unit 412 arranged in 3 rows × 3 columns. The output unit 123 individually receives images from each of the nine light receiving units 121b. Then, the output unit 123 outputs the image input from each of the light receiving units 121b to the parallax detection unit 420, the image synthesis unit 430, and the exposure evaluation value calculation unit 440 as an image captured by one camera.

露光時間設定部412は、露光制御部460から出力されるレジスタ制御信号にしたがって、各カメラの露光時間を設定するためのレジスタ値を書き込む。そして、露光時間設定部412は、露光制御部460から出力されるクロック信号及び同期信号と、レジスタ値とにしたがって、各カメラの駆動信号を生成し、各カメラの露光時間を個別に設定する。   The exposure time setting unit 412 writes a register value for setting the exposure time of each camera according to the register control signal output from the exposure control unit 460. Then, the exposure time setting unit 412 generates a drive signal for each camera according to the clock signal and synchronization signal output from the exposure control unit 460 and the register value, and individually sets the exposure time for each camera.

図6は、図1に示す撮像部12が採用されたときの撮像部12の構成の一例を示すブロック図である。図6では、受光部121aが3行×3列で配列された撮像部12の例が示されている。図1に示す撮像部12では、カメラ毎に1つの撮像素子121が割り当てられている。そのため、各撮像素子121は、それぞれ、出力部123、受光部121a、及び露光時間設定部412を備えている。この場合、1つの出力部123から出力される1枚の画像が1つのカメラで撮像された画像として、視差検出部420、画像合成部430、及び露出評価値算出部440に出力される。   FIG. 6 is a block diagram illustrating an example of the configuration of the imaging unit 12 when the imaging unit 12 illustrated in FIG. 1 is employed. FIG. 6 illustrates an example of the imaging unit 12 in which the light receiving units 121a are arranged in 3 rows × 3 columns. In the imaging unit 12 illustrated in FIG. 1, one imaging element 121 is assigned to each camera. Therefore, each image sensor 121 includes an output unit 123, a light receiving unit 121a, and an exposure time setting unit 412. In this case, one image output from one output unit 123 is output to the parallax detection unit 420, the image synthesis unit 430, and the exposure evaluation value calculation unit 440 as an image captured by one camera.

図7は、図2の撮像部12が採用された場合において、アレイカメラ部411における受光ブロックBL1〜BL16の分布を示した図である。なお、図7では、受光部121bが4行×4列で配列されているため、4行×4列で配列された16個の受光ブロックBL1〜BL16が撮像素子121上に配置されている。ここで、露光時間設定部412は、各受光部121bと個別に接続されている。そのため、露光時間設定部412は、受光部121b毎に露光時間を設定できる。つまり、露光時間設定部412は、受光ブロックBL1〜BL16毎に露光時間を設定できる。   FIG. 7 is a diagram illustrating the distribution of the light receiving blocks BL1 to BL16 in the array camera unit 411 when the imaging unit 12 of FIG. 2 is employed. In FIG. 7, since the light receiving portions 121 b are arranged in 4 rows × 4 columns, 16 light receiving blocks BL <b> 1 to BL <b> 16 arranged in 4 rows × 4 columns are arranged on the image sensor 121. Here, the exposure time setting unit 412 is individually connected to each light receiving unit 121b. Therefore, the exposure time setting unit 412 can set the exposure time for each light receiving unit 121b. That is, the exposure time setting unit 412 can set the exposure time for each of the light receiving blocks BL1 to BL16.

また、図1の撮像部12を採用した場合も、図6に示すように、各受光部121aに対応して撮像素子121が設けられている。そのため、図1の撮像部12を採用した場合も、受光ブロックBL1〜BL16毎に露光時間を設定できる。   In addition, when the imaging unit 12 of FIG. 1 is employed, as shown in FIG. 6, an imaging element 121 is provided corresponding to each light receiving unit 121a. Therefore, even when the imaging unit 12 of FIG. 1 is employed, the exposure time can be set for each of the light receiving blocks BL1 to BL16.

図8は、図3の撮像部12が採用された場合において、アレイカメラ部411に形成される受光ブロックの他の例を示す図である。図3の撮像部12では、4行×4列のレンズ部111により、受光部121c上には4行×4列で被写体の光学像が配置される。そのため、図3の撮像部12が採用された場合、受光部121cは、図8に示すように、4行×4列の受光ブロックBL1〜BL16に区画される。   FIG. 8 is a diagram illustrating another example of the light receiving blocks formed in the array camera unit 411 when the imaging unit 12 of FIG. 3 is employed. In the imaging unit 12 of FIG. 3, an optical image of the subject is arranged in 4 rows × 4 columns on the light receiving unit 121c by the lens unit 111 of 4 rows × 4 columns. Therefore, when the imaging unit 12 of FIG. 3 is employed, the light receiving unit 121c is partitioned into light receiving blocks BL1 to BL16 of 4 rows × 4 columns as shown in FIG.

但し、図3に示す撮像部12は、撮像素子121が1つであるため、各画素を垂直走査するVシフトレジスタ(図9参照)も1つである。そのため、行単位で露光時間を設定するのが容易である。そこで、図3に示す撮像部12を採用した場合、撮像素子121は、図8に示すように、各行に含まれる4つの受光ブロックが1つの受光ブロック群とされ、この受光ブロック群毎に露光時間が設定される。具体的には、受光ブロックBL1〜BL4で1つの受光ブロック群D1が構成され、受光ブロックBL5〜BL8で1つの受光ブロック群D2が構成され、受光ブロックBL9〜BL12で1つの受光ブロック群D3が構成され、受光ブロックBL13〜BL16で1つの受光ブロック群D4が構成される。   However, since the imaging unit 12 shown in FIG. 3 has one imaging element 121, there is also one V shift register (see FIG. 9) that vertically scans each pixel. Therefore, it is easy to set the exposure time for each row. Therefore, when the image pickup unit 12 shown in FIG. 3 is adopted, the image pickup device 121 has four light receiving blocks included in each row as one light receiving block group as shown in FIG. 8, and exposure is performed for each light receiving block group. Time is set. Specifically, the light receiving blocks BL1 to BL4 constitute one light receiving block group D1, the light receiving blocks BL5 to BL8 constitute one light receiving block group D2, and the light receiving blocks BL9 to BL12 constitute one light receiving block group D3. The light receiving blocks BL13 to BL16 constitute one light receiving block group D4.

図9は、図3に示す撮像部12を採用した場合の撮像素子121の詳細な構成の一例を示すブロック図である。図9に示すように撮像素子121は、Vシフトレジスタ901、カラムA/D902、Hシフトレジスタ903、及び画素アレイ部904を備える。   FIG. 9 is a block diagram illustrating an example of a detailed configuration of the imaging element 121 when the imaging unit 12 illustrated in FIG. 3 is employed. As shown in FIG. 9, the image sensor 121 includes a V shift register 901, a column A / D 902, an H shift register 903, and a pixel array unit 904.

画素アレイ部904には、水平方向に24個、垂直方向に16個で、合計、24×16個の画素がアレイ状に配列されている。この例では、画素アレイ部904は、水平方向がブロック番号BH1〜BH4の4つの受光ブロックに区画され、垂直方向がブロック番号BV1〜BV4の4つの受光ブロックに区画され、合計16個の受光ブロックBLに区画されている。   The pixel array unit 904 includes 24 pixels in the horizontal direction and 16 pixels in the vertical direction, for a total of 24 × 16 pixels arranged in an array. In this example, the pixel array unit 904 is divided into four light receiving blocks with block numbers BH1 to BH4 in the horizontal direction and four light receiving blocks with block numbers BV1 to BV4 in the vertical direction, for a total of 16 light receiving blocks. It is partitioned into BL.

そして、Vシフトレジスタ901は、ブロック番号BV1で規定される4つの受光ブロックBLを1つの受光ブロック群D1と設定し、ブロック番号BV2で規定される4つの受光ブロックBLを1つの受光ブロック群D2に設定し、ブロック番号BV3で規定される4つの受光ブロックBLを1つの受光ブロック群D3に設定し、ブロック番号BV4で規定される4つの受光ブロックBLを1つの受光ブロック群D4に設定する。そして、Vシフトレジスタ901は、受光ブロック群D1〜D4毎に露光時間を設定する。また、Vシフトレジスタ901は、画素アレイ部904の1行目から16行目までを順次に選択し、選択した行の画素から画素信号を出力させる。   The V shift register 901 sets the four light receiving blocks BL defined by the block number BV1 as one light receiving block group D1, and the four light receiving blocks BL defined by the block number BV2 as one light receiving block group D2. The four light receiving blocks BL specified by the block number BV3 are set in one light receiving block group D3, and the four light receiving blocks BL specified by the block number BV4 are set in one light receiving block group D4. The V shift register 901 sets an exposure time for each of the light receiving block groups D1 to D4. In addition, the V shift register 901 sequentially selects from the first row to the 16th row of the pixel array unit 904, and outputs a pixel signal from the pixels in the selected row.

カラムA/D902は、画素アレイ部904の各列と信号線L1を介して接続されている。この信号線L1は、画素アレイ部904の各列に対応して24本設けられている。カラムA/D902は、Vシフトレジスタ901により選択された行の画素から画素信号を読み出し、この画素信号を所定ビット数のデジタルの画素信号にA/D変換し、図略のレジスタに保持する。   The column A / D 902 is connected to each column of the pixel array unit 904 via a signal line L1. Twenty-four signal lines L1 are provided corresponding to each column of the pixel array unit 904. The column A / D 902 reads a pixel signal from the pixel in the row selected by the V shift register 901, A / D converts this pixel signal into a digital pixel signal having a predetermined number of bits, and holds it in a register (not shown).

Hシフトレジスタ903は、カラムA/D902による1行分の画素信号のA/D変換が終了する都度、カラムA/Dを水平走査する。これにより、カラムA/D902は、A/D変換したデジタルの画素信号を順次に出力する。   The H shift register 903 horizontally scans the column A / D every time the A / D conversion of the pixel signal for one row by the column A / D 902 is completed. Accordingly, the column A / D 902 sequentially outputs A / D converted digital pixel signals.

図10は、図9に示す撮像素子121の読み出しシーケンスの一例を示すシーケンス図である。なお、図10の例では、受光ブロック群D1〜D4の露光時間はそれぞれ、H、2H、4H、8Hに設定されている。また、1〜16行目に属する画素の読出期間は、それぞれ、水平走査期間H(t1)〜H(t16)に割り付けられている。なお、Hは1水平走査期間を表す。また、図10において、横方向に長尺の帯は、各行の露光時間を示す。また、図10において、縦一列で付された1〜16の番号は、画素アレイ部904の行を規定するインデックスである。   FIG. 10 is a sequence diagram illustrating an example of a reading sequence of the image sensor 121 illustrated in FIG. 9. In the example of FIG. 10, the exposure times of the light receiving block groups D1 to D4 are set to H, 2H, 4H, and 8H, respectively. The readout periods of the pixels belonging to the 1st to 16th rows are assigned to horizontal scanning periods H (t1) to H (t16), respectively. H represents one horizontal scanning period. Further, in FIG. 10, a band elongated in the horizontal direction indicates the exposure time of each row. In FIG. 10, numbers 1 to 16 attached in a vertical column are indexes that define the rows of the pixel array unit 904.

ここで、各行の読出期間は固定であるため、各行の露光開始タイミングは、読出期間を基準に定められる。例えば、受光ブロック群D1に属する1行目は、読出期間が水平走査期間H(t1)に割り付けられているため、露光時間をHにするために、水平走査期間H(t0)の開始タイミングが露光開始タイミングに設定されている。   Here, since the readout period of each row is fixed, the exposure start timing of each row is determined based on the readout period. For example, in the first row belonging to the light receiving block group D1, since the readout period is assigned to the horizontal scanning period H (t1), the start timing of the horizontal scanning period H (t0) is set to set the exposure time to H. The exposure start timing is set.

また、受光ブロック群D2に属する5行目は、読出期間が水平走査期間H(t5)に割り付けられているため、露光時間を2Hにするために、水平走査期間H(t3)の開始タイミングが露光開始タイミングに設定されている。   In the fifth row belonging to the light receiving block group D2, since the readout period is assigned to the horizontal scanning period H (t5), the start timing of the horizontal scanning period H (t3) is set to set the exposure time to 2H. The exposure start timing is set.

このように、図10に示すシーケンスでは、水平走査期間H(t1)〜H(t4)のそれぞれにおいて、露光時間がHに設定された1〜4行目の画素信号がカラムA/D902に順次に読み出される。また、水平走査期間H(t5)〜H(t8)のそれぞれにおいて、露光時間が2Hに設定された5〜8行目の画素信号がカラムA/D902に順次に読み出される。また、水平走査期間H(t9)〜H(t12)のそれぞれにおいて、露光時間が4Hに設定された9〜12行目の画素信号がカラムA/D902に順次に読み出される。また、水平走査期間H(t13)〜H(t16)のそれぞれにおいて、露光時間が8Hに設定された13〜16行目の画素信号がカラムA/D902に順次に読み出される。   As described above, in the sequence shown in FIG. 10, the pixel signals in the first to fourth rows in which the exposure time is set to H are sequentially applied to the column A / D 902 in each of the horizontal scanning periods H (t1) to H (t4). Is read out. Further, in each of the horizontal scanning periods H (t5) to H (t8), the pixel signals in the 5th to 8th rows in which the exposure time is set to 2H are sequentially read out to the column A / D902. Further, in each of the horizontal scanning periods H (t9) to H (t12), the pixel signals in the 9th to 12th rows with the exposure time set to 4H are sequentially read out to the column A / D 902. Further, in each of the horizontal scanning periods H (t13) to H (t16), the pixel signals on the 13th to 16th rows with the exposure time set to 8H are sequentially read out to the column A / D 902.

そして、水平走査期間H(t1)〜H(t16)で1つの垂直走査期間Vが規定される。そして、この垂直走査期間Vが繰り返され、1つ垂直走査期間V毎に受光ブロック群D1〜D4で撮像された4つの画像が得られる。   One vertical scanning period V is defined by the horizontal scanning periods H (t1) to H (t16). Then, the vertical scanning period V is repeated, and four images captured by the light receiving block groups D1 to D4 are obtained for each vertical scanning period V.

なお、図9において、画素アレイ部904の行数及び列数は一例であり、図9で示す行数及び列数以外の値が採用されてもよい。また、画素アレイ部904において、4行を1つの受光ブロック群としたが、これは一例であり、4行以外の行数で1つの受光ブロック群が構成されてもよい。また、図9では、受光ブロック群は4つであったが、これは一例であり、4以外の受光ブロック群が設定されてもよい。   In FIG. 9, the number of rows and the number of columns in the pixel array unit 904 are examples, and values other than the number of rows and the number of columns shown in FIG. 9 may be employed. Further, in the pixel array unit 904, four rows are set as one light receiving block group, but this is an example, and one light receiving block group may be configured by a number of rows other than four rows. In FIG. 9, there are four light receiving block groups. However, this is an example, and light receiving block groups other than four may be set.

図11は、本実施の形態の画像入力装置による処理の一例を示すフローチャートである。まず、視差検出処理が実行される(S1101)。ここで、視差検出処理は、視差を検出するために被写体を撮像し、得られた画像から各画像毎に視差情報を生成する処理であり、詳しくは後述する。   FIG. 11 is a flowchart illustrating an example of processing performed by the image input apparatus according to the present embodiment. First, parallax detection processing is executed (S1101). Here, the parallax detection process is a process of capturing a subject in order to detect parallax and generating parallax information for each image from the obtained image, which will be described in detail later.

視差検出処理が終了すると、露光制御部460は、各カメラの露光時間をハイダイナミックレンジ画像を得るための露光時間に設定するように露光時間設定部412に指示する(S1102)。この場合、露光制御部460は、例えば、基準画像を撮像する基準カメラが主要な被写体(例えば、画像の中央に位置する被写体)を撮像するための最適露光時間を求める。そして、露光制御部460は、最適露光時間の100/2(プラスマイナスn乗)%(nは1以上の整数)の露光時間を、基準カメラ以外の残りのカメラの露光時間に設定すればよい。   When the parallax detection process ends, the exposure control unit 460 instructs the exposure time setting unit 412 to set the exposure time of each camera to the exposure time for obtaining a high dynamic range image (S1102). In this case, for example, the exposure control unit 460 obtains the optimum exposure time for the reference camera that captures the reference image to capture the main subject (for example, the subject located at the center of the image). Then, the exposure control unit 460 may set the exposure time of 100/2 (plus or minus n power)% (n is an integer of 1 or more) of the optimum exposure time as the exposure time of the remaining cameras other than the reference camera. .

例えば、基準カメラ以外に3つのカメラ(CAM1〜CAM3)があり、基準カメラの最適露光時間がTxであるすると、露光制御部460は、CAM1の露光時間T_CAM1=Tx×2、CAM2の露光時間T_CAM2=Tx/2、CAM3の露光時間T_CAM3=Tx×4、というように、各カメラの露光時間を設定すればよい。   For example, if there are three cameras (CAM1 to CAM3) other than the reference camera, and the optimal exposure time of the reference camera is Tx, the exposure control unit 460 has an exposure time T_CAM1 = Tx × 2 of CAM1, and an exposure time T_CAM2 of CAM2. = Tx / 2, CAM3 exposure time T_CAM3 = Tx × 4, and the like.

なお、最適露光時間の100/2(プラスマイナスn乗)%で基準カメラ以外の各カメラの露光時間を設定する手法は一例にすぎない。例えば、最適露光時間の100/10(プラスマイナスn乗)%で基準カメラ以外の各カメラの露光時間が設定されてもよい。要は、基準カメラの最適露光時間を基準として、上下にばらつくように基準カメラ以外の各カメラの露光時間が設定されればよい。ハイダイナミックレンジ画像を得るために各カメラに設定される露光時間の種類としては、少なくとも3〜4種類が想定される。したがって、カメラの個数が5つ以上あれば、露光制御部460は、全カメラに異なる露光時間を設定してもよいし、全カメラに対して3〜4種類の露光時間をサイクリックに設定してもよい。   The method of setting the exposure time of each camera other than the reference camera at 100/2 (plus / minus n)% of the optimum exposure time is merely an example. For example, the exposure time of each camera other than the reference camera may be set at 100/10 (plus / minus n)% of the optimal exposure time. In short, the exposure time of each camera other than the reference camera may be set so as to vary up and down on the basis of the optimum exposure time of the reference camera. At least 3 to 4 types of exposure time are set for each camera in order to obtain a high dynamic range image. Therefore, if the number of cameras is five or more, the exposure control unit 460 may set different exposure times for all cameras, or cyclically set three to four types of exposure times for all cameras. May be.

アレイレンズ11にND(Neutral Density)フィルタが装着されていることもある。この場合、露光時間設定部412は、NDフィルタによる減光分がキャンセルされるように、予め定められたオフセット値を露光時間に加えて各カメラの露光時間を設定してもよい。   An ND (Neutral Density) filter may be attached to the array lens 11. In this case, the exposure time setting unit 412 may set the exposure time of each camera by adding a predetermined offset value to the exposure time so that the dimming by the ND filter is canceled.

次に、アレイカメラ部 411を構成する各カメラは、設定された露光時間で被写体を撮像する(S1103)。   Next, each camera constituting the array camera unit 411 captures an image of the subject with the set exposure time (S1103).

次に、画像合成部430は、各カメラで撮像された画像を合成する(S1104)。ここで、各カメラが撮像した画像に複数の被写体が含まれる場合、画像合成部430は、代表的な1つの被写体を特定し、特定した被写体の視差だけ各カメラで撮像された画像をずらして合成すればよい。代表的な1つの被写体としては、例えば、各カメラの中央部に結像された被写体が採用できる。ここで、画像合成部430は、視差検出部420により生成された視差情報を利用して、視差が同一又は一定の範囲内にある一群の点を1つの被写体として抽出し、抽出した被写体のうち、中央部に位置する被写体を、代表的な1つの被写体として特定すればよい。そして、画像合成部430は、特定した1つの被写体の視差の代表値を被写体の視差として算出すればよい。ここで、視差の代表値としては、例えば、被写体を構成する各点の各視差の平均値や、被写体の重心に位置する点の視差が採用できる。なお、視差情報は、対応点の探索対象となる1以上の点の基準画像における座標と、各点に対する視差とが対応付けられた情報である。   Next, the image synthesis unit 430 synthesizes images captured by the cameras (S1104). Here, when a plurality of subjects are included in an image captured by each camera, the image composition unit 430 identifies one representative subject, and shifts the image captured by each camera by the parallax of the identified subject. What is necessary is just to synthesize. As a typical one subject, for example, a subject imaged at the center of each camera can be adopted. Here, the image composition unit 430 uses the disparity information generated by the disparity detection unit 420 to extract a group of points with the same or constant disparity as one subject, and out of the extracted subjects The subject located in the center may be specified as one representative subject. Then, the image composition unit 430 may calculate the representative parallax value of the specified one subject as the parallax of the subject. Here, as the representative value of the parallax, for example, the average value of the parallaxes of the respective points constituting the subject or the parallax of the point located at the center of gravity of the subject can be adopted. The disparity information is information in which coordinates in the reference image of one or more points to be searched for corresponding points are associated with the disparity for each point.

例えば、3つの参照画像S1〜S3がある場合、画像合成部430は、1つの被写体について、参照画像S1〜S3に対応する3つの視差情報K1〜K3のそれぞれから3つの視差k1〜k3を算出する。そして、画像合成部430は、基準画像R1に対して、参照画像S1〜S3をそれぞれ視差k1〜k3だけずらして合成する。これにより、1つの被写体について、ずれがないハイダイナミックレンジ画像が得られる。   For example, when there are three reference images S1 to S3, the image composition unit 430 calculates three parallaxes k1 to k3 from each of the three parallax information K1 to K3 corresponding to the reference images S1 to S3 for one subject. To do. Then, the image synthesis unit 430 synthesizes the reference images R1 with the reference images S1 to S3 shifted by parallax k1 to k3, respectively. As a result, a high dynamic range image without deviation can be obtained for one subject.

或いは、各カメラが撮像した画像に複数の被写体が含まれる場合、画像合成部430は、これら複数の被写体別に各カメラで撮像された画像をずらして合成してもよい。例えば、画像合成部430は、視差情報K1〜K3のそれぞれにおいて、視差が同一或いは一定の範囲内にある一群の点を1つの被写体として特定する。そして、画像合成部430は、視差情報K1〜K3のそれぞれについて、各被写体の視差を求める。例えば、3つの被写体OB1〜OB3があったとすると、画像合成部430は、被写体OB1につき、視差情報K1〜K3のそれぞれから視差k11〜k13を求め、被写体OB2につき、視差情報K1〜K3のそれぞれから視差k21〜k23を求め、被写体OB3につき、視差情報K1〜K3のそれぞれから視差k31〜k33を求める。   Alternatively, when a plurality of subjects are included in an image captured by each camera, the image composition unit 430 may synthesize the images captured by each camera by shifting the plurality of subjects. For example, the image compositing unit 430 specifies a group of points having the same or constant parallax as one subject in each of the parallax information K1 to K3. Then, the image composition unit 430 obtains the parallax of each subject for each of the parallax information K1 to K3. For example, if there are three subjects OB1 to OB3, the image composition unit 430 obtains the parallax k11 to k13 from the parallax information K1 to K3 for the subject OB1, and obtains the parallax information K1 to K3 for the subject OB2. The parallax k21 to k23 are obtained, and the parallax k31 to k33 are obtained from the parallax information K1 to K3 for the subject OB3.

そして、画像合成部430は、基準画像R1に対して、参照画像S1〜S3の被写体OB1に対応する領域を、それぞれ、視差k11〜k13だけずらして合成し、参照画像S1〜S3の被写体OB2に対応する領域を、それぞれ、視差k21〜k23だけずらして合成し、参照画像S1〜S3の被写体OB3に対応する領域を、それぞれ、視差k31〜k33だけずらして合成すればよい。   Then, the image synthesis unit 430 synthesizes the area corresponding to the subject OB1 of the reference images S1 to S3 with respect to the standard image R1 by shifting them by the parallax k11 to k13, respectively, to the subject OB2 of the reference images S1 to S3 The corresponding regions may be combined by shifting the parallax k21 to k23, respectively, and the regions corresponding to the subject OB3 of the reference images S1 to S3 may be combined by shifting the parallax k31 to k33, respectively.

視差を補正する場合、1画素毎に視差を求め、これに基づいて視差は補正されても良い。   When correcting the parallax, the parallax may be obtained for each pixel, and the parallax may be corrected based on the parallax.

これにより、1枚のハイダイナミックレンジ画像が生成される。生成されたハイダイナミックレンジ画像は、例えば、図略の表示装置に表示されたり、図略の画像メモリに記録されたりする。   Thereby, one high dynamic range image is generated. The generated high dynamic range image is displayed on a display device (not shown) or recorded in an image memory (not shown), for example.

次に、S1101に示す視差検出処理について説明する。本実施の形態では、視差検出処理として大きく2パターンが用意されている。図12は、第1パターンの視差検出処理の一例を示すフローチャートである。まず、露光制御部460は、各カメラ共通のデフォルトの露光条件を各カメラに設定し、各カメラに被写体を撮像させる(S1301)。ここでは、各カメラ共通のデフォルトの露光条件として、最適露光時間が採用できる。   Next, the parallax detection process shown in S1101 will be described. In the present embodiment, two patterns are prepared as parallax detection processing. FIG. 12 is a flowchart illustrating an example of parallax detection processing of the first pattern. First, the exposure control unit 460 sets a default exposure condition common to each camera to each camera, and causes each camera to image a subject (S1301). Here, the optimum exposure time can be adopted as a default exposure condition common to each camera.

次に、視差検出部420は、各カメラで撮像された画像から視差を検出し(S1302)、視差情報を生成する。   Next, the parallax detection unit 420 detects parallax from an image captured by each camera (S1302), and generates parallax information.

次に、信頼度推定部450は、視差情報を用いて視差を検出した際の露光条件に対する信頼度を推定する(S1303)。例えば、3つの参照画像S1〜S3があり、対応点の探索対象となる基準画像上の点が3つあったとする。ここでは、説明を簡単にするために、基準画像上の点を3つとしているが、実際にはこれより遙かに多い点が探索対象の点として採用される。この場合、参照画像S1について、3つの点P1〜P3のうち、点P1のみ対応点が正しく探索できたとすると、参照画像S1のスコアは、例えば、1点となる。また、参照画像S2について、点P1、P2のみ対応点が正しく探索できたとすると、参照画像S2についてのスコアは、例えば、2点となる。また、参照画像S3について、点P1〜P3の全てで対応点が正しく探索できたとすると、参照画像S3のスコアは、例えば、3点となる。この場合、現在設定されている露光条件の信頼度は、1+2+3=6点となる。このようにして、信頼度推定部450は、露光条件の信頼度を推定する。   Next, the reliability estimation unit 450 estimates the reliability with respect to the exposure condition when the parallax is detected using the parallax information (S1303). For example, it is assumed that there are three reference images S1 to S3 and that there are three points on the reference image to be searched for corresponding points. Here, in order to simplify the explanation, the number of points on the reference image is three, but in reality, far more points are adopted as the search target points. In this case, if the corresponding point of the reference image S1 is correctly searched for only the point P1 among the three points P1 to P3, the score of the reference image S1 is, for example, one point. Further, assuming that the corresponding points can be correctly searched for only the points P1 and P2 for the reference image S2, the score for the reference image S2 is, for example, two points. Further, regarding the reference image S3, if the corresponding points can be correctly searched at all of the points P1 to P3, the score of the reference image S3 is, for example, three points. In this case, the reliability of the currently set exposure condition is 1 + 2 + 3 = 6 points. In this way, the reliability estimation unit 450 estimates the reliability of the exposure conditions.

次に、露光制御部460は、推定した信頼度が規定値より大きければ(S1304でYES)、S1302で生成した視差情報を出力対象の視差情報として決定する(S1305)。ここで、規定値として、対応点の探索対象となる点の総数と参照画像の総数との積を満点とすると、例えば、満点に対して60%、70%、80%、90%といった値が採用できる。   Next, if the estimated reliability is greater than the specified value (YES in S1304), the exposure control unit 460 determines the disparity information generated in S1302 as the disparity information to be output (S1305). Here, when the product of the total number of points to be searched for corresponding points and the total number of reference images is a perfect score, for example, values such as 60%, 70%, 80%, and 90% of the full score are given. Can be adopted.

一方、露光制御部460は、推定した信頼度が規定値以下であれば(S1304でNO)、露光条件を変更する(S1306)。   On the other hand, if the estimated reliability is equal to or less than the specified value (NO in S1304), exposure control unit 460 changes the exposure condition (S1306).

ここで、露光制御部460は、各カメラが撮像した画像のそれぞれの露出評価値を露出評価値算出部440に算出させ、露出評価値が所定の適正範囲から一定の値以上離れた画像を撮像したカメラを特定する。そして、露光制御部460は、特定したカメラについて、露出評価値を適正範囲内にする露光時間を、特定したカメラの露光条件として設定すればよい。また、露光制御部460は、露出評価値が適正範囲から一定の値以上離れていないカメラについては、前回設定した露光条件を維持すればよい。   Here, the exposure control unit 460 causes the exposure evaluation value calculation unit 440 to calculate the exposure evaluation value of each image captured by each camera, and captures an image in which the exposure evaluation value is a predetermined value or more away from a predetermined appropriate range. Identify the camera that did. Then, the exposure control unit 460 may set the exposure time for setting the exposure evaluation value within the appropriate range for the specified camera as the exposure condition of the specified camera. Further, the exposure control unit 460 may maintain the previously set exposure condition for a camera whose exposure evaluation value is not more than a certain value from the appropriate range.

そして、露光制御部460は、再度、各カメラに被写体を撮像させ(S1307)、処理をS1302に戻す。この場合、各カメラの露光条件が2種類以上に設定されて、視差が検出されることになる。   Then, the exposure control unit 460 causes each camera to capture an image of the subject again (S1307), and returns the process to S1302. In this case, the exposure conditions of each camera are set to two or more types, and parallax is detected.

なお、上記の露光条件の変更手法は一例にすぎない。例えば、露光制御部460は、デフォルトの露光条件で撮像された画像を輝度に応じて複数の領域に区画し、区画した領域毎に最適な露光条件を決定してもよい。ここで、露出制御部460は、例えば、基準画像から画素値と頻度との関係を表すヒストグラムを作成し、ヒストグラムのピークを基準とする一群の画素を1つの領域として、基準画像を複数の領域に区画すればよい。そして、露光制御部460は、決定した領域別の最適な露光条件を各カメラに割り当てて、再度、各カメラに被写体を撮像させ、視差検出部420に視差を検出させてもよい。   Note that the above-described method for changing the exposure conditions is merely an example. For example, the exposure control unit 460 may divide an image captured under the default exposure condition into a plurality of areas according to the luminance, and determine an optimal exposure condition for each of the divided areas. Here, for example, the exposure control unit 460 creates a histogram representing the relationship between the pixel value and the frequency from the reference image, and uses the group of pixels based on the peak of the histogram as one region, and the reference image as a plurality of regions. What is necessary is just to divide into. Then, the exposure control unit 460 may assign the determined optimal exposure condition for each region to each camera, cause the camera to capture the subject again, and cause the parallax detection unit 420 to detect the parallax.

ここで、露光制御部460は、例えば、基準画像を輝度に応じて複数の領域に区画し、区画した領域別の露出評価値を露出評価値算出部440に算出させる。そして、露光制御部460は、算出した各露出評価値を所定の適正範囲内にする最適露光条件を決定する。例えば、2つの領域RD1、RD2が抽出されたとすると、領域RD1の露出評価値を適正範囲内にする最適露光時間T1と領域RD2の露出評価値を適正範囲内にする最適露光時間T2とが決定される。   Here, for example, the exposure control unit 460 divides the reference image into a plurality of regions according to the luminance, and causes the exposure evaluation value calculation unit 440 to calculate an exposure evaluation value for each divided region. Then, the exposure control unit 460 determines optimum exposure conditions that bring the calculated exposure evaluation values within a predetermined appropriate range. For example, assuming that two regions RD1 and RD2 are extracted, an optimum exposure time T1 for setting the exposure evaluation value of the region RD1 within an appropriate range and an optimum exposure time T2 for setting the exposure evaluation value of the region RD2 within an appropriate range are determined. Is done.

そして、露光制御部460は、各カメラに対して、最適露光時間T1と最適露光時間T2とを市松模様状に設定し、露光条件を変更すればよい。   Then, the exposure control unit 460 may set the optimum exposure time T1 and the optimum exposure time T2 in a checkered pattern for each camera and change the exposure conditions.

また、露光条件の変更手法としては以下の手法が採用されてもよい。例えば、露光制御部460は、各カメラの露光時間を一律に増大又は減少させて、信頼度が規定値以上になるまで、各カメラによる撮像を繰り返し行わせてもよい。この場合、露光制御部460は、露出評価値算出部440に各カメラが撮像した画像の露出評価値を算出させ、その露出評価値の平均値が、例えば、適正範囲以下であれば、露光時間を増大させ、適正範囲以上であれば、露光時間を減少させればよい。また、露光制御部460は、露出評価値の平均値が適正範囲内であれば、信頼度が規定値に近づく方向に露光時間を増減させればよい。   In addition, as a method for changing the exposure condition, the following method may be employed. For example, the exposure control unit 460 may increase or decrease the exposure time of each camera uniformly, and repeatedly perform imaging by each camera until the reliability becomes a specified value or more. In this case, the exposure control unit 460 causes the exposure evaluation value calculation unit 440 to calculate the exposure evaluation value of the image captured by each camera. If the average value of the exposure evaluation values is less than or equal to the appropriate range, for example, the exposure time If it is greater than the appropriate range, the exposure time may be decreased. Moreover, the exposure control part 460 should just increase / decrease exposure time in the direction in which reliability approaches a regulation value, if the average value of exposure evaluation value is in an appropriate range.

このように、第1パターンの視差検出処理では、信頼度が規定値より大きくなるように、各カメラの露光条件が設定されるため、視差の検出精度を増大させ、画像同士の被写体のずれを正確に検知できる。   Thus, in the parallax detection process of the first pattern, since the exposure conditions of each camera are set so that the reliability is greater than the specified value, the detection accuracy of the parallax is increased, and the subject shift between images is reduced. It can be detected accurately.

なお、露光制御部460は、S1301にデフォルトの露光条件を各カメラに設定したが、例えば、連続撮像中は、前回の視差検出処理において、信頼度が規定値を超えたときの各カメラに設定されていた露光条件が採用されてもよい。   Note that the exposure control unit 460 sets the default exposure conditions for each camera in S1301, but for example, during continuous imaging, the exposure control unit 460 sets each camera when the reliability exceeds a specified value in the previous parallax detection process. The exposure conditions that have been used may be employed.

図13は、第2パターンの視差検出処理の一例を示すフローチャートである。第2パターンの視差検出処理は、予め用意された複数の露光条件を各カメラに設定し、信頼度が最も高い露光条件を採用することを特徴とする。   FIG. 13 is a flowchart illustrating an example of the second-pattern parallax detection process. The parallax detection process of the second pattern is characterized in that a plurality of exposure conditions prepared in advance are set in each camera and the exposure condition with the highest reliability is adopted.

まず、露光制御部460は、1つ目の露光条件を各カメラに設定し、被写体を撮像させる(S1401)。S1402、S1403は、図12のS1302、S1303と同じである。次に、露光制御部460は、全ての露光条件での撮像が終了していれば(S1404でYES)、信頼度が最大の露光条件で撮像された画像から得られた視差情報を出力する視差情報として決定する(S1405)。   First, the exposure control unit 460 sets the first exposure condition for each camera and images the subject (S1401). S1402 and S1403 are the same as S1302 and S1303 in FIG. Next, if the imaging under all exposure conditions has been completed (YES in S1404), the exposure controller 460 outputs the parallax information obtained from the image captured under the exposure condition with the maximum reliability. Information is determined (S1405).

一方、全ての露光条件での撮像が終了していなければ(S1404でNO)、露光制御部460は、各カメラの露光条件を次の露光条件に設定し(S1406)、各カメラに被写体を撮像させ(S1407)、処理をS1402に戻す。このように、第2パターンの視差検出処理では、複数の露光条件の中から信頼度が最大の露光条件で撮像された画像を用いて視差が検出されるため、被写体のずれを正確に求めることができる。   On the other hand, if the imaging under all exposure conditions has not been completed (NO in S1404), the exposure control unit 460 sets the exposure condition of each camera to the next exposure condition (S1406), and images the subject in each camera. (S1407), and the process returns to S1402. As described above, in the parallax detection process of the second pattern, since the parallax is detected using the image captured under the exposure condition with the maximum reliability from the plurality of exposure conditions, it is possible to accurately obtain the deviation of the subject. Can do.

なお、図12、図13の例では、信頼度を考慮して露光条件を設定したが、本発明はこれに限定されない。例えば、上述のS1306で説明した、輝度値に応じた領域別に最適露光時間を決定し、決定した最適露光時間を各カメラに市松模様状に割り当てて、視差検出処理を行ってもよい。   In the examples of FIGS. 12 and 13, the exposure conditions are set in consideration of the reliability, but the present invention is not limited to this. For example, the parallax detection process may be performed by determining the optimal exposure time for each region according to the luminance value described in S1306 and assigning the determined optimal exposure time to each camera in a checkered pattern.

図14は、視差を検出する際に撮像された画像の一例を示す図である。図14の例では、4行×3列のカメラで被写体が撮像されたため、矩形状の小さな画像が4行×3列で配列されている。各カメラとも、窓付きの部屋内において、窓の手前に配置された2体のぬいぐるみを撮像している。図14の例では、露光条件として、第1露光時間と第1露光時間よりも短い第2露光時間との2種類の露光時間が採用されている。ここで、第1露光時間としては、部屋の中における最適露光時間が採用されている。また、第2露光時間としては、部屋の外における最適露光時間が採用されている。   FIG. 14 is a diagram illustrating an example of an image captured when parallax is detected. In the example of FIG. 14, since a subject is imaged by a camera of 4 rows × 3 columns, small rectangular images are arranged in 4 rows × 3 columns. Each camera images two stuffed animals placed in front of the window in a room with a window. In the example of FIG. 14, two types of exposure time, that is, a first exposure time and a second exposure time shorter than the first exposure time are employed as exposure conditions. Here, the optimal exposure time in the room is adopted as the first exposure time. As the second exposure time, the optimum exposure time outside the room is adopted.

そして、各カメラに対して第1露光時間と第2露光時間とが市松模様状に割り当てられている。したがって、図14の例では、被写体が明るく表れた画像と、被写体が暗く表れた画像とが交互に並んでいる。   The first exposure time and the second exposure time are assigned to each camera in a checkered pattern. Therefore, in the example of FIG. 14, an image in which the subject appears bright and an image in which the subject appears dark are alternately arranged.

視差検出部420は、これらの画像のうち、1つを基準画像、残りを参照画像とし、対応点探索処理を実行する。そして、視差検出部420は、各参照画像について、主要な被写体である2体のぬいぐるみの視差を検出する。   The parallax detection unit 420 uses one of these images as a standard image and the rest as a reference image, and executes corresponding point search processing. And the parallax detection part 420 detects the parallax of the two stuffed animals which are main subjects about each reference image.

次に、露光制御部460は、ハイダイナミックレンジ画像を得るために各カメラの露光時間を設定する。図15は、ハイダイナミックレンジ画像を得る際に撮像された画像の一例を示す図である。図15では、図14と同じ被写体が、4行×3列のカメラで撮像されている。そのため、矩形状の小さな画像が4行×3列で配列されている。   Next, the exposure control unit 460 sets the exposure time of each camera in order to obtain a high dynamic range image. FIG. 15 is a diagram illustrating an example of an image captured when a high dynamic range image is obtained. In FIG. 15, the same subject as in FIG. 14 is captured by a 4 × 3 camera. Therefore, small rectangular images are arranged in 4 rows × 3 columns.

各カメラの露光時間は短い順に基準となる露光時間に対して、1/10倍、1/100倍、10倍、100倍、・・・というようにそれぞれ異なる時間に設定されている。なお、これは一例であり、基準となる露光時間に対して2のべき乗倍で各カメラの露光時間が設定されてもよい。なお、基準となる露光時間としては、例えば、基準画像を撮像するカメラの露光時間が採用される。図15の例では、上の行に向かうほど露光時間が長く設定されており、各行において2種類の露光時間が交互に割り当てられている。そのため、上の行の画像ほど明るくなっている。   The exposure time of each camera is set to a different time such as 1/10 times, 1/100 times, 10 times, 100 times,... This is an example, and the exposure time of each camera may be set to a power of 2 with respect to the reference exposure time. As the reference exposure time, for example, the exposure time of the camera that captures the reference image is employed. In the example of FIG. 15, the exposure time is set to be longer toward the upper row, and two types of exposure times are alternately assigned to each row. Therefore, the image in the upper row is brighter.

画像合成部430は、図15に示す12個の画像を視差検出部420で検出された視差を用いて位置合わせし、一枚の画像に合成する。ここでは、2体のぬいぐるみが一致するように12個の画像が位置合わせされる。これにより、主要な被写体である2体のぬいぐるみ位置ずれがなく、周囲の画像も明瞭に表れたハイダイナミックレンジ画像が得られる。   The image composition unit 430 aligns the twelve images shown in FIG. 15 using the parallax detected by the parallax detection unit 420 and synthesizes the image into one image. Here, twelve images are aligned so that the two stuffed animals match. As a result, a high dynamic range image in which the two stuffed animals, which are the main subjects, are not displaced and the surrounding images are clearly displayed can be obtained.

なお、上記説明では、露光条件として主に露光時間を採用したが、これは一例にすぎず、絞り量が露光条件として採用されてもよいし、露光時間と絞り量との組み合わせが露光条件として採用されてもよい。   In the above description, the exposure time is mainly adopted as the exposure condition. However, this is only an example, and the aperture amount may be adopted as the exposure condition, or a combination of the exposure time and the aperture amount is used as the exposure condition. It may be adopted.

410 撮像部
411 アレイカメラ部
412 露光時間設定部
420 視差検出部
430 画像合成部
440 露出評価値算出部
450 信頼度推定部
460 露光制御部
410 Imaging unit 411 Array camera unit 412 Exposure time setting unit 420 Parallax detection unit 430 Image composition unit 440 Exposure evaluation value calculation unit 450 Reliability estimation unit 460 Exposure control unit

Claims (11)

複数のカメラが一体的に構成されたアレイカメラ部と、
各カメラの露光条件を個別に設定可能な露光制御部と、
前記露光制御部により各カメラがハイダイナミックレンジ画像を得るための露光条件に設定され、前記各カメラにより撮像された画像を、一枚の画像に合成する画像合成部とを備える画像入力装置。
An array camera unit in which a plurality of cameras are integrally formed;
An exposure control unit capable of individually setting the exposure conditions of each camera;
An image input device comprising: an image composition unit configured to synthesize an image captured by each camera, which is set to an exposure condition for each camera to obtain a high dynamic range image by the exposure control unit.
前記露光制御部により各カメラが視差を検出するための露光条件に設定され、前記各カメラにより撮像された画像を用いて被写体の視差を検出する視差検出部を更に備え、
前記画像合成部は、前記検出された視差を用いて前記被写体を位置合わせして、前記各カメラにより撮像された画像を、一枚の画像に合成する請求項1に記載の画像入力装置。
A parallax detection unit configured to detect parallax of a subject using an image captured by each camera, set to an exposure condition for each camera to detect parallax by the exposure control unit;
The image input device according to claim 1, wherein the image combining unit aligns the subject using the detected parallax and combines the images captured by the cameras into a single image.
複数のレンズが各カメラに対向して一体的に配列されたアレイレンズを更に備える請求項1又は2に記載の画像入力装置。   The image input device according to claim 1, further comprising an array lens in which a plurality of lenses are integrally arranged facing each camera. 前記アレイカメラは、前記複数のカメラに対応する複数の受光部が同一基板上に一体的に構成されている請求項1〜3のいずれか1項に記載の画像入力装置。   The image input device according to claim 1, wherein the array camera includes a plurality of light receiving units corresponding to the plurality of cameras integrally formed on the same substrate. 前記露光制御部は、各カメラの露光時間を独立して設定する請求項1〜4のいずれか一項に記載の画像入力装置。   The image input apparatus according to claim 1, wherein the exposure control unit sets an exposure time of each camera independently. 前記露光制御部は、前記ハイダイナミックレンジ画像を得るために、前記各カメラの露光条件を異なる露光条件に設定する請求項1〜5のいずれか一項に記載の画像入力装置。   The image input device according to claim 1, wherein the exposure control unit sets exposure conditions of the cameras to different exposure conditions in order to obtain the high dynamic range image. 前記露光制御部は、前記視差を検出するために、前記各カメラの露光時間が同一になるように前記各カメラの露光条件を設定する請求項2に記載の画像入力装置。   The image input apparatus according to claim 2, wherein the exposure control unit sets an exposure condition of each camera so that an exposure time of each camera becomes the same in order to detect the parallax. 前記視差検出部は、対応点探索手法を用いて前記視差を検出し、
前記視差検出部による対応点の探索結果を用いて、前記視差を検出するために設定された露光条件の信頼度を推定する信頼度推定部を更に備え、
前記露光制御部は、前記信頼度が規定値を超えるまで、前記露光条件を変えて前記各カメラに撮像させ、
前記視差検出部は、前記信頼度が規定値を超えた露光条件で撮像された画像を用いて、前記視差を検出する請求項2又は7に記載の画像入力装置。
The parallax detection unit detects the parallax using a corresponding point search method,
Using a search result of corresponding points by the parallax detection unit, further comprising a reliability estimation unit that estimates the reliability of the exposure condition set to detect the parallax,
The exposure control unit changes the exposure conditions until the reliability exceeds a specified value, and causes each camera to take an image.
The image input device according to claim 2, wherein the parallax detection unit detects the parallax using an image captured under an exposure condition in which the reliability exceeds a specified value.
前記視差検出部は、対応点探索手法を用いて前記視差を検出し、
前記露光制御部は、前記視差を検出するために、複数の露光条件を切り替えて前記各カメラに被写体を複数回撮像させ、
前記視差検出部による対応点の探索結果を用いて、前記視差を検出するために設定された露光条件の信頼度を推定する信頼度推定部を更に備え、
前記視差検出部は、前記信頼度が最大となる露光条件で撮像された画像を用いて前記視差を検出する請求項2又は7に記載の画像入力装置。
The parallax detection unit detects the parallax using a corresponding point search method,
The exposure control unit switches the plurality of exposure conditions to detect the parallax and causes each camera to image the subject multiple times.
Using a search result of corresponding points by the parallax detection unit, further comprising a reliability estimation unit that estimates the reliability of the exposure condition set to detect the parallax,
The image input device according to claim 2, wherein the parallax detection unit detects the parallax using an image captured under an exposure condition that maximizes the reliability.
前記各カメラにより撮像された画像から各カメラの露出評価値を算出する露出評価値算出部を更に備え、
前記露光制御部は、前記信頼度が規定値以下の場合、前記各カメラで撮像された画像の露出評価値を前記露出評価値算出部に算出させ、前記算出された露出評価値が所定の適正範囲から一定の値以上離れている画像を撮像したカメラについては、前記露光条件を最適露光条件に変更する請求項8記載の画像入力装置。
An exposure evaluation value calculation unit that calculates an exposure evaluation value of each camera from an image captured by each camera;
The exposure control unit causes the exposure evaluation value calculation unit to calculate an exposure evaluation value of an image captured by each camera when the reliability is equal to or less than a predetermined value, and the calculated exposure evaluation value is a predetermined appropriate value. The image input apparatus according to claim 8, wherein the exposure condition is changed to an optimum exposure condition for a camera that captures an image that is separated from a range by a certain value or more.
前記画像合成部は、前記カメラが撮像した画像から所定数の被写体を特定し、特定した被写体が位置合わせされるように各カメラが撮像した画像を合成する請求項1〜10のいずれか一項に記載の画像入力装置。   The said image synthetic | combination part specifies the predetermined number of to-be-photographed object from the image imaged by the said camera, and synthesize | combines the image imaged by each camera so that the specified to-be-photographed object may be aligned. The image input device described in 1.
JP2014050594A 2014-03-13 2014-03-13 image input device Pending JP2015177258A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014050594A JP2015177258A (en) 2014-03-13 2014-03-13 image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014050594A JP2015177258A (en) 2014-03-13 2014-03-13 image input device

Publications (1)

Publication Number Publication Date
JP2015177258A true JP2015177258A (en) 2015-10-05

Family

ID=54256062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050594A Pending JP2015177258A (en) 2014-03-13 2014-03-13 image input device

Country Status (1)

Country Link
JP (1) JP2015177258A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018064257A (en) * 2016-10-15 2018-04-19 キヤノン株式会社 Imaging System
WO2018225516A1 (en) * 2017-06-07 2018-12-13 日立オートモティブシステムズ株式会社 Image processing device
US10469742B2 (en) 2016-06-27 2019-11-05 Samsung Electronics Co., Ltd. Apparatus and method for processing image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10469742B2 (en) 2016-06-27 2019-11-05 Samsung Electronics Co., Ltd. Apparatus and method for processing image
JP2018064257A (en) * 2016-10-15 2018-04-19 キヤノン株式会社 Imaging System
WO2018225516A1 (en) * 2017-06-07 2018-12-13 日立オートモティブシステムズ株式会社 Image processing device
JPWO2018225516A1 (en) * 2017-06-07 2020-05-21 日立オートモティブシステムズ株式会社 Image processing device
EP3637758A4 (en) * 2017-06-07 2020-11-04 Hitachi Automotive Systems, Ltd. Image processing device

Similar Documents

Publication Publication Date Title
US9942474B2 (en) Systems and methods for performing high speed video capture and depth estimation using array cameras
EP3284061B1 (en) Systems and methods for performing high speed video capture and depth estimation using array cameras
US9055181B2 (en) Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information
JP5701785B2 (en) The camera module
JP6842509B2 (en) Systems and methods for processing event timing images
JP5979961B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, AND IMAGING DEVICE
CN105245772B (en) Photographing element, the control method of photographing element and picture pick-up device
JP2014155121A5 (en)
JP2013201752A5 (en)
KR20200031169A (en) Image processing method and device
JP2015088917A (en) Imaging device, imaging method, program, and recording medium
US9979876B2 (en) Imaging apparatus, imaging method, and storage medium
CN103688536A (en) Image processing device, image processing method, and program
JP2016053849A (en) Image processor and image processing method, and solid-state imaging device
CN104427251A (en) Focus detection apparatus, control method therefor, and image capture apparatus
JP2015049402A5 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
KR20150030615A (en) Image processing apparatus and control method thereof
CN105100601A (en) Image pickup device, control method therefor, and signal processing device for image pickup device
JP6261397B2 (en) Imaging apparatus and control method thereof
JP2015177258A (en) image input device
JP5581968B2 (en) Imaging device
US11032463B2 (en) Image capture apparatus and control method thereof
JP2016213757A (en) Imaging apparatus and control method of the same
US10694127B2 (en) Image capturing apparatus, control method, and storage medium for reducing the sense of incongruity felt by a laser
JP6752942B2 (en) Image processing equipment, image processing methods and programs, and imaging equipment