JP2015216428A - Compound-eye imaging apparatus, image processing apparatus, and image processing method - Google Patents

Compound-eye imaging apparatus, image processing apparatus, and image processing method Download PDF

Info

Publication number
JP2015216428A
JP2015216428A JP2014096340A JP2014096340A JP2015216428A JP 2015216428 A JP2015216428 A JP 2015216428A JP 2014096340 A JP2014096340 A JP 2014096340A JP 2014096340 A JP2014096340 A JP 2014096340A JP 2015216428 A JP2015216428 A JP 2015216428A
Authority
JP
Japan
Prior art keywords
image
eye
eye imaging
resolution
imaging optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014096340A
Other languages
Japanese (ja)
Inventor
潤 太田
Jun Ota
潤 太田
稔 桑名
Minoru Kuwana
稔 桑名
一生 松井
Kazumasa Matsui
一生 松井
基広 浅野
Motohiro Asano
基広 浅野
橋野 弘義
Hiroyoshi Hashino
弘義 橋野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014096340A priority Critical patent/JP2015216428A/en
Publication of JP2015216428A publication Critical patent/JP2015216428A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a compound-eye imaging apparatus capable of performing an image processing which generates an image with a desired high resolution in a short time.SOLUTION: The apparatus comprises: plural individual-eye imaging optical systems; an imaging device 60 which forms plural object images corresponding to the individual-eye imaging optical systems; an image generating processor 91b which processes plural individual eyes images corresponding to the plural object images outputted from the imaging device 60; a resolution power storage unit 92a where resolution power information relating to the resolution power of the plural individual-eye imaging optical systems is stored in advance; and an individual-eye selector 91a which selects an individual eye image to use for the processing by the image generating processor 91b, on the basis of the stored resolution power information.

Description

本発明は、超解像処理や距離測定等の画像処理を行う複眼撮像装置、当該複眼撮像装置に組み込まれる画像処理装置、及び当該複眼撮像装置を用いた画像処理方法に関する。   The present invention relates to a compound eye imaging device that performs image processing such as super-resolution processing and distance measurement, an image processing device incorporated in the compound eye imaging device, and an image processing method using the compound eye imaging device.

撮像光学系の薄型化への要求に対応するために、複数の個眼撮像光学系を有する複眼撮像装置及び当該複眼撮像装置に対応する画像処理方法等が提案されている。具体的には、複数の個眼撮像光学系により同一の被写体を撮影し、撮像装置から出力される複数の低解像度画像を画像処理で合成することで、1枚の高解像度画像を出力する超解像処理を行う複眼撮像装置である。また、複数の個眼撮像光学系で撮影された個眼像は、互いに視差を有するため、距離測定を行うこともできる。ここで、超解像処理により生成される高解像度画像の画質は、合成される複数の低解像度画像の個々の画質に大きく依存する。よって、複数の低解像度画像の中に、画質の悪い個眼像が含まれると、超解像処理後の画質も劣化する。また、距離測定では、視差を有する個眼像間の対応点探索を行うが、画質の悪い個眼像がある場合には、対応点探索の精度が低下し、距離精度も低下してしまう。そこで、これらの前処理として、例えば画質の良い個眼像を選択する以下の技術がある。   In order to meet the demand for thin imaging optical systems, a compound eye imaging apparatus having a plurality of single-eye imaging optical systems, an image processing method corresponding to the compound eye imaging apparatus, and the like have been proposed. Specifically, the same subject is photographed by a plurality of single-eye imaging optical systems, and a plurality of low-resolution images output from the imaging device are combined by image processing to output a single high-resolution image. It is a compound eye imaging device that performs resolution processing. In addition, since single-eye images taken by a plurality of single-eye imaging optical systems have parallax with each other, distance measurement can also be performed. Here, the image quality of the high-resolution image generated by the super-resolution processing greatly depends on the individual image quality of the plurality of low-resolution images to be synthesized. Therefore, when a single-eye image with poor image quality is included in a plurality of low-resolution images, the image quality after super-resolution processing also deteriorates. In distance measurement, corresponding point search between single-eye images having parallax is performed. However, if there is a single-eye image with poor image quality, the accuracy of the corresponding point search is lowered, and the distance accuracy is also lowered. Therefore, as these pre-processing, for example, there is the following technique for selecting a single-eye image with good image quality.

超解像処理等の前処理として、空間周波数情報によって個眼像の削減を行う方法がある(特許文献1参照)。具体的には、まず、各個眼像の空間周波数分布から全個眼像の平均空間周波数分布(平均値)を計算する。その後、各個眼像の空間周波数分布と平均値との差分をとり、その差分値がある閾値以上である個眼像を削除する。つまり、特許文献1の方法では、撮影後の画像を加工した後に画像の選択を行う。   As pre-processing such as super-resolution processing, there is a method of reducing individual images based on spatial frequency information (see Patent Document 1). Specifically, first, an average spatial frequency distribution (average value) of all the single-eye images is calculated from the spatial frequency distribution of each single-eye image. Thereafter, the difference between the spatial frequency distribution of each individual eye image and the average value is taken, and the individual image whose difference value is equal to or greater than a certain threshold value is deleted. In other words, in the method of Patent Document 1, an image is selected after processing a captured image.

また、超解像処理等の別の前処理として、使用する個眼像を限定するのではなく、基準画像として画質の良好な画像を利用する方法がある(特許文献2参照)。これは、フーリエ変換を用いずに、高周波成分の抽出を行うものである。例えば、ラプラシアンフィルターによるエッジ抽出を行い、抽出後の出力値の積算値を比較することで、ぼけ量の小さい画像を選択し、超解像処理時の基準画像に使用する。   As another preprocessing such as super-resolution processing, there is a method of using an image with good image quality as a reference image instead of limiting the single-eye image to be used (see Patent Document 2). In this method, high-frequency components are extracted without using Fourier transform. For example, edge extraction using a Laplacian filter is performed, and an integrated value of the output values after extraction is compared to select an image with a small amount of blur and use it as a reference image during super-resolution processing.

しかしながら、特許文献1の前処理では、一般的に、空間周波数分布の計算、すなわちフーリエ変換に時間がかかり、また平均値や差分を比較する処理も必要であり、処理の高速化の弊害となる。また、特許文献2の前処理では、空間フィルタリング処理を行うため、計算速度はフーリエ変換を行う場合に比較して短縮できるものの、最終的にぼけ量の大きい画像も超解像処理に用いるため、画質の劣化が懸念される。   However, in the preprocessing of Patent Document 1, generally, it takes time to calculate the spatial frequency distribution, that is, Fourier transform, and also requires processing for comparing average values and differences, which is an adverse effect of speeding up the processing. . Further, in the preprocessing of Patent Document 2, since the spatial filtering process is performed, the calculation speed can be shortened as compared with the case of performing the Fourier transform, but an image having a large blur amount is finally used for the super-resolution process. There is concern about image quality degradation.

特開2009−260843号公報JP 2009-260843 A 特開2009−194896号公報JP 2009-194896 A

本発明は、短時間で望ましい高解像度の画像生成を行う画像処理が可能な複眼撮像装置を提供することを目的とする。   An object of the present invention is to provide a compound eye imaging apparatus capable of image processing for generating a desired high resolution image in a short time.

また、本発明は、当該複眼撮像装置に組み込まれる画像処置装置、及び当該複眼撮像装置を用いた画像処理方法を提供することを目的とする。   It is another object of the present invention to provide an image treatment device incorporated in the compound eye imaging device and an image processing method using the compound eye imaging device.

上記課題を解決するため、本発明に係る複眼撮像装置は、複数の個眼撮像光学系と、個眼撮像光学系に対応する複数の物体像が結像される撮像素子と、撮像素子から出力される複数の物体像に対応する複数の個眼像を処理する画像生成処理部と、複数の個眼撮像光学系の解像力に関する解像力情報が予め記憶された解像力記憶部と、記憶された解像力情報に基づき、画像生成処理部で使用する個眼像を選択する個眼選択部と、を備える。   In order to solve the above problems, a compound eye imaging apparatus according to the present invention includes a plurality of single-eye imaging optical systems, an imaging element on which a plurality of object images corresponding to the single-eye imaging optical system are formed, and an output from the imaging element. An image generation processing unit that processes a plurality of single-eye images corresponding to a plurality of object images, a resolving power storage unit that stores resolving power information related to the resolving power of a plurality of single-eye imaging optical systems, and stored resolving power information And a single eye selection unit for selecting a single eye image to be used in the image generation processing unit.

上記複眼撮像装置では、撮影後の個眼像に処理を施して個々の個眼像の画質を判断するのではなく、光学系と撮像素子との組み付けの段階において、各個眼撮像光学系の解像力を測定し、画像処理時に利用する個眼像を選択判断するための解像力情報を予め記憶している。各個眼撮像光学系の解像力の優劣を予め把握しておくことで、撮影後の個眼像選択のための前処理を不要とし、全体の画像処理を高速化することができる。また、解像力が低い個眼像を予め排除することにより超解像処理等に使用する個眼像が限定され、超解像処理等をする場合に対応点探索精度の向上とともに、生成後の画質低下を抑制することができる。また、よりFナンバーの小さい明るい光学系において、焦点深度が浅くなるため、個眼撮像光学系間のピント位置のばらつきに対する解像力のばらつきが増大しても、個眼像を選択することにより、良好な画質を維持することができる。   In the above compound-eye imaging device, the resolution of each single-eye imaging optical system is not determined at the stage of assembling the optical system and the imaging device, but processing the single-eye images after shooting to determine the image quality of each single-eye image. And resolving power information for selecting and determining a single eye image to be used during image processing is stored in advance. By grasping in advance the superiority or inferiority of the resolving power of each single-eye imaging optical system, preprocessing for selecting a single-eye image after shooting is unnecessary, and the entire image processing can be speeded up. In addition, by eliminating single-eye images with low resolving power in advance, single-eye images used for super-resolution processing, etc. are limited. The decrease can be suppressed. Further, in a bright optical system having a smaller F-number, the depth of focus becomes shallow. Therefore, even if the variation in resolving power with respect to the variation in focus position between the single-eye imaging optical systems increases, it is possible to select a single-eye image. Image quality can be maintained.

本発明の具体的な側面又は態様では、解像力情報は、変調伝達関数(MTF(modulation transfer function))及び空間周波数応答(SFR(spatial frequency response))のいずれか一方である。この場合、MTF又はSFRを測定することにより、複眼撮像光学系の解像力を定量化することができる。   In a specific aspect or embodiment of the present invention, the resolution information is one of a modulation transfer function (MTF) and a spatial frequency response (SFR). In this case, the resolving power of the compound-eye imaging optical system can be quantified by measuring MTF or SFR.

本発明の別の側面では、解像力情報は、個眼撮像光学系から撮像素子の撮像面までの像側距離に関連付けられており、像側距離に対応した解像力データに基づいて、使用する個眼像を選択する。この場合、被写体までの撮影距離が様々な距離にある被写体を一括して撮影する際に比較的良好な画像を得ることができる。なお、像側距離は、予め決まっていてもよいし、撮影のたびに変化させてもよい。像側距離が予め決まっている場合、選択される個眼撮像光学系は固定的なものとなる。また、像側距離が撮影のたびに変化する場合は、個眼撮像光学系から撮像素子の撮像面までの像側距離に関連するものとして個眼撮像光学系の光軸方向の移動量が用いられる。   In another aspect of the present invention, the resolution information is associated with the image side distance from the single-eye imaging optical system to the imaging surface of the image sensor, and the single eye to be used is based on the resolution data corresponding to the image side distance. Select an image. In this case, it is possible to obtain a relatively good image when shooting subjects having various shooting distances to the subject at once. Note that the image side distance may be determined in advance or may be changed every time shooting is performed. When the image side distance is determined in advance, the single-eye imaging optical system to be selected is fixed. In addition, when the image-side distance changes at every shooting, the movement amount in the optical axis direction of the single-eye imaging optical system is used as related to the image-side distance from the single-eye imaging optical system to the imaging surface of the image sensor. It is done.

本発明のさらに別の側面では、注目被写体を認識する注目被写体認識部を有する。ここで、注目被写体とは、ユーザーがピントを合わせたい被写体を意味する。この場合、注目被写体を認識することで、被写体の対応像高や被写体までの撮影距離を把握することができ、参照すべき解像力データをより注目被写体に適合したものとすることができる。   According to still another aspect of the present invention, an attention subject recognition unit that recognizes an attention subject is provided. Here, the subject of interest means a subject that the user wants to focus on. In this case, by recognizing the subject of interest, the corresponding image height of the subject and the shooting distance to the subject can be grasped, and the resolving power data to be referred to can be more adapted to the subject of interest.

本発明のさらに別の側面では、解像力情報は、注目被写体の対応像高と関連付けられており、対応像高を取得し、対応像高に対応した解像力データに基づいて、使用する個眼像を選択する。この場合、対応像高を把握して参照すべき解像力データをより適切なものとすることができ、注目被写体の良好な画質を得ることができる。   In still another aspect of the present invention, the resolution information is associated with the corresponding image height of the subject of interest, the corresponding image height is obtained, and the single eye image to be used is determined based on the resolution data corresponding to the corresponding image height. select. In this case, resolving power data to be referred to by grasping the corresponding image height can be made more appropriate, and a good image quality of the subject of interest can be obtained.

本発明のさらに別の側面では、解像力情報は、注目被写体までの撮影距離に関連付けられており、撮影距離を取得し、撮影距離に対応した解像力データに基づいて、使用する個眼像を選択する。ここで、撮影距離とは、被写体距離を意味する。この場合、異なる距離にある複数の被写体を同時に撮影しても、被写体までの撮影距離に応じて最適な個眼像を使用することで、被写体までの撮影距離に応じて、良好な画質を得ることができる。なお、注目被写体までの撮影距離は、予め決まっていてもよいし、撮影のたびに変化させてもよい。   In still another aspect of the present invention, the resolution information is associated with the shooting distance to the subject of interest, acquires the shooting distance, and selects a single-eye image to be used based on the resolution data corresponding to the shooting distance. . Here, the shooting distance means a subject distance. In this case, even when a plurality of subjects at different distances are simultaneously photographed, a good image quality is obtained according to the photographing distance to the subject by using an optimal single-eye image according to the photographing distance to the subject. be able to. Note that the shooting distance to the subject of interest may be determined in advance or may be changed every time shooting is performed.

上記課題を解決するため、本発明に係る画像処理装置は、複数の個眼撮像光学系を有する像検出部から得た複数の第1画像データを用いて、第1画像データよりも高解像度の第2画像データを生成する画像処理装置であって、複数の第1画像データに対応する複数の個眼撮像光学系に関連付けられた解像力情報が予め記憶される解像力記憶部と、複数の第1画像データから予め記憶された解像力情報に基づいて、使用する第1画像データを選択する個眼選択部と、個眼選択部により選択された第1画像データから第2画像データを生成する画像生成処理部と、を備える。   In order to solve the above problems, an image processing apparatus according to the present invention uses a plurality of first image data obtained from an image detection unit having a plurality of single-eye imaging optical systems, and has a higher resolution than the first image data. An image processing apparatus that generates second image data, a resolution storage unit that stores in advance resolution information associated with a plurality of single-eye imaging optical systems corresponding to the plurality of first image data, and a plurality of first image data Based on resolution information stored in advance from image data, a single-eye selection unit that selects first image data to be used, and image generation that generates second image data from the first image data selected by the single-eye selection unit A processing unit.

上記画像処理装置では、各個眼撮像光学系の解像力の優劣を予め把握することで、撮影後の個眼像選択のための前処理を不要とし、全体の画像処理を高速化することができる。また、解像力が低い個眼像を予め排除することにより超解像処理等に使用する個眼像が限定され、超解像処理等をする場合に対応点探索精度の向上とともに、生成後の画質低下を抑制することができる。   In the image processing apparatus, by preliminarily grasping the superiority or inferiority of the resolving power of each single-eye imaging optical system, preprocessing for selecting a single-eye image after photographing is unnecessary, and the entire image processing can be speeded up. In addition, by eliminating single-eye images with low resolving power in advance, single-eye images used for super-resolution processing, etc. are limited. The decrease can be suppressed.

上記課題を解決するため、本発明に係る画像処理方法は、複数の個眼撮像光学系を有する像検出部から得た複数の第1画像データを用いて、第1画像データよりも高解像度の第2画像データを生成する画像処理方法であって、複数の第1の画像データから、予め記憶された第1画像データに対応する複数の個眼撮像光学系に関連付けられた解像力情報に基づいて、使用する第1画像データを選択し、取り込む個眼画像取込工程と、個眼画像取込工程により選択された複数の第1画像データから第2画像データを生成する画像生成工程と、を備える。   In order to solve the above problems, an image processing method according to the present invention uses a plurality of first image data obtained from an image detection unit having a plurality of single-eye imaging optical systems, and has a higher resolution than the first image data. An image processing method for generating second image data, based on resolving power information associated with a plurality of single-eye imaging optical systems corresponding to first image data stored in advance from a plurality of first image data. Selecting and capturing the first image data to be used, and an image generating step for generating second image data from the plurality of first image data selected in the single image capturing step. Prepare.

上記画像処理方法では、各個眼撮像光学系の解像力の優劣を予め把握することで、撮影後の個眼像選択のための前処理を不要とし、全体の画像処理を高速化することができる。また、解像力が低い個眼像を予め排除することにより超解像処理等に使用する個眼像が限定され、超解像処理等をする場合に対応点探索精度の向上とともに、生成後の画質低下を抑制することができる。   In the above-described image processing method, by preliminarily determining the superiority or inferiority of the resolving power of each single-eye imaging optical system, preprocessing for selecting a single-eye image after shooting is unnecessary, and the overall image processing can be speeded up. In addition, by eliminating single-eye images with low resolving power in advance, single-eye images used for super-resolution processing, etc. are limited. The decrease can be suppressed.

本発明に係る第1実施形態の複眼撮像装置を説明するブロック図である。1 is a block diagram illustrating a compound eye imaging device according to a first embodiment of the present invention. (A)及び(B)は、図1に示す複眼撮像装置のうち、像検出部を説明する平面図及び断面図である。(A) And (B) is the top view and sectional drawing explaining an image detection part among the compound eye imaging devices shown in FIG. (A)〜(C)は、個眼撮像光学系間の特性のバラツキを説明する図である。(A)-(C) are the figures explaining the variation in the characteristic between the single-eye imaging optical systems. 図1に示す複眼撮像装置のうち画像処理回路等の回路部分を説明するブロック図である。It is a block diagram explaining circuit parts, such as an image processing circuit, of the compound eye imaging device shown in FIG. 画像処理回路における処理の流れを表わすフローチャートである。It is a flowchart showing the flow of processing in the image processing circuit. 光センサーにおけるセンサー領域の配列例を説明する平面図である。It is a top view explaining the example of arrangement | sequence of the sensor area | region in an optical sensor. 画像処理のうちガウシャンフィルター処理を説明する図である。It is a figure explaining the Gaussian filter process among image processes. (A)〜(C)は、ピクセル位置ずれ推定処理を概念的に説明する図である。(A)-(C) is a figure which illustrates pixel position shift estimation processing notionally. (A)及び(B)は、サブピクセル位置ずれ推定処理の具体例を説明するための図である。(A) And (B) is a figure for demonstrating the specific example of a subpixel positional offset estimation process. 図5のステップS15での超解像処理の流れを表わした図である。It is a figure showing the flow of the super-resolution process in step S15 of FIG. 図10のステップS33で用いられる劣化情報を説明する図である。It is a figure explaining the deterioration information used by FIG.10 S33. 劣化情報の具体例を表わした図である。It is a figure showing the specific example of deterioration information. 第2実施形態の複眼撮像装置のうち画像処理回路等の回路部分を説明するブロック図である。It is a block diagram explaining circuit parts, such as an image processing circuit, among compound eye imaging devices of a 2nd embodiment. 図13に示す画像処理回路における処理の流れを表わすフローチャートである。It is a flowchart showing the flow of processing in the image processing circuit shown in FIG. 第3実施形態の複眼撮像装置のうち画像処理回路等の回路部分を説明するブロック図である。It is a block diagram explaining circuit parts, such as an image processing circuit, among compound eye imaging devices of a 3rd embodiment. 図15に示す画像処理回路における処理の流れを表わすフローチャートである。16 is a flowchart showing a process flow in the image processing circuit shown in FIG. 15. 撮影範囲内の複数の被写体について説明する図である。It is a figure explaining the some to-be-photographed object in an imaging | photography range. 図15に示す画像処理回路で用いる解像力のデータテーブルを説明する図である。It is a figure explaining the data table of the resolution used in the image processing circuit shown in FIG.

〔第1実施形態〕
〔複眼撮像装置〕
図1に示すように、第1実施形態の複眼撮像装置300は、像検出部100と、駆動処理部81と、インターフェース82と、ディスプレイ83とを有する。ここで、インターフェース82やディスプレイ83は、必須のものではなく、省略することもできる。
[First Embodiment]
[Composite imaging device]
As illustrated in FIG. 1, the compound eye imaging apparatus 300 according to the first embodiment includes an image detection unit 100, a drive processing unit 81, an interface 82, and a display 83. Here, the interface 82 and the display 83 are not essential and may be omitted.

像検出部100は、多数の被写体像を並列的に形成するレンズアレイ積層体30と、レンズアレイ積層体30によって形成された多数の被写体像を並列的に検出する撮像素子60とを備える。本実施形態において、複眼撮像装置300は、パンフォーカス(固定焦点距離)系を想定したものとなっており、レンズアレイ積層体30と撮像素子60との間の距離は固定されている。レンズアレイ積層体30は、同様の構造を有する個眼撮像光学系30aをマトリックス状に2次元配列したものである。撮像素子60は、これを構成するセンサー領域(光電変換面)61上に形成された各画像をそれぞれ電気信号に変換し、駆動処理部81に出力する。駆動処理部81は、入力された信号を駆動処理部81内に設けた記憶部に含まれるROM等に格納された所定の処理プログラムに基づいて処理し、各画像を1つの画像に再構成する。その後、駆動処理部81は、インターフェース82を介してディスプレイ83等へ再構成された1つの画像を出力する。また、駆動処理部81は、上記処理プログラムに基づく処理を実行する際の種々の演算結果を内蔵された記憶部に含まれるRAM等に一時記憶させる。なお、駆動処理部81による画像の再構成処理としては、例えば、各画像から必要な矩形領域を切り出す処理だけでなく、切り出した矩形画像から各々の視差情報等に基づいて画像を再構成する処理等が含まれる。画像の再構成処理には、超解像方式による画像処理等が含まれる。ここで、超解像方式による処理とは、個々のレンズによって結像された同じ視野の画像から画像処理によって1つの高解像度の画像を得る処理を指す。   The image detection unit 100 includes a lens array stack 30 that forms a large number of subject images in parallel, and an image sensor 60 that detects a number of subject images formed by the lens array stack 30 in parallel. In the present embodiment, the compound-eye imaging apparatus 300 is assumed to be a pan-focus (fixed focal length) system, and the distance between the lens array stack 30 and the imaging element 60 is fixed. The lens array laminate 30 is a two-dimensional array of single-eye imaging optical systems 30a having a similar structure in a matrix. The image sensor 60 converts each image formed on the sensor region (photoelectric conversion surface) 61 constituting the image sensor 60 into an electrical signal and outputs the electrical signal to the drive processing unit 81. The drive processing unit 81 processes the input signal based on a predetermined processing program stored in a ROM or the like included in a storage unit provided in the drive processing unit 81, and reconstructs each image into one image. . Thereafter, the drive processing unit 81 outputs one reconstructed image to the display 83 or the like via the interface 82. Further, the drive processing unit 81 temporarily stores various calculation results when executing processing based on the processing program in a RAM or the like included in a built-in storage unit. As the image reconstruction processing by the drive processing unit 81, for example, not only a process of cutting out a necessary rectangular area from each image, but also a process of reconstructing an image from the cut out rectangular image based on each parallax information and the like. Etc. are included. The image reconstruction processing includes image processing using a super-resolution method. Here, the super-resolution processing refers to processing for obtaining one high-resolution image by image processing from images of the same field of view formed by individual lenses.

〔像検出部〕
図2(A)及び2(B)は、図1に示す複眼撮像装置300のうち像検出部100を概念的に説明する平面図及び断面図である。図示のように、像検出部100は、レンズアレイ積層体30と、レンズアレイ積層体30を構成する個々の個眼撮像光学系30aに対応するセンサー領域61を有する撮像素子60と、撮像素子60が実装される基板SBとを備える。
(Image detector)
2A and 2B are a plan view and a cross-sectional view for conceptually explaining the image detection unit 100 in the compound eye imaging apparatus 300 shown in FIG. As illustrated, the image detection unit 100 includes a lens array stack 30, an image sensor 60 having a sensor region 61 corresponding to each individual eye imaging optical system 30 a constituting the lens array stack 30, and the image sensor 60. Are mounted on a substrate SB.

図示のレンズアレイ積層体30は、複数(図示の例では2つ)のレンズアレイ10,20を積み重ねた積層体であり、複眼光学系として用いられる。以下の説明においては、レンズアレイ積層体30をレンズアレイと呼ぶこともある。これらの第1及び第2レンズアレイ10,20は、XY面に平行に延びる四角平板状の部材であり、XY面に垂直なZ軸方向に積み重ねられて相互に接合されている。   The illustrated lens array stacked body 30 is a stacked body in which a plurality (two in the illustrated example) of lens arrays 10 and 20 are stacked, and is used as a compound eye optical system. In the following description, the lens array stack 30 may be referred to as a lens array. These first and second lens arrays 10 and 20 are square plate-like members extending in parallel to the XY plane, and are stacked in the Z-axis direction perpendicular to the XY plane and joined to each other.

レンズアレイ積層体30は、撮像素子60に対向した状態で矩形枠状のホルダー50に収納されている。レンズアレイ積層体30において、物体側の第1レンズアレイ10は、光学材料である光透過性の熱可塑性樹脂製の一体成形品、換言すれば、熱可塑性樹脂からなる一体物である。第1レンズアレイ10は、中心軸AX方向又はZ軸方向から見て矩形の輪郭を有する。ここで、中心軸AXは、後述する複数のレンズ部10aの配列領域(レンズ部配列領域LR)の中心の軸を指す。第1レンズアレイ10は、それぞれが光学素子である複数のレンズ部10aと、複数のレンズ部10aを周囲から支持する支持部10bと、支持部10bの外側に帯状に延在する四角枠状の縁部10rとを有する。第1レンズアレイ10を構成する複数のレンズ部10aは、XY面に平行に配列された正方の格子点(図示の例では4×4の16点)上に2次元的に配置されている。各レンズ部10aは、物体側の第1主面10pにおいて凸の第1光学面11aを有し、像側の第2主面10qにおいて凸の第2光学面11bを有する。第1及び第2光学面11a,11bは、例えば非球面となっている。支持部10bは、平板状の部分であり、各レンズ部10aの周りをそれぞれ囲むように複数の周囲部分10cを備える。支持部10bの横方向の周辺又は外側にある四角枠状の縁部10rは、第1レンズアレイ10を第2レンズアレイ20と接合するための部分となっている。   The lens array stack 30 is housed in a rectangular frame-shaped holder 50 in a state of facing the image sensor 60. In the lens array stacked body 30, the first lens array 10 on the object side is an integrally molded product made of a light-transmitting thermoplastic resin that is an optical material, in other words, an integrated product made of a thermoplastic resin. The first lens array 10 has a rectangular outline when viewed from the central axis AX direction or the Z-axis direction. Here, the central axis AX indicates an axis at the center of an array region (lens portion array region LR) of a plurality of lens units 10a described later. The first lens array 10 has a plurality of lens portions 10a each of which is an optical element, a support portion 10b that supports the plurality of lens portions 10a from the periphery, and a rectangular frame shape that extends in a strip shape outside the support portion 10b. And an edge portion 10r. The plurality of lens portions 10a constituting the first lens array 10 are two-dimensionally arranged on square lattice points (16 × 4 × 4 in the illustrated example) arranged in parallel to the XY plane. Each lens unit 10a has a first optical surface 11a that is convex on the first main surface 10p on the object side, and a second optical surface 11b that is convex on the second main surface 10q on the image side. The first and second optical surfaces 11a and 11b are, for example, aspherical surfaces. The support portion 10b is a flat plate-like portion and includes a plurality of peripheral portions 10c so as to surround each lens portion 10a. A square frame-shaped edge portion 10r on the periphery or outside in the lateral direction of the support portion 10b is a portion for joining the first lens array 10 to the second lens array 20.

像側の第2レンズアレイ20は、熱可塑性樹脂製の一体成形品であり、中心軸AX方向から見て矩形の輪郭を有する。第2レンズアレイ20は、それぞれが光学素子である複数のレンズ部20aと、複数のレンズ部20aを周囲から支持する支持部20bと、支持部20bの外側に帯状に延在する四角枠状の縁部20rとを有する。複数のレンズ部20aは、XY面に平行に配列された正方の格子点(図示の例では4×4の16点)上に2次元的に配置されている。各レンズ部20aは、物体側の第1主面20pにおいて凹の第1光学面21aを有し、像側の第2主面20qにおいて凸の第2光学面21bを有する。第1及び第2光学面21a,21bは、例えば非球面となっている。支持部20bは、平板状の部分であり、各レンズ部20aの周りをそれぞれ囲むように複数の周囲部分20cを備える。支持部20bの横方向の周辺又は外側にある四角枠状の縁部20rは、第2レンズアレイ20を第1レンズアレイ10と接合するための部分となっている。   The second lens array 20 on the image side is an integrally molded product made of a thermoplastic resin and has a rectangular outline when viewed from the direction of the central axis AX. The second lens array 20 has a plurality of lens portions 20a each of which is an optical element, a support portion 20b that supports the plurality of lens portions 20a from the periphery, and a rectangular frame shape that extends in a band shape outside the support portion 20b. And an edge portion 20r. The plurality of lens portions 20a are two-dimensionally arranged on square lattice points (16 × 4 × 4 in the illustrated example) arranged in parallel to the XY plane. Each lens unit 20a has a first optical surface 21a that is concave on the first main surface 20p on the object side, and a second optical surface 21b that is convex on the second main surface 20q on the image side. The first and second optical surfaces 21a and 21b are, for example, aspherical surfaces. The support portion 20b is a flat plate-like portion and includes a plurality of peripheral portions 20c so as to surround each lens portion 20a. A square frame-shaped edge portion 20r on the periphery or outside in the lateral direction of the support portion 20b is a portion for joining the second lens array 20 to the first lens array 10.

以上のレンズアレイ10,20は、機械や手作業によって順次積み重ねることによって、自身の構造、及び自重や静電気力等によって互いに位置決めされる。つまり、セルフアライメントされる。また、レンズアレイ10,20は、積み重ねる際に縁部10r,20r間に例えば光硬化性樹脂を供給し積み重ねた後に光硬化性樹脂を硬化させることによって、互いに接合又は接着される。このような接合又は接着によって、2次元的にマトリックス状に配列された多数の個眼撮像光学系30aを備えるレンズアレイ積層体30が得られる。各個眼撮像光学系30aの光軸OAは、複数のレンズ部10a,20aの全体領域の中心軸AXに平行になっている。   The lens arrays 10 and 20 are sequentially stacked by a machine or a manual operation so that they are positioned relative to each other by their own structure, their own weight, electrostatic force, or the like. That is, self-alignment is performed. Further, when the lens arrays 10 and 20 are stacked, the lens arrays 10 and 20 are bonded or bonded together by supplying, for example, a photocurable resin between the edge portions 10r and 20r and then curing the photocurable resin. By such bonding or adhesion, a lens array laminate 30 including a large number of single-eye imaging optical systems 30a arranged two-dimensionally in a matrix is obtained. The optical axis OA of each single-eye imaging optical system 30a is parallel to the central axis AX of the entire area of the plurality of lens portions 10a and 20a.

なお、第1レンズアレイ10と第2レンズアレイ20との間には、一対の支持部10b,20bに挟持されて固定された薄い遮光性の第1絞り板41が配置されている。この第1絞り板41には、詳細な説明を省略するが、各レンズ部10aに対応して多数の開口が形成されている。第2レンズアレイ20の像側には、接着等によって支持部20bに固定された薄い遮光性の第2絞り板42が配置されている。この第2絞り板42には、詳細な説明を省略するが、各レンズ部20a等に対応して多数の開口が形成されている。   Between the first lens array 10 and the second lens array 20, a thin light-shielding first diaphragm plate 41 is disposed that is sandwiched and fixed between the pair of support portions 10b and 20b. Although a detailed description is omitted in the first diaphragm plate 41, a large number of openings are formed corresponding to the respective lens portions 10a. On the image side of the second lens array 20, a thin light-blocking second diaphragm plate 42 fixed to the support portion 20b by bonding or the like is disposed. Although a detailed description is omitted, the second aperture plate 42 has a large number of openings corresponding to the lens portions 20a and the like.

ホルダー50は、熱可塑性樹脂製の一体成形品であり、レンズアレイ積層体30の中心軸AX方向から見て矩形の輪郭を有する天井部50aと、この輪郭に沿って周状に配置され天井部50aから中心軸AX方向に延びる壁状の脚部50bとを有する。ホルダー50は、レンズアレイ積層体30、撮像素子60等を天井部50a及び脚部50bによって囲むようにして配置した状態で、脚部50bの底面全体を接着することによって基板SB上に固定されている。レンズアレイ積層体30を収納するホルダー50の物体側には、ホルダー50への接着等によって固定された入射絞り板45が配置されている。ホルダー50の天井部50aや入射絞り板45には、詳細な説明を省略するが、各レンズ部10a等に対応して多数の開口が形成されている。なお、レンズアレイ10,20をホルダー50で保持することにより、撮像素子60の周囲に他の部材を設けても複眼光学系(レンズアレイ積層体30)が撮像素子60に対向する空間を確保することができる。   The holder 50 is an integrally molded product made of a thermoplastic resin, and has a ceiling part 50a having a rectangular outline when viewed from the central axis AX direction of the lens array laminate 30, and a ceiling part arranged circumferentially along the outline. A wall-like leg portion 50b extending in the direction of the central axis AX from 50a. The holder 50 is fixed on the substrate SB by adhering the entire bottom surface of the leg portion 50b in a state where the lens array stacked body 30, the imaging device 60, and the like are disposed so as to be surrounded by the ceiling portion 50a and the leg portion 50b. An entrance diaphragm plate 45 fixed by adhesion to the holder 50 or the like is disposed on the object side of the holder 50 that houses the lens array stack 30. Although detailed description is omitted in the ceiling portion 50a and the entrance diaphragm plate 45 of the holder 50, a large number of openings are formed corresponding to the lens portions 10a and the like. In addition, by holding the lens arrays 10 and 20 with the holder 50, a space where the compound eye optical system (lens array stacked body 30) faces the image sensor 60 is secured even if another member is provided around the image sensor 60. be able to.

撮像素子60は、基板SB上に実装されている。撮像素子60に設けられるセンサー領域61は、光電変換を行う複数の画素を2次元的に配列したものであり、撮像素子60上の個々の個眼撮像光学系30aに対応する領域に配置されていてもよいし、撮像素子60の全体に配置されていてもよい。なお、基板SB上には、撮像素子60の他に、信号処理部等も実装されている。   The image sensor 60 is mounted on the substrate SB. The sensor region 61 provided in the image sensor 60 is a two-dimensional array of a plurality of pixels that perform photoelectric conversion, and is disposed in a region corresponding to each single-eye imaging optical system 30a on the image sensor 60. Alternatively, it may be arranged on the entire image sensor 60. In addition to the image sensor 60, a signal processing unit and the like are mounted on the substrate SB.

図3(A)〜3(C)は、レンズアレイ積層体30を構成する個眼撮像光学系30a間のバラツキを説明する図である。図3(A)に示す個眼撮像光学系30aの場合、変調伝達関数(MTF)又は空間周波数応答(SFR)は、レンズアレイ積層体30にとってデフォーカスがゼロの位置(つまり撮像面)でピークを有するものとなっており、例えば超解像処理で所期の効果を得るために必要な所定の許容レベルLPを超えている。図3(B)に示す個眼撮像光学系30aの場合、MTF又はSFRは、デフォーカスがゼロの位置から大きく外れた状態でピークを有するものとなっており、上記所定の許容レベルLPを下回っている。図3(C)に示す個眼撮像光学系30aの場合、MTF又はSFRは、デフォーカスがゼロの位置から若干外れた状態でピークを有するものとなっているが、上記所定の許容レベルLPを上回っている。つまり、各個眼撮像光学系30aのMTF又はSFR特性は、類似する波形又はパターンを有するが、それぞれに固有のものとなっている。実際には、MTF又はSFRのピーク位置がデフォーカス軸方向やMTF値又はSFR値の方向にずれるだけでなく、特性幅又はピーク幅が増減する。さらには、像高によってMTF又はSFRのピーク位置や特性幅が変化するが、その変化の程度も個眼撮像光学系30aごとに異なるものとなる。   FIGS. 3A to 3C are diagrams for explaining the variation between the single-eye imaging optical systems 30 a constituting the lens array stacked body 30. In the case of the single-eye imaging optical system 30a shown in FIG. 3A, the modulation transfer function (MTF) or the spatial frequency response (SFR) peaks at a position where the defocus is zero for the lens array stack 30 (that is, the imaging surface). For example, it exceeds the predetermined allowable level LP necessary for obtaining the desired effect in the super-resolution processing. In the case of the single-eye imaging optical system 30a shown in FIG. 3B, the MTF or SFR has a peak in a state where the defocus is greatly deviated from the zero position, and is below the predetermined allowable level LP. ing. In the case of the single-eye imaging optical system 30a shown in FIG. 3C, the MTF or SFR has a peak in a state where the defocus is slightly deviated from the zero position, but the predetermined allowable level LP is not exceeded. It has exceeded. That is, the MTF or SFR characteristic of each single-eye imaging optical system 30a has a similar waveform or pattern, but is unique to each. Actually, not only the peak position of the MTF or SFR shifts in the defocus axis direction or the direction of the MTF value or SFR value, but also the characteristic width or peak width increases or decreases. Furthermore, although the peak position and characteristic width of MTF or SFR change depending on the image height, the degree of change varies depending on the single-eye imaging optical system 30a.

理想的には、レンズアレイ積層体30を構成する個眼撮像光学系30aが同一のMTF特性又はSFR特性を有することが望ましい。しかしながら、レンズアレイ積層体30の製造工程に起因して全ての個眼撮像光学系30aのMTF特性又はSFR特性を精密に一致させることはコスト面や技術面で容易でない。さらに、レンズアレイ積層体30を撮像素子60に対して位置決めして固定する際にも、若干の傾き誤差、横シフト誤差等が生じ、各個眼撮像光学系30a間のMTF特性又はSFR特性の差を広げる傾向がある。そこで、本実施形態の複眼撮像装置300では、個眼撮像光学系30a間にある程度の特性差が存在すること許容し、このような特性差が画像再構成に影響しにくくなるような画像処理等を行うこととする。   Ideally, it is desirable that the single-eye imaging optical system 30a constituting the lens array stack 30 has the same MTF characteristic or SFR characteristic. However, due to the manufacturing process of the lens array laminate 30, it is not easy in terms of cost and technology to precisely match the MTF characteristics or SFR characteristics of all the single-eye imaging optical systems 30a. Furthermore, when the lens array stack 30 is positioned and fixed with respect to the image sensor 60, a slight tilt error, a lateral shift error, etc. occur, and the difference in MTF characteristics or SFR characteristics between the individual eye imaging optical systems 30a. Tend to spread. Therefore, in the compound-eye imaging apparatus 300 of the present embodiment, a certain degree of characteristic difference exists between the single-eye imaging optical systems 30a, and image processing or the like that makes it difficult for such a characteristic difference to affect image reconstruction. To do.

以下、レンズアレイ積層体30を構成する個眼撮像光学系30aの解像度として例えばMTFを用いる場合について説明する。レンズアレイ積層体30を構成するn番目の個眼撮像光学系30aの解像度であるMTFnは、主被写体の対応像高をhとし、主被写体までの撮影距離(被写体距離)をDとし、個眼撮像光学系30aから検出面までの像側距離をfBnとして、次の式
MTFn=MTF{h,D,fBn} … (1)
で与えられる。よって、各個眼撮像光学系30aについて予め解像力MTFnに関する情報を取得しておけば、レンズアレイ積層体30が使用される状況に応じて高解像状態の個眼撮像光学系30aを選択して動作させることができ、超解像といった画像再構成に際しての信頼性を高めることができる。すなわち、全ての個眼撮像光学系30aを用いるのではなく、一部の解像度が劣化した個眼撮像光学系30aを除いた残りの一定以上の解像度を有する個眼撮像光学系30aのみによって画像再構成の処理を行うことで、高品位の画像を得ることができる。例えば、図3(A)〜3(C)に示す個眼撮像光学系30aのうち、MTFが所定の許容レベルLPを上回る図3(A)及び3(C)に示す個眼撮像光学系30aが選択され、画像処理が行われる。各個眼撮像光学系30aの解像力MTFnに関する情報は、例えばデータテーブルとして予め保持又は記憶しておくことができ、このデータテーブルは、対応像高hと、主被写体までの撮影距離Dと、個眼撮像光学系30aから検出面までの像側距離fBnとをパラメーターとするn個の解像力MTFnを含むものとする。第1実施形態の複眼撮像装置300のようなパンフォーカスのシステムの場合、主被写体までの撮影距離Dは設計値で決まり、個眼撮像光学系30aから検出面までの像側距離fBnも個眼撮像光学系30aごとに決まる。よって、最終製品となる前において、予め解像力情報を得るための調整測定に際して、解像力評価用チャート、個眼撮像光学系30a、及びセンサー領域61の3つの位置関係は、一意に決定する。ここで用いる解像力評価用チャートは、軸上のみならず、高像高側の解像力を測定できるようなチャートでもよい。撮影された解像力評価用チャートを個眼撮像光学系30aごとに測定することで、例えば個眼撮像光学系30aごとの軸上性能を評価することができる。画像再構成に利用される個眼撮像光学系30aの選択方法については後に詳述する。
Hereinafter, the case where MTF is used as the resolution of the single-eye imaging optical system 30a constituting the lens array stack 30 will be described. MTFn, which is the resolution of the n-th single-lens imaging optical system 30a constituting the lens array stack 30, has a corresponding image height of the main subject as h, a shooting distance (subject distance) to the main subject as D, and a single eye. Assuming that the image side distance from the imaging optical system 30a to the detection surface is fBn, the following expression MTFn = MTF {h, D, fBn} (1)
Given in. Therefore, if information about the resolving power MTFn is acquired in advance for each single-eye imaging optical system 30a, the single-eye imaging optical system 30a in a high-resolution state is selected and operated according to the situation in which the lens array stack 30 is used. The reliability at the time of image reconstruction such as super-resolution can be improved. That is, not all the single-eye imaging optical systems 30a are used, but only the single-eye imaging optical systems 30a having a resolution of a certain level or higher except for the single-eye imaging optical systems 30a whose resolution has deteriorated partially. By performing the configuration process, a high-quality image can be obtained. For example, among the single-eye imaging optical systems 30a shown in FIGS. 3 (A) to 3 (C), the single-eye imaging optical systems 30a shown in FIGS. 3 (A) and 3 (C) in which the MTF exceeds a predetermined allowable level LP. Is selected and image processing is performed. Information relating to the resolving power MTFn of each single-eye imaging optical system 30a can be stored or stored in advance as a data table, for example, and this data table includes the corresponding image height h, the photographing distance D to the main subject, and the individual eye. It is assumed that n resolving power MTFn having the image side distance fBn from the imaging optical system 30a to the detection surface as a parameter is included. In the case of a pan-focus system such as the compound eye imaging apparatus 300 of the first embodiment, the shooting distance D to the main subject is determined by a design value, and the image side distance fBn from the single-eye imaging optical system 30a to the detection surface is also a single eye. It is determined for each imaging optical system 30a. Therefore, before the final product, the three positional relationships of the resolution evaluation chart, the single-eye imaging optical system 30a, and the sensor region 61 are uniquely determined in the adjustment measurement for obtaining the resolution information in advance. The resolution evaluation chart used here may be a chart that can measure the resolution on the high image height side as well as on the axis. By measuring the photographed resolution evaluation chart for each single-eye imaging optical system 30a, for example, the on-axis performance for each single-eye imaging optical system 30a can be evaluated. A method of selecting the single-eye imaging optical system 30a used for image reconstruction will be described in detail later.

〔駆動処理部等の回路部分〕
図4を参照して、図1の複眼撮像装置300を構成する回路について説明する。像検出部100において、撮像素子60は、光センサー63とAD変換部65とを備える。光センサー63は、複数の個眼撮像光学系30aに対応して光電変換を行う複数のセンサー領域61を備える。既述のように、センサー領域61は、分離された個別のイメージセンサーとすることもできるが、単一のメージセンサーの部分領域とすることもできる。AD変換部65は、各センサー領域61からの検出信号を少なくとも部分的に並行してAD変換する。なお、撮像素子60には、駆動用のロジック回路等も含まれているが、詳細な説明は省略する。
[Circuit parts such as drive processing unit]
With reference to FIG. 4, the circuit which comprises the compound eye imaging device 300 of FIG. 1 is demonstrated. In the image detection unit 100, the image sensor 60 includes an optical sensor 63 and an AD conversion unit 65. The optical sensor 63 includes a plurality of sensor regions 61 that perform photoelectric conversion corresponding to the plurality of single-eye imaging optical systems 30a. As already mentioned, the sensor area 61 can be a separate individual image sensor, but can also be a partial area of a single image sensor. The AD converter 65 AD-converts detection signals from the sensor regions 61 at least partially in parallel. The image sensor 60 includes a driving logic circuit and the like, but detailed description thereof is omitted.

駆動処理部81は、画像処理部91と、記憶部92と、画像出力部93と、制御部94とを備える。画像処理部91は、個眼選択部91aと、画像生成処理部91bとを有する。個眼選択部91aは、制御部94からの情報に基づいてレンズアレイ積層体30を構成する複数の個眼撮像光学系30aのうち所定の基準を満たすものを選択する部分である。個眼選択部91aは、選択された個眼撮像光学系30aに対応するセンサー領域61からの画像データを選択する役割を有する。画像生成処理部91bは、選択されたセンサー領域61からの画像データと、記憶部92に保管されたデータとを用いて画像再構成、具体的には超解像処理を行う。記憶部92は、各個眼撮像光学系30aの解像力情報を記憶する解像力記憶部92aを有する。ここで、解像力情報とは、図3(A)〜3(C)で説明したMTFn等の解像度の情報を含んでいる。解像力情報は、レンズアレイ積層体30と撮像素子60との組み付けの段階において、各個眼撮像光学系30aの解像力を測定することによって得られ、解像力記憶部92aに記憶されている。本実施形態の複眼撮像装置300は、パンフォーカスを想定した構成であるため、解像力記憶部92aには、各個眼撮像光学系30aの設計被写体距離に対する各個眼撮像光学系30aの軸上性能(MTF{h,D}が記憶されている。本実施形態において、対応像高h及び撮影距離Dは、個眼撮像光学系30aごとに固定されている。画像出力部93は、画像処理部91での処理によって得た再構成画像を、制御部94からの指示に基づいて所定のタイミングで出力する。制御部94は、画像処理部91、記憶部92、画像出力部93等を含む駆動処理部81の動作を統括的に制御する。   The drive processing unit 81 includes an image processing unit 91, a storage unit 92, an image output unit 93, and a control unit 94. The image processing unit 91 includes a single eye selection unit 91a and an image generation processing unit 91b. The single-eye selection unit 91a is a part that selects a plurality of single-eye imaging optical systems 30a constituting the lens array stacked body 30 that satisfy a predetermined criterion based on information from the control unit 94. The single eye selection unit 91a has a role of selecting image data from the sensor region 61 corresponding to the selected single-eye imaging optical system 30a. The image generation processing unit 91b performs image reconstruction, specifically, super-resolution processing, using the image data from the selected sensor region 61 and the data stored in the storage unit 92. The storage unit 92 includes a resolving power storage unit 92a that stores resolving power information of each single-eye imaging optical system 30a. Here, the resolving power information includes resolution information such as MTFn described with reference to FIGS. The resolving power information is obtained by measuring the resolving power of each single-eye imaging optical system 30a at the stage of assembling the lens array laminate 30 and the image sensor 60, and is stored in the resolving power storage unit 92a. Since the compound-eye imaging apparatus 300 of the present embodiment is configured to assume pan focus, the resolving power storage unit 92a stores the on-axis performance (MTF) of each single-eye imaging optical system 30a with respect to the design subject distance of each single-eye imaging optical system 30a. {H, D} is stored, In the present embodiment, the corresponding image height h and the shooting distance D are fixed for each single-eye imaging optical system 30a, and the image output unit 93 is an image processing unit 91. The reconstructed image obtained by the process is output at a predetermined timing based on an instruction from the control unit 94. The control unit 94 includes a drive processing unit including an image processing unit 91, a storage unit 92, an image output unit 93, and the like. The operation of 81 is comprehensively controlled.

〔画像再構成処理〕
図5を参照して、複眼撮像装置300の動作について説明する(前処理以降の工程についての詳細は、特願2013−249608号及び特願2013−249607号参照)。
[Image reconstruction processing]
The operation of the compound-eye imaging apparatus 300 will be described with reference to FIG. 5 (see Japanese Patent Application Nos. 2013-249608 and 2013-249607 for details of the steps after the pre-processing).

〔画像再構成−個眼画像取込〕
複眼撮像装置300の駆動処理部81は、撮影条件を監視しており、撮影条件に基づいて特定の個眼撮像光学系30aを選択し、対応するセンサー領域61からの画像信号の取り込みを行わせる(ステップS11)。つまり、光センサー63に取り込んだ検出信号のうち、選択されたk個(kは4×4以下)のセンサー領域61からの画像信号がAD変換部65においてAD変換され、駆動処理部81の画像処理部91に入力される。ここでは、例えば500×500画素程度の低解像度の画像(第1画素データ)が入力されるものとする。画像処理部91の個眼選択部91aにおいて、解像力記憶部92aに予め記憶されている解像力情報をもとに、ある閾値以上の個眼像のみを選択する。個眼像の選択は、例えば使用環境等に起因して撮影のたびに行われる。なお、個眼像の選択は、撮影のたびに行われる必要はなく、解像力を測定した時点で予め選択するようにしてもよい。この場合、選択される個眼撮像光学系30aは、解像力記憶部92aに設定情報として保管されている。
[Image reconstruction-Capture single image]
The drive processing unit 81 of the compound-eye imaging apparatus 300 monitors imaging conditions, selects a specific single-eye imaging optical system 30a based on the imaging conditions, and causes an image signal to be captured from the corresponding sensor area 61. (Step S11). In other words, among the detection signals captured by the optical sensor 63, image signals from the selected k (k is 4 × 4 or less) sensor regions 61 are AD-converted by the AD conversion unit 65, and the image of the drive processing unit 81 is displayed. The data is input to the processing unit 91. Here, for example, a low-resolution image (first pixel data) of about 500 × 500 pixels is input. The single eye selection unit 91a of the image processing unit 91 selects only single eye images having a threshold value or more based on the resolution information stored in advance in the resolution storage unit 92a. The single eye image is selected every time shooting is performed due to, for example, the use environment. The single-eye image need not be selected every time shooting is performed, and may be selected in advance when the resolving power is measured. In this case, the selected single-eye imaging optical system 30a is stored as setting information in the resolving power storage unit 92a.

図6は、光センサー63におけるセンサー領域61の配列例を説明する概念的な平面図である。センサー領域61は、4×4個存在するが、選択されたk個のセンサー領域61からの画像信号のみが利用される。具体的には、4×4個のセンサー領域61のうち例えば1つのセンサー領域61xからの画像信号が利用されず、残りの15個のセンサー領域61からの画像信号が利用される。   FIG. 6 is a conceptual plan view for explaining an arrangement example of the sensor regions 61 in the optical sensor 63. Although there are 4 × 4 sensor areas 61, only image signals from the selected k sensor areas 61 are used. Specifically, for example, image signals from one sensor region 61 x out of 4 × 4 sensor regions 61 are not used, and image signals from the remaining 15 sensor regions 61 are used.

〔画像再構成−前処理〕
次に、駆動処理部81の画像処理部91は、k個のセンサー領域61からの画像信号に対して前処理を施す(ステップS12)。前処理は、個眼の光電変換部に相当するセンサー領域61を構成する各画素に色選択用のカラーフィルターが付されている場合を考慮したものであり、画像処理部91への入力画像が画素ごとに特定色のみの輝度情報を持ったものとなっていることを前提としている。このような場合、適度な平滑化を施すことによって、後述する位置ずれ補正等が困難になることを回避できる。具体的には、センサー領域61を構成する画素にGRBGのベイヤー型のフィルターが付されている場合、画像信号に対して信号処理として3×3のガウシャンフィルター(図7参照)をかけて、各個眼において1チャンネル画像信号を作成する。このような信号処理用のガウシャンフィルター処理では、注目画素がGRBGのどの画素位置であっても、フィルター処理後の全画素は、元の画素と同じG/2+R/4+B/4の構成比率で合成されたものとなる。これにより、フィルター処理後の全画素を用いて、後述するテンプレートマッチング等を行うことが容易になる。なお、このような前処理用のフィルター処理は、上記ガウシャンフィルター処理に限るものではなく、同じ色組成比となるような重み付け係数を持ったi×j(i,jは3以上の整数)のフィルター処理を利用することができる。この際、フィルター係数の違いにより画像のぼけ量が変わるため、入力画像の特性に合わせて、複数のフィルターから適切なものを選択する。
[Image reconstruction-pre-processing]
Next, the image processing unit 91 of the drive processing unit 81 performs preprocessing on the image signals from the k sensor regions 61 (step S12). The pre-processing considers the case where each pixel constituting the sensor region 61 corresponding to the single-eye photoelectric conversion unit is provided with a color filter for color selection, and the input image to the image processing unit 91 is It is assumed that each pixel has luminance information for only a specific color. In such a case, by performing appropriate smoothing, it is possible to avoid difficulty in correcting a positional deviation described later. Specifically, when a GRBG Bayer-type filter is attached to the pixels constituting the sensor region 61, a 3 × 3 Gaussian filter (see FIG. 7) is applied to the image signal as signal processing. A 1-channel image signal is created for each eye. In such Gaussian filter processing for signal processing, regardless of the pixel position of the GRBG of interest, all the pixels after the filter processing have the same composition ratio of G / 2 + R / 4 + B / 4 as the original pixels. It will be synthesized. This makes it easy to perform template matching, which will be described later, using all the filtered pixels. Such pre-processing filter processing is not limited to the Gaussian filter processing, but i × j (i and j are integers of 3 or more) having weighting coefficients that give the same color composition ratio. Filtering can be used. At this time, since the blur amount of the image changes depending on the filter coefficient, an appropriate one is selected from a plurality of filters in accordance with the characteristics of the input image.

なお、センサー領域61を構成する画素は、RGBの3色ベイヤー配列に限らない。つまり、RGBの3色ベイヤー配列に対応する入力画像に限らず、例えばWYRIr又はRGBIrのような2×2画素で全て異なる4色の画素配列に対応する入力画像でも、同様の平滑化のフィルター処理が可能であり、3×3画素で3色の入力画像でも、同様の平滑化のフィルター処理が可能である。   The pixels constituting the sensor region 61 are not limited to the RGB three-color Bayer array. That is, not only an input image corresponding to an RGB three-color Bayer array, but also an input image corresponding to a four-color pixel array different from 2 × 2 pixels, such as WYRIr or RGBIr, for example, the same smoothing filter processing The same smoothing filter processing is possible even with an input image of 3 colors with 3 × 3 pixels.

また、以上では、ガウシャンフィルター等によって1チャンネルの画像信号を得ているが、デモザイク処理によりRGBの3色の画像を個別に生成してもよい。   In the above description, an image signal of one channel is obtained by a Gaussian filter or the like. However, RGB three-color images may be individually generated by demosaic processing.

〔画像再構成−位置ずれ推定処理〕
次に、画像処理部91は、ステップS12で得た画像データに対して、ピクセル位置ずれ推定処理(ステップS13)と、サブピクセルずれ推定処理(ステップS14)とを行う。ピクセル位置ずれ推定処理(ステップS13)では、位置ずれ概略推定処理と位置ずれ詳細推定処理とが実行され、ピクセル単位(整数画素単位)でのずれ量が推定される。サブピクセルずれ推定処理(ステップS14)では、概略推定をより精度的に高めたサブピクセル単位(小数画素単位)でのずれ量が推定される。
[Image reconstruction-misregistration estimation processing]
Next, the image processing unit 91 performs pixel position deviation estimation processing (step S13) and subpixel deviation estimation processing (step S14) on the image data obtained in step S12. In the pixel position shift estimation process (step S13), the position shift approximate estimation process and the position shift detail estimation process are executed, and the shift amount in pixel units (integer pixel units) is estimated. In the sub-pixel shift estimation process (step S14), the shift amount in sub-pixel units (decimal pixel units) for which the rough estimation is improved more accurately is estimated.

図8(A)〜8(C)は、ピクセル位置ずれ推定処理を概念的に説明する図である。図8(A)は、図6に示す光センサー63のうち中央寄りのセンサー領域61からの基準画像IG0を示し、図8(B)及び8(C)は、光センサー63のうち上記中央寄りのセンサー領域61以外のいずれかのセンサー領域61からの参照画像IG1を示す。   8A to 8C are diagrams for conceptually explaining the pixel position deviation estimation processing. FIG. 8A shows the reference image IG0 from the sensor region 61 closer to the center of the optical sensor 63 shown in FIG. 6, and FIGS. 8B and 8C show the reference image IG0 of the optical sensor 63 closer to the center. The reference image IG1 from any one of the sensor regions 61 other than the sensor region 61 is shown.

ピクセル位置ずれ推定処理(ステップS13)のうち先の位置ずれ概略推定処理では、まず、図8(A)に示す基準画像IG0中の特定領域(ウィンドウ)Aから画像情報を切り出す。そして、図8(B)に示す参照画像IG1中で探索領域(ウィンドウ)Bを矢印βの方向に移動させながら粗い精度で画素位置の探索を行う。例えば、特定領域Aに対して位置ずれ量(m×p,m×p)だけシフトさせた位置(mは、m画素おきを意味し例えば4であり、pは、p回の探索に対応し例えば−1〜8の整数である)に、探索領域Bを段階的に移動させてテンプレートマッチングを行い、最も一致度の高い位置ずれを探索する。この際、探索領域Bを移動させる矢印βの方向は、図8(B)に示すセンサー領域61の視差が現れる方向に対応したものとなっている。つまり、探索領域Bを移動させる矢印βの方向は、センサー領域61が配置される場所に応じて適宜設定される。ここで、テンプレートマッチングは、例えばNCC(Normalized Cross Correlation)を用いる。ただし、テンプレートマッチングは、NCCに限らずSAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)等の別手法を用いるものであってもよい。   In the previous positional deviation approximate estimation process in the pixel positional deviation estimation process (step S13), first, image information is cut out from a specific area (window) A in the reference image IG0 shown in FIG. Then, the pixel position is searched with coarse accuracy while moving the search region (window) B in the direction of arrow β in the reference image IG1 shown in FIG. For example, a position shifted by the amount of misregistration (m × p, m × p) with respect to the specific area A (m means every m pixels, for example, 4 and p corresponds to p searches. For example, the search region B is moved stepwise to perform template matching, and a position shift with the highest degree of matching is searched. At this time, the direction of the arrow β for moving the search area B corresponds to the direction in which the parallax of the sensor area 61 shown in FIG. 8B appears. That is, the direction of the arrow β for moving the search area B is appropriately set according to the place where the sensor area 61 is arranged. Here, for example, NCC (Normalized Cross Correlation) is used for template matching. However, the template matching is not limited to NCC, but may be another method such as SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference).

続いて、ピクセル位置ずれ推定処理(ステップS13)のうち後の位置ずれ詳細推定処理では、ステップS13での概略推定をより精度的に高めた位置ずれ推定が行われる。図8(C)に示すように、上記位置ずれ概略推定処理の結果、最も一致度の高いウィンドウBtaの中心画素に対する周辺を1画素の精度で平面的に対応点探索する処理が実行される。この際の対応点探索の範囲は、例えば位置ずれ概略推定処理でm画素おき(上述の例ではXY方向ともにm=4画素おき)に探索を行っており、このm画素おきに応じてこれをカバーする範囲(例えば±4画素の範囲)とする。より具体的には、上記位置ずれ概略推定処理の結果、最も一致度の高いウィンドウBtaの中心画素に対する周辺±4画素それぞれを中心に81個のウィンドウが設定され、これら81個のウィンドウそれぞれについてテンプレートマッチングが実行され、最も一致度の高いウィンドウBtbにおける中心位置の画素が対応点として求められる。   Subsequently, in the positional displacement detail estimation processing later in the pixel positional displacement estimation processing (step S13), positional displacement estimation is performed by improving the rough estimation in step S13 more accurately. As shown in FIG. 8 (C), as a result of the above-described misregistration rough estimation process, a process for searching for corresponding points in a plane with accuracy of one pixel around the center pixel of the window Bta having the highest degree of coincidence is executed. The range of the corresponding point search at this time is, for example, a search for every m pixels (in the above example, every m = 4 pixels in the XY direction) by the approximate position shift estimation process, and this is determined according to this every m pixels. The range to be covered (for example, a range of ± 4 pixels). More specifically, as a result of the above-described approximate positional deviation estimation process, 81 windows are set around each of ± 4 pixels around the center pixel of the window Bta having the highest degree of coincidence, and a template is set for each of these 81 windows. Matching is executed, and the pixel at the center position in the window Btb having the highest degree of matching is obtained as the corresponding point.

図5に戻って、次に、画像処理部91は、サブピクセルずれ推定処理(ステップS14)を行う。このサブピクセルずれ推定処理(ステップS14)では、ステップS13での位置ずれ推定処理をより精度的に高めたサブピクセル単位で位置ずれ推定が行われる。   Returning to FIG. 5, next, the image processing unit 91 performs a subpixel shift estimation process (step S <b> 14). In this subpixel shift estimation process (step S14), the position shift estimation is performed in units of subpixels in which the position shift estimation process in step S13 is more accurately improved.

図9(A)及び9(B)は、上記ステップS14でのサブピクセルずれ推定処理を説明するための図である。例えば、図8(C)の参照画像IG1について、サブピクセル単位での位置ずれが推定される。上記ステップS13の位置ずれ推定処理工程によって特定された、参照画像IG1において基準画素に相当する画素TPを中心とした例えば3×3画素の範囲の規定範囲C4で、テンプレートマッチングにおける画素ごとの一致度(例えばNCC値)を元に2次曲面フィッティングが行われる(図9(B)参照)。ステップS14のサブピクセルずれ推定処理では、一例として、論文「位置ずれ量を考慮した画素選択に基づくロバスト超解像処理」(電子情報通信学会論文誌、Vol.J92−D、No.5、pp.650−660、2009、2009年5月)」に記載された手法を採用することができる。すなわち、図9(B)に表わされたように、画素ごとの一致度のうち、最も一致度の高い画素の座標がずれ量として特定される。このように、探索エリアを設定してからパターンマッチングを行うので、全ての画像に対してパターンマッチングを行うのに比べて、高速に処理を行うことができる。なお、上記論文のように2次曲面フィッティングを行う代わりに、XY軸のそれぞれで2次曲線にフィッティングする等、別手法によりサブピクセルずれ推定処理を行ってもよい。   FIGS. 9A and 9B are diagrams for explaining the subpixel shift estimation processing in step S14. For example, with respect to the reference image IG1 in FIG. 8C, a positional shift in subpixel units is estimated. The degree of coincidence for each pixel in template matching in the specified range C4 of the range of, for example, 3 × 3 pixels centered on the pixel TP corresponding to the standard pixel in the reference image IG1 specified by the positional deviation estimation processing step in step S13. Quadratic surface fitting is performed based on (for example, NCC value) (see FIG. 9B). In the sub-pixel shift estimation process in step S14, as an example, the paper “Robust Super-Resolution Process Based on Pixel Selection Considering Position Shift Amount” (The Institute of Electronics, Information and Communication Engineers, Vol. J92-D, No. 5, pp. .650-660, 2009, May 2009) ”can be employed. That is, as shown in FIG. 9B, the coordinates of the pixel having the highest matching degree among the matching degrees for each pixel are specified as the shift amount. Since pattern matching is performed after setting the search area in this way, processing can be performed at a higher speed than when pattern matching is performed on all images. Note that, instead of performing quadratic surface fitting as in the above paper, subpixel shift estimation processing may be performed by another method such as fitting to a quadratic curve on each of the XY axes.

〔画像再構成−超解像処理(画像生成)〕
図10を参照して、図5のステップS15における超解像処理の流れを説明する。図10では、具体例として、論文「Fast and Robust Multiframe Super Resolution」(IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page.1327-1344)に記載された処理を行う場合の超解像処理の流れが示されている。
[Image reconstruction-super-resolution processing (image generation)]
With reference to FIG. 10, the flow of the super-resolution processing in step S15 of FIG. 5 will be described. In FIG. 10, as a specific example, a case where the processing described in the paper “Fast and Robust Multiframe Super Resolution” (IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page.1327-1344) is performed is shown. The flow of resolution processing is shown.

図10に示すように、ステップS31で、入力画像のうちの1枚に対してバイリニア法等の補間処理を施して入力画像の解像度を超解像処理後の解像度である高解像度に変換することで、初期画像としての出力候補画像が生成される。   As shown in FIG. 10, in step S31, one of the input images is subjected to an interpolation process such as a bilinear method to convert the resolution of the input image to a high resolution that is the resolution after the super-resolution process. Thus, an output candidate image as an initial image is generated.

ステップS32で、ノイズがあってもロバストに収束させるためのBTV(Bilateral Total Variation)量が算出される。   In step S32, a BTV (Bilateral Total Variation) amount for robust convergence even if there is noise is calculated.

ステップS33で、上記生成された出力候補画像とk枚分(16以下例えば15枚分)の入力画像とが比較されて、残差が算出される。すなわち、ステップS33では、上記生成された出力候補画像が、各入力画像とその劣化情報(超解像後の画像と入力画像との間の関係を示す情報)とに基づいて入力画像サイズに変換(低解像度化)されて(図11のステップS41)、k枚分(例えば15枚分)の入力画像との差異が算出され、記録される(図11のステップS42)。そして、その差異が、超解像処理後のサイズに戻され(図11のステップS43)、残差とされる。   In step S33, the generated output candidate images are compared with k input images (16 or less, for example, 15 images), and a residual is calculated. That is, in step S33, the generated output candidate image is converted into an input image size based on each input image and its deterioration information (information indicating the relationship between the image after super-resolution and the input image). After the resolution is lowered (step S41 in FIG. 11), the difference from the input images for k (for example, 15) is calculated and recorded (step S42 in FIG. 11). Then, the difference is returned to the size after the super-resolution processing (step S43 in FIG. 11) and is set as a residual.

ステップS34で、出力候補画像を生成する必要が判断され、出力候補画像を生成する必要がある場合(ステップS34のY)、ステップS31に戻って、前回のステップS31で生成された出力候補画像から算出された残差とBTV量とが減ぜられて次の出力候補画像が生成される。   If it is determined in step S34 that an output candidate image needs to be generated, and an output candidate image needs to be generated (Y in step S34), the process returns to step S31 and starts from the output candidate image generated in the previous step S31. The calculated residual and the BTV amount are reduced to generate the next output candidate image.

上記ステップS31〜S34の処理が、出力候補画像が収束するまで繰り返され、出力候補画像が収束した場合(ステップS34のN)、収束した出力候補画像が超解像処理後の出力画像として出力される(ステップS35)。   The processes in steps S31 to S34 are repeated until the output candidate image converges. When the output candidate image converges (N in step S34), the converged output candidate image is output as the output image after the super-resolution processing. (Step S35).

繰り返しは、おおよそ充分に収束する回数(例えば200回)等の、予め規定された回数であってもよいし、一連の処理の都度、収束判定がなされ、その結果に応じて繰り返されてもよい。   The repetition may be a predetermined number of times such as the number of times of convergence (for example, 200 times) approximately enough, or a convergence determination may be made for each series of processing, and may be repeated according to the result. .

図11は、上記ステップS33で用いられる劣化情報を説明するための図である。劣化情報とは、超解像処理後の高解像度画像に対する入力画像それぞれの関係を表わす情報を指し、例えば行列形式で表わされる。劣化情報には、上記ステップS14で推定された入力画像それぞれのサブピクセルレベルでのずれ量、ダウンサンプリング量、及びぼけ量等が含まれる。   FIG. 11 is a diagram for explaining the deterioration information used in step S33. Deterioration information refers to information representing the relationship of each input image with respect to a high-resolution image after super-resolution processing, and is represented, for example, in a matrix format. The deterioration information includes a shift amount, a downsampling amount, a blur amount, and the like of each of the input images estimated in step S14.

図11に示すように、劣化情報は、入力画像及び超解像処理後の高解像度画像それぞれを1次元のベクトル表現にした場合に、その変換を示す行列で規定される。複眼撮像装置300は、例えば上記ステップS13及びS14の推定処理にて推定された位置ずれ等に基づいて超解像処理に用いるパラメーターを算出し、劣化情報として組み込む。   As shown in FIG. 11, the deterioration information is defined by a matrix indicating the conversion when each of the input image and the high-resolution image after the super-resolution processing is represented by a one-dimensional vector expression. The compound-eye imaging apparatus 300 calculates parameters used for the super-resolution processing based on, for example, the positional deviation estimated in the estimation processing in steps S13 and S14, and incorporates it as deterioration information.

図12は、劣化情報の具体例を表わした図である。複眼撮像装置300は、画素のずれ量が0.25画素と推定され、ダウンサンプリング量が縦方向及び横方向それぞれに1/4であった場合に、図12に表わされたような劣化情報を規定する。   FIG. 12 is a diagram illustrating a specific example of deterioration information. The compound-eye imaging device 300 is estimated to have a pixel shift amount of 0.25 pixel, and the deterioration information as shown in FIG. 12 when the down-sampling amount is 1/4 in each of the vertical and horizontal directions. Is specified.

なお、上記ステップS15での超解像処理は、図10に表わされた処理に限定されるものではなく、複数枚の入力画像から1枚の画像を生成する再構成型超解像処理であれば他の処理が採用されてもよい。上記ステップS32で算出される拘束項は、BTV量に替えて、例えば、4近傍ラプラシアン等の他のものが用いられてもよい。   Note that the super-resolution processing in step S15 is not limited to the processing shown in FIG. 10, but is reconfigurable super-resolution processing that generates one image from a plurality of input images. Other processes may be employed if any. The constraint term calculated in step S32 may be replaced with another value such as a 4-neighbor Laplacian instead of the BTV amount.

図5に戻って、以上の超解像処理(ステップS15)の終了後は、画像処理部91で生成された高解像度画像(第2画像データ)が画像出力部93を介して外部すなわち図1のインターフェース82に出力される(ステップS16)。   Returning to FIG. 5, after the above super-resolution processing (step S <b> 15) is completed, the high-resolution image (second image data) generated by the image processing unit 91 is externally provided via the image output unit 93, i.e., FIG. 1. Are output to the interface 82 (step S16).

以上説明した複眼撮像装置によれば、撮影後の個眼像に処理を施して画質を判断するのではなく、光学系であるレンズアレイ積層体30と撮像素子60との組み付けの段階において、各個眼撮像光学系30aの解像力を測定し、画像処理時に利用する個眼撮像光学系30aを選択判断するための解像力情報を予め記憶している。各個眼撮像光学系30aの解像力の優劣を予め把握しておくことで、撮影後の個眼像選択のための前処理を不要とし、全体の画像処理を高速化することができる。また、解像力が低い個眼像を予め排除することにより超解像処理等に使用する個眼像が限定され、超解像処理等をする場合に対応点探索精度の向上とともに、生成後の画質低下を抑制することができる。また、よりFナンバーの小さい明るい光学系において、焦点深度が浅くなるため、個眼撮像光学系30a間のピント位置のばらつきに対する解像力のばらつきが増大しても、個眼像を選択することにより、良好な画質を維持することができる。   According to the compound-eye imaging apparatus described above, each individual image is not subjected to processing to determine the image quality by processing a single-eye image after shooting, but at the stage of assembling the lens array laminate 30 and the image sensor 60 that are optical systems. The resolving power information for measuring the resolving power of the eye imaging optical system 30a and selecting and determining the single-eye imaging optical system 30a used at the time of image processing is stored in advance. By grasping in advance the superiority or inferiority of the resolving power of each single-eye imaging optical system 30a, preprocessing for selecting a single-eye image after photographing is unnecessary, and the entire image processing can be speeded up. In addition, by eliminating single-eye images with low resolving power in advance, single-eye images used for super-resolution processing, etc. are limited. The decrease can be suppressed. In addition, in a bright optical system having a smaller F-number, the depth of focus becomes shallow. Therefore, even if the variation in resolving power with respect to the variation in focus position between the single-eye imaging optical systems 30a increases, by selecting a single-eye image, Good image quality can be maintained.

〔第2実施形態〕
以下、第2実施形態に係る複眼撮像装置等について説明する。なお、第2実施形態の複眼撮像装置等は第1実施形態の複眼撮像装置等を変形したものであり、特に説明しない事項は第1実施形態と同様である。
[Second Embodiment]
Hereinafter, a compound eye imaging device and the like according to the second embodiment will be described. Note that the compound eye imaging device and the like of the second embodiment is a modification of the compound eye imaging device and the like of the first embodiment, and items that are not particularly described are the same as those of the first embodiment.

〔駆動処理部等の回路部分〕
図13に示すように、第2実施形態において、複眼撮像装置300は、オートフォーカスが可能な構成となっており、図1に示す複眼撮像装置300において、AF駆動装置70を備える。つまり、本実施形態の複眼撮像装置300では、例えばユーザー等が注目被写体を特定するようなオートフォーカスを想定している。ここで、注目被写体とは、ユーザー等がピントを合わせたい被写体を意味する。注目被写体は、手動で決めてもよいし、自動で決めてもよい。
[Circuit parts such as drive processing unit]
As shown in FIG. 13, in the second embodiment, the compound eye imaging apparatus 300 has a configuration capable of autofocusing, and includes the AF driving apparatus 70 in the compound eye imaging apparatus 300 shown in FIG. 1. That is, in the compound-eye imaging apparatus 300 of the present embodiment, for example, autofocus is assumed in which the user or the like specifies the subject of interest. Here, the subject of interest means a subject that the user or the like wants to focus on. The subject of interest may be determined manually or automatically.

AF駆動装置70は、注目被写体認識部71と、フォーカス位置決定部72と、フォーカス駆動部73とを備える。注目被写体認識部71は、ユーザー等により指定された注目被写体を認識し、特定する部分である。例えば、ユーザーがターゲット範囲を注目領域に移動させ、この注目領域で合焦のための情報(フォーカス参照情報)の取り込みを可能にする。フォーカス位置決定部72は、注目被写体認識部71によって特定された注目被写体についてフォーカス参照情報の取り込みを行って、この情報からフォーカス位置を決定する部分である。フォーカス位置は、例えば専用センサーを使用する位相差検出方式等を用いて決定される。なお、位相差検出方式において、一対以上の個眼撮像光学系30a自体からの画像データを利用してもよい。フォーカス駆動部73は、フォーカス位置決定部72によって決定したフォーカス位置にしたがい、ホルダー50の高さ、つまり、レンズアレイ積層体30と撮像素子60との間隔(一括した像側距離)を調整する(図2(B)参照)。フォーカス駆動部73としては、例えばピエゾアクチュエーター、ステッピングモーター、ボイスコイルモーター等が用いられる。個眼撮像光学系30aの位置(フォーカス位置)、つまり、個眼撮像光学系30aから検出面までの像側距離fBnは、任意に変化させることができる。なお、フォーカス位置は、数段階の予め定められた位置間で変化させてもよい。   The AF drive device 70 includes a target subject recognition unit 71, a focus position determination unit 72, and a focus drive unit 73. The subject-of-interest recognition unit 71 is a portion that recognizes and identifies the subject of interest designated by the user or the like. For example, the user moves the target range to the attention area, and enables to capture information for focusing (focus reference information) in the attention area. The focus position determination unit 72 is a part that fetches focus reference information for the target subject specified by the target subject recognition unit 71 and determines the focus position from this information. The focus position is determined using, for example, a phase difference detection method using a dedicated sensor. In the phase difference detection method, image data from one or more single-eye imaging optical systems 30a themselves may be used. The focus driving unit 73 adjusts the height of the holder 50, that is, the distance between the lens array stack 30 and the image sensor 60 (collective image side distance) according to the focus position determined by the focus position determination unit 72 ( (See FIG. 2B). As the focus driving unit 73, for example, a piezo actuator, a stepping motor, a voice coil motor, or the like is used. The position (focus position) of the single-eye imaging optical system 30a, that is, the image side distance fBn from the single-eye imaging optical system 30a to the detection surface can be arbitrarily changed. Note that the focus position may be changed between several predetermined positions.

本実施形態の複眼撮像装置300は、オートフォーカスを想定した構成であるため、解像力記憶部92aには、各個眼撮像光学系30aごとの主被写体の対応像高h、及び個眼撮像光学系30aから検出面までの像側距離fBnを変数として、これに関連付けられた解像力情報が予め記憶されている。主被写体までの撮影距離Dに関しては、ある個眼撮像光学系30aから検出面までの像側距離fBnにおいて、軸上性能が最も高くなる被写体の距離としている。   Since the compound-eye imaging apparatus 300 of the present embodiment is configured to assume autofocus, the resolving power storage unit 92a includes the corresponding image height h of the main subject for each individual-eye imaging optical system 30a, and the individual-eye imaging optical system 30a. The image-side distance fBn from the detection surface to the detection surface is used as a variable, and the resolution information associated therewith is stored in advance. The shooting distance D to the main subject is the distance of the subject with the highest on-axis performance in the image side distance fBn from a single-eye imaging optical system 30a to the detection surface.

〔画像再構成処理〕
図14を参照して、本実施形態の複眼撮像装置300の動作について説明する。
本実施形態において、第1実施形態で説明した選択された個眼画像の取り込み(ステップS11)の前に、AF駆動装置70によってフォーカス設定を行う(ステップS17)。まず、AF駆動装置70の注目被写体認識部71により、ユーザー等によってピントを合わせたい注目被写体が特定される。次に、フォーカス位置決定部72は、決定された注目領域の被写体に適合するフォーカス位置を決定する。決定されたフォーカス位置に基づいて、フォーカス駆動部73は、像側距離を調整し、各複眼撮像光学系30aから検出面までの像側距離fBnを変化させる。
[Image reconstruction processing]
With reference to FIG. 14, the operation of the compound eye imaging apparatus 300 of the present embodiment will be described.
In the present embodiment, focus setting is performed by the AF driving device 70 (step S17) before the selected single-eye image described in the first embodiment is captured (step S11). First, the target subject recognition unit 71 of the AF driving device 70 specifies the target subject to be focused by the user or the like. Next, the focus position determination unit 72 determines a focus position that matches the determined subject of interest. Based on the determined focus position, the focus driving unit 73 adjusts the image side distance and changes the image side distance fBn from each compound-eye imaging optical system 30a to the detection surface.

ここで、予め用意され解像力記憶部92aに保管されているデータテーブルについて説明する。本実施形態の複眼撮像装置300のようなオートフォーカスのシステムの場合、主被写体までの撮影距離D、主被写体の対応像高h、及び個眼撮像光学系30aから検出面までの像側距離fBnの3つをパラメーターとした解像力情報が必要になる。そのため、解像力評価用チャート、個眼撮像光学系30a、及びセンサー領域61の3つの位置関係は、任意の範囲で変化させる必要がある。例えば、まず、解像力評価用チャートと個眼撮像光学系30aとの間の距離を固定し、個眼撮像光学系30aから検出面までの間の像側距離fBnを変化させてMTF{h,D=D1,fB}を取得する。次に、解像力評価用チャートと個眼撮像光学系30aとの間の距離を変化させて、同様の測定を行い、MTF{h,D=D2,fB}を取得する。この際、個眼撮像光学系30aから検出面までの間の像側距離fBnは、オートフォーカスにて稼動する範囲内でよい。また、解像力評価用チャートと個眼撮像光学系30aとの間の距離は、無限遠から撮影可能な最近接距離までの範囲で、距離の逆数を等間隔に変化させてもよい。   Here, a data table prepared in advance and stored in the resolving power storage unit 92a will be described. In the case of an autofocus system such as the compound eye imaging apparatus 300 of the present embodiment, the shooting distance D to the main subject, the corresponding image height h of the main subject, and the image side distance fBn from the single-eye imaging optical system 30a to the detection surface. Resolution information with these three parameters is required. Therefore, the three positional relationships between the resolution evaluation chart, the single-eye imaging optical system 30a, and the sensor region 61 need to be changed within an arbitrary range. For example, first, the distance between the resolution evaluation chart and the single-eye imaging optical system 30a is fixed, and the image side distance fBn from the single-eye imaging optical system 30a to the detection surface is changed to change the MTF {h, D = D1, fB}. Next, the same measurement is performed by changing the distance between the resolution evaluation chart and the single-eye imaging optical system 30a, and MTF {h, D = D2, fB} is acquired. At this time, the image-side distance fBn from the single-eye imaging optical system 30a to the detection surface may be within a range operated by autofocus. In addition, the distance between the resolution evaluation chart and the single-eye imaging optical system 30a may be changed from the infinity to the closest distance at which photographing can be performed by changing the reciprocal of the distance at equal intervals.

図14に戻って、AF駆動装置70と像検出部100との間でフィードバックを繰り返しながら、注目被写体のピントが最も合った状態で、センサー領域61からの画像信号がAD変換部65においてAD変換され、駆動処理部81の画像処理部91に入力される。画像処理部91には、撮影画像とともに、AF駆動装置70から注目被写体の対応像高及び光学系のフォーカス位置(個眼撮像光学系30aから検出面までの像側距離fBnに相当)が入力される。個眼選択部91aは、解像力記憶部92aに記憶されたデータテーブルを参照して入力された像高及びフォーカス位置に対する各個眼撮像光学系30aの解像力情報を読み出し、ある閾値以上の個眼像のみを選択する。続く画像生成処理部91bでは、選択された個眼像のみが使用される(ステップS11)。   Returning to FIG. 14, the image signal from the sensor region 61 is AD converted in the AD conversion unit 65 in a state where the focus of the subject of interest is the best while repeating feedback between the AF driving device 70 and the image detection unit 100. And input to the image processing unit 91 of the drive processing unit 81. Along with the captured image, the corresponding image height of the subject of interest and the focus position of the optical system (corresponding to the image-side distance fBn from the single-eye imaging optical system 30a to the detection surface) are input to the image processing unit 91 from the AF driving device 70. The The single-eye selection unit 91a reads resolution information of the single-eye imaging optical system 30a with respect to the image height and the focus position input with reference to the data table stored in the resolution storage unit 92a, and only single-eye images with a certain threshold or more are read. Select. In the subsequent image generation processing unit 91b, only the selected single-eye image is used (step S11).

その後、第1実施形態と同様に、ステップS12〜S16の工程を行う。   Thereafter, similarly to the first embodiment, steps S12 to S16 are performed.

なお、本実施形態において、フォーカス位置の決定手段は、位相差検出方式に限らず、複眼撮像装置300から出力される画像のコントラストを検知してフォーカス位置を決定するコントラスト検知方式を用いてもよい。   In the present embodiment, the focus position determination unit is not limited to the phase difference detection method, and a contrast detection method in which the focus position is determined by detecting the contrast of the image output from the compound-eye imaging apparatus 300 may be used. .

〔第3実施形態〕
以下、第3実施形態に係る複眼撮像装置等について説明する。なお、第3実施形態の複眼撮像装置等は第1実施形態の複眼撮像装置等を変形したものであり、特に説明しない事項は第1実施形態と同様である。
[Third Embodiment]
Hereinafter, a compound eye imaging device and the like according to the third embodiment will be described. Note that the compound eye imaging device and the like of the third embodiment are modifications of the compound eye imaging device and the like of the first embodiment, and items that are not particularly described are the same as those of the first embodiment.

〔駆動処理部等の回路部分〕
図15に示すように、第3実施形態において、複眼撮像装置300は、オートフォーカスが可能な構成となっており、図1に示す複眼撮像装置300の駆動処理部81のうち図15に示す画像処理部91において、距離測定部91dを備える。なお、図15では、主にオートフォーカス系のシステム構成について説明しているが、後述するように、パンフォーカス系のシステムに適用することができる。
[Circuit parts such as drive processing unit]
As shown in FIG. 15, in the third embodiment, the compound eye imaging apparatus 300 has a configuration capable of auto-focusing, and the image shown in FIG. 15 in the drive processing unit 81 of the compound eye imaging apparatus 300 shown in FIG. 1. The processing unit 91 includes a distance measurement unit 91d. 15 mainly describes the system configuration of the autofocus system, but can be applied to a panfocus system as will be described later.

本実施形態の複眼撮像装置300は、距離測定後に個眼像を選択する構成となっている。距離測定部91dは、画像処理部91に入力された撮影画像に対し、距離測定を行う部分である。距離測定部91dは、撮影画像内の複数の被写体に対し、距離をそれぞれ測定する。距離測定により、略同距離にある主被写体をひとまとまりとして認識することができる。上述の第1及び第2実施形態では、ある1つの主被写体までの撮影距離に関して、最適な個眼像を選択していたが、第3実施形態では、撮影された各主被写体までの撮影距離に応じて、画像処理部91で使用する個眼像を切り替えることができる。   The compound eye imaging apparatus 300 of the present embodiment is configured to select a single eye image after distance measurement. The distance measuring unit 91d is a part that performs distance measurement on the captured image input to the image processing unit 91. The distance measuring unit 91d measures distances for a plurality of subjects in the captured image. By measuring the distance, main subjects at substantially the same distance can be recognized as a group. In the first and second embodiments described above, the optimum single-eye image is selected with respect to the shooting distance to one main subject. In the third embodiment, the shooting distance to each main subject that was shot is selected. Accordingly, the single-eye image used in the image processing unit 91 can be switched.

本実施形態の解像力記憶部92aには、各個眼撮像光学系30aごとに主被写体の対応像高h、主被写体までの撮影距離D、及び個眼撮像光学系30aから検出面までの像側距離fBnに関連付けられた解像力情報が予め記憶されている。   In the resolving power storage unit 92a of the present embodiment, the corresponding image height h of the main subject, the shooting distance D to the main subject, and the image side distance from the single-eye imaging optical system 30a to the detection surface for each single-eye imaging optical system 30a. The resolution information associated with fBn is stored in advance.

〔画像再構成処理〕
図16を参照して、本実施形態の複眼撮像装置300の動作について説明する。本実施形態の複眼撮像装置300を用いて取り込む画像は、図17に例示するように、複数の注目被写体OB1,OB2,OB3を有する。複眼撮像装置300によって、例えば各注目被写体OB1,OB2,OB3について最適な画像を取得し、高解像度画像を得ることができるようになっている。
[Image reconstruction processing]
With reference to FIG. 16, the operation of the compound eye imaging apparatus 300 of the present embodiment will be described. An image captured using the compound-eye imaging apparatus 300 according to the present embodiment includes a plurality of subjects OB1, OB2, and OB3 as illustrated in FIG. The compound-eye imaging apparatus 300 can obtain, for example, an optimal image for each target subject OB1, OB2, OB3, and obtain a high-resolution image.

本実施形態において、第1実施形態で説明した選択された個眼画像の取り込み(ステップS11)の前に、AF駆動装置70によって初期フォーカス設定を行う(ステップS27)。その初期位置からフォーカス位置をずらし、スキャンする(ステップS28,S29)。これにより、撮影範囲内の注目被写体OB1,OB2,OB3のピントが最も合った状態で、全てのセンサー領域61からの画像信号がAD変換部65においてAD変換され、駆動処理部81の画像処理部91に入力される。   In the present embodiment, the initial focus setting is performed by the AF driving device 70 (step S27) before the selected single-eye image described in the first embodiment is captured (step S11). The focus position is shifted from the initial position, and scanning is performed (steps S28 and S29). As a result, the image signals from all the sensor areas 61 are AD-converted by the AD conversion unit 65 in a state where the focus of the subject of interest OB1, OB2, OB3 in the shooting range is in the best focus, and the image processing unit of the drive processing unit 81 91.

次に、各注目被写体OB1〜OB3までの撮影距離Dを測定する(ステップS51)。各注目被写体OB1〜OB3のピントが合ったそれぞれの撮影画像から各注目被写体OB1〜OB3における画素ずれ(視差)を算出し、各注目被写体OB1〜OB3までの撮影距離Dに換算する。例えば、対角又は対辺中点に位置する離れた2つの個眼撮像光学系30aに対応する個眼像を用いて画素ずれ、つまり視差を算出する。注目被写体までの撮影距離Dは、個眼撮像光学系30a間の距離をBとし、焦点距離をfとし、視差をZとしたときに、以下の式で求めることができる。
D=B×f/Z … (2)
Next, the shooting distance D to each target subject OB1 to OB3 is measured (step S51). Pixel shifts (parallax) in each target subject OB1 to OB3 are calculated from each captured image in which each target subject OB1 to OB3 is in focus, and converted to a shooting distance D to each target subject OB1 to OB3. For example, pixel shift, that is, parallax, is calculated using a single-eye image corresponding to two separate single-eye imaging optical systems 30a located at the diagonal or opposite side midpoint. The shooting distance D to the subject of interest can be obtained by the following equation when the distance between the single-eye imaging optical systems 30a is B, the focal length is f, and the parallax is Z.
D = B × f / Z (2)

図18に示すように、個眼撮像光学系30aから検出面までの像側距離fBnは、撮影条件により決定し、各注目被写体OB1〜OB3に対して対応像高h及び注目被写体までの撮影距離Dが決定する。例えば、図17の場合、注目被写体OB1,OB3については、像高AR1〜AR3のうち像高AR2が対応し、注目被写体OB2については、像高AR1が対応する。   As shown in FIG. 18, the image-side distance fBn from the single-eye imaging optical system 30a to the detection surface is determined by the shooting conditions, and the corresponding image height h and the shooting distance to the target subject for each target subject OB1 to OB3. D is determined. For example, in the case of FIG. 17, the target heights OB1 and OB3 correspond to the image height AR2 of the image heights AR1 to AR3, and the target height OB2 corresponds to the image height AR1.

次に、ステップS51にて計算した撮影距離Dを用いて、撮影画像を複数の注目被写体OB1〜OB3に対応する領域に分割する(ステップS61)。この分割された領域は、それぞれ固有の解像度特性を有するものとなっており、これに適合する個眼像の選択が望ましい。   Next, using the photographing distance D calculated in step S51, the photographed image is divided into regions corresponding to the plurality of subjects of interest OB1 to OB3 (step S61). Each of the divided areas has a unique resolution characteristic, and it is desirable to select a single eye image suitable for this.

その後、個眼選択部91aによって、取得した撮影画像についてピントを合わせた注目被写体OB1〜OB3の領域ごとに適切なk個の個眼撮像光学系30aをそれぞれ選択する(ステップS11)。つまり、個眼選択部91aは、各注目被写体の対応像高h、各注目被写体までの撮影距離D、及び各個眼撮像光学系30aから検出面までの像側距離fBnから、予め解像力記憶部92aに記憶された解像力情報に基づいて、注目被写体OB1〜OB3の領域ごと又は画素ごとに使用する個眼像を選択する。続く画像生成処理部91bでは、注目被写体OB1〜OB3ごと又は画素ごとに参照される個眼像を切り替えて画像処理をする。   Thereafter, the single-eye selection unit 91a selects k appropriate single-eye imaging optical systems 30a for each region of the subject of interest OB1 to OB3 focused on the acquired captured image (step S11). That is, the single eye selection unit 91a preliminarily determines the resolving power storage unit 92a from the corresponding image height h of each target subject, the shooting distance D to each target subject, and the image side distance fBn from each single-eye imaging optical system 30a to the detection surface. A single eye image to be used is selected for each region or each pixel of the subject of interest OB1 to OB3 based on the resolution information stored in. The subsequent image generation processing unit 91b performs image processing by switching the single-eye image referred to for each of the subjects of interest OB1 to OB3 or for each pixel.

その後、第1実施形態と同様に、ステップS12〜S16の工程を行う。   Thereafter, similarly to the first embodiment, steps S12 to S16 are performed.

なお、距離測定(ステップS51)を、視差を用いずに行ってもよい。例えば、撮影画像内の注目被写体において、それぞれピントが合うフォーカス位置を探す。画像のぼけが少なくなる位置で撮影画像を取得することにより、各個眼撮像光学系30aから検出面までの像側距離fBn及び各被写体の対応像高hが決まる。   The distance measurement (step S51) may be performed without using parallax. For example, a focus position that is in focus is searched for in the subject of interest in the captured image. By acquiring a captured image at a position where blurring of the image is reduced, the image side distance fBn from each single-eye imaging optical system 30a to the detection surface and the corresponding image height h of each subject are determined.

また、1つのフォーカスで、かつ同じ領域内の注目被写体で像高の閾値を超えて複数領域にまたがる場合、いずれかの像高を基準にするか、像高を平均したものを基準にするかして、連続性を持たせてもよい。   Also, if the subject of interest in the same area is in the same area and exceeds multiple image height thresholds, it should be based on one of the image heights or the average of the image heights. Thus, it may have continuity.

また、第3実施形態において、主にオートフォーカス系の構成について説明したが、パンフォーカス系の構成についても第1実施形態のような構成で動作する。   In the third embodiment, the configuration of the autofocus system has been mainly described. However, the configuration of the panfocus system also operates in the configuration as in the first embodiment.

なお、本実施形態において、ステップS27〜S29の工程で得られる画像が1つであってもよい。つまり、代表的な注目被写体についてピントが合った画像を取得し、距離測定(ステップS51)以降の工程を行う。この場合、代表的な注目被写体以外の被写体については、若干ぼけた画像となり得る。   In the present embodiment, one image may be obtained in the steps S27 to S29. That is, an image focused on a representative target subject is acquired, and the steps after distance measurement (step S51) are performed. In this case, the subject other than the representative subject of interest can be a slightly blurred image.

以上、実施形態に係る複眼撮像装置について説明したが、本発明に係る複眼撮像装置は、上記例示のものには限られない。例えば、各レンズアレイ10,20を構成するレンズ部10a,20aの配列やその光学面11a,11b等の形状等は、レンズアレイ積層体30又は複眼撮像装置300の用途又は仕様に応じて適宜変更することができる。例えばレンズ部10a,20aは、4×4の格子点に配列するものに限らず、例えば3×3、5×5等の格子点に配列することができる。また、格子は、正方の格子に限らず、長方の格子でもよい。   Although the compound eye imaging device according to the embodiment has been described above, the compound eye imaging device according to the present invention is not limited to the above-described example. For example, the arrangement of the lens portions 10a and 20a constituting the lens arrays 10 and 20 and the shape of the optical surfaces 11a and 11b are appropriately changed according to the use or specification of the lens array stack 30 or the compound-eye imaging device 300. can do. For example, the lens units 10a and 20a are not limited to being arranged at 4 × 4 lattice points, but can be arranged at lattice points of 3 × 3, 5 × 5, and the like. The lattice is not limited to a square lattice, and may be a rectangular lattice.

また、上記実施形態において、アレイレンズを2枚積層したが、積層せず、単層のアレイレンズとしてもよい。また、アレイレンズを3枚以上積層してもよい。   In the above embodiment, two array lenses are stacked. However, a single-layer array lens may be used instead of stacking. Further, three or more array lenses may be laminated.

また、上記実施形態において、レンズアレイ10,20は、樹脂製としたが、ガラス製であってもよい。また、樹脂としては、熱可塑性樹脂に限らず、熱硬化性樹脂や光硬化性樹脂等を用いることができる。また、レンズアレイ10,20は、例えばガラスの基板上に樹脂のレンズ部を2次元的に配列したウェハーレベルレンズであってもよい。   In the above embodiment, the lens arrays 10 and 20 are made of resin, but may be made of glass. The resin is not limited to a thermoplastic resin, and a thermosetting resin, a photocurable resin, or the like can be used. The lens arrays 10 and 20 may be, for example, wafer level lenses in which resin lens portions are two-dimensionally arranged on a glass substrate.

また、上記実施形態において、個眼選択部91aにおいて、選択される個眼撮像光学系30aは、固定された閾値(許容レベルLP)を超えるものとしたが、相対的な閾値としてもよい。例えば、個眼撮像光学系30aを解像力が良好な順から選択してもよい。また、許容レベルLPは、目的によって適宜調整することができる。   In the above-described embodiment, the single-eye imaging optical system 30a selected in the single-eye selection unit 91a exceeds the fixed threshold (allowable level LP), but may be a relative threshold. For example, the single-eye imaging optical system 30a may be selected in the order of good resolution. Further, the allowable level LP can be appropriately adjusted according to the purpose.

また、第1及び第2実施形態において、超解像処理(ステップS15)の代わりに距離測定を行ってもよい。この場合、高い測距精度が必要でなければ、サブピクセルずれ推定(ステップS14)を省略してもよい。   In the first and second embodiments, distance measurement may be performed instead of the super-resolution processing (step S15). In this case, if high ranging accuracy is not required, the subpixel shift estimation (step S14) may be omitted.

30…レンズアレイ積層体、 30a…個眼撮像光学系、 10,20…レンズアレイ、 10a,20a…レンズ部、 10b,20b…支持部、 11a,11b,21a,21b…光学面、 50…ホルダー、 60…撮像素子、 61…センサー領域、 63…光センサー、 65…変換部、 70…AF駆動装置、 71…注目被写体認識部、 72…フォーカス位置決定部、 73…フォーカス駆動部、 81…駆動処理部、 82…インターフェース、 83…ディスプレイ、 91…画像処理部、 91a…個眼選択部、 91b…画像生成処理部、 91d…距離測定部、 92…記憶部、 92a…解像力記憶部、 93…画像出力部、 94…制御部、 100…像検出部、 300…複眼撮像装置、 AX…中心軸、 OA…光軸   DESCRIPTION OF SYMBOLS 30 ... Lens array laminated body, 30a ... Single-eye imaging optical system 10, 20 ... Lens array, 10a, 20a ... Lens part, 10b, 20b ... Support part, 11a, 11b, 21a, 21b ... Optical surface, 50 ... Holder , 60: Image sensor, 61: Sensor area, 63: Optical sensor, 65 ... Conversion unit, 70 ... AF drive device, 71 ... Target object recognition unit, 72 ... Focus position determination unit, 73 ... Focus drive unit, 81 ... Drive Processing unit 82 ... Interface 83 ... Display 91 ... Image processing unit 91a ... Single eye selection unit 91b ... Image generation processing unit 91d ... Distance measuring unit 92 ... Storage unit 92a ... Resolving power storage unit 93 ... Image output unit, 94 ... Control unit, 100 ... Image detection unit, 300 ... Compound eye imaging device, AX ... Central axis, OA ... Optical axis

Claims (8)

複数の個眼撮像光学系と、
前記個眼撮像光学系に対応する複数の物体像が結像される撮像素子と、
前記撮像素子から出力される複数の物体像に対応する複数の個眼像を処理する画像生成処理部と、
前記複数の個眼撮像光学系の解像力に関する解像力情報が予め記憶された解像力記憶部と、
記憶された前記解像力情報に基づき、前記画像生成処理部での処理に使用する個眼像を選択する個眼選択部と、
を備えることを特徴とする複眼撮像装置。
A plurality of single-eye imaging optical systems;
An imaging device on which a plurality of object images corresponding to the single-eye imaging optical system are formed;
An image generation processing unit that processes a plurality of single-eye images corresponding to a plurality of object images output from the imaging device;
A resolving power storage section in which resolving power information related to resolving power of the plurality of single-eye imaging optical systems is stored;
A single-eye selection unit that selects a single-eye image to be used for processing in the image generation processing unit based on the stored resolution information;
A compound eye imaging apparatus comprising:
前記解像力情報は、変調伝達関数及び空間周波数応答のいずれか一方であることを特徴とする請求項1に記載の複眼撮像装置。   The compound eye imaging apparatus according to claim 1, wherein the resolution information is one of a modulation transfer function and a spatial frequency response. 前記解像力情報は、前記個眼撮像光学系から撮像素子の撮像面までの像側距離に関連付けられており、
前記像側距離に対応した解像力データに基づいて、使用する個眼像を選択することを特徴とする請求項1及び2のいずれか一項に記載の複眼撮像装置。
The resolving power information is associated with an image side distance from the single-eye imaging optical system to the imaging surface of the imaging device,
3. The compound eye imaging apparatus according to claim 1, wherein a single eye image to be used is selected based on resolution data corresponding to the image side distance.
注目被写体を認識する注目被写体認識部を有することを特徴とする請求項1から3までのいずれか一項に記載の複眼撮像装置。   The compound eye imaging apparatus according to any one of claims 1 to 3, further comprising an attention subject recognition unit that recognizes an attention subject. 前記解像力情報は、前記注目被写体の対応像高と関連付けられており、
前記対応像高を取得し、前記対応像高に対応した解像力データに基づいて、使用する個眼像を選択することを特徴とする請求項4に記載の複眼撮像装置。
The resolving power information is associated with the corresponding image height of the subject of interest,
5. The compound eye imaging apparatus according to claim 4, wherein the corresponding image height is acquired, and a single-eye image to be used is selected based on resolution data corresponding to the corresponding image height.
前記解像力情報は、前記注目被写体までの撮影距離に関連付けられており、
前記撮影距離を取得し、前記撮影距離に対応した解像力データに基づいて、使用する個眼像を選択することを特徴とする請求項4及び5のいずれか一項に記載の複眼撮像装置。
The resolution information is associated with the shooting distance to the subject of interest,
6. The compound-eye imaging apparatus according to claim 4, wherein the imaging distance is acquired, and a single-eye image to be used is selected based on resolution data corresponding to the imaging distance.
複数の個眼撮像光学系を有する像検出部から得た複数の第1画像データを用いて、前記第1画像データよりも高解像度の第2画像データを生成する画像処理装置であって、
前記複数の第1画像データに対応する前記複数の個眼撮像光学系に関連付けられた解像力情報が予め記憶される解像力記憶部と、
前記複数の第1画像データから、予め記憶された前記解像力情報に基づいて、使用する前記第1画像データを選択する個眼選択部と、
前記個眼選択部により選択された第1画像データから前記第2画像データを生成する画像生成処理部と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that generates second image data having a higher resolution than the first image data using a plurality of first image data obtained from an image detection unit having a plurality of single-eye imaging optical systems,
A resolving power storage unit preliminarily storing resolving power information associated with the plurality of single-eye imaging optical systems corresponding to the plurality of first image data;
A single-eye selection unit that selects the first image data to be used based on the resolution information stored in advance from the plurality of first image data;
An image generation processing unit for generating the second image data from the first image data selected by the single eye selection unit;
An image processing apparatus comprising:
複数の個眼撮像光学系を有する像検出部から得た複数の第1画像データを用いて、前記第1画像データよりも高解像度の第2画像データを生成する画像処理方法であって、
前記複数の第1の画像データから、予め記憶された前記第1画像データに対応する前記複数の個眼撮像光学系に関連付けられた解像力情報に基づいて、使用する前記第1画像データを選択し、取り込む個眼画像取込工程と、
前記個眼画像取込工程により選択された複数の第1画像データから前記第2画像データを生成する画像生成工程と、
を備えることを特徴とする画像処理方法。
An image processing method for generating second image data having a higher resolution than the first image data by using a plurality of first image data obtained from an image detection unit having a plurality of single-eye imaging optical systems,
The first image data to be used is selected from the plurality of first image data based on resolution information associated with the plurality of single-eye imaging optical systems corresponding to the first image data stored in advance. A single eye image capturing process to be captured;
An image generating step of generating the second image data from a plurality of first image data selected by the single-eye image capturing step;
An image processing method comprising:
JP2014096340A 2014-05-07 2014-05-07 Compound-eye imaging apparatus, image processing apparatus, and image processing method Withdrawn JP2015216428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014096340A JP2015216428A (en) 2014-05-07 2014-05-07 Compound-eye imaging apparatus, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014096340A JP2015216428A (en) 2014-05-07 2014-05-07 Compound-eye imaging apparatus, image processing apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2015216428A true JP2015216428A (en) 2015-12-03

Family

ID=54752964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014096340A Withdrawn JP2015216428A (en) 2014-05-07 2014-05-07 Compound-eye imaging apparatus, image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP2015216428A (en)

Similar Documents

Publication Publication Date Title
KR101233013B1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
JP5968107B2 (en) Image processing method, image processing apparatus, and program
JP6436783B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
US10755429B2 (en) Apparatus and method for capturing images using lighting from different lighting angles
US8964104B2 (en) Image pickup apparatus
US9083879B2 (en) Focus detection apparatus, control method thereof, and image pickup apparatus
US9911183B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
JP2011211669A (en) Image processing apparatus, image pickup apparatus and image processing program
JP2012049773A (en) Imaging apparatus and method, and program
JP2016038414A (en) Focus detection device, control method thereof, and imaging apparatus
JP2014006388A (en) Imaging apparatus, and its control method and program
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
KR20160115682A (en) Method of enabling spatially varying auto focusing of objects and an image capturing system thereof
JP2011211663A (en) Image processing apparatus, imaging device, image processing method, and program
JP2014038151A (en) Imaging apparatus and phase difference detection method
JP2012256118A (en) Image restoration device and method thereof
WO2016111175A1 (en) Image processing device, image processing method, and program
US20150341543A1 (en) Image pickup apparatus, method of controlling the same, and non-transitory computer-readable storage medium
JP2019168479A (en) Controller, imaging device, method for control, program, and, and storage medium
JP2009047734A (en) Imaging apparatus and image processing program
JP2014215436A (en) Image-capturing device, and control method and control program therefor
JP2013162369A (en) Imaging device
US10062150B2 (en) Image processing apparatus, image capturing apparatus, and storage medium
JP2016119542A (en) Image processing method, image processing program, image processing unit, and imaging apparatus
JP6415359B2 (en) Focus detection apparatus, imaging apparatus, focus detection method, and focus detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161221

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170712