JP2012205014A - Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus - Google Patents

Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus Download PDF

Info

Publication number
JP2012205014A
JP2012205014A JP2011066665A JP2011066665A JP2012205014A JP 2012205014 A JP2012205014 A JP 2012205014A JP 2011066665 A JP2011066665 A JP 2011066665A JP 2011066665 A JP2011066665 A JP 2011066665A JP 2012205014 A JP2012205014 A JP 2012205014A
Authority
JP
Japan
Prior art keywords
error
imaging device
light
imaging
ideal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011066665A
Other languages
Japanese (ja)
Inventor
Tomoaki Nagasaka
知明 長坂
Koichi Nakagome
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011066665A priority Critical patent/JP2012205014A/en
Publication of JP2012205014A publication Critical patent/JP2012205014A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

PROBLEM TO BE SOLVED: To manufacture an imaging apparatus called as a plenoptic camera so as to appropriately generate a reconstructed image data independent of an individual difference.SOLUTION: An image acquisition part 41 acquires data of a light field image obtained as a result of imaging a light source radiating parallel light or equal diffusion light by an imaging apparatus 2. An error calculation part 43 calculates respective errors of a position and parallelism of a microlens array and an error of respective pitches of a plurality of microlenses generated when the imaging apparatus 2 is generated by using the data of the light field image acquired by the image acquisition part 41 and an ideal parameter acquired by an ideal parameter acquisition part 42. An error information output part 44 outputs information indicating the errors calculated by the error calculation part 43 or the like to the imaging apparatus 2 as error information.

Description

本発明は、プレノプティックカメラと呼ばれる撮像装置の製造装置及び製造方法並びに撮像装置に関し、特に、個体差によらず再構成画像のデータを適切に生成可能な撮像装置を製造する技術に関する。   The present invention relates to an imaging apparatus manufacturing apparatus and manufacturing method called an plenoptic camera, and an imaging apparatus, and more particularly to a technique for manufacturing an imaging apparatus capable of appropriately generating reconstructed image data regardless of individual differences.

近年、入射光線の方向分布(direction distribution)についての情報を取り込む撮像装置、即ち「プレノプティック(plenoptic)カメラ」と呼ばれる撮像装置が研究開発されている(特許文献1参照)。
プレノプティックカメラの光学系においては、従来の撮像レンズ(以下、「メインレンズ」と呼ぶ)と撮像素子との間に、極小のレンズ(以下、「マイクロレンズ」と呼ぶ)を縦横に連続して繰り返し配置した複眼状レンズ(以下、「マイクロレンズアレイ」と呼ぶ)が挿入されている。
In recent years, an imaging device that captures information about the direction distribution of incident light rays, that is, an imaging device called a “plenoptic camera” has been researched and developed (see Patent Document 1).
In the optical system of a plenoptic camera, an extremely small lens (hereinafter referred to as a “micro lens”) is continuously arranged vertically and horizontally between a conventional imaging lens (hereinafter referred to as a “main lens”) and an image sensor. A compound eye lens (hereinafter referred to as a “microlens array”) that is repeatedly arranged is inserted.

マイクロレンズアレイを構成する個々のマイクロレンズは、メインレンズによって集光された光を、その到達した角度に応じて、撮像素子内の複数の画素に分配する。
即ち、個々のマイクロレンズの各々によって撮像素子に集光された像を、以下「サブイメージ」と呼ぶならば、複数のサブイメージの集合体からなる画像のデータが、撮像画像のデータとして撮像素子から出力される。
なお、このようなプレノプティックカメラの撮像画像、即ち、複数のサブイメージの集合体からなる画像を、以下、「ライトフィールド画像」と呼ぶ。
ライトフィールド画像は、このように従来のメインレンズのみならず、マイクロレンズアレイを介して入射された光により生成される。このため、ライトフィールド画像は、従来の撮像画像にも含まれていた2次元の空間情報を有することは勿論のこと、さらに、従来の撮像画像には含まれていなかった情報として、撮像素子からみて何れの方向から到達した光線なのかを示す2次元の方向情報を有している。
The individual microlenses constituting the microlens array distribute the light collected by the main lens to a plurality of pixels in the image sensor according to the angle reached.
That is, if an image focused on the image sensor by each of the individual microlenses is hereinafter referred to as a “sub-image”, image data composed of a collection of a plurality of sub-images is captured as image data. Is output from.
Such a captured image of the plenoptic camera, that is, an image made up of a collection of a plurality of sub-images is hereinafter referred to as a “light field image”.
Thus, the light field image is generated not only by the conventional main lens but also by light incident through the microlens array. For this reason, the light field image has not only two-dimensional spatial information that was also included in the conventional captured image, but also from the image sensor as information that was not included in the conventional captured image. Thus, it has two-dimensional direction information indicating from which direction the light ray has arrived.

そこで、プレノプティックカメラは、このような2次元の方向情報を利用して、ライトフィールド画像の撮像後に、当該ライトフィールド画像のデータを用いて、撮像時に任意の距離だけ前方に離間していた面の像を再構成することができる。
換言すると、プレノプティックカメラは、所定距離で焦点をあわせずにライトフィールド画像を撮像した場合であっても、その撮像後に、当該ライトフィールド画像のデータを用いることで、当該所定距離で合焦して撮像したような画像(以下、「再構成画像」と呼ぶ)のデータを自在に作り出すことができる。
Therefore, the plenoptic camera uses such two-dimensional direction information, and after the light field image is captured, the light field image data is used to separate the light field image forward by an arbitrary distance. The image of the surface can be reconstructed.
In other words, even if the plenoptic camera captures a light field image without focusing at a predetermined distance, the data of the light field image is used after the imaging to match the light field image. Data of an image that is captured in focus (hereinafter referred to as “reconstructed image”) can be freely created.

具体的には、プレノプティックカメラは、任意の距離にある面の1点を注目点に設定し、当該注目点からの光がメインレンズ及びマイクロレンズアレイを介して撮像素子内の何れの画素に分配されるのかを算出する。
ここで、例えば、撮像素子の各画素が、ライトフィールド画像を構成する各画素に対応しているならば、プレノプティックカメラは、ライトフィールド画像を構成する各画素のうち、当該注目点からの光が分配される1以上の画素の画素値を積分する。この積分値が、再構成画像における、注目点に対応する画素の画素値となる。このようにして、再構成画像における、注目点に対応する画素が再構成される。
プレノプティックカメラは、再構成画像を構成する各画素(任意の距離にある面の各点に対応する各画素)のそれぞれを注目点に順次設定して、上述の一連の処理を繰り返すことで、再構成画像のデータ(再構成画像の各画素の画素値の集合体)を再構成する。
Specifically, a plenoptic camera sets one point on a surface at an arbitrary distance as a point of interest, and light from the point of interest passes through a main lens and a microlens array in any of the image sensors. Calculate whether it is distributed to the pixels.
Here, for example, if each pixel of the imaging device corresponds to each pixel constituting the light field image, the plenoptic camera detects the pixel of interest from among the pixels constituting the light field image. Integrate the pixel values of one or more pixels to which the light is distributed. This integral value becomes the pixel value of the pixel corresponding to the target point in the reconstructed image. In this way, the pixel corresponding to the attention point in the reconstructed image is reconstructed.
The plenoptic camera sequentially sets each pixel (each pixel corresponding to each point on the surface at an arbitrary distance) constituting the reconstructed image as a point of interest, and repeats the above-described series of processing. Thus, the reconstructed image data (a collection of pixel values of each pixel of the reconstructed image) is reconstructed.

特表2009−532993号公報Special table 2009-532993

しかしながら、特許文献1に記載のプレノプティックカメラが量産された場合を考えると、メインレンズ、マイクロレンズアレイ、及び撮像素子を組み込む際に、製造誤差や組立誤差が発生することが想定される。
この場合、出荷後の複数のプレノプティックカメラの各々が被写体を撮像した場合を考えると、実際の撮像時に注目点からの光が分配された各画素の位置については、製造誤差や組立誤差により個体毎にズレが生ずる。一方で、注目点の画素を再構成するために画素値が積分される対象の各画素の位置としては、製造誤差や組立誤差が一切発生しない場合の理想的な各画素の位置が、個体差によらず一律に採用される。
即ち、複数のプレノプティックカメラのそれぞれにおいて、実際の撮像時に注目点からの光が分配された各画素の位置と、注目点の画素を再構成するために画素値が積分される対象の各画素の位置との間には、個体毎に異なったズレが生ずることになる。
このようなズレが生じると、正しい再構成画像のデータの生成が困難になる。
However, considering the case where the plenoptic camera described in Patent Document 1 is mass-produced, it is assumed that manufacturing errors and assembly errors occur when the main lens, the microlens array, and the image sensor are incorporated. .
In this case, considering the case where each of the plurality of plenoptic cameras after imaging captures the subject, the position of each pixel to which the light from the point of interest is distributed at the time of actual imaging is determined by manufacturing error or assembly error. Due to this, deviation occurs for each individual. On the other hand, as the position of each pixel whose pixel value is integrated in order to reconstruct the pixel of interest, the ideal position of each pixel when no manufacturing error or assembly error occurs is the individual difference. Regardless of whether it is adopted.
That is, in each of the plurality of plenoptic cameras, the position of each pixel to which the light from the attention point is distributed during actual imaging and the object whose pixel values are integrated to reconstruct the pixel of the attention point There is a difference between each pixel position for each individual.
When such a shift occurs, it becomes difficult to generate correct reconstructed image data.

本発明は、このような状況に鑑みてなされたものであり、個体差によらず再構成画像のデータを適切に生成可能となるように、プレノプティックカメラと呼ばれる撮像装置を製造することを目的とする。   The present invention has been made in view of such a situation, and manufactures an imaging device called a plenoptic camera so that reconstructed image data can be appropriately generated regardless of individual differences. With the goal.

上記目的を達成するため、本発明の一態様の撮像装置の製造装置は、
メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を光学系に備える撮像装置の製造装置であって、
平行光又は均等拡散光を前記撮像装置に照射する光源と、
平行光又は均等拡散光を照射している前記光源が前記撮像装置により撮像された結果得られる、前記複数のマイクロレンズの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを取得する画像取得部と、
平行光又は均等拡散光を照射している前記光源が理想的な撮像装置により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、前記理想的な撮像装置の前記光学系の設計値から求められるパラメータを、理想パラメータとして取得する理想パラメータ取得部と、
前記画像取得部により取得された前記ライトフィールド画像のデータ、及び、前記理想パラメータ取得部により取得された前記理想パラメータを用いて、前記撮像装置の製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を算出する誤差算出部と、
前記誤差算出部により算出された前記各誤差を示す情報、又は前記各誤差に基づいて生成される情報を、誤差情報として前記撮像装置に出力する誤差情報出力部と、
を備えることを特徴とする。
In order to achieve the above object, an apparatus for manufacturing an imaging device of one embodiment of the present invention includes:
An apparatus for manufacturing an imaging apparatus including a main lens, a microlens array including a plurality of microlenses, and an imaging element in an optical system,
A light source for irradiating the imaging device with parallel light or uniform diffused light;
Light field image data consisting of a collection of a plurality of sub-images generated by each of the plurality of microlenses, obtained as a result of the light source emitting parallel light or uniform diffused light being imaged by the imaging device An image acquisition unit for acquiring
Data of an ideal light field image obtained in advance as a result of the light source irradiating parallel light or uniform diffused light being previously imaged by an ideal imaging device, or the ideal imaging device An ideal parameter acquisition unit for acquiring, as an ideal parameter, a parameter obtained from the design value of the optical system;
Using the data of the light field image acquired by the image acquisition unit and the ideal parameter acquired by the ideal parameter acquisition unit, the position and parallelism of the microlens array generated at the time of manufacturing the imaging device An error calculation unit for calculating each error;
An error information output unit that outputs information indicating each error calculated by the error calculation unit or information generated based on each error to the imaging device as error information;
It is characterized by providing.

本発明によれば、個体差によらず再構成画像のデータを適切に生成可能となるように、プレノプティックカメラと呼ばれる撮像装置を製造することができる。   According to the present invention, an imaging device called a plenoptic camera can be manufactured so that reconstructed image data can be appropriately generated regardless of individual differences.

本発明の一実施形態に係る撮像装置の製造装置の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the manufacturing apparatus of the imaging device which concerns on one Embodiment of this invention. 図1の撮像装置の製造装置がキャリブレーション処理を実行する場合における、光源と撮像装置の光学系の位置関係を示す図である。It is a figure which shows the positional relationship of a light source and the optical system of an imaging device in case the manufacturing apparatus of the imaging device of FIG. 1 performs a calibration process. 図1の撮像装置の製造装置のうち制御装置の機能的構成例であって、キャリブレーション処理を行う機能を実現する機能的構成例を示す機能ブロック図である。It is a functional block diagram which is a functional structural example of a control apparatus among the manufacturing apparatuses of the imaging device of FIG. 1, and shows the functional structural example which implement | achieves the function which performs a calibration process. 図1の撮像装置の製造装置が実行するキャリブレーション処理の流れの一例を説明するフローチャートである。3 is a flowchart illustrating an example of a flow of calibration processing executed by the imaging device manufacturing apparatus in FIG. 1. キャリブレーション処理で求められる、マイクロレンズアレイのxy方向の誤差の算出手法の一例を説明する図である。It is a figure explaining an example of the calculation method of the error of the xy direction of a micro lens array calculated | required by a calibration process. キャリブレーション処理で求められる、マイクロレンズアレイのz方向の誤差の算出手法の一例を説明する図である。It is a figure explaining an example of the calculation method of the error of the z direction of a micro lens array calculated | required by a calibration process. キャリブレーション処理で求められる、各マイクロレンズのピッチ誤差の算出手法の一例を説明する図である。It is a figure explaining an example of the calculation method of the pitch error of each micro lens calculated | required by a calibration process. キャリブレーション処理で求められる、マイクロレンズアレイと撮像素子の平行度誤差の算出手法の一例を説明する図である。It is a figure explaining an example of the calculation method of the parallelism error of a micro lens array and an image sensor which are calculated | required by a calibration process. 図3の制御装置のハードウェアの構成例を示すブロック図である。It is a block diagram which shows the structural example of the hardware of the control apparatus of FIG. 図1の撮像装置の製造装置により製造された、本発明に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on this invention manufactured with the manufacturing apparatus of the imaging device of FIG. 図10の構成を有する撮像装置のうち、光学系の構成例を示す模式図である。It is a schematic diagram which shows the structural example of an optical system among the imaging devices which have a structure of FIG. 図10の撮像装置が実行する再構成処理の流れの一例を説明するフローチャートである。11 is a flowchart for explaining an example of a flow of reconstruction processing executed by the imaging apparatus in FIG. 10.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の撮像装置の製造装置の一実施形態に係るカメラ製造装置の構成例を示す模式図である。   FIG. 1 is a schematic diagram illustrating a configuration example of a camera manufacturing apparatus according to an embodiment of an imaging apparatus manufacturing apparatus of the present invention.

カメラ製造装置1は、撮像装置2の製造ラインのうち、組み立て後の撮像装置2の内蔵メモリに対して初期データ等を記録するラインに設置される。カメラ製造装置1は、後述するキャリブレーション処理を実行するために、光源11と、制御装置12と、を備えている。
撮像装置2は、このようなカメラ製造装置1により、プレノプティックカメラとして製造される。
The camera manufacturing apparatus 1 is installed in a line for recording initial data and the like in the built-in memory of the image pickup apparatus 2 after assembly, among the production lines of the image pickup apparatus 2. The camera manufacturing apparatus 1 includes a light source 11 and a control device 12 in order to execute a calibration process described later.
The imaging device 2 is manufactured as a plenoptic camera by such a camera manufacturing device 1.

図2は、カメラ製造装置1がキャリブレーション処理を実行する場合における、光源11と撮像装置2の光学系の位置関係を示す図である。   FIG. 2 is a diagram illustrating a positional relationship between the light source 11 and the optical system of the imaging device 2 when the camera manufacturing apparatus 1 executes a calibration process.

光源11は、撮像装置2に対して平行光を照射する平行光照射装置、及び、撮像装置2に対して均等拡散光を照射する均等拡散光照射装置から構成される。   The light source 11 includes a parallel light irradiation device that irradiates the imaging device 2 with parallel light, and a uniform diffused light irradiation device that irradiates the imaging device 2 with uniform diffusion light.

撮像装置2の光学系には、光源11からみて(被写体からみて)、メインレンズ21と、マイクロレンズアレイ22と、撮像素子23と、がその順番で配置されている。
マイクロレンズアレイ22においては、N個のマイクロレンズ22−1乃至22−Nの各々が規則的に連続して繰り返して配置されている。
In the optical system of the imaging device 2, a main lens 21, a microlens array 22, and an imaging element 23 are arranged in that order when viewed from the light source 11 (from the subject).
In the microlens array 22, each of the N microlenses 22-1 to 22-N is regularly and repeatedly arranged.

メインレンズ21は、光源11から射出された光束を集光して、マイクロレンズアレイ22の上に結像させる。   The main lens 21 condenses the light emitted from the light source 11 and forms an image on the microlens array 22.

マイクロレンズアレイ22内のマイクロレンズ22−i(iは、1乃至Nの範囲内の整数値)は、光源11からメインレンズ21を介して入射されてくる光束を入射方向毎に集光して、撮像素子23の上にサブイメージを結像させる。
即ち、撮像素子23においては、複数のマイクロレンズ22−1乃至22−Nの各々により複数のサブイメージが結像され、これらの複数のサブイメージの集合体であるライトフィールド画像が生成される。
The microlens 22-i (i is an integer value in the range of 1 to N) in the microlens array 22 condenses the light beam incident from the light source 11 through the main lens 21 for each incident direction. Then, a sub-image is formed on the image sensor 23.
That is, in the imaging device 23, a plurality of sub-images are formed by each of the plurality of microlenses 22-1 to 22-N, and a light field image that is an aggregate of the plurality of sub-images is generated.

撮像素子23は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。撮像素子23には、メインレンズ21からマイクロレンズアレイ22を介して被写体像(図2の例では、光源11の像)が入射される。そこで、撮像素子23は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号として図示せぬAFE(Analog Front End)に順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、ライトフィールド画像のデータとしてAFEから図示せぬCPU(Central Processing Unit)に適宜提供される。
The image sensor 23 is configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element. A subject image (in the example of FIG. 2, an image of the light source 11) is incident on the imaging element 23 via the microlens array 22 from the main lens 21. Therefore, the image sensor 23 photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal to an AFE (Analog Front End) (not shown) as an analog signal.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing, and is provided as appropriate to a CPU (Central Processing Unit) (not shown) from the AFE as light field image data.

ここで、撮像装置2が、一般的な被写体(図2の光源11以外)を撮像した場合に得られるライトフィールド画像のデータから、再構成画像のデータを生成する場合を考える。
この場合、撮像装置2は、上述したように、任意の距離にある面の1点を注目点に設定すると、当該注目点からの光がメインレンズ21及びマイクロレンズアレイ22を介して撮像素子23内の何れの画素に分配されるのかを算出する。
そして、撮像装置2は、分配された画素に対応する、ライトフィールド画像のデータ内の画素値を積分することにより、再構成画像のうち、注目点に対応する画素の画素値を推定演算する。
撮像装置2は、このような推定演算を再構成画像の各画素毎に実行することにより、再構成画像のデータを生成する。
Here, consider a case where the imaging device 2 generates reconstructed image data from light field image data obtained when a general subject (other than the light source 11 in FIG. 2) is imaged.
In this case, as described above, when the imaging device 2 sets one point on a surface at an arbitrary distance as a point of interest, light from the point of interest passes through the main lens 21 and the microlens array 22 and the image sensor 23. To which of the pixels is distributed.
Then, the imaging apparatus 2 estimates and calculates the pixel value of the pixel corresponding to the target point in the reconstructed image by integrating the pixel value in the data of the light field image corresponding to the distributed pixel.
The imaging device 2 generates data of the reconstructed image by executing such estimation calculation for each pixel of the reconstructed image.

しかしながら、このような再構成画像の各画素の推定演算(以下、「再構成の演算」と呼ぶ)においては、注目点からの光が、メインレンズ21及びマイクロレンズアレイ22を介して撮像素子23内の何れの画素に分配されるのかが正確に求められなければ、再構成画像にはノイズが現れてしまう。即ち、正しい再構成画像のデータの生成が困難になる。   However, in such an estimation calculation of each pixel of the reconstructed image (hereinafter referred to as “reconstruction calculation”), light from the point of interest passes through the main lens 21 and the microlens array 22 and the image sensor 23. If it is not accurately determined which of the pixels to be distributed, noise will appear in the reconstructed image. That is, it becomes difficult to generate correct reconstructed image data.

ここで、注目点からの光が、メインレンズ21及びマイクロレンズアレイ22を介して撮像素子23内の何れの画素に分配されるのかを求めるためには、次のパラメータ(A)乃至(J)が必要になる。
(A)メインレンズ21の焦点距離
(B)メインレンズ21の有効径
(C)各マイクロレンズ22−iの焦点距離
(D)各マイクロレンズ22−iの有効径
(E)撮像素子23の画素サイズ
(F)各マイクロレンズ22−iのピッチ
(G)メインレンズ21とマイクロレンズアレイ22の位置関係
(H)マイクロレンズアレイ22と撮像素子23の位置関係
(I)メインレンズ21とマイクロレンズアレイ22の平行度
(J)マイクロレンズアレイ22と撮像素子23の平行度
Here, the following parameters (A) to (J) are used to determine to which pixel in the image sensor 23 the light from the point of interest is distributed via the main lens 21 and the microlens array 22. Is required.
(A) Focal length of main lens 21 (B) Effective diameter of main lens 21 (C) Focal length of each micro lens 22-i (D) Effective diameter of each micro lens 22-i (E) Pixel of image sensor 23 Size (F) Pitch of each micro lens 22-i (G) Positional relationship between main lens 21 and microlens array 22 (H) Positional relationship between microlens array 22 and imaging element 23 (I) Main lens 21 and microlens array (J) Parallelism between the microlens array 22 and the image sensor 23

即ち、これらのパラメータ(A)乃至(J)が正確に求められないと、再構成の演算が正確に実行できず、その結果、正しい再構成画像のデータの生成が困難になる。
それゆえ、正しい再構成画像のデータの生成のためには、パラメータ(A)乃至(J)を正確に求める必要があり、そのためには、メインレンズ21、マイクロレンズアレイ22、及び撮像素子23の正確な位置合わせをすることが理想である。ところが、撮像装置2の製造時には、ある程度の製造誤差や取付誤差が生じてしまうが、これらの誤差を完全に無くすような位置合わせは非常に困難である。
そこで、本実施形態のカメラ製造装置1は、これらの誤差を求める処理(以下、「キャリブレーション処理」と呼ぶ)を実行し、その誤差等の情報を撮像装置2に初期データとして記録させる。
撮像装置2は、出荷後に再構成の演算をする際に、この初期データを用いて適切に補正することで、上述のパラメータ(A)乃至(J)の値をほぼ正確に求めることができ、その結果、正確な再構成画像のデータを生成することができる。
That is, unless these parameters (A) to (J) are accurately obtained, the reconstruction operation cannot be performed accurately, and as a result, it is difficult to generate correct reconstructed image data.
Therefore, in order to generate correct reconstructed image data, it is necessary to accurately determine the parameters (A) to (J). For this purpose, the main lens 21, the microlens array 22, and the image pickup device 23 need to be determined. Ideally, the alignment should be accurate. However, a certain amount of manufacturing error or mounting error occurs during the manufacturing of the image pickup apparatus 2, but it is very difficult to perform alignment so as to completely eliminate these errors.
Therefore, the camera manufacturing apparatus 1 of the present embodiment executes a process for obtaining these errors (hereinafter referred to as “calibration process”), and causes the imaging apparatus 2 to record information such as the errors as initial data.
The imaging device 2 can obtain the values of the above parameters (A) to (J) almost accurately by appropriately correcting using the initial data when performing reconstruction calculation after shipment, As a result, accurate reconstructed image data can be generated.

さらに以下、本実施形態のカメラ製造装置1が実行するキャリブレーション処理について、さらに詳しく説明する。   Further, the calibration process executed by the camera manufacturing apparatus 1 of the present embodiment will be described in further detail below.

上述のパラメータ(A)乃至(J)のうち、製造時に誤差が生じる可能性の高いものは、パラメータ(F)乃至(J)ある。
ここで、撮像装置2の光学系において、メインレンズ21の光軸と平行な方向をz軸と、当該光軸と垂直な方向のうち撮像素子23の上方向の軸をx軸と、当該光軸と垂直な方向のうち撮像素子23の右方向の軸をy軸と、それぞれ定義するものとする。
このような定義の下、パラメータ(F)乃至(J)のうち、パラメータ(G)におけるz方向の誤差は、メインレンズ21とマイクロレンズアレイ22の間の距離に比較し無視できるほど小さいものであるとする。
また、パラメータ(I)及び(J)に関しては、メインレンズ21と撮像素子23とは平行に取り付けられてあると仮定して、パラメータ(J)のみに注目するものとする。
また、パラメータ(H)については、メインレンズ21の光軸に対して垂直なxy方向と、当該光軸に対して平行なz方向とに分けて考えるものとする。
Among the parameters (A) to (J) described above, parameters (F) to (J) are likely to cause errors during manufacturing.
Here, in the optical system of the imaging device 2, the direction parallel to the optical axis of the main lens 21 is the z axis, and the upper axis of the imaging element 23 in the direction perpendicular to the optical axis is the x axis. Of the directions perpendicular to the axis, the right axis of the image sensor 23 is defined as the y axis.
Under such a definition, among the parameters (F) to (J), the error in the z direction in the parameter (G) is small enough to be ignored compared to the distance between the main lens 21 and the microlens array 22. Suppose there is.
Regarding parameters (I) and (J), it is assumed that the main lens 21 and the image sensor 23 are attached in parallel, and attention is paid only to the parameter (J).
Further, the parameter (H) is considered separately for the xy direction perpendicular to the optical axis of the main lens 21 and the z direction parallel to the optical axis.

以上より、本実施形態のキャリブレーション処理では、次の誤差(a)乃至(d)が算出されるものとする。
(a)マイクロレンズアレイ22のxy方向の誤差
(b)マイクロレンズアレイ22のz方向の誤差
(c)各マイクロレンズ22−iのピッチ誤差(各マイクロレンズ22−iのxy方向誤差)
(d)マイクロレンズアレイ22と撮像素子23の平行度誤差(各マイクロレンズ22−iのz方向誤差)
From the above, it is assumed that the following errors (a) to (d) are calculated in the calibration process of the present embodiment.
(A) Error in the xy direction of the micro lens array 22 (b) Error in the z direction of the micro lens array 22 (c) Pitch error of each micro lens 22-i (error in the xy direction of each micro lens 22-i)
(D) Parallelism error between the microlens array 22 and the image sensor 23 (z direction error of each microlens 22-i)

図3は、このような誤差(a)乃至(d)を算出するキャリブレーション処理の実行機能を発揮するための、図1の制御装置12の機能的構成例を示す機能ブロック図である。   FIG. 3 is a functional block diagram showing a functional configuration example of the control device 12 of FIG. 1 for exhibiting the execution function of the calibration process for calculating such errors (a) to (d).

制御装置12は、操作部31と、通信部32と、キャリブレーション部33と、を備えている。   The control device 12 includes an operation unit 31, a communication unit 32, and a calibration unit 33.

操作部31は、各種釦等で構成され、オペレータの指示操作を受け付ける。
通信部32は、撮像装置2との間で行う通信を制御する。通信部32はまた、インターネット等を介して図示せぬ他の装置との間で行う通信を制御する。
キャリブレーション部33は、画像取得部41と、理想パラメータ取得部42と、誤差算出部43と、誤差情報出力部44と、を備えている。
The operation unit 31 includes various buttons and receives an instruction operation from the operator.
The communication unit 32 controls communication performed with the imaging device 2. The communication unit 32 also controls communication with other devices (not shown) via the Internet or the like.
The calibration unit 33 includes an image acquisition unit 41, an ideal parameter acquisition unit 42, an error calculation unit 43, and an error information output unit 44.

画像取得部41は、通信部32を介して、平行光又は均等拡散光を照射している光源11を撮像装置2に撮像させる制御を実行し、その制御の結果得られるライトフィールド画像のデータを、キャリブレーション画像のデータとして撮像装置2から取得する。   The image acquisition unit 41 executes control for causing the imaging device 2 to image the light source 11 that is radiating parallel light or uniform diffused light via the communication unit 32, and outputs light field image data obtained as a result of the control. Then, it is acquired from the imaging device 2 as calibration image data.

理想パラメータ取得部42は、平行光又は均等拡散光を照射している光源11が理想的な撮像装置(撮像装置2とは別に用意される)により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、理想的な撮像装置の光学系の各値(設計値でもよい)から求められるパラメータを、理想パラメータとして取得する。
理想的な撮像装置の光学系の各値としては、上述のパラメータ(A)乃至(J)の理想的な値、又はこれらの理想的な値を用いた所定の演算により算出可能な各種の値を採用することができる。
なお、理想パラメータの具体例については、図5乃至図8等を参照して後述する。
The ideal parameter acquisition unit 42 is obtained in advance as a result of imaging the light source 11 irradiating parallel light or uniform diffused light in advance by an ideal imaging device (prepared separately from the imaging device 2). A parameter obtained from data of a typical light field image or each value (may be a design value) of an optical system of an ideal imaging device is acquired as an ideal parameter.
As each value of the optical system of the ideal image pickup apparatus, ideal values of the parameters (A) to (J) described above, or various values that can be calculated by a predetermined calculation using these ideal values. Can be adopted.
A specific example of the ideal parameter will be described later with reference to FIGS.

誤差算出部43は、画像取得部41により取得されたキャリブレーション画像のデータと、理想パラメータ取得部42により取得された理想パラメータとに基づいて、上述の誤差(a)乃至(d)を算出する。
なお、誤差(a)乃至(d)の具体的な算出手法については、図5乃至図8等を参照して後述する。
The error calculation unit 43 calculates the errors (a) to (d) described above based on the calibration image data acquired by the image acquisition unit 41 and the ideal parameters acquired by the ideal parameter acquisition unit 42. .
A specific method for calculating the errors (a) to (d) will be described later with reference to FIGS.

誤差情報出力部44は、誤差算出部43により算出された誤差(a)乃至(d)を示す情報、又はこれらの誤差(a)乃至(d)の少なくとも一部を用いて生成される情報を、誤差情報として、通信部32を介して撮像装置2に出力する。
撮像装置2は、当該誤差情報を内部メモリに記憶し、再構成の演算時に補正情報として適宜用いる。
The error information output unit 44 includes information indicating the errors (a) to (d) calculated by the error calculation unit 43 or information generated using at least a part of these errors (a) to (d). The error information is output to the imaging device 2 via the communication unit 32.
The imaging device 2 stores the error information in an internal memory, and uses it as correction information as appropriate when calculating reconstruction.

次に、このような図3の制御装置12を含むカメラ製造装置1が実行する処理のうち、キャリブレーション処理の流れについて説明する。
図4は、図1の撮像装置の製造装置が実行するキャリブレーション処理の流れの一例を説明するフローチャートである。
Next, the flow of the calibration process among the processes executed by the camera manufacturing apparatus 1 including the control device 12 of FIG. 3 will be described.
FIG. 4 is a flowchart illustrating an example of the flow of calibration processing executed by the imaging device manufacturing apparatus of FIG.

キャリブレーション処理は、例えば、カメラ製造装置1を構成する光源11及び制御装置12の各電源が投入され、組み立てられた撮像装置2が、光源11に対して所定の位置に配置され、かつ、制御装置12と通信可能な状態になると、開始される。   In the calibration process, for example, each power source of the light source 11 and the control device 12 constituting the camera manufacturing apparatus 1 is turned on, and the assembled imaging device 2 is arranged at a predetermined position with respect to the light source 11 and is controlled. The process is started when communication with the device 12 is possible.

ステップS1において、カメラ製造装置1は、準備処理を実行する。
具体的には、カメラ製造装置1は、準備処理の1つとして、光源11として平行光照射装置を選択し、当該平行光照射装置の光軸を、撮像装置2のメインレンズ21の光軸と一致させる。
なお、本実施形態では、カメラ製造装置1には、光源11と撮像装置2のうち少なくとも一方を移動させる移動機構(図示せず)が設けられている。当該移動機構が、光源11と撮像装置2のうち少なくとも一方を移動させることにより、光源11とメインレンズ21との各光軸の一致が実現される。ただし、カメラ製造装置1のオペレータが、光源11と撮像装置2のうち少なくとも一方を手動で移動させることで、光源11とメインレンズ21との各光軸を一致させるようにしてもよい。
また、カメラ製造装置1は、準備処理の1つとして、光源11としての平行光照射装置から平行光を撮像装置2に対して照射させる。
In step S1, the camera manufacturing apparatus 1 executes a preparation process.
Specifically, as one of the preparation processes, the camera manufacturing apparatus 1 selects a parallel light irradiation device as the light source 11, and uses the optical axis of the parallel light irradiation device as the optical axis of the main lens 21 of the imaging device 2. Match.
In the present embodiment, the camera manufacturing apparatus 1 is provided with a moving mechanism (not shown) that moves at least one of the light source 11 and the imaging apparatus 2. When the moving mechanism moves at least one of the light source 11 and the imaging device 2, the optical axes of the light source 11 and the main lens 21 coincide with each other. However, the operator of the camera manufacturing apparatus 1 may cause the optical axes of the light source 11 and the main lens 21 to coincide with each other by manually moving at least one of the light source 11 and the imaging device 2.
Moreover, the camera manufacturing apparatus 1 irradiates the imaging device 2 with parallel light from a parallel light irradiation device as the light source 11 as one of the preparation processes.

ステップS2において、制御装置12の画像取得部41は、平行光の光源11についてのライトフィールド画像のデータを取得する。
即ち、画像取得部41は、通信部32を介して、平行光を照射している光源11を撮像装置2に撮像させ、その結果得られるライトフィールド画像のデータをキャリブレーション画像のデータとして撮像装置2から取得する。
In step S <b> 2, the image acquisition unit 41 of the control device 12 acquires light field image data for the parallel light source 11.
That is, the image acquisition unit 41 causes the imaging device 2 to image the light source 11 that emits the parallel light via the communication unit 32, and uses the resulting light field image data as calibration image data. Get from 2.

ステップS3において、制御装置12の誤差算出部43は、誤差(a)、即ちマイクロレンズアレイ22のxy方向の誤差を算出する。
具体的には、誤差算出部43は、ステップS2の処理でデータとして取得されたキャリブレーション画像のサブイメージの中心についての、理想的なライトフィールド画像の中心に対する誤差を、誤差(a)として算出する。
なお、誤差(a)の算出処理のさらなる詳細については、図5を参照して後述する。
In step S <b> 3, the error calculation unit 43 of the control device 12 calculates the error (a), that is, the error in the xy direction of the microlens array 22.
Specifically, the error calculation unit 43 calculates, as an error (a), an error with respect to the center of the ideal light field image with respect to the center of the sub-image of the calibration image acquired as data in the process of step S2. To do.
Further details of the error (a) calculation process will be described later with reference to FIG.

ステップS4において、制御装置12の誤差算出部43は、誤差(b)、即ちマイクロレンズアレイ22のz方向の誤差を算出する。
具体的には、誤差算出部43は、ステップS2の処理でデータとして取得されたキャリブレーション画像内のサブイメージの直径を算出する。次に、誤差算出部43は、その直径に基づいて、マイクロレンズアレイ22と撮像素子23との間の距離の、マイクロレンズ22−iの焦点距離に対するズレを、誤差(b)として算出する。
なお、誤差(b)の算出処理のさらなる詳細については、図6を参照して後述する。
In step S4, the error calculation unit 43 of the control device 12 calculates the error (b), that is, the error in the z direction of the microlens array 22.
Specifically, the error calculation unit 43 calculates the diameter of the sub image in the calibration image acquired as data in the process of step S2. Next, the error calculation unit 43 calculates a deviation of the distance between the microlens array 22 and the image sensor 23 from the focal length of the microlens 22-i as an error (b) based on the diameter.
Further details of the error (b) calculation process will be described later with reference to FIG.

ステップS5において、カメラ製造装置1は、光源11として均等拡散光照射装置に切り替えて、均等拡散光を撮像装置2に対して照射させる。   In step S <b> 5, the camera manufacturing apparatus 1 switches to the uniform diffused light irradiation apparatus as the light source 11 and irradiates the imaging apparatus 2 with the uniform diffused light.

ステップS6において、制御装置12の画像取得部41は、均等拡散光の光源11についてのライトフィールド画像のデータを取得する。
即ち、画像取得部41は、通信部32を介して、均等拡散光を照射している均等拡散光照射装置を撮像装置2に撮像させ、その結果得られるライトフィールド画像のデータをキャリブレーション画像のデータとして撮像装置2から取得する。
In step S <b> 6, the image acquisition unit 41 of the control device 12 acquires light field image data for the uniformly diffused light source 11.
That is, the image acquisition unit 41 causes the imaging device 2 to image the uniform diffused light irradiation device that emits the uniform diffused light via the communication unit 32, and obtains the data of the light field image obtained as a result of the calibration image. It is acquired from the imaging device 2 as data.

ステップS7において、制御装置12の誤差算出部43は、誤差(c)、即ち各マイクロレンズ22−iのピッチ誤差(各マイクロレンズ22−iのxy方向誤差)を算出する。
具体的には、誤差算出部43は、ステップS6の処理でデータとして取得されたキャリブレーション画像内の各サブイメージの中心位置についての、理想的なライトフィールド画像内の各サブイメージの中心位置に対するズレを、誤差(c)として求める。
即ち、誤差算出部43は、キャリブレーション画像と理想的なライトフィールド画像との各々のサブイメージの中心位置を比較する。誤差算出部43は、その比較の結果に基づいて、個々のマイクロレンズ22−iの配置についての、理想的な配置に対するズレを、誤差(c)として算出する。
なお、誤差(c)の算出処理のさらなる詳細については、図7を参照して後述する。
In step S7, the error calculation unit 43 of the control device 12 calculates the error (c), that is, the pitch error of each microlens 22-i (the xy direction error of each microlens 22-i).
Specifically, the error calculation unit 43 compares the center position of each sub-image in the calibration image acquired as data in the process of step S6 with respect to the center position of each sub-image in the ideal light field image. The deviation is determined as error (c).
That is, the error calculation unit 43 compares the center positions of the sub-images of the calibration image and the ideal light field image. Based on the result of the comparison, the error calculation unit 43 calculates a deviation of the arrangement of the individual microlenses 22-i from the ideal arrangement as an error (c).
Further details of the error (c) calculation process will be described later with reference to FIG.

ステップS8において、制御装置12の誤差算出部43は、誤差(d)、即ちマイクロレンズアレイ22と撮像素子23の平行度誤差(各マイクロレンズ22−iのz方向誤差)を算出する。
具体的には、誤差算出部43は、各々のマイクロレンズ22−iと撮像素子23との間の距離の誤差を、誤差(d)とみなして算出する。
即ち、誤差算出部43は、ステップS6の処理でデータとして取得されたキャリブレーション画像内の各サブイメージの各直径を算出する。誤差算出部43は、これらの各直径に基づいて、各マイクロレンズ22−iと撮像素子23との間の距離についての、マイクロレンズ22−iの焦点距離からのズレを、誤差(d)として算出する。
なお、誤差(d)の算出処理のさらなる詳細については、図8を参照して後述する。
In step S8, the error calculation unit 43 of the control device 12 calculates an error (d), that is, a parallelism error between the microlens array 22 and the image sensor 23 (z direction error of each microlens 22-i).
Specifically, the error calculation unit 43 calculates the error of the distance between each micro lens 22-i and the image sensor 23 as an error (d).
That is, the error calculation unit 43 calculates each diameter of each sub-image in the calibration image acquired as data in the process of step S6. Based on each of these diameters, the error calculation unit 43 uses, as an error (d), a deviation from the focal length of the microlens 22-i with respect to the distance between each microlens 22-i and the image sensor 23. calculate.
Further details of the error (d) calculation process will be described later with reference to FIG.

ステップS9において、制御装置12の誤差情報出力部44は、誤差算出部43により算出された誤差(a)乃至(d)を示す情報、又はこれらの誤差(a)乃至(d)の少なくとも一部を用いて生成された情報を、誤差情報として、通信部32を介して撮像装置2に出力する。   In step S9, the error information output unit 44 of the control device 12 includes information indicating the errors (a) to (d) calculated by the error calculation unit 43, or at least a part of these errors (a) to (d). The information generated using is output to the imaging apparatus 2 via the communication unit 32 as error information.

これにより、キャリブレーション処理は終了となる。
なお、撮像装置2は、誤差情報を内部メモリに記憶し、再構成の演算時に適宜用いる。
This completes the calibration process.
Note that the imaging device 2 stores error information in an internal memory and uses it appropriately when performing reconstruction.

次に、図5乃至図8を参照して、キャリブレーション処理で求められる誤差(a)乃至(d)の各々についての、具体的な算出手法の各例を説明する。   Next, with reference to FIGS. 5 to 8, examples of specific calculation methods for each of the errors (a) to (d) obtained in the calibration process will be described.

図5は、キャリブレーション処理で求められる誤差(a)、即ちマイクロレンズアレイ22のxy方向の誤差の算出手法の一例を説明する図である。
具体的には、図5(a)においては、その左方に、誤差(a)が生じない場合における、即ち理想的な状態における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像された理想的なライトフィールド画像(正確には後述する2値化画像)の一例が示されている。
図5(b)においては、その左方に、誤差(a)が生じる場合における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像されたライトフィールド画像、即ちキャリブレーション画像(正確には後述する2値化画像)の一例が示されている。
FIG. 5 is a diagram for explaining an example of a method for calculating the error (a) obtained in the calibration process, that is, the error in the xy direction of the microlens array 22.
Specifically, in FIG. 5A, the optical system of the imaging apparatus 2 in the case where the error (a) does not occur, that is, in an ideal state, is shown on the left side, and on the right side, An example of an ideal light field image (to be precise, a binarized image described later) captured by the imaging device 2 is shown.
In FIG. 5 (b), the optical system of the imaging device 2 when the error (a) occurs is shown on the left side, and the light field image captured by the imaging device 2, that is, calibration is shown on the right side. An example of a motion image (to be precise, a binarized image described later) is shown.

上述したように、誤差(a)は、図4のキャリブレーション処理のうちステップS3の処理として実行される。
具体的には例えば、次のステップS3−1乃至S3−4に従って、誤差(a)が算出される。
As described above, the error (a) is executed as the process of step S3 in the calibration process of FIG.
Specifically, for example, the error (a) is calculated according to the following steps S3-1 to S3-4.

即ち、ステップS3−1において、誤差算出部43は、ステップS2の処理で取得されたライトフィールド画像(キャリブレーション画像)のデータを、2値化画像のデータに変換する。
2値化画像のデータとは、ライトフィールド画像のデータのうち、所定条件(例えば閾値以上)を満たす画素値については、画素値が「1」に変換され(白い画素に変換され)、それ以外の画素値(例えば閾値未満の画素値)については、画素値が「0」に変換された(黒い画素に変換された)ものをいう。
That is, in step S3-1, the error calculation unit 43 converts the light field image (calibration image) data acquired in the process of step S2 into binarized image data.
The binarized image data is a pixel value that satisfies a predetermined condition (for example, a threshold value or more) in the light field image data, the pixel value is converted to “1” (converted to a white pixel), and the others The pixel value (for example, a pixel value less than a threshold value) is a pixel value converted to “0” (converted to a black pixel).

ステップS3−2において、誤差算出部43は、2値化画像のデータを用いて、白領域(画素値が1の画素の領域)を、サブイメージ領域として抽出する。   In step S <b> 3-2, the error calculation unit 43 extracts a white area (a pixel area having a pixel value of 1) as a sub-image area using the binarized image data.

ステップS3−3において、誤差算出部43は、抽出したサブイメージ領域の重心を算出し、その重心を、キャリブレーション画像のサブイメージの中心位置(x,y)として設定する。   In step S3-3, the error calculation unit 43 calculates the center of gravity of the extracted sub-image region, and sets the center of gravity as the center position (x, y) of the sub-image of the calibration image.

ステップS3−4において、誤差算出部43は、キャリブレーション画像のサブイメージの中心位置(x,y)についての、理想的なライトフィールド画像の中心位置(xc,yc)に対する誤差を、誤差(a)として算出する。
即ち、誤差(a)を(ArrErrorX,ArrErrorY)と記載すれば、ステップS3−4の処理では、次の式(1)及び式(2)が演算される。
ArrErrorX = x − xc ・・・(1)
ArrErrorY = y − yc ・・・(2)
なお、理想的なライトフィールド画像は、図5(a)のように予め撮像されている。その結果、当該理想的なライトフィールド画像の中心位置(xc,yc)も事前に理想パラメータの1つとして登録されており、ステップS3−4の処理前に理想パラメータ取得部42によって取得される。
In step S3-4, the error calculation unit 43 calculates an error with respect to the center position (xc, yc) of the ideal light field image with respect to the center position (x, y) of the sub-image of the calibration image. ).
That is, if the error (a) is described as (ArrErrorX, ArrErrorY), the following expressions (1) and (2) are calculated in the process of step S3-4.
ArrErrorX = x − xc (1)
ArrErrorY = y − yc (2)
Note that an ideal light field image is captured in advance as shown in FIG. As a result, the center position (xc, yc) of the ideal light field image is also registered in advance as one of the ideal parameters, and is acquired by the ideal parameter acquisition unit 42 before the process of step S3-4.

図6は、キャリブレーション処理で求められる誤差(b)、即ちマイクロレンズアレイ22のz方向の誤差の算出手法の一例を説明する図である。
具体的には、図6(a)においては、その左方に、誤差(b)が生じない場合における、即ち理想的な状態における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像された理想的なライトフィールド画像(正確には後述する2値化画像)の一例が示されている。
図6(b)においては、その左方に、誤差(b)が生じる場合における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像されたライトフィールド画像、即ちキャリブレーション画像(正確には後述する2値化画像)の一例が示されている。
FIG. 6 is a diagram for explaining an example of a method for calculating the error (b) obtained in the calibration process, that is, the error in the z direction of the microlens array 22.
Specifically, in FIG. 6A, the optical system of the imaging apparatus 2 in the case where the error (b) does not occur, that is, in an ideal state, is shown on the left side. An example of an ideal light field image (to be precise, a binarized image described later) captured by the imaging device 2 is shown.
In FIG. 6B, the optical system of the imaging device 2 when the error (b) occurs is shown on the left side, and the light field image captured by the imaging device 2, that is, the calibration is shown on the right side. An example of a motion image (to be precise, a binarized image described later) is shown.

上述したように、誤差(b)は、図4のキャリブレーション処理のうちステップS4の処理として実行される。
具体的には例えば、次のステップS4−1乃至S4−3に従って、誤差(b)が算出される。
As described above, the error (b) is executed as the process of step S4 in the calibration process of FIG.
Specifically, for example, the error (b) is calculated according to the following steps S4-1 to S4-3.

即ち、ステップS4−1において、誤差算出部43は、上述のステップS3−2の処理で抽出したサブイメージ領域と、上述のステップS3−3の処理で演算したキャリブレーション画像のサブイメージの中心位置(x,y)とを取得する。   That is, in step S4-1, the error calculation unit 43 determines the center position of the sub-image area extracted in the process of step S3-2 and the sub-image of the calibration image calculated in the process of step S3-3. Get (x, y).

ステップS4−2において、誤差算出部43は、取得したサブイメージ領域及びキャリブレーション画像のサブイメージの中心位置(x,y)に基づいて、キャリブレーション画像のサブイメージの直径Dsub(図6(b)参照)を算出する。   In step S4-2, the error calculation unit 43 calculates the diameter Dsub of the sub-image of the calibration image based on the acquired sub-image area and the center position (x, y) of the sub-image of the calibration image (FIG. 6B). )) Is calculated.

ステップS4−3において、誤差算出部43は、次の式(3)から、誤差(b)を求める。
Dsub = DML * (fμL + ArrErrorZ) / fML ・・・(3)
式(3)において、図6(b)に示すように、DMLはメインレンズ21の直径を、fμLはマイクロレンズ22−iの焦点距離を、ArrErrorZは誤差(b)、即ちマイクロレンズアレイ22のz方向の誤差を、fMLはメインレンズ21の焦点距離を、それぞれ示している。
なお、メインレンズ21の直径DML、マイクロレンズ22−iの焦点距離fμL、及びメインレンズ21の焦点距離fMLの各々は、事前に理想パラメータの1つとして登録されており、ステップS4−3の処理前に理想パラメータ取得部42によって取得される。
In step S4-3, the error calculation unit 43 obtains the error (b) from the following equation (3).
Dsub = DML * (fμL + ArrErrorZ) / fML (3)
In Expression (3), as shown in FIG. 6B, DML is the diameter of the main lens 21, fμL is the focal length of the microlens 22-i, and ArrErrorZ is the error (b), that is, the microlens array 22. The error in the z direction and fML indicate the focal length of the main lens 21, respectively.
Each of the diameter DML of the main lens 21, the focal length fμL of the microlens 22-i, and the focal length fML of the main lens 21 is registered in advance as one of the ideal parameters, and the process of step S4-3 is performed. It is acquired by the ideal parameter acquisition unit 42 before.

図7は、キャリブレーション処理で求められる誤差(c)、即ち各マイクロレンズ22−iのピッチ誤差(各マイクロレンズ22−iのxy方向誤差)の算出手法の一例を説明する図である。
具体的には、図7(a)においては、その左方に、誤差(c)が生じない場合における、即ち理想的な状態における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像された理想的なライトフィールド画像(正確には後述する2値化画像)の一例が示されている。
図7(b)においては、その左方に、誤差(c)が生じる場合における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像されたライトフィールド画像、即ちキャリブレーション画像(正確には後述する2値化画像)の一例が示されている。
FIG. 7 is a diagram for explaining an example of a calculation method of the error (c) obtained by the calibration process, that is, the pitch error of each microlens 22-i (the xy direction error of each microlens 22-i).
Specifically, in FIG. 7A, the optical system of the imaging apparatus 2 in the case where the error (c) does not occur, that is, in an ideal state is shown on the left side, and on the right side, An example of an ideal light field image (to be precise, a binarized image described later) captured by the imaging device 2 is shown.
In FIG. 7B, the optical system of the imaging device 2 when the error (c) occurs is shown on the left side, and the light field image captured by the imaging device 2, that is, calibration is shown on the right side. An example of a motion image (to be precise, a binarized image described later) is shown.

上述したように、誤差(c)は、図4のキャリブレーション処理のうちステップS7の処理として実行される。
具体的には例えば、次のステップS7−1乃至S7−4に従って、誤差(c)が算出される。
As described above, the error (c) is executed as the process of step S7 in the calibration process of FIG.
Specifically, for example, the error (c) is calculated according to the following steps S7-1 to S7-4.

即ち、ステップS7−1において、誤差算出部43は、ステップS6の処理で取得されたライトフィールド画像(キャリブレーション画像)のデータを、2値化画像のデータに変換する。   That is, in step S7-1, the error calculation unit 43 converts the light field image (calibration image) data acquired in the process of step S6 into binary image data.

ステップS7−2において、誤差算出部43は、2値化画像のデータを用いて、各白領域(画素値が1の画素の領域)を、各サブイメージ領域としてそれぞれ抽出する。   In step S <b> 7-2, the error calculation unit 43 extracts each white area (a pixel area having a pixel value of 1) as each sub-image area using the binarized image data.

ステップS7−3において、誤差算出部43は、抽出した各サブイメージ領域毎に、各々の重心を算出し、各重心の各々を、各サブイメージの中心位置(xi,yi)の各々として設定する。   In step S <b> 7-3, the error calculation unit 43 calculates the centroid for each extracted sub-image region, and sets each centroid as the center position (xi, yi) of each sub-image. .

ステップS7−4において、誤差算出部43は、キャリブレーション画像の各サブイメージの中心位置(xi,yi)のそれぞれについての、理想的なライトフィールド画像の各サブイメージの中心位置(xbasei、ybasei)に対する誤差を、誤差(c)として算出する。
即ち、誤差(c)を(LensErrorXi,LensErrorYi)と記載すれば、ステップS7−4の処理では、次の式(4)及び式(5)が演算される。
LensErrorXi = xi − xbasei ・・・(4)
LensErrorYi = yi − ybasei ・・・(5)
なお、理想的なライトフィールド画像は図7(a)のように予め撮像されている。その結果、当該理想的なライトフィールド画像の各サブイメージの中心位置(xbasei、ybasei)のそれぞれも事前に理想パラメータの1つとして登録されており、ステップS7−4の処理前に理想パラメータ取得部42によって取得される。
In step S7-4, the error calculator 43 determines the center position (xbasei, ybasei) of each sub-image of the ideal light field image for each center position (xi, yi) of each sub-image of the calibration image. Is calculated as error (c).
That is, if the error (c) is described as (LensErrorXi, LensErrorYi), the following expressions (4) and (5) are calculated in the process of step S7-4.
LensErrorXi = xi − xbasei (4)
LensErrorYi = yi − ybasei (5)
Note that an ideal light field image is captured in advance as shown in FIG. As a result, the center position (xbasei, ybasei) of each sub-image of the ideal light field image is also registered in advance as one of the ideal parameters, and the ideal parameter acquisition unit before the processing of step S7-4 42.

図8は、キャリブレーション処理で求められる誤差(d)、即ちマイクロレンズアレイ22と撮像素子23の平行度誤差(各マイクロレンズ22−iのz方向誤差)の算出手法の一例を説明する図である。
具体的には、図8(a)においては、その左方に、誤差(d)が生じない場合における、即ち理想的な状態における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像された理想的なライトフィールド画像(正確には後述する2値化画像)の一例が示されている。
図8(b)においては、その左方に、誤差(d)が生じる場合における撮像装置2の光学系が示され、その右方に、当該撮像装置2により撮像されたライトフィールド画像、即ちキャリブレーション画像(正確には後述する2値化画像)の一例が示されている。
FIG. 8 is a diagram for explaining an example of a method for calculating an error (d) obtained in the calibration process, that is, a parallelism error between the microlens array 22 and the image sensor 23 (z direction error of each microlens 22-i). is there.
Specifically, in FIG. 8A, the optical system of the imaging apparatus 2 in the case where the error (d) does not occur, that is, in an ideal state, is shown on the left side, and on the right side, An example of an ideal light field image (to be precise, a binarized image described later) captured by the imaging device 2 is shown.
In FIG. 8B, the optical system of the imaging apparatus 2 when the error (d) occurs is shown on the left side, and the light field image captured by the imaging apparatus 2 on the right side, that is, calibration. An example of a motion image (to be precise, a binarized image described later) is shown.

上述したように、誤差(d)は、図4のキャリブレーション処理のうちステップS8の処理として実行される。
具体的には例えば、次のステップS8−1乃至S8−3に従って、誤差(d)が算出される。
As described above, the error (d) is executed as the process of step S8 in the calibration process of FIG.
Specifically, for example, the error (d) is calculated according to the following steps S8-1 to S8-3.

即ち、ステップS8−1において、誤差算出部43は、上述のステップS7−2の処理で抽出した各サブイメージの領域と、上述のステップS7−3の処理で演算した各サブイメージの中心位置(xi,yi)とを取得する。   That is, in step S8-1, the error calculation unit 43 determines the area of each sub-image extracted in the process of step S7-2 and the center position of each sub-image calculated in the process of step S7-3 ( xi, yi).

ステップS8−2において、誤差算出部43は、サブイメージ領域及びそれに対応するサブイメージの中心位置(xi,yi)の組毎に、キャリブレーション画像についての、対応するサブイメージの直径Dsubi(図8(b)参照)をそれぞれ算出する。   In step S8-2, the error calculation unit 43 sets the corresponding sub-image diameter Dsubi (FIG. 8) for each set of the sub-image area and the center position (xi, yi) of the corresponding sub-image. (See (b)).

ステップS8−3において、誤差算出部43は、次の式(6)から、各サブイメージ毎に誤差(d)を求める。
Dsubi = DML * (fμL + zi) / fML ・・・(6)
式(6)において、図8(b)に示すように、DMLはメインレンズ21の直径を、fμLはマイクロレンズ22−iの焦点距離を、ziは各マイクロレンズ22−i毎の誤差(d)、即ち各マイクロレンズ22−iのz方向誤差を、fMLはメインレンズ21の焦点距離を、それぞれ示している。
なお、上述したように、メインレンズ21の直径DML、マイクロレンズ22−iの焦点距離fμL、及びメインレンズ21の焦点距離fMLの各々は、事前に理想パラメータの1つとして登録されており、ステップS8−3の処理前に理想パラメータ取得部42によって取得される。
In step S8-3, the error calculation unit 43 obtains an error (d) for each sub-image from the following equation (6).
Dsubi = DML * (fμL + zi) / fML (6)
In Expression (6), as shown in FIG. 8B, DML is the diameter of the main lens 21, fμL is the focal length of the microlens 22-i, and zi is an error (d for each microlens 22-i. ), I.e., the z-direction error of each microlens 22-i, and fML indicates the focal length of the main lens 21.
As described above, each of the diameter DML of the main lens 21, the focal length fμL of the microlens 22-i, and the focal length fML of the main lens 21 is registered in advance as one of the ideal parameters. It is acquired by the ideal parameter acquisition unit 42 before the process of S8-3.

以上説明したように、本実施形態に係るカメラ製造装置1は、メインレンズ21、複数のマイクロレンズ22−iからなるマイクロレンズアレイ22、及び撮像素子23を光学系に備える撮像装置2を製造する。
カメラ製造装置1は、平行光又は均等拡散光を撮像装置2に照射する光源11と、制御装置12と、を備える。制御装置12は、画像取得部41と、理想パラメータ取得部42と、誤差算出部43と、誤差情報出力部44と、を備える。
画像取得部41は、平行光又は均等拡散光を照射している光源11が撮像装置2により撮像された結果得られる、複数のマイクロレンズ22−iの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを、キャリブレーション画像のデータとして取得する。
理想パラメータ取得部42は、平行光又は均等拡散光を照射している光源11が理想的な撮像装置(製造対象の撮像装置2とは別に用意される)により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、理想的な撮像装置の光学系の設計値から求められるパラメータを、理想パラメータとして取得する。
誤差算出部43は、画像取得部41により取得されたキャリブレーション画像のデータ、及び、理想パラメータ取得部42により取得された理想パラメータを用いて、撮像装置2の製造時に生ずるマイクロレンズアレイ22の位置及び平行度の各誤差、即ち上述の誤差(a),(b),(d)を算出する。
誤差算出部43は、さらに、キャリブレーション画像のデータ及び理想パラメータを用いて、複数のマイクロレンズ22−iの個々のピッチの誤差、即ち上述の誤差(c)を算出する。
誤差情報出力部44は、誤差算出部43により算出された誤差(a)乃至(d)を示す情報、又はこれらの誤差に基づいて生成される情報を、誤差情報として撮像装置2に出力する(上述の図4のステップS9参照)。
As described above, the camera manufacturing apparatus 1 according to this embodiment manufactures the imaging apparatus 2 including the main lens 21, the microlens array 22 including the plurality of microlenses 22-i, and the imaging element 23 in the optical system. .
The camera manufacturing apparatus 1 includes a light source 11 that irradiates the imaging apparatus 2 with parallel light or uniform diffused light, and a control device 12. The control device 12 includes an image acquisition unit 41, an ideal parameter acquisition unit 42, an error calculation unit 43, and an error information output unit 44.
The image acquisition unit 41 is a set of a plurality of sub-images generated by each of the plurality of microlenses 22-i obtained as a result of the light source 11 irradiating parallel light or uniform diffused light being imaged by the imaging device 2. Data of a light field image composed of a body is acquired as calibration image data.
The ideal parameter acquisition unit 42 is obtained in advance as a result of imaging the light source 11 irradiating parallel light or uniform diffused light in advance by an ideal imaging device (prepared separately from the imaging device 2 to be manufactured). An ideal light field image data or a parameter obtained from an ideal design value of the optical system of the imaging apparatus is acquired as an ideal parameter.
The error calculation unit 43 uses the calibration image data acquired by the image acquisition unit 41 and the ideal parameter acquired by the ideal parameter acquisition unit 42 to generate the position of the microlens array 22 that is generated when the imaging device 2 is manufactured. And errors in parallelism, that is, the above errors (a), (b), and (d) are calculated.
The error calculation unit 43 further calculates an error of each pitch of the plurality of microlenses 22-i, that is, the error (c) described above, using the calibration image data and the ideal parameters.
The error information output unit 44 outputs information indicating the errors (a) to (d) calculated by the error calculation unit 43 or information generated based on these errors to the imaging device 2 as error information ( (See step S9 in FIG. 4 above).

図9は、上述した一連の処理をソフトウェアにより実行させる場合の、制御装置12のハードウェア構成を示すブロック図である。
制御装置12は、パーソナルコンピュータで構成されている。
FIG. 9 is a block diagram showing a hardware configuration of the control device 12 when the above-described series of processing is executed by software.
The control device 12 is composed of a personal computer.

制御装置12は、上述した操作部31及び通信部32に加えて、CPU101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、バス104と、入出力インターフェース105と、表示部106と、記憶部107と、ドライブ108と、を備えている。   In addition to the operation unit 31 and the communication unit 32 described above, the control device 12 includes a CPU 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a bus 104, an input / output interface 105, a display Unit 106, storage unit 107, and drive 108.

CPU101は、ROM102に記録されているプログラム、又は、記憶部107からRAM103にロードされたプログラムに従って各種の処理を実行する。
RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 101 executes various processes according to a program recorded in the ROM 102 or a program loaded from the storage unit 107 to the RAM 103.
The RAM 103 also appropriately stores data necessary for the CPU 101 to execute various processes.

例えば、上述した図3のキャリブレーション部33は、CPU101というハードウェアと、ROM102等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成することができる。   For example, the calibration unit 33 of FIG. 3 described above can be configured as a combination of hardware called the CPU 101 and a program (software) stored in the ROM 102 or the like.

CPU101、ROM102、及びRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インターフェース105も接続されている。入出力インターフェース105には、上述した操作部31及び通信部32の他、表示部106、記憶部107、及びドライブ108が接続されている。   The CPU 101, ROM 102, and RAM 103 are connected to each other via a bus 104. An input / output interface 105 is also connected to the bus 104. In addition to the operation unit 31 and the communication unit 32 described above, a display unit 106, a storage unit 107, and a drive 108 are connected to the input / output interface 105.

表示部106は、液晶ディスプレイ等で構成され、上述のキャリブレーション処理の実行中に、オペレータが操作するGUI(Graphical User Interface)画像等を表示する。   The display unit 106 is configured by a liquid crystal display or the like, and displays a GUI (Graphical User Interface) image or the like operated by the operator during the above-described calibration processing.

記憶部107は、ハードディスク等で構成され、各種パラメータのデータ等を記憶する。また、記憶部107は、各種情報処理に必要な各種データ、例えば、画像のデータ、各種フラグの値、閾値等も記憶する。   The storage unit 107 is composed of a hard disk or the like, and stores data of various parameters. The storage unit 107 also stores various data necessary for various types of information processing, such as image data, various flag values, threshold values, and the like.

ドライブ108には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア111が適宜装着される。ドライブ108によってリムーバブルメディア111から読み出されたコンピュータプログラムは、必要に応じて記憶部107等にインストールされる。   A removable medium 111 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 108. The computer program read from the removable medium 111 by the drive 108 is installed in the storage unit 107 or the like as necessary.

撮像装置2は、この誤差情報を初期データの1つとして内蔵メモリに記録する。その後、撮像装置2は、製品化に必要な各種処理等が施されて、出荷される。   The imaging device 2 records this error information as one of the initial data in the built-in memory. Thereafter, the imaging device 2 is subjected to various processes necessary for commercialization and shipped.

図10は、撮像装置の製造装置により製造されて出荷された後の、本発明に係る撮像装置のハードウェアの構成を示すブロック図である。   FIG. 10 is a block diagram showing a hardware configuration of the imaging apparatus according to the present invention after being manufactured and shipped by the imaging apparatus manufacturing apparatus.

撮像装置2は、CPU201と、ROM202と、RAM203と、バス204と、入出力インターフェース205と、撮像部206と、入力部207と、出力部208と、記憶部209と、通信部210と、ドライブ211と、を備えている。   The imaging apparatus 2 includes a CPU 201, a ROM 202, a RAM 203, a bus 204, an input / output interface 205, an imaging unit 206, an input unit 207, an output unit 208, a storage unit 209, a communication unit 210, and a drive. 211.

CPU201は、ROM202に記録されているプログラム、又は、記憶部209からRAM203にロードされたプログラムに従って各種の処理を実行する。
ROM202にはまた、撮像装置の製造装置1から出力された誤差情報が記憶されている。
The CPU 201 executes various processes according to a program recorded in the ROM 202 or a program loaded from the storage unit 209 to the RAM 203.
The ROM 202 also stores error information output from the imaging device manufacturing apparatus 1.

RAM203には、CPU201が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 203 appropriately stores data necessary for the CPU 201 to execute various processes.

CPU201、ROM202、及びRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インターフェース205も接続されている。入出力インターフェース205には、撮像部206、入力部207、出力部208、記憶部209、通信部210及びドライブ211が接続されている。   The CPU 201, ROM 202, and RAM 203 are connected to each other via a bus 204. An input / output interface 205 is also connected to the bus 204. An imaging unit 206, an input unit 207, an output unit 208, a storage unit 209, a communication unit 210, and a drive 211 are connected to the input / output interface 205.

撮像部206は、メインレンズ21と、マイクロレンズアレイ22と、撮像素子23と、を備えている。なお、撮像部206のさらなる詳細については、図11を参照して後述する。   The imaging unit 206 includes a main lens 21, a microlens array 22, and an imaging element 23. Further details of the imaging unit 206 will be described later with reference to FIG.

入力部207は、図示せぬシャッタ釦等の各種釦により構成され、ユーザの指示操作に応じた各種情報を入力する。
出力部208は、モニタやスピーカ等により構成され、各種画像や各種音声を出力する。
記憶部209は、ハードディスクやDRAM(Dynamic Random Memory)等で構成され、ライトフィールド画像や再構成画像等、各種画像のデータを記憶する。
通信部210は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 207 is configured with various buttons such as a shutter button (not shown), and inputs various information according to a user's instruction operation.
The output unit 208 includes a monitor, a speaker, and the like, and outputs various images and various sounds.
The storage unit 209 is configured by a hard disk, a DRAM (Dynamic Random Memory), or the like, and stores data of various images such as a light field image and a reconstructed image.
The communication unit 210 controls communication performed with other devices (not shown) via a network including the Internet.

ドライブ211には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア221が適宜装着される。ドライブ211によってリムーバブルメディア221から読み出されたプログラムは、必要に応じて記憶部209にインストールされる。また、リムーバブルメディア221は、記憶部209に記憶されている画像のデータ等の各種データも、記憶部209と同様に記憶することができる。   A removable medium 221 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 211. The program read from the removable medium 221 by the drive 211 is installed in the storage unit 209 as necessary. The removable medium 221 can also store various data such as image data stored in the storage unit 209 in the same manner as the storage unit 209.

図11は、このような図10の構成を有する撮像装置のうち、光学系の構成例を示す模式図である。   FIG. 11 is a schematic diagram illustrating a configuration example of an optical system in the imaging apparatus having the configuration illustrated in FIG.

撮像装置2の光学系においては、被写体たる物体面obからみて、メインレンズ21と、マイクロレンズアレイ22と、撮像素子23と、がその順番で配置されている。
マイクロレンズアレイ22においては、N個(Nは2以上の任意の整数値)のマイクロレンズ22−1乃至22−Nの各々が規則的に連続して繰り返して配置されている。
In the optical system of the imaging device 2, the main lens 21, the microlens array 22, and the imaging element 23 are arranged in that order when viewed from the object plane ob that is a subject.
In the microlens array 22, each of N (N is an arbitrary integer value of 2 or more) microlenses 22-1 to 22-N is regularly and continuously arranged.

メインレンズ21は、光源から射出された光束を集光して、所定の面Maに結像させ、マイクロレンズアレイ22に入射させる。なお、以下、メインレンズ21により結像される面Maを、「メインレンズ結像面Ma」と呼ぶ。   The main lens 21 condenses the light beam emitted from the light source, forms an image on a predetermined surface Ma, and enters the microlens array 22. Hereinafter, the surface Ma imaged by the main lens 21 is referred to as a “main lens imaging surface Ma”.

マイクロレンズアレイ22内のマイクロレンズ22−i(iは、1乃至Nの範囲内の整数値)は、物体面obからメインレンズ21を介して入射されてくる光束を入射方向毎に集光して、撮像素子23の上にサブイメージを結像させる。
即ち、撮像素子23においては、複数のマイクロレンズ22−1乃至22−Nの各々により複数のサブイメージが結像され、これらの複数のサブイメージの集合体であるライトフィールド画像が生成される。
The microlenses 22-i (i is an integer value in the range of 1 to N) in the microlens array 22 condenses light beams incident from the object plane ob via the main lens 21 in each incident direction. Thus, a sub-image is formed on the image sensor 23.
That is, in the imaging device 23, a plurality of sub-images are formed by each of the plurality of microlenses 22-1 to 22-N, and a light field image that is an aggregate of the plurality of sub-images is generated.

ここで、撮像装置2が、物体面obを撮像した結果得られるライトフィールド画像のデータから、再構成画像のデータを生成する場合を考える。
この場合、撮像装置2は、任意の距離にある面の1点を注目点に設定すると、当該注目点からの光がメインレンズ21及びマイクロレンズアレイ22を介して撮像素子23内の何れの画素に分配されるのかを算出する。なお、以下、再構成対象の面、即ち、注目点が設定される面を、「再構成面」と呼ぶ
そして、撮像装置2は、分配された画素に対応する、ライトフィールド画像のデータ内の画素値を積分することにより、再構成画像のうち、注目点に対応する画素の画素値を推定演算する。
撮像装置2は、このような推定演算を、再構成画像の各画素毎に実行することにより、再構成画像のデータを生成する。
なお、このようにして撮像装置2が再構成画像のデータを生成するまでの処理を、以下、「再構成処理」と呼ぶ。
Here, consider a case where the imaging device 2 generates reconstructed image data from light field image data obtained as a result of imaging the object plane ob.
In this case, when the imaging device 2 sets one point on a surface at an arbitrary distance as a point of interest, light from the point of interest passes through the main lens 21 and the microlens array 22 and any pixel in the image sensor 23. To be distributed. Hereinafter, the surface to be reconstructed, that is, the surface on which the attention point is set is referred to as a “reconstruction surface”. Then, the imaging device 2 corresponds to the distributed pixels in the light field image data. By integrating the pixel value, the pixel value of the pixel corresponding to the target point in the reconstructed image is estimated and calculated.
The imaging device 2 generates data of the reconstructed image by executing such estimation calculation for each pixel of the reconstructed image.
The processing until the imaging device 2 generates the reconstructed image data in this way is hereinafter referred to as “reconstruction processing”.

図12は、図10の撮像装置が実行する再構成処理の流れを説明するフローチャートである。
なお、撮像装置2は、再構成処理の前に、被写体を撮像して、その結果得られるライトフィールド画像のデータを記憶部209等に記憶しているものとする。また、撮像装置2の出荷時に、図1の撮像装置の製造装置から出力された誤差情報はROM202に記憶されているものとする。
FIG. 12 is a flowchart for explaining the flow of reconstruction processing executed by the imaging apparatus of FIG.
It is assumed that the imaging device 2 images a subject and stores light field image data obtained as a result in the storage unit 209 or the like before reconstruction processing. Further, it is assumed that error information output from the imaging device manufacturing apparatus of FIG. 1 is stored in the ROM 202 when the imaging device 2 is shipped.

ステップS21において、撮像装置2のCPU201は、ライトフィールド画像のデータを記憶部209等から取得する。
ステップS22において、CPU201は、誤差情報を補正情報としてROM202から取得する。
ステップS23において、CPU201は、撮像装置2のメインレンズ21の前方の所定距離の位置にある面を、再構成面として設定する。
In step S21, the CPU 201 of the imaging apparatus 2 acquires light field image data from the storage unit 209 or the like.
In step S22, the CPU 201 acquires error information from the ROM 202 as correction information.
In step S <b> 23, the CPU 201 sets a surface at a predetermined distance in front of the main lens 21 of the imaging device 2 as a reconstruction surface.

ステップS24において、CPU201は、再構成面の1点を、再構成注目画素に設定する。
ステップS25において、CPU201は、ステップS22の処理で取得した補正情報を考慮して、分配画素範囲を算出する。分配画素範囲とは、再構成注目画素からの光がメインレンズ21及びマイクロレンズアレイ22を介して分配される、撮像素子23内の画素の範囲、即ちライトフィールド画像内の画素の範囲である。即ち、当該分配画素範囲が補正情報を考慮して求められることにより、上述のパラメータ(A)乃至(J)の値がほぼ正確に求められ、その結果、適切な分配画素範囲が算出される。
ステップS26において、CPU201は、分配画素範囲内の各画素の画素値を積分する。
ステップS27において、CPU201は、ステップS26の処理の結果得られる積分値を、再構成注目画素の画素値に設定する。
In step S24, the CPU 201 sets one point on the reconstruction plane as a reconstruction target pixel.
In step S25, the CPU 201 calculates the distribution pixel range in consideration of the correction information acquired in the process of step S22. The distribution pixel range is a pixel range in the image sensor 23 to which light from the reconstructed pixel of interest is distributed via the main lens 21 and the microlens array 22, that is, a pixel range in the light field image. That is, by obtaining the distribution pixel range in consideration of the correction information, the values of the parameters (A) to (J) described above are obtained almost accurately, and as a result, an appropriate distribution pixel range is calculated.
In step S26, the CPU 201 integrates the pixel values of the respective pixels within the distribution pixel range.
In step S27, the CPU 201 sets the integral value obtained as a result of the process in step S26 to the pixel value of the reconstructed pixel of interest.

ステップS28において、CPU201は、再構成面の全点が再構成注目画素に設定されたか否かを判定する。
再構成面の各点のうち再構成注目画素に未だ設定されていない点が存在する場合、ステップS28においてNOであると判定されて、処理はステップS24に戻され、それ以降の処理が繰り返される。即ち、再構成面の各点が再構成注目画素に順次設定され、その都度、ステップS24乃至S28のループ処理が繰り返し実行されて、再構成注目画素の画素値が設定される。
このようにして、再構成面の各点に対応する各画素の画素値がそれぞれ設定されることによって、再構成画像のデータが生成される。これにより、ステップS28においてYESであると判定されて、処理はステップS29に進む。
ステップS29において、CPU201は、再構成画像を出力部208から表示出力する。
これにより、再構成処理は終了となる。
このようにして、撮像装置2は、再構成処理により再構成画像のデータを生成する場合、誤差情報を内蔵メモリから読み出して補正情報として用いる。
これにより、ライトフィールド画像のデータから、正確な再フォーカス画像のデータを再構成することが容易に可能になる。
換言すると、再フォーカス画像のデータの再構成時には、個々の撮像装置2毎に異なる製造誤差や取付誤差は吸収されてしまうので、撮像装置2の光学系の位置決めを必要以上に精度よく行うことが不要、即ち、製造時の精度誤差をある程度許容できるようになる。その結果、撮像装置2を容易かつ短時間に、ひいては低コストで製造することが可能になる。
In step S <b> 28, the CPU 201 determines whether all points on the reconstruction plane have been set as reconstruction target pixels.
If there is a point that has not yet been set as the reconstructed target pixel among the points on the reconstructed surface, it is determined as NO in step S28, the process returns to step S24, and the subsequent processes are repeated. . That is, each point on the reconstruction plane is sequentially set as a reconstructed target pixel, and each time the loop processing of steps S24 to S28 is repeatedly performed, the pixel value of the reconstructed target pixel is set.
In this manner, the pixel value of each pixel corresponding to each point on the reconstruction plane is set, thereby generating reconstruction image data. Thereby, it determines with it being YES in step S28, and a process progresses to step S29.
In step S <b> 29, the CPU 201 displays and outputs the reconstructed image from the output unit 208.
As a result, the reconstruction process ends.
In this way, when the image capturing apparatus 2 generates reconstructed image data by reconstruction processing, the error information is read from the built-in memory and used as correction information.
This makes it possible to easily reconstruct accurate refocused image data from light field image data.
In other words, when reconstructing the refocused image data, manufacturing errors and mounting errors that are different for each imaging device 2 are absorbed, so that the optical system of the imaging device 2 can be positioned more accurately than necessary. Unnecessary, that is, accuracy errors during manufacturing can be tolerated to some extent. As a result, it is possible to manufacture the imaging device 2 easily and in a short time, and at low cost.

なお、本発明は上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

例えば、上述の実施形態では、誤差算出部43は、誤差(a)乃至(d)の組み合わせを算出したが、特にこれらの組み合わせに限定されず、誤差(a)乃至(d)のうちの任意の数の任意の組み合わせ、例えば、誤差(a),(b),(d)の組み合わせを算出するようにしてもよい。
この場合、誤差(a),(b),(d)の組み合わせ等だけを採用しても、正確な再フォーカス画像のデータを再構成することが容易に可能になるという効果を奏することはできる。もっとも、本実施形態のように誤差(a)乃至(d)の全てを採用した方が、当該効果はより顕著なものとなる。
或いは、誤差算出部43は、誤差(a)乃至(d)以外の誤差であって、上述のパラメータ(A)乃至(J)に起因する誤差を、誤差(a)乃至(d)と共に又はそれらとは別に算出するようにしてもよい。
For example, in the above-described embodiment, the error calculation unit 43 calculates a combination of the errors (a) to (d). However, the error calculation unit 43 is not particularly limited to these combinations, and any error among the errors (a) to (d). For example, a combination of errors (a), (b), and (d) may be calculated.
In this case, even if only the combination of the errors (a), (b), and (d) is employed, it is possible to achieve an effect that it is possible to easily reconstruct accurate refocused image data. . However, the effect becomes more remarkable when all of the errors (a) to (d) are adopted as in the present embodiment.
Alternatively, the error calculation unit 43 is an error other than the errors (a) to (d), and causes the error due to the parameters (A) to (J) described above together with the errors (a) to (d) or those It may be calculated separately.

また例えば、上述の実施形態では、キャリブレーション処理は、撮像装置2が出荷される前の工場等に配置される、撮像装置の製造装置によって実行されたが、上述の光源11を用意することが可能な環境であれば、撮像装置2の出荷後に実行するようにしてもよい。
この場合、誤差算出部43は、出荷後の撮像装置2の使用に伴う誤差等も算出することが可能になる。その結果、撮像装置2を長年使用し続けても、ライトフィールド画像のデータから、正確な再フォーカス画像のデータを再構成することが容易に可能になる。
この場合、制御装置12は、撮像装置2と通信可能で、上述のキャリブレーション処理を実行可能な構成を有していれば足り、後述の図9のパーソナルコンピュータの他、携帯電話機、ポータブルゲーム機等に幅広く適用可能である。
さらに、撮像装置2自体に、制御装置12の機能を備えさせるようにしてもよい。
Further, for example, in the above-described embodiment, the calibration process is performed by the imaging device manufacturing apparatus disposed in a factory or the like before the imaging device 2 is shipped, but the above-described light source 11 may be prepared. If possible, it may be executed after the imaging device 2 is shipped.
In this case, the error calculation unit 43 can also calculate an error associated with the use of the imaging device 2 after shipment. As a result, it is possible to easily reconstruct accurate refocused image data from light field image data even if the imaging device 2 has been used for many years.
In this case, it is sufficient that the control device 12 has a configuration capable of communicating with the imaging device 2 and capable of executing the above-described calibration process. In addition to the personal computer shown in FIG. Etc. can be widely applied.
Furthermore, the imaging device 2 itself may be provided with the function of the control device 12.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。   By the way, the above-described series of processes can be executed by hardware or can be executed by software.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図9のリムーバブルメディア111又は図10のリムーバブルメディア221により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図9のROM102又は図10のROM202や、図9の記憶部107又は図10の記憶部209に含まれるハードディスク等で構成される。   The recording medium including such a program is not only configured by the removable medium 111 in FIG. 9 or the removable medium 221 in FIG. 10 distributed separately from the apparatus main body in order to provide the program to the user, but also in the apparatus main body. It is composed of a recording medium or the like provided to the user in a preinstalled state. The removable medium is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. The recording medium provided to the user in a state of being incorporated in the apparatus main body in advance is, for example, the ROM 102 in FIG. 9 or the ROM 202 in FIG. 10 in which the program is recorded, the storage unit 107 in FIG. 9 or the storage in FIG. The hard disk included in the unit 209 is configured.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を光学系に備える撮像装置の製造装置であって、
平行光又は均等拡散光を前記撮像装置に照射する光源と、
平行光又は均等拡散光を照射している前記光源が前記撮像装置により撮像された結果得られる、前記複数のマイクロレンズの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを取得する画像取得部と、
平行光又は均等拡散光を照射している前記光源が理想的な撮像装置により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、前記理想的な撮像装置の前記光学系の設計値から求められるパラメータを、理想パラメータとして取得する理想パラメータ取得部と、
前記画像取得部により取得された前記ライトフィールド画像のデータ、及び、前記理想パラメータ取得部により取得された前記理想パラメータを用いて、前記撮像装置の製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を算出する誤差算出部と、
前記誤差算出部により算出された前記各誤差を示す情報、又は前記各誤差に基づいて生成される情報を、誤差情報として前記撮像装置に出力する誤差情報出力部と、
を備えることを特徴とする撮像装置の製造装置。
[付記2]
前記誤差算出部は、さらに、前記ライトフィールド画像のデータ及び前記理想パラメータを用いて、前記複数のマイクロレンズの個々のピッチの誤差を算出する、
付記1に記載の撮像装置の製造装置。
[付記3]
メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を光学系に備える撮像装置の製造装置であって、
平行光又は均等拡散光を前記撮像装置に照射する光源を備える撮像装置の製造装置が実行する製造方法において、
前記光源が、平行光又は均等拡散光を前記撮像装置に照射させた状態で、前記撮像装置に前記光源を撮像させる撮像ステップと、
前記撮像ステップにおいて前記撮像装置の撮像の結果得られた、前記複数のマイクロレンズの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを取得する画像取得ステップと、
前記平行光又は均等拡散光を照射している前記光源が理想的な撮像装置により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、前記理想的な撮像装置の前記光学系の設計値から求められるパラメータを、理想パラメータとして取得する理想パラメータ取得ステップと、
前記画像取得ステップにおいて取得された前記ライトフィールド画像のデータ、及び、前記理想パラメータ取得ステップにおいて取得された前記理想パラメータを用いて、前記撮像装置の製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を算出する誤差算出ステップと、
前記誤差算出ステップにおいて算出された前記各誤差を示す情報、又は前記各誤差に基づいて生成される情報を、誤差情報として前記撮像装置に出力する誤差情報出力ステップと、
を含むことを特徴とする撮像装置の製造方法。
[付記4]
メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を光学系に備える撮像装置の製造装置であって、平行光又は均等拡散光を前記撮像装置に照射する光源を備える撮像装置の製造装置を制御するコンピュータに、
平行光又は均等拡散光を照射している前記光源が前記撮像装置により撮像された結果得られる、前記複数のマイクロレンズの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを取得する画像取得機能、
平行光又は均等拡散光を照射している前記光源が理想的な撮像装置により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、前記理想的な撮像装置の前記光学系の設計値から求められるパラメータを、理想パラメータとして取得する理想パラメータ取得機能、
前記画像取得機能により取得された前記ライトフィールド画像のデータ、及び、前記理想パラメータ取得機能により取得された前記理想パラメータを用いて、前記撮像装置の製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を算出する誤差算出機能、
前記誤差算出機能により算出された前記各誤差を示す情報、又は前記各誤差に基づいて生成される情報を、誤差情報として前記撮像装置に出力する誤差情報出力機能、
を実現させることを特徴とするプログラム。
[付記5] メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を含む光学系を有し、前記光学系により被写体を撮像して、その結果得られるライトフィールド画像のデータを出力する撮像手段と、
製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を示す誤差情報を予め記憶する記憶手段と、
前記撮像手段から出力された前記ライトフィールド画像のデータに基づいて、当該ライトフィールド画像が撮像された時点とは異なる位置で合焦したような再構成画像のデータを生成する制御を実行する制御手段と、
を備え、
前記制御手段は、前記記憶手段に記憶された前記誤差情報を補正情報として用いて、前記再構成画像のデータを生成する、
撮像装置。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
An apparatus for manufacturing an imaging apparatus including a main lens, a microlens array including a plurality of microlenses, and an imaging element in an optical system,
A light source for irradiating the imaging device with parallel light or uniform diffused light;
Light field image data consisting of a collection of a plurality of sub-images generated by each of the plurality of microlenses, obtained as a result of the light source emitting parallel light or uniform diffused light being imaged by the imaging device An image acquisition unit for acquiring
Data of an ideal light field image obtained in advance as a result of the light source irradiating parallel light or uniform diffused light being previously imaged by an ideal imaging device, or the ideal imaging device An ideal parameter acquisition unit for acquiring, as an ideal parameter, a parameter obtained from the design value of the optical system;
Using the data of the light field image acquired by the image acquisition unit and the ideal parameter acquired by the ideal parameter acquisition unit, the position and parallelism of the microlens array generated at the time of manufacturing the imaging device An error calculation unit for calculating each error;
An error information output unit that outputs information indicating each error calculated by the error calculation unit or information generated based on each error to the imaging device as error information;
An apparatus for manufacturing an imaging apparatus, comprising:
[Appendix 2]
The error calculation unit further calculates an error of each pitch of the plurality of microlenses using the data of the light field image and the ideal parameter.
The imaging apparatus manufacturing apparatus according to appendix 1.
[Appendix 3]
An apparatus for manufacturing an imaging apparatus including a main lens, a microlens array including a plurality of microlenses, and an imaging element in an optical system,
In a manufacturing method executed by a manufacturing apparatus for an imaging apparatus including a light source that irradiates the imaging apparatus with parallel light or uniform diffused light,
An imaging step of causing the imaging device to image the light source in a state where the imaging device is irradiated with parallel light or uniform diffused light,
An image acquisition step of acquiring light field image data composed of a collection of a plurality of sub-images generated by each of the plurality of microlenses obtained as a result of imaging by the imaging device in the imaging step;
Ideal light field image data obtained in advance as a result of pre-imaging the light source irradiating the parallel light or uniform diffused light by an ideal imaging device, or of the ideal imaging device An ideal parameter acquisition step of acquiring a parameter obtained from the design value of the optical system as an ideal parameter;
Using the data of the light field image acquired in the image acquisition step and the ideal parameter acquired in the ideal parameter acquisition step, the position and parallelism of the microlens array generated at the time of manufacturing the imaging device An error calculating step for calculating each error;
An error information output step of outputting information indicating each error calculated in the error calculation step or information generated based on each error to the imaging apparatus as error information;
A method for manufacturing an imaging apparatus, comprising:
[Appendix 4]
An apparatus for manufacturing an imaging apparatus including a main lens, a microlens array composed of a plurality of microlenses, and an imaging element in an optical system, the imaging apparatus including a light source that irradiates the imaging apparatus with parallel light or uniform diffused light To the computer that controls the device,
Light field image data consisting of a collection of a plurality of sub-images generated by each of the plurality of microlenses, obtained as a result of the light source emitting parallel light or uniform diffused light being imaged by the imaging device Image acquisition function,
Data of an ideal light field image obtained in advance as a result of the light source irradiating parallel light or uniform diffused light being previously imaged by an ideal imaging device, or the ideal imaging device Ideal parameter acquisition function that acquires the parameters obtained from the design values of the optical system as ideal parameters,
Using the data of the light field image acquired by the image acquisition function and the ideal parameter acquired by the ideal parameter acquisition function, the position and parallelism of the microlens array generated at the time of manufacturing the imaging device Error calculation function to calculate each error,
An error information output function for outputting, as error information, information indicating each error calculated by the error calculation function or information generated based on each error to the imaging apparatus;
A program characterized by realizing.
[Supplementary Note 5] An optical system including a main lens, a microlens array composed of a plurality of microlenses, and an imaging device, images a subject by the optical system, and outputs light field image data obtained as a result. Imaging means;
Storage means for preliminarily storing error information indicating each error in the position and parallelism of the microlens array generated at the time of manufacture;
Control means for executing control based on the light field image data output from the image pickup means to generate reconstructed image data that is in focus at a position different from the time when the light field image was picked up. When,
With
The control means generates data of the reconstructed image using the error information stored in the storage means as correction information.
Imaging device.

1・・・カメラ製造装置、2・・・撮像装置、11・・・光源、12・・・制御装置、21・・・メインレンズ、22・・・マイクロレンズアレイ、22−1乃至22−N・・・マイクロレンズ、23・・・撮像素子、31・・・操作部、32・・・通信部、33・・・キャリブレーション部、41・・・画像取得部、42・・・理想パラメータ取得部、43・・・誤差算出部、44・・・誤差情報出力部、101・・・CPU DESCRIPTION OF SYMBOLS 1 ... Camera manufacturing apparatus, 2 ... Imaging device, 11 ... Light source, 12 ... Control apparatus, 21 ... Main lens, 22 ... Micro lens array, 22-1 thru | or 22-N ... Microlens, 23 ... Image sensor, 31 ... Operation part, 32 ... Communication part, 33 ... Calibration part, 41 ... Image acquisition part, 42 ... Acquisition of ideal parameters Unit, 43 ... error calculation unit, 44 ... error information output unit, 101 ... CPU

Claims (5)

メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を光学系に備える撮像装置の製造装置であって、
平行光又は均等拡散光を前記撮像装置に照射する光源と、
平行光又は均等拡散光を照射している前記光源が前記撮像装置により撮像された結果得られる、前記複数のマイクロレンズの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを取得する画像取得部と、
平行光又は均等拡散光を照射している前記光源が理想的な撮像装置により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、前記理想的な撮像装置の前記光学系の設計値から求められるパラメータを、理想パラメータとして取得する理想パラメータ取得部と、
前記画像取得部により取得された前記ライトフィールド画像のデータ、及び、前記理想パラメータ取得部により取得された前記理想パラメータを用いて、前記撮像装置の製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を算出する誤差算出部と、
前記誤差算出部により算出された前記各誤差を示す情報、又は前記各誤差に基づいて生成される情報を、誤差情報として前記撮像装置に出力する誤差情報出力部と、
を備えることを特徴とする撮像装置の製造装置。
An apparatus for manufacturing an imaging apparatus including a main lens, a microlens array including a plurality of microlenses, and an imaging element in an optical system,
A light source for irradiating the imaging device with parallel light or uniform diffused light;
Light field image data consisting of a collection of a plurality of sub-images generated by each of the plurality of microlenses, obtained as a result of the light source emitting parallel light or uniform diffused light being imaged by the imaging device An image acquisition unit for acquiring
Data of an ideal light field image obtained in advance as a result of the light source irradiating parallel light or uniform diffused light being previously imaged by an ideal imaging device, or the ideal imaging device An ideal parameter acquisition unit for acquiring, as an ideal parameter, a parameter obtained from the design value of the optical system;
Using the data of the light field image acquired by the image acquisition unit and the ideal parameter acquired by the ideal parameter acquisition unit, the position and parallelism of the microlens array generated at the time of manufacturing the imaging device An error calculation unit for calculating each error;
An error information output unit that outputs information indicating each error calculated by the error calculation unit or information generated based on each error to the imaging device as error information;
An apparatus for manufacturing an imaging apparatus, comprising:
前記誤差算出部は、さらに、前記ライトフィールド画像のデータ及び前記理想パラメータを用いて、前記複数のマイクロレンズの個々のピッチの誤差を算出する、
請求項1に記載の撮像装置の製造装置。
The error calculation unit further calculates an error of each pitch of the plurality of microlenses using the data of the light field image and the ideal parameter.
The imaging device manufacturing apparatus according to claim 1.
メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を光学系に備える撮像装置の製造装置であって、
平行光又は均等拡散光を前記撮像装置に照射する光源を備える撮像装置の製造装置が実行する製造方法において、
前記光源が、平行光又は均等拡散光を前記撮像装置に照射させた状態で、前記撮像装置に前記光源を撮像させる撮像ステップと、
前記撮像ステップにおいて前記撮像装置の撮像の結果得られた、前記複数のマイクロレンズの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを取得する画像取得ステップと、
前記平行光又は均等拡散光を照射している前記光源が理想的な撮像装置により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、前記理想的な撮像装置の前記光学系の設計値から求められるパラメータを、理想パラメータとして取得する理想パラメータ取得ステップと、
前記画像取得ステップにおいて取得された前記ライトフィールド画像のデータ、及び、前記理想パラメータ取得ステップにおいて取得された前記理想パラメータを用いて、前記撮像装置の製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を算出する誤差算出ステップと、
前記誤差算出ステップにおいて算出された前記各誤差を示す情報、又は前記各誤差に基づいて生成される情報を、誤差情報として前記撮像装置に出力する誤差情報出力ステップと、
を含むことを特徴とする撮像装置の製造方法。
An apparatus for manufacturing an imaging apparatus including a main lens, a microlens array including a plurality of microlenses, and an imaging element in an optical system,
In a manufacturing method executed by a manufacturing apparatus for an imaging apparatus including a light source that irradiates the imaging apparatus with parallel light or uniform diffused light,
An imaging step of causing the imaging device to image the light source in a state where the imaging device is irradiated with parallel light or uniform diffused light,
An image acquisition step of acquiring light field image data composed of a collection of a plurality of sub-images generated by each of the plurality of microlenses obtained as a result of imaging by the imaging device in the imaging step;
Ideal light field image data obtained in advance as a result of pre-imaging the light source irradiating the parallel light or uniform diffused light by an ideal imaging device, or of the ideal imaging device An ideal parameter acquisition step of acquiring a parameter obtained from the design value of the optical system as an ideal parameter;
Using the data of the light field image acquired in the image acquisition step and the ideal parameter acquired in the ideal parameter acquisition step, the position and parallelism of the microlens array generated at the time of manufacturing the imaging device An error calculating step for calculating each error;
An error information output step of outputting information indicating each error calculated in the error calculation step or information generated based on each error to the imaging apparatus as error information;
A method for manufacturing an imaging apparatus, comprising:
メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を光学系に備える撮像装置の製造装置であって、平行光又は均等拡散光を前記撮像装置に照射する光源を備える撮像装置の製造装置を制御するコンピュータに、
平行光又は均等拡散光を照射している前記光源が前記撮像装置により撮像された結果得られる、前記複数のマイクロレンズの各々により生成される複数のサブイメージの集合体からなるライトフィールド画像のデータを取得する画像取得機能、
平行光又は均等拡散光を照射している前記光源が理想的な撮像装置により予め撮像された結果として予め得られている理想的なライトフィールド画像のデータ、又は、前記理想的な撮像装置の前記光学系の設計値から求められるパラメータを、理想パラメータとして取得する理想パラメータ取得機能、
前記画像取得機能により取得された前記ライトフィールド画像のデータ、及び、前記理想パラメータ取得機能により取得された前記理想パラメータを用いて、前記撮像装置の製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を算出する誤差算出機能、
前記誤差算出機能により算出された前記各誤差を示す情報、又は前記各誤差に基づいて生成される情報を、誤差情報として前記撮像装置に出力する誤差情報出力機能、
を実現させることを特徴とするプログラム。
An apparatus for manufacturing an imaging apparatus including a main lens, a microlens array composed of a plurality of microlenses, and an imaging element in an optical system, the imaging apparatus including a light source that irradiates the imaging apparatus with parallel light or uniform diffused light To the computer that controls the device,
Light field image data consisting of a collection of a plurality of sub-images generated by each of the plurality of microlenses, obtained as a result of the light source emitting parallel light or uniform diffused light being imaged by the imaging device Image acquisition function,
Data of an ideal light field image obtained in advance as a result of the light source irradiating parallel light or uniform diffused light being previously imaged by an ideal imaging device, or the ideal imaging device Ideal parameter acquisition function that acquires the parameters obtained from the design values of the optical system as ideal parameters,
Using the data of the light field image acquired by the image acquisition function and the ideal parameter acquired by the ideal parameter acquisition function, the position and parallelism of the microlens array generated at the time of manufacturing the imaging device Error calculation function to calculate each error,
An error information output function for outputting, as error information, information indicating each error calculated by the error calculation function or information generated based on each error to the imaging apparatus;
A program characterized by realizing.
メインレンズ、複数のマイクロレンズからなるマイクロレンズアレイ、及び撮像素子を含む光学系を有し、前記光学系により被写体を撮像して、その結果得られるライトフィールド画像のデータを出力する撮像手段と、
製造時に生ずる前記マイクロレンズアレイの位置及び平行度の各誤差を示す誤差情報を予め記憶する記憶手段と、
前記撮像手段から出力された前記ライトフィールド画像のデータに基づいて、当該ライトフィールド画像が撮像された時点とは異なる位置で合焦したような再構成画像のデータを生成する制御を実行する制御手段と、
を備え、
前記制御手段は、前記記憶手段に記憶された前記誤差情報を補正情報として用いて、前記再構成画像のデータを生成する、
撮像装置。
An imaging unit having an optical system including a main lens, a microlens array including a plurality of microlenses, and an imaging device, imaging a subject by the optical system, and outputting data of a light field image obtained as a result;
Storage means for preliminarily storing error information indicating each error in the position and parallelism of the microlens array generated at the time of manufacture;
Control means for executing control based on the light field image data output from the image pickup means to generate reconstructed image data that is in focus at a position different from the time when the light field image was picked up. When,
With
The control means generates data of the reconstructed image using the error information stored in the storage means as correction information.
Imaging device.
JP2011066665A 2011-03-24 2011-03-24 Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus Withdrawn JP2012205014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011066665A JP2012205014A (en) 2011-03-24 2011-03-24 Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011066665A JP2012205014A (en) 2011-03-24 2011-03-24 Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012205014A true JP2012205014A (en) 2012-10-22

Family

ID=47185526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011066665A Withdrawn JP2012205014A (en) 2011-03-24 2011-03-24 Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012205014A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58103282A (en) * 1981-12-16 1983-06-20 Hitachi Ltd Receiver of character graphic information
JP2012186764A (en) * 2011-03-08 2012-09-27 Toshiba Corp Solid-state imaging device and portable information terminal
JP2013081087A (en) * 2011-10-04 2013-05-02 Sony Corp Imaging device
JP2014106970A (en) * 2012-11-26 2014-06-09 Ricoh Co Ltd Plenoptic imaging system and calibration method
JP2015012519A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Imaging apparatus and method for controlling the same
JP2016103822A (en) * 2014-11-27 2016-06-02 トムソン ライセンシングThomson Licensing Plenoptic camera comprising light emitting device
JP2016129333A (en) * 2015-01-09 2016-07-14 株式会社リコー Object space calibration of plenoptic imaging system
JP2016174357A (en) * 2015-03-04 2016-09-29 株式会社リコー Calibration of plenoptic imaging system using fourier transform
JP2017032994A (en) * 2015-08-04 2017-02-09 トムソン ライセンシングThomson Licensing Plenoptic camera and method of controlling the same
US9596402B2 (en) 2013-09-19 2017-03-14 Kabushiki Kaisha Toshiba Microlens array for solid-state image sensing device, solid-state image sensing device, imaging device, and lens unit
EP3144889A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Method and system for calibrating an image acquisition device and corresponding computer program product

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58103282A (en) * 1981-12-16 1983-06-20 Hitachi Ltd Receiver of character graphic information
JP2012186764A (en) * 2011-03-08 2012-09-27 Toshiba Corp Solid-state imaging device and portable information terminal
US8681249B2 (en) 2011-03-08 2014-03-25 Kabushiki Kaisha Toshiba Solid-state imaging device and portable information terminal
JP2013081087A (en) * 2011-10-04 2013-05-02 Sony Corp Imaging device
JP2014106970A (en) * 2012-11-26 2014-06-09 Ricoh Co Ltd Plenoptic imaging system and calibration method
JP2015012519A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Imaging apparatus and method for controlling the same
US9596402B2 (en) 2013-09-19 2017-03-14 Kabushiki Kaisha Toshiba Microlens array for solid-state image sensing device, solid-state image sensing device, imaging device, and lens unit
JP2016103822A (en) * 2014-11-27 2016-06-02 トムソン ライセンシングThomson Licensing Plenoptic camera comprising light emitting device
JP2016129333A (en) * 2015-01-09 2016-07-14 株式会社リコー Object space calibration of plenoptic imaging system
CN105841810A (en) * 2015-01-09 2016-08-10 株式会社理光 Object space calibration of plenoptic imaging systems
US9544583B2 (en) 2015-01-09 2017-01-10 Ricoh Company, Ltd. Object space calibration of plenoptic imaging systems
US9918077B2 (en) 2015-01-09 2018-03-13 Ricoh Company, Ltd. Object space calibration of plenoptic imaging systems
JP2016174357A (en) * 2015-03-04 2016-09-29 株式会社リコー Calibration of plenoptic imaging system using fourier transform
JP2017032994A (en) * 2015-08-04 2017-02-09 トムソン ライセンシングThomson Licensing Plenoptic camera and method of controlling the same
EP3144889A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Method and system for calibrating an image acquisition device and corresponding computer program product
EP3144894A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Method and system for calibrating an image acquisition device and corresponding computer program product
US10319105B2 (en) 2015-09-17 2019-06-11 Interdigital Ce Patent Holdings Method and system for calibrating an image acquisition device and corresponding computer program product

Similar Documents

Publication Publication Date Title
JP2012205014A (en) Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus
JP6222908B2 (en) Image processing apparatus, method and program, and imaging apparatus having image processing apparatus
US9894252B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium for reducing noise of an image obtained by combining parallax images
US9516213B2 (en) Image processing apparatus, image capturing apparatus, and control method thereof
JP5913934B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus having image processing apparatus
JP6172978B2 (en) IMAGING DEVICE, IMAGING SYSTEM, SIGNAL PROCESSING DEVICE, PROGRAM, AND STORAGE MEDIUM
JP5459337B2 (en) Imaging apparatus, image processing method, and program
US10855903B2 (en) Image processing apparatus, image capturing apparatus, control method and recording medium
JP6047025B2 (en) Imaging apparatus and control method thereof
JP2012205111A (en) Imaging apparatus
JP2014153890A5 (en)
JP2009115541A (en) Distance measuring instrument and distance measuring method
JP2012015891A5 (en)
JP2014093646A (en) Optical instrument
JP2014155071A5 (en)
JP5360190B2 (en) Image processing apparatus, image processing method, and program
JP2015163915A (en) Image processor, imaging device, image processing method, program, and storage medium
JP2015211372A (en) Image generation device and image generation program
JP5354005B2 (en) Image processing apparatus, image processing method, and program
JP6566800B2 (en) Imaging apparatus and imaging method
JP5527491B2 (en) Image processing apparatus, image processing method, and program
JP2015084089A (en) Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit
JP6236664B2 (en) Image correction apparatus and computer program
JP6137941B2 (en) Image processing system, image processing method and program, and imaging apparatus
JP2013258453A (en) Image processing method, image pickup apparatus, image processing apparatus, and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603